1

Man mache sich keine Illusionen bzgl. der Kosten von Net Zero

Der Rechnungsprüfungsausschuss des britischen Parlaments (Public Accounts Committee, PAC) veröffentlichte letzte Woche einen Bericht, der feststellte, dass es „keinen koordinierten Plan mit klaren Meilensteinen zum Erreichen“ von ‚Netto-Null‘-Emission bis zum Jahr 2050 gibt. Dieses Fehlen eines Plans, so behauptete der Ausschuss, mache es für das Parlament und die Öffentlichkeit schwierig, den Fortschritt auf dem Weg zum Ziel zu verstehen oder zu überprüfen.

Sonderausschüsse wie der PAC werden von Abgeordneten aller Parteien besetzt und sind einer der wichtigsten Mechanismen des Parlaments, um Ministerien, Minister und die Regierung zur Rechenschaft zu ziehen. Aber während das PAC zu Recht darauf hinweist, dass die Regierung keine Ahnung hat, wie das Netto-Null-Ziel erreicht werden soll, haben die Abgeordneten auch keine, obwohl sie dafür ebenso viel Verantwortung tragen.

Natürlich gibt es keinen Plan, wie man Net Zero erreichen kann. Genau wie beim Climate Change Act (CCA) 2008, der eine Emissionsreduktion von 80 Prozent forderte, wurde das Net-Zero-Ziel festgelegt, lange bevor sich jemand Gedanken darüber gemacht hat, wie es tatsächlich erreicht werden kann. Der politische Konsens, der uns das Netto-Null-Ziel bescherte, wird durch drei Faktoren konterkariert: das Fehlen eines globalen Netto-Null-Abkommens, der Mangel an verfügbarer Technologie und die fehlende Unterstützung der Bevölkerung.

Zu der Zeit, als die Abgeordneten 2008 das CCA unterzeichneten, war die Politikverdrossenheit der Bevölkerung auf einem Rekordniveau. Dies öffnete Kampagnen der grünen Lobby und ähnlicher Organisationen Tür und Tor. Diese Sonderinteressen behaupteten, dass die Klimapolitik – einschließlich großzügiger Subventionen für grüne Technologien – grüne Innovationen und wirtschaftliche Wiederbelebung bringen würde. Sie behaupteten auch, dass die „Rettung des Planeten“ ein populäres Anliegen werden würde und die öffentliche Meinung mobilisieren würde. Diese Versprechen erwiesen sich als haltlos.

Das Problem kristallisiert sich in der Zusammenfassung des PAC-Berichts heraus:

Bis zu 62 Prozent der zukünftigen Emissionsreduzierung werden von individuellen Entscheidungen und Verhaltensweisen abhängen, von Entsc heidungen bzgl. des alltäglichen Lebensstils bis hin zu einmaligen Anschaffungen wie dem Austausch von Heizkesseln, die fossile Brennstoffe verwenden, oder dem Kauf eines Elektrofahrzeugs. Die Regierung hat sich noch nicht richtig mit der Öffentlichkeit über die erheblichen Verhaltensänderungen auseinandergesetzt, die das Erreichen von Net Zero erfordern wird.

Wenn aber 62 Prozent der Emissionsreduzierung „auf individuellen Entscheidungen und Verhaltensweisen beruhen sollen“, dann erfordert die Net Zero-Politik notwendigerweise die Abschaffung von „Entscheidungen“ der Öffentlichkeit und die staatliche Regulierung ihrer „Verhaltensweisen“. Und da es keinen gleichwertigen, emissionsfreien Ersatz für Ihre Heizung, Ihr Auto oder für die vielen anderen alltäglichen, Energie benötigenden Aktivitäten gibt, ist das unvermeidliche Ergebnis von Netto-Null eine Reduzierung des Lebensstandards und der Lebensqualität der meisten Menschen.

Grüne Befürworter behaupten zum Beispiel, dass neue Technologien unsere Abhängigkeit vom Gasnetz beenden können. Und die Regierung hat angekündigt, dass die Installation von Gaskesseln in den 2030er Jahren verboten werden soll, um den Einsatz von Wärmepumpen zu fördern. Aber das hat auch seine Schattenseiten. Wärmepumpen kosten in der Regel ein Vielfaches dessen, was ein Gaskessel kostet – mindestens das 3,5-fache für das Gerät selbst, die Installationskosten nicht mitgerechnet. Sie benötigen viel größere Heizkörper, als die meisten Häuser bereits haben, und laute Wärmetauscher-Einheiten (identisch mit Klimaanlagen) müssen auch an der Außenseite jedes Hauses installiert werden. Und da Wärmepumpen weniger in der Lage sind, Wärme bei Bedarf zu erzeugen, müssen Häuser, in denen sie installiert sind, erheblich isoliert werden.

Außerdem sind Wärmepumpen kategorisch keine gleichwertigen Produkte zu Heizkesseln. „Gaskessel heizen Ihr Haus auf Knopfdruck, während eine Wärmepumpe 24 Stunden braucht, um das Haus auf 17 bis 19 Grad zu erwärmen“, räumte Chris Stark, der Vorsitzende des Climate Change Committee, kürzlich ein. Die Tatsache, dass man sein Haus nicht auf Zimmertemperatur heizen kann, „wird ein Umdenken erfordern“, fügte Stark hinzu.

Aber selbst wenn die „Einstellung“ der Menschen so verändert werden könnte, dass sie den Entwürfen von Beamten entspricht, ist es nicht die „Einstellung“, die benötigt wird, um die Zehntausende von Euro aufzubringen, die es kostet, ein gewöhnliches Haus in ein Net Zero-konformes Haus zu verwandeln. Eine Studie der Stadtverwaltung von Nottingham, bei der 10 ganz gewöhnliche Häuser nachgerüstet wurden, ergab, dass ein kleines Haus fast 90.000 Pfund benötigt, um es „kohlenstoffarm“ zu machen.

Das grüne Lager hat keine Erklärung angeboten, um zu zeigen, dass diese Kosten reduziert werden können, außer Annahmen über Größenvorteile. Aber das könnte eine unsichere Annahme sein, da die grüne Politik auch die Baupreise in die Höhe treiben wird. Die „Nachrüstung“ könnte die Haushalte am Ende fast das Äquivalent eines Jahrhunderts heutiger Energierechnungen kosten, für das Versprechen von bescheidenen (wenn überhaupt) Einsparungen bei zukünftigen Energierechnungen.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/ben-pile-come-clean-about-the-cost-of-net-zero/

Übersetzt von Chris Frey EIKE

 




Treiben Windmühlen die Zwergfleder­mäuse in den Untergang?

Laut einer neuen Studie in Scientific Reports machen Zwergfledermäuse mehr als die Hälfte aller Fledermaus-Todesfälle an Turbinenstandorten in Europa aus. Die Gründe dafür sind nicht ganz klar, aber die Ergebnisse des Berichts deuten darauf hin, dass die Fledermäuse aus irgendeinem besonderen Grund von den Windturbinen angezogen werden könnten.

Auf der Website der University of Exeter liest man:

Die Aktivität von Zwergfledermäusen wurde an 23 britischen Windparks und ähnlichen „Kontrollstandorten“ in der Nähe ohne Turbinen überwacht.

Die Aktivität war an den Turbinen um etwa ein Drittel höher als an den Kontrollstandorten, und zwei Drittel des Auftretens hoher Aktivität wurden eher an den Turbinen als an den Kontrollstandorten registriert.

Die Gründe dafür sind nicht klar. Möglicherweise werden die Fledermäuse von den Turbinen selbst angezogen oder es gibt in der Nähe der Turbinen mehr Beuteinsekten für die Fledermäuse.

So oder so bedeutet dies, dass das Risiko von Todesfällen an Windturbinen erhöht ist und erklärt wahrscheinlich die hohen Todesfälle von Zwergfledermäusen, die in einigen Windparks in Europa beobachtet wurden“, sagt Dr. Suzanne Richardson.

Diese Erkenntnis, nämlich dass Zwergfledermäuse tatsächlich von Windkraftanlagen angezogen werden, könnte erklären, warum die aktuellen Umweltverträglichkeitsprüfungen bei der Vorhersage der tatsächlichen Todesraten von Fledermäusen schlecht abgeschnitten haben.

Darüber hinaus, so heißt es in dem Bericht, „legen sie auch nahe, dass betriebliche Abhilfemaßnahmen (Minimierung der Blattrotation in Zeiten mit hohem Kollisionsrisiko) wahrscheinlich der effektivste Weg sind, um Kollisionen zu reduzieren, da die Anwesenheit von Turbinen die Fledermausaktivität verändert.“

Der ganze Bericht steht hier.

Autor: Craig Rucker is a co-founder of CFACT and currently serves as its president.

Link: https://www.cfact.org/2021/03/04/do-wind-turbines-draw-pipistrelle-bats-to-their-doom/

Übersetzt von Chris Frey EIKE

 




Es gibt solche Modelle und solche Modelle

Ich erwähne das alles, um Sie wissen zu lassen, dass ich weit, weit davon entfernt bin, ein Anfänger oder gar ein Programmierer-Geselle zu sein. Ich habe z. B. mit „computerbasierter Evolution“ gearbeitet, um zu versuchen, den Aktienmarkt zu analysieren, bevor die meisten Leute überhaupt davon gehört haben. …

Nun, wer meine Arbeiten gelesen hat weiß, dass ich weit davon entfernt bin, Computer-Klimamodelle zu lieben. Ich wurde gefragt: „Was haben Sie gegen Computermodelle?“ und „Wie können Sie den Modellen nicht vertrauen, wir benutzen sie doch für alles?“

Nun, basierend auf einer lebenslangen Erfahrung auf diesem Gebiet kann ich Ihnen ein paar Dinge über Computerklimamodelle und Computermodelle im Allgemeinen versichern. Hier ist die Kurzfassung:

● Ein Computermodell ist nichts anderes als eine physikalische Umsetzung der Überzeugungen, Vorstellungen, falschen Ideen und Missverständnisse desjenigen, der das Modell geschrieben hat. Daher werden die Ergebnisse, die es produziert, die Überzeugungen, Auffassungen, falschen Ideen und Missverständnisse des Programmierers unterstützen, bestätigen und verkörpern. Alles, was der Computer tut, ist, diese Überzeugungen und Missverständnisse offiziell und vernünftig aussehen zu lassen. Oh, und er macht sehr, sehr schnell Fehler. Ich habe das schon erlebt.

● Computer-Klimamodelle gehören zu einer bestimmten Klasse von Modellen, die „iterative“ Computermodelle genannt werden. In dieser Klasse von Modellen wird die Ausgabe eines Zeitschrittes als Eingabe für den nächsten Zeitschritt in den Computer zurückgespeist. Mitglieder dieser Klasse von Modellen sind notorisch launisch, instabil und neigen zu internen Oszillationen und allgemein zum Herunterfallen. Normalerweise müssen sie in gewisser Weise künstlich „eingezäunt“ werden, damit sie nicht außer Kontrolle geraten.

● Wie jeder bestätigen kann, der schon einmal versucht hat, z. B. den Aktienmarkt zu modellieren, kann ein Modell, das die Vergangenheit absolut fehlerfrei reproduzieren kann, in der Tat sehr wahrscheinlich völlig falsche Vorhersagen für die Zukunft liefern wird. Ich habe das auch schon erlebt. Wie es in der Brokerwerbung in den USA heißen muss: „Vergangene Performance ist keine Garantie für zukünftigen Erfolg“.

● Das bedeutet, dass die Tatsache, dass ein Klimamodell das vergangene Klima perfekt nachzeichnen kann, NICHT bedeutet, dass es eine genaue Darstellung der Realität ist. Und vor allem bedeutet es NICHT, dass es die Zukunft genau vorhersagen kann.

● Chaotische Systeme wie Wetter und Klima sind notorisch schwer zu modellieren, selbst auf kurze Sicht. Das ist der Grund, warum Vorhersagen über den zukünftigen Weg eines Wirbelsturms in den nächsten 48 Stunden die Form eines Kegels und nicht einer geraden Linie haben.

● Es gibt einen ganzen Zweig der Informatik namens „V&V“, was für Validierung und Verifizierung steht. So können Sie sicher sein, dass Ihre Software der Aufgabe gewachsen ist, für die sie entwickelt wurde. Hier ist eine Beschreibung aus dem Internet:

Was ist Software-Verifizierung und -Validierung (V&V)?

Verifizierung

820.3(a) Verifikation ist die Bestätigung durch Prüfung und Erbringung eines objektiven Nachweises, dass festgelegte Anforderungen erfüllt wurden.

„Dokumentierte Verfahren, die in der Benutzerumgebung durchgeführt werden, um die Ergebnisse zu erhalten, aufzuzeichnen und zu interpretieren, die erforderlich sind, um festzustellen, dass die vorgegebenen Spezifikationen erfüllt wurden“ (AAMI).

Validierung

820.3(z) Validierung bedeutet die Bestätigung durch Untersuchung und Erbringung eines objektiven Nachweises, dass die besonderen Anforderungen für einen bestimmten Verwendungszweck konsistent erfüllt werden können.

Prozessvalidierung bedeutet die Feststellung durch objektive Beweise, dass ein Prozess konsistent ein Ergebnis oder ein Produkt erzeugt, das seinen vorgegebenen Spezifikationen entspricht.

Designvalidierung ist der objektive Nachweis, dass die Produktspezifikationen mit den Bedürfnissen des Anwenders und der vorgesehenen Verwendung(en) übereinstimmen.

Dokumentiertes Verfahren zur Erlangung, Aufzeichnung und Interpretation der Ergebnisse, die erforderlich sind, um festzustellen, dass ein Prozess konsistent ein Produkt hervorbringt, das den vorgegebenen Spezifikationen entspricht“ (AAMI).

Weitere Informationen zu V&V hier.

● Ihre durchschnittliche Fahrstuhl-Steuerungssoftware wurde mehr V&V unterzogen als die Computerklimamodelle. Und wenn die Software eines Computermodells nicht einer umfangreichen und strengen V&V unterzogen wurde, ist die Tatsache, dass das Modell sagt, dass etwas in der Modellwelt passiert, KEIN Beweis dafür, dass es in der realen Welt tatsächlich passiert … und selbst dann, wie man sagt, „Mist auftritt“. Wir haben eine Marssonde verloren, weil jemand eine einzige Zahl nicht von imperialen Maßen in metrische umgerechnet hat … und Sie können darauf wetten, dass die NASA ihre Programme einer umfangreichen und strengen V&V unterzieht.

● Computermodellierer, mich manchmal eingeschlossen, unterliegen alle dem fast unwiderstehlichen Wunsch, die Modellwelt mit der realen Welt zu verwechseln. Sie sagen Dinge wie „Wir haben festgestellt, dass das Klimaphänomen X durch den Antrieb Y verursacht wird“. Richtig wäre aber: „Wir haben festgestellt, dass in unserem Modell das modellierte Klimaphänomen X durch unseren modellierten Antrieb Y verursacht wird“. Leider sind die Modellierer nicht die einzigen, die bei diesem Prozess getäuscht werden.

● Je mehr einstellbare Parameter ein Modell hat, desto unwahrscheinlicher ist es, dass es die Realität genau abbildet. Klimamodelle haben Dutzende von abstimmbaren Parametern. Hier sind 25 von ihnen, es gibt aber noch viele mehr:

Was ist falsch mit Parametern in einem Modell? Hier ist eine oft wiederholte Geschichte über den berühmten Physiker Freeman Dyson, der von dem noch berühmteren Enrico Fermi zu diesem Thema belehrt wurde …

Im Frühjahr 1953 hatten wir nach heroischen Anstrengungen theoretische Graphen der Meson-Proton-Streuung gezeichnet. Wir beobachteten freudig, dass unsere berechneten Zahlen ziemlich gut mit den gemessenen Zahlen von Fermi übereinstimmten. Also machte ich einen Termin aus, um mich mit Fermi zu treffen und ihm unsere Ergebnisse zu zeigen. Stolz fuhr ich mit dem Greyhound-Bus von Ithaca nach Chicago, um Fermi ein Paket mit unseren theoretischen Graphen zu zeigen.

Als ich in Fermis Büro ankam, überreichte ich Fermi die Graphen, aber er warf kaum einen Blick auf sie. Er lud mich ein, Platz zu nehmen, und fragte mich freundlich nach der Gesundheit meiner Frau und unseres neugeborenen kleinen Sohnes, der jetzt fünfzig Jahre alt geworden war. Dann verkündete er sein Urteil mit ruhiger, gleichmäßiger Stimme. „Es gibt zwei Wege, Berechnungen in der theoretischen Physik durchzuführen“, sagte er. „Der eine Weg, und das ist der Weg, den ich bevorzuge, besteht darin, ein klares physikalisches Bild von dem Prozess zu haben, den man berechnet. Der andere Weg ist, einen präzisen und in sich konsistenten mathematischen Formalismus zu haben. Beides hat man nicht.“

Ich war etwas verblüfft, wagte es aber ihn zu fragen, warum er die pseudoskalare Mesontheorie nicht als einen in sich konsistenten mathematischen Formalismus ansah. Er antwortete: „Die Quanten-Elektrodynamik ist eine gute Theorie, weil die Kräfte schwach sind, und wenn der Formalismus mehrdeutig ist, haben wir ein klares physikalisches Bild, das uns leitet. Bei der pseudoskalaren Mesonentheorie gibt es kein physikalisches Bild, und die Kräfte sind so stark, dass nichts konvergiert. Um Ihre berechneten Ergebnisse zu erreichen, mussten Sie willkürliche Abschneideverfahren einführen, die weder auf solider Physik noch auf solider Mathematik beruhen.“

In meiner Verzweiflung fragte ich Fermi, ob er nicht beeindruckt sei von der Übereinstimmung zwischen unseren berechneten Zahlen und seinen gemessenen Zahlen. Er antwortete: „Wie viele willkürliche Parameter haben Sie für Ihre Berechnungen verwendet?“ Ich dachte einen Moment über unsere Abschneideverfahren nach und sagte: „Vier.“ Er sagte: „Ich erinnere mich, dass mein Freund John von Neumann zu sagen pflegte: Mit vier Parametern kann ich einen Elefanten einpassen, und mit fünf kann ich ihn mit dem Rüssel wackeln lassen.“ Damit war das Gespräch beendet. Ich bedankte mich bei Fermi für seine Zeit und Mühe, und nahm traurig den nächsten Bus zurück nach Ithaca, um den Studenten die schlechte Nachricht zu überbringen.

● Das Klima ist wohl das komplexeste System, das der Mensch zu modellieren versucht hat. Es hat nicht weniger als sechs große Subsysteme – den Ozean, die Atmosphäre, die Lithosphäre, die Cryosphäre, die Biosphäre und die Elektrosphäre. Keines dieser Subsysteme ist für sich genommen gut verstanden, und wir haben nur punktuelle, lückenhafte, grobe Messungen von jedem einzelnen. Jedes von ihnen hat seine eigenen internen Zyklen, Mechanismen, Phänomene, Resonanzen und Rückkopplungen. Jedes der Subsysteme interagiert mit jedem der anderen. Es gibt wichtige Phänomene, die auf allen Zeitskalen von Nanosekunden bis zu Millionen von Jahren und auf allen räumlichen Skalen von Nanometern bis zum gesamten Planeten auftreten. Schließlich gibt es sowohl interne als auch externe Einflüsse von unbekanntem Ausmaß und Wirkung. Wie wirkt sich zum Beispiel der Sonnenwind auf die Biosphäre aus? Nicht nur das, wir sind erst seit ein paar Jahrzehnten an dem Projekt dran. Unsere Modelle sind … nun ja … um großzügig zu sein, würde ich sie als Bastelvorlagen für die Komplexität der realen Welt bezeichnen.

Viele Läufe von Klimamodellen enden auf dem Fußboden des Schneideraums, weil sie nicht mit den Überzeugungen, Auffassungen, falschen Ideen und Missverständnissen des besagten Programmierers übereinstimmen. Sie zeigen uns nur die Ergebnisse der Modellläufe, mit denen sie einverstanden sind, nicht aber die Ergebnisse der Läufe, bei denen das Modell aus den Fugen geraten ist. Hier sind zweitausend Läufe von 414 Versionen eines Modells, das zuerst eine Kontroll- und dann eine Doppel-CO2-Simulation durchführt. Man erkennt, dass viele der Ergebnisse weit aus dem Rahmen fallen:

Aus all diesen Überlegungen folgt, dass jeder, der glaubt, dass die Klimamodelle etwas „beweisen“ oder „feststellen“ oder „verifizieren“ können, was vor fünfhundert Jahren passiert ist oder in hundert Jahren passieren wird, in einem Narrenparadies lebt. Diese Modelle sind dieser Aufgabe in keiner Weise gewachsen. Sie mögen uns Einsichten bieten oder uns dazu bringen, neue Ideen in Betracht zu ziehen, aber sie können nur Dinge in der Modellwelt „beweisen“, nicht aber in der realen Welt.

Ich möchte klarstellen, dass ich selbst Dutzende von Modellen geschrieben habe und nicht gegen Modelle bin. Ich habe sie mein ganzes Leben lang geschrieben und benutzt. Allerdings gibt es diese Modelle, und dann gibt es jene Modelle. Einige Modelle wurden getestet und einer umfangreichen V&V unterzogen, und ihre Ergebnisse wurden mit der realen Welt verglichen und als sehr genau befunden. Also benutzen wir sie, um interplanetare Sonden zu navigieren und neue Flugzeug-Tragflächen und ähnliches zu entwerfen.

Klimamodelle gehören leider nicht zu dieser Klasse von Modellen. Verdammt, wenn sie es wären, bräuchten wir nur eines von ihnen, anstatt der Dutzenden, die heute existieren und die uns alle unterschiedliche Antworten geben … was zu der ultimativen Hybris der Modellierer führt, der Idee, dass die Mittelung dieser Dutzenden von Modellen das „Rauschen“ beseitigt und nur solide Ergebnisse zurücklässt.

Schließlich könnte ich als lebenslanger Computerprogrammierer der Behauptung „Alle Modelle sind falsch, aber einige sind nützlich“ nicht mehr widersprechen. Nehmen wir beispielsweise die CFD-Modelle, die die Boeing-Ingenieure verwenden, um die Tragflächen von Jumbo-Jets zu entwerfen oder die Modelle, die unsere Aufzüge steuern. Will mir jemand ernsthaft weismachen, dass diese Modelle falsch sind? Wer das wirklich glaubt, würde nie wieder fliegen oder in einen Aufzug steigen. Sicher, sie sind keine exakten Reproduktionen der Realität, das ist es, was „Modell“ bedeutet … aber sie sind richtig genug, um sich in Situationen, in denen es um Leben und Tod geht, auf sie verlassen zu können.

Lassen Sie mich diese Frage klar formulieren. Während Modelle, die richtig sind, absolut nützlich sind, ist es sicherlich auch möglich, dass ein Modell, das falsch ist, nützlich ist.

Aber damit ein Modell, das falsch ist, nützlich ist, müssen wir unbedingt verstehen, WARUM es falsch ist. Sobald wir wissen, wo es falsch gelaufen ist, können wir den Fehler beheben. Aber bei den komplexen iterativen Klimamodellen, die Dutzende von Parametern benötigen, bei denen die Ausgabe eines Zyklus‘ als Eingabe für den nächsten Zyklus verwendet wird und bei denen ein hundertjähriger Lauf mit einem halbstündigen Zeitschritt 1,75 Millionen Schritte umfasst, ist es fast unmöglich zu bestimmen, wo ein Klimamodell vom Weg abgekommen ist. War es ein Fehler in dem Parameter, der die Eistemperatur in 10.000 Fuß Höhe angibt? War es ein Fehler in dem Parameter, der die Bildung von Schmelztümpeln auf dem Meereis nur auf bestimmte Monate beschränkt? Es gibt keine Möglichkeit, das festzustellen, also gibt es auch keine Möglichkeit, aus unseren Fehlern zu lernen.

Als nächstes werden alle diese Modelle „getrimmt“, um den vergangenen langsamen Erwärmungstrend darzustellen. Und im Allgemeinen machen sie das gut … weil die verschiedenen Parameter angepasst und das Modell im Laufe der Zeit verändert wurde, bis sie das taten. Es ist also keine Überraschung, dass sie diesen Job gut machen können … zumindest in den Teilen der Vergangenheit, auf die sie getrimmt worden waren, um sie zu reproduzieren.

Aber dann ziehen die Modellierer die modellierten „anthropogenen Antriebe“ wie CO2 heraus und verkünden stolz, dass – da das Modell die vergangene allmähliche Erwärmung nicht mehr reproduzieren kann – dies beweist, dass die anthropogenen Antriebe die Ursache der Erwärmung sind … Ich nehme an, dass das Problem mit dieser Behauptung klar wird.

Hinzu kommt, dass die Gittergröße der Computermodelle weit größer ist als wichtige Klimaphänomene wie Gewitter, Staubteufel und Tornados. Wenn das Klimamodell falsch ist, liegt das daran, dass es diese Phänomene nicht enthält? Ich sage: ja … die Klima-Computermodellierer sagen nichts.

Wir wissen ja nicht einmal, ob die Navier-Stokes-Gleichungen der Strömungsdynamik, wie sie in den Klimamodellen verwendet werden, zur richtigen Antwort konvergieren, und soweit ich das beurteilen kann, gibt es keine Möglichkeit, das zu bestimmen.

Um den Kreis zu schließen, lassen Sie mich zu meinem Ausgangspunkt zurückkehren – ein Computermodell ist nichts anderes als meine Ideen, die verfestigt wurden. Das war’s. Das ist alles.

Wenn ich also denke, dass CO2 der geheime Steuerknopf für die globale Temperatur ist, dann wird die Ausgabe eines jeden von mir erstellten Modells diese Annahme widerspiegeln und verifizieren.

Wenn ich aber denke (wie ich es tue), dass die Temperatur durch sich entwickelnde Phänomene in engen Grenzen gehalten wird, dann wird die Ausgabe meines neuen Modells diese Annahme widerspiegeln und verifizieren.

Nun, würden die Ausgaben eines dieser sehr unterschiedlichen Modelle „Beweise“ für die reale Welt sein?

Nicht auf diesem Planeten.

Und das ist die kurze Liste der Dinge, die mit Computermodellen falsch sind … es gibt viel mehr, aber wie Pierre sagte, „die Ränder dieser Seite sind zu klein, um sie zu enthalten“ …

Link: https://wattsupwiththat.com/2021/03/12/there-are-climate-models-and-there-are-climate-models/

Übersetzt von Chris Frey EIKE

 




Wöchentlicher Kältereport…

1. Tiere in Kasachstan schockartig zu Tode gefroren

Wir fragen uns, wie die Mammuts und Mastodons erfroren sind. Dieses Video könnte es erklären.

Diese Tiere in Kasachstan sind offenbar erfroren, als die Temperatur am 20. Januar 2021 auf -58°C fiel. (Ich vermute, dass es in Kasachstan im Moment keine globale Erwärmung gibt.)

Link: https://www.iceagenow.info/animals-instantly-freeze-to-death-in-kazakhstan-short-video/

(4. März 2021)

——————————–

2a. Schneesturm schneidet russisches Dorf von der Welt ab

Tschukotka von der Welt abgeschnitten: Tschukotka getroffen von einem Orkan von schweren Schneefall. Schulen geschlossen, Busse fahren nicht, Flughafen geschlossen, Dächer von Gebäuden abgerissen, Menschen werden buchstäblich vom Wind umgeworfen, schwerer Unfall, als 15 Autos und zwei Krankenwagen in der Stadt Artem zusammenstießen.

Schwerer Schneesturm in Anadyr.

Der größte Teil des russischen Fernen Ostens wird jetzt von einem Blizzard mit Winden in Hurrikan-Stärke heimgesucht.

„Muss die Hölle sein, sich durch solche Bedingungen kämpfen zu müssen“, sagt Leser David Hartley.

——————————–

2b. Stürme und Blizzards in Marokko

Am Freitag, 5. März, kam es in einigen Provinzen des Königreichs Marokko zu schweren Gewittern und Schneefällen. In den Städten Essaouira, Safi, Casablanca und El Jadida wurde die meteorologische Gefahrenstufe Orange ausgerufen.

——————————–

2c. Kältester Monat seit 9 Jahren in Russland

Der Februar 2021 war der kälteste Monat der letzten 9 Jahre, sagte der wissenschaftliche Direktor des russischen hydrometeorologischen Zentrums in einer Online-Konferenz, die diesen Donnerstag bei TASS stattfand. Darüber hinaus fiel die durchschnittliche monatliche Temperatur zum ersten Mal in diesem Zeitraum unter den Normalwert.

Und der Winter gibt nicht auf. Obwohl es schon März ist, werden die Fröste wieder stärker. In der Region Central kann die Temperatur an diesem Wochenende auf -18°C fallen.

Link zu 2.: https://www.iceagenow.info/blizzard-cuts-russian-village-off-from-the-world-storms-and-blizzards-in-morocco/

(5. März 2021)

——————————–

3. „Frühling“ explodierte mit Blizzards in Moskau und Umgebung

Dem Kalender nach ist das Frühjahr gekommen, aber stattdessen gab es in Moskau und Umgebung schwere Schneestürme.

Vorläufigen Vorhersagen zufolge beträgt die Abweichung der täglichen Temperatur 12 K oder mehr vom Normalwert.

Überraschenderweise wird der März-Frost den Januar-Frost um 3 Grad überflügeln!

Der März dürfte im Mittel kälter ausfallen als der Januar-Frost.

https://www.iceagenow.info/spring-has-exploded-in-blizzards-in-moscow-and-the-moscow-region/

(8. März 2021)

——————————–

4. Rekord-Kälte im Norden des Europäischen Russlands

Januar-Temperaturen im März: In einigen Gebieten sank die Temperatur bis -40°C oder sogar noch tiefer.

Im Norden des europäischen Territoriums wurden bereits Fröste von minus dreißig Grad festgestellt, und in mehreren Städten fiel die Temperatur in der Nacht zum ersten Frühlingsfeiertag auf Rekordtiefstwerte. Zusätzlich zu den bereits rekordtiefen Werten verschärfte sich der Frost von der Kola-Halbinsel bis Vorkuta noch weiter.

In der Region Murmansk war der Rekordhalter die Siedlung Krasnoschtschelje, wo die Temperatur auf -34,5°C fiel.

In der Region Archangelsk stach die nordöstlich des regionalen Zentrums gelegene Stadt Mezen mit einem neuen Tagestiefstwert von jetzt -31,9°C hervor.

In der Republik Komi wurde der Temperaturrekord in Pechora mit einer Tiefsttemperatur von -38,1°C aufgestellt.

In der Nacht zum Dienstag hielt die ungewöhnliche Kälte in Nordeuropa an. Im Gebiet Vorkuta sank die Temperatur auf -40°C und in einigen Gebieten sogar noch kälter als das.

http://www.hmn.ru/index.php?index=1&ts=210309120143

Link: https://www.iceagenow.info/record-cold-in-northern-european-russia/

(10. März 2021)

Übersetzt von Chris Frey EIKE




Eine kurze Historie des Klima-Alarms

Homewood sagt: „Es spielt keine Rolle, welchen Bereich des Klimas man betrachtet, Klimatologen haben eine außergewöhnliche Fähigkeit, sich zu irren. Von der Angst vor einer kommenden Eiszeit in den 1970er Jahren über das Versinken tropischer Inseln in den Wellen bis hin zu permanenter Dürre – sie scheinen immer daneben zu liegen.“

Und während ihre Vorhersagen eher von der untergangslastigen Art sind, ist das nicht immer der Fall. Homewood erklärt:

„Die Katastrophe ist der Prüfstein der Klimawissenschaftler, und es ist ihr Standardmodus, sich zu irren. Unglücklicherweise haben sich ihre Vorhersagen auch in den seltenen Fällen, in denen sie uns gute Nachrichten bringen, wie z.B. die Behauptung, dass sich in Großbritannien ein mediterranes Klima entwickeln würde, als nicht besser erwiesen. Sind das wirklich die richtigen Leute, um die öffentliche Politik zu lenken?“

Und hier die Studie:

Eine kurze Historie des Klima-Alarms

Paul Homewood

Preface

„In einem Zeitraum von 176 Jahren hat sich der untere Mississippi um 242 Meilen verkürzt. Das ist ein Durchschnitt von etwas mehr als einer Meile und einem Drittel pro Jahr. Daher kann jeder ruhige Mensch, der nicht blind oder idiotisch ist, sehen, dass der untere Mississippi in der alten oolithischen Silur-Periode, also vor einer Million Jahren im November nächsten Jahres, über 1,3 Millionen Meilen lang war und wie eine Angelrute über den Golf von Mexiko hinausragte. Und aus dem gleichen Grund kann jeder Mensch sehen, dass in 742 Jahren der untere Mississippi nur noch eine Meile und drei Viertel lang sein wird, und Kairo [USA] und New Orleans werden ihre Straßen zusammengelegt haben und unter einem einzigen Bürgermeister und einem gemeinsamen Stadtrat gemütlich dahinplätschern. Die Wissenschaft hat etwas Faszinierendes an sich. Man erhält solche Großhandels-Renditen von Vermutungen aus einer solchen unbedeutenden Investition von Tatsachen. – Mark Twain, Life on the Mississippi

Die Menschheit schien schon immer von Verheißungen der Apokalypse und der globalen Katastrophe fasziniert zu sein. Oft waren sie religiös begründet. Das Buch der Offenbarung zum Beispiel sagte eine Reihe von Katastrophen voraus, wie Kriege, Seuchen und Hungersnöte als Strafe für die Sünden der Menschen. Aber viele Zivilisationen hatten ähnliche Geschichten, von den Assyrern zu den Hindus und den Azteken zu den Wikingern.

Frühe Mythen besagten, dass die Stadt Rom 634 v. Chr. zerstört werden würde. Im Mittelalter mehrten sich die Untergangs-Prophezeiungen, die oft auf der Vorstellung einer göttlichen Vergeltung für die Sünden der Menschheit beruhten. In den 1970er Jahren tauchte eine neue Art von Prophezeiungen auf, die nicht auf der Religion, sondern auf dem Umweltschutz basierten. Diese Behauptungen hatten jedoch den gemeinsamen Nenner der Sünden der Menschen. Viele vermeintliche Experten sagten schreckliche Hungersnöte, sinkende Lebenserwartung, Ozonlöcher, eine neue Eiszeit und das Ende der Zivilisationen voraus. Der Biologe Dr. Paul Ehrlich von der Stanford University prophezeite sogar, dass alle Menschen vor 1990 in einer blauen Rauchwolke verschwinden würden.

Wir können heute zurückblicken und über diese Spinner lachen, aber damals wurden sie in der Tat sehr ernst genommen. In jüngerer Zeit haben wir uns an immer häufigere Behauptungen über den bevorstehenden Untergang gewöhnt, diesmal wegen des Klimawandels. Aber sind solche Behauptungen überhaupt glaubwürdiger als die früheren? In dieser Analyse wird ein Teil der Geschichte des Klimaalarms beleuchtet.

Die Angst vor der Eiszeit in den 1970er Jahren

Zahlreiche Berichte in den 1970er Jahren spiegelten die Sorge wider, dass die Erde auf eine neue Eiszeit zusteuert. Diese werden heute oft als bloßes Zeitungsgeschwätz abgetan, aber sie waren weit mehr als das.

Einige Wissenschaftler sagten eine komplette Eiszeit voraus, wie z. B. Dr. Rasool von der NASA, der meinte, dass die Luftverschmutzung einen Temperaturrückgang von sechs Grad verursachen würde.1 Solche Vorhersagen waren eher von der extremen Sorte, aber es gab einen weit verbreiteten Konsens unter den Klimawissenschaftlern, dass die globalen Temperaturen seit den 1940er Jahren stark gesunken waren und dass dieser Trend wahrscheinlich anhalten würde.

Die US-Regierung war so besorgt über die Ereignisse, dass sie 1974 ein Subcommittee on Climate Change einrichtete, was wiederum im selben Jahr zum US-Klimaprogramm und der anschließenden Gründung des Climate Analysis Center führte, das den Klimawandel überwachen und vorhersagen sollte. Dies war der Vorgänger des heutigen NCEI, des National Centers for Environmental Information des US Department of Commerce.2

Unnötig zu sagen, dass der Abkühlungstrend bald nach der Gründung des Unterausschusses endete und die Erwärmung wieder einsetzte.

Wenn die Kälte euch nicht einfangen wird, dann wird es die Hitze tun!

In den 1980er Jahren kehrte sich der Abkühlungstrend um, und es dauerte nicht lange, bis die Prognosen der Apokalypse wieder auftauchten, diesmal jedoch auf der Grundlage der Vorstellung eines Treibhausplaneten. 1989 hielt sich Noel Brown, Direktor des New Yorker Büros des UN-Umweltprogramms, nicht zurück und warnte uns, dass:3

● ganze Nationen durch den steigenden Meeresspiegel vom Erdboden verschwinden könnten, wenn der globale Erwärmungstrend nicht bis zum Jahr 2000 umgekehrt wird;

● Überschwemmungen an den Küsten und Ernteausfälle würden einen Exodus von „Öko-Flüchtlingen“ auslösen;

● Der Meeresspiegel würde um bis zu einem Meter steigen;

● Küstenregionen würden überflutet werden – ein Sechstel von Bangladesch könnte überschwemmt werden, wodurch ein Viertel der 90 Millionen Einwohner vertrieben würde, und ein Fünftel des ägyptischen Ackerlandes im Nildelta würde überflutet werden, wodurch die Nahrungsmittelversorgung des Landes unterbrochen würde;

● Die Vereinigten Staaten würden allein für den Schutz ihrer Ostküste mindestens 100 Milliarden Dollar ausgeben;

● die Verschiebung der Klimamuster würde die Bedingungen der Dust Bowl der 1930er Jahre auf die Weizenfelder in Kanada und den USA zurückbringen.

● Die konservativste wissenschaftliche Schätzung war, dass die Temperatur der Erde in den folgenden 30 Jahren um 1 bis 7 Grad steigen würde.

Nun, das Jahr 2000 kam und ging, die Emissionen von Treibhausgasen stiegen weiter an, und die globalen Temperaturen stiegen um bescheidene 0,4°C. Unnötig zu erwähnen, dass auch keine der von Brown prognostizierten Katastrophen eintrat, wie spätere Kapitel zeigen werden.

X Jahre, um den Planeten zu retten

Noel Brown gab uns bis zum Jahr 2000 Zeit, den Planeten zu retten. Doch im Laufe der Jahre wurde das drohende Datum des Untergangs immer weiter nach hinten verschoben. Im Jahr 2009 erklärte Gordon Brown, der damalige britische Premierminister, unverblümt, dass wir „weniger als 50 Tage haben, um unseren Planeten vor der Katastrophe zu retten“. Seine Frist lief am 9. Dezember 2009 ab.4

Die australische Chefwissenschaftlerin, Penny Sackett, war optimistischer. Nur wenige Tage vor Gordon Browns Stunde Null warnte sie uns, dass wir noch fünf Jahre Zeit hätten, um die Welt vor einer katastrophalen globalen Erwärmung zu bewahren.5 Drei Jahre zuvor, im Jahr 2006, war Al Gore sehr viel konkreter und drohte, dass die Welt einen Punkt erreichen würde, an dem es kein Zurück mehr gäbe, wenn nicht innerhalb von zehn Jahren drastische Maßnahmen zur Reduzierung der Treibhausgase ergriffen würden.6 Als die Welt Al Gores Warnung ignorierte, gab uns Christiana Figueres von der UN weitere drei Jahre Zeit zum Durchatmen, aber auch diese Frist lief leider vor nur fünf Monaten ab.7

Allerdings ist es Prinz Charles, der den Preis für die meisten Falschaussagen einheimsen muss. Hier ist eine Liste seiner Alarmen über die Jahre:

● Juli 2009: Er sagte einem Publikum von Industriellen und Umweltschützern im St. James’s Palace, dass er berechnet habe, dass wir nur noch 96 Monate [8 Jahre] Zeit hätten, um die Welt zu retten.8

● Juli 2015: Er warnte, dass wir nur noch 35 Jahre hätten, um den Planeten vor einem katastrophalen Klimawandel zu retten.9

● Juli 2019: Er warnte die führenden Politiker der Welt, dass die nächsten 18 Monate über unsere Fähigkeit entscheiden würden, den Klimawandel auf einem überlebensfähigen Niveau zu halten und die Natur wieder in das Gleichgewicht zu bringen, das für unser Überleben notwendig ist.10

● Februar 2020: Er warnte, dass die Menschen nur noch zehn Jahre Zeit hätten, um den Planeten zu retten.11

Leider meinte er, als er „zehn Jahre“ sagte, eigentlich „eine Stunde“, also korrigierte er sich im November 2020 und sagte der Welt, dass „wir buchstäblich die letzte Stunde“ im Kampf gegen den Klimawandel hätten.12

Die Welt ist nicht untergegangen, wie vorhergesagt, obwohl die Kohlendioxid-Emissionen von Jahr zu Jahr weiter rapide angestiegen sind.13 Es ist bemerkenswert, dass keine dieser Untergangsvorhersagen mit einer wissenschaftlichen Grundlage versehen wurde. Im Gegenteil, die offiziellen Berichte des Intergovernmental Panel on Climate Change (IPCC) scheuen sich stets, solche Vorhersagen zu machen.

Großbritannien wird erfrieren, während die Niederlande ertrinken

Man könnte meinen, dass das Pentagon eine eher seriöse Einrichtung ist, die nicht zu Fantasie und Ballyhoo neigt. Dennoch gab es 2004 einen Bericht über den Klimawandel in Auftrag.14 Zu den wichtigsten Ergebnissen gehörten die folgenden Punkte:

● Bis 2007 würden heftige Stürme die Küstenbarrieren zerschlagen und große Teile der Niederlande unbewohnbar machen. Städte wie Den Haag müssten dann aufgegeben werden.

● Zwischen 2010 und 2020 würde Europa am stärksten vom Klimawandel betroffen sein, mit einem durchschnittlichen jährlichen Temperaturrückgang von 3°C. Das Klima in Großbritannien würde kälter und trockener werden, da die Wettermuster Sibirien ähneln würden.

● Die Zahl der Todesopfer durch Kriege und Hungersnöte würde in die Millionen gehen, bis die Bevölkerung so weit reduziert wäre, dass die Erde damit zurechtkäme.

● Unruhen und interne Konflikte würden Indien, Südafrika und Indonesien auseinanderreißen.

● Ein „signifikanter Rückgang“ der Fähigkeit des Planeten, seine derzeitige Bevölkerung zu halten, würde sich in den nächsten 20 Jahren bemerkbar machen.

● Millionen von Menschen könnten nicht mehr anbauen, entweder direkt durch den Klimawandel oder durch den Anstieg des Meeresspiegels. Reiche Gebiete wie die USA und Europa würden zu „virtuellen Festungen“ werden, um Millionen von Klimaflüchtlingen abzuhalten.

● Mega-Dürren würden die wichtigsten Kornkammern der Welt treffen, einschließlich des Mittleren Westens der USA, wo starke Winde zu Bodenverlusten führen würden.

● Chinas riesige Bevölkerung und sein Nahrungsmittelbedarf machten es besonders verwundbar. Bangladesch würde wegen des steigenden Meeresspiegels fast unbewohnbar werden.

Das Pentagon fuhr fort, den Bericht zu unterdrücken, was wahrscheinlich daran lag, dass sie genau wussten, um was für eine Ladung alten Mülls es sich dabei handelte. Wie auch immer, es war vorhersehbar, dass eine Schar von „Klimaexperten“ George Bush beschuldigte, die Bedrohung durch den Klimawandel unter den Teppich zu kehren.

Vielleicht noch schockierender als die Absurditäten in dem Bericht war die Liste der Koryphäen, die nichts Eiligeres zu tun hatten ihn zu unterstützen, darunter Professor Hans-Joachim Schellnhuber, ehemaliger Chef-Umweltberater der deutschen Regierung, Sir John Houghton, ehemaliger Chef des Meteorological Office, und Sir Bob Watson, Chefwissenschaftler der Weltbank und ehemaliger Vorsitzender des Intergovernmental Panel on Climate Change IPCC.

Kinder werden einfach nicht mehr wissen, was Schnee ist

Im März 2000 war Dr. David Viner ein leitender Forscher an der Climatic Research Unit (CRU) der University of East Anglia, der weltweit führenden Einrichtung für Klimawissenschaften. In einem Interview mit dem Independent in jenem Monat behauptete Viner unverblümt, dass Schneefall im Winter innerhalb weniger Jahre „ein sehr seltenes und aufregendes Ereignis“ sein würde. Kinder werden einfach nicht mehr wissen, was Schnee ist“, erklärte er.15

Er bezog sich dabei natürlich auf Großbritannien. In den zwanzig Jahren, die seither vergangen sind, hat sich seine Vorhersage nicht bewahrheitet. In den meisten Jahren seitdem hat es in Großbritannien immer wieder heftige Schneefälle gegeben. In der Tat waren die Winter 2008/09 und 2009/10 besonders schneereich.

Der Dezember 2010 war der kälteste Dezember seit mehr als 100 Jahren, mit weitreichenden Behinderungen durch Schnee.16

In jüngerer Zeit brachte das „Beast from the East“ im Februar 2018 mehrere Tage mit bitterer Kälte und Schneestürmen. Tausende von Schulen mussten schließen, ländliche Städte und Dörfer waren tagelang von der Außenwelt abgeschnitten, Tausende von Flügen und Bahnfahrten wurden gestrichen, und im ganzen Land kam es zu wetterbedingten Verkehrsunfällen.17

Obwohl sich Viner speziell auf Großbritannien bezog, hatte seine Theorie weitreichende Auswirkungen. Wenn wir jedoch einen Blick auf die gesamte nördliche Hemisphäre werfen, stellen wir fest, dass die Schneemenge im Winter seit seiner Behauptung keineswegs seltener geworden ist, sondern stetig zugenommen hat.

[Einschub des Übersetzers: Jüngst erkennt man eine weit überdurchschnittlich große Schneemenge auf der Nordhemisphäre, wie diese Graphik veranschaulicht {Stand 9. März 2021}:

Quelle

Ende Einschub]

Mediterrane Sommer

Das Ende von Schnee war nicht die einzige Vorhersage von Dr. Viner. Im Jahr 2006 erklärte er zuversichtlich, dass das Mittelmeer innerhalb von zwanzig Jahren viel zu heiß für europäische Urlauber werden würde, die stattdessen nach Blackpool strömen würden, um die Vorteile der wärmeren Sommer in Großbritannien zu nutzen.18 Solche Behauptungen waren üblich. Im Jahr zuvor hatten Wissenschaftler auf einer zweitägigen Konferenz zum Klimawandel an der Universität von Surrey zum Beispiel gesagt, dass England bald wie das Mittelmeer aussehen würde, mit einheimischen Wäldern, die durch Olivenhaine, Weinberge und Sonnenblumen ersetzt würden, während traditionelle englische Gärten nicht überleben könnten und durch Palmen und Eukalyptus ersetzt würden, wenn die Temperaturen bis 2050 um 3°C steigen.19

Zurück in der realen Welt sind die meisten britischen Sommer jedoch immer noch enttäuschende Angelegenheiten, und selbst der gelegentliche warme ist immer noch nicht so heiß wie die Sommer 1976 und 1995. Es gibt auch keinen erkennbaren Trend bei den Sommerniederschlägen, die immer noch von Jahr zu Jahr stark schwanken. Trockenes, mediterranes Wetter ist es jedenfalls nicht!

Als diese heißen, trockenen Sommer ausblieben, beschlossen die Wissenschaftler natürlich, dass wir uns stattdessen auf feuchte Sommer freuen können. Man versicherte uns, dass dies am „schmelzenden arktischen Eis“ läge.20 Es scheint, dass sie genauso weit daneben lagen, wie David Viner es tat. Die damalige Umweltministerin Caroline Spelman hatte 2012 andere Sorgen und behauptete, dass „Dürre die neue Norm für Großbritannien sein könnte“. Unnötig zu sagen, dass dies durch ein paar Monate trockenen Wetters ausgelöst wurde. Lächerlicherweise folgten zwei Monate später ein Frühling und ein Sommer, die zu den feuchtesten seit Beginn der Aufzeichnungen gehörten!21 Genauer gesagt zeigen die britischen Niederschlagsdaten, dass Dürrejahre in der Vergangenheit viel häufiger und intensiver waren.22

Während Caroline Spelman lediglich eine Politikerin war, hätte die damalige Chefwissenschaftlerin des Met Office, Julia Slingo, es wirklich besser wissen müssen. Nach einigen kalten Wintern erklärte sie den Abgeordneten, dass der Rückgang der Eismengen im hohen Norden zu kälteren Wintern in Großbritannien und Nordeuropa sowie zu Trockenheit beiträgt.23 2013 legte sie nach, indem sie behauptete, dass „der Klimawandel die Würfel in Richtung eiskaltes, trockenes Wetter warf“.24 Natürlich vergaß sie ein Jahr später, nach einem warmen und nassen Winter, bequemerweise ihre vorherigen Prognosen und erklärte, dass dieses Wetter auch mit dem Klimawandel zusammenhängt.25

Unnötig zu erwähnen, dass sich die kalten Winter lediglich als gelegentliche Wetterereignisse herausstellten, die sie in der Vergangenheit waren. Auch sind die britischen Winter seit 2013 nicht wärmer geworden als zu anderen Zeiten in der Vergangenheit. Mit anderen Worten: typisch britisches Wetter.

Es ist kaum verwunderlich, dass das Met Office bei diesen langfristigen Vorhersagen immer wieder total daneben liegt, wenn es nicht einmal kurzfristiges Wetter vorhersagen kann. Immerhin waren sie im Oktober 2010 mit Hilfe ihres brandneuen Supercomputers sicher, dass Großbritannien ein milder Winter bevorstand. Nur einen Monat später kämpfte das Land unter mehreren Metern Schnee!26

Permanente Dürren

Wir haben bereits erlebt, wie das Pentagon fälschlicherweise „Mega-Dürren“ im Mittleren Westen der USA prophezeite. In Wirklichkeit liegen die Niederschläge in der Region seither weit über dem Durchschnitt, und die Art von schweren Dürren, die früher an der Tagesordnung waren, sind in den letzten dreißig Jahren extrem selten gewesen.27

Andere Wissenschaftler haben eine permanente Dürre im Südwesten der USA vorhergesagt, natürlich aufgrund der globalen Erwärmung. So behauptete eine Studie im Jahr 2007, dass die Dust-Bowl-Dürren innerhalb weniger Jahre zur Norm werden würden.28 Tatsächlich werden Dürren im Südwesten nicht häufiger, und nichts in den letzten Jahrzehnten hat die schweren Dürren der 1950er Jahre erreicht.29

Im Jahr 2011 verkündete Andrew Dessler, Professor für Atmosphärische Wissenschaften an der Texas A&M University, dass der heiße texanische Sommer dieses Jahres zur neuen Norm werden würde.30 Wie so oft basierte diese Schreckensmeldung auf einem einzigen ungewöhnlichen Ereignis, und ebenso typisch kehrten die Temperaturen nach seiner Behauptung schnell wieder auf das vorherige Niveau zurück.31

Vorhersagen der Apokalypse sind nicht nur auf die USA beschränkt. Tim Flannery war zwischen 2011 und 2013 Chef der Klimakommission in Australien und gilt dort immer noch als einer der führenden Experten für den Klimawandel. Im Laufe der Jahre hat er es sich zur Gewohnheit gemacht, vorauszusagen, dass Australien das Wasser ausgehen wird:

2004: „Ich denke, es besteht eine gute Chance, dass Perth die erste Geistermetropole des 21. Jahrhunderts sein wird. Die gesamte Primärproduktion ist in einem katastrophalen Zustand und die östlichen Staaten hinken nur 30 Jahre hinterher.“

2007: „Denken Sie an die schlimmste Dürre, die Australien seit Beginn der Aufzeichnungen erlebt hat, und nehmen Sie dann drei Viertel des Rinnsals weg, das damals im Murray-Darling floss. Das ist die Wassermenge, die in diesem Jahr durch Australiens Hauptflüsse fließt.“
2007: „Brisbane und Adelaide – Heimat von insgesamt drei Millionen Menschen – könnten bis zum Jahresende kein Wasser mehr haben.“

2007: „In den letzten 50 Jahren hat Südaustralien etwa 20 Prozent seiner Niederschläge verloren, und eine Ursache ist mit Sicherheit die globale Erwärmung. Ähnliche Verluste sind im Osten Australiens zu verzeichnen, und obwohl die Wissenschaft weniger sicher ist, steckt vermutlich die globale Erwärmung auch hinter diesen Verlusten. Aber der bei weitem gefährlichste Trend ist der Rückgang des Durchflusses der australischen Flüsse: Er ist in den letzten Jahrzehnten um etwa 70 Prozent zurückgegangen, so dass sich die Dämme nicht mehr füllen, selbst wenn es regnet… In Adelaide, Sydney und Brisbane sind die Wasservorräte so gering, dass sie dringend entsalztes Wasser benötigen, möglicherweise schon in 18 Monaten.“32

Und dann kam der Regen, wie immer im Land der „Dürren und Überschwemmungsregen“ … Im Dezember 2008 waren die Stauseen von Adelaide zu 75 % gefüllt, die von Perth zu 40 %, die von Sydney zu 63 % und die von Brisbane zu 46 %. Im folgenden Jahr waren die Dämme in Brisbane, Canberra und Sydney bis zum Überlaufen gefüllt. Seitdem schwanken die Niederschläge in Südaustralien, so wie sie es schon immer getan haben, aber die Dürren waren nicht so schwerwiegend oder lang anhaltend wie in der ersten Hälfte des 20. Jahrhunderts.33

Todes-Spirale des arktischen Eises

Im Laufe der Jahre wurde uns von vielen Experten versichert, dass das Meereis in der Arktis bald wegschmelzen würde. Im Jahr 2007 zum Beispiel sagte uns Professor Wieslaw Maslowski, dass die nördlichen polaren Gewässer in den Sommern innerhalb von nur 5-6 Jahren eisfrei sein könnten.34 Im Dezember desselben Jahres stimmte Jay Zwally von der NASA zu und gab dem Eis Zeit bis 2012.35 Ein Jahr später, im Jahr 2008, ging Professor David Barber noch einen Schritt weiter und sagte, dass das Eis noch im selben Sommer verschwunden sein würde.36

Für die schiere Beharrlichkeit, sich zu irren, muss der Preis jedoch an Peter Wadhams gehen, Professor und Leiter der Polar Ocean Physics Group im Department of Applied Mathematics and Theoretical Physics an der Universität Cambridge:

● Im Jahr 2012 sagte er voraus, dass die Arktis bis2015/16. eisfrei sein würde.37

● Im Jahr 2014 dachte er, dass es bis 2020 dauern könnte.38

● Im Jahr 2016 sagte er zuversichtlich voraus, dass die Arktis in diesem Sommer eisfrei sein würde (obwohl er jetzt seltsamerweise „eisfrei“ als weniger als 1 Million Quadratkilometer definierte!).39

Und die Realität? Der Rekord für die geringste Meereisausdehnung seit dem ersten Erscheinen dieser Vorhersagen wurde 2012 aufgestellt. Seitdem wurde kein Jahr mit weniger als 4 Millionen Quadratkilometern verzeichnet.40

Antarktis

Während die Arktis schmelzen würde, sagten andere Experten voraus, dass wir alle bald in der Antarktis leben würden. Im Jahr 2004 behauptete der damalige leitende Wissenschaftler der britischen Regierung Professor Sir David King bei einer Anhörung eines parlamentarischen Ausschusses, dass wir uns schnell auf das Klima von vor 55 Millionen Jahren zubewegen, als die Antarktis der bewohnbarste Ort für Säugetiere war, weil sie der kühlste Ort war, und der Rest der Erde eher unwirtlich, weil es so heiß war.41 Laut dem Independent erklärte King, dass „die Antarktis wahrscheinlich der einzige bewohnbare Kontinent der Welt bis zum Ende dieses Jahrhunderts sein wird, wenn die globale Erwärmung unkontrolliert bleibt“.42

Vier Jahre später waren die Experten des hoch angesehenen Forum for the Future noch viel alarmierter und erklärten, dass bis zum Jahr 2040 3,5 Millionen Flüchtlinge wegen der steigenden Temperaturen in die Antarktis strömen würden.43 Ich glaube nicht, dass wir wirklich einen Blick auf die Temperaturaufzeichnungen in der Antarktis werfen müssen, um zu wissen, dass sie immer noch vereist und für menschliches Leben völlig ungeeignet ist. Aber selbst in Küstenstationen wie Mawson steigen die durchschnittlichen Jahrestemperaturen selten über -10°C, und es gibt keine Anzeichen dafür, dass sie in nächster Zeit noch wärmer werden!44

Dies war nicht die einzige schwachsinnige Behauptung von Sir David. Bei der gleichen Anhörung des Ausschusses rechnete er auch damit, dass das grönländische Inlandeis innerhalb von „50 bis 200 Jahren“ verschwunden sein könnte. Seitdem hat Grönland etwa 3000 Gigatonnen Eis verloren.45 Aber Grönlands Eisdecke enthält etwa 2.600.000 Gigatonnen, so dass es bei der derzeitigen Verlustrate etwa 14.000 Jahre dauern wird, bis die Eiskappe geschmolzen ist.46

Der Anstieg des Meeresspiegels wird ganze Nationen auslöschen!

Eine der hartnäckigsten Horrorgeschichten über die Jahre hinweg betrifft den Anstieg des Meeresspiegels. Bereits 1957 warnte der Physiker Dr. Joseph Kaplan, dass die Ozeane in den „nächsten 50 oder 60 Jahren“ um 40 Fuß [12 m] ansteigen würden“.47 Später, 1983, berichtete die US-Umweltschutzbehörde, dass der Meeresspiegel bis zum Ende des nächsten Jahrhunderts bis zu 11 Fuß [~3,3 m] ansteigen könnte.48

Wie wir bereits vernehmen durften, behauptete der Direktor des UN-Umweltprogramms 1989, dass ganze Nationen durch den Anstieg des Meeresspiegels vom Angesicht der Erde getilgt werden könnten, wenn der globale Erwärmungstrend nicht bis zum Jahr 2000 umgekehrt würde. Und 1995 sagten die Wissenschaftler des IPCC, dass die meisten Strände der US-Ostküste innerhalb von 25 Jahren verschwunden sein würden.49

Einer der führenden Klimawissenschaftler der letzten Jahrzehnte, James Hansen, damals Leiter des Goddard Institute for Space Studies der NASA, wurde 1988 sehr konkret.50 Er behauptete, dass der New Yorker West Side Highway innerhalb von 40 Jahren unter Wasser stehen würde. Unnötig zu erwähnen, dass der Highway immer noch da ist und voll befahren wird.51,52 Der Meeresspiegel steigt in New York seither stetig mit einer Rate von 2,87 mm/Jahr, so dass er seit Hansens Vorhersage um etwas mehr als 4 Zoll [10 cm] gestiegen ist. In Anbetracht der Tatsache, dass der Highway 10 Fuß [3 m] oder mehr über dem Meeresspiegel liegt, vermute ich, dass er noch ein paar Jahrhunderte lang sicher ist.53

Inselnationen sind die Aushängeschilder bzgl. der Angst vor dem Meeresspiegel. Die Regierung der Malediven hielt 2009 sogar eine Kabinettssitzung unter Wasser ab, um auf ihre vermeintliche Notlage hinzuweisen.54 Aber das hat sie nicht davon abgehalten, weiterhin neue Flughäfen und Hotelkomplexe auf den Inseln zu bauen. Allein 2019 wurden fünf neue Flughäfen eröffnet, um Touristen zu mehreren neuen Hotelresorts zu bringen, die derzeit auf unterentwickelten Atollen gebaut werden.55 Es scheint, dass sie, zusammen mit Investoren wie dem Abu Dhabi Fund for Development, genau wissen, dass der Meeresspiegel nicht die dargestellte Bedrohung ist.

Und das aus gutem Grund. Studien von Experten haben ergeben, dass viele tief liegende Pazifikinseln an Fläche zunehmen und nicht versinken, was größtenteils auf Korallentrümmer, Landgewinnung und Sedimente zurückzuführen ist.56 Tatsächlich stellen wir überall auf der Welt fest – auch in Großbritannien – dass der Meeresspiegel heute nicht schneller steigt als vor einem Jahrhundert.57

Aber das hat die „Experten“ nicht davon abgehalten, sich gegenseitig zu übertrumpfen hinsichtlich Prophezeiungen des stärksten Anstiegs des Meeresspiegels. Ein Beispiel dafür sind die Autoren der Website Climate Central, die für 2019 einen Meeresspiegelanstieg von bis zu 10,8 Metern bis zum Ende des Jahrhunderts vorhersagen, der Cardiff, Swansea und Nordwales, East Yorkshire und Hull, Peterborough und Norfolk sowie die Küste von Lancaster bis Liverpool unter Wasser setzen könnte.58

Klima-Flüchtlinge

Die UNO stand oft im Mittelpunkt von Behauptungen, dass Millionen von Flüchtlingen aufgrund von klimabedingten Katastrophen wie Dürre, Wirbelstürmen und dem Anstieg des Meeresspiegels zur Flucht gezwungen würden. Zum Beispiel:

● 2005 – „Steigende Meeresspiegel, Wüstenbildung und schrumpfende Süßwasservorräte werden bis zum Ende des Jahrzehnts bis zu 50 Millionen Umweltflüchtlinge hervorbringen“ – Janos Bogardi, Direktor des Instituts für Umwelt und menschliche Sicherheit an der Universität der Vereinten Nationen in Bonn.59

● 2008 – „Es wurde geschätzt, dass es bis 2010 zwischen 50 Millionen und 200 Millionen Umweltflüchtlinge geben wird.“ – Srgjan Kerim, Präsident der UN-Generalversammlung.60
● 2011 – „Fünfzig Millionen ‚Umweltflüchtlinge‘ werden bis 2020 in den globalen Norden strömen, auf der Flucht vor der durch den Klimawandel verursachten Nahrungsmittelknappheit“ – Professor Cristina Tirado,UCLA.61

● 2014 – „Der Klimawandel hat die globale Nahrungsmittelversorgung bereits beeinträchtigt“ – Intergovernmental Panel on Climate Change.62

Der UN-Bericht von 2008 veröffentlichte sogar eine Karte, um zu zeigen, woher diese angeblichen Flüchtlinge kommen würden. Das war so peinlich, dass die UN ein paar Jahre später versuchte, es später zu verstecken.63,64

In Wirklichkeit zeigt die Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen selbst, dass die Getreideproduktion seit 2010 kontinuierlich gestiegen ist, sowohl weltweit als auch in Afrika und Asien im Besonderen.65,66 Sie sagen auch, dass der Prozentsatz der chronisch unterernährten Menschen in Ländern mit niedrigem bis mittlerem Einkommen von etwa 30 Prozent in den Jahren 1990-92 auf etwa 13 Prozent zwei Jahrzehnte später gefallen ist.67

Aber der direkteste Weg, Behauptungen über Klimaflüchtlinge zu widerlegen, ist einfach, sich die Bevölkerungsentwicklung anzusehen. In den Ländern, die auf der UN-Karte als am stärksten durch den Klimawandel gefährdet gekennzeichnet sind, sind die Menschen nicht zu Millionen geflohen, sondern geblieben und haben sich gut entwickelt.68

Verknappung von Nahrungsmitteln

Behauptungen über drohenden Hunger sind manchmal recht konkret. So sagten uns Wissenschaftler 2008, dass verarmte Bauern in Südasien und im südlichen Afrika innerhalb von nur 20 Jahren mit einer zunehmenden Nahrungsmittelknappheit aufgrund des Klimawandels konfrontiert sein könnten.69 Sie wiesen insbesondere darauf hin, dass Getreide am meisten gefährdet sei. Tatsächlich zeigen Daten der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen, dass die Produktion von Getreide im südlichen Asien stetig steigt. Im südlichen Afrika ist der Trend trotz der üblichen Schwankungen ebenfalls unverkennbar nach oben gerichtet.70

Bereits 2016 waren Forscher der Universität Oxford davon überzeugt, dass es bis 2050 weltweit zu einer ernsthaften Verknappung von Obst und Gemüse kommen wird, natürlich verursacht durch die globale Erwärmung.71 Wir haben keine Ahnung, was im Jahr 2050 passieren wird. Aber die aktuellen Daten zeigen uns, dass die globale Produktion von Obst und Gemüse seit 1961 kontinuierlich gestiegen ist, gerade weil sich die Welt erwärmt hat.72

Und im Jahr 2015 befürchteten Wissenschaftler der Royal Botanic Gardens, dass durch die steigenden Temperaturen der Welt bis 2080 der Kaffee ausgeht.73 Ihre apokalyptischen Vorhersagen lagen viele Jahrzehnte in der Zukunft, aber auch hier gibt es, wenn wir uns die realen Daten ansehen, keinerlei Hinweise auf eine solche wilde Entwicklung. Im Gegenteil: Die weltweite Kaffeeindustrie floriert.74

Stärkere Hurrikane

Im Jahr 2010 sagten uns Wissenschaftler, dass die globale Erwärmung zu intensiveren Hurrikanen im Atlantik führen würde.75 In Wirklichkeit hat sich die Häufigkeit schwerer Hurrikane (Kategorie 3-5) seit den 1950er Jahren kaum verändert.76

Und 2013 versicherte der Top-Klimaforscher Kerry Emanuel vom Massachusetts Institute of Technology, dass die Welt bis zum Ende des Jahrhunderts aufgrund des Klimawandels bis zu 20 zusätzliche Hurrikane und tropische Stürme pro Jahr erleben könnte. Auch ihre Intensität würde zunehmen.77

Nichts davon wird bisher durch die tatsächlichen Daten gestützt, die zeigen, dass es seit 1980 weltweit keine Zunahme der Anzahl von Hurrikanen oder größeren Wirbelstürmen gegeben hat.78

Eisbären sind vom Aussterben bedroht

Eisbären sind seit langem das Aushängeschild der globalen Erwärmung, was sogar so weit ging, dass Umweltschützer gefälschte, mit Fotos versehene Bilder von ihnen verbreiteten, auf denen sie scheinbar auf Eisschollen gestrandet waren.79 Im Jahr 2004 kamen 40 Mitglieder der Eisbärenspezialgruppe der International Conservation Union (IUCN) zu dem Schluss, dass die imposanten weißen Raubtiere – die größten Bären der Welt – als „gefährdete“ Art eingestuft werden sollten, basierend auf einem wahrscheinlichen Rückgang ihrer weltweiten Population um 30 Prozent in den folgenden 35 bis 50 Jahren. Damals gab es noch 20.000 bis 25.000 Eisbären in der Arktis.80 Vier Jahre später listete der US Fish and Wildlife Service den Eisbären wegen des schwindenden arktischen Meereises offiziell als „bedrohte Art“.81 Noch 2017 wurde gewarnt, dass die Bären aussterben könnten, wenn die Treibhausgasemissionen nicht deutlich reduziert würden.82

Tatsächlich ist die weltweite Eisbärenpopulation seit 2004 gewachsen, wobei die letzten offiziellen Schätzungen sie auf 22.000 bis 31.000 Individuen beziffern.83 Das ist viel höher als 1980, als das Meereis viel ausgedehnter war.84 Außerdem deuten drei aktuelle Studien darauf hin, dass die IUCN-Zählung von 2015 eine Unterschätzung gewesen sein könnte.85 Wenn man bedenkt, dass die Eisbärenpopulation in den 1960er Jahren nur 12.000 Tiere betragen haben könnte, scheinen sie jetzt zu gedeihen.86

Es sind nicht nur die Eisbären, die gefährdet sein sollen. Seit vielen Jahren werden Bedenken bezüglich des pazifischen Walrosses geäußert. Zum Beispiel behauptete Sir David Attenborough:
„Meeresströmungen bewegen Wärme um unseren Planeten und erhalten ein für das Leben günstiges Klima. Aber unser Ozeansystem, das sich seit Jahrtausenden in einem relativen Gleichgewicht befindet, verändert sich in einem besorgniserregenden Tempo. Tief im polaren Norden treffen wir Walrossmütter und ihre neugeborenen Kälber, die nach einer Eisscholle suchen, auf der sie sich ausruhen können. Doch mit steigenden Temperaturen zieht sich das sommerliche Meereis zurück – ihr Kampf ums Überleben wird immer härter“.87

Der US Fish and Wildlife Service hat die Situation jedoch genau untersucht und erklärte 2017:

„Es wurde festgestellt, dass das Pazifische Walross nicht als bedroht oder gefährdet im Sinne des Endangered Species Act (ESA) geschützt werden muss“. Diese Feststellung folgt einer umfassenden Überprüfung und Analyse der besten verfügbaren wissenschaftlichen Informationen über die Art sowie des lokalen und traditionellen ökologischen Wissens der Ureinwohner Alaskas.88

Summary

Diese Beispiele sind nur die Spitze des Eisbergs. Es gibt buchstäblich Hunderte von Schauergeschichten, von tauben Fischen und riesigen Austern, schwächeren Winden, stärkeren Winden, Fettleibigkeit und UFOs. Alles Dinge, die durch den Klimawandel verursacht oder verschlimmert werden würden. Viele von ihnen sind auf der Numberwatch-Website archiviert.89

Während einige das Werk von Spinnern sind, kommen viel zu viele von vermeintlich seriösen Quellen und werden natürlich von den Medien aufgeschnappt, die immer verzweifelt nach Schlagzeilen suchen. Ein Teil des Problems mögen die für jede Forschung zur Verfügung stehenden Geldsummen liegen, die behauptet, mit dem Klima zu tun zu haben, egal wie dünn die Grundlage ist. Es ist schwierig, nicht zu dem Schluss zu kommen, dass viele sich auf diese Behauptungen stützenden Studien sonst nie in Gang gekommen wären.

Und doch scheint niemand zur Rechenschaft gezogen zu werden, wenn ihre Untergangs-Prophezeiungen nicht eintreten. Inzwischen werden wir immer noch mit ähnlich absurden Behauptungen überschwemmt. Erst kürzlich verkündete das britische Met Office, dass Schnee in England bald der Vergangenheit angehören würde. Offensichtlich hat man nichts aus David Viners Fauxpas zwanzig Jahre zuvor gelernt.90

All dies hat sich schädlich auf das Ansehen der Klimatologie als Ganzes ausgewirkt. Während einige Wissenschaftler lächerliche Behauptungen aufstellten – wo waren ihre Kollegen, die ihnen hätten entgegentreten sollen? Und wo waren die Wissenschaftler, als die Medien, die Politiker und Extinction Rebellion den „Klimanotstand“ und Schlimmeres ausriefen?

Es ist schwer, nicht zu dem Schluss zu kommen, dass es wichtiger war, eine politische Botschaft zu vermitteln als wissenschaftliche Integrität. Wir täten gut daran, uns an die Worte des renommierten Klimaforschers Stephen Schneider in einem Interview aus dem Jahr 1989 zu erinnern:

„Einerseits sind wir ethisch an die wissenschaftliche Methode gebunden, d.h. wir versprechen, die Wahrheit zu sagen, die ganze Wahrheit und nichts als die Wahrheit, was bedeutet, dass wir alle Zweifel, Vorbehalte, Wenn und Aber einschließen müssen. Andererseits sind wir nicht nur Wissenschaftler, sondern auch Menschen. Und wie die meisten Menschen möchten wir, dass die Welt ein besserer Ort wird, was in diesem Zusammenhang bedeutet, dass wir daran arbeiten, das Risiko eines potenziell katastrophalen Klimawandels zu verringern. Um das zu erreichen, müssen wir eine breite Unterstützung bekommen, um die Vorstellungskraft der Öffentlichkeit zu gewinnen. Das bedeutet natürlich, dass wir eine Menge Medienberichte bekommen müssen. Also müssen wir Schreckensszenarien anbieten, vereinfachte, dramatische Aussagen machen und die Zweifel, die wir haben könnten, kaum erwähnen. Diese doppelte ethische Zwickmühle, in der wir uns häufig befinden, lässt sich mit keiner Formel lösen. Jeder von uns muss für sich selbst entscheiden, was die richtige Balance zwischen Effektivität und Ehrlichkeit ist. Ich hoffe, das bedeutet, beides zu sein“.91

Notes

  1. https://cei.org/blog/wrong-again-50-years-of-failed-eco-pocalyptic-predictions/.
  2. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.556.2807.
  3. https://apnews.com/article/bd45c372caf118ec99964ea547880cd0 .

  4. https://cei.org/blog/wrong-again-50-years-of-failed-eco-pocalyptic-predictions/ .

  5. https://www.heraldsun.com.au/archive/news/weve-got-5-years-to-save-world-says-australiaschief-scientist-professor-penny-sackett/news-story/614a7441983b090314f05f7f705a1d5a .

  6. https://www.cbsnews.com/news/2006-al-gore-does-sundance/ .

  7. https://notalotofpeopleknowthat.wordpress.com/2017/07/13/three-years-to-save-the-world/ .

  8. https://www.independent.co.uk/environment/green-living/just-96-months-to-save-worldsays-prince-charles-1738049.html .

  9. http://web.archive.org/web/20150720220112/http://www.westernmorningnews.co.uk/PrinceCharles-exclusive-tackle-climate-change/story-27440039-detail/story.html .

  10. https://www.breitbart.com/europe/2019/07/12/rich-eco-loons-like-prince-charles-should-payclimate-change/ .

  11. https://www.dailymail.co.uk/news/article-8017939/Weve-got-10-years-save-planet-warnsPrince-Charles.html .

  12. https://www.climatedepot.com/2020/11/10/wait-what-prince-charles-now-says-world-isliterally-at-the-last-hour-in-fight-against-climate-change-but-he-previously-issued-10-year-18month-100-month-35-year-tipping-po/? .

  13. https://ourworldindata.org/co2-emissions.
  14. https://www.theguardian.com/environment/2004/feb/22/usnews.theobserver .

  15. https://web.archive.org/web/20130422045937/and http://www.independent.co.uk/environment/snowfalls-are-now-just-a-thing-of-the-past-724017.html .

  16. https://digital.nmla.metoffice.gov.uk/IO_9d8b6c02-0fd3-491b-97e0-03d59cd79ff7/ .

  17. https://digital.nmla.metoffice.gov.uk/IO_26f99c79-2cb0-48ae-af27-f168762bd5ae/ .

  18. https://www.theguardian.com/travel/2006/jul/28/travelnews.uknews.climatechange .

  19. http://news.bbc.co.uk/1/hi/uk/4091068.stm .

  20. https://www.theguardian.com/science/2012/aug/08/shape-of-british-summers-to-come .

  21. https://www.theguardian.com/environment/2012/feb/21/drought-new-norm-for-uk .

  22. https://www.metoffice.gov.uk/research/climate/maps-and-data/uk-temperature-rainfall-andsunshine-time-series.
  23. https://www.theguardian.com/environment/2012/mar/14/met-office-arctic-sea-ice-loss-winter .

  24. https://www.itv.com/news/update/2013-04-10/met-offices-urgent-inquiry-into-arctic-effect-on-uk-weather/ .

  25. https://www.bbc.co.uk/news/uk-politics-26084625 .

  26. https://www.express.co.uk/news/uk/208012/Winter-to-be-mild-predicts-Met-Office .

  27. https://www.ncdc.noaa.gov/cag/national/time-series.
  28. https://phys.org/news/2011-01-southwest-permanent-drought.html .

  29. https://www.ncdc.noaa.gov/cag/national/time-series.
  30. https://www.chron.com/opinion/outlook/article/Texas-is-vulnerable-to-warming-climate-2079164.php .

  31. https://www.ncdc.noaa.gov/cag/national/time-series.
  32. https://climatism.blog/2018/03/12/tim-flannery-professor-of-dud-predictions-and-climatefalsehoods/ .

  33. http://www.bom.gov.au/climate/change/index.shtml#tabs=Tracker&tracker=timeseries .

  34. http://news.bbc.co.uk/1/hi/sci/tech/7139797.stm .

  35. https://www.foxnews.com/story/scientists-arctic-is-screaming-global-warming-may-havepassed-tipping-point .

  36. https://www.groundreport.com/north-pole-may-be-ice-free-this-summer/ .

  37. https://www.theguardian.com/environment/2012/sep/17/arctic-collapse-sea-ice .

  38. https://www.thetimes.co.uk/article/arctic-ice-cap-in-death-spiral-xvwm398zpds .

  39. https://www.independent.co.uk/environment/climate-change/arctic-could-become-ice-freefirst-time-more-100-000-years-claims-leading-scientist-a7065781.html .

  40. https://web.nersc.no/WebData/arctic-roos.org/observation/ssmi_ice_ext.png.
  41. https://www.publications.parliament.uk/pa/cm200304/cmselect/cmenvaud/490/4033002.htm .

  42. http://web.archive.org/web/20100817023019/http://www.independent.co.uk/environment/ why-antarctica-will-soon-be-the-ionlyi-place-to-live—literally-561947.html .

  43. https://www.telegraph.co.uk/news/earth/earthnews/3353247/Climate-change-study-predicts-refugees-fleeing-into-Antarctica.html .

  44. https://data.giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4.cgi?id=AYM00089564&dt=1& ds=14 .

  45. http://polarportal.dk/en/greenland/mass-and-height-change/ .

  46. https://wattsupwiththat.com/2019/08/03/greenland-endures/ .

  47. https://stevengoddard.wordpress.com/2013/08/17/phd-physicist-greenhouse-effect-to-raisesea-level-40-feet-in-the-next-four-years/ .

  48. https://stevengoddard.wordpress.com/2015/03/05/epa-predicts-11-feet-of-sea-level-rise/ .

  49. https://realclimatescience.com/2017/02/ipcc-us-beaches-gone-by-2020/ .

  50. https://www.salon.com/2001/10/23/weather/ .

  51. http://www.columbia.edu/~jeh1/mailings/2011/20110126_SingingInTheRain.pdf .

  52. https://commons.wikimedia.org/wiki/File:West_Side_Highway_from_1_WTC_New_York_ City_2.JPG.

  53. https://tidesandcurrents.noaa.gov/sltrends/sltrends_station.shtml?id=8518750.
  54. https://www.dailymail.co.uk/news/article-1221021/Maldives-underwater-cabinet-meetingheld-highlight-impact-climate-change.html.
  55. https://maldives.net.mv/31166/maldives-to-open-five-new-airports-in-2019/ .

  56. http://www.abc.net.au/science/articles/2010/06/03/2916981.htm .

  57. https://tidesandcurrents.noaa.gov/sltrends/sltrends_station.shtml?id=170-053.
  58. http://web.archive.org/web/20191210051944/https://www.msn.com/en-gb/news/empowering-the-planet/chilling-doomsday-map-shows-how-uk-will-be-left-underwater-in-80-years-time/ar-AAJMosJ?ocid=spartandhp .

  59. https://www.theguardian.com/environment/2005/oct/12/naturaldisasters.climatechange1 .

  60. https://www.un.org/press/en/2008/ga10725.doc.htm .

  61. https://www.smh.com.au/world/50-million-environmental-refugees-by-2020-experts-say20110222-1b314.html .

  62. https://www.theguardian.com/environment/2014/mar/31/climate-change-food-supply-un .

  63. https://thenewamerican.com/embarrassing-predictions-haunt-the-global-warming-industry/ .

  64. https://web.archive.org/web/20080501091406/http:/maps.grida.no/go/graphic/fifty-millionclimate-refugees-by-2010.
  65. http://www.fao.org/worldfoodsituation/csdb/en/.
  66. http://www.fao.org/faostat/en/#compare .

  67. https://www.worldhunger.org/world-hunger-and-poverty-facts-and-statistics/ .

  68. https://ourworldindata.org/search?q=population.
  69. http://web.archive.org/web/20080208130139/https://news.nationalgeographic.com/news/2008/01/080131-warming-crops.html .

  70. http://www.fao.org/faostat/en/#compare .

  1. http://www.telegraph.co.uk/news/earth/environment/climatechange/12181496/Climatechange-Global-warming-fruit-and-veg-shortage-could-lead-to-1200-extra-UK-deaths-a-yearby-2050.html .

  2. http://www.fao.org/faostat/en/#compare .

  3. http://www.telegraph.co.uk/news/science/science-news/11442620/Kew-quest-to-prevent-coffee-dying-out.html .

  4. http://www.fao.org/faostat/en/#compare .

  5. https://www.nationalgeographic.com/news/2010/1/100121-hurricanes-global-warming/ .

  6. www.aoml.noaa.gov/hrd-faq/#1569507388495-a5aa91bb-254c .

  7. https://eu.usatoday.com/story/weather/2013/07/08/climate-change-global-warming-hurricanes/2498611/ .

  8. http://climatlas.com/tropical/.
  9. https://wattsupwiththat.com/2010/05/12/new-bear-species-discovered-ursus-bogus/ .

  10. https://www.washingtonpost.com/wp-dyn/content/article/2005/07/06/AR2005070601899.html .

  11. https://ecos.fws.gov/ecp0/profile/speciesProfile?spcode=A0IJ .

  12. https://www.huffpost.com/entry/polar-bears-climate-change_n_5873ebb2e4b02b5f858a8579 .

  13. https://polarbearscience.com/2015/11/18/iucn-red-list-says-global-polar-bear-populationis-22000-31000-26000/ .

  14. https://polarbearscience.com/2015/11/18/iucn-red-list-says-global-polar-bear-populationis-22000-31000-26000/.
  15. https://polarbearscience.com/2017/02/23/global-polar-bear-population-larger-than-previous-thought-almost-30000/ .

  16. https://www.wsj.com/articles/SB121078668964492405 .

  17. https://www.bbc.co.uk/iplayer/episode/p04thmv7/blue-planet-ii-series-1-1-one-ocean .

  18. https://www.fws.gov/news/ShowNews.cfm?_ID=36158 .

  19. https://www.numberwatch.co.uk/warmlist.htm

  20. https://www.bbc.co.uk/news/uk-55179603

  21. https://en.wikipedia.org/wiki/Stephen_Schneider.

About the author

Paul Homewood had a career as an accountant in industry. He has been writing on climate and energy issues since 2011.

Link: https://www.thegwpf.com/prediction-is-hard-particularly-about-the-climate/

Link zum PDF: https://www.thegwpf.com/content/uploads/2021/03/A-Short-History-Of-Climate-Alarm.pdf

Übersetzt von Chris Frey EIKE




Die Linken erklären jetzt dem Gas den Krieg

Die 50 Jahre der Strom-Historie in Amerika ist Folgende:

Zuerst war in den 1970er Jahren die Kernkraft dran. Kohle und Gas waren erfreut und sagten, wir können das auch. Also errichtete man 350.000 MW Kohlestrom für die Grundlast und Gas-Strom für die Spitzenlast.

Dann, in den 1990er Jahren, ging es gegen die Kohle. Gas war erfreut und sagte, ich kann das auch. Also errichtete man 220.000 MW für den Grundlast-Strom mittels Gas.

Und jetzt geht es auch gegen Gas. Wind und Solar freuen sich; deren Handelsgesellschaften lieben dieses Gesetz.

Aber diesmal gibt es einen gravierenden Unterschied: WIND UND SOLAR KÖNNEN ES NICHT!

[Hervorhebung im Original]

Anders als Atom, Kohle und Gas produzieren Wind und Sonne nur dann Strom, wenn die Natur es will, nicht wenn wir ihn brauchen. Nur wenn die Sonne hell scheint oder der Wind stark weht. Windarme Nächte sind keine Seltenheit. Eine Woche ohne Windstrom kommt fast überall in Amerika alle paar Jahre vor.

Die Wind- und Solar-Leute sagen, dass die Speicherung von Strom die Lösung für dieses Problem der Intermittenz ist, wie es genannt wird. In den riesigen Mengen, die benötigt werden, sind Batterien die einzige brauchbare Speichertechnologie, um den gesetzlichen Auftrag zu erfüllen.

Aber der Speicherbedarf ist gigantisch, daher sind die Kosten für Batterien astronomisch. In der Tat ist es wirtschaftlich unmöglich. (Vielleicht ist es auch physikalisch unmöglich, so viele Batterien anzuschließen oder sie überhaupt herzustellen.)

Ich habe eine Standardkostenberechnung, die hier Anwendung findet. Sie ist ungenau, gibt aber einen Eindruck von den Kosten. Nehmen wir einfach den durchschnittlichen stündlichen Bedarf an Strom, mit einer Speicherdauer von 7 Tagen, zu den durchschnittlichen Kosten für Batterien im Netzmaßstab, die heute bei etwa $1.500.000 [1,5 Millionen Dollar] pro Megawattstunde (MWh) liegen. Es gibt Gründe, warum die tatsächliche Zahl niedriger sein könnte, und Gründe, warum sie viel höher sein könnte, so dass dies ein nützlicher Richtwert ist.

Hier ist die Rechnung. Amerika verbraucht etwa 4,2 Milliarden MWh pro Jahr, das sind etwa 500.000 MWh pro Stunde. Für 7 Tage ergibt das 84 Millionen MWh, die etwa 120 Billionen Dollar kosten. Das sind 120 BILLIONEN DOLLAR nur für Batterien.

Beachten Sie, dass dies nicht die Kosten für den Ersatz aller in Betrieb befindlichen kohle- und gasbefeuerten Generatoren durch eine unvorstellbare Anzahl von Wind- und Solargeneratoren beinhaltet. Auch Dinge wie die Elektrifizierung all unserer Autos und Lastwagen, unserer Häuser, unserer gasbefeuerten Industrien usw., die die benötigte Strommenge verdoppeln könnten, sind hier nicht enthalten. Das würde auch den Preis für die Batterien verdoppeln, so dass wir auf 240 Billionen Dollar kommen könnten.

Ich erwähne den Betrieb von kohlebefeuerten Generatoren, weil der Krieg gegen die Kohle noch lange nicht vorbei ist; tatsächlich ist er erst zu 40% vorbei. Früher haben wir eine Milliarde Tonnen pro Jahr verbrannt, aber wir verbrennen immer noch 600 Millionen. Das ist eine Menge zum Abschalten, eine Menge Minen und eine Menge Arbeiter, plus die Gemeinden, die von ihnen abhängen. Und natürlich hat die Gasindustrie eine Menge Arbeiter und zahlt enorme Lizenzgebühren.

Was der CLEAN Future Act der Demokraten fordert, ist einfach nicht machbar, weil es keine praktikable Lösung für die Intermittenz gibt. Dies wirft eine sehr interessante Frage auf: Werden die Stromversorgungsunternehmen dem Kongress endlich die Wahrheit sagen? Dass es nicht machbar ist? Bis jetzt haben sie es sorgfältig vermieden, dies zu tun, weil sie mit dem Bau von Wind- und Solarkraftwerken ein Vermögen verdienen. Je mehr sie ausgeben, desto mehr Profit machen sie.

[Hervorhebung vom Übersetzer]

Viele Energieversorger arbeiten unter staatlichen Gesetzen, die 100 % erneuerbare Energien fordern, aber das erst im Jahr 2045 oder 2050. Es gibt keinen Grund für die Energieversorger, diese Unmöglichkeit jetzt zu erwähnen, nicht wenn sie so viel Geld verdienen. Aber der vorgeschlagene CLEAN Future Act fordert, dass 80 % der Kohle- und Gaserzeugung in nur 9 Jahren verschwinden sollen. Diese Unmöglichkeit schafft eine ganz andere Situation für die Versorgungsunternehmen.

Was ist mit der Strom- und Gasindustrie? Sie haben in den letzten 20 Jahren ein enormes Wachstum hingelegt, jetzt sollen sie in nur 14 Jahren verschwunden sein. Das muss weh tun. Vielleicht hören sie auf zu lächeln und beginnen darauf hinzuweisen, dass das, was das vorgeschlagene Gesetz fordert, sowohl unmöglich als auch unglaublich zerstörerisch ist.

Über 60 % der 4 Milliarden Megawattstunden, die wir jedes Jahr verbrauchen, stammen aus Kohle und Gas. Wir können das einfach nicht in den nächsten 9-14 Jahren abschalten. Der CLEAN Future Act ist unmöglich.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2021/03/06/the-left-declares-war-on-gas/

Übersetzt von Chris Frey EIKE




Neues von der AMO

Mann 2011:

Die AMO, definiert als eine Oszillation mit einer Zeitskala von 40-60 Jahren, die ihren Ursprung in gekoppelten Prozessen zwischen Ozean und Atmosphäre im Nordatlantik hat, ist mit ziemlicher Sicherheit real“

und
„Dies ist eine Schlüsselerkenntnis von Knight et al. (2005) (deren Co-Autor ich war) sowie von Delworth und Mann (2000) [der Ursprung des Begriffs ‚Atlantic Multidecadal Oscillation‘ (AMO), den ich in einem Interview über Delworth und Mann mit Dick Kerr von Science im Jahr 2000 geprägt habe].

gefolgt von Mann 2021

Vor zwei Jahrzehnten prägte ich in einem Interview mit dem Wissenschaftsjournalisten Richard Kerr für die Zeitschrift Science den Begriff „Atlantic Multidecadal Oscillation“ (AMO), um eine interne Oszillation im Klimasystem zu beschreiben, die aus den Wechselwirkungen zwischen nordatlantischen Meeresströmungen und Windmustern resultiert.  … Heute haben meine Kollegen und ich in einem Forschungsartikel, der in der gleichen Zeitschrift Science veröffentlicht wurde, den unserer Meinung nach bisher definitivsten Beweis erbracht, dass die AMO nicht wirklich existiert.

Ich genieße Manns Andeutung, dass er der Entdecker des AMO-Phänomens war, obwohl es in Wirklichkeit bereits 1994 von Schlesinger und Ramankutty detailliert beschrieben wurde, sechs Jahre vor der Veröffentlichung von Delworth und Mann. Auch in dem verlinkten Kerr-Artikel in Science, auf den sich Mann oben bezieht, sagt Kerr, obwohl er den Namen „Atlantic Multidecadal Oscillation“ ausführlich diskutiert, nie, dass Mann das Phänomen benannt hat … aber ich schweife ab.

Erstens, was ist die AMO? Es ist eine langsame Temperatur-Oszillation des Atlantiks, am deutlichsten sichtbar im Nordatlantik. Hier ist eine Grafik der Oszillation:

Abbildung 1. Lange AMO, von NOAA. Diese zeigt einen Zeitraum von etwa 65 Jahren. Es gibt verschiedene instrumentelle Versionen der AMO-Daten. Dies ist die längste instrumentelle Version der AMO, die von NOAA gehalten wird, beginnend im Jahr 1856.

Seit der ersten Beschreibung der AMO im Jahr 1994 wurde das Phänomen von einer Vielzahl von Wissenschaftlern eingehend untersucht. Eine Suche auf Google Scholar zeigt 31.300 Webseiten, die die AMO diskutieren. Warum also behauptet Michael Mann jetzt, dass es sich nicht um eine natürliche Variation des Atlantiks handelt?

Weil „modernste“ Klimamodelle das sagen … seine Studie beginnt so:

Eine Analyse modernster Klimamodell-Simulationen, die sich über das letzte Jahrtausend erstrecken, liefert keine Beweise für ein intern erzeugtes, multidekadisch oszillierendes Signal der Atlantischen Multidekadischen Oszillation (AMO) im Klimasystem und deutet stattdessen auf das Vorhandensein eines 50- bis 70-jährigen „AMO-ähnlichen“ Signals hin, das durch Episoden von explosivem Vulkanismus hoher Amplitude mit multidekadischem Rhythmus angetrieben wird.

(Tipp: Jedes Mal, wenn jemand anfängt, über „hochmoderne Klimamodelle“ zu sprechen, können Sie seine Behauptungen getrost ignorieren … aber ich schweife schon wieder ab).

Manns Behauptung in seiner neuen Studie „Multidecadal climate oscillations during the past millennium driven by volcanic forcing (Zahlschranke) lautet, dass in vorindustrieller Zeit das, was die Leute die „AMO“ nennen, eigentlich ein stabiler Atlantik war, der durch sporadische Vulkanausbrüche angetrieben wurde, die zufällig die gleiche Frequenz wie die AMO haben. Aber dann ist dieser vulkanische Antrieb in der Neuzeit erloschen, und gerade noch rechtzeitig wurde der vulkanische Antrieb durch den anthropogenen Antrieb ersetzt … lustig, wie das funktioniert. In M. Manns Welt sind immer die Menschen schuld.

Auf jeden Fall wollte ich sehen, was ich aus den Daten der instrumentellen und Proxy-AMO-Aufzeichnungen erfahren kann, zusammen mit den von Mann diskutierten vulkanischen Aufzeichnungen. Hier zunächst der Datensatz von Amman et al. mit 61 tropischen Eruptionen, von denen Mann et al. sagen, dass sie die AMO vor der Neuzeit angetrieben haben. Ich habe die Eruptionen als vertikale Linien dargestellt. Über diesen Vulkanlinien habe ich mehrere der empirischen Modi einer CEEMD-Analyse (Complete Ensemble Empirical Mode Decomposition) der Eruptionen eingeblendet, die die verschiedenen längerfristigen Zyklen in den Daten zeigen.

Abbildung 2. Tropische Vulkanausbrüche und verschiedene CEEMD-Modi.

Hier ist die Sache mit den Signalen. Wie der brillante Mathematiker Joe Fourier vor einigen Jahrhunderten gezeigt hat, kann jedes Signal als Summe von zugrundeliegenden Signalen mit verschiedenen Perioden zerlegt werden. CEEMD ist wie die Fourier-Analyse, nur dass sie ein Signal nicht in regelmäßige Sinuswellen zerlegt. Sie zerlegt ein Signal in zugrundeliegende Signale, die sich im Laufe der Zeit ändern können, wie man oben sehen kann.

Gibt es nun einen Zyklus in den Eruptionsdaten, der der ~ 65-jährigen Periode der AMO ähnelt? Nun … irgendwie schon. Aber da jedes einzelne Signal in zugrunde liegende Signale zerlegt werden kann, ist es vielleicht nur ein Zufall. Die zugrunde liegenden Signale müssen eine gewisse Periode haben, und die könnte nur fünfzig bis sechzig Jahre betragen, wie bei den Vulkanen.

Das sind also die Vulkane. Wie sieht es mit den Proxy-Aufzeichnungen der AMO aus? Der wichtigste, der von Mann diskutiert wird, ist die Studie von Wang et al, „Internal and external forcing of multidecadal Atlantic climate variability over the past 1,200 years“. Die Daten sind hier verfügbar. Sie basiert auf „einem Netzwerk von jährlich aufgelösten terrestrischen Proxy-Aufzeichnungen aus der zirkum-nordatlantischen Region.“ In dieser Studie unterschieden Wang et al. zwischen dem, was sie AMV, „Atlantic Multidecadal Variability“, und der AMO nannten. Sie sagten, dass etwa 30% der Variabilität der AMV von Vulkanen herrühren, und wenn man das herausrechnet, bleibt die AMO übrig. Ich bezweifle das, denn moderne Vulkane zeigen wenig Einfluss auf die AMO. Ich wollte auch sehen, wie gut die Eruptionen mit ihren Daten übereinstimmen, also habe ich ihre rohen „AMV“-Daten verwendet.

Zuerst habe ich mir angeschaut, wie gut die Wang-Proxy-Aufzeichnungen mit den in Abbildung 1 gezeigten instrumentellen Aufzeichnungen übereinstimmen. Ich habe auch den empirischen 50-60-Jahres-Modus der CEEMD-Analyse der oben in Abbildung 2 gezeigten Amman-Eruptions-Aufzeichnungen hinzugefügt:

Abbildung 3. Zwei AMO-Aufzeichnungen und eine Eruptionsaufzeichnung, 1856 bis heute.

Wir sehen in Abbildung 3 einige Dinge. Erstens ist die Wang-Paläo-Proxy-AMO (rot) sehr nah an der modernen instrumentellen AMO (blau).

Die Eruptionsdaten von Amman stimmen jedoch nur sehr schlecht mit den modernen AMO-Daten überein. Dies ist keine Überraschung. Sehen Sie sich Abbildung 1 an. Wenn Sie nicht wissen, in welchem Jahr der riesige Pinatubo-Ausbruch stattfand, können Sie es aus Abbildung 1 nicht erkennen.

Als nächstes habe ich mir die längerfristige Betrachtung der gleichen Daten angesehen. Abbildung 4 zeigt das Ergebnis:

Abbildung 4. Zwei AMO-Aufzeichnungen und eine Eruptionsaufzeichnung, 800 bis heute.

Wiederum sind einige interessante Dinge in Abbildung 4 zu sehen. Erstens beträgt die durchschnittliche Länge der Zyklen in der Paläo-AMO von Wang 65 Jahre, was mit den modernen Daten übereinstimmt.

Wie in der modernen Periode gibt es jedoch eine sehr schlechte Übereinstimmung zwischen den Daten der Amman-Eruptionen und den Wang-Paläodaten. Unter anderem beträgt die Periode der Eruptionsdaten im Durchschnitt 55 Jahre, nicht die 65 Jahre der Wang-Paläodaten oder der modernen Instrumentaldaten. Obwohl sie also zeitweise mit den Wang-Daten übereinstimmen, sind sie sowohl mit der instrumentellen AMO als auch mit den Wang-AMV-Daten synchron und nicht synchron.

Also … wie sind Mann et al. zu ihren Schlussfolgerungen gekommen? Wie oben erwähnt, Computermodelle …

Die CMIP5-Multimodel-Experimente des letzten Jahrtausends liefern ein Pseudo-Ensemble von N = 16 Simulationen, die mit geschätzten natürlichen Antrieben (vulkanisch und solar, mit geringen zusätzlichen Beiträgen von astronomischen, Treibhausgasen und Landnutzungsänderungen) über die vorindustrielle Periode angetrieben werden (das Intervall 1000 bis 1835 n. Chr. ist allen Simulationen gemeinsam). Wir schätzen die erzwungene Komponente der Temperaturvariation durch Mittelwertbildung über das Ensemble, basierend auf dem Prinzip, dass sich unabhängige Rauschrealisierungen in einem Ensemble-Mittelwert aufheben.

(Am Rande sei bemerkt, dass es sicherlich nicht immer stimmt, dass die Mittelung einer Anzahl von Modellausgaben bedeutet, dass sich die „Rauschrealisierungen aufheben“. Aber ich schweife wieder ab …)

Mir gefällt allerdings der Gedanke eines „Pseudo-Ensembles“ … ist das ein Haufen zufälliger Computermodelle, die an einer Straßenecke rumhängen, Zigaretten rauchen und so tun, als wären sie ein Ensemble? Aber ich schweife ab …

Und was waren ihre Schlussfolgerungen (Hervorhebung von mir)?

Die kollektive verfügbare Evidenz aus instrumentellen und Proxy-Beobachtungen sowie aus kontrollierten und erzwungenen Klimamodell-Simulationen der Vergangenheit und des letzten Jahrtausends deutet auf die Existenz extern erzwungener multidekadischer Oszillationen hin, die eine Folge konkurrierender anthropogener Antriebe während der historischen Ära und des zufälligen multidekadischen Rhythmus der explosiven tropischen Vulkanaktivität in den vergangenen Jahrhunderten sind. Es gibt keinen zwingenden Beweis für einen rein internen multidekadischen AMO-ähnlichen Zyklus.

Seine Behauptung ist, dass etwa elf Jahrhunderte lang „explosive tropische vulkanische Aktivität“ es so aussehen ließ, als gäbe es eine AMO. Und zufälligerweise, gerade als die vulkanischen Kräfte nachließen, verursachten CO2– und Sulfat-Antriebe die AMO-Schwankungen.

Sie werden mir verzeihen, wenn ich angesichts dessen, was ich in den obigen Abbildungen sehe, dieses Argument nicht einmal ansatzweise überzeugend finde.

Schließlich ist es das, was ich am Studium des Klimas liebe. Die Wissenschaft ist weit davon entfernt, festzustehen, und das gibt mir die Möglichkeit, aus jedem Papier, das herauskommt, etwas Neues zu lernen.

Link: https://wattsupwiththat.com/2021/03/08/learning-about-the-amo/

Übersetzt von Chris Frey EIKE

 




Wartet Nürnberg nun auf Corona-Auferstehungen…

Für Bürger weiterhin nur wenig Information

Wie das RKI, „vermeidet“ auch das Stadtportal Nürnberg sorgfältig, dem Bürger eine wirkliche Übersicht zu Corona zu bieten. Es wird zwar mit Zahlenwerten „um sich geschmissen“, doch was diese im Kontext wirklich Aussagen, erfährt man eher nicht.

So informiert das Nürnberger Stadtportal

Bild 1 Nürnberger Stadtportal. Screenshot vom 07.03.2021

Bild 2 Nürnberger Stadtportal. Screenshot vom 07.03.2021

Bild 3 Nürnberger Stadtportal. Screenshot vom 07.03.2021

Information zu Corona ist auch eher unwichtig. Es verführt nur zu eigenständigem Denken, was schon Adam und Eva unter einem damaligen Diktator sehr schlecht bekam. Es reicht, dass die Bürger wissen, welche Einschränkungen sie zu befolgen haben:
Corona: Ausgangs- und Kontaktbeschränkungen – Stadtportal Nürnberg (nuernberg.de)

Bild 4 Nürnberger Stadtportal. Screenshot vom 07.03.2021

Bild 5 Nürnberger Stadtportal. Screenshot vom 07.03.2021

Dabei könnte man so viel Information bieten

So beträgt in Nürnberg die Belegung an Intensivbetten durch Coronapatienten nur noch 14,55 % (24 Betten) und davon ist nur die Hälfte (13 Fälle) invasiv beatmet.

Doch beginnen wir global. Der Verlauf der Sterbedaten Deutschland seit 2016 zeigt trotz „COVID“ und angeblich schon begonnener, dritter Welle ein deutliches Absinken unter Werte, welche früher – als es durch Grippe geschah – keinen Politiker auch nur entfernt interessiert hat

Bild 6 Sterbedaten Deutschland seit 2016 bis KW8, 2021. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Betrachtet man die Nicht-Risikogruppe unter 80 Jahren, wird es noch deutlicher:

Bild 7 Sterbedaten Deutschland für unter-/ab 80-jährige seit 2016 bis KW8, 2021. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Die folgende Grafik zeigt, wo die Sterbefallzahl aktuell „steht“. Weniger könnten nur noch „Auferstehungen“ erzielen, denn es ist bereits das Minimum an Sterbefallzahl der letzten fünf Jahre, obwohl die Alterspyramide jährlich „immer mehr“ verlangen würde!

Bild 8 Grafik des Statistischen Bundesamtes vom 09.03.2021

Die gleichen Daten etwas „aufgedröselt“:

Bild 9 Sterbedaten Deutschland der Jahre 2016 – 2021 von KW 38 – KW 16 Folgejahr (2021 bis KW8). Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Nur ist das in Schweden ebenfalls so und die haben keinen rigorosen Lockdown.

Bild 10 Schweden, Coronaverstorbene vom 1.1. – 24.02. Grafik vom Autor erstellt. Daten abgerufen am 09.03.2021

Der wöchentliche Bericht der Helios Klinikgruppe zur Coronabelastung bestätigt es:

Bild 11 Berichterstattung Helios-Klinikgruppe Deutschland, Stand 07. März 2021. Anmerkung: In den Mini-Liniendiagrammen sind die Fälle im zeitlichen Verlauf seit 27.10.2020 dargestellt

Bild 12 Berichterstattung Helios-Klinikgruppe Deutschland, Stand 07. März 2021.

Bild 13 Berichterstattung Helios-Klinikgruppe Deutschland, Stand 07. März 2021.

Die vielen Landesfürsten, denen nichts anderes als Restriktionen einfallen, sollten sich mal fragen, warum im Musterland des (weltweit mit teuersten) Gesundheitssystems die Coronamortalität eine solch riesige Spanne aufweist:

Bild 14 Relative Anzahl Covid-Todesfälle der Bundesländer. Quelle der Grafik: ZEIT online 8.3.

Nürnberg

Wie global, fallen auch in Nürnberg die Covid-Meldefälle rasant:

Bild 15 Nürnberg, Covid-Meldefälle seit 01. Januar 2021 bis 04.03.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Corona-Datensatz

Aber noch weit schneller fielen die Covid-Todesfälle insgesamt:

Bild 16 Nürnberg, Covid-Todesfälle gesamt seit 01. Januar 2021 bis 08.03.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Corona-Datensatz

Und bei der Hochrisikogruppe 80+:

Bild 17 Nürnberg, Covid-Todesfälle 80+ seit 01. Januar 2021 bis 08.03.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Corona-Datensatz

Wie Bild 3 schon zeigte, gibt es nur zwei Risikogruppen, die am schlimmsten betroffene über 80;

Bild 18 Nürnberg, Covid-Todesfälle unter und über 80+ seit 01. Januar 2021 bis 08.03.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Corona-Datensatz

… und schon drastisch niedriger die zwischen 60 – 80 (wobei es eigentlich nur der Altersanteil über 70 ist, doch der RKI-Datensatz teilt diese Altersgruppe nicht mehr auf). Jedenfalls ist der Anteil an bis zum Alter von 60 an Corona-Verstorbenen geradezu verschwindend gering. Die Meldungen, es würden immer mehr Junge an Corona versterben, trifft zumindest für Nürnberg nicht entfernt zu.

Bild 19 Nürnberg, Covid-Todesfälle unter und über 60 seit 01. Januar 2021 bis 08.03.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Corona-Datensatz

Wenn das noch Anlass zum Einsperren der nicht-Hochrisiko-Bevölkerung geben soll (also der bis 70), kann man wirklich nur noch sarkastisch Fragen, ob das Aufheben der Beschränkungen erst geschieht, wenn an Ostern Covid-Opfer auferstehen.

Covid lässt sich inzwischen auch gut behandeln

Ein Leiter im Fürther Klinikum berichtete am 05.03. der Lokalzeitung, wie erfolgreich man Covid-Infizierte inzwischen behandeln kann:
Der medizinische Direktor und Pandemiebeauftragte des Klinikum Fürth, Herr Dr. Wagner: „Inzwischen gebe es gute Therapiemöglichkeiten bei einer Covid-19-Erkrankung, zum Beispiel mit Antikörpern … sechs Patienten hatten sich mit dem Virus infiziert … kein Einziger ist danach an Covid erkrankt … “.

Meilenweit ist Nürnberg von Meldungen wie 2017/2018 zur damaligen Grippewelle entfernt:
Merkur 07.02.2017: Grippewelle: Kliniken machen Notaufnahmen dicht
Die Notaufnahmen mehrerer Kliniken in Nürnberg und München sind derzeit überlastet. Die Lage ist angespannt. Grund für die Situation ist auch die heftige Grippewelle.
In Franken sei zumindest die Grippewelle der Grund, sagte Hans-Peter Reißmann, Sprecher der Feuerwehr Nürnberg, bei der die Integrierte Rettungsleitstelle angesiedelt ist
Es kommen sehr viele Patienten in den Krankenhäusern an und teilweise fallen die Pflegekräfte wegen der Grippe aus“, sagte Reißmann am Dienstag. „Es ist extrem schwierig im Moment. Uns ist keine vergleichbare Situation in dem Ausmaß aus den vergangenen Jahren bekannt.“ Der Bayerische Rundfunk hatte zuerst über die Engpässe berichtet.
Immer wieder müssten Kliniken in Nürnberg ihre Notaufnahmen zeitweise schließen, sagte Reißmann. Teils müssten Patienten auf Krankenhäuser in Erlangen und im Nürnberger Land verteilt werden. „Die Rettungswagen sind derzeit lange unterwegs, bis sie die Patienten unterbringen.“
Kliniken am Limit
Das Portal Ivena, das die Kapazitäten der Kliniken unter anderem in München und Nürnberg darstellt, zeigte am Dienstagvormittag vielfach rote Balken und signalisierte damit den Status „belegt“.

Was sagen unsere Politiker dazu

Ganz vorneweg Landesvater Söder, den ausschließlich die nichtssagende Inzidenz interessiert.
Zitierung aus einem Bericht zur letzten Landtagssondersitzung in München in einer Lokalzeitung vom 6. März, Artikel „Söder hat keine Strategie“:
… Söder verteidigt seinen Kurswechsel, erklärt, dass er den Inzidenzwert weiter die einzig belastbare Größe sei und dass ihm noch niemand eine tragfähige Alternative genannt hat …

Da fragt man sich wirklich, welches Kraut dieser Landesvater inzwischen raucht. Der Inzidenzwert wurde alleine als Grenzwert für die Überlastung der Gesundheitsämter bei der Nachverfolgung eingeführt und ist damit lediglich ein Beleg für die administrativen Unfähigkeiten unserer Gesundheitsämter und eklatantem Versagen der Digitalministerin.
Zur Teil-Entschuldigung der Gesundheitsämter sei dazu gesagt, dass der für Nürnberg Zuständige der Zeitung berichtete, dass ein Inzidenzwert von 100 bezüglich der Nachverfolgung kein Problem sei.

Söders Aussage: … noch niemand hätte ihm eine tragfähige Alternative genannt,
ist der reine Hohn.
Um das zu lösen, braucht er sich einfach nur aussagekräftige Grafiken ansehen – die ihm das RKI und sein zuständiges Ministerium allerdings weiterhin nicht liefern, aber zum Beispiel EIKE, Achgut und Tichys Einblick. Zu denken wäre auch an Boris Palmer mit seinem „Tübinger Modell“ und Schweden.

Tichys Einblick hat gerade umfangreiche Info zu Corona mit vielen Grafiken publiziert (und kommt bezüglich der Datenlage zum gleichen Schluss wie der Autor):
Tichys Einblick, 08. März 2021: CORONA-UPDATE 8. MÄRZ 2021 Die Corona-Datengrundlage in Deutschland ist ein schlechter Witz
Die Inzidenzwerte steigen. Erneut wird damit eine Verlängerung des Lockdowns begründet. Doch wie zuverlässig sind diese Daten eigentlich, mit denen tiefgreifende Einschränkungen in das Leben der Menschen in Deutschland gerechtfertigt werden? … Die Daten, die das RKI und die Gesundheitsämter lieferten, zeugten immer von mangelndem politischen Willen, aussagekräftige Zahlen zur Verfügung zu stellen … Deutschland testet im internationalen Vergleich extrem wenig, daraus folgt eine sehr hohe Dunkelziffer. Diese Dunkelziffer muss nicht unbedingt aus wirklich Erkrankten bestehen – symptomlos Infizierte zu finden ist medizinisch vielleicht gar nicht so interessant. Wenn man aber die ganze Politik an der Inzidenz ausrichtet, dann muss die auch irgendeine Konstanz haben und wenigstens im Verhältnis aussagekräftig sein. Aber da wir eben eine so hohe Dunkelziffer haben, kann man durch eine Erhöhung der Testzahlen immer eine Erhöhung der Fallzahlen produzieren.
Während andere Länder konstant seit Beginn wöchentlich ihre Testzahlen erhöhen oder jedenfalls stagnieren lassen, folgt die Zahl in Deutschland den Infiziertenzahlen – oder eben andersherum …
Die sinkenden Todeszahlen (trotz steigender Infektionsmeldungen) sind vor allem zu erklären, wenn man sich die als Infektionszahlen gewerteten Positiv-Getesteten nach Altersklassen anschaut. Die zeigt nämlich: Dieser Anstieg der Infiziertenzahlen geht allein auf Infektionen bei unter 70-Jährigen zurück. Bei den im Winter weitaus überproportional häufig Infizierten Alten und sehr Alten sinkt die Inzidenz weiter.

Bild 20 Vergleich der Inzidenzwerte nach Altersklassen. Quelle: Tichys Einblick

Tichys Einblick: Egal ob das nun tatsächlich durch die anlaufende Impfung (über 90% der Pflegeheimbewohner sind erstgeimpft, 70% zweitgeimpft) oder durch die tatsächlich langsam ins Rollen kommende Schnellteststrategie kommt: Das Ergebnis ist eindeutig. Die Infektionsketten in Pflegeheimen sind größtenteils gebrochen – da hier bis zu 80 Prozent der Corona-Toten sind, ist das der entscheidende Punkt. Selbst wenn eine dritte Welle kommt, wird sie bei weitem nicht mehr die Folgen haben können, die etwas die zweite Welle noch hatte. Und selbst die hat im Rückblick nie einen Lockdown gerechtfertigt und der Lockdown, der trotzdem verhängt wurde, zeigte kaum Wirkung, wie der Vergleich mit Schweden zeigt.

Bild 21 Vergleich der Coronamortalität Deutschland/Schweden. Quelle: Tichys Einblick

Und zudem entlässt Herr Söder Personen ja sofort, wenn diese nicht zur bedingungslosen Hofberichterstattung bereit sind, wie der unbequeme Professor in seinem Corona-Ethikrat.

Das ist so, als wenn sich die unfehlbare Merkel über das penetrant desaströse Fachwissen und Unfähigkeit ihrer Ministerrunde beklagen würde, die sie sich selbst ganz bewusst über viele Jahre genau so „herangezüchtet“ hat.

Auch ansonsten brilliert Herr Söder mit einem „Wissen“, welches wohl nur er (und die von seinen Gnaden Abhängigen) glauben.
WELT, 07. März 2021: … Der bayerische Ministerpräsident und CSU-Vorsitzende Markus Söder hat Kritik aus dem CSU-Bezirksvorstand Niederbayern an der andauernden Schließung weiter Teile des Einzelhandels und der Gastronomie zurückgewiesen. Deren Hygienekonzepte „funktionieren nur bei niedriger Inzidenz“, sagte Söder am Samstag bei einer Bezirksvorstandssitzung …
Dem Autor ist keine Studie bekannt, welche dafür Belege liefern würde. Allerdings gibt es so etwas wie Belege über eine Personengruppe, welche sich besonders häufig ansteckt, allerdings, weil diese Hygienekonzepte gar nicht erst einhält:
Bild-Zeitung und Tichys Einblick, 3.3.2021: 50 Prozent der Corona-Intensivpatienten bundesweit mit Migrationshintergrund?
Lange dauerte es, bis die hochbrisante Nachricht aus einer Schaltkonferenz des RKI-Chefs mit Chefärzten an die Öffentlichkeit durchsickerte: Über 90 Prozent der Corona-Intensivpatienten sollen in einer Lungenklinik Migrationshintergrund haben, bundesweit weit über 50 Prozent.
Nur, warum dürfen die schon länger hier Lebenden deshalb bedenkenlos am Grundgesetz vorbei eingesperrt werden?

Erkennbar hat sich Söder hoffnungslos in einen Wahn verrannt (rein persönliche Meinung des Autors).
Sein Vorgänger hätte seine Meinung über Nacht problemlos einfach um 180 Grad gedreht und wäre mit der neuen aufgestanden.
Die unfehlbare Merkel würde gar nichts mehr tun und seelenruhig warten, bis sich eine „tragfeste“, öffentliche Meinung ausgebildet hat, um dieser dann bedingungs- und bedenkenlos zu folgen.

Für den Narzisten Söder wäre das jedoch undenkbar. Er hat ja die einzige richtige Meinung und deshalb müssen alle anderen ihre ändern.
Wo käme man auch hin, wenn jeder Einbrecher sich Gedanken um die von ihm verursachten Folgeschäden machen müsste, die ja oft ein Vielfaches der Beute – sofern überhaupt eine gemacht wird – betragen. Und die Coronaeinschränkungen sind ein erheblicher Einbruch ins Grundgesetz …

Den Vogel schießen wieder die GRÜNEN ab, in deren Fürhrungsetage das öffentliche Ausweisen eklatanten Nichtwissens zu Fachthemen zum bejubelten Markenzeichen gehört:
Bericht zur Landtags-Sondersitzung: … Die GRÜEN überzeugt er nicht, Sie haben bisher die Linie der Staatsregierung mitgetragen, als einzige in der Opposition … Katharina Schulze … sie hätte sich eine härtere Linie von Söder gewünscht …

Eben immer das gleiche GRÜN: Zum Thema keine Ahnung, aber um etwas zu verbieten reicht diese …

Wie beim Klimawandel, die Angst muss geschürt bleiben

Bild 22 MSN Screenshot 09.03.2021

Bild 23 MSN Screenshot 09.03.2021

Bild 24 MSN Screenshot 09.03.2021

Wenn ein Bundesfürst sich traut, selbst zu denken und zu entscheiden, muss er sich „warm anziehen“. Denn dann kann er ja ein Verursacher des möglichen, kommenden Untergangs sein …

Bild 25 Tichys Einblick: NOTBREMSE BEI 200 STATT 100 Brandenburg kündigt Merkel die Corona-Gefolgschaft

Dass das Corona-Virus aus China kam, dürfen Kinder nicht erfahren

Natürlich schon, denn sogar die WHO geht davon aus. Aber sagen darf man es nicht mehr – zumindest Kindern nicht:
Tichys Einblick, 7.3.2021: CARLSEN VERLAG Kinder- und Jugendbuchverlag gehorcht chinesischen Zensurforderungen

Bild 26

Bild 27

Selbstverständlich hat sich der Verlag sofort dafür entschuldigt (und die Ausgabe zurückgezogen).

Bild 28

Nun gibt es zwar Berichte, die den Ursprung in China verorten:
Redaktionsnetzwerk Deutschland, 10.10.2020: Forscher entdecken Ursprung des Coronavirus
China, Brasilien, Italien, Spanien: Lange gab es Spekulationen darüber, wo Sars-CoV-2 seinen Ursprung hat. Eine neue Studie zeigt nun, dass sich das Virus sehr wahrscheinlich doch, wie so oft vermutet, von China aus in die Welt verbreitete. Auch die Indizien dafür, dass Fledermäuse als Überträger fungierten, häufen sich.
Auch das PIK ist sich sicher, dass das Virus aus China kommt. Das konnten die sogar am Schreibtisch in Potsdam simulieren:
PIK Pressemitteilung 05.02.2021: Klimawandel spielte womöglich wichtige Rolle bei der Entstehung vom SARS-CoV-2
… Globale Treibhausgasemissionen haben im Laufe des letzten Jahrhunderts den wahrscheinlichen Ursprungsort von SARS-CoV-2 in Südchina zu einem Hotspot für Coronaviren gemacht, die von Fledermäusen übertragen werden. Klimatische Veränderungen in dieser Region haben das Wachstum von Waldgebieten befördert, die Fledermäusen geeignete Habitate bieten …

Aber richtig ist auch, dass die WHO es bisher zwar sehr stark vermutet – eigentlich auch so schreibt -, es jedoch nicht abschließend bestätigt hat. Man weiß ja nie, und so hat sie sich ein klitzekleines Schlupfloch gelassen:
WHO: … Welcher Zwischenwirt, also welches Tier, erstmals den Menschen mit dem Coronavirus angesteckt hat, ist nach Angaben der WHO-Experten jedenfalls weiterhin unklar und müsse noch genauer erforscht werden. Die Vermutung, das Virus könnte auch über tierische Tiefkühlprodukte aus Übersee weiterverbreitete worden sein, ist damit ebenso noch fraglich …

Abgesehen davon, dass deren Hypothese nicht entfernt bewiesen ist, läge es allerdings daran, dass der Klimawandel in China Auswirkungen hat, aufgrund dessen die Artenvielfalt zunimmt, was ständig die Gefahr neuer – immer schlimmerer – Pandemien birgt.
Etwas anderes – was noch viel weniger bewiesen ist – darf und soll man Kindern natürlich immer sagen:
[Link] EIKE 06. März 2021: Klimapropaganda nun auch konsequent für Kinder

 




Beseitigung der AMO

Seine Studie trägt den Titel „Multidecadal climate oscilliations during the past millennium driven by volcanic forcing. Daraus das

Abstract

Frühere Forschungen sprechen für eine interne multidekadische (40- bis 60-jährige) Oszillation, die sich vom Klimarauschen unterscheidet. Neuere Studien haben behauptet, dass diese so genannte Atlantische Multidekadische Oszillation stattdessen eine Manifestation konkurrierender zeitvariabler Effekte von anthropogenen Treibhausgasen und Sulfataerosolen ist. Diese Schlussfolgerung wird durch das Fehlen von robusten multidekadischen Klimaschwingungen in den Kontrollsimulationen der aktuellen Modellgeneration gestützt. Paläoklimadaten zeigen jedoch ein multidekadisches Oszillationsverhalten während der vorindustriellen Ära. Durch den Vergleich von Kontroll- und forcierten „Last Millennium“-Simulationen zeigen wir, dass diese scheinbaren multidekadischen Oszillationen ein Artefakt von Impulsen vulkanischer Aktivität während der vorindustriellen Ära sind, die sich deutlich auf das multidekadische (50- bis 70-jährige) Frequenzband projizieren. Wir kommen zu dem Schluss, dass es keine überzeugenden Beweise für interne multidekadische Oszillationen im Klimasystem gibt.

Mann hat einen Blog-Beitrag über das Papier bei RealClimate

Wow! Auf einen Schlag sind die lästigen Probleme des „Grand Hiatus“ Mitte des 20. Jahrhunderts, die Debatten über die Zuordnung der Erwärmung des 20. Jahrhunderts und die Rolle der multidekadischen internen Variabilität sowie die Schwierigkeit, die jüngste Zunahme der atlantischen Hurrikanaktivität dem AGW zuzuschreiben, alle verschwunden. Brillant! Fast so „brillant“ wie der Hockeystick.

Zufälligerweise habe ich den Entwurf eines Kapitels aus einem Bericht, den ich gerade schreibe, in der Tasche. Ich habe den relevanten Text unten auszugsweise wiedergegeben (ich bitte zu entschuldigen, dass ich keine Links zu den Referenzen habe):

9.Multidekadische Variabilität des Atlantiks

Der Atlantische Ozean ist für die globale Ozeanzirkulation besonders wichtig, da sich im nördlichen Nordatlantik das Nordatlantische Tiefenwasser (NADW) bildet, eine wichtige Komponente der Atlantic Meridional Overturning Circulation (AMOC). Die AMOC umfasst die nordwärts gerichtete Strömung des warmen, salzigen Wassers im oberen Atlantik und die südwärts gerichtete Strömung des umgewandelten, kalten, frischen NADW im tiefen Atlantik, die ein wesentlicher Treiber des beträchtlichen nordwärts gerichteten atlantischen Wärmetransports über den Äquator ist.

Hinsichtlich der Wassertemperatur im Atlantik (SST) wurden multidekadische Schwankungen in räumlicher Größenordnung der Ozeanbecken beobachtet. Die im Atlantik beobachtete großräumige multidekadische Variabilität wird als Atlantic Multidecadal Oscillation (AMO) bezeichnet. Der multidekadische Charakter der AMO unterscheidet sich von der interannualen Ozeanvariabilität, die durch den führenden Modus der atmosphärischen Zirkulations-Variabilität über dem Nordatlantik, die Nordatlantische Oszillation (NAO), verursacht wird. Der Begriff Atlantische Multidekadische Variabilität (AMV) wird oft verwendet, weil die beobachteten multidekadischen Schwankungen im Atlantik möglicherweise keine Oszillation mit einer einzigen Frequenz sind, sondern aus einem breiteren Band niederfrequenter Signale bestehen.

9.1 Index-Definition und Klimatologie

Die Atlantische Multidekadische Oszillation (AMO) ist mit beckenweiten Schwankungen der SST und des Meeresspiegeldrucks (SLP) verbunden. Für die positive AMO-Phase wird dies manchmal als eine fast gleichmäßige Erwärmung des Nordatlantiks dargestellt. Der traditionelle AMO-Index assoziiert die positive AMO-Phase mit einem Muster hufeisenförmiger SST-Anomalien im Nordatlantik mit ausgeprägter Erwärmung im tropischen und Teilen des östlichen subtropischen Nordatlantiks, einem anomal kühlen Gebiet vor der US-Ostküste und warmen Anomalien um die Südspitze Grönlands.

Abbildung 9.1: Index der Atlantischen Multidekadischen Oszillation von 1880 bis 2018

Die letzten 100 bis 150 Jahre der atlantischen SSTs sind durch einen Jahrhunderte langen Nettoanstieg und Perioden multidekadischer Erwärmung und Abkühlung gekennzeichnet. Die Begründung für die Trennung „Trend+AMO“ wird jedoch durch die fehlende Linearität des globalen Erwärmungstrends konterkariert, so dass die Trendbereinigung den AMO-Index verfremdet. Die Nichtlinearität ist besonders ausgeprägt während des Zeitraums 1945-1975, als die globalen SSTs einen leichten Abkühlungstrend zeigten.

Um die mit der Trendbereinigung verbundenen Unklarheiten bei der Formulierung des AMO-Index zu beseitigen, hat Johnstone (2017) einen atlantischen „Arc“-Index formuliert, der auf der führenden Hauptkomponente der nordatlantischen SST-Variabilität (60°N bis 0°, 70°W-0°W) basiert. Der atlantische „Arc“-SST-Index spiegelt die kohärente Variabilität innerhalb eines bogenförmigen Musters auf Beckenebene wider (manchmal als „Hufeisen“ bezeichnet), eine Signatur der AMO, die den tropischen Nordatlantik, die östliche Grenze der mittleren Breiten und einen Großteil des subpolaren Nordens umfasst (Abb. 9.2).

Abbildung 9.2: Das Bogenmuster wird durch die fette schwarze Linie abgegrenzt, die den tropischen Nordatlantik, die östliche Grenze der mittleren Breiten und einen Großteil des subpolaren Nordatlantiks umfasst.  Von Johnstone.

Das Arc-Muster wird als räumliche Signatur der AMO erkannt, die mit der gekoppelten Ozean-Atmosphären-Variabilität identifiziert wird, und ist eng mit einem „Tripol“-Muster der SST-Reaktion auf die NAO verbunden. Der Arc-Index zeigt eine Nettoerwärmung zusätzlich zu der multidekadischen Periode, die als kühle Phase der AMO anerkannt ist (Abbildung 9.3). Da der Arc-Index sowohl die AMO-Variabilität als auch den allgemeinen Erwärmungstrend kombiniert, ist es sinnvoller, ihn als Definition multidekadischer Regime und Verschiebungen zu interpretieren (siehe Abschnitt 9.4).

Der Arc Index (Abbildung 9.3) zeigt abrupte Verschiebungen in die warme Phase in den Jahren 1926 und 1995, die mit der konventionellen AMO-Analyse in Abbildung 9.1 übereinstimmen. Die Analyse von Johnstone zeigt eine Verschiebung in die kalte Phase im Jahr 1971, was sich von der Analyse in Abbildung 9.1 unterscheidet, die die Verschiebung in die kalte Phase im Jahr 1964 anzeigt. Der AMO-Index von Klotzbach und Gray (2008) zeigt ebenfalls eine Verschiebung in die kalte Phase im Jahr 1970 an.

Abbildung 9.3: Zeitreihe des atlantischen Arc-Index‘ von 1880 bis Anfang 2018. Nach Johnstone

9.2 Paläoklima-Rekonstruktionen

Die Kürze der verfügbaren instrumentellen Daten begrenzt unser Verständnis der Atlantischen Multidekadischen Variabilität (AMV). Paläoklima-Proxy-Rekonstruktionen von AMV-bezogenen Signalen, die über die instrumentelle Ära hinausreichen, bieten eine wichtige Grundlage für das Verständnis der Natur und der zeitlichen Stationarität der AMV.

Die jüngste AMV-Rekonstruktion von Wang et al. (2017) unter Verwendung von terrestrischen Proxy-Aufzeichnungen (Baumringe, Eisbohrkerne usw.) über die letzten 1.200 Jahre hat sowohl eine breite räumliche Abdeckung als auch eine hohe zeitliche (jährliche) Auflösung. Wang et al. (2017) fanden heraus, dass große Vulkanausbrüche und solare Einstrahlungsminima kühle Phasen der atlantischen multidekadischen Variabilität induzieren und zusammen etwa 30% der Varianz in der Rekonstruktion auf Zeitskalen größer als 30 Jahre erklären. Sie isolierten die intern erzeugte Komponente der atlantischen multidekadischen Variabilität, die sie als AMO definieren. Sie fanden heraus, dass die AMO den größten Beitrag zur atlantischen multidekadischen Variabilität in den letzten 1.200 Jahren leistet.

[Es folgen drei längere Abschnitte der Beschreibung von Rekonstruktionen von anderen Autoren. Auf deren Übersetzung wird hier der Länge wegen verzichtet. Alle Autoren kommen im Prinzip zu ähnlichen Ergebnissen. A. d. Übers.]

9.3 Klima-Dynamik

Trotz anhaltender Debatten über die Klimadynamik der AMV wird allgemein akzeptiert, dass die AMV eine komplexe Verschmelzung von natürlicher interner Variabilität der atlantischen meridionalen Umwälzzirkulation (AMOC), natürlichem stochastischem Rot-Rauschen des Ozeans durch die Atmosphäre (hauptsächlich die NAO) und externem Antrieb durch vulkanische Ereignisse, Aerosolpartikel und Treibhausgase darstellt.

9.3.1 Die AMO

Die Atlantische Multidekadische Oszillation (AMO) ist der prominenteste Modus der multidekadischen atlantischen Variabilität; die physikalischen Ursprünge der AMO bleiben jedoch ein Thema anhaltender Debatten. Die beobachteten SST-Änderungen der AMO werden seit langem auf langsame Variationen des nordwärts gerichteten Wärmetransports im oberen Ozean durch die AMOC zurückgeführt. Ozeanische Prozesse bieten einen plausiblen Mechanismus für große multidekadische Klimaschwankungen; solche Schlussfolgerungen basieren aufgrund der kurzen Aufzeichnung der AMOC-Zirkulation, die erst 2004 beginnt, weitgehend auf Klimamodell-Simulationen.

Es wurden mehrere zusätzliche Hypothesen für AMV-Prozesse vorgeschlagen. Es wurde angenommen, dass anthropogene Aerosole eine Hauptursache für die beobachtete AMV sind. Das Argument ist, dass ein Anstieg des linear verzögerten AMV-SST-Indexes durch den erhöhten abwärts gerichteten kurzwelligen Strahlungswärmefluss erzwungen wird, der durch die abnehmenden anthropogenen Aerosole durch ihre Wechselwirkung mit Wolken induziert wird. Der beobachtete Rückgang des subpolaren AMV-SST-Signals in der letzten Dekade steht jedoch im Widerspruch zu der kürzlich beobachteten Veränderung (eine leichte Abnahme) der anthropogenen Aerosole über der nordatlantischen Region. Wie von Zhang et al. (2019) zusammengefasst, widerspricht die Hypothese, dass Änderungen des externen Strahlungsantriebs ein Haupttreiber der AMV sind, vielen beobachteten Schlüsselelementen der AMV.

[Diese Problematik wird naturgemäß ebenfalls von mehreren anderen Autoren untersucht. Deren Zusammenfassungen werden hier der Ähnlichkeit der Ergebnisse wegen nicht mit übersetzt. A. d. Übers.]

Alles in allem ist die kombinierte Wirkung von NAO und EAP [= East Atlantic Pattern] für einen unregelmäßigen und gedämpften Modus der Variabilität der AMOC/AMV verantwortlich, der etwa 35-40 Jahre zum Aufbau und etwa 15-20 Jahre zum Abbau benötigt. Zusätzlich zur direkten NAO-/EAP-Wirkung wird die Beendigung von AMOC/AMV-Ereignissen auch durch die Advektion von anomalem Süßwasser aus dem subtropischen nordatlantischen Becken entlang der mittleren westlichen Grenzozeanzirkulation und auch aus der Arktis aufgrund des beträchtlichen Eisvolumenverlusts in Verbindung mit den insgesamt wärmeren atmosphärischen Bedingungen bei erhöhter AMOC induziert.

Abbildung 9.8:Schematisches Diagramm für ein Positiv-Ereignis von AMOC/AMV. Nach RuprichRobert und Cassou (2014)

Aktualisierung: Eine ausgezeichnete neue Publikation der American Meteorological Society bestätigt im Wesentlichen meine Ergebnisse.

9.4 Verschiebungen in jüngerer Zeit

Wie von Robson et al. (2012) zusammengefasst, erfuhr der subpolare Wirbel des Nordatlantiks Mitte der 1990er Jahre eine bemerkenswert schnelle Erwärmung, wobei die Wassertemperatur in nur 2 Jahren um etwa 1,8°C gestiegen war. Diese schnelle Erwärmung folgte auf eine lang anhaltende positive Phase der Nordatlantischen Oszillation (NAO), fiel aber auch mit einem ungewöhnlich negativen NAO-Index im Winter 1995/96 zusammen. Durch den Vergleich von Ozeananalysen und sorgfältig entworfenen Modellexperimenten zeigten sie, dass diese schnelle Erwärmung als eine verzögerte Reaktion auf die verlängerte positive Phase der NAO verstanden werden kann und nicht einfach als eine sofortige Reaktion auf den negativen NAO-Index von 1995/96. Außerdem folgerten sie, dass die Erwärmung teilweise durch einen Anstieg und anschließenden Rückgang der meridionalen Umwälzzirkulation und des nordwärts gerichteten Wärmetransports des Atlantiks verursacht wurde.

Robson et al. (2016) zeigten, dass sich seit 2005 ein großes Volumen des subpolaren Nordatlantiks deutlich abgekühlt hat und damit der vorherige Erwärmungstrend umgekehrt wurde. Durch die Analyse von Beobachtungen und einem hochmodernen Klimamodell zeigten sie, dass diese Abkühlung mit einer Abnahme der Stärke der Ozeanzirkulation und des Wärmetransports konsistent ist, die mit rekordverdächtig niedrigen Dichten in der tiefen Labradorsee verbunden ist. Die geringe Dichte in der tiefen Labradorsee ist in erster Linie auf die Erwärmung des tiefen Ozeans seit 1995 zurückzuführen, aber auch eine langfristige Auffrischung spielte eine Rolle. Sie schlossen daraus, dass die beobachtete Abkühlung einer großen Region des oberen Nordatlantiks seit 2005 nicht als direkte Reaktion auf Veränderungen der atmosphärischen Zirkulation im gleichen Zeitraum erklärt werden kann.

Johnstone (2017) beschreibt ein „coupled shift model“ des niederfrequenten nordatlantischen Klimawandels, das auf abrupten Übergängen zwischen quasi-stabilen Wassertemperaturen und gekoppelten atmosphärischen Zirkulationen basiert. Diese Hypothese beschreibt wiederkehrende stufenförmige Änderungen der nordatlantischen SST, wobei SST-Störungen mit großer Amplitude gelegentlich als anomale multidekadische Klimazustände durch positive Atmosphäre-Ozean-Rückkopplungen aufrechterhalten werden. Es wird der statistische Nachweis erbracht, dass niederfrequente SST-Änderungen keine graduellen Prozesse waren, wie sie üblicherweise beschrieben werden, sondern durch eine Reihe von kurzen, diskreten Ereignissen, gekennzeichnet durch abrupte ~1-Jahres-stufenartige Verschiebungen, die längere multidekadische Perioden mit relativ geringen Veränderungen trennen.

Die starke Erwärmung des Atlantiks Mitte der 1990er Jahre (Abbildung 9.1), die von gefilterten AMO-Indizes als ein allmählicher Prozess dargestellt wird, der sich über ein Jahrzehnt oder länger hinzieht, lässt sich auf einen abrupten und bemerkenswert kontinuierlichen Anstieg der SST auf der Beckenskala zurückführen, der im Oktober/November 1994 begann und im Wesentlichen als +0,8°C SST-Änderung über den größten Teil des Nordatlantiks bis Juli 1995 vollzogen wurde (Abbildung 9.3). Die abrupte Erwärmung von 1994-95 wurde in den folgenden Monaten, in den nächsten Jahren und in den darauffolgenden zwei Jahrzehnten bis zur Gegenwart nicht gebremst und führte schnell zu einem neuen wärmeren Klimazustand*. Die beckenweite Ausdehnung der Verschiebung von 1995 ist an der abrupten Verschiebung der monatlichen SST-Anomalien sowohl über dem subpolaren Nordatlantik (50-60oN) als auch über den subtropischen Rändern von NW-Afrika zu erkennen, die sich fast gleichzeitig erwärmten (Arc Index, Abbildung 9.2).

[*Siehe hierzu auch die Arbeiten von Kämpfe & Kowatsch zum „Temperatursprung“ in Mitteleuropa. A. d. Übers.]

Verschiebungen erscheinen in der jährlichen Arc-SST-Aufzeichnung (Abb. 9.3) als ausgeprägte Jahr-zu-Jahr-Sprünge in den Jahren 1925-26 (+0,5°C), 1970-71 (-0,3°) und 1994-95 (+0,6°), denen eine multidekadische Persistenz ähnlicher Anomalien in Bezug auf die Vorjahre folgte (1926-1970: +0,5°C, 1971-1994: -0,2°C und 1995-2014: +0,5°). In jedem dieser Intervalle fehlt ein signifikanter linearer Arc-SST-Trend, was darauf hindeutet, dass auf große vorübergehende Klimaänderungen eine Restabilisierung der Wärmebilanz des Oberozeans und die Persistenz neuer anomaler Bedingungen über Jahre bis zu mehreren Jahrzehnten folgte. Arc-SST-Änderungen 1926, 1971 und 1995 traten mit moderaten gleichgerichteten Anomalien der Winter (Oktober-März) Niño 3.4 SST auf, was auf eine systematische Rolle von ENSO bei der Erzeugung von niederfrequenten Klimaänderungen im Nordatlantik hindeutet.

Ein spezifischerer regionaler Indikator zeigt sich in der Korrespondenz der SST-Verschiebungen des Bogens mit hochamplitudigen SST-Änderungen vor Nordwestafrika, die im September 1925, August 1970 und November 1994 ihren Höhepunkt erreichten. Westafrikanische SSTs sind eine prominente Komponente des Atlantischen Multidekadischen Modus (AMM), der als Brücke über Zeitskalen hinweg dienen kann, indem er SST-Störungen als anhaltende Klimaanomalien aufrechterhält.

Eine physikalische Implikation des Verschiebungsmodells ist, dass niederfrequente Klimaveränderungen durch gelegentliche Impulse der Wärmeaufnahme und -abgabe des oberen Ozeans auftreten, und nicht durch allmähliche oder kumulative Prozesse.

Die Atmosphäre-Ozean-Bedingungen, die zur Erwärmung von 1994-95 führten, weisen bemerkenswerte Ähnlichkeiten mit der Erwärmung von 1925-26 und (entgegengesetzt) mit der Abkühlung von 1970-1971 auf, was auf die Vorhersagbarkeit größerer Klimaverschiebungen im Nordatlantik hindeutet. Allen drei Ereignissen gingen in den vorangegangenen 2-3 Jahren einzigartig starke Anomalien des Meeresspiegeldrucks (SLP) mit entgegengesetztem Vorzeichen um die Norwegische See innerhalb eines breiteren NAO-ähnlichen Musters voraus. In jedem Fall wies der Übergangswinter moderate ENSO-Bedingungen auf, die die sich entwickelnde Temperaturveränderung begünstigten, und jede Verschiebung zeichnete sich durch extreme lokale SST-Veränderungen vor NW-Afrika aus.

Historisch gesehen waren atlantische Verschiebungen durch extreme kurzfristige SST-Änderungen vor NW-Afrika gekennzeichnet: ein Verhalten, das derzeit nicht zu beobachten ist, da die subtropischen und tropischen Gebiete des Bogens in einem warmen Zustand verbleiben, der 1995 begann. 
Es ist jedoch bemerkenswert, dass die subpolaren SSTs von 50-60N Anzeichen einer abrupten Abkühlung seit 2015 zeigen (Abb. 9.10), ein Verhalten, das auf eine „partielle“ Verschiebung hindeutet, die bald den breiteren Nordatlantik, einschließlich der Tropen, betreffen könnte. Die aktuelle Divergenz zwischen subpolarer und tropischer nordatlantischer SST ist möglicherweise analog zu dem Verhalten, das in den späten 1960er- und frühen 1970er-Jahren zu beobachten war, als die schnelle subpolare Abkühlung 1969-70 dem starken Rückgang der tropischen SST 1971 etwas vorausging. Basierend auf historischen Mustern könnte ein abrupter Wechsel zu kühleren Bedingungen unmittelbar bevorstehen, obwohl die ungewöhnlich lange Zeitspanne von 1926 bis 1970 darauf hindeutet, dass auch eine erhebliche Verzögerung von bis zu 10-20 Jahren plausibel sein könnte.

Abbildung 9.10: Jährliche SST-Anomalien für den subpolaren und tropischen Nordatlantik. Die subpolare SST (blau, 60°-50°N) zeigt einen starken Abfall und anhaltend kühle Bedingungen seit 2015 (20°N- 0°, rot). Eine ähnliche Divergenz um 1970 könnte ein früher Hinweis auf eine Abkühlung des tropischen und breiteren Nordatlantiks in den nächsten Jahren sein.

Inwieweit war die AMO-Verschiebung von 1995 durch Klimamodelle vorhersagbar? Msadek et al. (2014) fassen die dekadischen Vorhersageexperimente zusammen, die mit dem GFDL-Klimamodell durchgeführt wurden. Die Initialisierung des Modells erzeugt eine hohe Kompetenz in der rückwirkenden Vorhersage der Erwärmung Mitte der 1990er Jahre, die von den nicht initialisierten Vorhersagen nicht erfasst wird. Alle Hindcasts, die in den frühen 1990er Jahren initialisiert wurden, zeigen eine Erwärmung des SPG (subpolarer Wirbel); allerdings sind nur die 1995 und 1996 initialisierten Hindcasts im Ensemble-Mittel in der Lage, die beobachtete abrupte Erwärmung und die damit verbundene Abnahme und Kontraktion des SPG zu reproduzieren. Die verbesserte dekadische Vorhersagefähigkeit des Atlantiks wird in erster Linie durch die Initialisierung der AMOC-Anomalien erreicht, anstatt die AMOC-Anomalien in den hohen nördlichen Breiten vorherzusagen.

Bei der Betrachtung einer möglichen zukünftigen Verschiebung in die kalte Phase der AMO ist es lehrreich, die vorherige Verschiebung in die kalte Phase zu betrachten, die in den 1960er und frühen 1970er Jahren stattfand, als sich die Meeresoberflächentemperaturen im Nordatlantik schnell abkühlten. Hodson et al. (2014) wiesen nach, dass die Abkühlung in mehreren unterschiedlichen Phasen verlief:

1964-68: Die anfängliche Abkühlung ist größtenteils auf die nordischen Meere und die Golfstromverlängerung beschränkt. In diesem Zeitraum gibt es keine nennenswerten atmosphärischen Zirkulationsanomalien, abgesehen von einer kleinen niedrigen MSLP-Anomalie über der Arktis im Oktober-Juni.

1968-72: Mit dem Fortschreiten der Abkühlung dehnen sich kühle Anomalien auf einen Großteil des subpolaren Wirbels (SPG) und der nördlichen mittleren Breiten aus. Es gibt einen Hinweis auf niedrige SLP-Anomalien über Nordafrika, aber der auffälligste Hinweis auf Zirkulationsanomalien ist eine antizyklonale Anomalie im Juli-September, die sich über Nordeuropa und nach Asien erstreckt.

1972-76: Die kühlen Anomalien erreichen in dieser Periode ihre maximale Größe und räumliche Ausdehnung. Der westliche Teil des subtropischen Nordatlantiks zeigt keine signifikante Abkühlung, was zu einem Tripol- (oder Hufeisen-) Muster führt. Das Muster der SLP-Anomalien projiziert sich auf die positive Phase der NAO.

9.5 Klimamodell-Simulationen

Viele gekoppelte Klimamodelle simulieren die Atlantische Dekadische Variabilität, die in mancher Hinsicht mit den verfügbaren Beobachtungen übereinstimmt. Die Mechanismen unterscheiden sich jedoch stark von Modell zu Modell, und die unzureichende Beobachtungsdatenbank erlaubt keine Unterscheidung zwischen „realistischen“ und „unrealistischen“ Simulationen (Latif und Keenlyside, 2011). Ruiz-Barradas et al. (2013) untersuchten historische Simulationen der AMO in CMIP3- und CMIP5-Modellen. Die Variabilität der AMO in den Bereichen 10-20/70-80 Jahre wird in den Modellen überschätzt/unterschätzt.

Cheng et al. (2013; 2015) untersuchten die Atlantische Meridionale Umwälzzirkulation (AMOC), die von 10 Modellen aus CMIP5 für das historische und zukünftige Klima simuliert wurde. Das Multimodel-Ensemblemittel der AMOC zeigt eine multidekadische Variabilität mit einer 60-jährigen Periode; alle Einzelmodelle projizieren sich konsistent auf diesen multidekadischen Modus.

Wie die NCA (2017) zusammenfasst, variiert die simulierte AMOC-AMV-Verknüpfung zwischen den gekoppelten globalen Klimamodellen beträchtlich, was wahrscheinlich aus der Streuung der Modellverzerrungen im Mittelwert im Nordatlantik resultiert. Die AMOC-AMV-Verknüpfung hängt von den Amplituden der niederfrequenten AMOC-Variabilität ab, die in Klimamodellen viel schwächer ist als in der realen Welt aufgrund der unterschätzten niederfrequenten AMOC-Variabilität, die die relative Rolle des externen Strahlungsantriebs oder des stochastischen atmosphärischen Antriebs in der AMV verstärkt.

Der Zeitpunkt einer Verschiebung in die AMO-Kaltphase ist nicht vorhersehbar; er hängt bis zu einem gewissen Grad von unvorhersehbaren Wettervariabilitäten ab. Die Analyse historischer und paläoklimatischer Aufzeichnungen legt jedoch nahe, dass ein Übergang in die kalte Phase vor 2050 zu erwarten ist. Enfield und Cid-Serrano (2006) verwendeten paläoklimatische Rekonstruktionen der AMO, um eine probabilistische Projektion der nächsten AMO-Verschiebung zu entwickeln. Die Analyse von Enfield und Cid-Serrano deutet darauf hin, dass eine Verschiebung in die kalte Phase innerhalb der nächsten 13 Jahre stattfinden sollte, mit einer Wahrscheinlichkeit von 50 %, dass die Verschiebung in den nächsten 6 Jahren stattfindet.

Evaluierung der Studie von Mann et al.:

Mit diesem Kontext können Sie sehen, warum ich die Aerosol-Erklärung (Verschmutzung und/oder Vulkane) als Erklärung für die Ursachen der AMO nicht akzeptiere.  Es gibt erhebliche Diskussionen und Meinungsverschiedenheiten in der Klimadynamik-Gemeinschaft zu diesem Thema, was angesichts der offensichtlichen komplexen Wechselwirkungen zwischen den Ozeanzirkulationen und der AMOC, dem Wetter und der interannuellen Klimavariabilität sowie dem externen Antrieb durch die Sonne und Vulkane nicht überraschend ist.

Was genau ist also falsch an Manns Analyse? Er verlässt sich auf globale Klimamodelle, die bei der Simulation der AMO unzureichend sind.  Dies wurde zuletzt von Kravtsov et al. (2018) hervorgehoben, die zu dem Schluss kamen, dass:

„Während die Klimamodelle verschiedene Niveaus der dekadischen Klimavariabilität und einige regionale Ähnlichkeiten mit den Beobachtungen aufweisen, stimmt keine der betrachteten Modellsimulationen mit dem beobachteten Signal in Bezug auf seine Größe, räumliche Muster und ihre zeitliche Entwicklung überein. Diese Ergebnisse unterstreichen ein erhebliches Maß an Unsicherheit in unserer Interpretation des beobachteten Klimawandels unter Verwendung der aktuellen Generation von Klimamodellen.“

Sich auf globale Klimamodelle zu verlassen, die die multidekadische interne Variabilität nicht adäquat simulieren, um zu „beweisen“, dass eine solche multidekadische interne Variabilität nicht existiert, ist ein Zirkelschluss (bestenfalls). Wie kann so etwas in einer Zeitschrift wie Science veröffentlicht werden?  Peer-Review ist sooooo kaputt.

Was Mann in den Klimamodell-Simulationen sieht, ist die kurzperiodische tropische Ausprägung der AMO, die auf den Nordatlantik beschränkt ist – nicht die multidekadische Variabilität, die mit der globalen Oszillation verbunden ist.  Diese tropische Ausprägung kann sehr wohl bis zu einem gewissen Grad durch tropische Vulkanausbrüche erzwungen werden, sagt aber wenig über die globale multi-dekadische Variabilität aus, die von größtem Interesse ist.

Die tatsächliche multidekadische Klimavariabilität wird größtenteils intern generiert, obwohl solare Variationen helfen können, das Tempo zu bestimmen, und große Vulkanausbrüche können die Variationen maskieren oder helfen, eine Verschiebung auszulösen.

Warum ist das wichtig?  Die verschiedenen Phasen der AMO sind verbunden mit: Die Aktivität der atlantischen Hurrikane, die Massenbilanz Grönlands und Witterung, die Nordamerika und Europa beeinflussen (insbesondere Dürren); ganz zu schweigen von der globalen Temperaturänderung.

Aus der Pressemitteilung der Penn State University geht hervor, dass ein Hauptmotiv für die Annullierung der AMO darin besteht, dass Mann die Zunahme der atlantischen Hurrikan-Aktivität seit 1995 dem AGW zuschreiben kann.  Die Annullierung der AMO wird hier nicht viel helfen.  Wie in meinem letzten Beitrag über den AIR-Versicherungssektor-Bericht diskutiert, war die Anzahl der großen Hurrikane (Cat 3+) im Atlantik während der 1950er und 1960er Jahre (frühere warme Phase der AMO) mindestens so groß wie in den letzten beiden Jahrzehnten bei deutlich niedrigeren SSTs.

Ein weiteres zentrales Problem mit der AMO ist, dass die gesamte Beschleunigung des Meeresspiegelanstiegs in den letzten Jahrzehnten von der Grönlandschmelze herrührt, die stark von der AMO beeinflusst wird.

Unter der Annahme, dass sich die Natur weiterhin so verhält, wie sie es in den letzten 8 Jahrtausenden getan hat, werden wir irgendwann (möglicherweise im nächsten Jahrzehnt) eine Verschiebung in die kalte Phase der AMO sehen, mit einer Abschwächung der atlantischen Hurrikanaktivität und des grönländischen Massenverlustes.

Abschließend sei gesagt, dass Manns Bestreben, die mittelalterliche Warmzeit und jetzt die AMO zu annullieren, um zu zeigen, dass die jüngste Erwärmung zu 100% anthropogen ist, für Wissenschaftler, die etwas von Klimadynamik und globalen Klimamodellen verstehen, überhaupt nicht überzeugend ist.

Link: https://judithcurry.com/2021/03/06/canceling-the-amo/

Übersetzt von Chris Frey EIKE

 




Subventionen für Elektro-Fahrzeuge und andere Phantastereien

Manche Menschen verfügen über ein hohes Einkommen und fahren überwiegend lokal. Für sie mag der Kauf eines E-Fahrzeugs eine sinnvolle Wahl sein.

Warum braucht der Rest von uns Vorschriften und Subventionen, um uns zum Kauf von E-Fahrzeugen anstelle von Fahrzeugen mit Verbrennungsmotor (ICE) zu „überreden“? Wer bekommt eigentlich die Subventionen – und wer bezahlt sie? Welche anderen Kosten und unbeabsichtigten Konsequenzen werden ausgeblendet?

Präsident Biden möchte, dass alle neuen leichten und mittelschweren Fahrzeuge, die bis 2035 (oder früher) verkauft werden, EVs sein müssen. Vizepräsident Harris möchte, dass bis 2045 nur noch ZEVs (Zero-Emission-Vehicles) auf Amerikas Straßen fahren. Verschiedene Bundesstaaten haben bereits ähnliche Gesetze verabschiedet oder ziehen sie in Erwägung. Einige würden den Verkauf von neuen Benzin- und Dieselfahrzeugen bis 2030 verbieten.

Ein Tesla Model S Long Range aus dem Jahr 2021 kann nach mehrstündigem Laden ca. 660 km zurücklegen; sein Kaufpreis liegt bei 80.000 $. Ein Model 3 kostet rund 42.000 $, das Model Y mit Allradantrieb 58.000 $. Ähnliche Schockpreise gelten für andere Elektroauto-Marken und -Modelle, die für die meisten Familien unerschwinglich sind. Modelle mit „großer Reichweite“ erreichen diesen Status, indem sie mit teuren, schweren Batterien und langen Ladezeiten ausgestattet sind. Die meisten Elektrofahrzeuge haben eine viel geringere Reichweite.

Um die Auswirkungen auf die Budgets und Freiheiten abzumildern, will Senator Chuck Schumer (Demokraten) 454 Milliarden Dollar ausgeben, um 500.000 neue Ladestationen für Elektroautos zu bauen, Fahrzeuge der US-Regierung durch Elektroautos zu ersetzen und „Abwrackprämien“ zu finanzieren, um zumindest einigen Familien zu helfen, diesen Wandel im Transportwesen zu bewältigen.

Die Politiker werden unter Druck gesetzt, um die Steuergutschrift von 7.500 Dollar pro Auto auf Bundesebene (und die saftigen Steuernachlässe der Bundesstaaten) beizubehalten, die nun auslaufen soll, sobald die kumulierten Fahrzeugverkäufe eines Herstellers seit 2009 200.000 erreichen. EV-Fahrer wollen auch andere Anreize beibehalten: kostenlose Ladestationen, Zugang zu HOV-Spuren* für Plug-Ins mit nur dem Fahrer, und keine Benzinsteuern zahlen zu müssen, die den Bau, die Wartung und die Reparatur von Autobahnen finanzieren, auf denen sie fahren.

[*HOV = High-Occupancy Vehicle. In den USA darf die ganz linke Spur auf Autobahnen nur von diesen Fahrzeugen benutzt werden, d. h. es müssen mindestens zwei oder mehr Insassen darin sitzen. A. d. Übers.]

Es überrascht nicht, dass eine Studie aus dem Jahr 2015 ergab, dass die reichsten 20 Prozent der Amerikaner 90 Prozent dieser großzügigen EV-Subventionen erhalten. Lobbyisten sind für EV-Hersteller und Fahrer eindeutig wertvoller als Ingenieure.

[Hervorhebung vom Übersetzer]

Unter diesem „Robin-Hood-in-Reverse“-System werden die Subventionen von den Steuerzahlern und Generationen ihrer Nachkommen finanziert – darunter auch Millionen von Arbeiter- und Minderheitenfamilien, von denen sich die meisten niemals ein EV werden leisten können.

Jedes Abwrackprämien-Programm wird das Problem noch verschärfen. Indem es ausreichend wohlhabenden Familien ermöglicht, Autos mit fossilen Brennstoffen gegen E-Fahrzeuge einzutauschen, wird es dazu führen, dass Millionen von perfekt fahrbaren Autos und Lastwagen, die auf dem Gebrauchtwagenmarkt gelandet wären, stattdessen geschreddert und verschrottet werden.

Die durchschnittlichen Kosten für ICE-Fahrzeuge werden um Tausende von Dollars steigen, so dass sie selbst für Millionen von Familien mit niedrigem Einkommen unerschwinglich werden, die gezwungen sein werden, Schrott zu kaufen oder mit Bussen und U-Bahnen zu fahren, die mit Menschen überfüllt sind, von denen sie hoffen, dass sie nicht die nächste Generation von COVID mit sich führen.

Die Vereinigten Staaten werden anfangen, wie Kuba auszusehen, das immer noch Legionen klassischer Autos aus den 1960er und 70er Jahren besitzt, die liebevoll gepflegt und mit Motoren, Bremsen und anderen Teilen, die aus Wracks und sogar sowjetischen Autos stammen, auf der Straße gehalten werden. Aber sobald die Staaten und die Bundesregierung den Verkauf von Benzin verbieten, wird auch das ein Ende haben.

Vielleicht noch ironischer und perverser ist, dass sich der Begriff „Null-Emissions-Fahrzeug“ nur auf Emissionen in den USA bezieht – und auch nur dann, wenn der Strom, der zum Laden und Betreiben der ZEVs benötigt wird, aus nicht-fossilen Kraftwerken stammt. Die Texaner wissen jetzt, wie gut Windturbinen und Solarpaneele funktionieren, wenn sich die „runaway-globale Erwärmung“ in Rekordkälte und Schnee verwandelt.

Da viele Politiker und Umweltschützer gleichermaßen von Kern- und Wasserkraft abgestoßen sind, könnte es bald zu einer wiederkehrenden Herausforderung werden, irgendeine Stromquelle zu haben.

Null-Emissions-Phantasien ignorieren auch die wesentliche Rolle der fossilen Brennstoffe bei der Herstellung von ZEVs. Vom Abbau und der Verarbeitung der unzähligen Metalle und Mineralien für die Batteriemodule, die Verkabelung, den Antriebsstrang und die Karosserie bis hin zur eigentlichen Herstellung der Komponenten und der fertigen Fahrzeuge erfordert jeder Schritt Öl, Erdgas oder Kohle.

Nicht in Kalifornien oder Amerika vielleicht, sondern anderswo auf dem Planeten Erde, meist mit chinesischen Unternehmen in führenden Rollen.

Von alltäglichem Eisen, Kupfer, Aluminium und erdölbasierten Kunststoffen bis hin zu Exoten wie Lithium, Kobalt und mehreren Seltenen Erden – diese Materialien werden ausgegraben und in „tugendhafte“ Elektroautos, Windturbinen und Solarpaneele verwandelt, ohne Rücksicht auf Kinderarbeit, faire Löhne, Sicherheit am Arbeitsplatz, Luft- und Wasserverschmutzung, giftige und radioaktive Abfälle, gefährdete Arten oder die Renaturierung von mit Bergbau übersätem Land.

[Hervorhebung vom Übersetzer]

Wie lange können wir es noch zulassen, dass unsere Umwelt, unsere Arbeitsbedingungen, unser Wohlstand und unsere Bedürfnisse nach effizientem Reisen der EV-Mythologie untergeordnet werden?

A version of this article appeared at Inside Sources.

Autor: Craig Rucker is a co-founder of CFACT and currently serves as its president.

Link: https://www.cfact.org/2021/03/03/electric-vehicle-subsidies-and-other-fantasies/

Übersetzt von Chris Frey EIKE




Versucht Mutter Natur, uns etwas zu sagen?

1. WAS verursachte die mittelalterliche Warmzeit um 1000 n. Chr., als die Wikinger in der Lage waren, viel, viel mehr von Grönland zu bewirtschaften als heute? Es war nicht DER MENSCH, der diese „globale Erwärmung“ verursacht hat, oder?

2. WAS verursachte die Erwärmung während der Römerzeit in Britannien, (erstes Jahrhundert n. Chr.) als Trauben bis nach York (in Yorkshire, Nordengland) angebaut wurden. Heute können dort oben keine Trauben mehr angebaut werden. Es war nicht DER MENSCH!

3. WAS verursachte die „Kleine Eiszeit“ zur Zeit von Charles Dickens, als die Themse durch London jeden Winter so stark gefror, dass man EISMESSEN auf dem Eis des Flusses abhalten konnte? Die Themse friert heute nicht mehr zu* … und DER MENSCH hat das im 19. Jahrhundert nicht verursacht! Vulkanische Aktivität könnte die natürlichen Sonnenzyklen unterstützt haben.

[*Das ist etwas überholt. Vor ein paar Wochen war zu lesen, dass sich auf der Themse erstmals seit 60 Jahren erneut Eis gebildet hatte – natürlich nicht genug, um Eismessen darauf zu veranstalten. A. d. Übers.]

4) Am 10. Dezember 2020 verkündete das UK Meteorological Office, dass Schnee im britischen Tiefland, südlich von Schottland, bald der Vergangenheit angehören wird.

In der Zwischenzeit, im Jahr 2021, hatten wir weit verbreiteten Schnee und den kältesten Januar seit 10 Jahren … und die niedrigste Temperatur in Großbritannien seit 25 JAHREN: MINUS 23 Celsius,! Das wurde in Braemar in Schottland im Februar aufgezeichnet.

Versucht uns Mutter Natur etwas zu sagen?

Windturbinen brauchen 25 km/h Wind, um irgendetwas Nützliches zu erzeugen. Sie haben ihre optimale Leistung bei 55 bis 70 km/h. Wenn der Wind mit etwa 90 km/h böig ist, können sie sich abschalten, um Schäden zu vermeiden.

In Großbritannien erzeugen landgestützte Windturbinen mit einer installierten Leistung von 2 Megawatt [MW] im Durchschnitt nur 25 Prozent oder 0,5 MW!

Besuchen Sie www.Gridwatch.co.uk, um die Windenergieleistung in Großbritannien rund um die Uhr zu sehen. Im Jahr 2020 lag die britische Windenergie INSGESAMT an einem Tag im letzten Sommer bei nur 95MW.

Wie um alles in der Welt können diese unzuverlässigen, nur zeitweise funktionierenden Maschinen UK MIT STROM VERSORGEN … UND ALLE AUTOS?

Greenies….und Politiker…wollen den Strom aus fossilen Brennstoffen abschaffen und alles in Großbritannien aus erneuerbaren Energien betreiben! Wie ist das möglich?

Noch verrückter … sie wollen die Herstellung von Autos mit Diesel- und Benzinmotoren in Großbritannien bis 2030 abschaffen und NUR noch Elektroautos produzieren! Auch das ist unmöglich, denn es gibt 40 Millionen Fahrzeuge in UK. 40 Millionen EVs, die mit 5kW aufgeladen werden, bräuchten 200.000.000 kWh über 8 Stunden Ladezeit, um 150 Meilen pro Tag zu fahren (basierend auf Nissan Leaf).

Wenn sie also im Durchschnitt nur ein VIERTEL dieser Kilometerleistung, also 37,5 Meilen pro Tag, zurücklegen würden, bräuchten die 40 Millionen EVs immer noch 200.000 Megawatt für 2 Stunden Laden bei einer Rate von 5 kW, oder? Außerdem würden die meisten Leute in den 6 Stunden von 18 Uhr bis Mitternacht laden wollen. Sie würden das nationale Stromnetz ZERSTÖREN!

Doch das britische Stromnetz hat im Durchschnitt nur 6000 MW aus Windenergie zu jeder Zeit… Wenn wir also die Kraftwerke für fossile Brennstoffe abschalten, wie kann dann der WIND all unsere Autos, Häuser, Büros, Fabriken, Krankenhäuser, Hotels und Restaurants in Großbritannien mit Strom versorgen, wenn die Windenergie in Großbritannien im Durchschnitt 6000 MW pro Tag beträgt?

WIE SOLL DAS GEHEN?! Kann das bitte mal jemand erklären?!

Link: https://www.iceagenow.info/is-mother-nature-trying-to-tell-us-something/

Übersetzt von Chris Frey EIKE

 




Weitere grüne Stromausfälle sind zu erwarten!

Die Regulierungsbehörden warnen seit Jahren davor, dass das Stromnetz immer mehr ins Wanken gerät, da billiges Erdgas und stark subventionierte erneuerbare Energien die konstante Grundlast aus Kohle und Kernkraft ersetzen. Die North American Electric Reliability Corporation (NERC) warnte bereits im Jahre 2011: „Das Stromnetz der Nation wird in einer noch nie dagewesenen Weise beansprucht werden“, und zwar aufgrund einer „beispiellosen Veränderung des Ressourcen-Mix“.

Sie fügte hinzu: „Es hat sich gezeigt, dass Umweltauflagen das größte Risiko für die Zuverlässigkeit in den nächsten ein bis fünf Jahren darstellen.“ Aber die Obama Federal Energy Regulatory Commission (FERC) weigerte sich zu berücksichtigen, wie sich die Klimapolitik auf die Zuverlässigkeit auswirken würde. Seit 2011 wurden etwa 90 Gigawatt (GW) an Kohlekapazitäten abgeschaltet und durch etwa 120 GW an Wind- und Solarkapazitäten und 60 GW an Gaskapazitäten ersetzt.

[Hervorhebung vom Übersetzer]

Aber erneuerbare Energien erzeugen nicht rund um die Uhr Strom, wie es Gas, Kernkraft und Kohle tun. Gaskraftwerke sind von Just-in-time-Brennstofflieferungen abhängig, die bei extremem Wetter nicht zuverlässig sind. Von der Regierung verursachte Pipeline-Engpässe erschweren die Lieferungen im Nordosten. Die Linken sagen auch, dass Texas den arktischen Einbruch besser hätte überstehen können, wenn sein Stromnetz nicht fast ausschließlich auf Strom aus dem eigenen Land angewiesen gewesen wäre.

Aber auch im Southwest Power Pool, nördlich von Texas, und im Stromnetz des Mittleren Westens, die beide stark auf Windkraft und Gas angewiesen sind, kam es in der vergangenen Woche zu Stromausfällen aufgrund von steigender Nachfrage, Winderzeugung und Mangel an Gas. Kalifornien verlässt sich auf Gas und Importe, um seine Solarenergie zu unterstützen. Doch im letzten Sommer konnte Kalifornien während einer Hitzewelle, die das gesamte westliche Stromnetz belastete, nicht genug Strom von seinen Nachbarn bekommen. Wasserkraft aus dem Nordwesten und Kohle aus Utah konnten Stromausfälle nicht verhindern.

Die Windlobby sagt, Texas hätte verlangen sollen, dass thermische Anlagen (Kernkraft, Gas, Kohle) wetterfest gemacht werden, damit sie einstelligen Temperaturen standhalten. Vielleicht, aber Wind hat während des Blackouts trotzdem am schlechtesten abgeschnitten. Laut einer Datenanalyse des Center of the American Experiment erzeugte er nur 12 % seiner Kapazität, verglichen mit 76 % für Kernkraft, 39 % für Kohle und 38 % für Gas.

Die eiskalte Realität ist, dass die Netzregulierer in den gesamten USA darum kämpfen, den Strom bei extremen Wetterbedingungen am Laufen zu halten. Sie konnten weitere Stromausfälle vermeiden, indem sie Energieeinsparungen anordneten. Aber Texas zeigt, dass Energiesparen nicht genug ist, da staatliche Auflagen Amerika immer abhängiger von elektrischer Energie für alles von der Heizung bis zum Auto machen.

Die meisten Texaner verwenden Strom zum Heizen. Viele Gaskompressoren in den Pipelines sind aufgrund der bundesstaatlichen Emissionsvorschriften elektrifiziert, sodass die Stromausfälle die Gaslieferungen an Kraftwerke einschränkten. Sie legten auch Wasserpumpen und Aufbereitungszentren still.

Doch die Progressiven wollen die Amerikaner noch abhängiger vom Stromnetz machen, indem sie Gasanschlüsse in Häusern verbieten und Elektroautos vorschreiben. Dies ist ein Rezept für landesweite Stromausfälle, wenn Kohle- und Atomkraftwerke in den Ruhestand gehen, weil sie nicht mit den subventionierten erneuerbaren Energien konkurrieren können. Der Netzbetreiber von Neuengland sagte 2018 in den meisten von ihm analysierten Fällen Stromausfälle im Winter 2024-2025 voraus.

Das gesamte Editorial steht hier ($)

Link: https://www.thegwpf.com/more-green-blackouts-ahead/

Übersetzt von Chris Frey EIKE

 




Dezember und Januar verhalten sich seit 10 Jahren unter­schiedlich in Deutschland – ein Wider­spruch zum CO2-Treibhaus­effekt.

Wir nehmen das Startjahr der Betrachtung 1988 aus zwei Gründen: Zum einen trat der selbst ernannte Weltklimarat mit seinen Erwärmungs-Verheißungen zum ersten Male an die Öffentlichkeit, außerdem erfolgte in Mitteleuropa in den Jahren 1986 bis 1990 ein plötzlicher Temperatursprung auf ein höheres Temperaturniveau, auf dem wir uns noch heute befinden. Somit wollen wir auch wissen, wie sich der Temperaturverlauf auf diesem höheren Niveau verhält. Beginnen wir mit dem Dezember, der DWD-Durchschnitt aus den fast 2000 Wetterstationen in Deutschland ab 1988 bis 2020 sieht so aus:

Abb. 1: Der Dezember wurde in Deutschland im Betrachtungszeitraum der letzten 33 Jahre immer wärmer, etwa um 0,5 C/Jahrzehnt. Vor allem seit 2011 war der Monat relativ mild und die letzten Schneeweihnachten waren im Flachland 2010.

Feststellung: Der Dezember wurde im letzten Jahrzehnt immer mehr zu einem verlängerten November.

Der Monat Januar dazu im Vergleich (Deutschlanddaten)

Abb. 2: Der Monat Januar wurde in Deutschland seit 1988 leicht kälter.

Die wichtige Erkenntnis wäre: Der Monat Dezember und der Monat Januar verhalten sich seit 1988 genau gegensätzlich.

Wann begann das Auseinanderdriften?

Aufschluss soll die nächste Grafik geben. Beim Vergleich der beiden Graphen bitte beachten: Auf den Dezember 1988 (braun) folgt der Januar 1989 (violett). Zur besseren Vergleichbarkeit sind 88/89 zu einer Zeitachse zusammengefasst

Abb. 4: Die Grafik zeigt den Verlaufsvergleich von Dezember (braun) und den darauffolgenden Januar (violett). Dezember 1988 im Vergleich zu Januar 1989 sind auf demselben Punkt der Zeitlinie, ebenso Dez. 2020 und der Jan. 2021

Ab 2011 wird der Dezember deutlich wärmer in Deutschland, während der Januar seinen unbedeutenden Abwärtstrend beibehält.

Ergebnis: Der Dezember hatte vor 10 Jahren einen Temperatursprung auf ein höheres Niveau und ist seitdem deutlich wärmer als der Januar. Wegen der Kürze des Zeitintervalls redet man jedoch besser von einem warmen Dezember-Jahrzehnt.

Wie verhielt sich der Dezember vor 2011?

Die Kleine Eiszeit ging eigentlich erst ab 1900 zu Ende, das Startjahr des DWD, nämlich 1881 lag noch in einer Kältedelle. Deshalb beginnt die folgende Dezembergrafik Deutschlands zwar zu Zeiten des Kaiserreiches, aber erst ab 1900.

Abb. 5: 110 Jahre lang war der Dezember in Deutschland ausgewogen, er zeigte keinen Trend, trotz einiger wärmerer oder kälterer Jahrzehnte. Der leichte Anstieg der Trendkurve ist eine Folge des ständig zunehmenden Wärmeinseleffektes der deutschen Wetterstationen.

Das plötzlich wärmere Dezember- Jahrzehnt seit 2011: Erklärung durch den angeblichen CO2-Treibhauseffekt: nicht möglich

Ein möglicher CO2-Treibhauseffekt kann dieses unterschiedliche Temperaturverhalten der beiden Wintermonate Dezember und Januar im letzten Jahrzehnt keinesfalls bewirken und damit auch nicht erklären. Sonst müssten wir festhalten: Die Zunahme des Treibhausgases CO2 wirkt im Dezember erwärmend und im Januar leicht abkühlend. So eine Eigenschaft eines Gases gibt es aber nicht. Die starke CO2-Zunahme CO2 der Atmosphäre ist jedoch in der Fachwelt unbestritten. Derzeitiger Stand: 417 ppm.

Quelle: Wikipedia

Die Grafiken Dezember und Januar sind allein Beweis genug, dass CO2 wenig oder gar nicht klimasensitiv ist. Der Begriff „Treibhausgas“ ist somit ein Fantasiebegriff: Kohlendioxid kann im Dezember nicht erwärmend wirken und im darauffolgenden Januar einige Tage später hört die Wirkung plötzlich auf. Solche monatsbedingten Gaseigenschaften gibt es nicht. Weder in Deutschland noch sonstwo auf der Welt.

Wir müssen deswegen nach anderen Erklärungsmustern suchen.

Wärmeinseleffekt: Auch der ständig zunehmende Wärmeinseleffekt seit 1988 bei den DWD- Stationen spielt hierbei eine untergeordnete Rolle. Die Betrachtung bei WI-armen Stationen wie Amtsberg ergibt lediglich für den Januar eine etwas negativere Trendlinie.

Abb. 6: Bei einer WI-armen Station zeigt der Dezember im Jahre 2011 denselben Temperatursprung, wegen des fehlenden WI-effektes kühlt der Januar jedoch stärker ab, so dass die Schere weiter auseinandergeht. Die kalten Januarnächte werden bei WI-armen Stationen nicht heraus geheizt, weil keine Häuserheizung da ist. Dadurch ist die Trendlinie fallender.

Nebenbei sei noch bemerkt, dass der WI-Effekt im Winter eh weniger ausgeprägt ist als im Sommer. Wir können nur festhalten: Der CO2-Anstieg und der WI-effekt können das unterschiedliche Temperaturverhalten der beiden Monate seit einem Jahrzehnt nicht erklären.

Richtige Erklärung?

Rein statistisch haben die Westwetterlagen im Dezember leicht zugenommen und im Januar seit 1988 eher abgenommen. Doch weshalb das so ist? Und wie die beiden Monate sich weiter entwickeln werden, darüber können seriöse Klimawissenschaftler nur spekulieren oder Hypothesen zur weiteren Erkenntnisgewinnung aufstellen.

Fazit:

Der Dezember wurde in den letzten 33 Jahren in Deutschland wärmer, der Januar und (Februar) kälter. Das ist ein einfacher Beweis, dass es den CO2-Treibhauseffekt nicht gibt oder dass er kaum Wirkung hat. Aus diesem Grunde gibt es auch keine CO2 verursachte Klimakatastrophe, denn laut Einstein reicht ein Gegenbeweis. Dieser Artikel mit den Grafiken sind der Gegenbeweis.

Eine teure CO2-Einsparung wie sie die Politik in Deutschland anstrebt, ist somit völlig wirkungslos auf das Temperaturverhalten der beiden Monate

Das unterschiedliche Temperaturverhalten der beiden Wintermonate kann man nur mittels natürlicher Klimavariationen erklären. Wir haben nur eine ausführlicher genannt, er gibt sicherlich mehrere.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt menschlichen Handelns gestellt werden. Die Erhaltung der natürlichen Vielfalt von Pflanzen und Tieren sollte ein vorrangiges Ziel sein und nicht diese unseriöse Panikmache von Medien im Verbund mit gut verdienenden Klima-Schwätzern und Märchenerzählern.

 




Wir alle wurden wie Vieh in den Stall mit der Aufschrift „globale Erwärmung“ getrieben

Unsere heutige Warmzeit begann vor etwa 14k-12k Jahren, und in dieser kurzen Zeit entwickelte sich die Zivilisation, wie wir sie heute kennen.

Ernteausfälle und Hungersnöte werden zweifellos eine neu anbrechende Eiszeit begleiten, und das bedeutet Ungemach für den Großteil der Weltbevölkerung. Zusammen mit Hungersnöten kommen Krankheiten, und das bedeutet leider noch mehr Ärger.

Sogar die NASA hat vor der Möglichkeit einer zurückkehrenden Eiszeit gewarnt, und doch wurde ihre Warnung von den Befürwortern der globalen Erwärmung übertönt. Das kann leider zu unserem eigenen Untergang führen.

Einige meiner Verwandten leben in Texas, und sie alle haben Schlimmes hinsichtlich der Kältewelle der vorigen Woche erzählt. Viele waren schlecht darauf vorbereitet, was Wasser, Lebensmittel usw. angeht. Sie dachten nicht, dass es so schlimm und lang anhaltend sein würde, wie es war. Andere hatten die ganze Zeit über Strom und jetzt haben sie ihre Stromrechnungen, die in die Tausende von Dollar für einen Monat gehen. Erstaunlich!

Was mich an diesem Thema am meisten stört ist, dass wir nicht auf eine kommende Abkühlung vorbereitet wurden. Stattdessen wurden wir alle wie Vieh in den Stall der globalen Erwärmung getrieben…..wohl viele, aber nicht alle. Ich finde das überhaupt nicht überraschend, denn die Menschen neigen dazu, eher eine Lüge zu glauben, die sie beruhigt, als die Wahrheit, die ihnen schon beim bloßen Gedanken daran eine Heidenangst einjagt. Und wir Menschen haben eine Art Herdenmentalität, auch wenn das bedeutet, mit dem Rudelführer über die Klippe zu gehen, leider.

Ich denke, der Tag wird bald kommen, an dem wir uns wünschen werden, mehr Kern- und Kohlekraftwerke zu haben, aber dann wird es ZU SPÄT sein.

Vielleicht werden die, die nach uns kommen, wenn die nächste Warmzeit anbricht, Führer haben, die sich mehr um MENSCHEN kümmern als um ihre eigene Gier. Vielleicht.

Link: https://www.iceagenow.info/we-have-all-been-herded-like-cattle-into-the-global-warming-pen/

Übersetzt von Chris Frey EIKE

 




ENTHÜLLT: Die vom Finanzminister als „realistischer“ eingeschätzten Kosten von 1,3 Billionen Pfund werden von der Regierung unterdrückt

Die neu enthüllte Modellierung schätzte die Nettokosten von Net Zero bis 2050 auf 1.275 Mrd. £, wobei die jährlichen Kosten im Jahr 2050 um 40 % höher liegen würden als die Schätzung des Committee of Climate Change (CCC), zu der die Regierungsbeamten gedrängt wurden. Das Finanzministerium räumte ein, dass „die Kosten des Übergangs (zu Net Zero) höchst unsicher sind“, während sie und das CCC weiterhin Details zur Methodik zurückhalten.

Aktivisten haben mehr Transparenz gefordert, da der Premierminister darauf besteht, dass Net Zero nicht zu neuen Steuern führen wird.

Das Finanzministerium hat endlich den Inhalt einer E-Mail offengelegt, die an den damaligen Schatzkanzler Philip Hammond geschickt wurde und in der es um die hohen Kosten des Netto-Null-Emissionsziels ging – nach einem langwierigen Streit um die Informationsfreiheit, der fast zwei Jahre dauerte.

In der E-Mail schrieb das Finanzministerium: „Der CCC schätzt, dass das Erreichen des Netto-Null-Ziels im Jahr 2050 jährlich 50 Mrd. £ kosten wird. BEIS [das Ministerium für Wirtschaft, Energie und Industriestrategie] schätzt die Zahl auf 70 Milliarden Pfund pro Jahr. Wir halten die BEIS-Zahl für realistischer.“

Die „realistischere“ BEIS-Zahl ist diejenige, die die Regierung vor einer Entscheidung des Informationskommissars Anfang dieses Jahres vor der Veröffentlichung zurückhalten wollte.

Sie beschrieben auch, dass No10 [der Regierungssitz des Premierministers] und BEIS „sich von der £1 Billion-Zahl distanziert haben“ und sagten, dass sie „den öffentlichen Linien gefolgt sind“, einschließlich „Das Komitee für Klimawandel sagt, dass dies £50 Milliarden jährlich im Jahr 2050 kosten wird.“

In einer Rede am Montag bestand der Premierminister darauf, dass seine „Net Zero“-Agenda nicht zu neuen Kohlenstoffsteuern für die Verbraucher führen würde. Er sagte der Sun, er plane „eine Agenda für einen wirtschaftlichen Aufschwung…“.

Die Existenz interner Regierungsschätzungen zu den Kosten von Net Zero war erstmals in einem durchgesickerten Brief bestätigt worden, der im Juni 2019 in der Financial Times erschien.

Wir wissen nun, dass die Modellierung des BEIS schätzte, dass sich die Kosten für Net Zero bis 2050 auf 1.275 Mrd. £ belaufen würden. Die jährlichen Kosten wurden modelliert, um von derzeit 15 Mrd. £ pro Jahr auf etwa 70 Mrd. £ im Jahr 2050 zu steigen. Dies wird durch eine Grafik des Finanzministeriums veranschaulicht, die eine zunehmende Divergenz mit den CCC-Berechnungen zeigt:

 

Die dargestellten Zahlen sind Nettokosten und werden teilweise durch Kosteneinsparungen in bestimmten Bereichen ausgeglichen. Die gesamten Bruttokosten sind also noch höher. Das Energy Technologies Institute hat gesagt, dass die Kosten für die Nachrüstung allein des britischen Wohnungsbestands über 2 Billionen Pfund betragen könnten, und ein GWPF-Bericht schätzt die Gesamtkosten auf über 3 Billionen Pfund.

Die Enthüllungen haben zu Forderungen nach mehr Transparenz geführt. Victoria Hewson, Leiterin von Regulatory Affairs am Institute of Economic Affairs, sagte:

„Um neue Umweltvorschriften richtig zu prüfen, brauchen das Parlament und die Öffentlichkeit Zugang zu allen relevanten Informationen. Es ist enttäuschend, dass die Regierung sich entschieden hat, diese entscheidende Kostenbewertung so lange zurückzuhalten, und dass die Ansicht des Finanzministeriums auf solch vagen Projektionen zu beruhen scheint. Transparenz und rigorose Kosten-Nutzen-Analysen sind im Interesse aller, sowohl um die Kosten zu minimieren als auch um sicherzustellen, dass die besten politischen Alternativen gewählt werden.“

Im Dezember veröffentlichte das Institute for Government einen Bericht mit der Argumentation: „Die Regierung muss die Art und Weise, wie sie Beweise sammelt, um die Netto-Null-Politik zu informieren, von Grund auf reformieren und ein breiteres Spektrum von Interessenvertretern konsultieren, wenn sie kostspielige politische Fehlschläge vermeiden will.“

Die Einschätzung der Beamten widerspricht den offiziellen Beratern der Regierung zum Klimawandel, dem Committee on Climate Change (CCC). Das CCC wird von Lord Deben geleitet, der zugegeben hat, Hunderttausende Pfund von „grünen“ Unternehmen zu erhalten. Es hatte eine niedrigere Schätzung von 50 Milliarden Pfund pro Jahr bis 2050 vorgelegt, aber das Finanzministerium sagte, die BEIS-Zahlen seien „realistischer“.

[Hervorhebung vom Übersetzer]

Andrew Montford, stellvertretender Direktor der GWPF, sagte:

„Nachdem ich fast zwei Jahre lang meinen Antrag auf Informationsfreiheit angefochten habe, bin ich froh, dass das Finanzministerium endlich zugestimmt hat, diese Informationen freizugeben. Es zeigt, dass Minister und Beamte der Regierung, obwohl sie von einer glaubwürdigeren höheren Schätzung für die Kosten von Net Zero wussten, entschieden haben, wichtige Informationen zu verbergen. Wir müssen jetzt die Methodik hinter diesen Schätzungen erkennen, damit das Parlament die Kosten der Dekarbonisierungspolitik richtig hinterfragen kann.“

Read the full FoI disclosure here

Link: https://www.thegwpf.com/revealed-the-1-3-trillion-net-zero-cost-estimate-called-more-realistic-by-treasury-suppressed-by-government/

——————————–

Im Britischen Boulevard-Blatt (vergleichbar mit der BILD-Zeitung bei uns) gab es dazu gleich einen Artikel. So sehr BILD manchmal „Bildungsbremse“ genannt wird – hier könnte sie wirklich mal der Bildung Vorschub leisten. Einschub des Übersetzers

Briten wurden hinsichtlich der Kosten von Net Zero in die Irre geführt

Natasha Clark, The Sun

Die Briten wurden über die Kosten des Netto-Null-Emissionsziels der Regierung bis 2050 getäuscht, nachdem Whitehall-Beamte den geschätzten jährlichen Schaden von 70 Milliarden Pfund heruntergespielt hatten.

In brisanten E-Mails, die nach einer zweijährigen FOI-Schlacht veröffentlicht wurden, gaben Beamte des Finanzministeriums gegenüber dem damaligen Kanzler Philip Hammond zu, dass die Kosten für die Umstellung auf grüne Technologien wahrscheinlich 20 Milliarden Pfund pro Jahr höher sein würden als die 50 Milliarden Pfund, für die sie öffentlich werben sollten.

Die Briten wurden über die Kosten von Theresa Mays Klimaneutralitätsziel getäuscht. Quelle: PA:Press Association

E-Mails zwischen Philip Hammond und seinen Erfüllungsgehilfen enthüllten, dass die Zahl 20 Milliarden Pfund höher war als erwartet. Quelle: Darren Fletcher – The Sun

Ex-PM Theresa May hat das Vereinigte Königreich rechtlich dazu verpflichtet, bis 2050 „Net Zero“ zu erreichen, bevor Boris Johnson 2019 das Amt übernahm – was bedeutet, dass alle schädlichen Gase und Emissionen ausgeglichen werden müssen.

Interne Regierungsmodelle des Wirtschaftsministeriums zeigten, dass die Kosten um 40 Prozent höher sein würden – und bis 2050 1,275 Billionen Pfund erreichen würden.

Damals spielte No10 die geschätzten Gesamtkosten von einer Billion Pfund für die Umstellung auf eine völlig Kohlenstoff-neutrale Wirtschaft bis 2050 herunter und wies die Berichte zurück, dass dies bedeuten könnte, dass die öffentlichen Ausgaben in anderen Bereichen gekürzt werden müssten.

Andrew Montford, stellvertretender Direktor der Global Warming Policy Foundation, die auf die FOIs drängte, sagte gestern Abend: „Nachdem ich fast zwei Jahre lang meinen Antrag auf Informationsfreiheit angefochten habe, bin ich froh, dass das Finanzministerium endlich zugestimmt hat, diese Informationen freizugeben. Es zeigt, dass Minister und Beamte der Regierung, obwohl sie von einer glaubwürdigeren höheren Schätzung für die Kosten von Net Zero wussten, entschieden haben, wichtige Informationen zu verbergen. Wir müssen jetzt die Methodik hinter diesen Schätzungen erkennen, damit das Parlament die Kosten der Dekarbonisierungspolitik richtig hinterfragen kann.“

Horrende Kosten

Klimaforscher argumentieren, dass die wahren Kosten des Klimawandels auf lange Sicht sogar noch MEHR kosten werden, wenn jetzt nichts unternommen wird.

Die damalige Premierministerin Theresa May war sehr daran interessiert, die Verpflichtung zu Netto-Null zu überstürzen, bevor sie 2019 das Amt verlässt.

Aber Hammond war besorgt über die langfristigen Kosten für die Wirtschaft und wollte gegenüber der Öffentlichkeit ehrlich hinsichtlich der horrenden Kosten sein.

Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE