1

Klima klar, Wetter ungewiss *

Vor dem zweiten Juli-Wochenende hatte der Wetterbericht für den Großraum Dresden Dauerniederschlag von Freitagmorgen bis Sonntagabend angesagt. Tatsächlich gab es aber nur etwas Nieselregen und zwei kräftige Gewitter von jeweils einer reichlichen Stunde Länge.

An diesem Beispiel wurde wieder einmal deutlich, wie wenig Verlass auf die Vorhersagen der Meteorologen ist, obwohl den Forschern mittlerweile um die 100000 mobile und stationäre Beobachtungsstationen rund um den Globus, Dutzende Wettersatelliten sowie Supercomputer zur Auswertung der erfassten Daten zur Verfügung stehen.

Ganz besonders fehlerhaft fallen die Prognosen bei Zeiträumen von mehr als drei Tagen aus. Und jenseits der Grenze von 20 Tagen ist dann komplett Schluss: Keine der heutigen meteorologischen Methoden erlaubt brauchbare Vorhersagen, die weiter in die Zukunft reichen.

Das musste auch der staatliche Deutsche Wetterdienst erfahren, der vor einigen Jahren verkündet hatte, er könne künftig die Lufttemperatur und die Niederschlagsmenge für sechs Monate im Voraus prognostizieren und somit beispielsweise den Landwirten, der Getränkeindustrie oder der Reisebranche zu mehr Planungssicherheit verhelfen. Das groß angekündigte Vorhaben scheiterte schmählich.

Der Grund dafür, dass Wettervorhersagen so unpräzise sind, liegt in der prinzipiellen Vorgehensweise der Meteorologen: Aus dem aktuellen Zustand der Atmosphäre berechnen sie deren künftige Zustände. Allerdings verlaufen die Vorgänge in der Lufthülle unseres Planeten ungeheuer komplex und zugleich auch chaotisch. Minimale Veränderungen an der einen Stelle können andernorts völlig überraschende und extreme Auswirkungen hervorrufen.

Deshalb bräuchten die Meteorologen nicht zuletzt deutlich mehr Messstationen zur Erfassung von kleinräumig wirksamen Wetterphänomenen. Für eine sichere Elf-Tage-Vorhersage wären das 100 Millionen solcher Stationen und für Prognosen über  30 Tage müsste ihre Zahl bereits in der Größenordnung von zehn hoch 20 liegen, was natürlich komplett unmöglich ist.

Dessen ungeachtet behaupten die meisten Klimaforscher, die Fähigkeit zu besitzen, über Jahrzehnte oder gar noch länger in die Zukunft zu schauen und Temperaturen, Niederschläge und so weiter vorherzuberechnen. Dabei gilt das Klima definitionsgemäß bloß als Abbild der wichtigsten, statistisch erfassten Wetterphänomene innerhalb eines Zeitraums von 30 Jahren.

Trotzdem wird inzwischen davon fabuliert, wie das Klima und damit auch das Wetter im Jahre 2100 – kein Schreibfehler! – aussehen könnte. So vermeldete das Hamburger Max-Planck-Institut für Meteorologie, in Deutschland werde es dann streckenweise um bis zu vier Grad wärmer sein.

Solche Prognosen sind freilich nicht nur deshalb hanebüchen, weil niemand in der Lage ist, die Entwicklung der Verhältnisse in der Atmosphäre auch nur für wenige Tage im Voraus fehlerfrei vorherzusagen. Vielmehr stellt das Klima auch noch deutlich mehr dar als bloß ein statistisches Konstrukt auf der Basis des Wetters. Neben dem, was sich in der Lufthülle abspielt, wird die Dynamik der Klimaprozesse ebenso von den Vorgängen in der Hydrosphäre (Ozeane und Gewässer), Kryosphäre (Eis und Schnee), Biosphäre (Tiere und Pflanzen) und Lithosphäre (Gesteinshülle) beeinflusst.

Dazu kommen die Sonnenaktivität, Variationen der Erdbahnparameter im Rahmen der sogenannten Milankovic-Zyklen und der Einfall hochenergetischer Partikel aus den Tiefen des Kosmos. Wobei die letzteren drei Faktoren das Klima wahrscheinlich sogar am stärksten prägen.

=================================================================

)*  Anmerkung der EIKE-Readktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung; „Klima klar, Wetter ungewiß“ ; 26. Juli 2019, S.12;  EIKE dankt der PAZ-Redaktion sowie dem Autor Wolfgang Kaufmann für die Gestattung der ungekürzten Übernahme, wie auch schon bei früheren Beiträgen des Autors in der PAZ.

=================================================================




Warum das Vorsorge-Prinzip schlechte Politik ist

Die meisten Ängste stellen sich jedoch ziemlich schnell als falsch heraus. Auf jede echte Gefahr kommen hunderte von falschen Gefahren. Über das Nichteintreffen einer Gefahr wird allgemein nichts berichtet, weil derartige Informationen einfach keinen Nachrichtenwert haben. Folge: Die meisten geschürten falschen Ängste bleiben irgendwo im öffentlichen Bewusstsein haften.

Beispiel: im Jahre 1981 hieß es, dass Kaffee ursächlich sein soll für 50% aller Fälle von Bauchspeicheldrüsenkrebs. Aber die Wissenschaftler, die diese Behauptung in Umlauf gebracht hatten, zogen dieselbe im Jahre 1986 wieder zurück. Dennoch dauerte es bis zum Jahr 2016, bis die International Agency for Research on Cancer die Behauptung zurückzog, dass Kaffee eine mögliche Ursache für Krebs sei. Wahrscheinlich dauert es noch sehr viel länger, bis diese Angst aus dem öffentlichen Bewusstsein verschwunden ist.

Das Problem bei diesen vermeintlichen Gefahren ist natürlich, dass wir nicht im Voraus wissen, welche dieser Gefahren echt und welche falsch ist. Aber in den meisten Fällen ist der von falschen Ängsten angerichtete Schaden gering. Vielleicht hören einige von uns auf, Kaffee zu trinken, aber das ist unerheblich.

Erst wenn Regierungen sich den [falschen] Ängsten annehmen, kann es unheilvoll werden. Riesige Mengen Steuergelder könnten dann verschwendet oder irrationale Verbote verhängt werden.

Wir wissen, wie schwierig es ist, Regierungen davon abzuhalten, sich in unser Leben einzumischen. Die Kosten-Nutzen-Analyse wurde besonders deswegen eingeführt, um Bürokratien davon abzuhalten, schon bei geringsten Gefahren gleich Amok zu laufen.

Die Kosten-Nutzen-Analyse kann oftmals verschlungen sein. Alle Bürokraten und Minister hassen sie, aber es ist wichtig, ihnen eine entscheidende Disziplin aufzuerlegen.

Die Kosten-Nutzen-Analyse ist besonders geeignet, um mit Ängsten umzugehen. Dessen Forderung nach eindeutigen Beweise für Schäden (oder zumindest der beste verfügbare Beweis für Schäden) sowie eine Analyse mit Szenarien unterschiedlicher Risiken können einen vernünftigen und umsichtigen Weg weisen.

Da sich die meisten Ängste ohnehin als falsch herausstellen (wie die AGW-Angst und die GM-Angst [GM = genmanipulierte Nahrungsmittel]), ist es sehr wichtig, die Regierungen nicht von der Leine zu lassen.

Unglücklicherweise wurde die hart errungene Verbesserung politischer Entscheidungsprozesse mittels des Kosten-Nutzen-Verfahrens nach der Einführung des Vorsorgeprinzips in den neunziger Jahren beiseite geschoben. Die vielleicht beste Formulierung hinsichtlich der Umwelt findet sich im Prinzip 15 der Rio-Deklaration aus dem Jahr 1992, die da lautet: „Um die Umwelt zu schützen, sollte das Vorsorgeprinzip in großem Umfang von den Staaten entsprechend ihren Möglichkeiten angewendet werden. Wo es Bedrohungen mit ernsten oder irreversiblen Schäden gibt, sollte das Fehlen voller wissenschaftlicher Sicherheit nicht angeführt werden, um kosteneffektive Maßnahmen zum Schutz der Umwelt zu verschieben“.

Dies mahnt die Regierungen (die „Staaten“) energisch vorzugehen, falls sie den Verdacht haben, dass etwas falsch laufen könnte – ein Verdacht reicht schon. Es verlangt von den Regierungen nicht, die Art der Schädigung zu verstehen oder auch nur zu überlegen, ob der Schaden überhaupt eintreten wird.

Es mahnt die Regierungen nicht dazu, eine bessere Szenarien-Analyse durchzuführen und die Option zu wählen, welche für die Gesellschaft am vorteilhaftesten ist. Stattdessen ist es im Endeffekt ein Appell, das Kosten-Nutzen-Verfahren zu übergehen und einen Blanko-Scheck für starke Maßnahmen auszustellen.

Auf diese Weise verleiht das Vorsorgeprinzip den Bürokraten die Freiheit, nur die Vorteile anzusprechen (z. B. die vermeintlichen Vorteile erneuerbarer Energie) und dabei die Kosten zu ignorieren – oder nur die imaginären Kosten anzuführen (z. B. bei genmanipulierten Nahrungsmitteln) und die Vorteile zu ignorieren.

Dieser Grundsatz kehrt die Beweislast für Schäden bei behördlichen Eingriffen um. Er unterminiert die Vernunft und Aufklärung selbst, was uns in die Dark Ages zurückführt. Es ist unmöglich, über das Vorsorgeprinzip zu streiten, weil es besonders den Gebrauch von Logik ausschließt.

Wäre dieses Prinzip in der Vergangenheit angewendet worden, wäre es Wissenschaftlern nicht gestattet gewesen, Impfstoffe oder Antibiotika zu entwickeln, welche unvermeidlich ein paar Nebenwirkungen haben und in sehr seltenen Fällen sogar tödlich wirken können.

Während die Anwendung des Vorsorgeprinzips einige wenige Nebenwirkungen verhindert hätte, wäre es aber auch nicht zum Hauptnutzen gekommen – nämlich zur Rettung hunderter Millionen Menschenleben. Nur eine soziale Kosten-Nutzen-Analyse kann uns dabei helfen, die Gesamtheit aller Kosten und den Nutzen gegeneinander abzuwägen.

Gleichermaßen hätte das Vorsorgeprinzip es den Wissenschaftlern nicht gestattet, Kernforschung zu betreiben, gab es doch da das Risiko des Baus einer Atombombe. Aber Kernforschung hat uns nicht nur die Atombombe beschert, sondern auch die Kernkraft, den Flug eines mit Kernkraft betriebenen Raumfahrzeugs zum Mars, Nuklear-Medizin, Röntgenbilder und Strahlungs-Therapien.

Mittels der Ausbeutung unserer Ängste verleiht das Vorsorgeprinzip die Macht über unsere Präferenzen und Entscheidungen nicht nur den nationalen machthungrigen Regierungen, sondern auch globalen Mega-Bürokratien. Das IPCC ist nur ein Beispiel hierfür.

Dieses Prinzip war ein Gottesgeschenk für die Linken nach dem Zusammenbruch des Kommunismus‘. Die Schönheit des Vorsorgeprinzips liegt für die Sozialisten darin, dass es ihnen ermöglicht wird, moralische Überlegenheit zu kapern, während sie die vollständige Kontrolle über die Gesellschaft fordern. Der Green New Deal der Sozialisten in den USA ist bis heute eines der unverschämtesten Beispiele dafür. Und er basiert vollständig auf dem Vorsorgeprinzip.

—————————

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/why-the-precautionary-principle-is-bad-policy/




Der Treibhaus-Effekt – das wissen­schaftliche Verfahren

Heute behauptet das IPCC, dass wir uns in einer „Klima-Krise“ befinden, welche zum Aussterben von einer Million Spezies führen wird und die eine große Gefahr für die Menschheit ist. Im jüngsten Sonderbericht vom Oktober 2018 des IPCC heißt es:

Prophezeiungen zufolge wird ein Anstieg der Temperatur Extremwetter-Ereignisse hervorrufen, steigenden Meeresspiegel, das Aussterben von Spezies und eine reduzierte Kapazität zur Erzeugung von Nahrungsmitteln.

Im 4. Nationalen Klimazustands-Bericht der USA finden sich ähnliche Behauptungen, darunter:

Gesundheit: Auswirkungen durch den Klimawandel bzgl. Extremwetter und Ereignissen mit Klimabezug, Luftqualität und die Übertragung von Krankheiten durch Insekten und Schädlinge, auf Nahrung und Wasser bedrohen immer stärker die Gesundheit und das Wohlergehen der amerikanischen Bevölkerung, besonders Populationen, die schon jetzt verwundbar sind.

Und: Landwirtschaft: steigende Temperatur, extreme Hitze, Dürre und Buschbrände auf Weideflächen sowie schwere Wolkenbrüche werden die landwirtschaftliche Produktivität in den USA zunehmend beeinträchtigen. Erwartete Zunahmen der Schwierigkeiten für Nutzvieh, abnehmende Ernteerträge und -qualität sowie Änderungen bzgl. Extremereignissen in den USA und anderswo bedrohen ländliche Landschaften, eine nachhaltige Versorgung mit Nahrungsmitteln und die Preisstabilität.

Die Alarme wurden inzwischen so intensiv, dass es in einem Artikel in Kaiser Health News heißt:

Therapeut Andrew Bryant sagt, dass der grundlegende Klimareport der UN aus dem vorigen Oktober neue mentale Gesundheitsprobleme bei Patienten auslöste.

Ich erinnere mich an Sitzungen mit Leuten am nächsten Tag. Sie hatten Klimawandel niemals zuvor erwähnt, und es war wie ,ich höre immer wieder von diesem Report’“, sagte Bryant. „Einige Patienten brachten ängstliche Gefühle zum Ausdruck, und auch während der Folgesitzungen sprachen wir über das Thema“.

Obwohl es sich nicht um eine offizielle klinische Diagnose handelt, haben die psychiatrischen und psychologischen Gemeinschaften Bezeichnungen für das Phänomen: „Klima-Stress“, „Klima-Kummer“, „Klima-Angst“ oder „Öko-Angst“.

Eine entscheidende Frage ist: Wie sehr wenden das IPCC und das USGCRP das wissenschaftliche Verfahren an? Die Antwort lautet: „überhaupt nicht!“. Man stützt sich auf Spekulationen und nicht auf physikalische Beweise durch Experimente und rigorose Beobachtungen. Im TWTW [= The Week That Was, eine Rubrik, die in der im WUWT erscheinenden wöchentlichen Rubrik von SEPP „Weekly Climate and Energy News Roundup“ jeweils am Anfang steht. Anm. d. Übers.] vom 15. Juni 2019 diskutierte das Right Climate Stuff Research Team (TRCS), bestehend aus „pensionierten Veteranen der Apollo-Mission und anderen frühen bemannten Raumflügen, die sich freiwillig trafen, um ihre wissenschaftlichen und Ingenieur-Erfahrungen anzubieten, um eine objektive, unabhängige Abschätzung des AGW-Alarms und die Wahrscheinlichkeit einer tatsächlichen Bedrohung durchzuführen“.

Unter Ausnutzung ihrer nachweislichen Erfahrungen bei der Problem-Identifizierung und -Spezifizierung, bei Grundlagen-Analysen und dem Treffen von Entscheidungen durchforsteten sie hunderte von Berichten und technischen Studien mit Relevanz zu diesem Thema, und sie diskutierten darüber mit Experten auf allen Seiten der Kontroverse. Auf der Grundlage der Prinzipien der Energie-Einsparung entwarfen sie ihr eigenes Modell bzgl. AGW, in welches Treibhausgas-Daten und die Temperatur der Erde von 1850 bis 2017 eingingen. Anders als das IPCC und deren Folge-Institutionen haben sie ihr Modell validiert.

In einem Video auf der unten verlinkten Website des TCRS erklärt Hal Doiron die Ergebnisse und die Defizite in den Ergebnissen von IPCC und USGCRP. Doiron schrieb:

Das primäre Problem, das wir bzgl. der Klimaforschung und dessen alarmierender Prophezeiungen einer globalen Erwärmung sehen ist, dass man sich viel zu sehr auf nicht validierte Modelle in den Schlussfolgerungen und Veröffentlichungen beruft. Wir, die NASA-Weltraum-Veteranen, ignorieren automatisch derartige nicht validierte Modelle und konzentrieren uns ausschließlich auf verfügbare physikalische Daten, denn das ist genau das, was man uns antrainiert hat und was die Erfahrungen des Unbekannten bzgl. der bemannten Raumfahrt uns lehrten.

Die NASA hat seine Politik im [Sonderbericht] NASA-STD-7009 festgeschrieben. Sie verbietet die Verwendung der Ergebnisse von nicht validierten Modellen bei allen Entscheidungen bzgl. der bemannten Raumfahrt, wenn die Sicherheit der Menschen auf dem Spiel steht.

Das Problem scheint darin zu bestehen, die Führung der NASA dazu zu bringen, das wissenschaftliche Verfahren auf alle seine Publikationen anzuwenden. Siehe die diesbezüglichen Links hier.

————————————

Autor Ken Haapala ist Präsident des Science and Environmental Policy Project SEPP

Link: https://wattsupwiththat.com/2019/07/22/weekly-climate-and-energy-news-roundup-368/, erster Beitrag.

Übersetzt von Chris Frey EIKE




Die klimareligiöse Transfer-Union

Zitat mit Hervorhebungen aus diesem BILD-Artikel:

Die EU-Kommission fordert von Deutschland Nachbesserungen bei der Düngeverordnung binnen zwei Monaten! Wie der Staatssekretär im Bundesumweltministerium, Jochen Flasbarth, am Donnerstag sagte, hat die Bundesregierung ein Mahnschreiben aus Brüssel erhalten, in dem die Kommission mit einem Zwangsgeldverfahren droht.
Sollte die Regierung die Kommission nicht innerhalb der Frist von ihren Vorschlägen zur Nitrat-Belastung des Grundwassers überzeugen können, drohen Deutschland Zwangsgelder von bis zu rund 850 000 Euro pro Tag.“

Inzwischen ist diese Meldung über alle Medien gelaufen. Aber was sind die Hintergründe dafür?

Der Autor hatte bereits am 14. August 2017 hier auf EIKE den Artikel „Die ökologische Korrektheit hat offenbar sehr kurze Beine“ veröffentlicht und dort auf die deutliche Reduzierung des deutschen Nitratmessnetzes auf überwiegend belastete Meßstellen hingewiesen:

EU-Berichtszeitraum 2004-2007       EU-Berichtszeitraum 2008-2011

Die nachfolgenden Ausschnittvergrößerungen verdeutlichen den spontanen Verlust von deutschen Meßstellen durch höhere Gewalt innerhalb von zwei direkt aufeinander folgenden EU-Berichtsperioden:

EU-Berichtszeitraum 2004-2007                       EU-Berichtszeitraum 2008-2011

(Ironie an:) Bei der Betrachtung dieser beiden Abbildungen könnte man dem Eindruck erliegen, als seien die fehlenden deutschen Brunnen ins umliegende Ausland geflüchtet (Ironie aus).

Abschließend hatte der Autor in seinem Artikel aus 2017 einige Fragen gestellt und Befürchtungen geäußert, Zitate:

„Was also ist der fachlich fundierte Grund für diese Reduzierung des deutschen EU-Nitratmessnetzes – oder muss man dieser Reduzierung eine tiefere Absicht unterstellen?“

„Haben deutsche Behörden durch die Reduzierung des offiziellen EU-Nitratmessnetzes für den Zeitraum 2008-2011 etwa absichtlich ein offizielles Klageverfahren der EU-Kommission gegen Deutschland provoziert, um dann mit einer von der EU zu fordernden Gegenmaßnahme gesetzlich gegen die ökologisch unerwünschte Massentierhaltung vorgehen zu können?“

„Ein solcher Vorgang kann natürlich nicht ohne eine implizite Zustimmung der EU ablaufen. Denn selbst den Bürokraten der EU muss die skandalöse Reduzierung des deutschen EU-Nitratmessnetzes vom Zeitraum 2004-2007 auf den Nachfolgezeitraum 2008-2011 aufgefallen sein. Damit hätte die EU das Machwerk für den Zeitraum 2008-2011 einfach zurückweisen und auf einer korrekten flächendeckenden Berichterstattung bestehen können. Stattdessen machen hier offenbar die EU-Kontrolleure gemeinsame Sache mit den deutschen Messnetzreduzierern.“

„Am Ende bezahlt der deutsche Bürger die gesamte Zeche dieser ökologischen Amateurveranstaltung, also anteilig die EU-Kontrolleure, das EU-Nitrat-Strafverfahren, die EEG-Subventionen für den Energiemais, das Umweltbundesamt mitsamt seinem eigenwilligen Nitrat-Messnetz und schließlich, nach einer möglichen Einschränkung der Massentierhaltung, auch noch höhere Verbraucherpreise…“

Die Fragen von 2017 sind bisher nicht beantwortet, aber eine der dort geäußerten Befürchtungen ist jetzt also auf bestem Wege. Man könnte einen solchen Vorgang auch als eine langfristig erarbeitete Grundlage zum Transfer von zusätzlichen deutschen Steuergeldern in Form von selbstverursachten „Strafgeldern“ an die EU verstehen. Und damit behält der letzte Satz im Artikel von 2017 weiterhin seine volle Gültigkeit, Zitat:

Also zieh Dich warm an, deutscher EU-EEG-Zahlmichel – oder mach‘ endlich mal Deine Augen auf!




Berner Klimastudie und „nature Wissenschaft“: Klimahysterie-Kreationismus: Das Ende ist nah

Die Ritter der Apokalypse sind in der Schweiz eingetroffen. Nicht mehr lange und die Erde wird im Fegefeuer des menschengemachten Klimawandels schmelzen. Wer nicht zur Beichte war, wird in den ewigen Flammen untergehen. Macht Euch auf, Ihr CO2-Sünder. Geht den Weg der Buße, den Pfad der Reue, die Chaussee des Ablasshandels: Zahlt Steuern auf CO2, hört auf zu fliegen, geht zu Fuß, bleibt zuhause, wartet … und betet, denn das Ende ist nahe.

„Schweizer Forscher entkräften Argument von Klimwandel-Leugnern“, behauptet der Spiegel. Eine kühne Behauptung. Das öffentlich-rechtliche Plagiat der ARD hat die Behauptung übernommenund zum alten Hut weiterentwickelt: „Die Erkenntnisse der Berner Wissenschaftler sind nicht grundlegend neu“. Neu sei, dass die Studie von „Raphael Neukom und sein[em] Team“, die ganze Erde, also Land und Meer, abdecke, so darf Mojib Latif in der ARD ausführen, um dem Leser den Eindruck zu vermitteln, die neue Studie von „Raphael Neukom und sein[em] Team“, sei quasi schon als richtig erkannt, bevor sie veröffentlicht wurde, denn: „Es gab beispielsweise bereits kontinentale Rekonstruktionen, die ebenfalls zeigten, dass die Phasen nicht gleichzeitig waren“. Dieser Satz, von Stefan Brönnimann, den die ARD als „Bonner Wissenschaftler“ präsentiert, ist das, was Stewart Hall „high context language“ genannt hat, ein sprachlicher Niederschlag, den nur verstehen kann, wer das kleine Haus des Bonner Wissenschaftlers bewohnt.

Was uns die ARD und die anderen deutschen Qualitätsmedien heute weismachen wollen ist, dass „Raphael Neukom und sein Team“ etwas bestätigt haben, was es schon als Erkenntnis gab, so dass es keinen Sinn mehr macht, nicht an den menschengemachten Klimawandel zu glauben.

Bekennet Eure Sünden, ihr Ungläubigen, die ihr nicht an den menschengemachten Klimawandels glaubt, tut öffentlich Buße und beantragt die Aufnahme in die Sekte der Kreationisten, die denkt, die Erde sei vom Klima-Gott vor 2000 Jahren geschaffen worden.

Denn, die Datenreihe, auf deren Grundlage „Raphael Neukom und sein Team“ gezeigt haben, dass „sich Warm- oder Kaltzeiten … nie auf der ganzen Welt gleichzeitig“ (Spiegel) entwickelt haben, dass „in früheren Zeiten … Klimaschwankungen vor allem regional und zu unterschiedlichen Zeiten“, nie aber gleichzeitig aufgetreten sind (Tagesschau), sie ist 2000 Jahre lang. Dass die „globale Erwärmung … beispiellos“ ist (Tagesschau) bzw. „Warm- oder Kaltzeiten“ mit Ausnahme von heute „nie auf der ganzen Erde gleichzeitig“ aufgetreten sind, diese umfassenden Behauptungen, sie beruhen auf einer Stichprobe von 0,00004% Erdgeschichte.

Das ist etwas wenig, um dem Ergebnis dieser Studie zu vertrauen.

Aber es gibt noch mehr Gründe, um den Humbug aus der Schweiz nicht zu glauben. Es beginnt damit, dass „Raphael Neukom und sein Team“ gegenüber der Tagesschau und in ihrem Text allen Ernstes ihr Ergebnis damit feiern, dass es „mit sechs unterschiedlichen statistischen Methoden … so vielen wie noch nie“ errechnet wurde. Normalerweise ist die Verwendung mehrerer statistischer Methoden entweder ein Indiz dafür, dass ein vermeintlicher Forscher nach der Methode sucht, die ihm das beste Ergebnis für seine Zwecke liefert, oder es ist ein Indiz dafür, dass der Gaul mit einem Datenfuzzi durchgegangen ist. Wenn man weiß, was man untersuchen will, weiß man auch, welche statistische Methode für die Untersuchung am besten geeignet ist.

Die Ergebnisse der Studie von „Rapahel Neukom und sein[em] Team“, die in Nature Letter unter dem Titel „No evidence for globally coherent warm and cold periods over the preindustrial Commen Era“ veröffentlicht wurden, basieren auf den Daten der Pages 2K Datenbank, in der Ergebnisse unterschiedlicher Methoden, das vergangene Klima zu bestimmen, abgelegt sind, also die Ergebnisse aus der Untersuchung von Eisbohrkernen, aus der Analyse von Bäumen, Fluss- und See-Sedimenten, Gletschern und Korallenriffen. Der Datensatz ist ein Patchwork unterschiedlicher Erhebungsmethoden und somit auch unterschiedlicher Validität.

Als weiteren Datensatz benutzen „Raphael Neukom und sein Team“ den britischen HadCrut4-Datensatz, um eine globales Netz von Temperaturzellen errechnen zu können, simulieren zu können, dem sie die historischen Daten zuspielen. Wir haben vor einigen Tagen beschrieben, was es mit HadCrut4 und anderen Datensätzen, die die Erd-Temperatur abbilden sollen, auf sich hat.

Wenn man nun als Mensch, der mit normalem Verstand ausgestattet ist, von einer Analyse wie der hört, die „Raphael Neukom und sein Team“ durchgeführt haben, dann fällt als eine der ersten Fragen die folgende ein: In welchem zahlenmäßigen Verhältnis stehen Daten von vor 2000 Jahren zu Daten von heute? Es ist offenkundig, dass die Anzahl der Messdaten für die letzten 30 Jahre ein Vielfaches der Anzahl von Messdaten darstellt, die es für das 19. Jahrhundert gibt, geschweige denn für die Mittelalterliche Warmzeit oder die römische Warmzeit. Es ist darüber hinaus leicht einsichtig, dass die Menge der Daten, die für einen Zeitraum zur Verfügung stehen, das Vertrauen erhöht, das man in das hat, was zu dem entsprechenden Zeitraum gemessen wurde. Und für diejenigen, die den HadCrut4-Datensatz kennen, ist es spannend danach zu fragen, wie die Autoren damit umgegangen sind, dass es im HadCrut4-Datensatz viele leere Zellen gibt, für die keine Daten vorliegen, geschweige denn, historische Daten.

Zur Erläuterung: HadCrut4 teilt die Erde in Zellen von je fünf Längen- und Breitgraden Ausdehnung ein. Die Idee ist, für jede dieser Zellen mindestens eine verlässliche Messung zu haben, um die Gesamttemperatur der Erde dann aus der Kombination aller Zellen errechnen zu können. Die Wirklichkeit ist: Viele der Zellen sind schlicht leer, ein Problem, das auch „Raphael Neukom und sein Team“ nicht gelöst haben, wie die folgende Abbildung zeigt:

Oben sieht man in einem stark verzerrten Maßstab, die historischen Messdaten von „Raphael Neukom und sein[em] Team“. Die lustigen Punkte in lila, orange, hellblau, schwarz, dunkelblau und grün stellen die Daten dar, die 2000 Jahre Erdgeschichte abdecken sollen. Das machen sie ganz offenkundig nur für die nördliche Hemisphäre, während die südliche Hemisphäre weitgehend unerschlossen ist. Wenn die Ergebnisse von „Raphael Neukom und sein[em] Team“ verallgemeinerbar wären, dann sicher nicht für die südliche Hemisphäre. Eine weitere Nettigkeit, die aus HadCrut4 resultiert, versteckt sich in den unterschiedlichen „Blauschattierungen“, die die Entfernung der entsprechenden Zelle zum nächsten Messdatum angeben. Wie man sieht, sind die Ozeane nicht nur vom Weltall aus betrachtet blau, sondern auch im Modell von „Raphael Neukom und seine[em] Team“: Es handelt sich um leere Zellen, für die keinerlei Messwerte vorliegen. Die nächsten Zellen, die mit gemessenen Werten gefüllt sind, liegen in der Regel mehr als 3000 Kilometer entfernt.

Aber die Aussagen, die „Raphael Neukom und sein Team“ machen, sie sollen dennoch für die ganze Erde gelten. Die untere der beiden Abbildungen macht noch deutlicher, dass dieser Anspruch an Größenwahnsinn grenzt, denn die Verteilung der Messdaten ist, wie man es erwartet hätte: Je weiter zurück in der Zeit die Autoren gehen, desto spärlicher werden ihre Daten. Nicht wirklich das, was man eine verlässliche Datengrundlage nennt.

Ein Umstand, der auch „Raphael Neukom und sein[em] Team“ bewusst ist, denn sie schreiben:“

„An important caveat of our results is that the spatiotemporal distribution of high-resolution proxy data is inherently unequal and often sparse” (52).

Eine andere Art zu sagen: Die Daten sind Müll, die noch davon abgerundet wird, dass im ganzen Text keine Angaben dazu gemacht werden, wie verlässlich, valide, reliabel denn die Ergebnisse sind, die mit „sechs unterschiedlichen statistischen Methoden … so vielen wie noch nie“, errechnet wurden.

Was das schlechte Gefühl, das man mit Blick auf die Daten hat, zu einem mulmigen Gefühl mit Blick auf die Lauterkeit der Autoren und Peer Reviewer macht, ist das hier:

Die Datenreihe von „Raphael Neukom und sein[em] Team“ beginnt just zu einem Zeitpunkt, zu dem die Erde eine lange Phase der Abkühlung von rund 60 Millionen Jahren durchlaufen hat. Zufall oder bewusste Irreführung?

Für bewusste Irreführung spricht, was „Raphael Neukom und sein Team“ am Ende ihres Beitrags schreiben:

„Moreover, the spatial consistency seen in model simulations over the twentieth Century suggest that anthropogenic global warming is the cause of increased spatial temperature coherence relative to prior eras” (52).

Das ist Junk Science.

Denn „Raphael Neukom und sein Team“ haben keinerlei Maß für den menschlichen Einfluss in ihren Simulationen berücksichtigt. Sie werfen diese politisch-korrekte und wahrscheinlich für die Forschungsförderung relevante Behauptung in den Ring, um denen, die in Redaktionen nur darauf warten, ihr Klimahysterie-Garn weiterzuspinnen, Nahrung zu geben. Und natürlich wird in ARD und Spiegel sofort die CO2-Karte gespielt und behauptet, dass „Raphael Neukom und sein Team“ in ihrer „Studie“ gezeigt hätten, dass menschlicher Einfluss globale Erwärmung zum Ergebnis hat. Das haben Sie nicht. Wenn „Raphael Neukom und sein Team“ überhaupt etwas gezeigt haben, dann ihre Fähigkeit aus Datenlücken und spärlich in Zeit und Raum verteilten Messergebnissen eine konsistent Erzählung zu zimmern, die dem Zeitgeist, der in Redaktionen wütet, entspricht und den CO2-Ablasshandel ankurbelt.

Denn wisset, wer nicht seine Seele vom CO2-Fußabdruck freikauft, der wird im globalen Fegefeuer der Erde schmoren, auf ewig!

Der Beitrag erschien zuerst auf Science-Files hier




Was Sie schon immer über CO2 wissen wollten: Teil 1 – der CO2-Untergrund

CO2 ist für sichtbares Licht durchlässig und somit unsichtbar. Es absorbiert in bestimmten Frequenzbereichen Infrarotstrahlung (IR), trägt daher zum sogenannten Treibhauseffekt [1] bei (einem fragwürdigen Begriff, denn die Erdatmosphäre ist kein Gärtnertreibhaus) und wird infolgedessen auch als „Treibhausgas“ bezeichnet. Aus physikalischen Gründen müssen Treibhausgasmoleküle aus mindestens drei Atomen bestehen. CO2 ist solch ein Molekül. Es ist linear, die beiden Sauerstoffatome und das Kohlenstoffatom liegen auf einer Linie. CO2 ist kein Dipol. Bei Infrarotabsorption schwingt es aber, wobei „temporäre“ Dipole entstehen. In der folgenden Tabelle 1 die wichtigsten Treibhausgase zusammengestellt.

Tabelle 1: die wichtigsten Treibhausgase, Daten aus [2].

CO2 ist schwerer als Luft, so dass man vermuten könnte, dass sich  CO2 am Boden ansammelt. Dies ist jedoch nur bei sehr hohen Konzentrationen der Fall. Atmosphärisches CO2 mit 0,04% ist dagegen ein Spurengas, welches sich im Prinzip gleichmäßig über fast die gesamte Höhe der Atmosphäre homogen verteilt. Bei sehr hohen Konzentrationen ist CO2 erstickend. Das Lake-Nyos-Unglück, dem viele Menschen und Tiere zum Opfer fielen, wurde von einem vulkanischen CO2-Ausbruch verursacht [3].

Auf die Konzentrationen des CO2 in der Erdatmosphäre, von Beginn der Industrialisierung um das Jahr 1850 an und bis 500 Millionen Jahre zurück, wird in den nächsten Teilen noch näher eingegangen. Hier interessiert zunächst nur die CO2-Konzentration der letzten 60 Jahre, wie sie in folgendem Bild 1 dargestellt ist.

Bild 1: CO2-Volumenkonzentration der Atmosphäre, gemessen auf Mauna Loa, Hawaii, rund 4100 müNN (hellbraun), Schauinsland (grün) und Zugspitze (blau), Grafik des Umweltbundesamts [4].  Der Welttrend ist in rot. Die auffälligen Fluktuationen, die sich dem Anstieg überlagern, sind Effekte jahreszeitlich und örtlich bedingter Schwankungen der Photosynthese, die sich mit zunehmender Höhe immer weniger bemerkbar machen.

Weitere Messungen auf Inseln oder in Gegenden ohne menschliche Besiedelung, bestätigen die in Bild 1 gezeigten Daten. Im Gegensatz zum steten Anstieg in Bild 1 schwankt aber der bodennahe CO2-Gehalt der Atmosphäre oft ungewöhnlich stark. Insbesondere in Städten kann er Werte erreichen, welche die Mouna-Loa-Konzentrationen weit übertreffen. Historische Messungen von bodennahen CO2-Konzentrationen, wie sie in den Unterlagen zahlreicher Universitätsinstitute aufzufinden sind, bestätigen diese Schwankungen auch für die letzten 100 bis 150 Jahre. Wie ist der Widerspruch von Bild 1 mit diesen starken Schwankungen zu erklären?

Tatsächlich hängt der CO2-Gehalt der Atmosphäre von der geodätischen Höhe und der lokalen Umgebung ab. Städte in Industrieländern weisen oft starke CO2-Quellen auf, wie zum Beispiel den Autoverkehr. Aber auch in der unberührten Natur können lokale Vegetation, Jahreszeiten und weitere örtliche Faktoren zu ungewöhnlich erscheinenden bodennahen CO2-Fluktuationen führen. Wenn man daher auf dem Mauna Loa, deutschen Bergen oder entfernten Inseln stets die gleich ansteigenden CO2-Konzentrationen auffindet, so misst man dort den CO2-Untergrund, dessen Konzentration ab ausreichend großer geodätischer Höhe bis weit über 20 km Höhe konstant ist. Dennoch haben die bodennahen starken CO2-Fluktuationen immer wieder zu Irritationen und Missverständnissen geführt. Ein ehemaliges und leider viel zu früh im Jahre 2010 verstorbenes EIKE-Mitglied war zuerst daran beteiligt und hat später umgekehrt wesentlich zur Klärung der Missverständnisse beigetragen.

Die Rede ist von Erst Georg Beck, Gymnasiallehrer in Freiburg und Gründungsmitglied von EIKE, als einem der vehementesten Verfechter der Hypothese, dass die Mauna LOA Messungen zu falschen Schlüssen über den realen CO2-Gehalt der Atmosphäre führen würden [5]. Beck hat mit bewundernswertem Aufwand unzählige chemische Messungen von CO2-Konzentrationen aus den Unterlagen von Universitäts-Instituten bis weit ins 19. Jahrhundert zurück der Vergessenheit entrissen, die Ergebnisse zusammengestellt und in einem begutachteten Fachjournal veröffentlicht [6]. Erst kurz vor Ende seines Lebens hat Beck dann seine Kritik revidieren können und zwar in einer ebenfalls als begutachtete Fachpublikation vorgesehenen Arbeit zusammen mit dem Hauptautor Dr. F. Massen. Das Manuskript findet sich glücklicherweise noch im Internet [7]. Vermutlich durch den frühen Tod von Beck kam es leider nicht mehr zur Veröffentlichung in einem begutachteten Wissenschaftsjournal.

Die Idee der beiden Autoren, Massen und Beck, war einfach und genial: Sie ergänzten die historischen CO2-Messungen durch gleichzeitige Messungen der Windgeschwindigkeiten am Ort der CO2-Messungen, was ausreichend oft möglich war. Ein stellvertretendes Resultat dieser Arbeit zeigt Bild 2. Bei kleinen Windgeschwindigkeiten schwankt die bodennahe CO2-Konzentration ganz erheblich. Es kommen Werte zwischen 350 bis über 600 ppm vor. Diese Schwankungen verschwinden bei starkem Wind. Anschaulich ausgedrückt, bläst der Wind die lokalen CO2-Fluktuationen weg und läßt nur noch den CO2-Untergrund übrig. Dessen Wert von etwa 380 ppm entspricht genau dem Mauna-Loa-Wert in Bild 1. Bei weiteren Messungen dieser Art finden die beiden Autoren eine maximal mögliche Abweichung von 10 ppm mit ihrer „Wind-Methode“, verglichen mit den Mauna-Loa-Daten .

Bild 2: Windgeschwindigkeit gegen CO2-Konzentration der Luft in Diekirch (Luxembourg) aus der Arbeit von F. Massen und H.-G. Beck. Der CO2-Untergrund stellt sich erst bei ausreichend hohen Windgeschwindigkeiten ein und passt bei der Diekirch-Messung bestens zum Mauna-Loa-Wert. 

Gemäß dieser Arbeit von Massen und Beck dürften nunmehr alle Zweifel an den zahlreichen „offiziellen“ Messungen des CO2-Gehalts der Atmosphäre seit 1958 ausgeräumt sein.

 

Quellen

[1] W. Roedel und T. Wagner, Physik unserer Umwelt: Die Atmosphäre, 5. Auflage, Springer. Die alte 4. Auflage ist im Internet frei erhältlich, https://tinyurl.com/y274fjes

[2] https://en.wikipedia.org/wiki/Greenhouse_gas

[3] SPON, 19.08.2011, https://www.spiegel.de/einestages/lake-nyos-katastrophe-a-947305.html

[4] Umweltbundesamt, Atmosphärische Treibhausgaskonzentrationen, https://tinyurl.com/y6ercrs7

[5] EIKE-News, vom 27.2.2010, https://tinyurl.com/y3zx6c4e

[6] E.-G. Beck, 180 years of atmospheric CO2 Gas analysis by chemical methods, https://www.ddponline.org/beck.pdf

[7] F. Massen and E.-G. Beck, Accurate estimation of CO2 background level from near ground measurements at non-mixed environments, https://meteo.lcd.lu/papers/co2_background_klima2009.pdf




Klimajournalismus: Papa, Charly hat gesagt, sein Papa hat gesagt…- oder wie man faule Berner Studien „nature“ und damit Medien unterjubelt

Damit schneidet man dann seine Zielgruppe vollständig von der behaupteten Primärinformation ab und verbreitet zielgerichtete Propaganda. Die Qualität von Wissen ist nämlich nicht einheitlich, sondern es gibt sehr unterschiedliche Arten davon:

 

Primärwissenist das Peer-to-Peer Wissen von Fachleuten, denen das notwendige wissenschaftliche Handwerkszeug zur Verfügung steht, um Primärinformationen selbst zu generieren oder fremde zu bewerten. (Beispiel: Hochschullehrer und Wissenschaftler)

Sekundärwissenist das Wissen von Multiplikatoren, die sich fachlich-didaktische Kenntnisse angeeignet haben, um damit komplexe Primärinformationen mehr oder weniger korrekt zu vereinfachen und in „leichter Sprache“ verbreiten zu können. (Beispiel: Lehrer und Journalisten)

Tertiärwissenist von Multiplikatoren an eine Zielgruppe weitergeleitetes Sekundärwissen, dessen Richtigkeit von dieser Zielgruppe üblicherweise nicht mehr fachlich hinterfragt werden kann, sondern einfach geglaubt werden muss. (Beispiel: Politiker und Fridays for Future)

Und jetzt wird vielleicht auch der innere Widerspruch deutlich, wenn ein Wissenschaftler medienöffentlich zu „glauben“ beliebt. Denn wenn ein Wissenschaftler öffentlich „glaubt“, dann verbreitet er öffentlich Tertiärwissen unter dem Etikett von Primärinformationen. Und noch schlimmer wird es, wenn sich ein Multiplikator selektiv aus dem vorhandenen Primärwissen bedient, um damit eine zielgerichtete Tertiärinformation zu erzeugen.

Die NDR-Kurzhörspielserie „Papa, Charly hat gesagt, sein Papa hat gesagt…“ aus den 1970-er Jahren hatte diese moderne Form der Medienkommunikation satirisch vorweggenommen. Charlys Papa haute damals seine zielführenden Narrative ‘raus, und der Papa von Charlys Freund musste diese dann für seinen Sohn wieder auseinanderdröseln. Wenigstens hatte der Freund von Charly damals einen Papa mit einer gesunden Allgemeinbildung, der ihm die jeweiligen Hintergründe erklären konnte… 

Guter Journalismus war damals noch so etwas wie der Papa von Charlys Freund. Heute ist die Situation genau umgekehrt, denn heute sind viele Journalisten eher wie Charlys Papa…

Nehmen wir einmal einen aktuellen medialen Mainstreamartikel über den menschengemachten Klimawandel, beispielsweise den Artikel „Die von Menschen verursachte globale Erwärmung ist beispiellos“ aus der Süddeutschen Zeitung vom 24. Juli 2019, wo immerhin die Originalveröffentlichung verlinkt worden ist. Direkt unter der SZ-Überschrift fängt bereits der Klimaaberglaube mit drei Bullet-Points an, Zitate mit eigenen Anmerkungen:

  • Kalt- und Warmzeiten in den zurückliegenden Jahrtausenden haben sich nur regional auf dem Planeten ausgewirkt.
    Anmerkung: Das ist lediglich eine unbewiesene Behauptung, um die aktuelle Situation semantisch als einmalig und menschengemacht darstellen zu können.
  • Der menschengemachte Klimawandel erfasst hingegen gleichmäßig die gesamte Welt.
    Anmerkung: Auch das ist eine unbewiesene Behauptung. Man tut nämlich einfach so, als gäbe es seit Beginn der Industrialisierung gar keinen natürlichen Klimawandel mehr und schiebt alles auf den Menschen.
  • Eine neue Auswertung widerlegt ein von Klimawandelleugnern oft wiederholtes Argument.“
    Anmerkung: Eine Veröffentlichung ist keine Lehrmeinung und selbst eine Lehrmeinung muss nicht richtig sein. Allein die wissenschaftliche Qualität einer Veröffentlichung entscheidet über die Relevanz ihrer Aussage und nicht die Aussage selbst. Nur dem wahren Gläubigen mag eine erwünschte Aussage beliebiger Qualität als finaler wissenschaftlicher Beweis dienen…

Schön ist bereits der folgende Satz aus diesem SZ-Artikel, Zitat mit Hervorhebungen:

Aber auch archäologische Funde fließen in die Datensammlung ein, deren Ziel es ist, die Klimaveränderungen der vergangenen 2000 Jahre mit bisher nicht gekannter Genauigkeit nachzuzeichnen.“

Ins Umgangssprachliche übersetzt bedeutet diese Aussage lediglich, dass sich die Autoren ein hohes Ziel gesetzt hatten. Wenn das nicht klappt, heißt es in solchen Fällen üblicherweise in Arbeitszeugnissen, man habe sich stets bemüht. Denn nach Angaben aus der SZ, Zitat, „Die Forschergruppe verwendete die Datensammlung des sogenannten Pages-2k-Netzwerks, …“, war diese Forschergruppe gar nicht in der Lage, einen positiven Einfluss auf die Qualität der benutzten Fremddaten auszuüben.

Nachfolgend wollen wir also einmal untersuchen, ob die Autoren der zugrunde liegenden  wissenschaftlichen Studie “No evidence for globally coherent warm and cold periods over the preindustrial Common Era” (Neukom, Steiger, Gómez-Navarro, Wang und Werner 2019) ihr hohes Ziel tatsächlich erreicht haben. Also weiter in der SZ, Zitat mit Hervorhebungen:

In dieser Zahlensammlung haben Neukom und seine Kollegen für die zurückliegenden Jahrhunderte keinen Hinweis auf eine kalte oder warme Phase gefunden, von der die gesamte Erdkugel betroffen war– außer der jüngsten Erwärmung des Klimas, die seit Beginn der industriellen Revolution vor etwa 250 Jahren immer rasanter wird.

Diese Aussage ist sehr erstaunlich. Schauen wir doch einfach mal auf KalteSonne nach:

Karte vom MWP-Projekt auf KalteSonne: http://kaltesonne.de/?p=30471/

Der aktuelle Stand des MWP-Projektes wird zum 13. Juli 2019 auf KalteSonne folgendermaßen beschrieben, Zitat mit Hervorhebungen:

1200 Studien wurde bereits in der Google Map Karte dokumentiert, das als globale Sammelplattform zur MWP-Literatur dient. Mehr als 107.000 Zugriffe auf die Karte belegen, dass die Übersicht auf reges Interesse stößt. Klicken Sie hier, um sich ein Bild über den Charakter des MWP-Projektes zu verschaffen (oder klicken Sie auf die Karte unten). Rote Punkte zeigen warme Bedingungen zur Zeit der MWP an, gelbe Punkte Trockenheit, grüne Punkte Feuchtigkeit. Blaue Punkte sind für Abkühlung während der MWP reserviert.Klicken Sie auf die jeweiligen Punkte, und es öffnet sich die Analyse des jeweiligen Papers. Ebenfalls aufrufbar ist die wichtigste Klimakurve der Arbeit.

Ein Paper zur MWP-Temperaturentwicklung in Afrika-Arabien erschien 2017 in Paleoceanography. Eos (die Mitgliederzeitschrift der AGU) berichtete im Februar 2018über die Publikation in der Kategorie “hot paper” bzw. “Research Spotlight”. Eine Publikation zum MWP-Hydroklima in Afrika ist im Februar 2018 bei Palaeo3erschienen. Am 31. Oktober 2018 kam in Quaternary Internationalein Paper zum mittelalterlichen Klimawandel in Südamerika heraus. Im Juni 2019 wurde unsere Synthese zur Mittelalterlichen Wärmeperiode in Ozeanien in Environmental Reviewspubliziert, kurz darauf erschien unser Paper zur MWP in der Antarktis in Palaeo3. Ein Manuskript zum Mittelmeerraum ist in Bearbeitung. Die Datenerfassung für Nordamerika und Asien ruht derzeit.“

Das KalteSonne-Projekt „Die Mittelalterliche Wärmeperiode“ zeigt also eindeutig, dass die Indikatoren für diese Warmzeit global auf allen Kontinente zu finden sind und es sich demnach um ein globales Ereignis handeln muss.

Wenn nun nach Aussage in der SZ vom 24. Juli 2019 die Autoren der dort vorgestellten Studie keinen Hinweis auf eine globale kalte oder warme Phase gefunden haben, dann muss man daraus schließen, dass die Pages-2k-Datenbasis unzureichend für deren eigene und die von der SZ verbreitete Aussage gewesen sein muss. Die nachfolgende Abbildung aus der Arbeit von Neukom et al. (2019) zeigt die erbarmungswürdige Datengrundlage für diese beiden steilen Aussagen:

Abbildung: Datengrundlage der Studie “No evidence for globally coherent warm and cold periods over the preindustrial Common Era” von Neukom at al.(2019) aus Nature Vol. 571 Seite 551

Anmerkung:Kompliment an die Kommunikationsberater des Oeschger Centre for Climate Change Research and Institute of Geography, University of Bern, Bern, Switzerland. Üblicherweise wird die zweidimensionale Projektion der Erdkugel rechtwinklig gestreckt und der Atlantik in der Mitte dargestellt, wie das auch auf der MWP-Karte von KalteSonne zu sehen ist. Die geschickte Drehung auf den Pazifik bei Neukom et al. (2019) bezieht dagegen die Erdkrümmung konstruktiv ein und lässt dadurch die riesigen atlantischen Datenlücken perspektivisch verschwinden.

Wenn wir an dieser Stelle einmal eine Grenzwertbetrachtung durchführen, dann können wir feststellen: Je schwächer die Datengrundlage, umso spektakulärer können die Ergebnisse ausfallen. Und am Ende steht dann der alte Geologenwitz, „Ohne Aufschlüsse diskutiert es sich am besten…

Die heute auf Basis unzureichender wissenschaftlicher Daten medial verbreitete Klimahysterie ist beispiellos. Denn steile Schlüsse aus unzureichenden Daten sind nun mal keine Wissenschaft, und klimareligiöses „Leugner-Bashing“ ist kein Journalismus…




„Guru der Apokalypse“: heftiger Protest gegen Greta Thunbergs Auftritt im Pariser Parlament

Am Montag bekam Greta Thunberg am Omaha Beach einen „Friedenspreis“ für das Gedenken der am 6. Juni 1945 in der Normandie gefallenen alliierten Soldaten, warum auch immer. Einen Tag später war sie zu Besuch im Pariser Parlament und versuchte in einer halbstündigen Rede wieder, faktenfrei und IPCC-basiert Panik zu verbreiten. Eine große Gruppe von 162 Abgeordneten verschiedener linker Parteien mit der Eigenbezeichnung Laßt uns schneller werden! hatte die 16jährige Klima-Expertin eingeladen. Das wäre im Bundestag nicht möglich gewesen, da dort nur Staatsoberhäupter als Gast reden dürfen. Was in Klimadeutschland allerdings auch nicht möglich wäre, war der heftige Widerstand der rechten Parteien in der Assemblée Nationale gegen den Propaganda-Auftritt der Ikone. Einige Kommentare:

„Wir brauchen hier keine apokalyptischen Gurus, um auf intelligente Weise gegen die Klimaerwärmung zu kämpfen.“ (Guillaume Larrivé, Republikaner)

Nobelpreis für Angstmache“, „Rechnet nicht mit mir, um einer Prophetin in kurzen Hosen Beifall zu spenden.“ (Julien Aubert, Republikaner)

„Wir sagen NEIN zu dieser aufklärungsfeindlichen Infantilisierung und zur Panikmache. Die Assemblée macht sich lächerlich, indem sie Greta Thunberg einlädt.“ (Jean-Louis Thiériot, Republikaner)

„Justin Bieber der Ökologie“ (Sébastien Chenu, Rassemblement National)

„Der Platz von Greta Thunberg ist nicht auf einer Bank in der Nationalversammlung, sondern auf der Schulbank“ (Jordan Bardella, Rassemblement National)

„Gut-Böse-Schema“ helfe nicht weiter, in komplexer Welt Probleme zu lösen (LREM, Regierungspartei)

Einsicht in die eigenen Handlungen oder Annahme von Kritik ist von Greta Thunberg nicht bekannt, was man angesichts ihrer Entwicklungsstörung aber auch nicht verlangen kann. Sie ist dazu wahrscheinlich gar nicht in der Lage und kann genau deswegen von der eiskalten Klima-Kamarilla ihrer Eltern und der Medien missbraucht werden.

Erwartungsgemäß keult die Aktivistin (oder ihr Ghostwriter?) zurück und meint, FFF sei mit „unglaublichem Haß und Drohungen“ konfrontiert.

„Die haben ja mehr Angst vor mir als vor dem Problem“.

Nun ja, kein Wunder, liebe Greta, wenn Du, FFF und die Klima-Kamarilla den Westen desindustrialisieren und uns in Armut stürzen wollen, sollte man sich ja auch fürchten.

Weiter meint die Aktivistin:

„Wir sind Kinder, wir übertreiben, wir sind alarmistisch. Ihr müsst nicht auf uns hören. Aber Ihr müsst auf die Wissenschaftler hören. Und das ist alles, worum wir bitten.“

Nun ja, diese Aussage ist zumindest halbwegs diplomatisch. Vielleicht hat der kollektive Widerstand der Assemblée-Rechten wenigstens ein wenig Eindruck hinterlassen.

Mal sehen, welches Land als nächstes auf der Europatour-Liste von Gretas Kamarilla steht. Osteuropa und Italien fallen schon einmal aus, das dürfte ein Bumerang werden. Wahrscheinlich Belgien, wo Greta am 10. Oktober ihren Ehrendoktrix-Titel in Empfang nehmen wird. Niederlande oder Dänemark gingen auch. Und auf jeden Fall immer Deutschland, wo trotz sinkender Demo-Teilnehmerzahlen wenigstens kaum jemand meutert.

Ich frage mich, wie die Klima-Kamarilla den Missbrauch von Greta eigentlich noch verantworten kann. Ein 16jähriges Mädchen mit einer sichtbaren Entwicklungsstörung mit Preisen zu überhäufen und für Profit und PR durch die Welt zu scheuchen, das kann sie doch gar nicht verarbeiten. Das können selbst Erwachsene nicht immer. Ein Kind, das wegen nichts mit 16 Doktortitel und Nobelpreise bekommt, muß doch völlig abheben und völlig verwirrt werden. Man kann nur hoffen, daß die Mitglieder der Kamarilla für ihr Verhalten bald zur Verantwortung gezogen werden.




Klima-Extremis­mus: Demokratie und Fortschritt stehen vor dem Aussterben

Extinction Rebellion hatte jüngst nichts Besseres zu tun als den Verkehr in Bristol zu blockieren als Teil ihres Planes, den Planeten zu retten. Allerdings stellt sich heraus, dass sehr Viele sich über Verkehrsstaus, verursacht durch Hippies und radikalisierte Jugendliche, schwer ärgern.

Ein Anrufer bei BBC Bristol behauptete, dass Ärzte ihm gesagt hätten, sofort zu seinem Vater zu kommen, weil dieser im Sterben liege, bevor es zu spät ist. Der Rückstau bedeutete, dass er nun tatsächlich zu spät kam.

Der Vorfall in Bristol ist ein weiterer Indikator dafür, dass der Streit über den Klimawandel rasch zu einer absteckenden Trennlinie wird in dem gefürchteten Kulturkampf in UK. Zusammen mit der nationalen Schlammschlacht um den Brexit kommt die Schlacht um die Umwelt als eine Teilung in Klassen, politische Haltungen und Stammeszugehörigkeit daher.

Jüngere Wähler neigen dazu, zutiefst besorgt zu sein ob der globalen Erwärmung. Sie machen für den Klimawandel die vermeintliche Selbst-Absorption einer verbrauchssüchtigen ältere Generation verantwortlich, die nichts anderes im Sinn hat als ein möglichst starkes BIP-Wachstum – viel stärker als der Planet verkraften kann. Die Radikalen wollen sofortige Maßnahmen gegen Autos, Flugzeuge und Gasöfen. Und sie sind felsenfest davon überzeugt, unanfechtbar recht zu haben.

Da gibt es aber einen Haken. Die Vorgänge der letzten Jahre belegen, dass die Belehrung vermeintlich minder bemittelter Zeitgenossen (nach Bildung und ökonomisch) durch rechthaberische Individuen der Mittelklasse nicht gut funktioniert. Widerstand und der Wunsch, scheinheiligen und tyrannisierenden Eliten einen Tritt zu versetzen, spielten eine nicht unerhebliche Rolle beim Ergebnis des Brexit-Referendums.

Werden die meisten Wähler begrüßen, was als Nächstes von der grünen Front kommt? Um das Versprechen der Regierung umzusetzen, bis zum Jahr 2050 Kohlenstoff-neutral zu werden, muss den Verbrauchern bald von ihren Oberen beigebracht werden, wie man effektiv Millionen von Gasöfen ersetzt, wie man obligatorische und unwirksame Induktionsherde in der Küche betreibt und dass man eine potentiell strafende Besteuerung von Petroleum und Flugreisen einführen muss.

Extiction Rebellion sagt, dass selbst das 2050-Ziel beklagenswert unzureichend ist. UK muss bis 2025 Kohlenstoff-neutral werden; Wirtschaftswachstum muss effektiv beendet werden, und die Massen-Blockade auf Straßen wird sich verstärken, bis sie bekommen, was sie haben wollen.

Schon jetzt überlastete Polizeikräfte sind zutiefst besorgt über die Protest-Pläne von Extinction Rebellion. Bristol vor ein paar Tagen war lediglich eine Mittsommer-Probe für viel umfangreichere Vor-Brexit-Proteste, die im Oktober geplant sind, warnte die Polizeiführung. The Times berichtet, dass die Polizei sich viel härtere Strafen für Wiederholungstäter wünscht.

Die Bedenken der Polizeidirektion reflektieren die Warnungen in einem Report mit der Bezeichnung Extremism Rebellion, veröffentlicht in dieser Woche von der Denkfabrik Policy Exchange. Die Autoren, von denen einer, nämlich Richard Walton, ein ehemaliger Leiter einer Polizei-Abteilung gegen Terrorismus ist, wurden dafür kritisiert, die Protestierer als radikale und extremistische Anarchisten bezeichnet zu haben, die wie wild darauf aus sind, die Demokratie zu beseitigen. Aber sie haben verdammt recht. Die Demokratie steht auf dem Spiel. Extinction Rebellion akzeptiert keine grundlegenden demokratischen Prinzipien und möchte das britische parlamentarische System abschaffen.

Dies wurde offensichtlich in einer bei oberflächlicher Betrachtung vernünftig klingenden Rede von Rupert Read. Der Philosoph wurde zum offiziellen Sprecher von ER, der in dieser Woche im Radio die Proteste verteidigte. Read hat es wiederholt nicht geschafft, ins Parlament gewählt zu werden. Kann es sein, dass es eine Verbindung gibt zwischen diesem Umstand und seinem Trachten nach Veränderung des politischen Systems, unter welchem er immer wieder gescheitert ist?

Extiction Rebellion ist nicht im Entferntesten anti-demokratisch, sondern man will einfach eine neue Art der Demokratie, sagte Read der BBC. Dies könnte verlockend klingen angesichts der Art und Weise, mit der die Brexit-Farce den Glauben an unsere Institutionen unterminiert hat. ER will eine Bürger-Versammlung – ein beruhigender Terminus – ins Leben rufen. Diese soll Ministern und Abgeordneten (den Abgeordneten, die wir wählen!) sagen, was sie tun sollen. „Ein Bürgerrat zu Klima und ökologischer Gerechtigkeit wird diesen gordischen Knoten durchschlagen“, sagt die Organisation. „Politikern wird Zugang zu öffentlichen Beurteilungen gegeben, die auf faire und informierte Art und Weise zustande gekommen waren“.

Das Modell ist in mehreren Ländern angewendet worden, um schwierige moralische Sackgassen aufzubrechen. Aber kein Land hat das Modell bei der Aufgabe angewendet – aus guten Gründen – dessen Wirtschaft und Gesellschaft umzumodeln und wirtschaftliches Wachstum zu beenden.

Die inhärenten Inkonsistenzen des Bürgerrats werden schnell schreiend hervortreten bei Anwendung auf die Wirtschaft. Was passiert, falls die für den Rat ausgewählten Bürger nicht genau dem folgen, was Extinction Rebellion will? ER sagte, dass dieser Klima-Notstand eine existenzielle Krise ist, weshalb es unwahrscheinlich ist, dass die Blockaden aufhören, selbst wenn die Wähler in einer Folgewahl die Größe der Rechnung erkennen und diejenigen närrischen Abgeordneten hinauswerfen, welche die Kontrolle einem Bürgerrat übergeben hatten – vermutlich ins Leben gerufen unter einem Überwachungs-Komitee unter der Leitung von Rupert Read.

Es gibt einen fundamentalen demokratischen Einwand. Jeder, der danach trachtet, der Wirtschaft das zuzufügen, was Extinction Rebellion plant, sollte dies in ein Partei-Manifest gießen; es sollte hinterfragt werden von Medien und Wählern, von geeigneten Kandidaten vertreten werden, im Kampf gegen andere Parteien gewinnen, eine Regierung bilden, falls sie die Sitze bekommen und mittels Gesetzgebung und/oder Referendum das Ende der Ökonomie implementieren, wie wir sie kennen.

Kein Wunder, dass Extinction Rebellion das konventionelle Vorgehen scheut. Sie werden niemals der Gewinner sein. Während die Öffentlichkeit empfänglich ist für allgemeine Gedanken, den Planeten zu schützen, wird es niemals so etwas wie eine Mehrheit für eine Palette politischer Maßnahmen geben, die das Fliegen sowie wirtschaftliches Wachstum verbieten, wenn die Emissionen von UK drastisch gesunken sind und neue Ökonomien so viel mehr emittieren.

———————————–

Die ganze Story steht hier.

Link: https://www.thegwpf.com/climate-extremism-democracy-and-progress-are-facing-extinction/

Übersetzt von Chris Frey EIKE




Klima-Alarmisten: Hitzewelle Deutschland (Wetter) = Hitzewelle auf der ganzen Welt (Klima)

Schon vor einigen Woche hat der Autor dazu Beiträge verfasst, zuletzt hier. Die darin am Schluss aufgestellte Behauptung, dass es im Juli keine neuerliche Hitzewelle geben würde, war dabei natürlich völlig daneben. Andererseits: Man kann daran sehen, was passiert, wenn man sich ungenau ausdrückt: Die Aussage, dass „eine neuerliche Hitzewelle im Juli damit unwahrscheinlich ist“, hätte besser gepasst – und würde auch jetzt passen. Denn: Bei Wetter-Statistiken (und genau das war ja die Aussage) gibt es nun einmal keinen Korrelationsfaktor 1!

Damit sind wir aber beim Thema. Im oben verlinkten Beitrag war es um die Hitzewelle Ende Juni gegangen. Das damalige Zirkulationsmuster wies mit dem derzeitigen Zirkulationsmuster eine Ähnlichkeit auf, wie sie bei Wetter (und hier geht es ja ausschließlich um Wetter!) auch nicht jedes Jahr vorkommt. Andererseits – gibt es nicht bei Wetter immer eine Erhaltensneigung?

Schauen wir mal im Einzelnen. Damals ging die Hitzewelle bei uns einher mit einem wirklich ungewöhnlichen Kaltluftvorstoß vor der Iberischen Halbinsel. Und genau das Gleiche ist jetzt auch wieder der Fall:

Abbildung 1: Geopotential im 500-hPa-Niveau (farbig) und Bodendruck (weiße Linien) von Freitag dem 26.7.2019, 00 UTC (= 02 Uhr MESZ)

Man erkennt genau wie damals einen Trog und damit einher gehend einen Kaltluftkörper, der zum zweiten Mal innerhalb eines Monats Juli so weit nach Süden reicht, wie es selbst im Winter nicht jedes Mal vorkommt. Man siehe dazu die Beschreibung im oben verlinkten Beitrag. Eine atmosphärische „Etage“ tiefer stellt sich das Ganze so dar:

Abbildung 2: Temperaturverteilung im 850-hPa-Niveau (farbig) und Höhenlinien der 850-hPa-Fläche über NN (Die Bezifferung 155 über Norddeutschland bedeutet, dass entlang der hindurch laufenden Linie der Luftdruck in 1550 m ü. NN genau 850 hPa beträgt. Die Bezifferung 135 über dem Ostatlantik bedeutet entsprechend, dass genau dieser Luftdruck dort schon in einer Höhe von 1350 m ü. NN herrscht).

Bemerkung zu den beiden Graphiken: Es handelt sich um eine numerische Vorhersage von 24 Stunden. Alle Graphiken von Wetterzentrale.de

Abbildung 3: Satellitenbild vom 25. Juli 2019, 06 UTC (= 08 MESZ). Die kumuliforme Bewölkung belegt die ungewöhnlich weit nach Süden ausgreifende Kaltluft.

Einen wichtigen Beitrag zu diesem Thema hat kürzlich auch KÄMPFE geschrieben (hier). Darin belegt er ganz allgemein eine Tendenz zu meridionalen (= N-S bzw. S-N) Strömungsmustern und eines allgemein geringen zonalen Grundstromes (= Westwind-Komponente). Die derzeitige Wetterlage ist ein weiterer Beleg dafür. Wenn der ausgleichende Einfluss eines Ozeans fehlt, sind natürlich die vom Festland geprägten Extreme viel größer. Das gilt für alle Zeitmaßstäbe, also auch Jahreszeiten. Da darf man auf den kommenden Winter gespannt sein. Eine Südlage wie derzeit im Januar hätte zwar auf den Bergen ebenfalls sehr mildes Wetter zur Folge (vielleicht mit Föhn im Alpenvorland), aber sonst dürfte sich in den bodennahen Luftschichten ziemlich die Kaltluft halten.

Hier sollen aber noch weitere bemerkenswerte Vorgänge angesprochen werden. Zu der beschriebenen verstärkten meridionalen Komponente gehört natürlich auch mal eine Strömung von der anderen Seite, also von Norden und Nordwesten. Genau das war ja in diesem Monat auch der Fall, und zwar um den 10. Juli. Es gab auch hier ein Extrem, soll doch die Temperatur in Bad Berleburg in NRW am Morgen des 9. Juli 2019 unter -3°C gesunken sein. Nun muss man natürlich bei allen gemeldeten Temperaturextremen vorsichtig sein, weil nie dazu gesagt wird, wie diese Messungen durchgeführt worden waren. Der Vizepräsident des EIKE Michael Limburg kann ein Lied davon singen.

Dennoch, es war für Juli „ungewöhnlich“ kalt. Der beste Beleg dafür ist die Neuschneeauflage auf dem Zugspitzplatt von 30 cm am 10. Juli.

Aber hat man jemals in den Mainstream-Medien von diesem Kälterekord etwas gehört?

Dieser Kaltlufteinbruch dürfte verhindern, dass auch die Mitteltemperatur des Juli 2019 rekordhoch ausfällt. Und damit noch einmal zurück zur Bemerkung in der Einleitung, dass Hitzewellen „im Zuge des Klimawandels immer öfter auftreten“.

Was dabei völlig ausgeblendet wird: Die zweite große „Kältewelle“ vor der Iberischen Halbinsel ist dort ziemlich sicher genauso extrem wie die Hitze bei uns. Nur: Dort wohnt keiner, dort misst keiner. Würde man aber beide Anomaliegebiete (Hitze hier, Kälte dort) übereinanderlegen, käme als Temperatur-Anomalie wohl ziemlich genau Null heraus. Für die „Klimakatastrophe“ bleibt also nichts übrig.

Eindrucksvoll wird dieser Umstand von einer Karte der Abweichung der Temperatur im 850-hPa-Niveau belegt:

Abbildung 4: Abweichung der Temperatur im 850-hPa-Niveau. Näheres dazu bei wetterzentrale.de. Link zur Graphik hier.

Man erkennt klar, wie isoliert das Wärmezentrum über Mitteleuropa daher kommt. Legt man alle Anomaliegebiete nur im Kartenausschnitt übereinander, dürfte sogar weniger als Null herauskommen.

Abschließend soll noch auf einen ähnlich bemerkenswerten Vorgang hingewiesen werden, der im Mittelfrist-Zeitraum (5 bis 7 Tage) von den Wettervorhersage-Modellen simuliert wird, und zwar über Osteuropa. Es wäre noch ein Beleg für die von Kämpfe beschriebenen Zirkulationsmuster:

Abbildung 5: Gleiche Darstellung wie Abbildung 1, aber vorausberechnet für Dienstag, den 30. Juli 2019.

Abbildung 6: Wie vor, jedoch im 850-hPa-Niveau

Die Entwicklung eines ganzen Sturmwirbels mitten über dem Festland in Nordosteuropa ist extrem ungewöhnlich, genauso wie der Kaltluftvorstoß auf seiner Westseite. Die Temperatur im 850-hPa-Niveau soll über Nordskandinavien bis -5°C sinken. Das würde bis fast hinunter auf Seehöhe Schneeschauer bedeuten.

Man stelle sich mal vor, ein ähnlicher Vorgang würde sich in einem halben Jahr abspielen… .




Wetternachrichten: ZDF: Arktische Hitzewelle; Russland: neue Kälterekorde, Argentinien: Flughafen wegen Schneefall geschlossen

Quelle des Aufmachers:

https://www.facebook.com/ZDFheute/photos/a.275406990679/10157599914590680/?type=3

Das ZDF meldet: Arktische Hitzewelle

Auszugsweise von scinecefile.org

Das ZDF meldet: „Arktische Hitzewelle“: Temperaturrekord am Sonntag im nordkanadischen Alert, das weniger als 900 Kilometer vom Nordpol entfernt liegt. Die Durchschnittstemperatur liegt im Juli für gewöhnlich bei 3,4 Grad.

Der Militärstützpunkt Alert, gelegen auf 82° 28′ n. Br., ist die nördlichste dauerhaft besetzte menschliche Ansiedlung der Erde.

In Alert (Nanavut), kann unsereiner zwar auch im Sommer frieren, aber es dennoch kann es nicht selten vorkommen, dass sie sich bei 20 Grad sonnen können. Wie heißt es doch so schön im Text von dpa, den das ZDF wiederkaut: „Seit 1950 gibt es dort eine Wetterstation“.

Das hat den Nachteil, dass es auch seit 1950 Daten gibt, aus Alert.

Alert-July-1956

Die Daten stammen von der Kanadischen Regierung und können hier en detail angesehen werden.

Und siehe da, wenn die hohen Temperaturen ein Indiz für Klimawandel sind, dann gab es ihn damals, im Juli des Jahres 1956 schon, ganz ohne CO2, und als arktische Hitzewelle, die der Erfindung des menschengemachten Klimawandels Jahrzehnte vorausgegangen ist.

Gefunden auf sciencefiles.org

https://sciencefiles.org/2019/07/17/beim-zdf-wird-wieder-klima-manipuliert-arktische-hitzewelle/

 

****

Nordwestrussland meldet neue Kälterekorde

CAP ALLON, electroverse

Die Temperaturen in den meisten Teilen Europas blieben im Juli weit unter dem Durchschnitt, da eine Reihe von arktischen Kaltluftströmungen den Kontinent weiterhin treffen. In weiten Regionen treten Temperaturschwankungen von bis zu 20 ° C unter dem Durchschnitt auf, was zu einem Sturz der bisher kalten Temperaturrekorde führt.

Nordwestrussland ist die neueste Region, in der die Tiefsttemperatur-Rekorde sinken.

Eine langanhaltender Kaltluftadvektion wird Temperaturen von bis zu -1C (30.2F) bringen, bei einer Höhe von 1,5 km, die nach meteonovosti.ru „in den Sommermonaten sehr selten vorkommen“.

Am Freitag, dem 12. Juli, wurden in normalen Messhöhen neue Tiefsttemperaturen in Nordwestrussland beobachtet, unter anderem in den Regionen Karelien, Leningrad, Wologda und Kostroma:

  • In Petrosawodsk sank die Temperatur am vergangenen Freitag auf 3,2 ° C (37,8 ° C) und übertraf damit das Juli Rekordtief der Stadt von 3,6 ° C (38,5 ° F).
  • Cherepovets, eine Stadt in der Oblast Wologda [Oblast ist die Bezeichnung für einen größeren Verwaltungsbezirk], setzte ein neues Juli-Tief mit 1,8 ° C (35,2 ° F) und löschte damit den früheren Rekord von 5 ° C (41 ° F) von 1968 aus.
  • In Tichwin, einer Stadt in der Oblast Leningrad, hat mit am vergangenen Freitag gemessene 2,4 ° C (36,3 ° F) den bisherigen Rekord von 5,3 ° C (41,5 ° F) aus dem Jahr 1958 übertroffen.
  • Während die in der Flussstadt Kostroma beobachteten 5.4C gerade den vorherigen Rekord von 1968 von 5.5C knapp einstellt.

Darüber hinaus weist hmn.ru darauf hin, dass die durchschnittliche Tagestemperatur im Juli 8-10 ° C unter dem Normalwert lag, was: „seit fast 50 Jahren im Hochsommer nicht mehr beobachtet wurde!“

Haben Sie das schon durch Ihre Mainstream-Medien erfahren?

Ungeachtet dessen kehren die kalten Zeiten im Einklang mit der historisch niedrigen Solarleistung zurück, die Zeit sich darauf vorzubereiten ist jetzt.

Gefunden auf electroverse.net

Übersetzt durch Andreas Demmig

https://electroverse.net/all-time-record-low-temperatures-tumble-in-northwest-russia/

Auf gleicher Seite des vorstehenden Links:

22. JULI

Die höchste gemessene Temperatur in Großbritannien für diesen Tag betrug 36 ° C (96,8 ° F) und wurde 1911 in Epsom (Surrey) gemessen .

Das Klima ist zyklisch, niemals linear.

 

****

Aus dem Archiv des Moskauer Wetters zum Montag, 22.Juli

Der Juli ist zur Hälfte vorbei, aber heiß ist es nicht. So beträgt auch heute die Höchsttemperatur 22-24 Grad, die Tagesdurchschnittstemperatur nähert sich ihrer klimatischen Norm.
Im Jahr 2010 hingegen war es am 22. Juli sehr warm, die Luft erwärmte sich bis auf 35,2 Grad. Im vorletzten Jahrhundert, im Jahr 1888, kühlte sich die Luft an diesem Tag in den frühen Morgenstunden bis auf 6,2 Grad ab. Im Jahr 1898 erwies sich dieser Tag in der Hauptstadt als regnerisch, es goss 20,2 mm bei einer Norm von 94 mm (ist damit vielleicht die monatliche Norm gemeint?)
Im vergangenen Jahr 2018 war der 22. Juli warm, nachmittags erwärmte sich die Luft auf 25 Grad, es regnete leicht, bis zu 2 mm.“

[Übersetzungshilfe von unserem Leser Herrn Frieder Ermel – vielen Dank.]

Archiv gefunden auf http://www.hmn.ru/index.php?index=1&ts=190722115049

Russische Wetterseite: meteonovosti.ru

****

 

Starker Schneefall in Westargentinien, der Flughafen Bariloche musste geschlossen werden

CAP ALLON

Der internationale Flughafen von San Carlos de Bariloche (eine Stadt in der argentinischen Region Patagonien) wurde am Samstag den 20.07.2019 geschlossen, nachdem das Flughafenpersonal den Kampf gegen einen brutalen Wintersturm verloren hatte, bei dem die Landebahnen unter 1,5 m Schnee begraben wurden.

 Info de Transito@TransitoCapital

#Transito LETZTE INFORMATIONEN || aa2000oficial hat vor wenigen Minuten bekannt gegeben, dass die Schließung des #Bariloche-Flughafens bis 21.00 Uhr verlängert wird. Wir werden weiter informieren. de Flight_News16

Der starke Schneefall veranlasste die Behörden, die Transportdienste, einschließlich aller kommerziellen Flüge, während der Hauptreisezeit der Stadt einzustellen. Insgesamt wurden mindestens sechs Flüge gestrichen, andere verspätet und drei bereits in der Luft befindliche Flugzeuge mussten zu anderen Flughäfen umgeleitet werden.

Weitere Bilder aus Bariloche: https://twitter.com/hashtag/Bariloche?src=hash




Wenn das Klima zur Glaubensfrage wird*

Millionen von Menschen gehen wegen des Klimawandels auf die Strasse, stellt Professor Reto Knutti freudig fest. In der Wissenschaft herrscht Konsens über Ursachen und Folgen, die Regierungen streben nach den im Pariser Abkommen formulierten Zielen, die Protestierenden fordern Massnahmen gegen den Weltuntergang: «Nur Roger Köppel und seine Verbündeten versuchen auf ihrer Insel der Glückseligen, der Weltwoche, ihr Weltbild zu retten», schreibt ETH-Professor Knutti in seinem Beitrag für die Weltwoche(Nr. 23/19). Auf zwei Seiten – am Schluss dieses Hefts nochmals nachzulesen (Seite 32/33) – legt er dar, warum diese falsch liegen. Zum Beweis rattert er den Katechismus herunter, den die Klimaforscher seit Jahren in der Wissenschaft durchsetzen und in den Medien verbreiten – zumeist ohne Widerspruch, obwohl Kritik die Grundlage der Wissenschaft und die Aufgabe der Journalisten ist.

Dabei gibt es, wie dieses Heft zeigt, in der Klimadebatte viele offene Fragen und wenige klare Antworten. Und jeder der Glaubenssätze von Reto Knutti ruft nach einem kritischen Kommentar:

«Die Fakten sind klar.»

«Die Debatte ist vorbei», dekretierte Barack Obama 2014 in seiner Rede zur Lage der Nation: Der menschengemachte Klimawandel sei ein Fakt. Der US-Präsident schloss sich damit führenden Klimaforschern an, die seit zwanzig Jahren meinen: «The science is settled», die wissenschaftlichen Erkenntnisse stehen fest. Das hindert die Forscher allerdings nicht daran, von den Steuerzahlern immer noch Milliarden zu fordern, damit sie ihre unfehlbaren Studien mit immer gravierenderen Prognosen bestätigen und in immer alarmierenderen Reports des Weltklimarats (IPCC) verdichten können.

Dabei stehen die Erkenntnisse fest, seit die Uno den IPCC vor dreissig Jahren einsetzte: Führende internationale Experten, darunter Berner Forscher um Hans Oeschger und später Thomas Stocker, sollten die wissenschaftlichen Grundlagen für die Umweltkonferenz von Rio 1992 und die Klimakonferenz von Kioto 1997 liefern – es ging also von Anfang an nicht um eine wissenschaftliche Recherche mit offenem Ergebnis, sondern um eine politische Mission mit striktem Auftrag. Schon der erste IPCC-Bericht von 1990 schrieb denn auch fest: Es gibt eine unnatürliche Klimaerwärmung, und die Schuld daran trägt die Menschheit, weil sie immer mehr Treibhausgase, vor allem CO2, ausstösst.

Das heisst: Seit dreissig Jahren bekam nur noch Lehrstühle, Forschungsgelder und Publikationsmöglichkeiten, wer die Thesen des IPCC bestätigte, gerade auch in der Schweiz. Das ist das Gegenteil von Wissenschaft – sie findet nur eine vorläufige Wahrheit, wie der Philosoph Karl Popper lehrte, wenn sich eine Hypothese auf keine Weise falsifizieren, also widerlegen lässt. Deshalb nannte der Soziologe Robert Merton die Wissenschaft «organisierte Skepsis». Für den Fortschritt der Erkenntnis sorgen das Peer-Review, also die kritische Begutachtung von Publikationen durch Kollegen, und die intensive Debatte unter Forschern.

«Klimaskeptiker» aber gilt als Schimpfwort. Die Klimaforscher suchen sich für das Peer-Review Publikationen und Experten mit gleicher Gesinnung aus und drücken bei wichtigen Studien für IPCC-Berichte die Begutachtung im Eilverfahren durch. Sie drängen Nonkonformisten aus der akademischen Debatte, wie in den USA die renommierten Atmosphärenphysiker Richard Lindzen, John Christy und Judith Curry oder in der Schweiz den Berner Professor Christian Schlüchter (Seite 10). Und sie schmähen Skeptiker als «Klimaleugner», sogar den Forscher Roger Pielke Jr, der beim Zusammenhang von Klimaerwärmung und Naturkatastrophen zur selben Erkenntnis kommt wie der IPCC (Seite 28).

Die führenden Schweizer Forscher wie Thomas Stocker oder Reto Knutti stellen sich seit Jahren keinem Streitgespräch mehr und zählen darauf, dass die Journalisten ohne Nachfrage, also unjournalistisch, für sie PR machen. So stört sie niemand mehr, wenn sie selbstzufrieden behaupten, die Debatte sei vorbei.

«Die Erde hat sich über das letzte Jahrhundert um ein Grad Celsius erwärmt.»

«Die ausgeprägteste Kaltperiode seit 1520», wie sie der Berner Professor Christian Pfister nannte, endete um 1860 herum. Der Pionier der Klimageschichte zeigte früher in vielen Studien, wie die Menschen unter der Kleinen Eiszeit litten, die im 16. Jahrhundert hereinbrach und bis ins 19. Jahrhundert anhielt: Das kalte, nasse Wetter führte zu Missernten und Seuchenzügen, und da die geplagten Menschen Sündenböcke suchten, kam es zur Hexenjagd.

Drei Jahre nach dem Ende der letzten grimmigen Kaltperiode, 1863, baute der Bund sein Netz von Wetterstationen im ganzen Land auf. Sie massen einen schnellen Anstieg der Temperaturen bis zum «Wärmegipfel», den Christian Pfister zwischen 1943 und 1952 ansiedelte. Diese Erwärmung – also die Rückkehr zu den freundlicheren Temperaturen des Mittelalters – galt damals nicht als Gefahr, sondern als Segen: Dank dem weltweit günstigen Klima wuchsen die Ernten stark an. Als die Temperaturen in den sechziger und siebziger Jahren jäh sanken, warnten deshalb führende Klimaforscher vor Hungersnöten und Massensterben in einer neuen Eiszeit.

In den achtziger Jahren stiegen die Temperaturen aber wieder – angeblich so schnell wie nie zuvor, wie auch die Schweizer Meteorologen meinen, seit sie an ihren Daten herumgeschraubt haben (Seite 14). Deshalb setzt der IPCC seit dreissig Jahren das Dogma durch, die unnatürlich schnelle Erwärmung komme vom CO2, sei also menschengemacht.

Nur: Als sie noch ohne Scheuklappen forschten, zeigten die Klimahistoriker, gerade auch Christian Pfister (Seite 26), dass heute nichts ist wie noch nie zuvor. Es gab in der Geschichte heftigere Stürme, schlimmere Dürren, schrecklichere Hochwasser, schnellere Gletscherschmelzen und vor allem Zeiten mit einem zumindest gleich warmen Klima, wie in der Römerzeit, im Hochmittelalter oder auch in der Mitte des 20. Jahrhunderts – bei einem weit niedrigeren Anteil an CO2.

Deshalb musste der IPCC die unerklärbaren Warmzeiten zum Verschwinden bringen. Besonders dreist tat es der amerikanische Forscher Michael Mann: Er bearbeitete seine Daten so lang, bis die Temperaturkurve in der Grafik am rechten Rand wie einhockey sticknach oben wies – seit dem Jahr 1000 eine kaum veränderte Temperatur, dann im 20. Jahrhundert einen steilen Anstieg. Die Grafik wurde von Kritikern zerzaust, aber sie fand sich prominent im IPCC-Bericht von 2001 und im Film «An Inconvenient Truth» mit Al Gore. Deshalb prägt sie bis heute, wozu die Klimahistoriker wie Christian Pfister forschen und was das Publikum zur Klimageschichte denkt.

«[…] der Mensch ist mit extrem hoher Wahrscheinlichkeit die dominante Ursache.»

Ohne Treibhausgase gäbe es kaum Leben auf Erden. Denn sie sorgen dafür, dass die Erde weniger Wärme abstrahlt, als sie von der Sonne aufnimmt. Sonst läge die Temperatur 32 Grad tiefer, höhere Lebewesen hätten sich also nicht entwickeln können.

Dieser Effekt wurde schon 1824 vom französischen Physiker Joseph Fourier entdeckt und 1896 vom schwedischen Chemiker Svante Arrhenius quantitativ beschrieben. In der Wissenschaft bestreitet ihn niemand. Und alle anerkennen, dass der Anteil des wichtigsten Treibhausgases, CO2, in der Atmosphäre von 280 ppm (Teile pro Million) in der vorindustriellen Zeit auf gut 400 ppm zugenommen hat, dies vor allem wegen des Verbrennens von Kohle, Öl und Gas – die Menschen haben also den Treibhauseffekt verstärkt.

Wer diesen unstrittigen Aussagen zustimmt, der gehört zu den 97 Prozent, die sich gemäss oft kolportierten Studien im Konsens finden, dass der Klimawandel menschengemacht sei. Die Studien sind nicht nur deshalb unsinnig: Die Wahrheitsfindung geschieht in der Wissenschaft nicht per Mehrheitsentscheid. Als Albert Einstein vom Buch «Hundert Autoren gegen Einstein» hörte, scherzte er: «Warum einhundert? Wenn sie recht hätten, würde ein Einziger genügen!»

In den entscheidenden Fragen gibt es gar keinen Konsens. Alle wissen, dass sich die Atmosphäre wegen des Treibhauseffekts erwärmt – aber niemand weiss, wie stark. Der wichtigste Wert für die Wissenschaft ist die Klimasensitivität: Um wie viel Grad steigt die Temperatur bei einer Verdoppelung des CO2-Anteils? In dieser Frage kommt der IPCC aber seit zwanzig Jahren nicht weiter; ja er weitete die Unsicherheitsspanne im letzten Bericht sogar wieder aus, auf 1,5 bis 4,5 Grad. Und die meisten Studien der letzten Jahre zeigen, dass der Wert wohl im unteren Bereich oder sogar darunter liegt.

Das CO2 allein führt auf jeden Fall nicht zu einer gefährlichen Erwärmung, die Experten des IPCC fürchten solche Entwicklungen nur aufgrund der komplexen Rückkoppelung mit dem Wasserhaushalt der Erde, vor allem mit den Wolken.Der Experte Bjorn Stevens gestand aber kürzlich imSpiegel, die Forscher verstünden zwar die Wechselwirkungen im kleinen Massstab, «auf der grossen Skala des globalen Kontextes aber verstehen wir wenig». Trotzdem glauben Wissenschaftler wie ETH-Professor Reto Knutti, sie könnten auf die Tonne genau berechnen, wie viel CO2 die Menschheit noch ausstossen darf.

«Die Folgen [der Erwärmung] sind […] gut beobachtet, verstanden und in Computermodellen simuliert. Sie werden sich ohne rasches Handeln massiv verstärken.»

Sturmfluten toben, Waldbrände lodern, Dürren herrschen, die Pazifikinseln versinken im Meer, und die Eisbären sterben aus. Täglich schocken die Medien ihr Publikum mit düsteren Prognosen, was der Welt aufgrund der Klimaerwärmung droht. Darum glauben auch viele Menschen in der Schweiz, die nichts fürchten müssen ausser einer Hitzewelle oder einem Frostschaden, dass der Klimanotstand herrscht.

Jede Wissenschaft macht Voraussagen: Forscher stellen Hypothesen auf und testen empirisch, also in der realen Welt, ob sie stimmen. Was die Wissenschaftler des IPCC mit ihren Computermodellen an üblen Folgen für die Menschheit errechnen, lässt sich aber zu unseren Lebzeiten kaum überprüfen. Die Klimaforscher überbieten sich deshalb ohne störende Nachfragen mit ihrem Alarm – und sie verschweigen, dass sie bisher immer falschlagen.

Denn viele Prognosen liessen sich durchaus testen, und zwar mit den historischen Daten. Die Behauptung, die Erwärmung führe zu mehr Naturkatastrophen, ist so nachweisbar falsch. Die Forscher des ETH-Instituts WSL, die dazu eine Datenbank führen, stellten fest: «Da die meisten Wissenschaftler eine Zunahme der Schadenereignisse aufgrund des Klimawandels voraussagen, erscheint das Fehlen eines Trends in unseren Daten erstaunlich.» Die erfreuliche Tatsache, dass es in der Schweiz nicht mehr Unwetterschäden gibt, sei auf die Schutzmassnahmen der letzten Jahre zurückzuführen, behaupten die Alarmisten. Sie unterschlagen: Diese Beobachtung gilt weltweit, bestätigt vom IPCC. Das hinderte einen Mob von Politikern, Journalisten und Aktivisten nicht daran, den amerikanischen Experten Roger Pielke Jr., der diese Frage studierte, aus der Klimaforschung zu vertreiben (Seite 28).

Die Populationen der Eisbären bleiben seit zwanzig Jahren gleich. Die Pazifikinseln wachsen teils sogar. Die Zahl der Opfer von Naturkatastrophen nimmt stark ab. Und die Welt ist bisher nicht untergegangen, obwohl schon 1989 der Direktor des Umweltprogramms der Uno prophezeite, der Menschheit blieben nur zwölf Jahre zur Rettung vor dem Desaster.

Ja, die Klimaforscher verstehen nicht einmal den Zusammenhang zwischen der Zunahme des CO2 und dem Ansteigen der Temperatur, auf dem ihre Modelle beruhen. Sie können nicht erklären, weshalb die globale Temperatur in den nuller Jahren nicht anstieg oder weshalb sich das Klima schon in der ersten Hälfte des 20. Jahrhunderts schnell erwärmte. Und der Berner Professor Thomas Stocker lieferte mit den Studien, die ihn berühmt machten, sogar die Falsifikation der Theorie: Seine Bohrkerne aus dem Antarktis-Eis zeigten, dass der CO2-Anteil nach der Temperatur stieg, also nicht Ursache, sondern Folge war. Statt ihre Modelle zu verwerfen, schrauben die Klimaforscher deshalb an den Daten herum – sie machen passend, was nicht passt.

«Nur eine vollständige Abkehr von Öl, Gas und Kohle in den nächsten paar Jahrzehnten kann die Erwärmung auf deutlich unter zwei Grad begrenzen: das Klimaziel, das sich alle Regierungen 2015 in Paris gesetzt haben.»

Was aber, wenn der IPCC recht hat mit all seinen Erklärungen und Voraussagen? «Ja, der Klimawandel ist ein Problem», sagt Bjørn Lomborg, «aber er ist nicht das Ende der Welt.» Der dänische Ökonom ruft deshalb seit Jahren die Politiker auf, sie sollten mit ihrem Geld für den Kampf gegen den Klimawandel, weltweit 162 Milliarden Dollar im Jahr, nicht unwirksame Solar- und Windanlagen subventionieren, sondern das Energiesystem innovieren (Seite 8).

Bjørn Lomborg zweifelt nicht am Dogma des IPCC, dennoch zieht er den Hass der Alarmisten auf sich. Und die Klimaforscher werfen dem Kritiker aus Kopenhagen vor, er mische sich in ihre Wissenschaft ein, obwohl er keine Publikationen mit Peer-Review vorweisen könne. Sie übersehen: Bjørn Lomborg äussert sich als Ökonom nur zu Fragen, von denen er mehr versteht als die Klimaforscher wie Thomas Stocker und Reto Knutti, die der Welt als ökonomische Laien einen sofortigen Umbau ihres Wirtschaftssystems befehlen. Und vor allem: Er stützt sich auf die führenden Experten – und zumeist auf den IPCC selbst.

Der 8. Oktober 2018 war ein denkwürdiger Tag für die Klimapolitik. Einerseits stellte in Seoul der IPCC einen Sonderbericht vor, der forderte, die Welt müsse den Temperaturanstieg nicht nur auf 2 Grad, sondern zur Sicherheit besser auf 1,5 Grad begrenzen. Anderseits gab in Stockholm die Königlich Schwedische Akademie der Wissenschaften bekannt, der Nobelpreis für Ökonomie gehe an den Amerikaner William Nordhaus, den Erfinder der Klimaökonomie. «Ein Statement für den Klimaschutz!», jubelten die Medien – dabei vertragen sich die Forderungen des IPCC und die Erkenntnisse von Nordhaus nicht.

Wenn alle Staaten ihre Pflichten gemäss dem Pariser Abkommen erfüllen, stossen sie bis 2030 insgesamt 60 Milliarden Tonnen CO2 weniger aus. Das ist weniger als ein Prozent dessen, was es brauchen würde, um gemäss den Modellen des IPCC die Erwärmung auf 1,5 Grad zu begrenzen – und dies zu Kosten, die das weltweite Wachstum von zwei Billionen Dollar im Jahr auf eine Billion zurückstutzen würden. Allein die EU-Länder, die ihren Ausstoss bis 2050 um 80 Prozent verringern wollen, müssten dafür jährlich 3,3 Billionen Euro ausgeben, mehr als doppelt so viel wie für Gesundheit, Erziehung, Sicherheit und Verteidigung zusammen.

William Nordhaus bekam den Nobelpreis gerade dafür, dass er die Kosten und den Nutzen der Klimapolitik berechnete. Er empfiehlt eine moderate CO2-Steuer für die Welt und erkennt ein Optimum bei einer Politik, die gemäss IPCC bis Ende des Jahrhunderts zu einer Erwärmung um 3,5 Grad führt. Wenn die Staatengemeinschaft zu exorbitanten Kosten ein strengeres Ziel anstrebe, warnt er, dann mache sie die Welt ärmer, also auch für Katastrophen verletzlicher. Das heisst: Wer das Mantra predigt, wir müssten die Erwärmung auf deutlich unter zwei Grad begrenzen, der leugnet die Wissenschaft.

«Das Klimaproblem ist lösbar, aber unvergleichlich schwieriger, weil es weltweit ist, alle Sektoren betrifft und die grössten Probleme erst in Jahrzehnten sichtbar werden.»

Wenn es nach den Alarmisten ginge, müsste die Welt längst untergegangen sein. Schon 1972 forderte der Club of Rome einen Totalumbau der Wirtschaft, weil sie an die «Grenzen des Wachstums» stosse: Bis zum Jahr 2000 drohten alle wichtigen Rohstoffe wie das Erdöl auszugehen. Als das neue Millennium anbrach, gab es aber von diesen Rohstoffen grössere bekannte Reserven denn je. Die Warner lagen also falsch – so falsch wie der berühmte Untergangsprophet Thomas Robert Malthus: Der englische Pfarrer rechnete 1798 vor, dass die Menschheit verhungern werde, weil die Nahrungsproduktion linear ansteige, die Bevölkerungszahl aber exponentiell.

Die Apokalyptiker machen immer denselben Denkfehler: Sie rechnen Trends bis zum bitteren Ende hoch und zählen nicht auf die Erfindungsgabe der Menschen, die sie seit zwei Millionen Jahren auszeichnet. So brach, als Thomas Robert Malthus die Menschheit vor dem Hungertod warnte, gerade die Agrarrevolution an: Dank besseren Düngern, Züchtungen und Anbaumethoden, später auch dank dem Einsatz von Treibstoffen für Traktoren und Maschinen steigerte die Welt ihre Produktion stetig, so dass sie heute siebenmal so viele Menschen ernähren kann wie zur Zeit von Malthus.

Statt die Apokalypse zu fürchten, sollte sich die Menschheit um die wahren Probleme kümmern, meinen Kritiker wie Bjørn Lomborg. Mit seinem Copenhagen Consensus Center, bei dem weltführende Ökonomen wie der Zürcher Bruno S. Frey mitdenken (Seite 20), stellte er fünfzig führenden Wissenschaftlern die Frage, wie sich mit einem bestimmten Betrag der grösste Nutzen stiften lässt. So empfiehlt er günstige Massnahmen bei Gesundheit oder Ernährung, vor allem aber mehr Freihandel: Alle Menschen werden wohlhabender, also auch weniger verletzlich für Katastrophen, wenn die Welt das Wachstum vorantreibt – und es nicht mit ihrer Klimapolitik abwürgt.

Ja, das Klimaproblem ist lösbar. Aber nicht, wenn wir die Jungen aufschrecken, wie es auch Reto Knutti tut, sondern wenn wir auf die Menschen vertrauen, wie es der englische Wissenschaftsautor Matt Ridley rät (in: WELTWOCHE, Sonderheft „Klimawandel für die Schule“, 11.07.2019 Seite 18) : „Bleiben wir rationale Optimisten“.

=================================================================

Lesen Sie auf Seite 32 (WELTWOCHE, Sonderheft „Klimawandel für die Schule“, 11.07.2019)Prof. Knuttis bereits erschienener Weltwoche-Aufsatz, auf den sich Markus Schär in seinem Artikel hier bezieht.

Markus Schär hat als Historiker seine Dissertation über die mentalen Folgen der Kleinen Eiszeit in Zürich geschrieben und sich als Bundeshaus-Redaktor derWeltwochebis 2017 vertieft mit der Klimaforschung auseinandergesetzt.
Er führt mit kritischen Kollegen die Website www.cool-down-schweiz.ch

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : Markus SCHÄR, „Wenn das Klima zur Glaubensfrage wird“  Sonderheft „Klimawandel für die Schule“, (11.07.2019) ;  http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Markus SCHÄR für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Lösung von New York City für das Klima­wandel-Problem: Man schädige ,Otto Normalver­braucher‘, um keinen merklichen Nutzen davon zu haben

Als Untermauerung der Forderung nach einer Ausrufung des Notfalls führt das Dokument zunehmende Buschbrände, Dürren, Extremwetter und das Aussterben von bis zu einer Million Spezies an während der kommenden Jahrzehnte. Um derartige Schäden zu verhindern, findet sich in der Resolution viel vom Green New Deal und dem Pariser Klima-Abkommen einschließlich einer Reduktion von Treibhausgas-Emissionen auf Null, dem Ziel einer Versorgung durch 100% erneuerbare Energie sowie „Klimagerechtigkeit“ (was immer das sein soll). Das Dokument schließt mit der Forderung nach einer „sofortigen Notfall-Mobilisierung, um ein sichereres Klima wiederherzustellen“.

Falls es wirklich zu diesen schrecklichen Katastrophen kommen sollte und wir diese verhindern könnten, dann wären ernsthafte Maßnahmen sicher notwendig. Allerdings enthüllen weithin akzeptierte Daten – von anderen als den extremistischen Quellen wie dem WWF – unbequeme Tatsachen hinsichtlich der Behauptungen des Gremiums.

Im Gegensatz zu den Behauptungen in dem Dokument sinkt die Anzahl von Todesopfern durch Extremwetter schon seit Längerem signifikant, während der letzten über 80 Jahre beispielsweise um 98%. Todesfälle durch Hitze werden weit überkompensiert durch Todesfälle infolge Kälte. Das Verhältnis beträgt etwa 20 : 1, was bedeutet, dass Erwärmung Leben rettet. Der US-Drought Monitor zeigt, dass das von Dürren betroffene Gebiet in den USA auf einem historischen Tiefststand liegt, seit vor etwa zwanzig Jahren mit der Erfassung der relevanten Daten begonnen wurde. Die Vermutung des Aussterbens von einer Million Spezies müsste 25.000 bis 30.000 Aussterbefälle pro Jahr zeitigen. Allerdings hat die Aussterberate der IUCN Red List zufolge seit Anfang des 20. Jahrhunderts signifikant abgenommen und liegt seit etwa 1970 bei zwei pro Jahr.

Das über allem stehende Ziel der Resolution ist es, die Temperatur der Erde sinken zu lassen mittels Reduktion von Treibhausgasen, vor allem Kohlendioxid. Um die geforderten Reduktionen zu erreichen, müssen notwendigerweise die Energiekosten drastisch steigen, entweder durch ein Cap-and-Trade-System oder eine direkte Steuer auf Emissionen. Jedes dieser Verfahren würde steigende Kosten bedeuten für alle Bürger und Unternehmen ohne Unterschiede. Falls die Bürger von New York City ökonomisch verheerend wirkenden Kostensteigerungen ausgesetzt wären im Zusammenhang mit der geforderten Energie-Transformation – sollte man ihnen dann nicht erst einmal sagen, welche Auswirkungen derartige Reduktionen nebst deren Bepreisung auf die Temperatur haben würde?

Der MAGICC simulator (Model for the Assessment of Greenhouse-gas Induced Climate Change) wurde von Wissenschaftlern am National Center for Atmospheric Research und Finanzierung der U.S. Environmental Protection Agency (EPA) entwickelt. Das Modell versucht zu bestimmen, um wie viel ein Temperaturanstieg abgeschwächt werden könnte durch verschiedenartige Reduktionen von CO2-Emissionen weltweit. Diesem Modell zufolge würde eine Reduktion der CO2-Emissionen im gesamten Staat New York (unter Ansatz einer Klima-Sensitivität von 2,0) die Erwärmung bis zum Jahr 2050 um 0,002°F und bis zum Jahr 2100 um 0,006°F verringern.

Dieser extrem geringe – und unmessbare – Effekt sollte eine bedeutende Rolle spielen bei den Diskussionen darüber, ob man bedeutende Belastungen einer zukünftigen Kohlenstoff-Besteuerung durch die Führer jedweder Stadt wirklich umsetzen sollte. Wie viele Arbeitsplätze sind die Verhinderung einer Erwärmung um ein paar Tausendstel Grad wert?

Die Rechtfertigungen für diese Resolution und die vorgeschlagenen „Lösungen“ des Klimawandel-Problems basieren auf betrügerischen Annahmen, die Kosten und Vorschriften sind ökonomisch verheerend, und das Ergebnis ist eine Temperatur-Reduktion so gering, dass sie nicht unterscheidbar ist von Null. Kurz gesagt, die Resolution von New York City würde die Freiheiten seiner Bürger massiv einschränken und sie erheblich ärmer machen – und das für praktisch Null der vom Stadtrat angepeilten Auswirkungen.

Autor

Gregory Wrightstone is a geologist with more than 35 years of experience researching and studying various aspects of the Earth’s processes

Link: https://www.cfact.org/2019/07/13/new-yorks-climate-change-solution-harm-regular-people-for-no-noticeable-benefit/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Ähnlichkeiten mit entsprechenden Resolutionen bei uns sind natürlich rein zufällig!




Der „Spiegel“, das Sturmgeschütz der Postdemokratie, über Greta und Svenja

„Ich will, daß Ihr in Panik geratet!“ Diesen vernünftigen und optimistischen Rat gab die 16jährige Klimaaktivistin Greta Tintin Eleonora Ernman Thunberg der jungen um eine statistische Größe besorgten Generation und hat damit erstaunlichen Erfolg – zumindest laut Spiegel. Die vergleichsweise sachliche deutsche Umweltministerin Svenja Schulze liefere statt gefühltem Wissen „Fakten“ zum bevorstehenden Weltuntergang.

„Fakten? Gähn! Über den Erfolg einer Idee entscheiden ganz andere Dinge. Was Sie von Greta Thunberg lernen können – und von Bundesumweltministerin Svenja Schulze besser nicht kopieren“, schreibt Klaus Werle vom Spiegel.

Rein strategisch hat er damit Recht, aber ist die Klimaforschung von Schellnhuber und Rahmstorf nicht eine knallharte Wissenschaft, die keine Reklamemätzchen braucht? Einer von Rezos 90 Räubern meinte doch auch ganz klar, die Bürger sollten sich der sachlichen Wissenschaft und den „Fakten“ anvertrauen und nicht auf unwissende Klimaleugner und so hören.

Und jetzt kommt ein Redaktionskollege von Claas Relotius daher und empfiehlt die emotionale Aufladung des Themas statt einer kühlen Auseinandersetzung mit den Daten.

Als „Klimaleugner“ ist man immer wieder platt, wenn man so etwas liest. Bemerken die Aktivisten in den Redaktionen der ehemaligen Qualitätsmedien ihr Orwellsches Doppeldenk eigentlich noch? Wohl kaum – sie können und wollen aus ihrer Filterblase nicht mehr heraus und sehen in der Existenz von EIKE & Co. sogar noch einen Beweis für die moralische und sachliche Richtigkeit ihrer entrückten Ideologie.

Und, falls Sie mitlesen, Herr Werle, Gretas überdrehtes emotionales Panik-PR-Tamtam mag ein paar minderjährige Schulschwänzer und abgehobene ARD/ZDF-Journalisten begeistern; der Masse der strukturkonservativen Bevölkerung geht der künstliche Hype um den Eisbär-Ersatz zunehmend auf die Nerven und treibt uns „Klimaleugnern“ die Leser nur so zu. Seit Beginn der Gretamanie explodieren unsere Zugriffszahlen.

Ich freue mich daher schon auf Gretas Verleihung der Ehrendoktorwürde am 10. Oktober und die mutmaßliche Verleihung des Friedensnobelpreises einen Tag später. Eine derart ins Extreme abgleitende Glorifizierung eines 16jährigen Mädchens kann kaum noch einem Bürger als gesund vorkommen. Wer die Propaganda nicht langsam riecht, würde die Heißzeit-Theorie wohl auch dann noch verteidigen, wenn Gletscher die Zufahrt zum Hamburger Hafen blockierten. Also, liebe Kollegen vom Spiegel, nur weiter so.

 




Einbahn – Die Strompreise kennen nur eine Richtung – nach oben!

Deutschland hat alle Chancen, Weltmeister zu werden. Weltmeister im Irrwitz Energiewende und Strompreise. Das Land nimmt den einsamen Spitzenplatz in beiden Disziplinen ein. Die Strompreise kennen seit Jahren nur eine Richtung: nach oben. Das zeigt das Vergleichsportal Check 24 in drastischer Eindringlichkeit:

»Laut aktuellen Zahlen des Statistischen Bundesamts ist der jährliche Stromverbrauch deutscher Privathaushalte seit 2010 um rund acht Prozent gesunken«, berichtet Check24. »Unterm Strich mussten Verbraucher 2017 für Strom mehr zahlen als noch 2010. Das haben Berechnungen von CHECK24 ergeben.«

Erstaunlich: Der Verbrauch der Haushalte ging von 140 Milliarden kWh Strom im Jahr 2010 auf 129 Mrd kWh im Jahr 2017 zurück. Das sind acht Prozent weniger Stromverbrauch. Die Verbraucher sparten also, was ging. Dennoch stiegen laut Check24 die Preise im selben Zeitraum um ganze 27 Prozent! Für weniger Strom müssen die Haushalte also mehr bezahlen. Steuern, Umlagen und Abgaben machen mittlerweile 54 Prozent des Strompreises aus.

Zur Erinnerung: 1998 kostete eine Kilowattstunde etwa 14 Cent.

Einer der größten Posten am Strompreis sind die Netzengelte für die vier Betreiber der Hochspannungsnetze. 25 Milliarden Euro bezahlten die Stromkunden in Deutschland nur dafür, dass Strom über die Leitungen transportiert wurde. Der Teil wird steigen, weil neue Stromautobahnen immer neue Milliarden in ungeahntem Ausmaß verschlingen.

Die Berliner Ratingagentur Scope zitiert im März die Übertragungsnetzbetreiber: »Die jüngste Schätzung der vier großen Netzbetreiber für den Ausbau des deutschen Stromnetzes bis 2030 beläuft sich auf 52 Mrd Euro. Erforderliche Investitionen für die Anbindung von Offshore Windkraftanlagen und Speicherlösungen sind hierin noch nicht enthalten.

Zum Vergleich: Im Jahr 2017 ging man noch von Investitionen in Höhe von 33 Mrd Euro aus. Damit ist der erwartete Investitionsbedarf in nur zwei Jahren um mehr als 50 Prozent gestiegen. Allein für die 2×2 GW Hochspannungstrasse „SüdLink“ im Versorgungsgebiet von TenneT und TransnetBW von Schleswig-Holstein nach Bayern und Baden-Württemberg werden nun 10 Mrd. Euro Kosten veranschlagt.
Die Agentur leckt die Lippen: »Der Markt für grüne Schuldtitel dürfte damit einen weiteren Bedeutungszuwachs erfahren.« Bezahlen müssen das die Stromverbraucher.

Einen immer größeren Anteil nehmen ebenso die Kosten für ausgefallenen Strom ein. Windparkbetreiber müssen Strom in jedem Fall bezahlt bekommen, auch wenn er nicht abgenommen werden kann.

Stromverbraucher sollten aufhorchen, wenn wieder neue Jubelmeldungen aus der Energiewenden-Ecke kommen. Immer mehr »erneuerbare« Energien würden produziert, teilweise schon mehr als Strom aus Kohle- und Kernkraft. Deutschland, wird in diesem Zusammenhang häufig angefügt, sei ja bereits Stromexporteur. Doch der Stromverbraucher sollte vor seinem geistigen Auge immer gleich dazu den unverschämten Griff in seinen Geldbeutel sehen, denn einen Teil der Stromexporte muss er mitfinanzieren. Überflüssigen Strom aus Deutschland nehmen die europäischen Nachbarländer oft nur an, wenn sie eine ordentliche Mitgift in Höhe von mehreren Millionen Euro mit dem Strom erhalten.

Doch für die Verbraucher werden die Kugeln Eis des Herrn Trittin immer und immer teurer. Er muss zwei Stromversorgungssysteme bezahlen: einmal all die vielen Windräder und Photovoltaikanlagen, zum anderen die parallel stehenden Kohle- und Kernkraftwerke, ohne die es nicht geht.

Die Strompreise kennen also künftig weiter nur eine Richtung: nach oben. Vermutlich werden die Strompreisabzocker von SPD und CDU das neue Abgabemonstrum CO2-Steuer dazu nutzen, Gelder für Strom umzuschichten. Wegen der Optik, so sieht’s besser aus.

Die Energiewende ist ausser Kontrolle geraten. Keiner weiß mehr im Berlin, wie da rauskommen. Aber das betrifft nicht nur die Energiewende.

Der Beitrag erschien zuerst bei TE hier