1

Die Logik versinkt im Treibsand

In unseren Landen breitet sich eine andere Sorte Treibsand aus, die jede Vernunft, jeden logischen Gedanken gnadenlos unter sich begräbt. Es ist ein Treibsand aus Dummheit, Angst und Ideologie, und er wird unsere Zivilisation in mittelalterliche Abgründe ziehen, wenn nicht bald ein rettender Cowboy auf der Bildfläche erscheint.

In den zwölf Monaten Corona hat dieser Treibsand jegliche verbliebene Sachlichkeit und Professionalität aus den Diskussionen verdrängt. Sie dienen nicht mehr dazu Klarheit zu schaffen, sondern Angst zu schüren.  Das wird auch in den Reden der Kanzlerin zunehmend deutlich.

Es ist zu erwarten, dass mit Abklingen der Epidemie die Angst der Bevölkerung nicht genommen wird, sondern dass man sie „umwidmet“, und zwar zurück auf den Komplex Klimawandel, ohne dabei Corona aus dem Auge zu verlieren. Es heißt ja bereits, die neue, besonders bösartige Mutante des Virus sei durch den Klimawandel entstanden. Das ist ein gewagter, aber eleganter Brückenschlag zwischen den beiden Themen; wobei die Frage noch offen ist, wie die verdammten Viren denn in Zeiten vor Global Warming mutiert haben.

Auf jeden Fall soll die Bevölkerung in Angst und Schrecken verharren, wissend, dass sie ohne die gütige Hilfe der Politik verloren ist, auf die aber nur bei bedingungslosem Gehorsam Anspruch besteht.

Fester Halt

Um uns aus Treibsand zu befreien dürfen wir nicht mit Händen und Füßen rudern, sondern wir müssen festen Halt finden.

Ein bewährtes Mittel in dieser Situation sind intelligente Unterscheidungen. Wir strukturieren den Wirrwarr in seine Komponenten und beobachten anschließend die Zusammenhänge zwischen diesen. Das gibt den Gedanken festen Halt.

Das Werkzeug dafür ist das klare Wort, also genau das Gegenteil von dem, was wir täglich zu hören bekommen. Formeln wie „Wir warnen davor….“, „Wir wollen eine Zeichen setzten…“, schaffen nicht Klarheit sondern Treibsand. Erinnern Sie sich: Am Anfang war das Wort – nicht das Geschwafel.

Die sechs Dogmen

Im Folgenden nun eine Demonstration der Methode der -hoffentlich- intelligenten Unterscheidung. Jetzt, wo Klima und Corona in den großen Topf geworfen und umgerührt werden, liegt es nahe, dass wir die Methode auf den Dauerbrenner Klimawandel anwenden. Trainieren Sie den Umgang mit diesem Werkzeug und seien Sie gerüstet, wenn Treibsand in Ihrer Umgebung auftaucht.

Im Konstrukt mit dem Namen Klimawandel können wir zunächst sechs Hypothesen unterscheiden. Damit die zentrale Aussage der Klimajünger stimmt müssen alle sechs Thesen richtig sein.

Verfechter des Klimawandels betrachten diese Thesen als Dogmen, d.h. die Wissenschaft soll nicht herausfinden OB die Thesen richtig sind, sondern beweisen, DASS sie richtig sind. Das Ergebnis der Untersuchung liegt also bereits zu Beginn der Forschung fest.

Lassen Sie uns diese sechs Thesen anschauen und ihre Richtigkeit abschätzen.

These 1: Die Globale Temperatur steigt

Da sagt einer

„Wieso zerbricht man sich den Kopf über Erwärmung um zehntel Grade in 50 Jahren, wenn man nicht einmal weiß, ob es dieses Jahr an Himmelfahrt regnet oder schön ist!“

Nun, das ist so, wie wenn man eine Münze wirft. Da weiß man auch nicht, ob jetzt Kopf oder Zahl fällt, aber wenn man es tausendmal macht, dann kann man recht genau sagen, wie oft jede Seite kommt.

So ist das auch beim Klima: Nimmt man Tausende von Wetterdaten und rechnet den mittleren Wert aus, dann kommt eine Zahl raus, die weniger zufällig ist als der Regen an Himmelfahrt. Genau das tun die Klimaforscher.

Sowohl Wetter wie auch Klima handeln von der Luft, genauer gesagt von deren Feuchtigkeit, Temperatur, Druck und Strömungen. Wetterfrösche beobachten die momentanen Daten und versuchen daraus, das Wetter der nächsten Tage vorherzusagen. Klimafrösche mitteln die Daten über Jahre oder auch Jahrhunderte.

Hier eine Graphik die von Klimafröschen stammt: die Mittelwerte der Erdtemperatur. Sie hat in 120 Jahren um 0,8°C zugenommen, das sind sieben Tausendstel Grad pro Jahr. Es gibt übrigens Personen, die das spüren:

„Ja, ich fühle die Erderwärmung ganz deutlich!“

Wo steht nun das wichtige Thermometer, das die Erdtemperatur misst?

Nehmen wir an, Sie wollten die Temperatur in Ihrem Haus messen, und zwar richtig! Da stellen Sie ein Thermometer im Wohnzimmer auf, eines im Bad und ein drittes in Ihrem Büro. Sie nehmen den Mittelwert und sagen: “Das ist die Temperatur vom Haus“. Das ist zwar willkürlich, aber vernünftig.

Mit der Erde macht man es ebenso. Man nimmt die Mittelwerte einer Unzahl von Messstationen, die über die Erde verteilt sind – allerdings sehr ungleichmäßig, wegen Wasser und Wüsten etc. Auch das ist willkürlich, aber vernünftig. Neuerdings liefern auch Satelliten Daten, die benutzen so etwas wie die modischen kontaktlosen Thermometer, mit denen wir die Infrarotstrahlung der Haut messen, um zu sehen, ob wir Corona haben.

Diese Messungen also sind Grundlage von These 1, deren Glaubwürdigkeit hier nicht diskutiert werden soll.

These 2: Die Konzentration von Kohlendioxid (CO2) in der Atmosphäre wächst

Hier können Sie sehen, dass das Zeug seit 1960 von 320 auf 420 ppm – parts per million/ Teile pro Million – zugenommen hat, anders ausgedrückt von 0,032% auf 0,042%. Ist das nicht fürchterlich wenig? Es ist jedenfalls genug, dass die Pflanzen und daraus unsere vierbeinigen Freunde geschaffen werden konnten, und auch wir selbst. Diese Zahlen sind recht zuverlässig und sie variieren über den Globus nur sehr wenig.

These 3: Diese Zunahme ist vom Menschen verursacht

Kommt das Anwachsen von CO2 durch die Industrialisierung? Nun, man nehme den durchschnittlichen Anstieg von CO2 pro Jahr, etwa 1,5 ppm, multipliziere das mit der Gesamtmenge der Luft in der Atmosphäre und rechne von Volumen CO2 auf Kilogramm Kohlenstoff um. Das vergleicht man mit der Menge an Kohlenstoff in den fossilen Brennstoffen, welche die Menschheit in dem Jahr verbraucht hat.

Man stellt fest, dass beide Mengen von ähnlicher Größenordnung sind. Man kann These 3 also nicht a priori ausschließen, denn irgendwo muss das verbrannte Zeug ja bleiben. Ein Beweis ist diese Feststellung aber noch nicht. Es gibt ja noch viele natürliche Quellen von CO2, die ihren Ausstoß im Laufe der Jahrhunderte ändern können.

These 4: Die Erderwärmung ist durch Zunahme von CO2 verursacht

CO2 in der Atmosphäre wirkt auf die Erde wie ein Mantel, der während der Nacht die Abstrahlung von Wärme in den Weltraum behindert. Das ist der Treibhauseffekt. Es gibt aber noch ein viel potenteres Treibhausgas in der Atmosphäre, nämlich das Wasser, dessen Konzentration in der Luft stark variiert und von der Temperatur abhängt (siehe auch hier).

Das macht den Nachweis der Wirkung von CO2 sehr schwierig, und es gibt Argumente, die dagegensprechen, dass CO2 die Erderwärmung verursacht. So etwa die Tatsache, dass auf der Südhalbkugel und besonders in der Antarktis kaum Erwärmung beobachtet wurde, obwohl es da genau so viel CO2 gibt wie anderswo.

These 4 ist der Knackpunkt von Global Warming. Heerscharen von Klimaforschern arbeiten daran zu beweisen, DASS sie stimmt. Wohlgemerkt: sie untersuchen nicht, OB die These stimmt, wie ein Wissenschaftler es täte.

These 5: Die Erwärmung gefährdet Mensch und Tier

Zu dieser Behauptung ist die Berichterstattung einseitig und teils auch gefälscht. Die Achse des Guten hat hier dazu berichtet. Und wenn ich von „Klimaflüchtlingen“ aus Afrika höre, dann habe ich meine Zweifel, ob die Bewohner der Slums (z.B. in meiner weiteren Nachbarschaft) wirklich wegen ein paar Zehntel Grad Celsius das Land verlassen, oder eher vor der verheerenden Armut und Kriminalität flüchten, hin zu einem Ort, von dem sie sich menschenwürdigere Bedingungen erhoffen.

These 6: Um zu überleben muss CO2 gestoppt werden

Fakt ist, dass in den rund 40 Jahren seit der ersten Klimakonferenz der globale Ausstoß an CO2 sich verdoppelt hat.  Diese gigantische Diskrepanz zwischen den angeblichen globalen Anstrengungen (Klimakonferenzen, CO2-Abgabe, permanente Berieselung der Weltbevölkerung mit dem Thema) und dem totalen Verfehlen des gesteckten Ziels von These 6 sollte selbst im treuesten Anhänger des klimatischen Mainstreams Zweifel wecken.

Wieso sind die Mächtigsten der Welt nicht in der Lage auch nur einen winzigen Erfolg zu erzielen? Zweifeln sie selbst am Wandel des Klimas? Zweifeln sie – so wie viele andere – dass ein paar Grad den Weltuntergang auslösen?  Nehmen sie den ganzen Zirkus selbst nicht ernst und spielen in Wahrheit ein ganz anderes Spiel?

Lassen Sie sich nicht in den Treibsand locken

Die Aufzählung dieser sechs Thesen soll als Denkstruktur zum Thema Klimawandel dienen, der demnächst wieder in Medien und Diskussionen im Vordergrund stehen wird. Und sie soll die Methode der “intelligenten Unterscheidung” an einem konkreten Beispiel zeigen.

Wenn Ihnen beispielsweise jemand erklärt: „Die deutsche Energiewende ist ein zentraler Beitrag zu den Klimazielen!“, dann lassen Sie sich nicht in den Treibsand ziehen.  Sie gehen im Geiste die sechs Punkte durch und fragen: „in welcher Hinsicht?“ „Ja, das CO2 wird doch vermieden:“, „Aber hat das Abschalten der AKWs nicht genau das Gegenteil bewirkt?“

Wie zutreffend diese sechs Thesen nun im Einzelnen sind, darüber müsste man ein ganzes Buch schreiben. Ich habe es getan. Vielleicht interessiert es Sie ja.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.

 




Wie zuverlässig sind die ermittelten Globaltemperaturen der letzten 170 Jahre?

Jedes Messergebnis wird unter speziellen Messbedingungen erzielt. Diese sind möglichst konstant zu halten und stets anzugeben. Das Messresultat ist immer mit einer Messunsicherheit (Messabweichung, veraltet: Fehler) behaftet.

Die für Messungen verwendeten Messgeräte wurden im Laufe der Zeit immer genauer.
Problematisch war in der 2. Hälfte des 20. Jahrhunderts der Übergang von Analog-Anzeigen auf Digitalanzeigen. Die digitale Anzeige von Messergebnissen gaukelt oft dem ungeschulten Anwender eine Genauigkeit vor, die nicht vorhanden ist. Liegt beispielsweise die abgelesene Spannung von 12,62 V an den Messpunkten an, die wir ablesen? Oder fahren wir tatsächlich die 88 km/h, die uns der Digital-Tacho anzeigt? Nein, Messungen sind immer mit Messabweichungen behaftet. Im allgemeinen Sprachgebrauch wird für eine Messabweichung meist (noch) der Begriff Messfehler oder kurz Fehler verwendet. Jedoch empfehlt z.B. die DIN-Norm 1319, diesen Begriff durch den der
(Mess-)Abweichung zu ersetzen.

Abb 1:  Welcher Waage vertrauen wir mehr?  Analog oder Digital…
Bild links: Frank C. Müller, Personenwaage fcmCC BY-SA 4.0, Bild rechts: Digital-Personenwaage (Bild ohne Lizenz)

1.2.) Kalibrieren und Eichen
Kalibrieren bzw. Eichen (Eichamt) ist der Vergleich einer bezifferten Skala mit einem Normal. Jedes Messgerät (Messeinrichtung), das auf einem physikalischen Messprinzip beruht, muss an ein Sekundär- oder Primär-Normal mit geringerer Messunsicherheit gekoppelt sein. Kalibrierte bzw. geeichte Messgeräte sind somit mit geringeren Messunsicherheiten behaftet. Trotzdem sind Messungen mit diesen Geräten nicht fehlerfrei. Es verbleibt die Messunsicherheit des Gerätes und die Fehleranfälligkeit durch die messende Person.

Als Erkenntnis dieser Einleitung sollte erreicht werden, dass der Leser an fremde Messergebisse kritisch herangehen sollte. Informationen zu den Messgeräten, den Mess-Bedingungen, Anzahl der Messungen, u.s.w. sind unerlässlich. Deutlich ausgedrückt: Ohne Zusatzinformationen sind Messergebisse wertlos! Weitere Informationen in den nächsten Kapiteln. Diese grundlegenden Voraussetzungen werden in den folgenden Kapiteln auf die Zuverlässigkeit der Global-Temperatur-Daten angewendet.

2.) Art der Messabweichungen

2.1.) Zufällige Messabweichungen
Zufällige Messabweichungen entstehen aufgrund nicht beherrschbarer, nicht determinier- ter Einflüsse. Sie sind nicht vorausbestimmbar. Werden die Messungen am selben Messobjekt unter gleichen Bedingungen wiederholt, führen sie zur Streuung der Messwerte. Deshalb lassen sich diese zufälligen Messabweichungen sehr gut mit mathematisch statistischen Methoden ermitteln und eingrenzen. Diese Methode soll jedoch nicht innerhalb dieses Aufsatzes behandelt werden. Es gibt hierzu genügend gute Fachliteratur.

2.2.) Systematische Messabweichungen
Systematische Messabweichungen haben einen konstanten Betrag mit einem bestimmten Vorzeichen oder unterliegen nur einer sehr langsamen Veränderung aufgrund einer Ursache, die die Messgröße nur in eine Richtung verändert. Sie führen zu einer immer gleichen, zeitlich konstanten Differenz des Messwerts vom wahren Wert, d. h. zu einem „falschen“ Messergebnis. Systematische Messabweichungen sind durch Wiederholungen der Messungen unter gleichen Bedingungen nicht erkennbar!

3.) Temperatur-Messungen

Die Bestimmung der genauen Temperatur eines Systems ist trotz der alltäglichen Anwendungen keine triviale Sache – jedenfalls nicht, wenn man es genau nimmt. Im Gegenteil, die genaue Temperatur-Messung ist eine besondere Herausforderung. Eine Vielzahl von Unwägbarkeiten beeinflussen eine exakte Messung: Richtiges Thermometer für die jeweilige Anwendung, Genauigkeit des Thermometers, Sorgfältigkeit der Messung, äußere Einflüsse wie Licht oder Wärmestrahlung, u.s.w.. Einfach formuliert, die möglichen systematischen Fehler sind zahllos. Temperaturmessungen sind häufig falsch.

3.1.)  Definition der Temperaturmessung
Sämtliche Verfahren zur Bestimmung der Temperatur eines thermodynamischen Systems durch Vergleich mit einer Temperaturreferenz, z.B. dem Thermometer. Hierfür können im Prinzip jegliche physikalischen Größen (z.B. Länge, elektrischer WiderstandStrahlungsgrößen) oder chemischen Eigenschaften (z.B. Temperatur-Messfarben) verwendet werden, die sich mit der Temperatur gesetzmäßig ändern.

3.2.)  Arten von Thermometer
Die Zahl der unterschiedlichen Arten von Thermometern ist nahezu unüberschaubar. Prinzipiell wird unterschieden zwischen Berührungs-Thermometern und Thermometern, die auf berührungslosen Verfahren beruhen. Die Diskussion zu den unterschiedlichen Arten von Thermometern würde den Rahmen dieses Aufsatzes sprengen.

4.) Temperatur-Messung in der Meteorologie / Klimatologie

Inzwischen nähern wir uns der eigentlichen Fragestellung zur „Zuverlässigkeit der Temperatur-Messdaten der letzten 170 Jahre“. Betrachten wir die Fakten zur Ermittlung der mittleren Global-Temperaturen in diesem Zeitraum. Doch zunächst 2 entscheidende Begriffs-Definitionen.

4.1.)  Direkte Messung durch Thermometer
Viel Menschen haben schon eine meteorologische Mess-Station gesehen. Seit dem 17. Jahrhundert (England) werden weltweit regelmäßig verschiedene Parameter des Wetters gemessen. Insbesondere ab dem 19. Jahrhundert sind Mess-Stationen in vielen Ländern weit verbreitet. Hauptzweck ist es, die Daten-Grundlage für die lokale Wetter-Vorhersage zu erlangen. Nicht zu vergessen die Einsätze von Wetter-Ballonen oder Flugzeugen durch Meteorologen. Dadurch wird es möglich, auch Daten von unterschiedlichen Luftschichten der Atmosphäre zu erhalten.

Abb. 2:  DWD-Wetterwarte bei Weiden/Opf. (Bild: ohne Lizenz)

 

4.2.)  Indirekte Messung durch Proxy-Daten

Die meisten Leute werden sich bei der aktuellen Klimawandel-Diskussion fragen: Woher kommen eigentlich die Temperatur-Daten aus dem Mittelalter, aus dem Römischen Zeitalter, viele Jahrtausende oder 100 Tausende oder sogar Millionen Jahre zurück? Da gab es keine Thermometer bzw. gar keine Menschen! Wie ist das möglich?

Natürlich wurden die Temperaturen bei den Römern nicht direkt gemessen, sie hatten definitiv noch keine Thermometer. Hier sprechen die Forscher von so genannten Proxy-Daten. Das sind Temperatur-Daten, die durch indirekte Messungen erhalten werden. „Proxy-Daten“ ist ein Sammelbegriff für Informationen, die indirekt Auskunft über vergangene Klimaverhältnisse geben. Proxydaten erhalten wir aus Baumringen und Wachstumsringen in anderen Organismen (wie Korallen), Isotopenmessungen in Eisbohrkernen oder Sedimenten, oder biologische Proben wie etwa Pollenanalysen.

 5.) Zuverlässigkeit der Temperatur- Daten

 5.1.) Zuverlässigkeit der Proxy-Daten
Proxy-Daten werden grundsätzlich über längere Zeiträume der Erd-Vergangenheit ermittelt.Zum Beispiel bei Baumringen hunderte von Jahren oder Eisbohrkerne 10 Tausende von Jahren. Die große Stärke der Proxy-Daten-Ermittlung liegt in der in sich abgeschlossenen Methodik, der Konsistenz der Daten. Nehmen wir als Beispiel die zeitliche Abfolge der Schichten in Eisbohr-Kernen. Alle Proben werden an einer Stelle eines Gletschers bzw. eines Inlandeis-Panzers entnommen, gleich aufbereitet und mit derselben Methode gemessen. Vorausgesetzt, es werden keine groben Fehler gemacht, sind die Ergebnisse in sich konsistent und zuverlässig. Die besondere Stärke liegt in der guten Genauigkeit der relativen Änderungen innerhalb der jeweiligen Messreihen. Die Ermittlung der absoluten Temperatur im betrachteten Zeitraum ist kaum möglich.

5.2.) Zuverlässigkeit der direkt gemessenen Temperaturen seit 1850

Somit sind wir beim Hauptpunkt dieses Aufsatzes. Die gesamte Diskussion zum Thema „Klimawandel“ und „Erderwärmung“ basiert auf den Temperaturdaten der letzten 170 Jahre. Warum wird immer auf das Jahr 1850 referenziert? Der Zeitraum rund um das Jahr 1850 gilt als der Startpunkt der industriellen Revolution. Sozusagen der Beginn allen Übels bei vielen Protagonisten. Doch wie zuverlässig sind die weltweit direkt gemessenen Daten der letzten 170 Jahre? Das soll in den folgenden Kapiteln behandelt werden.

6.) Pseudo-Wissenschaft. „Gefahr“ durch Klima-Erwärmung.

Eine verbreitete Aussage bei den Physikern lautet „Wer viel misst, misst Mist“. Die Physik legt höchste Maßstäbe in die Ermittlung und Verarbeitung von Mess-Ergebnissen. Deshalb sind Physiker auch besonders kritisch, wenn sie Messungen in anderen Fachgebieten der Naturwissenschaft und Ingenieurs-Wissenschaften beurteilen.

 6.1.) Ivar Giaever bezeichnet die Klimawissenschaft als Pseudo-Wissenschaft.

Der hoch angesehene norwegisch amerikanische Physiker und Nobelpreis-Träger Ivar Giaever bezeichnete in dem viel beachteten Gast-Vortrag während des Nobelpreisträger-Treffens von 2012 in Lindau die Klimawissenschaft, basierend auf den seit 1850 ermittelten jährlichen Durchschnitts-Temperaturen der Erde, als Pseudo-Wissenschaft. Die Begründung ist nicht von der Hand zu weisen. Selbstverständlich verunglimpfen die „Klima-Alarmisten“ diese Position und versuchen die Argumente und Beweise von Giaever klein zu reden. Es sei betont, dass die nachfolgend beschriebenen Giaever-Kritikpunkte grundsätzlichen wissenschaftstheoretischen Prinzipien entsprechen. Andere Schlussfolgerungen wurden von ihm durch konsequent logische Denkweise erarbeitet.

Abb. 3:  Ivar Giaever, Physik-Nobelpreisträger und Klima-Kritiker  [1;2]. Bildlizenz: NTNU VitenskapsmuseetIvar Giæver, verkleinert von Dr. Andreas Karl, CC BY 2.0

 

Giaevers Hinweise und Kritikpunkte sind vielschichtig, gleichzeitig typisch für einen Physiker, der über den eigenen Tellerrand hinausschaut.

 6.2.) Ivar Giaevers Argumente und Beweise.

Außerordentlich bemerkenswert ist die Grundposition, mit der Giaever an die Thematik heran geht. Eigentlich interessierte ihn das Thema Klimawandel nicht. Er wurde gebeten dazu einen Gast-Vortrag in Lindau zu halten. Alleine diese Haltung, den Sachverhalt von außen als neutrale Person zu analysieren, spricht Giaever von Parteilichkeit frei. Er betrachtet die Fakten und Daten als kritischer Physiker, der sein gesamtes Wissenschaftler-Leben seine eigenen und fremde Mess-Ergebnisse bewerten musste. Sein Urteil ist vernichtend. Der Umgang und die Bewertung der gemessenen Temperaturen der Klimaforschung sei eindeutig eine Pseudowissenschaft.

6.1.1.) Grundsätzliche Kritik an der Genauigkeit

Giaevers Grundkritik besteht zunächst in der Angabe von zehntel Graden bei den Temperaturen zur Erderwärmung im Betrachtungs-Zeitraum. Eine angebliche Erwärmung von weniger als 1,5°C in 170 Jahren sei eine höchst erstaunliche Kontinuität des Klimas, völlig unabhängig von den Ursachen der Erwärmung. Die Temperatur-Angabe mit einer Auflösung von 0,1°C ist messtechnischer und physikalischer Unsinn.

Dazu ein treffendes Zitat des Mathematik-Genies Carl Friedrich Gauß: „Durch nichts zeigt sich mathematischer Unverstand deutlicher als durch ein Übermaß an Genauigkeit im Zahlenrechnen.“ Die Naturwissenschaft spricht bei der Verwendung von Messwerten von „Signifikanten Stellen“. Der korrekte Umgang mit Messwerten bezüglich der signifikanten Stellen wird sogar in der DIN 1333 beschrieben. Der Autor dieses Aufsatzes hatte in seinem Studium ein prägendes Erlebnis zu diesem Thema. Der damalige Physik-Professor kündigte im Vorfeld der Physik-Vordiplom-Klausur an: „Prüflinge, die den Rechenweg und das Ergebnis einer Aufgabe korrekt erarbeitet haben, jedoch das Ergebnis mit zu vielen signifikanten Stellen angeben, bekommen Punktabzug.

6.1.2.) Unterschiedliche Thermometer vor Ort und im Laufe der Zeit

Giaever kritisiert zu Recht, es sei mehr als naiv zu glauben, die auf der Welt verteilten Thermometer (Abb. 3) seien alle von gleicher Qualität und zeigen alle die korrekte Temperatur an. Dazu kommt die technische Entwicklung der letzten 170 Jahre. Selbst die optimistischste Phantasie reicht nicht aus zu glauben, all die weltweit über viele Jahrzehnte tausende Thermometer seien im Laufe der Zeit gleich genau und gleich zuverlässig gewesen.

Abb. 4: Thermometer (17. Jhdt.) und modernes Infrarot-Thermometer. Bildlizenzen: Links: Ferdinand II de‘ Medici [attr.] Museo GalileoTermometri cinquantigradi inv 85 IF 46774CC BY-SA 4.0. Rechts: Hedwig Storch1024 Pyrometer-8445CC BY-SA 3.0

 

6.1.3.) Ungleiche Verteilung der Thermometer auf der Erde

Alleine die Tatsache der ungleichmäßigen Verteilung der meteorologischen Mess-Stationen über die Erdoberfläche reicht aus, die Berechnung einer fiktiven Durchschnitts-Temperatur der Erde als unrealistisch bzw. unmöglich zurückzuweisen. Abbildung 4 zeigt die Häufung der Mess-Stationen auf der nördlichen Erdhalbkugel und den Industrie-staaten. Weite Bereiche Afrikas, Südamerikas, Kanadas, Grönlands und von Sibirien werden nicht abgedeckt. In der Antarktis, die einen großen Einfluss auf das Erdklima hat, gibt es nur wenige Stationen an der Küste.

Abb. 5: Verteilung meteorologischer Mess-Stationen auf der Erde im 21. Jhdt. [3;4]

 

Abb. 6: Gemeldete Wetterwerte für die Woche vom 2. bis 8. Januar 2000 (Schiffe) [3;4]

 

Ca. 70% der Erde sind mit Wasser bedeckt. Wie die Forschungen der letzten Jahrzehnte ergeben haben, spielen die Ozeane eine entscheidende Rolle für das Klima der Erde. Entgegen der meteorologischen Bedeutung der Ozeane ist die dort die Abdeckung der Mess-Stationen nur mangelhaft. Sowohl in Abbildung 5 als auch in Abbildung 6 ist zu erkennen, welche riesigen Lücken nicht durch Messungen abgedeckt werden. Abbildung 7 zeigt die zeitliche Entwicklung der über die Erde verteilten Mess-Stationen über einen Zeitraum von 100 Jahren.

Abb. 7: Meteorologische Mess-Stationen von 1885-1985 [3;4]

 

6.1.4.) Veränderungen im Umfeld von Mess-Stationen und deren Einfluss auf
die gemessenen Temperaturen.

Beispiele: Eine Mess-Station lag 100 Jahre außerhalb einer Stadt, inzwischen ist die Stadt um die Station herum gewachsen. Nahe einer Mess-Station gab es keinen nennenswerten Bewuchs, dann wurde in der Nähe ein Wald aufgeforstet. In 30m Entfernung einer Mess-Station wurde ein Gebäude errichtet. Die Liste solcher Beispiele kann beliebig verlängert werden. Niemand ist in der Lage, die veränderten Einflüsse aus der unmittelbaren Umgebung der Mess-Stationen zu bewerten und einzurechnen. Ein Argument Giaevers, das sicherlich einen großen Einfluss auf den Fehler in der zeitlichen Betrachtung hat.

6.2.) Giaevers philosophische Grundsatz-Kritik zur Klima-Diskussion

Ivar Giaever begnügt sich nicht mit den reinen Sachargumenten oder den Beweisen, die er vorgelegt hat. Er blickt tiefer, macht sich grundsätzliche Gedanken zur Klima-Debatte. Seine im Folgenden beschriebenen Überlegungen haben den Autor dieses Aufsatzes am meisten beeindruckt und gleichzeitig überzeugt.

Giaever blickt auf die Welt als Gesamtes und auf sich als Person. Alles und jeder ist betroffen von Veränderung und Alterung, das kann niemand bestreiten. Er fragt, warum in den meisten Bereichen der politischen und gesellschaftlichen Diskussion die Dinge sich nur zum Negativen bewegen, immer wieder negativ, negativ. Niemand kann bestreiten, dass die Entwicklung der Menschheit seit 1850 einen positiven Weg genommen hat. Die Menschen leben angenehmer, sicherer, Hungern weniger und werden älter. Was soll so negativ an der Temperatur-Entwicklung sein? Wer sagt uns, was die „Optimale Temperatur auf der Erde ist? Wie bereits gesagt, alle Klimaforscher referenzieren auf die Temperatur um 1850. Es ist absolut unwahrscheinlich, dass ausgerechnet diese Temperatur optimal gewesen sein soll. Im Gegenteil, die Klimatologen sprechen vom Römischen Temperatur-Optimum und dem Mittelalterlichen Temperatur-Optimum.

6.3.) Ergänzende Informationen zur Klimaerwärmung (CO2-Einfluss)

Die Zeit um 1850 gilt als das Ende der „Kleinen Eiszeit“, eine Kaltperiode über ca. 400 Jahre innerhalb der aktuellen Eiszeit. Anders formuliert: Um 1850 begann eine Warmphase innerhalb der aktuellen Eiszeit. Gleichzeitig begann um das Jahr 1850 auch die industrielle Revolution (s. unter 5.2.). Folgt nach einer Kaltperiode eine Warmzeit, so muss sich die Erde auch ohne Zutun des Menschen erwärmen. Eine einfache und logische Schlussfolgerung. Schließlich wurde die kleine Eiszeit ja nicht vom Menschen verursacht. Das IPCC (Klimawandel-Organisation der UNO) behauptet jedoch seit 2016, dass die gesamte Erderwärmung seit 1850 ausschließlich auf die Wirkung des anthropogenen CO2 zurückzuführen ist. Mit massiven Auswirkungen auf die Wirtschaft und Energie-Politik der jeweiligen Staaten. Leider ist ausgerechnet Deutschland der Protagonist dieser unsäglichen Ideologie.

Abb. 8: Veröffentlichung von Patrica Adams [5]

 

Was die „Klima-Alarmisten“ der religiös anmutenden Glaubensgemeinschaft übersehen, ist die Entwicklung in den entscheidenden Ländern Indien und China. Beide haben dem Pariser Klima-Abkommen zugestimmt, sind jedoch berechtigt bis 2050 soviel CO2 auszustoßen, wie sie wollen. Patricia Adams hat kürzlich einen Aufsatz mit dem treffenden Titel „THE RED AND THE GREEN CHINA´S USEFUL IDIOTS“ veröffentlicht.

Mit der von der Politik ausgerufenen Energiewende in Deutschland zerstören wir unsere sichere und unabhängige Energie-Versorgung. Hierzu gibt es viele Veröffentlichungen von unabhängigen Wissenschaftlern, Ökonomen und Ingenieuren. Am bekanntesten ist wohl der ehemalige Chef des ifo-Instituts Prof. Hans-Werner Sinn. Er warnt seit vielen Jahren vor dem Umbau der deutschen Strom-Versorgung hin zu einem Übermaß an regenerativer Stromerzeugung.

6.4.) Stimmen anderer Wissenschaftler

Es gibt auch Wissenschaftler, die sich in Veröffentlichungen kritisch zur Problematik der Ermittlung der mittleren Lufttemperatur der Erde in den letzten 170 Jahren geäußert haben. Verstärkt wird diese Kritik durch geachtete wissenschaftliche Stimmen, welche die Methodik der Temperatur-Ermittlung, das Verständnis des Klimas und den Ausblick auf die Zukunft des Klimas durch die Klimawissenschaftler mit ihren aufwändigen Computer-Modellen in Frage stellen. Dazu 2 ausgewählte Bespiele.

6.4.1.) Fundamentalkritik durch das Genie Freeman Dyson

Freeman Dyson (s. Abb. 9, links), der geniale Mathematiker und Physiker lehrte über 40 Jahre Jahre lang an der Princeton University am Lehrstuhl für Theoretische Physik. Sein Vorgänger auf diese Position war Albert Einstein. Leider ist Freeman Dyson am 28.02.2020 im Alter von 96 Jahren verstorben. In Amerika, sowie in naturwissen-schaftlichen Kreisen, galt Freeman Dyson als Genie. Wegen seiner freundlichen und humorvollen Art war er ein „Wissenschafts-Superstar“. In Interviews wusste er immer zu überraschen und sorgte für Heiterkeit. Andererseits war er kein Mensch, der gemütlich auf der Mainstream-Welle schwamm (s. Abb. 9, rechts).

Abb. 9  Freeman Dyson (2007) am Institute of Advanced Study. Bildlizenz: MonroemFreeman dysonCC BY-SA 3.0 

 

Bereits Ende der 60er-Jahre und Anfang der 70er-Jahre war Dyson an den ersten Computer-Modellrechnungen zur Darstellung und Voraussage des Wetters beteiligt. Kein Wissenschaftler auf der Welt kann diese jahrzehntelange Erfahrung auf diesem Gebiet vorweisen. Kaum jemand kennt die Stärken und Schwächen der Klima-Vorhersage besser als er. In vielen Interviews der letzten 15 Jahre wurde er zu seiner Position in der Diskussion zum Klimawandel befragt. Seine Haupt-Thesen stellte er folgendermaßen (hier vereinfacht) dar:  1.) Die Wissenschaft ist noch nicht annähernd in der Lage die Komplexität des Wetters und des Klimas zu verstehen. Viele Fragen zur Wolkenbildung, der Rolle der Ozeane, Einflüsse der Sonne, usw. sind ungeklärt.  2.) Versuche, das Klima über längere Zeiträume vorauszusagen, müssen zwangsläufig scheitern. 3.) Der Einfluss des anthropogenen CO2 zur Erderwärmung der letzten 170 Jahre wird überbewertet. Dagegen werden die positiven Effekte der gestiegenen CO2-Konzentration in der Atmosphäre nicht ausreichend berücksichtigt.

6.4.2.) Positive Auswirkungen der erhöhten CO2-Konzentration

Die USDA (U.S. Department of Agriculture) meldet seit vielen Jahren eine stetig steigende weltweite Getreideernte. Diese Meldungen beschränken sich nicht auf nur auf die weltweite Weizenernte (s. Abb. 10) sondern sind für alle wichtigen Getreidearten wie Reis, Gerste, Mais oder Soja zu beobachten. Wo sind die Auswirkungen der Hitzeperioden, Trockenperioden, Stürmen und Hochwasser, wie sie von den Klima-Alarmisten propagiert werden? Fakt ist, CO2 ist der mit Abstand beste Pflanzendünger.

Abb. 10  Weltweite Weizenernte der letzten 20 Jahre (Quelle: USDA)

 

Abb. 11  Bild aus einer NASA-Studie von 2016 „Carbon Dixoide Fertilisation, Greening Earth“ [6]

 

Eine NASA-Studie aus 2016 belegt eindeutig den Düngungs-Effekt durch vermehrtes CO2 in der Atmosphäre. Die Satelliten-Daten (s. Abb. 11) zeigen einen unerwarteten und höchst erstaunlichen Effekt. Die Erde wird grüner! Dank der erhöhten CO2-Konzentration wachsen die Pflanzen besser und schneller, die Wüsten der Erde werden kleiner.

Die Weltbevölkerung steuert bald auf 8 Mrd. Menschen zu. Deshalb sollte die Welternährungs-Organisation der UNO (FAO) eine Studie in Auftrag geben, wieviel Menschen die Erde im Jahr 1850 mit einer CO2-Konzentration von 280 ppm im Vergleich zu heute mit einer CO2-Konzentration von 410 ppm hätte ernähren können. Eine spannende Frage, zumal das Jahr 1850 als „gute“ vorindustrielle Zeit gilt. Die Klima-Alarmisten fordern doch die Rückkehr zu den CO2-Werten der Atmosphäre vor 170 Jahren.

6.4.3.) Bewertung der Temperaturdaten durch Pat Frank

Unterhalb des Radars der Öffentlichkeit wird der der Druck im „Schnellkochtopf“ der Klimawandel-Diskussion immer größer. Die klimakritischen, nicht IPCC-konformen wissenschaftlichen Papers sind von Jahr zu Jahr in größerer Anzahl zu vermelden. Bisher schaffen es jedoch die gleichgeschalteten Medien, besonders in Deutschland, diese Informationen gut unter den Teppich zu kehren. Nur Leute, die bewusst nach nicht klima-alarmistischen Informationen suchen, werden fündig. Ansonsten ist die Meinungs-Hoheit  fest in der Hand der Mainstream-Medien.

Abb. 12  Bewertung der Messfehler bei den durchschnittlichen weltweiten Temperaturen nach Pat Frank

 

Was in diesem Aufsatz eher qualitativ bewertet wurde, hat Pat Frank bereits 2010 und 2011 in 2 interessanten Veröffentlichungen quantifiziert. Er untersuchte die vorliegenden Temperaturdaten nach mathematisch physikalisch Prinzipien auf Zuverlässigkeit. Seine Ergebnisse sind in einem Diagramm zusammengefasst (s. Abb.12).

Quellen: Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surf

Die Schlussfolgerungen von Pat Frank zu den Fehlergrößen der Temperatur-Messungen in den letzten 170 Jahren sind logisch und nachvollziehbar. Dabei kommt es nicht darauf an, ob der Fehlerbalken 0,46K (s. Abb. 12) groß ist, etwas größer oder kleiner. Entscheidend ist die Erkenntnis, dass die Darstellungen in allen wissenschaftlichen Veröffentlichungen und in den Medien deutlich fehlerbehaftet sind.

Abb. 13: The black line shows the global annual average land-surface air temperature anomalies from 1856 to 2013 from the CRUTEM4 dataset (data here in this format). The grey area shows the 95% confidence range on the annual averages. [7]

Mit großer Wahrscheinlichkeit sind die einheitlichen Fehlerbalken von Pat Frank über den gesamten Zeitraum von 170 Jahren nicht durchgehend realistisch. Die messtechnischen Entwicklungen und bessere Verteilung der Mess-Stationen über die Erde im Laufe der Zeit werden von ihm nicht berücksichtigt. Realistischer dürfte die Abschätzung des englischen Metoffice-Instituts sein (Abb. 13). Die Fehlerbalken sind im 19. Jahrhundert groß und werden im Laufe der Zeit kleiner. Eine Darstellung, die wesentlich besser die Argumente in den vorhergehenden Kapiteln dieses Aufsatzes berücksichtigen.

7.) Schlussfolgerungen

Die Grundlage aller Argumente und Schlussfolgerungen des IPCC, der Klima-wissenschaftler und Klima-Alarmisten sind die verfügbaren weltweiten Durchschnitts-Temperaturen seit 1850. Die Zeit zu Beginn der Industrialisierung ist sozusagen der „Absolute Nullpunkt“ für die Temperatur-Entwicklung auf unserer Erde. Dieser Bezugspunkt wurde gewählt, weil ab dort die Menschheit relevant zum Anstieg der CO2-Konzentration in der Atmosphäre beigetragen hat. Der so genannte anthropogene CO2-Anteil. Was nützten starke Mauern, massive Zwischendecken und ein festes Dach, wenn das Fundament eines Gebäudes zu schwach ausgelegt ist? Fakt ist, die verfügbaren Temperaturdaten (Fundament) sind fehlerbehaftet. Die Fehlergröße bewegt sich in einem Bereich, wo eine Referenzierung auf diese Daten wissenschaftlich keinen Sinn macht. Alle noch so großen Anstrengungen der Klimawissenschaftler mit ihren immer leistungsfähigeren Großcomputer werden die Simulationen zur Zukunft des Erdklimas nicht verbessern. Die Datenbasis ist schlecht, die Kenntnisse über das hoch komplexe Klima immer noch gering (Freeman Dyson). Deshalb bleibt die Klimawissenschaft, die einzig auf die Wirkung des anthropogenen CO2 abzielt, eine Pseudo-Wissenschaft.

Referenzen:

[1]  Ivar Giaever, The Strange Case of Global Warming, 2012 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

[2]  Ivar Giaever, Global Warming Revisited, 2015 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

[3]   Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface
air temperature index: representative lower limit

[4]  Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and
Neglected Uncertainty in the Global Average Surface

[5]   Patricia Adams in GWPF, 2020   https://www.thegwpf.org/content/uploads/2020/12/Green-reds.pdf?utm_source=CCNet+Newsletter&utm_campaign=ac7e32fda3-EMAIL_CAMPAIGN_2020_12_11_10_30_COPY_01&utm_medium=email&utm_term=0_fe4b2f45ef-ac7e32fda3-36485917&mc_cid=ac7e32fda3&mc_eid=a769d95777

[6]  https://www.nasa.gov/feature/goddard/2016/carbon-dioxide-fertilization-greening-earth

[7]  Metoffice:  https://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/comparison.html

Der Beitrag erschien zuerst bei Die Kalte Sonne hier

Über den Autor:

Andreas Karl, ist promovierter Diplom-Chemiker (Organische Chemie)  55 Jahre alt, verheiratet, 3 erwachsene Kinder und auch schon stolzer Opa.
Lebt in der Mittleren Oberpfalz. Seit der Uni-Ausbildung nicht mehr in der Forschung tätig, hat jedoch nie den Bezug und das Interesse an Naturwissenschaft und Technik verloren. Seit ca. 2 Jahren großes Interesse zum Thema „ Klimawandel“. Arbeitet im Vertrieb bei einem großen Chemie-/ Pharma-Konzern.

Anmerkung der Redaktion

Es sei auch in diesem Zusammenhang auf die grundlegenden Arbeiten unseres Vizepräsidenten Michael Limburg verwiesen. Der sie im März 2010 über seine offiziell eingereichte Dissertation  der Öffentlichkeit vorstellte. Wer sie nachlesen möchte mag dies hier tun.



Klimadebatte: Alarmismus auf Grund irreführender Daten

Einführung

Im Beitrag III behandelten wir den für das Klima wesentlich bestimmenden Einfluss der Sonneneinstrahlung. Die Forschungen von Scafetta und Wilson (siehe Beitrag III) ergaben eine Steigerung des mit TSI bezeichneten Wertes (Total Solar Irradiance = gesamte Sonneneinstrahlung) bis zum Jahr 2000; seither nimmt der TSI langsam wieder ab. Der Astrophysiker Inceoglu klassifiziert die Periode von 1915 bis 2000 als “Grand Solar Maximum”, das ist die Bezeichnung für eine Warmzeit. Seit dem Jahr 2000 reduziert sich die Sonneneinstrahlung wieder langsam und bewegt sich in Richtung eines “Solar Minimum”. Wenn davon noch nichts feststellbar ist, hat das damit zu tun, dass die Erdtemperatur auf die Abnahme des TSI erst nach etwa 16 bis 20 Jahren reagiert, weil einerseits die im Meerwasser gespeicherte Wärme und anderseits die Variationen der verschiedenen Strömungsoszillationen wie z.B. El Nino zu berücksichtigen sind. In Bild 1 sind die globalen Temperatur-Verläufe der unteren Troposphäre durch Satelliten zwischen 2004 und bis Ende 2019 dargestellt.

Der Wert von Ende April 2020 mit + 0.38° C ist auch angegeben. (UAH Satellite-Based Temperature of the Global Lower Atmosphere- Version 6.0.)  Der auf Bild 1 angegebene Mittelwert der globalen Temperatur-Anomalie der letzten drei Jahre zeigt einen Hochstand 2017 und 2018, um danach wieder abzufallen. Es ist aber zu früh, daraus einen eindeutigen Trend abzulesen. Die Spitze der kontinuierlichen Temperatur-Erhöhung scheint aber gebrochen zu sein.

Mit grosser Wahrscheinlichkeit befinden wir uns in einer Übergangsperiode, die zu einem “Solar Minimum“ führen wird, die ähnlich sein wird wie die seinerzeitigen Dalton- oder Maunder-Minima. Sie waren von einer starken Abkühlung gekennzeichnet.

Picture 1

Bild 1: Mittelwert der globalen Temperatur-Anomalie

Nachstehend werden wir von 5 Frühindikatoren berichten, die auf eine kommende Klima-Abkühlung hinweisen. Es handelt sich um:

  • Zunahme der Trockenheit,
  • Zunahme der Schneemengen,
  • Zunahme der kosmischen Strahlen,
  • Reduktion des landwirtschaftlichen Ertrags,
  • Abnahme des «Thermosphere Climate Index».

Es sind dies Phänomene, über die das IPCC hinwegsieht, weil es sich ausschliesslich auf CO2-Modellrechnungen konzentriert.

  1. Zunahme der Trockenheit

In unseren Mainstream-Medien war im Zusammenhang mit der Covid-19-Pandemie zu lesen: Die Klimakrise mache keine Pause, der schon jetzt trockene Frühling belege das. Oder aber schlimmer als die Seuche sei nur der Klimawandel mit der dazu gehörenden Trockenheit. Die NZZ führt einen neuesten Artikel von A.P. Williams et al. “Large contribution from anthropogenic warming to an emerging North American megadrought“ an, in dem behauptet wird, die Dürre stehe mit der Klima-Erwärmung in direktem Zusammenhang und der Mensch sei daran mit 47% schuldig. Mit keinem Wort wird auf die physikalischen Gesetze des Wasserkreislaufs eingegangen, welche das Verhältnis von Verdunstung und Niederschlag bestimmen.

Die Erdoberfläche besteht zu 71% aus Wasser; bei diesem hohen Prozentsatz ist es naheliegend, bei Abkühlung einen Blick auf das “Verhalten” des Wassers zu werfen. Bei abnehmendem TSI und zunehmender kosmischen Strahlung verringert sich die Verdunstungsrate. Die reduzierte Verdunstungsmenge wirkt sich selbstverständlich auf die Niederschlagsmenge aus. Natürlich gibt es noch weitere Faktoren, welche die Niederschlagsmenge beeinflussen, sicher ist aber die minimale Menge an CO2 nicht das einzig Ausschlaggebende dabei.

Die Studie von Laurenz, Lüdecke und Lüning «Influence of solar activity changes on European rainfall» 1) zeigt eine positive Korrelation zwischen Niederschlag und Sonnenaktivität. Dabei wurde die Niederschlagsmenge in 39 europäischen Ländern in der Periode zwischen 1901 bis 2015 untersucht. Diese Periode entspricht dem “Grand Solar Minimum”, und das bedeutet: mehr “Sonne” führt zu mehr Regen.

Auch die Studie von Sun und Liu «Tree ring based precipitation reconstruction in the south slope of the middle Qilian Mountains, northeastern Tibetan Plateau, over the last millennium”2) mit Hilfe der Dendrochronologie eindeutige Resultate.

Picture 2

Bild 2: Solar Minima korrespondiert sehr gut mit verminderte Niederschläge

Bild 2 zeigt sehr deutlich, dass es während der 5 Solar Minima (O – Oort, W – Wolf, S – Spoerer, M – Maunder, D –Dalton) weniger geregnet hat und es aus diesem Grund Perioden mit grosser Trockenheit und Dürre gab. Das heisst aber nicht, dass nicht auch andere Auffälligkeiten stattgefunden hätten. Die Klimageschichte zeigt, dass es während Kaltzeiten auch Überschwemmungen, heftige Niederschläge, warme Kurzperioden mit hoher Feuchtigkeit gab. Immer wieder zeigt sich, dass vereinfachendes lineares Denken bei Klimafragen in die Irre führt.

Wenn man bei den vielen Waldbränden in Australien, Russland und Nord- und Südamerika “grosse Hitze” assoziiert, wird man der Komplexität der Phänomene nicht gerecht. Sehr wahrscheinlich handelt es sich um das Gegenteil von grosser Hitze, nämlich die ersten Anzeichen für eine beginnende Kaltzeit mit der dazugehörenden Niederschlags-Armut. Ausgetrocknete Erde und Vegetation erhöhen die Brandgefahr. Brandstifter, Brandrodungen, technische Defekte, ja nur schon Blitzeinschläge können zur Katastrophe führen. Hätte die Sonne, der Kosmos mehr Energie auf die Erdoberfläche emittiert, wären viele Gebiete auf der Erde viel feuchter und weniger brandanfällig.

  1. Zunahme der Schneemenge

Bild 3 zeigt die neuesten Angaben vom Finnischen Meteorologischen Institut zu den Schneemengen, die es in der nördlichen Hemisphäre gegeben hat (letzter Eintrag 13.Mai 2020). Entgegen der Prognose von IPCC zeigt sich hier, dass die Schneemengen markant zugenommen haben. Das spricht für einen Trend in Richtung Kaltzeit.

Picture 1

Bild 3: Schneemenge der nördliche Hemisphäre

Auch das Dänische Meteorologische Institut zeigt für Grönland eine Zunahme der Schneemengen im Vergleich zum Mittelwert in den Jahren 1981 bis 2010. In diesen nördlichen Ländern ist der Winter 2019/2020 im Vergleich zu früheren Perioden eindeutig kälter gewesen. Die Messungen des National Snow and Ice Data Center (NSIDC) ergaben, dass die arktische Meereisdecke in den letzten vier Jahren zugenommen hat. Nach Al Gore hätte der Nordpol seit 2014 eisfrei sein sollen! Das vorausverkündigte “Grand Solar Maximum 1915-2000” hat offensichtlich ausgedient. Der Trend geht in die Gegenrichtung zum Solar Minimum.

  1. Zunahme der kosmischen Strahlung

Professor Svensmark ist einer der führenden Physiker auf dem Gebiet der Klimaforschung im Zusammenhang mit kosmischer Strahlung. Er hat folgende These aufgestellt, die auch experimentell bewiesen ist:

Die kosmische Strahlung stammt nicht direkt von der Sonne, sondern von weiter entfernten Sternen. Sie ist aber insofern von der Sonne abhängig, als die Stärke des Magnetfeldes der Sonne ihre Intensität verändert. Wenn die Sonnenaktivität abnimmt, was aktuell der Fall ist, dann erhöht sich die kosmische Strahlung auf die oberen Luftschichten der Troposphäre. Dadurch werden Moleküle ionisiert, und es bilden sich mehr Kondensationskeime für Wolkenbildung. Durch diese Wolken werden mehr Sonnenstrahlen ins Weltall reflektiert und damit kommt weniger Energie auf die Erdoberfläche.

Der Wert der kosmischen Strahlen ist im Bild 4 ( www.spaceweather.com) gezeigt. Die Zunahme der kosmischen Strahlen 2014 bis 2919 ist rund 22 %. Der Trend ist leicht steigend.

Picture 3

Bild 4: Zunahme der Kosmischen Strahlen

  1. Abnahme der landwirtschaftlichen Erträge

In Beitrag IV hatten wir erwähnt, dass ein wichtiger Indikator für niedrigere Temperaturen die verminderte Fruchtbarkeit der Nahrungspflanzen ist. Der sogenannte Growing-Degree-Day-Index (GDD-Index) stellt den Zusammenhang fest zwischen der Wachstumsrate der Pflanzen und der Durchschnitts-Tagestemperatur. In den USA ist dieser Index zwischen den Jahren 2018 und 2019 um 12% gesunken. Das weist klar auf eine Abnahme der Temperatur hin an dem Ort, an dem die Pflanze wächst. Interessant ist auch die Nachricht aus den USA (vom “United States Department of Agriculture”), dass die Erträge bei Sojabohnen und Mais des Jahres 2019 sehr schlecht seien.

Auch in der Schweiz und in Deutschland, wo GDD-Indizes nicht gemessen werden, haben Regierungsstellen festgestellt, dass die landwirtschaftlichen Erträge als Folge der Trockenheit stark abnehmen. Das sei Folge des Klimawandels, und das wird meistens mit Klimaerwärmung gleichgesetzt. So eindeutig ist diese Gleichung aber nicht. Bei der Umstellung von Warmzeit (Solar Maximum) zu Kaltzeit (Solar Minimum) reduzieren sich die Niederschläge. Fast in allen Ländern der Welt ist in den Jahren 2018 und 2019 eine zunehmende Trockenheit festgestellt worden.

Die Folgen verminderter Erträge sind bereits an den steigenden Preisen für die vier wichtigsten Agrarrohstoffe (Weizen, Mais, Sojabohnen und Reis) feststellbar. Was das bedeutet, lässt sich daran ermessen, dass diese vier Rohstoffe zusammen 64 %des Kalorienbedarfs der Weltbevölkerung decken.

  1. Abnahme des «Thermosphere Climate Index» (TCI) 

Die Thermosphäre ist die vierte und zweitäusserste Schicht der Erdatmosphäre. Sie erstreckt sich etwa zwischen 100 bis 300 km über der Erdoberfläche. Die Temperatur schwankt zwischen 900° C bei “Solar Maximum” und 300° C bei “Solar Minimum”. Durch eine spezielle Instrumentierung auf einem NASA-Satelliten konnte die Infrarot-Strahlungsintensität gemessen werden. Daraus haben Wissenschaftler der NASA einen Index errechnet. Der Wert dieses Index (siehe www.spaceweather.com/services ) ist im Moment auf “cold – kalt”. Dies bedeutet, dass die Thermosphäre sich als Folge des aufziehenden “Solar Minimum” stark abkühlt. Dies wird sich mit Zeitverzögerung auf die Troposphäre auswirken. Auch hier gilt: wenn wir momentan auf der Erdoberfläche noch nichts davon spüren, heisst das nicht, dass unseren Sinnesempfindungen mehr zu trauen wäre als diesen wissenschaftlichen Untersuchungen

  1. Fazit

Im Moment ist die Aktivität der Sonne sehr schwach. Im Jahr 2019 waren 281 Tage ohne Sonnenflecken. Auch 2020 gab es bisher nur sehr wenige Sonnenflecken. Damit werden die Prognosen von Katiashvili immer wahrscheinlicher. Verzweifelt suchen die Mainstream-Klimatologen – wie im Falle von Williams über die Trockenheit – andere Katastrophen als die Erwärmung, um die Schuld den Menschen zuzuweisen, da auch sie vermuten, die globale Temperatur werde abnehmen.

In den nächsten vier bis sechs Jahren wird sich weisen, ob die Vorausberechnungen des sehr schwachen Sonnenzyklus 25 durch Katiashvili (NASA) zutreffend waren und ob darauf basierend die Berechnungen für den Zyklus 26 möglich werden. Erst dann lässt sich mit Sicherheit sagen, ob die Globaltemperatur abnimmt. Die hier erwähnten Frühindikatoren einer kommenden Abkühlung – Zunahme der Trockenheit, Zunahme der Schneemenge, Zunahme der kosmischen Strahlen, Abnahme der Landwirtschaftserträge und Abnahme des „Thermosphere Climate Index“ sprechen jedenfalls für eine Trendumkehrung. Wenn sich rasche Veränderungen in Richtung Kaltzeit ergäben, wären die geforderten Anpassungsleistungen allerdings erheblich.

Für die Energieversorgung gälte es zu prüfen, inwieweit der GREEN DEAL in der Lage wäre, die Energieversorgung sicherzustellen. Bei einer Kaltzeit würde das für die Schweiz bedeuten: weniger Hydroelektrizität, weniger Sonnen- und weniger Windenergie. Schon jetzt ist er EROEI (Energy Return on Energy Invested) bei der Photovoltaik so niedrig 3), dass das damit erkaufte gute Gewissen eigentlich nicht gerechtfertigt ist. Der EROEI-Wert der Erneuerbaren Energien wäre bei einer Kaltzeit noch ungenügender. Für Deutschland hätte dies eine Deindustrialisierung zur Folge. Wir werden dieses Thema nächstens behandeln.

Für die Landwirtschaft gälte es zu prüfen, ob der Selbstversorgungsgrad noch verbessert werden sollte und ob auf Biokraftstoffe zu verzichten wäre.

Die enormen Investitionen für den GREEN DEAL würden dann für Anpassungen an eine Kaltzeit fehlen und hätten eine drastische Abnahme des Wohlstands zur Folge.

F. Ferroni, Dipl. Ing. ETH

Präsident NIPCC-SUISSE

Referenzen
  1. Laurenz, L., Lüdecke, H-J., Lüning, S., Influence of solar activity changes on European rainfall, 2019, Journal of Atmospheric and Solar-Terrestrial Physics, 185 (2019), 29-42
  2. Sun, J., Liu, Y., Tree ring based precipitation reconstruction in the south slope of the middle Qilian Mountains, northeastern Tibetan Plateau, over the millennium, 2012, Journal of Geophysical Research: Atmospheres/Volume 117, Issue D8
  3. Ferroni, F., Guekos, A., Further consideration to: Energy Return on Energy Invested (ERoEI) for photovoltaic solar systems in regions of moderate insolation, Energy Policy 107 (2017) 498-505

Der Beitrag erschien zuerst beim Carnot-Netzwerk hier




Klima: Über welche Temperatur reden wir eigentlich?

1. Messfehler

Temperaturen wurden seit etwa 250 Jahren mit Thermometern  (darunter solche im englisch sprachigen Raum, die Max und Min Temperaturen anzeigen) gemessen und seit einigen Jahrzehnten mittels elektronischer Sensoren oder Satelliten. Hinsichtlich noch älterer Daten muss man sich auf „Proxys“ verlassen (Baumringe, Stomata oder andere geologische Belege, welche eine Kalibrierung bzgl. Zeit und Amplitude benötigen, historische Chroniken oder Almanache usw.). Jedes Verfahren weist einen gewissen experimentellen Fehler auf. Bei einem Thermometer sind es etwa 0,1°C, bei Proxys noch viel mehr. Springt man von einem Verfahren zu einem anderen (z. B. von Thermometer-Messungen zu elektronischen Sensoren oder von elektronischen Sensoren zu Satellitendaten), müssen die Daten kalibriert und adjustiert werden, was in den Aufzeichnungen nicht immer sauber dokumentiert wird. Wie in dieser Studie ebenfalls gezeigt wird, ist die Länge des Zeitfensters für Messungen von ultimativer Bedeutung, um Schlussfolgerungen zu ziehen hinsichtlich eines möglichen gemessenen Trends in Klimadaten. Es müssen gewisse Kompromisse eingegangen werden zwischen der Genauigkeit der Daten und deren Repräsentativität.

2. Zeitliche Mittelungs-Fehler

Falls jemand ausschließlich Thermometermessungen für „zuverlässig“ hält, muss man täglich, wöchentlich, monatlich und jährlich definieren, was die Mitteltemperatur ist. Aber vor der Einführung elektronischer Sensoren, welche eine kontinuierliche Registrierung der Daten gestatteten, wurden diese Messungen von Hand, punktuell und einige Male über den Tag verteilt durchgeführt. Der Algorithmus zur Errechnung der täglichen Mitteltemperatur war Gegenstand von Änderungen von Land zu Land und mit der Zeit, und zwar auf eine Art und Weise, die in den Datensätzen nicht perfekt dokumentiert ist und wobei einige Fehler enthalten sind (Limburg, 2014). Auch folgte die Temperatur saisonalen Zyklen, verbunden mit der Sonnenaktivität und der lokalen Exposition in dieser Hinsicht. Das bedeutet, dass wenn man monatliche Daten mittelt, man Temperaturen vergleicht (von Beginn bis zum Ende des Monats) welche mit unterschiedlichen Punkten im saisonalen Zyklus korrespondieren. Und schließlich, wie jeder Gärtner weiß, haben auch die Mondzyklen einen gewissen messbaren Einfluss auf die Temperatur (ein 14-Tage-Zyklus ist in lokalen Temperaturdaten offensichtlich, was korrespondiert mit der Harmonic 2 des Mondes Frank, 2010). Es gibt etwa 28 Mondzyklen über jeweils 28 Tage innerhalb eines solaren Jahres von 365 Tagen, aber das solare Jahr ist in 12 Monate unterteilt, was einige Verzerrungen und falsche Trends induziert (Masson, 2018).

3. Räumliche Mittelung

Zuallererst, das IPCC betrachtet global gemittelte Temperaturen über den gesamten Globus, trotz der Tatsache, dass die Temperatur eine intensive Variable ist, und zwar von einer Kategorie von Variablen, die nur eine lokale thermodynamische Bedeutung haben, und trotz der Tatsache, dass es auf der Erde mehrere gut definierte Klimazonen gibt.

Die verwendeten Daten stammen von Aufzeichnungen meteorologischer Stationen und sollen repräsentativ sein für ein Gebiet um jede der Stationen. Das Gebiet soll alle Punkte umfassen, die näher an der jeweiligen Station als an irgendeiner anderen Station liegen (Voronoi-Algorithmus). Da die Stationen nicht gleichmäßig verteilt sind und da deren Anzahl erheblich mit der Zeit geschwankt hat, sind mit diesem Verfahren der räumlichen Mittelung „Algorithmus-Fehler“ verbunden.

Voronoi Diagramm

„In der Mathematik ist ein Voronoi Diagramm die Partitionierung einer Fläche in Regionen auf der Grundlage der Distanz zu Punkten in einem spezifischen Untergebiet der Fläche. Dieser Satz von Punkten (mit den Bezeichnungen seeds, sites oder generators) ist zuvor spezifiziert, und für jedes seed gibt es eine korrespondierende Region, die alle Punkte enthält, welche näher an diesem seed liegen als an jedem anderen. Diese Regionen nennt man Voronoi-Zellen (Quelle).

Da sich die Anzahl der seed-Punkte ändert ändert sich auch Größe, Anzahl und Aussehen der korrespondierenden Zellen (Abbildungen 1 und 2):

Abbildungen 1 und 2: Beispiel eines Voronoi-Diagramms, in Abb. 2 mit einer reduzierten Anzahl von seeds (konstruiert mit http://alexbeutel.com/webgl/voronoi.html).

In der Klimatologie sind die seed-Punkte die meteorologischen Stationen, und deren Anzahl hat sich mit der Zeit signifikant reduziert. Dadurch änderten sich Anzahl und Größe der korrespondierenden Zellen (siehe die Abbildungen 3, 4 und 5).

Abbildungen 3 und 4: Anzahl der Stationen nach der Zeit (links) und Ort vs. Zeit (rechts). Die Daten in Abb. 3 stammen von der GISS Surface Temperature Analysis (GISTEM v4). Quelle: https://data.giss.nasa.gov/gistemp/station_data_v4_globe/

Abbildung 5: Entwicklung von Landstationen und globaler Temperatur. Ab dem Jahr 1990 sind 1000 in kühleren ländlichen Gebieten stehende meteorologische Stationen (z. B. in Sibirien und Nordkanada) ausgesondert worden (Quelle: ftp://ftp.ncdc.noaa.gov/pub/data:ghcn/v2/v2.temperature.readme). Man beachte, dass Abbildung 3 auf GHCNv4 (Juni 2019) beruht und Abbildung 5 auf GHCNv2 (vor 2011). Alle Stationen wurden re-analysiert, und das ist auch der Grund für die Unterschiede in den beiden Abbildungen.

Mitteltemperatur

Die Mitteltemperatur (genauer deren Anomalie, siehe weiter unten) wird berechnet durch Aufsummierung der individuellen Daten von unterschiedlichen Stationen, wobei jeder Datenpunkt gewichtet wird proportional zu dessen korrespondierender Zelle (gewichtetes Mittel).

Da sich die Größen der Zellen mit der Zeit geändert haben, hat sich auch die Wichtung der seed-Punkte geändert. Dies induziert einen Bias in der Berechnung des globalen Wertes der Mitteltemperatur.

4. Der städtische Wärmeinseleffekt UHI

Außerdem sind viele ursprünglich in ländlicher Umgebung aufgestellten Messpunkte in zwischen Schauplatz einer progressiven Verstädterung gewesen, was zum „städtischen Wärmeinsel“-Effekt führte, welcher die gemessenen Temperaturwerte künstlich beeinflusste (Abbildungen 6 und 7)

Abbildungen 6 und 7: Gründe und Illustration des UHI

Es ist also unabdingbar bei Landstationen, dass jedwede nicht-klimatischen Temperatursprünge wie der UHI eliminiert werden. Derartige Sprünge können auch induziert werden durch Änderung des Aufstellortes der Stationen oder durch eine Aktualisierung der Instrumentierung. In den adjustierten Daten von GISTEMP v4 sind die Auswirkungen solcher nicht-klimatischen Einflüsse eliminiert wo immer möglich. Ursprünglich wurden nur dokumentierte Fälle adjustiert. Das gegenwärtig von NOAA/NCEI angewendete Verfahren jedoch appliziert ein automatisiertes System auf der Grundlage eines systematischen Vergleichs mit benachbarten Stationen. Damit soll dokumentierten und nicht dokumentierten Fluktuationen Rechnung getragen werden, die nicht direkt Bezug zum Klimawandel haben. Die Verfahren nebst deren Evaluierungen sind Gegenstand vieler Veröffentlichungen.

5. Wassertemperatur

Und was ist mit der Temperatur über den Ozeanen (welche etwa 70% der Erdoberfläche bedecken)? Bis vor Kurzem wurden diese Temperaturen kaum gemessen, kamen sie doch von Schiffen, die eine begrenzte Anzahl kommerzieller Seewege befuhren.

In jüngerer Zeit wurden ARGO-Bojen in allen Ozeanen ausgebracht, was eine repräsentativere räumliche Abdeckung dieser Daten ermöglichte.

6. Temperaturanomalien

Zweitens, zu jedem gegebenen Zeitpunkt kann die Temperatur auf der Erde um bis zu 100°C variieren (zwischen Messpunkten in polaren bzw. tropischen Regionen). Um diesem Problem zu begegnen, bezieht sich das IPCC nicht auf absolute Temperaturwerte, sondern auf etwas, das man „Anomalien der Temperatur“ nennt. Dafür berechnet man zunächst die mittlere Temperatur über einen festgelegten Zeitraum von 30 Jahren: 1931 bis 1960, 1961 bis 1990. Die nächste Periode wird der Zeitraum 1991 bis 2020 sein. Dann wird jede jährliche Temperatur mit der mittleren Temperatur der nächstgelegenen zeitlichen Periode verglichen. Gegenwärtig und bis zum Jahr 2012 ist die Anomalie die Differenz zwischen der Temperatur und dem Mittelwert des Zeitraumes 1961 bis 1990.

Dieses Verfahren fußt auf der impliziten Hypothese, dass die „natürliche“ Temperatur konstant bleibt und dass jedweder erkannte Trend anthropogenen Aktivitäten geschuldet ist. Aber selbst dann würde man erwarten, dass einige Adjustierungen vorgenommen werden, wenn man von einer Referenzperiode auf eine andere übergeht. Das berührt die Kompensation eines eventuellen UHI oder die Änderung der Anzahl von Stationen – und wir haben beide als Quellen von Fehlern und Verzerrungen ausgemacht.

Aber das Schlüsselproblem ist tatsächlich der Umstand, dass die Temperaturaufzeichnungen Gegenstand lokaler natürlicher, polyzyklischer Fluktuationen sind, die nicht genau periodisch und nicht synchronisiert sind. Die Tatsache, dass der artige Fluktuationen nicht genau periodisch sind, macht es mathematisch unmöglich, dass man die Daten trendbereinigen kann mittels Subtraktion eines Sinusoids, wie es beispielsweise allgemein üblich ist bei der Eliminierung jahreszeitlicher Effekte aus den Daten.

Die Länge dieser Zyklen variiert von einem Tag bis zu jährlichen, dekadischen, hundert- oder tausendjährigen Komponenten und über zehntausende von Jahren hinaus (Milankovitch-Zyklen).

Von besonderem Interesse für unsere Diskussion sind dekadische Zyklen, weil deren Präsenz dreifach Konsequenzen hat:

Erstens, da sie wegen ihrer Aperiodizität nicht direkt trendbereinigt werden können, beeinflussen oder verstärken sie eventuelle anthropogene Effekte, welche in den Anomalien zutage treten.

Zweitens, die Zyklen induzieren Verzerrungen und falsche Anomalien bei der Berechnung der mittleren Temperatur des Referenz-Zeitraumes, wie die folgende Abbildung zeigt (nach Masson):

Abbildung 9: Anomalien und periodische Signale des Zeitraumes, der vergleichbar ist mit der Länge des Referenz-Zeitraumes.

Kommentar zu Abbildung 9:

Die Abbildung zeigt die Probleme zur Festlegung einer Anomalie, wenn das Signal ein periodisches Signal mit einer Länge vergleichbar mit der Länge des Referenz-Zeitraumes aufweist, der zu Berechnung dieser Anomalie herangezogen wird. Zur Vereinfachung denke man sich ein Sinusoid mit einer Periode gleich 180 Jahre (eine allgemein in Klima-bezogenen Signalen erkannte Periodizität). Folglich ist 360° = 180 Jahre und 60° = 30 Jahre (also die Länge der vom IPCC herangezogenen Referenzperioden zur Berechnung der Anomalien). Für unseren Zweck werden drei Referenzperioden mit jeweils 60° (30 Jahre) entlang des Sinusoids betrachtet (die roten horizontalen Linien markieren die Referenzen 1, 2 und 3). Auf der rechten Seite der Abbildung sind die korrespondierenden Anomalien dargestellt (Messung über die nächsten 30 Jahre minus dem Mittelwert über die Referenzperiode). Man erkennt offensichtlich, dass die Anomalien unterschiedliche Trends zeigen. Ebenfalls offensichtlich tritt hervor, dass alle diese Trends ein Fake sind, weil das reale Signal ein Sinusoid des Mittelwertes insgesamt gleich Null ist. Mit anderen Worten, es gibt gar keinen Trend, sondern nur ein periodisches Verhalten.

Der dritte fundamentale Schwachpunkt, wie das IPCC mit den Temperaturdaten umgeht, betrifft die Entscheidung, sich ausschließlich auf lineare Regressions-Trendlinien zu stützen, trotz der Tatsache, dass jeder Daten-Wissenschaftler weiß, dass man zumindest ein Zeitfenster berücksichtigen muss, das mehr als 5 mal über die Periode einer zyklischen Komponente in den Daten hinausgeht, um „border effects“ zu vermeiden. Pech für das IPCC: die meisten Klimadaten zeigen signifikante zyklische Komponenten mit (angenähert) Perioden von 11, 60 und 180 Jahren, während sie andererseits ein 30-Jahre-Fentser heranziehen, um ihre Anomalien zu berechnen.

Und so erzeugt das IPCC eine künstliche „Beschleunigung der globalen Erwärmung“, weil es kurzfristige lineare Trends aus Daten berechnet, welche eine zyklische Signatur aufweisen. Mittels Abbildung 10, entnommen FAQ 3.1 aus Kapitel 3 des IPCC-AR 4 (2007) erklärt das IPCC: „Man beachte, dass sich die Steigung über kürzere Perioden vergrößert, was auf eine beschleunigte Erwärmung hinweist“.

Abbildung 10: Fake-Schlussfolgerungen des IPCC

Die folgende Graphik (Abbildung 11) illustriert das Ganze:

Abbildung 11: Globale Temperaturen im Vergleich zur mittleren globalen Temperatur über den Zeitraum 1901 bis 2000

Kommentar zu Abbildung 11

Die Graphik zeigt die mittlere jährliche globale Temperatur seit dem Jahr 1880, aber nicht verglichen mit einer 30-jährigen Referenzperiode (wie es bei der Berechnung von Anomalien üblich ist), sondern im Vergleich zum langfristigen Mittel im Zeitraum 1901 bis 2000. Die Null-Linie repräsentiert das langfristige Mittel für den gesamten Planeten, die Balken zeigen die globalen (aber langfristigen) „Anomalien“ über oder unter dem langfristigen Mittelwert mit der Zeit. Der behauptete lineare Trend im linken Teil der Abbildung ist (mehr als wahrscheinlich) ebenso wie der Trend im rechten Teil der Abbildung nichts weiter als der steigende Ast eines Sinusoids von 180 Jahren. Dies ist auch ein anderer Weg (der richtige und einfachste?), den „Stillstand“ zu erklären, welcher während der letzten 20 Jahre beobachtet worden ist. Der „Stillstand“ korrespondiert mit dem Maximum des Sinusoids, und als Konsequenz kann man eine globale Abkühlungsperiode während der nächsten Jahre erwarten.

7. Lineare Trendlinien und Daten, die eine zyklische Signatur aufweisen

Schließlich illustrieren die folgenden Graphiken (Abbildungen 12, 13 und 14) von Masson den „border effect“, der weiter oben schon einmal für einen schematischen Fall erwähnt worden ist. Sie zeigen die potentiellen Fehler, die man bei der Anwendung linearer Regressions-Verfahren macht, wenn Daten eine zyklische Komponente aufweisen mit einer (pseudo-)Periode von einer Länge, die vergleichbar ist mit dem betrachteten Zeitfenster. Das Sinusoid bleibt genau gleich (und zeigt keinen Trend), aber falls man die lineare Regression berechnet (mittels des Verfahrens kleinster Quadrate) über eine Periode des Sinusoids, wird eine FAKE-Trendlinie erzeugt, dessen Steigung abhängig ist von der Anfangsphase des betrachteten Zeitfensters.

Abbildungen 12,13 und 14: Lineare Regressions-Linie über eine einzelne Periode eines Sinusoids.

Regressions-Linie für ein Sinusoid

Um das Problem im Zusammenhang mit dem „border effect“ zu illustrieren, wenn man für ein Sinusoid eine Regressions-Linie zeigt, wollen wir ein einfaches Sinusoid heranziehen und die Regressions-Linie über ein, zwei, fünf, … X Zyklen berechnen (Abbildungen 15, 16 und 17).

Das Sinusoid ist stationär, die wahre Regressions-Linie verläuft horizontal (Steigung = Null).

Nimmt man eine Initial-Phase von 180° (um eine Regressions-Linie mit positiver Steigung zu erzeugen), wollen wir feststellen, wie sich die Steigung der Regressions-Linie in Abhängigkeit der Anzahl von Perioden ändert:

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Die korrespondierende Regressions-Gleichung ist in jeder Graphik genannt. In dieser Gleichung ergibt der Koeffizient von x die Steigung der „Fake“-Regressions-Linie. Der Wert dieser Steigung ändert sich mit der Anzahl der Perioden, wie in Abbildung 18 gezeigt. Als Faustregel nennen Daten-Wissenschaftler eine Mindestzahl von 6 Perioden, die betrachtet werden müssen.

Abbildung 18: Steigung der Regressionslinie im Vergleich zur Anzahl der Zyklen. Dazu gibt es hier auch eine Excel-Illustration.

8. Ein exemplaarischer Fall

Die Überlegungen in dieser Studie mögen für erfahrene Daten-Wissenschaftler offensichtlich sein, aber es scheint, als ob die meisten Klimatologen sich der Probleme nicht bewusst sind (oder versuchen sie vielleicht, diese Probleme unter den Teppich zu kehren?), die sich aus der Länge des betrachteten Zeitfensters und dem Ausgangswert ergeben. Als finale Illustration wollen wir die „offiziellen“ Klimadaten betrachten und sehen, was passiert, wenn man die Länge des Zeitfensters sowie den Ausgangswert verändert (Abbildungen 19 bis 21). Aus diesem Beispiel geht eindeutig hervor, dass lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters die Tür weit aufstoßen zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

Abbildung 19: Beispiel einer „offiziellen“ Anomalie einer globalen Temperaturreihe

Abbildung 20: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien

Abbildung 21: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien (fortgesetzt)

[Wegen der Bedeutung dieser Graphik folgt hier die Übersetzung der Bildinschrift:

obere Graphik: Ein globaler Abkühlungstrend (etwa 0,35 Grad pro Dekade) während der 11 Jahre von 1998 bis 2009. Realistisch? Nein!

Mittlere Graphik: Ein globaler Erwärmungstrend (etwa 0,12 Grad pro Dekade) während der 30 Jahre von 1979 bis 2009. Realistisch? Nein!

Untere Graphik: Was also ist realistisch? Die jährliche Varianz in den Daten ist groß im Vergleich zu jedwedem Trend. Es gibt eindeutig erkennbare Zyklen in den Daten (ein solcher von etwa 4 Jahren ist in der mittleren Graphik erkennbar). Was zeigen nun also die Daten während der Satelliten-Ära? Keine Erwärmung von 1979 bis 1997; ein signifikantes El Nino-Ereignis 1997-98 führte zu einer sprunghaften Änderung von etwa 0,3 Grad; keine Erwärmung von 1999 bis 2009. Die gesamte Erwärmung der letzten 30 Jahre ereignete sich in einem einzigen einzelnen Jahr!

Ende Übersetzung der Inschrift.]

Schlussfolgerungen:

1. IPCC-Projektionen resultieren aus mathematischen Modellen, welche der Kalibrierung bedürfen, indem man Daten aus der Vergangenheit einfließen lässt. Die Genauigkeit der Kalibrierungs-Daten ist von ultimativer Bedeutung, ist doch das Klimasystem höchst nicht-linear, und das gilt auch für die (Navier-Stokes)-Gleichungen und die (Runge-Kutta Integrations-) Algorithmen, welche in den IPCC-Computermodellen angewendet werden. Als Konsequenz daraus ist das System und auch die Art, wie das IPCC dieses präsentiert, hoch sensitiv gegenüber winzigen Änderungen des Wertes der Parameter oder der Ausgangsbedingungen (die Kalibrierungs-Daten im gegenwärtigen Fall). Sie müssen mit höchster Genauigkeit bekannt sein. Das ist aber nicht der Fall, was ernste Zweifel an jedweder Folgerung aus den Modellprojektionen aufwirft.

2. Die meisten vom IPCC herangezogenen Mainstream-Daten mit Klimabezug sind tatsächlich erzeugt aus Daten von Messpunkten auf dem Festland. Dies hat zwei Konsequenzen:

i) Die räumliche Verteilung der Daten ist höchst fragwürdig, weil die Temperatur über den Ozeanen, die 70% der Erdoberfläche bedecken, zumeist unbeachtet bleiben oder „guestimated“ werden mittels Interpolation;

ii) Die Anzahl und die Aufstellungsorte dieser Landstationen hat sich mit der Zeit deutlich verändert, was Verzerrungen und Fake-Trends induzierte.

3. Der Schlüssel-Indikator des IPCC ist die globale Temperatur-Anomalie, errechnet aus räumlicher Mittelung, ebenso wie mögliche lokale Anomalien. Lokale Anomalien sind der Vergleich der gegenwärtigen lokalen Temperatur mit der gemittelten lokalen Temperatur über einen festgesetzten Zeitraum von 30 Jahren, der sich alle 30 Jahre ändert (1930-1960, 1960-1990, etc.). Das Konzept der lokalen Anomalien ist höchst fragwürdig wegen der Präsenz poly-zyklischer Komponenten in den Temperaturdaten einschließlich deutlicher Verzerrungen und falschen Trends, wenn das Zeitfenster kürzer ist als mindestens 6 mal die längste, aus den Daten hervorgehende Periode. Unglücklicherweise ist bzgl. der Temperaturdaten genau das der Fall.

4. Lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters stoßen die Tür weit auf zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

5. Als Folge davon ist es dringend geraten, das Konzept der globalen Temperatur-Anomalie zu verwerfen und sich auf unverzerrte lokale Daten zu stützen, um eine mögliche Änderung des lokalen Klimas aufzufinden. Das wäre ein physikalisch bedeutungsvolles Konzept, und das ist schließlich das, was für die lokalen Anwohner, für Landwirtschaft, Industrie, Dienstleistungen, Geschäftsbereiche, Gesundheit und Wohlergehen allgemein von Bedeutung ist.

Notes

[1] The GISS Surface Temperature Analysis (GISTEMP v4) is an estimate of global surface temperature change. It is computed using data files from NOAA GHCN v4 (meteorological stations), and ERSST v5 (ocean areas), combined as described in Hansen et al. (2010) and Lenssen et al. (2019) (see : https://data.giss.nasa.gov/gistemp/). In June 2019, the number of terrestrial stations was 8781 in the GHCNv4 unadjusted dataset; in June 1880, it was only 281 stations.

[2] Matthew J. Menne, Claude N. Williams Jr., Michael A. Palecki (2010) On the reliability of the U.S. surface temperature record. JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 115, D11108, doi:10.1029/2009JD013094, 2010.

[3] Venema VKC et al. (2012) Benchmarking homogenization algorithms for monthly data. Clim. Past, 8, 89-115, 2012.

[4] F.K. Ewert (FUSION 32, 2011, Nr. 3 p31)

[5] H. Masson,Complexity, Causality and Dynamics inside the Climate System (Proceedings of the 12thannual EIKE Conference, Munich November  2018.

[6] IPCC, http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-wg1-chapter3.pdf]

Link: http://www.science-climat-energie.be/2019/07/24/climate-about-which-temperature-are-we-talking-about/

———————————————

Autoren: Samuel Furfari,  Professeur à l’Université libre de Bruxelles et Henri Masson, Professeur (émérite) à l’Université d’Antwerpen

Übersetzt von Chris Frey EIKE




Der Klimazirkus ist vorbei – Hier ein Blick zurück

Die 24. „Conference of the Parties“ – auch COP24 genannt – endete nach zweiwöchigen Verhandlungen im polnischen Kattowitz. Rund 25.000 Delegierte aus fast 200 Ländern nahmen an  dem Gipfel teil.

Wie jedes Jahr heizten die Delegierten sich mit dem Kampf gegen den Klimawandel und der Reduzierung der weltweiten CO2-Emissionen gegenseitig an. Zu ihren Zielen gehört unter anderem, wie das Pariser Klimaabkommen von 2015 am besten umgesetzt werden kann.

Die größte Veränderung, die sich aus COP24 ergeben wird, ist die  Einführung  eines „Regelwerks„, das die teilnehmenden Nationen zur Berichterstattung über ihre Treibhausgasemissionen und Finanzierungsbemühungen [!] verwenden werden. Darüber hinaus soll die Berichterstattung es möglich machen, die Bemühungen anderer Regierungen zur CO2-Reduktion zu überwachen.

Die USA zeigten sich erfreut über das neue Abkommen, in dem Glauben, dass dadurch andere Länder, für ihre CO2-Emissionen mehr zur Rechenschaft gezogen werden. Die USA haben China – die zweitgrößte Volkswirtschaft der Welt – als den größten Umweltverschmutzer der Welt deklariert, deren CO2 jedoch scheinbar nie die gleichen Auswirkungen zu haben scheint.

„Das Ergebnis war ein bedeutender Schritt, um unsere wirtschaftlichen Konkurrenten zur Rechenschaft zu ziehen, indem sie ihre Emissionen in Übereinstimmung bringen mit den Standards, die die Vereinigten Staaten seit 1992 erfüllen“, heißt es in einer Erklärung des US-Außenministeriums.

Gleichzeitig wiederholte die amerikanische Regierung jedoch ihre Ablehnung gegen das Pariser Klimaabkommen und fügte hinzu, sie werde „keine Belastungen oder finanziellen Zusagen zur Unterstützung des Pariser Abkommens übernehmen und nicht zulassen, dass Klimaabkommen als Mittel zur Umverteilung von Wohlstand verwendet werden.“

Die Trump-Regierung hat ihre Opposition gegen das Pariser Klimaabkommen klargestellt, kann sich aber bis 2020 nicht offiziell zurückziehen. Inzwischen sendet das Weiße Haus Delegierte zur Teilnahme an Klimaverhandlungen. Bemerkenswert war, dass die USA während des Gipfels 2018 ein pro-fossil fuel forum für fossile Brennstoffe veranstalteten, das durch bestellte(?) Störer lautstark unterbrochen wurde.

Während die COP24 mit der Ermutigung der Länder endete, im Kampf gegen die globale Erwärmung mehr zu tun, ist nichts von dem zweiwöchigen Gipfel verbindlich. Das Fehlen wesentlicher Durchbrüche stieß auf Kritik.

„Zur Bekämpfung des Klima Notfalls erreichen wir nur langsam Erfolg, was kein Erfolg ist“, erklärte Durwood Zaelke, der Präsident des Institute for Governance and Sustainable Development  [~Führung und nachhaltige Entwicklung]. „Das Regelbuch ist Jahrzehnte zu spät. Es sollte klar sein, dass der Konsensprozess der Vereinten Nationen niemals die kraftvolle Vereinbarung herbeiführen kann, die wir brauchen, um den Notfall zu meistern. “ .” (RELATED: ‘Embarrassing’: Climate Expert Explains What’s Wrong With The White House’s New Climate Report) (… „ Peinlich “: Klimaexperte erklärt, was in dem neuen Klimabericht des Weißen Hauses falsch ist)

Der Weltklimagipfel kam nach einem zusammenfassenden Bericht der Vereinten Nationen, der unterstellt, dass schnelle und drastische Maßnahmen erforderlich sind, um die Treibhausgasemissionen der Welt zu reduzieren oder die Menschen müssen Katastrophen ins Auge sehen.

Gefunden auf The Daily Caller vom 16.12.2018

Übersetzt durch Andreas Demmig

https://dailycaller.com/2018/12/16/global-climate-summit-results/

***

 

Die Welt – online, Daniel Wetzel, Wirtschaftsredakteur berichtet in einer längeren Abhandlung ebenfalls von der Konferenz

Hier eine gekürzte Zusammenfassung des Abschnitts zu Deutschland

Dramatische Konsequenzen für Deutschland

In Kattowitz forderten eine informelle „High Ambition Coalition“ einiger Inselstaaten und westlicher Musterländer wesentlich drastischere Maßnahmen. Der HAC schloss sich auch die deutsche Bundesumweltministerin Svenja Schulze (SPD) an.

Frau Schulze gab offiziell bekannt, dass die Bundesregierung im kommenden Jahr ein Klimaschutzgesetz erlassen werde, dass CO2-Ziele für die einzelnen volkswirtschaftlichen Sektoren beinhalten soll und ließ keinen Zweifel daran, dass sich diese gesetzlichen Vorgaben auf das 1,5-Grad-Ziel beziehen. Damit soll eine Halbierung der deutschen CO2-Emissionen innerhalb der nächsten zwölf Jahre zum Ziel gemacht werden.

Solche bundesgesetzlichen Vorgaben sollen womöglich im Grundgesetz aufgenommen werden, damit ergeben sich dramatische Konsequenzen für Verkehr, Immobilienbesitz, Industrie und Landwirtschaft ebenso wie für Kraftwerke. Unklar ist derzeit noch, ob Organisationen wie etwa die Deutsche Umwelthilfe auf Grundlage dieser Norm die nötigen Klimaschutzmaßnahmen auf Bundesebene vor Gericht erstreiten können.

https://www.welt.de/wirtschaft/article185594612/Klimakonferenz-COP24-Noch-so-ein-Sieg-und-die-Welt-ist-verloren.html




Das Sommertheater im Juli und andere Klima-Phantasien

Sehr geehrter Herr Limburg,

unser  Bericht über die Sonnenaktivität im Juli zeigt erneut, dass die Sonnenfleckenzahl mit 1,6  im langjährigen Vergleich außerordentlich schwach war. Dies gilt insgesamt für den im Dezember 2008 begonnenen und etwa noch 1 Jahr andauernden Sonnenzyklus, der seit 200 Jahren die schwächste Sonnenaktivität aufweist. Klimatisch wird das deswegen bedeutsam, weil auch der nächste Zyklus, der etwa bis 2030 andauern wird, sehr schwach zu werden droht.Die Auswirkungen werden wir erst mit einem Zeitverzug von einigen Jahren feststellen können. Aussagen über klimatische Einflüsse natürlichen oder anthropogenen Ursprungs kann man eben nur über eine Zeitdauer von 30 Jahren und mehr treffen.

Das Sommertheater im Juli

In der Hitze des nordeuropäischen Sommers hatte man einen anderen Eindruck. Da reichte schon ein heisser Juli in einer Region des Erdballs, um den letzten Beweis der Klimakatastrophe hervorzuzaubern.
„In 17 Jahren Wettervorhersage habe ich so etwas noch nicht erlebt“, echauffierte sich der Meteorologe Özden Terli im ZDF.
Das ist schlicht falsch. Im Juli 2015 war es auf der Nordhalbkugel wärmer, im Juli 2016 ebenso und auch im Juli 2017 war es wärmer. Und der Juli 2006 war in Deutschland  deutlich wärmer.

Temperaturen im Sinkflug

Entscheidend ist die globale Mitteltemperatur. Und da sind wir in 2018 im Sinkflug. Auch der August 2018 hat das eindrucksvoll belegt. Die heute bekanntgegebenen Daten der satellitengestützen UAH-Messungen für August zeigen nur noch eine um 0,19 °C  große Abweichung vom 30-jährigen Mittelwert. Ich werde mich nicht hinreißen lassen, daraus voreilige Schlüsse zu ziehen. Aber das, was sich grüne Alarmisten in  Politik, Wissenschaft und Medien an Sommertheater geleistet haben, ist nur noch zu subsumieren unter „Der Zweck heiligt die Mittel“.

Kippelemente für eine angstgeleitete Politik

Das gilt auch für  eine Arbeit, die in der Schwüle des Juli Furore machte. Eine Reihe von Wissenschaftlern um den bekannten Hans Joachim Schellnhuber ( die Arbeit wurde am 19. Juni eingereicht und am 6. Juli akzeptiert, ein neuer Sprintrekord zwischen Abgabe und Annahme) entwerfen darin eine Szenario, in dem bestimmte Kippelemente das Klima der Erde in neue, unentrinnbare heiße Gleichgewichte treiben. Das Entscheidende steht in der Schlussfolgerung : Zu vermeiden geht das nur durch eine neue „Erdsystemverwaltung“. Der Leser war gespannt auf Berechnungen, Softwarecodes, empirische Herleitungen- und findet nichts dergleichen. Reine Spekulation.Science Fiction. Hokus-Pokus.

Die Temperaturtrends bleiben konstant

Es bleibt dabei : trägt man Jahr für Jahr seit 1960 den Trend der ansteigenden Temperaturen auf, also von 1960 bis 1990, 1961 bis 1991, bis hin zu  1988 bis 2018, dann bleiben die Steigungen bei 1,6 bis 1,8 C pro Jahrhundert seit dreissig Jahren konstant. Da müsste man keine grosse Angst haben, vor dem was uns in diesem Jahrhundert erwartet. Das sagt uns die Empirie. Da braucht man Kippelemente aus der Science Fiction-Welt, um uns zu einer angstgeleiteten Politik zu verführen.

WGBU fordert Klimapass

Wie schlimm die Instrumentalisierung von Politik durch Klimawissenschaft und umgekehrt  geworden ist, zeigt eine brandneue Studie des WGBU (Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen) Zeitgerechte Klimapolitik -Vier Intitiaven für Fairness.
Vorsitzender des Beirats ist Prof. Schellnhuber. Der Beirat berichtet direkt an die  Bundesregierung  und empfiehlt ihr Klimapässe für klimabedingte Migranten und Migrantinnen auszustellen. Der Klimapass „soll den einzelnen Menschen in die Lage versetzen, frei über seine Fortwanderung zu entscheiden“. Der WGBU geht von „Schätzungen für globale umweltbedingte Migration bis zum Jahr 2050 von 25 Mio. bis zu 1 Mrd. betroffenen Personen“ aus.“Schier unerträglich ist die Vorstellung, dass Millionen Klimamigrant*innen in den kommenden Jahrzehnten auf kriminelle Schlepperorganisationen angewiesen wären“. „In einer ersten Phase sollte der Klimapass den Bevölkerungen kleiner Inselstaaten, deren Staatsgebiet durch den Klimawandel unbewohnbar werden dürfte, frühzeitige, freiwillige und humane Migrationswege eröffnen. Mittelfristig sollte der Pass auch massiv bedrohten Menschen anderer Staaten, einschließlich Binnenvertriebener, zur Verfügung stehen. Als Aufnahmeländer sollten sich Staaten mit erheblichen historischen wie heutigen Treibhausgasemissionen und somit großer Verantwortung für den Klimawandel engagieren.“ Als kurzfristigen ersten Schritt schlägt der WGBU vor :“ Im Rahmen der 24. Klimakonferenz in Katowice (im Dezember 2018,d.Verf.) sollte die Bundesregierung als Vorreiterin potenzieller Aufnahmeländer den Klimapass als Angebot für die Bevölkerung flacher Inselstaaten vorschlagen“.

Flächenvergrößerung in Tuvalu

Erneut geht es mehr um Science Fiction. Denn es gibt mehrere Arbeiten der jüngsten Vergangenheit, die ein „Untergehen“ vieler Inselstaaten ausschließen, sondern ehereine Flächenvergrößerung feststellen.
Es lohnt sich das Politikpapier ( so nennen es die Wissenschaftler) nachzulesen, um das krude Denken derjenigen aufzuspüren, die mit allen Mitteln eine „Große Transformation“ herbeisehnen. Adressat ist die Bundesregierung, die das Papier in Person der Bundesumweltministerin Schultze und dem Wissenschaftstaatsekretär Schütte brav entgegennahmen und versprachen, die Vorschläge zu prüfen.
Es ist schlimm, wie dilettantisch unsere Bundesregierung agiert, es ist schlimm,wie eindimensional sie Kommissionen besetzt und es ist schlimm, dass niemand in dieser Bundesregierung den Mut hat, Vorschläge, die auf falschen Behauptungen beruhen, als das zu bezeichnen, was es ist : politische Propaganda sich selbst überschätzender Wissenschaftler.
Niemand widerspricht. Es ist unfassbar.

Herzlichst
Ihr
Fritz Vahrenholt




Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an

Das Gleichheitszeichen im S-B Gesetz stellt nun aber die physikalische Bedingung „gleichzeitig in einem thermischen Gleichgewicht“ dar und keineswegs eine mathematische Rechenanweisung, Zitat aus dem Handbook of Chemistry and Physics [1], 55thEdition 1974-1975, CRC Press 1974, Seite F-110:

Stefan-Boltzmann law of radiation – The energy radiated in unit time by a black body is given by, E=K(T4-T04), where T is the absolute temperature of the body, T0the absolute temperature of the surroundings, and K is a constant.

Das Stefan-Boltzmann-Gesetz bezieht sich also auf die Betrachtung eines einzelnen Schwarzen Körpers mit einer definierten Temperatur, aus der sich unmittelbar zum Betrachtungszeitpunkt dessen aktuelle Strahlungsleistung gegenüber der Umgebung ableitet. Das Stefan-Boltzmann-Gesetz ist also keine mathematische Rechenanweisung zur Umrechnung von räumlich und zeitlich beliebig ermittelter durchschnittlicher Temperaturwerte in durchschnittliche Strahlungswerte oder umgekehrt. Vielmehr verbindet es ausschließlich gleichzeitige Individualwerte von Strahlung und Temperatur eines ganz konkreten einheitlichen Schwarzen Körpers. Das Stefan-Boltzmann-Gesetz bildet also eine unmittelbar zeitgleiche physikalische Beziehung ab und darf mithin keinesfalls zur mathematischen Umrechnung von irgendwelchen zeitlich und/oder räumlich zusammengefassten Durchschnittswerten benutzt werden – wie das leider trotzdem immer wieder geschieht.

Wenn wir auf unserer Erde über Temperaturentwicklungen reden, dann beziehen wir uns aber gemeinhin genau auf solche Durchschnittswerte. Für die Zeit vor den ersten Thermometermessungen stehen uns nämlich nur sogenannte Temperaturproxys zur Verfügung, um die Paläotemperaturen unserer Erde für frühere Zeiträume abzuschätzen. Unter dem Begriff Temperaturproxy werden natürliche Abfolgen zusammengefasst, die über ihren jahreszyklischen Aufbau Informationen über diejenige Temperatur enthalten, bei der sie entstanden sind. Das bekannteste Beispiel sind Baumringe, es können aber auch Tropfsteine, Korallen, Sedimentabfolgen oder Eisbohrkerne sein.  All diesen Temperaturproxys ist gemeinsam, dass sich daraus meist nur durchschnittliche Jahreswerte ableiten lassen, die üblicherweise auch noch eine jahreszeitlich oder regional begrenzte Aussagekraft besitzen. Und es gibt Klimaphänomene, die sich dort ebenfalls abbilden, mit der Temperatur aber gar nichts zu tun haben und daher zu fehlerhaften Aussagen führen können, beispielsweise wirkt Trockenheit auf Baumringe ähnlich wie niedrige Temperatur.

Dem Paläoklima unserer Erde können wir uns also bestenfalls über Durchschnittswerte der Temperatur nähern, weil es für die geologische Vergangenheit eben nichts anderes gibt. Daher erhält auch die ominöse „gemessene“ globale Durchschnittstemperatur ein gewisses Gewicht. Diese Durchschnittstemperatur wird zwar an vielen Stellen erwähnt, aber wenn man dann versucht in die Tiefe zu gehen, werden üblicherweise irgendwelche Scheinbezüge hergestellt. Selbst wenn dort konkret zugrunde liegende Datensätze genannt werden, fehlt der eindeutige Hinweis auf das statistische „Kochrezept“, das auf diesen Datensatz angewendet worden sein soll, um zu dem genannten Ergebnis zu kommen. Die „gemessene“ globale Durchschnittstemperatur erweist sich damit als höchst spekulativ und wissenschaftlich nicht nachvollziehbar. Der Deutsche Wetterdienstbeschreibt die globale Durchschnittstemperatur folgendermaßen, Zitat:

Unter der globalen Durchschnittstemperatur versteht man die über die gesamte Erdoberfläche (Land/Wasser) gemittelte Temperatur in einem bestimmten Zeitraum. Da klimatologische Messungen über längere Zeiträume nur punktuell vorliegen, lassen sich Zeitreihen der globalen Mitteltemperatur nur annähernd bestimmen…

Die Angabe einer globalen Durchschnittstemperatur ist allerdings mit noch größeren Unsicherheiten behaftet als die Angabe von Abweichungen, da eigentlich kleinräumige Besonderheiten berücksichtigt werden müssten, während die Abweichungen räumlich einheitlicher sind. Daher werden bei den Zeitreihen meist nur die Abweichungen und nicht deren Absolutwerte angegeben.“

Diese Beschreibung geht nun also noch einen Schritt weiter, indem sie den Absolutbetrag der „gemessenen“ globalen Durchschnittstemperatur entwertet und irgendwelchen rechnerischen Differenzen eine geringere Unsicherheit zumisst. Das allerdings ist ganz große Zauberei, denn jede berechnete Differenz zu einem ungenauen Durchschnittswert ist natürlich vollautomatisch mit dessen Ungenauigkeit behaftet. Selbst bei der Beschränkung auf regionale Durchschnittswerte würde  bei kleinen Differenzen die relative Unsicherheit der Aussage ansteigen, beispielsweise ergibt sich allein bei einer Ungenauigkeit eines absoluten Messwertes von +/-0,5°C bereits eine Unsicherheit von +/-50% für einen auf dessen Basis ermittelten Differenzwert von 1,0°C.

Aber wie dem auch sei, es könnte tatsächlich eine gemessene globale Durchschnittstemperatur geben, wenn es ein ausreichendes globales Netz von ortsfesten primären Meßstationen geben würde, wenn von allen diesen Stationen eine ausreichend lange Zeitreihe vorliegen würde, wenn es ein wissenschaftlich abgestimmtes „Kochrezept“ für die statistische Berechnung gäbe, und wenn… wenn… wenn… Die Problematik solcher Temperaturmessreihen wird hierausführlich untersucht.

Und jetzt nehmen wir einfach einmal an, es gäbe eine solche gemessene globale Durchschnittstemperatur wirklich. Und daher lassen wir hier einfach einmal den vorgeblichen Wert von 14,8 °C für die gemessene globale Durchschnittstemperatur (NST) stehen, denn dieser Zahlenwert selbst hat auf die nachfolgende Betrachtung keinerlei Einfluss.

Schauen wir uns jetzt einmal an, was wir tatsächlich über den Klimamotor unserer Erde wissen:

  • Die Einstrahlung der Sonne erfolgt mit durchschnittlich 940 W/m² temperaturwirksamer Strahlung auf einer Kreisfläche mit dem Erdradius und beleuchtet die Tagseite der Erde.
  • Die Abstrahlung der Erdeerfolgt mit durchschnittlich 235 W/m² über ihre Gesamtfläche.
  • Die „gemessene Durchschnittstemperatur der Erde“(NST) soll im langjährigen Mittel 14,8 °C betragen.
  • Das Stefan-Boltzmann-Gesetzverknüpft Strahlung und Temperatur eines Schwarzen Strahlers im thermischen Gleichgewicht:
  • P / A = s*T4    mit  der Stefan-Boltzmann-Konstante  s= 5,670 10 -8[W m-2K-4]
  • und P = Strahlung [W], A = Fläche [m²], T = Temperatur [°K]

Anmerkung:Die hier dargestellte S-B Fassung repräsentiert den vereinfachten Fall (T0=0°K) des unter [1] beschriebenen vollständigen S-B Gesetzes, das in seiner ausführlichen Form auch als S-B Umgebungsgleichung bezeichnet wird.             

Und was fangen wir jetzt mit diesen Aussagen an?

Wir können die oben genannten Strahlungs-/ Temperaturwerte direkt miteinander in Beziehung setzen oder versuchen, ihnen mit dem Stefan-Boltzmann-Gesetz ihre jeweiligen S-B Äquivalente zuweisen:

  1. 940 W/m² @ Kreisfläche =  235 W/m² @ Kugelfläche      Globale Energiebilanz
  2. 235 W/m²~  -18 °C                          vorgeblich „natürliche“ S-B Temperatur der Erde (*)
  3. (940/2=)470 W/m² ~ +28,6 °C     rechnerische S-B Temperatur der Tagseite (*)
  4. 14,8 °C  ~  390 W/m²                       S-B Strahlungsäquivalent der Durchschnittstemperatur (*) 

Ergebnis: Alle mit (*) gekennzeichneten Aussagen verletzen das Stefan-Boltzmann-Gesetz!
Das S-B Gesetz beschreibt nämlich eine physikalisch eindeutige Verknüpfung von gleichzeitigen Werten von Strahlung und Temperatur für einen konkreten Schwarzen Körper. Wegen der diesem S-B Gesetz zugrunde liegenden T4-Beziehung lässt es keine mathematische Umrechnung von irgendwelchen durchschnittlichen Strahlungs- oder Temperaturwerten auf ein entsprechendes S-B Durchschnittsäquivalent zu. Daher muss beispielsweise eine Durchschnittstemperatur aus der Summe der beteiligten individuellen Ortstemperaturen ermittelt werden und nicht etwa aus dem Durchschnitt der individuellen örtlichen Strahlungswerte.

 (1) RICHTIG:Das wäre, unter der Voraussetzung einer langjährig konstanten gemessenen Durchschnittstemperatur, die durchschnittliche Energiebilanz unserer Erde. Der tatsächliche Ausgleich zwischen Ein- und Abstrahlung findet dabei über den gespeicherten Wärmeinhalt von Atmosphäre und Ozeanen statt. Dadurch ergibt sich bei der Abstrahlung eine permanente Zeitverzögerung über den Tages- und Jahresverlauf. Die aktuelle Sonneneinstrahlung wird also durch die Abstrahlung von Wärmeinhalten ausgeglichen, die teilweise schon längere Zeit von den globalen Zirkulationen verfrachtet worden waren. Aber insgesamt ist diese langjährige durchschnittliche Energiebilanz korrekt, solange die gemessene Durchschnittstemperatur tatsächlich konstant bleibt.

(2) FALSCH:Diese Berechnung ist falsch, weil sie die Gleichgewichtsbedingung des S-B Gesetzes missachtet und über eine Durchschnittsbildung mit der Nachseite der Erde die temperaturwirksame Sonneneinstrahlung willkürlich halbiert. Es wird üblicherweise versucht, diesen Ansatz dadurch zu retten, dass man dessen Differenz zur gemessenen Durchschnittstemperatur durch einen „natürlichen“ atmosphärischen Treibhauseffekt von 155 W/m² zu erklären sucht, für den es aber keinerlei wissenschaftlichen Nachweis gibt.

(3) FALSCH:Eine hemisphärische Betrachtung der globalen Temperaturgenese wäre eigentlich der richtige Ansatz. In dieser stark vereinfachten Form mit einer hemisphärischen Durchschnittsbildung widerspricht er jedoch dem Stefan-Boltzmann-Gesetz. Wenn man’s aber korrekt zu Ende denkt, landet man schließlich bei meinem hemisphärischen S-B Ansatz ohne Treibhauseffekt…

(4) FALSCH:Es gibt gar keine mittlere globale Abstrahlung von 390 W/m². Nur eine individuell gemessene Ortstemperatur von 14,8 °C hätte nach dem S-B Gesetz ein Strahlungsäquivalent von 390 W/m². Da sich die NST von 14,8 °C  aber aus der statistischen Bearbeitung von individuell gemessenen Ortstemperaturen zusammensetzt, müsste hier eine ebensolche statistische Mittelung über die jeweiligen örtlichen S-B Strahlungsäquivalente erfolgen. In der nachstehende Abbildung wird die globale Durchschnittstemperatur als ein Mittel aus +14,8°C +/- 35 °C betrachtet. Dabei stellen wir fest, dass sich die zugehörigen S-B Strahlungsäquivalente nicht proportional zu den Temperaturänderungen verhalten:

Wie bei einem T4-Gesetz zu erwarten ist, erhöht sich das individuelle S-B Strahlungsäquivalent mit ansteigenden Temperaturen überproportional. Wir erhalten für die ausgewählten Temperaturen damit folgende S-B Strahlungsäquivalente:

Eine beliebige symmetrische Temperaturverteilung um einen globalen Mittelwert von 14,8°C kann also niemals ein S-B Strahlungsäquivalent von 390 W/m² ergeben. Daher kann aus einem solchen falsch berechneten S-B Strahlungsäquivalent übrigens auch kein „natürlicher“ atmosphärischer Treibhauseffekt von 155 W/m² abgeleitet werden. Die hier vorgestellte einfache lineare Abschätzung aus 3 Einzelwerten liefert vielmehr rechnerisch einen „natürlichen“ Treibhauseffekt von

(413W/m²-235W/m²=) 178 W/m² anstelle der üblicherweise behaupteten 155 W/m²

und führt schon damit zu einem Widerspruch. Der „natürliche“ atmosphärische Treibhauseffekt resultiert also aus einer mangelhaften Kenntnis des Stefan-Boltzmann-Gesetzes, Zitat aus [1] zum ganz langsamen Mitdenken: „…energy radiated in unit time by a black bodywhere T is the absolute temperature of the body“. Das Stefan-Boltzmann-Gesetz ist demnach nur unmittelbar „just in time“ gültig, es dürfen damit also weder zeitlich noch räumlich zusammenfassende Durchschnittswerte verknüpft werden.
ABER:Die NST selbst stellt eine langjährige globale Durchschnittstemperatur dar, bei der im Idealfall alle Energieflüsse (IN and OUT) über den Tag- und Nachtverlauf sowie die Breitenverteilung und der Jahresverlauf aller benutzten Meßstationen bereits korrekt herausgemittelt worden sein sollten. Dieser quasi-konstante NST-Wert ist damit um die langjährige Ein-und Abstrahlung bereinigt worden und hat überhaupt nichts mehr mit der globalen Strahlungsbilanz zu tun.Ihr tatsächlicher Wert spielt bei dieser Betrachtung also keine Rolle, und sein S-B Strahlungsäquivalent ist irrelevant.

Für den Fall, dass wir alle wetterabhängigen sowie tages- und jahreszeitlich variablen Prozesse auf unserer Erde in einer langjährigen Betrachtung als durchschnittlich ausgeglichen voraussetzen können, wie das bei einer konstanten NST ja der Fall sein sollte, lässt sich aus der richtigen Beziehung (1) und dem „ABER“-Kommentar zu (4) schließlich eine konkrete Aussage herleiten.

Die Gleichung für die globale Energiebilanz unserer Erde heißt damit:

(IN =940 W/m² *pR2)  =  (OUT = 235 W/m² *4 pR2)  @  NST (= 14,8 °C)

Wir haben hier auf unserer Erde also eine ausgeglichene globale Strahlungsbilanz bei einer konstanten global gemessenen Durchschnittstemperatur, wie immer diese auch ermittelt worden sein mag oder vielleicht erst viel später einmal korrekt ermittelt werden wird. Diese global gemessene Durchschnittstemperatur repräsentiert damit den durchschnittlichen globalen Netto-Wärmeinhalt von Atmosphäre und Ozeanen auf unserer Erde, um den herum permanent die hemisphärische Einstrahlung und die globale Abstrahlung erfolgen.




Zirkel­schluss: das Scheitern des Rück­kopplungs-Schwindels des IPCC

Meine Antwort auf Roy Spencers Kommentar, geschrieben auf seinem Blog drroyspencer.com, wurde inzwischen 1400 mal angeklickt, und die drei vorherigen Artikel wurden jeweils über 1000 mal, über 350 mal und über 750 mal angeklickt. Anderswo hat ein notorisch jähzorniger skeptischer Blogger auf die Frage, ob er zu unserem Ergebnis einen Kommentar schreiben will, geantwortet, er lasse sich nicht dazu herab, etwas so Einfaches zu diskutieren. Einfach ist es. Wie kommt man bloß darauf, dass es keine Klima-Rückkopplungs-Prozesse auf die große Emissionstemperatur gibt, jedenfalls nicht im gleichen Ausmaß, wie sie auf die geringe Erhöhung jener Temperatur reagieren, verursacht durch das Hinzufügen nicht kondensierender Treibhausgase in die Atmosphäre? Das ist ein einfacher Punkt. Aber einfach heißt nicht notwendigerweise falsch.

In diesem Beitrag wird die Mathematik hergeleitet, was weder einfach noch intuitiv, wenngleich auch nicht besonders komplex ist. Wie in Beiträgen zuvor möchte ich einige Fragen aus Kommentaren zu jenen Beiträgen beantworten. Wie zuvor akzeptieren wir ad interim, ad argumentum oder ad experimentum alle Ergebnisse der offiziellen Klimatologie – es sei denn, wir können nachweisen, dass diese Ergebnisse falsch sind.

Führen wir doch einfach ein simples Gedankenexperiment durch. Dabei kehren wir das Modell von Lacis et al. (2010) um. Lacis hatte herausgefunden, dass das Klima, nachdem man alle nicht kondensierenden Treibhausgase aus der Atmosphäre entfernt hatte, ein neues Gleichgewicht erreicht hätte. Dann wäre die Erde ein Schneeball oder ein Wasserplanet mit einer Albedo von 0,418, was eine Emissionstemperatur von 243,3 K impliziert. Kraft dieses Experimentes sollten wir folglich annehmen, dass es im Jahre 1800 keine Treibhausgase in der Atmosphäre gab. Für all jene, die mit wissenschaftlicher Logik nicht vertraut sind: Damit ist nicht gesagt, dass es im Jahre 1800 wirklich keine Treibhausgase gab.

Lacis zufolge soll die globale mittlere Temperatur 20 Jahre nach Entfernung aller nicht kondensierenden Treibhausgase aus der Atmosphäre auf 253 K sinken. Während der folgenden 30 Jahre soll die Temperatur um lediglich ein weiteres K zurückgehen auf 252 K oder 8,7 K über der Emissionstemperatur. Folglich erreicht die Temperatur in Lacis‘ Modell bereits nach 50 Jahren ihr neues Gleichgewicht.

Eine Frage, die nur Wenige in den bisherigen Beiträgen beantwortet haben, und keiner davon überzeugend, lautet: Aus welcher Quelle stammen diese zusätzlichen 8,7 K, wenn es doch keine nicht kondensierenden Treibhausgase als Antrieb gab? Unsere Antwort lautet, dass Lacit implizit die Existenz einer Rückkopplungs-Reaktion auf die Emissionstemperatur von 243,3 K eingeräumt hat, wenngleich dieser Wert viel zu klein ist, um realistisch zu sein. Viel zu klein deshalb, weil wie im vorigen Artikel gezeigt, Lacis die Temperaturdifferenz von 45,1 K zwischen der impliziten Emissionstemperatur von 243,3 K bei der spezifizierten Albedo von 0,418 einerseits und der heutigen globalen Mitteltemperatur andererseits von 288,4 K (ISCCP, 2018), wie folgt zuordnet: Rückkopplungs-Reaktion auf die Emissionstemperatur 252 – 243,3 = 8,7 K. Direkt von natürlich vorkommenden, nicht kondensierenden Treibhausgasen angetriebene Erwärmung (288,4 – 252)/4 = 9,1 K, und bei Anwendung der Rückkopplungs-Reaktion von 0,75 nach Lacis aus den nicht kondensierenden Treibhausgasen 27,3 K: insgesamt 45,1 K. Diese asymmetrische Zuordnung der Differenz zwischen Emissionstemperatur und gegenwärtiger Temperatur impliziert, dass die Rückkopplungsreaktion von 8,7 K auf die Emissionstemperatur lediglich 3,6% von 243,3 K ausmacht, während die Rückkopplungs-Reaktion von 27,3 K auf die Treibhaus-Erwärmung 300% der 9,1 K ausmacht. Später wird formell nachgewiesen, dass diese implausible Zuordnung irrig ist.

Es ist nützlich zu unterscheiden zwischen der vorindustriellen Lage im Jahre 1850 (dem ersten Jahr der HadCRUT-Reihe, dem längsten globalen Temperatur-Datensatz) und der industriellen Ära. Wir wollen annehmen, dass die gesamt globale Erwärmung vor 1850 natürlichen Ursprungs war. In jenem Jahr lag die Temperatur um etwa 0,8 K unter dem heutigen Wert von 287,6 K (HadCRUT4) oder um 44,3 K über der Emissionstemperatur. Lacis‘ Aufteilung der 44,3 K wäre also 8,7 K; 8,9 K und 26,7 K.

Nehmen wir einmal an, dass Lacis recht hatte damit, dass die direkt getriebene Erwärmung durch Hinzufügen der natürlich vorkommenden, nicht kondensierenden Treibhausgase 8,9 K betragen hatte. Lassen wir das Experiment ab 1850 umgekehrt laufen, können wir den Rückkopplungs-Anteil berechnen, der implizit in Lacis‘ Modell steckt nach der Korrektur, um eine ordentliche Rückkopplungs-Reaktion auf die Emissionstemperatur zuzulassen. Bevor wir das tun sei an die gegenwärtig vom IPCC verwendete Liste der Rückkopplungen erinnert, die relevant für die Ableitung sowohl der kurzlebigen als auch der Gleichgewichts-Sensitivitäten sind:

Die vom IPCC gewählte Luxus-Rückkopplungs-Summe [high-end feedback sum] impliziert eine Charney-Sensitivität irgendwo zwischen minus unendlich und plus unendlich pro CO2-Verdoppelung. Kein wirklich gewaltiges Ergebnis nach 30 Jahren und der Ausgabe von hunderten Milliarden Steuerzahler-Dollar. Die Rückkopplungssumme des IPCC in der Mitte der Bandbreite impliziert eine mittlere Charney-Sensitivität von nur 2,2 K und nicht die in den früheren IPCC-Berichten genannten 3,0 bis 3,5 K; und auch nicht die 3,3 K der CMIP3 und CMIP5-Modelle. Da ist es keine Überraschung, dass das IPCC im Jahre 2013 zum ersten Mal keine mittlere Schätzung der Charney-Sensitivität genannt hat.

Keine der vom IPCC gelisteten Rückkopplungen ist vom Vorhandensein irgendwelcher nicht kondensierender Treibhausgase abhängig. Daher wären alle diese Rückkopplungs-Prozesse in unserer Welt um das Jahr 1800 ganz ohne derartige Gase präsent. Um eine Rückkopplungs-Reaktion zu induzieren, so irgendein Rückkopplungs-Prozess präsent ist, bedarf es als einzige Notwendigkeit einer Temperatur, d. h. die Emissionstemperatur. Da Rückkopplungs-Prozesse präsent sind, ist eine Rückkopplungs-Reaktion unvermeidlich.

Die Emissionstemperatur hängt von lediglich drei Größen ab: Einstrahlung, Albedo und Emissivität. Man begeht kaum einen Fehler, falls man die Emissionstemperatur wie gewöhnlich als Einheit betrachtet. Damit beträgt die Emissionstemperatur bei der heutigen Einstrahlung von 1364,625 W/m² und einer Lacis-Albedo von 0,418: [1364,625(1 – 0.418) / d / (5,6704 x 10–8)]0.25 = 243.3 K. Dies steht in Übereinstimmung mit der fundamentalen Gleichung des Strahlungstransports, wobei d das Verhältnis ist zwischen dem Gebiet der sphärischen Oberfläche der Erde zu ihrem großen Kreis = 4 ist. Genauso läge die Emissionstemperatur bei der heutigen Albedo von 0,293 bei 255,4 K. Dieser Wert wird allgemein in der Literatur zur Klimasensitivität genannt.

Der Grund, warum die offizielle Klimatologie bis jetzt der Rückkopplungs-Reaktion auf die Emissionstemperatur nicht das angemessene Gewicht verliehen hat (oder besser, überhaupt kein Gewicht) ist, dass man eine entartete Form der Null-Dimensions-Modell-Gleichung verwendet hat, die da lautet ΔTeq = ΔTref / (1 – f ), wo die Gleichgewichts-Sensitivität ΔTeq nach Berücksichtigung von Rückkopplungen gleich ist dem Verhältnis der Referenz-Sensitivität ΔTref zu (1 minus Rückkopplungs-Anteil f). Das Rückkopplungs-Loop-Diagramm (unten) räumt der Emissionstemperatur keinen Raum ein und daher auch nicht irgendeiner Rückkopplungs-Reaktion.

Der Rückkopplungs-Loop in der von der offiziellen Klimatologie verwendeten Null-Dimensions-Modell-Gleichung ΔTeq = ΔTref / (1 – f )

Diese entartete Form der Null-Dimensions-Modell-Gleichung ist angemessen, wenn nicht sogar ideal, um Gleichgewichts-Sensitivitäten abzuleiten unter der Voraussetzung, dass zunächst eine Rückkopplungs-Reaktion auf die Emissionstemperatur zugelassen wird. Dennoch finden es viele Kommentatoren empörend, dass die offizielle Klimatologie eine so einfache Gleichung anwendet, um die Gleichgewichts-Sensitivitäten zu diagnostizieren, welche zu prophezeien von den komplexen Zirkulations-Modellen erwartet wird. Einige wenige haben versucht zu leugnen, dass diese Gleichung angewendet wird. Allerdings haben Hansen (1984), Schlesinger (1985), das IPCC (2007, p. 631 fn.), Roe (2009), Bates (2016) und einige andere Größen diese Gleichung angewendet:

f = 1 –Tref / Teq = 1 – (TE + ΔTB) / TN

= 1 – (255,4 + 8) / 287,6 = 0,08. (4)

Jetzt wollen wir beweisen, dass die Form dieser diagnostischen Gleichung, wie sie von der offiziellen Klimatologie angewendet wird, das offizielle Intervall der Charney-Sensitivitäten ergibt, wenn man die offiziellen Werte eingibt. Das IPCC (2013, Abb. 9.43) erwähnt Vial et al. (2013), der den CO2-Antrieb ΔQ0 diagnostiziert hat, ebenso wie den Planck-Parameter λ0 und die Rückkopplungs-Summe k bei einer abrupten Vervierfachung der CO2-Konzentration in 11 CMIP5-Modellen via des linearen Regressions-Verfahrens in Gregory (2004). Vial gibt die mittlere Schätzung kmid der Rückkopplungs-Summe aus 11 CMIP5-Modellen als 1,57 W/m²K an mit der Implikation fmid = kmidλ0 = 0,49 und der 2σ-Grenzen von f als fmid ± 40%, d. h. 0,49 ± 0,20.

Der implizite CO2-Antrieb ΔQ0, in welchen schnelle Rückkopplungen mit eingehen, betrug 4,5 W/m² im Vergleich zu den 3,5 W/m² in Andrews 2010. Die Referenz-Sensitivität ΔTS, von Vial mit 1,41 K bewertet, lag um 20% über der mittleren Schätzung der CMIP5-Modelle von 1,1 K. Verwendet man diese Werte erweist sich die Version der von der offiziellen Klimatologie herangezogenen Null-Dimension-Modell-Gleichung als gut kalibriert. Sie ergibt eine Charney-Sensitivität ΔT auf 3,3 (2,0; 4,5) K, fast genau inhaltsgleich mit vielen veröffentlichten offiziellen Intervallen der CMIP3 und CMIp5-Modelle (Tabelle 2):

Aus dieser erfolgreichen Kalibrierung folgt, dass obwohl die von der Gleichung vermuteten Rückkopplungen linear, einige aber auch nicht linear sind, sie immer noch die Gleichgewichts-Sensitivitäten korrekt aufteilt zwischen der erzwungenen Erwärmung und der Rückkopplungs-Reaktion. Im Besonderen reproduziert sie das von den CMIP5-Modellen projizierte Intervall der Charney-Sensitivitäten, welche Nicht-Linearitäten berücksichtigen. Die Kalibrierung bestätigt nicht, dass der Modellwert f ≈ 0,7 für den Rückkopplungs-Anteil oder ihr Intervall der Charney-Sensitivitäten korrekt ist. Sie bestätigt jedoch, dass die Gleichung mit den offiziellen Werten von f die offiziellen, von den komplexen CMIP-Modellen veröffentlichten Prognosen der Charney-Sensitivität bestätigt. Und das, obwohl keinerlei Berücksichtigung der großen Rückkopplungs-Reaktion auf die Emissionstemperatur erfolgte.

Die offizielle Klimatologie adjustiert ihre Modelle so lange, bis sie das Klima der Vergangenheit reproduzieren. Folglich wurden die Modelle so frisiert, dass sie der Differenz von 33 K Rechnung tragen zwischen der Emissionstemperatur von 255,4 K und der heutigen Temperatur von 288,4 K. Man hatte hypothetisiert, dass ein Drittel der 33 K der direkt getriebenen Erwärmung geschuldet war seitens natürlich auftretender, nicht kondensierender Treibhausgase, und die anderen zwei Drittel bis drei Viertel waren die Rückkopplungs-Reaktion auf diese direkte Erwärmung. Folglich haben sie hypothetisiert, dass der Rückkopplungs-Anteil zwei Drittel bis drei Viertel der Gleichgewichts-Sensitivität ausmacht: d. h. dass f irgendwo zwischen 0,67 und 0,75 liegt.

Als einen ersten Schritt zur angemessenen Berücksichtigung der Rückkopplungs-Reaktion auf die Emissionstemperatur kann die Version der offiziellen Klimatologie der Null-Dimension-Modell-Gleichung überarbeitet werden, um die Delta-Eingangs- und -Ausgangssignale durch absolute Werte zu ersetzen, welche lediglich Änderungen der Temperatur sind. Man beachte, dass die korrekte Form jedweder Gleichung, welche natürliches Auftreten (oder jedwede Naturgesetzte) beschreibt, absolute Werte sind: Die Anwendung von Deltas ist nur zulässig, falls die Delta-Gleichungen korrekt abgeleitet sind aus der absoluten Gleichung. Demzufolge sollte ΔTeq = ΔTref / (1 – f ) werden zu Teq = Tref / (1 – f ). Das überarbeitete Rückkopplungs-Loop-Diagramm sieht so aus:

Nach Amendierung, um Delta-Eingangs- und -Ausgangssignale durch absolute Werte zu ersetzen, wird die offizielle Version der Null-Dimension-Modell-Gleichung zu Teq = Tref / (1 – f ).

Um f bei bekannter Referenz- und Gleichgewichts-Temperatur zu berechnen, kann diese überarbeitete Gleichung umgeschrieben werden zu f = 1 – Tref / Teq. In dem umgekehrten Lacis-Experiment setzt sich die Referenz-Temperatur Tref vor der Rückkopplung zusammen aus Emissionstemperatur TE und der zusätzlichen Temperatur ΔTE = 8,9 K. Diese ist die direkte Erwärmung bei Hinzufügen der natürlich auftretenden, nicht kondensierenden Treibhausgase in die Luft. Folglich gilt: Tref = TE + ΔTE = 243.3 + 8.9 = 252.2 K. Die Gleichgewichts-Temperatur Teq ist einfach die Temperatur des Jahres 1850, nach 50 Jahren des umgekehrten Lacis-Experimentes. Dann ist f = 1 – Tref / Teq = 1 – 252.2 / 287.6 = 0.123, also nur ein Fünftel bis ein Sechstel des Wertes der offiziellen Klimatologie. Ursache dieser Differenz ist, dass wir anders als die offizielle Klimatologie die Rückkopplungs-Reaktion auf die Emissionstemperatur korrekt berücksichtigen.

Weiter. Wie viel der Differenz von 35,4 K zwischen Tref = 252,2 K und Teq = 287,6 K geht zurück auf die Rückkopplungs-Reaktion auf die Emissionstemperatur TE = 243,3 K und wie viel macht die Rückkopplungs-Reaktion auf die direkte Treibhausgas-Erwärmung ΔTE = 8.9 K aus? Man nehme einfach das Produkt von jedem Wert, und f / (1 – f) = 0,14. Folglich: 243,3 x 0,14 = 34,1 K und 8,9 x 0,14 = 1,3 K. Dass dies die korrekte Aufteilung ist, beweisen wir mittels der Standard-Mainstream-Form der Null-Dimension-Modell-Gleichung, die in allen dynamischen Systemen universell ist außer Klima. Die Mainstream-Gleichung separiert anders als die degenerierte Form der Klimawissenschaft explizit das Eingangssignal (bei Klima die Emissionstemperatur von 255,4 K) von jeder Verstärkung ( wie etwa die Erwärmung um 8,9 K durch Hinzufügen der nicht kondensierenden Treibhausgase zur Atmosphäre).

Die Mainstream-Null-Dimension-Modell-Gleichung lautet Teq = Tref μ / (1 – μβ), wobei Tref das Eingangssignal ist (hier: die Emissionstemperatur); μ = 1 + ΔTref / Tref der Verstärkungsfaktor, der jedwede Verstärkung von Tref repräsentiert wie etwa jenen, die verursacht wird durch die Präsenz der natürlich vorhandenen, nicht kondensierenden Treibhausgase; β ist der Rückkopplungs-Anteil; μβ ist der Rückkopplungs-Faktor, äquivalent zu f in der gegenwärtigen Version der offiziellen Klimatologie; und Teq ist die Gleichgewichts-Temperatur bei Re-Equilibration des Klimas, nachdem alle Rückkopplungen kürzer als ein Jahrzehnt wirksam geworden sind.

Der Rückkopplungs-Loop für diese korrigierte Form der Null-Dimension-Modell-Gleichung sieht so aus:

Das Rückkopplungs-Loop-Diagramm der Standard-Null-Dimension-Modell-Gleichung Teq = Tref μ / (1 – μβ)

Ein Vorteil der Anwendung dieser Form der Null-Dimension-Modell-Gleichung der Mainstream-Wissenschaft ist, dass sie explizit und separat das Eingangssignal Tref berücksichtigt und jede Verstärkung desselben via dem gain factor μ im Verstärker. Daher ist es nicht mehr möglich, entweder Tref oder die Rückkopplungs-Reaktion zu ignorieren oder zu gering zu bewerten, wozu es kommen muss, solange der Rückkopplungs-Anteil β ungleich Null ist.

Weiter unten wird nachgewiesen, dass die Aufteilung der Differenz von 35,4 K zwischen Tref = 252,2 K und Teq = 287,6 K im Jahre 1850, was wir aus unserem Gedankenexperiment zuvor abgeleitet haben, tatsächlich die korrekte Aufteilung ist. Beginnt man mit der Mainstream-Gleichung, führen wir zur rechten Zeit den direkten oder open-loop gain factor μ = 1 + ΔTref / Tref ein. Der Rückkopplungs-Faktor μβ, also das Produkt aus dem direkten oder open-loop gain factor μ und dem Rückkopplungs-Anteil β, hat genau die Form, welche wir angewendet haben, um unseren Rückkopplungs-Anteil f abzuleiten als 1 – (243,3 + 8,9) / 287,6 = 0,123. Dies bestätigt, dass unsere Aufteilung korrekt war.

Man beachte im Vorübergehen, dass f in der offiziellen Klimatologie sofort der Rückkopplungs-Anteil und der Rückkopplungs-Faktor ist, nimmt doch die offizielle Klimatologie an, dass der direkte oder open-loop gain factor μ = 1 ist. In der Praxis führt diese einzelne Hypothese die offizielle Klimatologie in die Irre, weil die Verstärkung der Emissionstemperatur, getrieben durch die Präsenz der nicht kondensierenden Treibhausgase, nur ein kleiner Anteil jener Temperatur ist.

Für uns war jedoch die Annahme vernünftiger, dass die Temperatur von 287,6 K im Jahre 1850 vor jedem potentiellen Einfluss des Menschen eine Gleichgewichts-Temperatur war. Wir wissen, dass sich die Welt während der 168 Jahre seit 1850 um nur 0,8 K erwärmt hat. Die offizielle Klimatologie ordnet diese gesamte Erwärmung dem Menschen zu, nicht der Natur.

War es sinnvoll von uns, mit der impliziten Emissionstemperatur von Lacis von 243,3 K anzufangen, welche die spezifizierte Albedo 0,418 auf einer Wasser-Erde beim Fehlen nicht kondensierender Treibhausgase reflektiert? Warum fingen wir nicht mit Pierrehumbert (2011) an, welcher sagte, dass eine Schneeball-Erde eine Albedo von 0,6 aufweisen würde, was eine Emissionstemperatur von 221,5 K impliziert? Rechnen wir mal. Der Rückkopplungs-Anteil f = μβ würde dann zu 1 – (221,5 + 8,9) / 287,6 = 0,20.

Folglich wäre der mittlere Rückkopplungs-Anteil einer Schneeball-Erde im Jahre 1850 0,20; derjenige von einer Wasser-Erde in jenem Jahr 0,12 und bei der heutigen Albedo 0,293 mit einer impliziten Emissionstemperatur von 255,4 K. Es ergibt sich 1 – (255,4 + 8,9) / 287,6 = 0,08. Damit begannen wir auch unsere Reihe. Man bemerkt, dass beim Schmelzen der großen Eisschilde die Dominanz der Albedo-Rückkopplung unaufhaltsam geringer wird, während der Rückkopplungs-Anteil mit der Zeit sinkt.

Obwohl die Albedo-Rückkopplung bis jetzt dominiert haben mag, was ist mit der größten aller heutigen Rückkopplungen, der Wasserdampf-Rückkopplung? Die Clausius-Clapeyron-Gleichung impliziert, dass der von der Atmosphäre eingenommene Raum bei Erwärmung derselben fast exponentiell mehr Wasserdampf enthalten kann, aber nicht muss. Wentz (2007) kam zu dem Ergebnis, dass die Gesamt-Säule Wasserdampf pro 1 K Erwärmung um etwa 7% zunimmt. Lacis (2010) kam aufgrund dieser Zuwachsrate zu der Aussage, dass falls man die nicht kondensierenden Treibhausgase aus der heutigen Atmosphäre entfernt und die Temperatur um 36 K, also von 288 auf 252 K sinken würde, sich etwa 10% des heutigen Wasserdampfes in der Atmosphäre befinden würde, also: 100% / 1.0736 = 9%.

Spezifische Feuchtigkeit (g/kg) in den Druckniveaus 300, 600 und 1000 hPa

Obwohl die Zunahme der Wasserdampf-Säule mit Erwärmung folglich als exponentiell angesehen wird, ist der daraus folgende Rückkopplungs-Antrieb jedoch in etwa logarithmisch (genau wie der direkte CO2-Antrieb logarithmisch ist). Was noch mehr zählt ist, dass ein substantieller Anteil der daraus folgenden Rückkopplungs-Reaktion ausgeglichen wird durch eine Reduktion der Rückkopplung des geringer werdenden vertikalen Temperaturgradienten. Demzufolge ist die Wasserdampf/lapse rate-Rückkopplung in etwa linear.

Während des Zeitraumes der NOAA-Aufzeichnungen der spezifischen Feuchtigkeit in drei verschiedenen Druckniveaus (oben) erfolgte eine globale Erwärmung von 0,8 K. Wentz hätte eine Zunahme des Wasserdampfes um etwa 5,5% erwartet. Tatsächlich fand sich nahe der Erdoberfläche, wo sich der meiste Wasserdampf befindet, ein Trend der spezifischen Feuchtigkeit mit etwa diesem Wert. Aber die Reaktion der Wasserdampf-Rückkopplung in niedrigen Höhen ist gering, weil die Luft alles andere als bereits gesättigt ist.

Allerdings sank die spezifische Feuchtigkeit mit der Höhe, wo die Luft trockener ist und zunehmender Wasserdampf die einzige in Frage kommende Quelle von Erwärmung ist. Das bestätigt die Nicht-Existenz des prophezeiten „Hot Spots“ in mittlerer Höhe der Atmosphäre über den Tropen, welcher angeblich durch zunehmenden Wasserdampf-Gehalt entstehen sollte. Also gibt es kaum Beweise dafür, dass die Temperatur-Reaktion auf einen gestiegenen Wasserdampf-Gehalt und die korrespondierende Verringerung der lapse rate nicht linear ist. Andere Rückkopplungen sind nicht groß genug, um einen großen Unterschied auszumachen, selbst wenn sie nicht linear sind.

Unser Verfahren prognostiziert eine Erwärmung von 0,78 K von 1850 bis 2011. Beobachtet worden waren 0,75 K.

Ein Kommentator hat sich darüber beklagt, dass der Planck-Parameter (die Quantität, mit der ein Strahlungsantrieb in W/m² multipliziert werden muss, um in eine Temperaturänderung konvertiert zu werden) weder konstant noch linear ist: stattdessen sei er die erste Ableitung einer Relation zur vierten Potenz, die fundamentale Gleichung des Strahlungstransports. Hier müssen wir eine kleine Berechnung durchführen. Übernimmt man die gewöhnliche harmlose und vereinfachende Hypothese der konstanten Einheit Emissivität ist die erste Ableitung, d. h. die Änderung ΔTref der Referenztemperatur pro Einheitsänderung ΔQ0 der Dichte des Strahlungsflusses einfach Tref / (4Q0), und das ist linear.

Eine einfache Approximation, um breitenabhängige Variationen des Planck-Parameters zu integrieren ist es, das Schlesinger-Verhältnis anzuwenden: d. h. das Verhältnis der Temperatur TS zum Vierfachen der Flussdichte Q0 = 241,2 W/m² in der Emissionshöhe. Bei den 255,4 K, welche ohne Rückkopplungen und Treibhausgase vorherrschen würden, wäre der Planck-Parameter 255,4 / (4 X 241,2) = 0,26 K/Wm². Bei der heutigen Temperatur von 288,4 K ist der Planck-Parameter 288,4 / (4 X 241,2) = 0,30. Da ist nicht sehr viel Nichtlinearität.

Es ist daher sinnvoll anzunehmen, dass so etwas wie der mittlere Rückkopplungs-Anteil 0,08; abgeleitet aus dem Experiment, in welchem man der Atmosphäre nicht kondensierende Treibhausgase hinzufügt, weiterhin vorherrschen wird. Falls das so ist, beträgt die Gleichgewichts-Erwärmung, die man aus dem anthropogenen Antrieb der 2,29 W/m² während der industriellen Ära bis 2011 (IPCC 2013, Abb. SPM.5) erwarten kann, 2,29 / 3,2 / (1-0,08) = 0,78 K. Und tatsächlich zeigt der Trend der linearen Regression kleinster Quadrate im Datensatz der globalen mittleren Temperatur von HadCRUT4 von 1850 bis 2011 eine Erwärmung um 0,75 K.

Aber warum zeigen die Temperaturmessungen der ARGO-Bojen dann ein „Strahlungsenergie-Ungleichgewicht“, was auf mehr Erwärmung in der Pipeline hindeutet, sondern dass die enorme Wärmekapazität der Ozeane diese für jetzt absorbiert hat?

Eine Möglichkeit ist, dass die ganze Erwärmung seit 1850 anthropogenen Ursprungs ist. Nehmen wir an, dass das Strahlungs-Ungleichgewicht bis 2010 0,59 W/m² betragen hat (Smith 2015). Die Erwärmung hat dann 2,29 – 0,59 = 1,70 W/m² in den Weltraum abgestrahlt. Die Gleichgewichts-Erwärmung sowohl durch anthropogene als auch durch natürliche Antriebe bis 2011 kann damit um 34,8% größer gewesen sein als die während der industriellen Ära gemessene Erwärmung von 0,75 K: d. h. 1,0 K. Falls 0,78 dieser 1 K anthropogenen Ursprungs wäre, dann gibt es nichts, um zu verhindern, dass die restlichen 0,22 K natürlichen Ursprungs sind, geschuldet der internen Variabilität. Dieses Ergebnis ist tatsächlich konsistent mit dem vermeintlichen „Konsens“, dass über die Hälfte der jüngsten Erwärmung anthropogenen Ursprungs ist.

Die Implikation für die Charney-Sensitivität – d. h. die Gleichgewichts-Sensitivität bei einer verdoppelten CO2-Konzentration – ist geradlinig. Den Modellen zufolge beträgt der CO2-Antrieb 3,5 W/m² pro Verdoppelung. Teilt man dies durch 3,2, um dem heutigen Planck-Parameter Rechnung zu tragen, konvertiert sich dieser Wert zu einer Referenz-Sensitivität von 1,1 K. Dann ist die Charney-Sensitivität 1,1 / (1 – 0,08) = 1,2 K. Und das ist die Grundlinie. Nicht die 3,3 K Schätzung der CMIP5-Modelle. Nicht die 11 K von Stern (2006). Nur 1,2 K pro CO2-Verdoppelung. Und das liegt weit unterhalb allem, weswegen man sich Sorgen machen muss.

Keiner der Einwände gegen unsere Ergebnisse hat sich als substantiell erwiesen. Als Beispiel seien hier Yahoo-Antworten angeführt (sogar noch unzuverlässiger als Wikipedia) mit der folgenden herrlich albernen Antwort auf die Frage „hat Monckton einen grundlegenden Fehler entdeckt?“

Damit treibt der Fragesteller das folgende unsinnige Argument vor sich her:

1. Falls ich die Temperatur von 255,4 K auf der Erde ohne Treibhausgase heranziehe und die 8 K mit Treibhausgasen dazu addiere, erhalte ich eine Temperatur von 263,4 K.

2. Was ich sagen will: diese Total-Temperatur (anstatt lediglich des Treibhausgas-Effektes) führt zu einer Rückkopplung. Und falls ich dies anwende, erhalte ich eine Rückkopplung von 1 – (263,4 / 287,6) = 0,08.

Das Problem: Wie kann die Temperatur des Planeten (255,4 K) ohne Treibhausgase dann zu einer Rückkopplung führen? Die Rückkopplung ist den Gasen selbst geschuldet. Man kann nicht argumentieren, dass die Rückkopplung und in der Folge die höhere Temperatur infolge der Treibhausgase tatsächlich der Temperatur des Planeten ohne die Treibhausgase geschuldet ist! Was er gemacht hat ist, dass er die Grundlinie, auf der die Zunahme und die Rückkopplung fußt, herangezogen hat und diese dann als Grundlinie der Quelle von Zunahme und Rückkopplung angewendet hat.

Also, ich fürchte, das ist totaler Unsinn …

Der von Yahoo Answers begangene Fehler liegt in der falschen Annahme, dass „die Rückkopplung den Gasen selbst geschuldet ist“. Nein: man muss unterscheiden zwischen den kondensierenden Treibhausgasen einerseits (eine Änderung des Wasserdampfgehaltes der Atmosphäre ist ein Rückkopplungs-Prozess) und den nicht kondensierenden Treibhausgasen andererseits wie etwa CO2 (fast alle Änderungen der Konzentration nicht kondensierender Treibhausgase sind Antriebe). Alle in Tabelle 1 gelisteten Rückkopplungs-Prozesse wären präsent sogar beim Fehlen irgendeines der nicht kondensierenden Treibhausgase.

Ein weiterer Einwand ist, dass die offizielle Klimatologie vielleicht die Rückkopplungs-Reaktion auf die Emissionstemperatur berücksichtigt. Diesem Einwand kann rasch begegnet werden. Hier ist die typische eingestampfte und verschleiernde Definition einer „Klima-Rückkopplung“ vom IPCC (2013):

Klima-Rückkopplung: Eine Wechselwirkung, bei der eine Änderung in einer Klima-Quantität eine Änderung in einer zweiten verursacht, und die Änderung in der zweiten Quantität ultimativ zu einer zusätzlichen Änderung in der ersten Quantität führt. Bei einer negative Rückkopplung wird die Änderung abgeschwächt durch die Änderungen, die sie verursacht; eine positive Rückkopplung ist eine solche, in welcher die initiale Änderung verstärkt wird. In diesem Zustandsbericht wird oft eine engere Definition angewendet, in welcher die Klima-Quantität, welche sich ändert, die globale mittlere Temperatur ist, was wiederum Änderungen des globalen Strahlungshaushaltes verursacht. In jedem Falle kann die initiale Änderung entweder externen Ursprungs sein oder als Teil der inneren Variabilität daher kommen.

Diese IPC-Definition schließt also explizit jedwede Möglichkeit einer Rückkopplungs-Reaktion aus auf eine zuvor herrschende Temperatur wie die 255,4 K Emissionstemperatur, welche auf der Erde beim Fehlen jedweder Treibhausgase und Rückkopplungen herrschen würde. Aus diesem Grunde dachte Roy Spencer, dass wir falsch lagen.

Unser einfacher Punkt bleibt: wie kann ein unbelebter Rückkopplungs-Prozess wissen, wie man zwischen der Eingangs-Emission der Temperatur von 255,4 K und weiteren 9 K unterscheidet, der sich aus dem Hinzufügen nicht kondensierender Treibhausgase zur Atmosphäre ergibt? Wie kann dieser Prozess wissen, dass er auf Ersteres schwächer reagieren sollte als auf Letzteres? Oder, falls man der IPCC-Definition folgt, auf Erstere überhaupt nicht und auf Letztere extravagant? Trotz einiger wackerer Versuche seitens der wahrhaft Gläubigen, alles zu komplizieren, ist am Ende unser Punkt so einfach – und in unserer Eingabe unwiderlegbar.

Link: https://wattsupwiththat.com/2018/04/06/looping-the-loop-how-the-ipccs-feedback-aerobatics-failed/

Übersetzt von Chris Frey EIKE




Oh je – Analyse von GHCN-Klima­stationen zeigt, dass es keine statis­tische Erwärmung – oder Abkühlung – gibt

Man muss diese Studie buchstäblich als eine Begutachtung der Daten auf statistischer Grundlage verstehen. Ich habe eine Statistik entwickelt, um die Daten zu quantifizieren, einzuordnen und zu kategorisieren. Meine Statistik enthält keine Ecken und Kanten, sondern ist einfach die Gesamtänderung der Temperatur zwischen den ersten und den letzten 10 Jahren des Zeitraumes 1900 bis 2011 für jede Station.

Hier folgt zunächst eine Auflistung der Länder, welche die geringste bzw. die stärkste Gesamtänderung zeigen sowie die Anzahl der Stationen pro Land:

Dies ist ein altmodisches Histogramm, welches die Stationen in der Reihenfolge hinsichtlich der Gesamt-Temperatur listet. Diese zeigt die Daten in einer Glockenkurve. Die zugrunde liegende Verteilung ist sehr ähnlich einer Normalverteilung. Das bedeutet, dass die Anwendung normaler Verfahren sehr vernünftige Abschätzungen ergeben wird. Für einen Statistiker ist dies bedeutsam. Allerdings braucht man kein Hintergrundwissen in Statistik, um das Folgende zu verstehen.

Der Wert der Mittellinie liegt zwischen -0,5° und +0,5°. Die Anzahl der insgesamt eine Abkühlung zeigenden Stationen macht 40% aus. Etwas weniger als 60% zeigen eine Erwärmung. Die absolute Änderung ist an 74,6% aller Stationen statistisch nicht signifikant.

Die folgende Graphik zeigt eine normalisierte Darstellung jeder Kategorie: Keine signifikante Änderung, signifikante Erwärmung und signifikante Abkühlung. Der Graph zeigt gleitende Mittel über 10 Jahre. Jeder Plot ist so normalisiert worden, dass das Mittel des Zeitraumes 1900 bis 1910 Null beträgt.

Obwohl die Steigung jedes Plots signifikant unterschiedlich ist, ist der Verlauf der Kurven nahezu identisch. Eine Zufallssammlung individueller Stationsdaten zeigt, dass die Bedingungen für jede Station innerhalb der Bandbreite wahr bleiben. Zum Beispiel zeigt die dänische Grönland-Station, dass das Mittel der Jahre 1990 bis 2000 gleich ist dem Mittel von 1930 bis 1940.

Kurzfristige Änderungen wie etwa die Erwärmung bis in die dreißiger Jahre, sind bei einer Mehrheit der Stationen eindeutig erkennbar. Andere Beispiele hiervon sind der Temperatursprung der vierziger Jahre, die Abkühlung nach 1950 und der Temperatursprung zum Ende der neunziger Jahre.

Langfristige Änderungen variieren signifikant.

Aus dieser Analyse lässt sich eine ganze Reihe von Schlussfolgerungen ablesen:

Es gibt keinen statistisch signifikanten Unterschied zwischen Nordamerika und Europa. Die eine signifikante Abkühlung zeigenden Stationen machen nur 8% der Gesamtzahl aus. Bei dieser Statistik wäre die erwartete Anzahl von 17 eine Abkühlung zeigenden Stationen nur eine. Die Anzahl der eine signifikante Erwärmung zeigenden Stationen wäre 3. Vom Standpunkt der Stichprobenmenge aus sind 17 keine ausreichend große Stichprobe, um genaue Schätzungen zu erhalten.

Kurzfristige Änderungen, welche Stationen von Kanada über die USA bis Europa erkennbar sind, sind möglicherweise hemisphärische Änderungen. Allerdings gibt es keinen Hinweis darauf, dass diese Änderungen global sind, gibt es doch keine Anzeichen ähnlicher Änderungen in Australien. Tatsächlich unterscheidet sich die Gesamtverteilung in Australien offensichtlich von dem, was wir hier sehen.

Die Beweise zeigen eindeutig, dass die große Variation an den Gesamt-Temperaturtrends entweder regionalen oder lokalen Faktoren geschuldet ist. Wie in der Datentabelle oben gezeigt stammen alle Extreme dieser Variation aus den USA. Wie schon erwähnt reicht die Stichprobenmenge aus Europa einfach nicht aus, um genaue Schätzungen von Bedingungen mit kleiner Prozentzahl zu erhalten.

Weiter zeigt sich eindeutig, dass die meisten Differenzen der Gesamt-Temperaturänderung lokalen Faktoren geschuldet sind. In den USA erkennt man, dass extreme Erwärmung allgemein auf Gebiete mit starker Zunahme der Bevölkerung, Wachstum oder hohem Entwicklungsniveau beschränkt sind. Große Städte wie San Diego, Washington DC und Phoenix folgen dem verlauf signifikanter Änderung. Das gilt auch für Flughäfen. Allerdings folgen Städte wie New Orleans, St. Louis, El Paso und Charleston der Verteilung ohne signifikante Änderung.

Schlussfolgerung: Der Fall globale Erwärmung auf der Grundlage der verfügbaren langzeitlichen Daten ist sehr schwach. Es gibt Hinweise, dass eine hemisphärische Verteilung existiert. Weitere Beweise zeigen, dass es sich um eine zyklische Verteilung handelt, die in lokalisierten Temperaturspitzen während der dreißiger und der neunziger Jahre zum Ausdruck kommt. Allerdings scheinen Veränderungen der lokalen Umstände an den Stationen infolge menschlicher Entwicklungen der wichtigste Faktor zu sein, welcher die Gesamt-Temperaturänderungen beeinflusst. Extreme Erwärmungstrends sind fast mit Sicherheit auf vom Menschen vorgenommene lokale Änderungen zurückzuführen.

Unklar bis zu diesem Punkt ist die Bedeutung geringerer, vom Menschen induzierter Änderungen. Um dies abzuschätzen, bedarf es der Untersuchung individueller Stationsorte, um eine signifikante Stichprobe von Stationen zu erhalten, die keine Änderung zeigen. Unglücklicherweise hat man sich in den USA, in Kanada und Europa nicht einmal ansatzweise dieser Art von Informationen verschrieben wie in Australien. Ich muss zugeben, dass die Australier exzellente Arbeit geleistet haben, um Stationsinformationen verfügbar zu machen. Mit den aktuellen Koordinaten der tatsächlichen Teststationen war dies einfach. Ich schaute einfach bei Google Maps und war in der Lage, den Aufstellort und die Umgebung zu begutachten.

Mark Fife holds a BS in mathematics and has worked as a Quality Engineer in manufacturing for the past 30 years.

Link: https://wattsupwiththat.com/2018/04/01/uh-oh-analysis-of-ghcn-climate-stations-shows-there-is-no-statistically-significant-warming-or-cooling/

Übersetzt von Chris Frey EIKE




Ist der März in Deutschland endlich wieder so warm wie vor 1000 Jahren?

Bild 1 Verlauf der Märztemperatur Deutschland seit 1750. Grafik anhand der DWD-Daten vom Autor erstellt.

Einmal ist die diesjährige Märzspitze minimal und die Differenz seit 1938 unterhalb der Grenze der Messgenauigkeit einer sorgfältig geeichten Messstation (+- 0,2 °C). Man darf deshalb mit gutem Gewissen annehmen, dass sich der März 1938, 1998 und 2017 eher nicht messtechnisch belegt unterscheiden:

1938: 6,9 °C
1998: 6,98 °C
2017: 7,2 °C

Zum Klima gehören inzwischen unabdingbar die Simulationen, welche dessen Zukunft wissen sollen, wofür der DWD für Deutschland den Klimaatlas betreibt.
Bei der Simulation der Märztemperaturen liegen die meisten Simulationen bereits aktuell daneben (Bild 2),
bei der Simulation des Märzniederschlags ist es mit den Abweichungen noch weitaus schlimmer (Bild 3), wo höhere Temperaturen nach der AGW-Lehre doch höheren Niederschlag zur Folge haben müssen, dieser sich aber genau gegensätzlich verhält. Klar, dass da die Simulationen arg durcheinander kommen.
Nun bedenke man, dass diese Simulationen ständig “nachjustiert” werden (müssen) und trotzdem so hoffnungslos ungenau bleiben. Kein Wunder, dass deshalb ständig Klimawandler-Propheten durch die Gegend tingeln um davon abzulenken
(Bild 9).

Bild 2 Temperaturverlauf März Deutschland im DWD Klimaatlas mit Simulationsprojektionen

Bild 3 Niederschlagsverlauf März Deutschland im DWD Klimaatlas mit Simulationsprojektionen

Auffallender ist jedoch, dass die Märztemperatur in einem Trendkanal seit mindestens 1780, also schon 100 Jahre vor dem Beginn des AGW Klimawandels beginnt zuzunehmen, was das Vertrauen in die AGW-Klimawandeltheorie nicht gerade fördert.

Will man wissen, wie die Temperaturen davor waren, muss man bis auf wenige Ausnahmen (Bilder 8,x) auf Proxianalysen zurückgreifen. Eine solche ist im Bild 4 dargestellt. Erkennbar, dass es um das Jahr 1000 und weit früher sowohl im Winter wie im Sommer nochmals wärmer als aktuell war.

Bild 4 Temperaturproxi Deutschland Dürres Maar [1] (0 = aktuelle Zeit), Kühl et al. 2010: Wet phase 1000-1550 AD. Phase with warm winters (January temperatures) and colder summer temperatures 1000-1500 AD. Figure 5 (Ausschnitt, mit gegenüber dem Original gedrehter Temperaturskala )
Klimawandel-Fachpersonen behaupten, aus solchen Proxiverläufen ließen sich immense Detailinhalte herauslesen und sogar Simulationsprogramme kalibrieren. In Summe bilden solche Proxis jedoch fast immer einen „Proxi-Spaghettisalat“, aus dem jeder sich nach Neigung einen passenden Verlauf heraussuchen kann, wie die verzweifelten Rekonstruktionsversuche [2] des Pages2k-Projektes beispielhaft immer neu zeigen (Bild 5; 10).

Bild 5 Proxidaten Europa. Quelle: Pages2k Viewer

Der Autor zieht deshalb die vorhandene Zählung der See-Zufrierungen Zürichsee und Bodensee (Bild 6), zur Darstellung der Vergangenheitstemperaturen an. Diese zeigen viel deutlicher, dass wir uns aktuell in einer angenehm warmen und wahrscheinlich nicht unnatürlichen Klimaphase befinden. Wie es den in der kalten Phase lebenden Bewohnern Europas ergangen ist, kann man in vielen Geschichtsbüchern anhand erschütternder Beschreibungen von Hungersnöten und Unwetterereignissen! nachlesen.

Bild 6 Zufrierungen von Bodensee und Zürichsee. Grafik vom Autor erstellt. Datenquelle: Brunner 2014: Lake Constance (Bodensee) Historical reports on complete freeze-over events in Lake Constance (“Seegfrörne“). Brunner 2014: Lake Zürich Historical reports on complete freeze-over events in Lake Constance (“Seegfrörne“).

Diese Zufrierungen sind im Bild 7 umgedreht in ein Temperaturproxi bei Zürich aus dem Pages2k-Projekt kopiert. Wie man sieht, ist die nach-mittelalterliche Kaltzeit abgebildet, die Kaltzeit um das Jahr 1000 allerdings nicht. Wie typisch beim Klima(Wandel), stimmen wieder keine zwei Datensätze überein (immer gleiche Erkenntnis des Autors aus vielen Analysen).

Allerdings reichen die Genauigkeiten aus, um (wieder) zu zeigen:
-Der Beginn der aktuellen Warmphase nach der nach-mittelalterlichen Kaltzeit begann weit vor dem Klimawandel,
-vor dieser Kaltphase war es mindestens vergleichbar warm wie aktuell (das Jahrhundert ist noch lange nicht vorbei, ein See kann noch bis zu dessen Ende zufrieren und bestätigen, dass dies seit dem Jahr 800 in jedem Jahrhundert geschah).

Bild 7 Daten von Bild 6 vom Autor in das Proxi Swi06 (Pages2k-Projekt) kopiert

Nach Fertigstellung des Artikels fand der Autor noch Temperaturrekonstruktionen aus historischen Wetteraufzeichnungen vom südlichen Oberrheingraben. Unabhängig davon, dass diese erheblich von den Proxidarstellungen und See-Zufrierungen abweichen (und damit die Problematik von Temperaturrekonstruktionen zusätzlich belegen), zeigen sie jedoch ebenfalls keine, nur vom Menschen verursachtbare, übernatürliche Erwärmung.

Sehr interessant ist trotzdem auch der rekonstruierte Tagesverlauf in Bild 8.3. Es weist aus, was auch die Tages-Temperaturbilder seit ca. 1900 zeigen: Die Temperatur-Spitzenwerte erhöhen sich nicht [7] – und nach diesem Bild sogar seit ca. 1500.

Bild 8.1 [6] Wintertemperaturen Deutschland Region TriRhena von 1750 bis 2003
Bild 8.2 [6] Frühjahrstemperaturen Deutschland Region TriRhena von 1750 bis 2003
Bild 8.3 [6] Deutschland Region TriRhena von 1500 bis 2003. Der Verlauf der Lufttemperatur in der Region TriRhena von 1500 bis 2003. Die linke Ordinate ist die Skalierung des Jahreganges, die rechte Ordinate für die Tiefpassfilter auf 10-¨und 30-jähriger Basis.
Fazit

Seitdem sich der DWD voll auf den Klimawandel-Hype ausgerichtet hat und (anhand von Aufträgen und Fördermitteln) gut davon partizipiert, kann man auch von dieser Seite keine neutrale Information mehr erwarten.
Weder weist er seriös auf Mess-Ungenauigkeiten und damit erforderliche Einschränkungen von Aussagen hin
[3] noch interessieren ihn in irgend einer Form historische Einstufungen, welche die aktuellen Temperaturmeldungen einzuordnen helfen.
Jeder nicht-Klimawandel-hysterisch eingestellte*in kann den März aber zum Anlass nehmen, irgendjemandem – oder einfach der Natur – zu danken, dass die teils grausame, sich über viele Jahrhunderte erstreckende Kälteperiode endlich vorbei zu sein scheint.
Im Mittelalter hätte man dafür überall Dankgottesdienste und –Prozessionen abgehalten, heute „schmeisst“ man Computer an und simuliert daraus den Weltuntergang. Auch die Gottesdienste gibt es, aber zum Beten, dass das kalte, eher tödliche Missernten-Klima der Vergangenheit wieder komme und danach bitte auch die nächste Eiszeit (Bild 11).

Nachspann

Bei der „Waldorfpartei“ scheint es inzwischen richtig Mode geworden zu sein, sich auf Parteiveranstaltungen von Klimawandel-Propheten auf den Weltuntergang einstimmen zu lassen. Erkennbar eine psychologische Finte, um den Mitgliedern die geforderten Verbote und Einschränkungen als alternativlos schmackhaft zu machen:
EIKE 01.01.2016: [4] Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor,
und dies, damit es auch so haften bleibt, regelmäßig zu wiederholen:

Bild 9 Screenshot aus einem Vortrag von Prof. Rahmstorf auf dem grünen Wirtschaftskongress (YouTube)

Im Vortragsbild beachte man die genau gezeichneteTemperatur-Verlaufslinie mit dem engen Fehlerbereich. In den vorhergehenden Kapiteln wurde bereits gezeigt, wie ungenau und stark voneinander abweichend Proxi-Rekonstruktionsversuche in Wirklichkeit aussehen. Legt man mehrere Proxis einer Gegend zusammen, sehen solche Rekonstruktion dann wie im Bild 5 (Europa) und als Beispiel für Asien mit mehr Proxis, wie im Bild 10 aus.

Bild 10 Proxiverläufe Asien. Quelle: Pages2k-Viewer

Aus solchem Datenchaos berechnet der Computer aber eine ganz genaue Mittelwert-Linie mit engen Toleranzen. Das muss er, weil mehr Datenmengen statistisch einen immer genaueren Endwert erzeugen. “Vergessen” wurde dem Computer allerdings zu “sagen”, dass die Bedingung dafür – die Daten selbst sind vertrauenswürdig und repräsentieren das damalige Klima und nicht einfach Rauschen und offensichtliche, extreme Datenfehler [2] nicht zutreffen.
Mit diesen Fehlern kalibriert und ergänzt durch ein Gespür für Bilddarstellungen, lässt sich dann der Hockeystick immer neu mit seinen gruseligen Folgen produzieren.

Nun zeigt das Vortragsbild natürlich die Temperatur der ganzen Welt. Nur, warum findet sich dann davon so wenig in Deutschland, welches nach einhelliger Meinung unserer politischen Fachpersonen vom Klimawandel bereits stark “angegriffen” wird:
EIKE 29.10.2015: Kann man den Klimawandel in Deutschland wirklich täglich spüren? Eine Suche mit überraschendem Ergebnis
EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen

Selbstverständlich informieren auch weder ein Herr H. Lesch, noch ein Hr. Rahmstorf, dass die historischen Daten und die wirkliche Zukunfts-Wahrscheinlichkeit ganz anders aussieht:
Selbst, wenn die “vorhergesagten + 3
°C Erwärmung noch kämen, könnte dies ein vollkommen natürlicher und nicht vom Menschen verursachter Klimavorgang sein. Allerdings veränderte dies nur etwas die Fallhöhe zur nächsten (fast schon überfälligen) Eiszeit [5].

Bild 11 Temperaturverlauf der letzten 450.000 Jahre. Quelle: climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt

Quellen

[1] Kühl et al. 2010: A multiproxy record of late Holocene natural and anthropogenic environmental change from the Sphagnum peat bog Dürres Maar, Germany: implications for quantitative climate reconstructions based on pollen

[2] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

[3] EIKE 28.07.2015: 5. Juli 2015, der bisher heißeste Tag Deutschlands?

[4] EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[5] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

[6] Berichte des Meteorologischen Institutes der Universität Freiburg Nr. 13, Paul Dosta: Klimarekonstruktion der Regio TriRhena mit Hilfe von direkten und indirekten Daten vor der Instrumentenbeobachtung

[7] EIKE 06.11.2015: Langfrist-Temperaturverläufe Deutschlands: Das Phänomen der „Temperaturstufen“




Rückschau zum Winter 2016-17

          Verlauf der vier Jahreszeiten in Deutschland seit dem Jahr 1750

In den folgenden Grafiken sind zur Übersicht die Temperaturverläufe der vier Jahreszeiten in Deutschland seit 1750 gezeigt.

Bild 1 Frühling Deutschland seit 1750. Grafik aus den DWD-Daten vom Autor erstellt

Bild 2 Sommer Deutschland seit 1750. Grafik aus den DWD-Daten vom Autor erstellt

Bild 3 Herbst Deutschland seit 1750. Grafik aus den DWD-Daten vom Autor erstellt

Bild 4 Winter Deutschland seit 1750. Grafik aus den DWD-Daten vom Autor erstellt

Bild 4 Winter Deutschland seit 1750. Grafik aus den DWD-Daten vom Autor erstellt

Aus den Grafiken sieht man sofort: Sofern es überhaupt einen Klimawandel gibt, begann die Erwärmung in Deutschland bereits weit vor dem Beginn der Industrialisierung und spätestens mit Beginn der Aufzeichnungsreihe. Und ausgerechnet der Sommer, der wohl am meisten vom „Treibhauseffekt“ beeinflusst sein müsste, zeigt davon am wenigsten.

Für den Autor bestätigt sich damit, was (nicht nur) er immer „behauptet“[2]: Die (geringfügige) Erwärmung begann nicht durch anthropogenes CO2, sondern ist Teil eines weit vorher begonnenen, natürlichen Klimavorganges. Das zeigen die Verlaufsbilder aus dem IPCC AR5 (inclusive neuerer Proxirekonstruktionen) in Bild 5, sowie eben erst publizierte Rekonstruktionen norwegischer Gletscher über die letzten 4000 Jahre (Bild 6). Diese Gletscherrekonstruktionen zeigen zudem wieder, dass die Gletschervolumen mindestens um Christi Geburt (Römische Warmzeit) geringer waren als aktuell und in historischen Zeiten davor ein Teil der Gletscher von Norwegen zeitweise sogar ganz verschwand. Sowieso stellt sich die Frage, warum der Mensch heute ein „Anrecht“ auf Gletscher erhebt, wo er diese über viele Jahrhunderte ausschließlich als reine, tödliche Bedrohung erlebte und empfand und deren Schmelzen sehnlichst von Gott erflehte (siehe EIKE: Fakten zu Gletscherschwund und Co.“)

Die Jahreszeiten-Grafiken zeigen auch, dass in Deutschland keinesfalls von einer „Erwärmungsbeschleunigung“ durch CO2 gesprochen werden kann. Die vielen AGW-Darstelllungen mit der Aussage: „aber noch nie in der Vergangenheit geschahen die Änderungen so schnell wie aktuell“, erweisen sich bei langfristigen Betrachtungen als haltlos.

Bild 5 Vergleich der neuen Klimarekonstruktionen (LOC 2k und LOC 500y) mit anderen Rekonstruktionen aus dem IPCC AR5

Bild 6 Eisvolumen-Verlauf norwegischer Gletscher seit 4000 Jahren. Quelle [3]

Deutschlands Winter

Der vom DWD gepflegte Deutsche Klimaatlas sieht den Verlauf des Winters wie folgt (Bild 7). Drastisch erkennbar sind in den Simulationsverläufen die bereits aktuell vorhandenen Fehler mit einer Spanne von bereits über 2 °C, so viel wie die gesamte Mittelwertvariabilität seit Beginn der Messreihe . Das Einzige, worin sich die Simulationen „einig“ sind, ist, dass es immer weiter wärmer werden muss, weil sie es aus dem kurzen Anstiegs-Vorlauf so „gelernt“ haben. Von Klimazyklen scheinen diese Simulationen erkennbar nichts zu wissen.

Bild 7 Verlauf des Winters seit 1881 mit Simulation bis 2100. Quelle: Deutscher Klimaatlas

Mit wieviel Vorsicht man diese Simulationen betrachten sollte, sei am Verlauf des Januar gezeigt. Wenn schon Deutschland trotz recht genauer, historischer Daten zur Kalibrierung nur höchst fehlerbehaftet (eigentlich vollkommen unbrauchbar) simuliert werden kann, wie ungenau müssen dann erst die Simulationen der Welttemperatur ausfallen.

Bild 8 Temperatur-Verlauf des Januar seit 1750 mit darüber kopierter Januar-Grafik aus dem Deutschen Klimaatlas.

Interessant wird es, wenn man den Temperaturverlauf der drei Wintermonate in Deutschland auf den Endwert 0 normiert und übereinander legt (Bild 9). Dadurch zeigt sich, dass die Wintermonate im Grunde seit dem Jahr 1750 gar keine wirklich signifikanten Veränderungen bilden und alles dazwischen einfach natürliche Klima-Schwankungen sein können.

Bild 9 Übereinander gelegte Temperaturverläufe der drei Wintermonate seit dem Jahr 1750, mit Normierung auf den Endwert 0. Grafik vom Autor anhand der DWD-Daten erstellt

Satellitendaten

Satellitendaten haben den Vorteil, nicht so leicht (wie Stations-Messdaten) manipulierbar zu sein und zudem decken sie wirklich die Fläche ab. Als Folge zeigen sie auch interessante Ergebnisse.

Bild 10 zeigt ein Summenbild aller RSS-Satelliten-Daten mit Normierung auf den gleichen Endwert.

Bild 10 RSS Satellitendaten. Temperaturverläufe aller abgedeckten Breitengrad-Regionen auf den Endwert 0 normiert und übereinander gelegt. Grafik vom Autor aus den RSS-Daten erstellt.

Was man im Bild 10 schon sieht, wird beim „Aufdröseln“ noch deutlicher: Seit 1979 (Beginn der Satellitenaufzeichnungen) hat sich ausschließlich die Gegend um den Nordpol (roter Verlauf) wirklich erwärmt, der große Rest der Welt aber nicht. Bild 11 zeigt dazu die Temperaturverläufe vom „Rest der Welt“ ohne „North Polar“. Nicht nur dies eine Erscheinung, welche eklatant der CO2-Theorie und der überall publizierten „Überhitzung“ des Planeten durch unseren CO2-Ausstoß widerspricht.

Bild 11 RSS Satellitendaten. Temperaturverläufe der abgedeckten Breitengrade ohne North Polar (in Bild 10 roter Verlauf). Die Breitengrad-Regionen sind auf den Endwert 0 normiert und übereinander gelegt. Grafik vom Autor aus den RSS-Daten erstellt.

Jeder darf eine eigene Meinung haben

Um auf das Statement von Prof. Harald Lesch zurückzukommen. (Nicht nur) H. Lesch ist anscheinend fest davon überzeugt (zumindest publiziert er es mit fast manischer Leidenschaft), dass die Temperatur der Zukunft wie im Bild 12 gezeigt verlaufen wird und vor allem, dass die AGW-Klimawissenschaft und ihre CO2-Forcingsimulationen recht haben.
Der Autor ist alleine durch Betrachten der gleichen Daten dagegen weiterhin davon überzeugt, dass zum Beispiel im Bild 12 weder die Vergangenheit und noch weniger die Zukunft richtig dargestellt sind und somit jeder zur CO2-Minderung ausgegebene Cent nur die Taschen irgendwelcher geldgieriger Eliten und NGOs füllt, aber an den wirklichen Zukunftsproblemen der Welt nichts ändern kann.

Bild 12 Simulierte Temperaturverläufe der nahen Zukunft nach AGW-Theorie. Quelle: United Nation Environment Programm

Quellen

[1] EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[2] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

[3] Henning Åkesson at al., 17.01.2017: Simulating the evolution of Hardangerjøkulen ice cap in southern Norway since the mid-Holocene and its sensitivity to climate change

[4] OVB Online: „Da oben ist der Teufel los“ https://www.ovb-online.de/bayern/oben-teufel-los-7001926.html