1

Kältestes „Sommer“-Wochenende jemals in Atlantic City

Im Südosten New Jerseys herrschten am Memorial-Day-Wochenende rekordverdächtig niedrige Temperaturen. Der Atlantic City International Airport verzeichnete sowohl am Samstag als auch am Sonntag die niedrigsten jemals gemessenen Tageshöchsttemperaturen.

Wie pressofatlanticcity.com berichtet, entsprachen die Höchsttemperaturen von 12 Grad während des „megteorologischen Sommeranfangs“ den mittleren Werten für März und waren die kältesten, die in Wetterbüchern seit 1943 aufgezeichnet worden waren.

In der S. Farley Marina in Atlantic City [einem Freizeitzentrum] wurden am Samstag und Sonntag Tageshöchstwerte von nur 13 Grad gemessen.

Am Sonntag war auch ein neuer Tiefstwert aufgetreten in einer Reihe, die in der Marina bis ins Jahr 1874 zurückreicht.

Millville brach auch einen Rekord für die niedrigste Maximaltemperatur am Sonntag – das Thermometer kletterte auf nur 11 Grad.

Nach Recherchen von The Press of Atlantic City war es das kühlste Samstag- und Sonntagswochenende während der „Sommer“-Saison – die vom Freitag vor dem frühestmöglichen Memorial Day, dem 22. Mai, bis zum spätestmöglichen Labor Day, dem 7. September, für A.C. Airport und Millville reicht.

In den Vereinigten Staaten hat das Jahr bisher insgesamt 19.510 neue tägliche KÄLTE-Rekorde im Vergleich zu nur 15.291 für HITZE-Rekorde geliefert – und das laut den Alarmisten der NOAA mit ihrer Historie der Datenmanipulation.

Außerdem sind insgesamt 921 monatliche KÄLTE-Rekorde gefallen gegenüber nur 365 für die HITZE.

Und noch bezeichnender ist, dass in diesem Jahr insgesamt 222 KÄLTE-Rekorde gefallen sind, gegenüber nur einem für WÄRME.

Die leichte Erwärmung, die in den letzten Jahrzehnten beobachtet wurde, kann auf die hohe Sonnenaktivität zurückgeführt werden.

In den letzten Jahren ist die Sonnenaktivität jedoch (relativ) stark zurückgegangen, und jetzt, nach einer Verzögerung von etwa zehn Jahren, reagieren die globalen Temperaturen darauf.

Alle offiziellen Datensätze greifen die starke Abkühlung auf, die seit 2016 beobachtet wurde, denn im Gegensatz zur AGW-Theorie ist dies keine Fantasie, und wir können getrost reale Beobachtungen verwenden, um eine Abkühlung des Planeten zu unterstützen – es sind keine peinlichen, unlogischen Erklärungen notwendig.

Trends ändern sich (sorry IPCC).

Das Klima ist zyklisch, niemals linear (such dir ein anderes Steckenpferd, Greta).

Und es wird jetzt immer schwieriger für die Regierungsbehörden, die sich verstärkende globale Abkühlung zu verbergen/zu erklären. Die NOAA und die NASA haben alle Tricks der Datenfälschung, des Ignorierens von UHI und der Rosinenpickerei angewandt, die sie haben, aber ihre globalen Temperaturdaten zeigen immer noch eine deutliche ABKÜHLUNG.

Die beiden Diagramme unten zeigen den berechneten linearen jährlichen globalen Temperaturtrend für die letzten 5, 10, 20, 30, 50, 70 oder 100 Jahre, mit freundlicher Genehmigung von climate4you.com.

Das erste Diagramm zeigt die Satelliten-Temperaturtrends für die am häufigsten zitierten UAH- und RSS-Datensätze:

Diagramm, das den jüngsten linearen jährlichen globalen Temperaturtrend über 5, 10, 20 und 30 Jahre zeigt, berechnet als Steigung der linearen Regressionslinie durch die Datenpunkte, für zwei satellitenbasierte Temperaturschätzungen (UAH MSU und RSS MSU). Letzter in die Analyse einbezogener Monat: Januar 2021.

Die zweite Grafik zeigt die Oberflächentemperaturaufzeichnung für GISS, NCDC und HadCRUT4:

Diagramm, das den letzten linearen jährlichen globalen Temperaturtrend über 5, 10, 20, 30, 50, 70 und 100 Jahre zeigt, berechnet als Steigung der linearen Regressionslinie durch die Datenpunkte, für drei oberflächenbasierte Temperaturschätzungen (HadCRUT4 und GISS + NCDC). Letzter in die Analyse einbezogener Monat: Januar 2021.

Beachten Sie den starken Abkühlungstrend, der von allen fünf Datensätzen in den letzten fünf Jahren beobachtet wurde.

Beachten Sie auch den Unterschied zwischen satelliten- und oberflächenbasierten Temperaturen, wobei die zuverlässigeren Satelliten einen größeren Temperaturrückgang anzeigen.

Das Diagramm unten zeigt den für die letzten 5 Jahre berechneten Trend:


Eindeutig ist erkennbar, dass die mittlere Temperatur der Erde während der letzten paar Monate im Sinkflug begriffen ist.

Weitere Details gibt es hier.

Link: https://electroverse.net/coldest-summer-weekend-on-record-in-atlantic-city/

Übersetzt von Chris Frey EIKE




Die Welt kühlt sich ab – aber die Vorher­sage geht auf rapide Erwär­mung

Abb. 1: Globale mittlere Temperaturänderung und CO2-Anstieg im 21. Jahrhundert. GWPF-Graphik

 

2018 war das viertwärmste Jahr der Instrumenten-Ära (welche im Jahre 1850 begonnen hatte). Die Temperatur-Anomalie betrug 0,91°C ±0,1°C. Das war kälter als 2017 und lag näher am fünft- als am drittwärmsten Jahr. Aber natürlich gibt es jene, die es gar nicht mögen zu sagen, dass die globale Temperatur gesunken ist.

Das UK Met.-Office veröffentlichte die globalen Temperaturdaten 2018 als Teil einer Presseerklärung über die Vorhersage der globalen Temperatur für die nächsten fünf Jahre. Darin heißt es im Wesentlichen, dass sich die hohen Temperaturwerte fortsetzen werden, trotz des durch den El Nino verursachten Anstiegs der Vorjahre und trotz deren Sinken danach! Die Presseerklärung war betitelt mit [übersetzt] „Vorhergesagt ist die wärmste Periode auf der Erde jemals“.

Das UKMO schreibt darin: „die globale mittlere Temperatur für den Fünf-Jahre-Zeitraum bis 2023 wird nahe oder über 1°C höher prophezeit als über dem vorindustriellen Niveau. Falls die nächsten fünf Jahre dieser Vorhersage entsprechen, wäre das Jahrzehnt von 2014 bis 2023 das Wärmste seit Beginn von Aufzeichnungen“.

Keine Erwähnung finden also die Ereignisse, welche zu der höheren Temperatur des Jahres 2015 führten, ebenso wenig wie der El Nino und die maritime Hitzewelle im Pazifik.

Wie wir alle wissen, vor allem das UKMO, ist die Vorhersage der Zukunft mit allen möglichen Schwierigkeiten verbunden, von denen die Hauptschwierigkeit darin besteht, dass man die Zukunft vorhersagt! Das UKMO steht in dieser Hinsicht historisch nicht sehr gut da.

Vorhersagen aus jüngerer Zeit waren auch nicht das Gelbe vom Ei und zeigten genauso wenig Kompetenz. Das UKMO neigt dazu, die Welt wärmer vorherzusagen als sie tatsächlich ist. Manchmal sehen dessen Vorhersagen besser aus als sie sind, weil ein auftretender El Nino vorübergehend für höhere Temperaturen sorgt.

Abbildung 2 zeigt, wie weit die UKMO-Vorhersage daneben lag. Man erkennt, dass man seit 1997 immer viel zu hohe Temperaturen prophezeit hatte, außer in den El Nino-Jahren 1998 und 2015-17:

Betrachtet man die gleiche, im Jahre 2017 veröffentlichte Graphik bzgl. vorangegangener Vorhersagen, zeigt sich, dass sie auch mit ihrer Vorhersage 2016 bis 2021 falsch lagen (hier):

Die neue Vorhersage kann laut Prof. Adam Scaife vom Met.-Office eine „rapide globale Erwärmung“ mit einer Erwärmung um 0,55°C bis zum Jahre 2023 eintreten (hier). Zumindest ist das eine überprüfbare Prophezeiung, genau wie die Vorhersage einer rapiden Erwärmung im Jahre 2007, welche nie eingetreten ist.

Eine viel bessere Schlagzeile wäre vermutlich Globaler CO2-Gehalt steigt, globale Temperatur sinkt.

In einer weiteren Presseerklärung aus jüngster Zeit sagte das Met.-Office, dass man dort im Jahre 2019 den stärksten Anstieg der globalen atmosphärischen CO2-Konzentration seit den 62 Jahren entsprechender Messungen verzeichnete.

Es wird interessant sein zu sehen, falls diese Vorhersage eines starken CO2-Anstiegs eintritt, ob die Temperatur dadurch einen finalen Anstieg hinlegt. Jedes Jahr, in welchem das CO2 zunimmt, verstärkt sich auch dessen Fähigkeit, die globale Temperatur steigen zu lassen. Auch in Nicht-El Nino-Jahren ist es an der Zeit, die globale Temperatur dem CO2-Anstieg folgen zu lassen. So oder so – die nächsten 1 bis 5 Jahre dürften sehr interessant werden.

Link: https://www.thegwpf.com/world-cooling-but-rapid-warming-forecast/

Übersetzt von Chris Frey EIKE




Warum 2017 als „dritt­wärmstes Jahr jemals“ ein Lang­weiler ist

Die New York Times trompetete: „2017 war eines der wärmsten Jahre jemals“ und fügte hinzu: „NASA-Wissenschaftler listeten das vorige Jahr an zweiter Stelle seit Beginn zuverlässiger Aufzeichnungen im Jahr 1880; lediglich das Jahr 2016 war noch wärmer. Die NOAA listete es mit einem anderen analytischen Verfahren an dritter Stelle nach 2016 und 2015“.

Auch der Guardian tönte: „Dank der globalen Erwärmung war 2017 das wärmste Jahr jemals ohne El Nino“ (hier).

Ähnliche Schlagzeilen erschienen auf der ganzen Welt.

Selbst notorische „Klimaskeptiker“ wie Roy W. Spencer (führendes Mitglied der Cornwall Alliance) und John R. Christy von der University of Alabama UAH, wo man Satelliten-Temperaturdaten archiviert, berichteten „2017 war drittwärmstes Jahr während der 39-jährigen Satelliten-Ära“ (hier).

Aha! Die Debatte bzgl. der gefährlichen, vom Menschen verursachten globalen Erwärmung ist vorüber, und die Alarmisten haben gewonnen.

Zumindest ist es das, was die Alarmisten uns glauben machen wollen.

Aber das behaupten sie schon seit 30 Jahren, und die Debatte geht weiter. Man fragt sich, ob die Fakten wirklich dem Gewicht entsprechen, welches die Alarmisten ihnen beimessen.

Als Erstes bleibt festzuhalten, dass die Unterschiede bei der „globalen mittleren Temperatur“ viel zu gering sind, um irgendwelche signifikanten Auswirkungen auf irgendein Ökosystem zu haben, geschweige denn auf das Wohlergehen der Menschen – können sich diese doch besser als die meisten anderen Lebensformen an ihre Umwelt anpassen und – noch wichtiger – sie können diese so modifizieren, dass es für sie nützlich ist.

Man betrachte einmal genau die Graphik der monatlichen UAH-Satellitendaten von 1979 bis 2017 (Quelle):

Die blauen Kreise repräsentieren die Abweichung von der globalen mittleren Temperatur der unteren Troposphäre vom Mittel der Jahre 1981 bis 2010 (das entspricht dem größten Teil der Atmosphäre und ist vermeintlich am empfänglichsten für eine CO2-getriebene Erwärmung), und zwar für jeden Monat von Dezember 1979 bis Dezember 2017. Die rote Linie repräsentiert das gleitende Mittel über 13 Monate.

Man beachte vor allem die Skala der vertikalen Achse – sie reicht von -0,7°C bis +0,9°C, das ist eine Spanne von 1,6°C. Während der 39 Jahre lag die größte negative Abweichung vom Mittel der Jahre 1981 bis 2010 mit 0,51°C unter dem Mittelwert in einem Monat des Jahres 1985, während die größte positive Abweichung in einem Monat des Jahres 2016 aufgetreten war mit 0,88°C; das ergibt eine Gesamt-Schwankung von etwa 1,39°C.

Jetzt betrachte man die rote Linie etwas näher – also das über 13 Monate geglättete Mittel. Die größte Differenz zeigt sich zwischen einem Monat im Jahre 1983 mit 0,35°C unter dem Mittel und einem Monat im Jahre 2016 mit 0,5°C über dem Mittel – eine Bandbreite von etwa 0,85°C.

Die Rohdaten hinter dieser Graphik zeigen, dass 1985 das kälteste Jahr war mit 0,36°C unter dem Mittel 1981 bis 2010, während 2016 das wärmste Jahr war mit 0,511°C über diesem Mittel. Das ist eine Bandbreite von insgesamt 0,871°C.

Jetzt betrachte man die folgende Graphik von dem in den Ruhestand getretenen Atmosphären-Physiker Richard Lindzen, Professor der Meteorologie am MIT. Sie zeigt die tatsächlichen Höchst- und Tiefsttemperaturen (in °F) von Boston für jeden Tag vom 9. Februar bis zum 11 März (blaue Balken), die klimatologische Bandbreite der Temperatur für jedes Datum (dunkelgraue Balken) und die kälteste bzw. wärmste Temperatur für jedes Datum (hellgraue Balken).

Wie man sieht, bewegte sich die tatsächliche Temperatur-Bandbreite in Boston an jedem gegebenen Tag in jenem Zeitraum 2013 von vielleicht 1,1°C am 27. Februar bis etwa ca.14°C am 11. Februar. Nach Augenschein würde die mittlere Bandbreite ca. 5,6° bis 8,3°C betragen. Für den letzten gezeigten Tag, dem 11. März 2013, lag die tiefste Temperatur bei ca. 12,8°C (1939) und die höchste Temperatur bei ca. 19,4°C (1990). Die tiefste Temperatur der gesamten Periode von 31 Tagen während der letzten 175 Jahre betrug ca. -27,8°C, die höchste Temperatur ca. 22,2°C].*

[*Im Gegensatz zu den anderen Absätzen stehen hier die Angaben nur in °F. Der Einfachheit, aber auch der besseren Lesbarkeit halber habe ich alle Werte in °C umgewandelt und nur diese hier geschrieben. Wer das nachprüfen will, gehe auf den entsprechenden Abschnitt im Original. Anm. d. Übers.]

Was einem sofort ins Auge springt ist der Umstand, dass die geringste Bandbreite zwischen höchster und tiefster Temperatur eines einzelnen Tages von etwa 1,11°C um etwa ein Viertel größer ist und die mittlere Bandbreite für einen einzelnen Tag (~5,6°C bis ~8,3°C) etwa 6 bis 10 mal größer ist als die Gesamt-Bandbreite zwischen dem wärmsten und dem kältesten Jahr weltweit (0,871°C).

Oh, und was ist mit der roten Linie in Lindzens Graphik? Deren Dicke spiegelt die gesamt-Zunahme der globalen mittleren Temperatur während der letzten 175 Jahre – welche in etwa gleich ist der geringsten Temperaturdifferenz an einem einzelnen Tag in Boston ist vom 9. Februar bis zum 11. März 2013. Sie beträgt etwa ein Fünftel bis ein Achtel des mittleren Differentials eines Tages und etwa ein 25-tel des größten Tagesintervalls.

Und doch haben die Bostoner überlebt.

Aber nun ist da noch die Tatsache, dass den UAH-Satellitendaten zufolge 16 der 20 wärmsten Jahre während der Satelliten-Ära während der letzten 17 Jahre aufgetreten waren (welche wie erinnerlich nur bis zum Jahr 1979 zurückreicht). Zeigt dies nicht, dass – wie die NASA es ausdrückt – „…sich der langfristige Erwärmungstrend der Erde fortsetzt?“

Keineswegs! Man betrachte noch einem die rote Linie in der UAH-Graphik. Daraus geht eindeutig hervor, dass es seit 1998 keinen signifikanten Erwärmungstrend mehr gab. Lindzen drückte es so aus:

Die Betonung auf „wärmste Jahre jemals“ scheint eine Reaktion auf die Beobachtung zu sein, dass die Erwärmungsperiode von 1978 bis 1998 sich abgeschwächt zu haben scheint und dass die Temperaturen seit 1998 in etwa gleich geblieben sind. Natürlich, falls 1998 das wärmste Jahr jemals war, finden sich alle nachfolgenden Jahre ebenfalls unter den wärmsten jemals, da die Temperatur in jenem Jahr zu steigen aufgehört hat, was sich während der Folgejahre fortsetzte – von denen jetzt alle so warm sind wie das Rekordjahr 1998. Nichts hiervon widerspricht der Tatsache, dass die Erwärmung zum Stillstand gekommen ist.

Und noch etwas: Christy zufolge beträgt die Fehlerbandbreite bei den Schätzungen der jährlichen globalen mittleren Temperatur bei Satellitenmessungen etwa 0,1°C.

Damit im Hinterkopf zeigt sich, dass die Differenz zwischen irgendeinem gegebenen Jahr und dem nächstwärmsten Jahr nur in einem einzigen Fall über die Fehlerbandbreite hinausgegangen war: 1998 (zweitwärmstes Jahr in der Reihe) war um 0,107°C wärmer als 2017 (drittwärmstes Jahr).

Die Differenz zwischen 2016 (dem wärmsten Jahr) und 1998 betrug lediglich 0,028°C oder etwa drei Zehntel der Fehlerbandbreite. Mit anderen Worten, wir wissen gar nicht, ob 2016 wärmer war als 1998 oder umgekehrt. Das viert- und fünftwärmste Jahr (2010 und 2015) liegen ebenfalls innerhalb der Fehlerbandbreite bzgl. ihrer Differenz untereinander.

Man muss vom sechstwärmsten Jahr (2002) zum elftwärmsten Jahr (2001) gehen, um erneut eine über die Fehlerbandbreite hinausgehende Differenz zu finden; d. h. wir wissen nicht, ob das Jahr 2002, 2005, 2003, 2014, 2007, 2013 oder 2001 das sechst- oder zwölftwärmste Jahr gewesen ist – oder irgendetwas dazwischen.

All das zeigt ziemlich eindeutig, dass die globale Temperatur während der letzten 20 Jahre gleich geblieben ist. Wir wissen einfach nicht, ob der „langfristige Erwärmungstrend der Erde“ 1998 zum Stillstand gekommen ist, ob er wieder einsetzt oder ob er sich in einen Abkühlungstrend umkehrt.

Dabei geht es noch nicht einmal um die Frage der Gründe für die Erwärmung von 1880 bis heute – oder, wie aus dieser NOAA-Graphik der globalen Land- und Wasser-Temperaturanomalien hervorgeht – der Abkühlung von etwa 1880 bis 1910, der Erwärmung von etwa 1910 bis 1945, der Abkühlung von 1945 bis 1975, der Erwärmung von 1975 bis 1998 und für das Plateau von 1998 bis 2015. (Anders als die Satellitendaten sind die NASA-Werte sehr zweifelhaft wegen der räumlichen Verteilung, der Ausfälle von Stationsmessungen, von Homogenisierungs-Verfahren und anderer Probleme). Dagegen wissen wir ziemlich gut, was hinter der Erwärmung von 2015 bis 2016 bis in das Jahr 2017 hinein steckt: ein starker El Nino ähnlich dem des Jahres 1998).

Klimaalarmisten ordnen die Erwärmung gebetsmühlenartig der steigenden atmosphärischen CO2-Konzentration zu, wie es in dieser Graphik von Climate Central zum Ausdruck kommt:

Auf den ersten Blick scheint der Verlauf von CO2 und der Temperaturanomalie ziemlich gut zu passen. Aber bei näherem Hinsehen, vor allem wenn man noch einmal die UAH-Graphik oben betrachtet, erkennt man, dass der CO2-Gehalt schon während der Abkühlungs-Perioden der Jahre 1880 bis 2010 gestiegen war und sogar immer stärker stieg während des Plateaus von 1998 bis 2015. Dies zeigt, dass CO2 zumindest nicht der einzige Treiber und möglicherweise nicht einmal der Haupttreiber der Erwärmung insgesamt während der 137-Jahre-Periode ist.

Und wie das so geht, Forschungen von John Christy, Joseph D’Aleo und James Wallace ergaben, dass solare, vulkanische und ozeanische Strömungsvariationen alle beobachteten globalen Temperaturvariationen erklären können, so dass keine dieser Variationen übrig bleibt, um sie CO2 zuzuordnen.

Man lasse sich also nicht ins Bockshorn jagen durch die Schlagzeilen. Man schaue hinter dieselben, und man wird etwas ganz anderes erkennen.

Link: https://wattsupwiththat.com/2018/01/29/why-2017s-third-warmest-year-on-record-is-a-yawner/

Übersetzt von Chris Frey EIKE




Sind die behaup­teten globalen Rekord-Tempera­turen haltbar?

Ich möchte den geneigten Leser auf das folgende Zitat von Taylor (1982) aufmerksam machen:

Der wichtigste Punkt hinsichtlich der Messungen unserer beiden Experten ist: Wie bei den meisten wissenschaftlichen Messreihen wären beide wertlos gewesen, falls sie nicht zuverlässige Aussagen bzgl. ihrer Unsicherheiten enthalten“.

Bevor ich fortfahre ist es wichtig, dass der Leser den Unterschied zwischen Genauigkeit und Präzision versteht. Genauigkeit sagt, wie nahe eine Messung (oder eine Reihe wiederholter Messungen) am tatsächlichen Wert liegt, und Präzision ist die Auflösung, mit der die Messung angegeben werden kann. Eine weitere Möglichkeit zum Verständnis bietet die folgende Graphik:

Die Abbildung impliziert, dass Reproduzierbarkeit oder verringerte Varianz Teil von Präzision ist. Das ist so, aber noch wichtiger ist die Fähigkeit, mit größerer Sicherheit aufzuzeichnen, wo eine Messung im Kontinuum einer Messskala lokalisiert ist. Geringe Genauigkeit ist die Folge systematischer Fehler. Sehr geringe Präzision jedoch, welche sich aus Zufallsfehlern oder ungeeigneter Instrumentierung ergibt, kann dazu beitragen, dass individuelle Messungen geringe Genauigkeit haben.

Genauigkeit

Um die folgende Diskussion nicht zu sehr ausufern zu lassen, werde ich Dinge wie Fehler bei den Örtlichkeiten bei der Aufstellung von Wetterstationen ignorieren, welche potentiell repräsentative Temperaturen korrumpieren und einen Bias einbringen können. Hier kann man sich einen Überblick über diese Probleme verschaffen. Ebenso werde ich die Art und Weise der Datengewinnung ignorieren, welche ein wesentlicher Kritikpunkt bei historischen pH-Messungen war, doch gilt dieses Problem nicht weniger stark auch für Messungen der Temperatur. Grundsätzlich sind Temperaturen räumlich verzerrt mit einer Überrepräsentanz industrialisierter, städtischer Gebiete in den Mittleren Breiten. Und doch werden diese Werte als für den ganzen Globus repräsentativ angegeben.

Es gibt zwei wesentliche Aspekte hinsichtlich der Vertrauenswürdigkeit gegenwärtiger und historischer Temperaturdaten. Ein Aspekt ist die Genauigkeit der aufgezeichneten Temperaturen über die nutzbare Bandbreite der Temperatur, wie sie in Tabelle 4.1 im folgenden Link beschrieben wird:

http://www.nws.noaa.gov/directives/sym/pd01013002curr.pdf

Im Abschnitt 4.1.3 im o. g. Link liest man:

4.1.3 Allgemeine Instrumente. Der WMO zufolge sind gewöhnliche Thermometer in der Lage, mit hoher Genauigkeit Temperaturen in der Bandbreite zwischen -29°C und 46°C zu messen, wobei der maximale Fehler kleiner ist als 0,2°C…

Im Allgemeinen wird von modernen Temperatur-Messgeräten eine Genauigkeit von ±0,56°C bei der Referenztemperatur verlangt sowie ein Fehler, der kleiner ist als ±1,1°C über den Messbereich. Tabelle 4.2 verlangt, dass die Auflösung (Präzision) 0,06°C beträgt mit einer Genauigkeit von 0,2°C.

In den USA gibt es eines der besten Wetterüberwachungssysteme der Welt. Allerdings sollten Genauigkeit und Präzision in dem Zusammenhang betrachtet werden, wie globale Mittelwerte und historische Temperaturen aus den Aufzeichnungen berechnet werden, im besonderen aus jenen mit geringerer Genauigkeit und Präzision. Es ist extrem schwierig, die Genauigkeit historischer Temperaturaufzeichnungen abzuschätzen, sind doch die Original-Instrumente kaum noch für eine Kalibrierung verfügbar.

Präzision

Der zweite Aspekt ist die Präzision, mit der die Temperaturen aufgezeichnet werden, sowie die sich daraus ergebende Anzahl signifikanter Ergebnisse, wenn die Berechnungen durchgeführt werden wie etwa das Ableiten von Mittelwerten und Anomalien. Dies ist der wichtigste Teil dieser Kritik.

Falls eine Temperatur mit dem nächsten Zehntel eines Grades aufgezeichnet wird, lautet die Konvention, dass deren Wert gerundet oder geschätzt wird. Das heißt, eine Temperaturmessung mit einem Wett von 98,6°F kann zwischen 98,55°F und 98,64°F liegen.

Die allgemeine Faustregel für Addition/Subtraktion lautet, dass rechts vom Komma nicht mehr signifikante Zahlen in der Summe auftauchen als die Anzahl signifikanter Angaben in der am wenigsten präzisen Messung. Bei Multiplikation/Division lautet die allgemeine Faustregel, dass höchstens eine zusätzliche signifikante Zahl im Ergebnis auftaucht im Vergleich mit dem Multiplikanden, welche die am wenigsten signifikanten Angaben enthält. Allerdings folgt man gewöhnlich der Regel, nur so viele signifikante Zahlen zu erhalten wie der am wenigsten präzise Multiplikand enthält. (Eine ausführliche Erklärung all dieser Regeln steht hier).

Anders als in einem Fall mit ganzen Zahlen lässt eine Reduktion der Anzahl signifikanter Angaben bereits um nur eine Messung in einer Reihe die Unsicherheit im Mittel zunehmen. Intuitiv könnte man vermuten, dass die Herabsetzung der Präzision einer oder mehrerer Messungen in einem Datensatz auch die Präzision der Ergebnisse mathematischer Berechnungen reduzieren sollte. Man nehme zum Beispiel an, dass jemand das arithmetische Mittel der Zahlen 50; 40,0 und 30,0 berechnen will, wobei die nach dem Komma stehenden Nullen die letzte signifikante Angabe sind. Die Summe der drei Zahlen beträgt 120 mit drei signifikanten Angaben. Dividiert man durch die ganze Zahl 3 (exakt) erhält man 40,0 mit einer Unsicherheit bei der nachfolgenden Stelle von ± 0,05.

Wie ist das nun aber, wenn wir die implizite Unsicherheit aller Messungen berücksichtigen? Man beachte zum Beispiel, dass im zuvor untersuchten Satz alle Messungen eine implizite Unsicherheit enthalten. Die Summe von 50 ±0,5; 40,0 ±0,05 und 30 ±0,05 beträgt 120,0 ±0,6. Zwar ist das nicht gerade sehr wahrscheinlich, doch könnte es sein, dass alle diese Fehler das gleiche Vorzeichen haben. Das bedeutet, dass der Mittelwert so klein sein kann wie 39,80 oder so groß wie 40,20. Das heißt, dass die Zahl 40,00 ±0,20 abgerundet werden sollte auf 40,0 ±0,2. Vergleicht man diese Ergebnisse mit den zuvor erhaltenen, kann man erkennen, dass es eine Zunahme der Unsicherheit gibt. Die potentielle Differenz zwischen den Grenzen des mittleren Wertes können zunehmen, wenn mehr Daten gemittelt werden.

Es ist vor allem unter Begutachtern [surveyors] allgemein bekannt, dass die Präzision multipler, gemittelter Messwerte invers variiert mit der Quadratwurzel der Anzahl der verwendeten Messungen. Mittelung neigt dazu, den Zufallsfehler bei der Rundung zu entfernen, wenn man einen festen Wert misst. Allerdings sind die Schwächen hier, dass alle Messungen mit dem gleichen Gerät durchgeführt werden müssen, mit dem gleichen festen Parameter wie etwa einer Winkeländerung mit einem Durchgang [an angle turned with a transit]. Außerdem warnt Smirnoff (1961): „bei einer niedrigen Größenordnung der Präzision wird aus wiederholten Messungen keine Zunahme der Genauigkeit folgen“. Dies führt er noch weiter aus mit der Bemerkung: „Implizit ist hier, dass es ein Limit gibt, wie viel der Präzision überhaupt zunehmen kann, während die Definition des Standardfehlers des Mittels die Standardabweichung der Mitglieder ist dividiert durch die Quadratwurzel der Anzahl der Mitglieder. Dieser Prozess kann nicht unendlich oft wiederholt werden, um irgendeine gewünschte Präzision zu erhalten!“

Während mittels einer Vielzahl von Beobachtern ein systematischer Bias dieser Beobachter eliminiert werden kann, sind die anderen Erfordernisse weniger vernachlässigbar. Unterschiedliche Geräte werden unterschiedliche Genauigkeiten aufweisen und können die gemittelten Werte ungenauer machen.

Genauso sagt die Messung unterschiedlicher Betrachtungswinkel einem nichts über Genauigkeit und Präzision eines bestimmten interessierenden Betrachtungswinkels. Folglich sagt einem die Messung multipler Temperaturen über eine Reihe von Stunden oder Tagen nichts über die Unsicherheit der Temperaturwerte an einer gegebenen Stelle zu einer bestimmten Zeit, und es kann auch nichts zur Eliminierung von Rundungsfehlern beitragen. Allerdings sind Temperaturen kurzlebig, und man kann die Temperatur irgendwann später nicht noch einmal messen. Grundsätzlich hat man nur eine Gelegenheit, die präzise Temperatur an einer Stelle zu einer bestimmten Zeit zu bestimmen.

Das Automated Surface Observing System (ASOS) der NOAA verfolgt einen unkonventionellen Weg der Behandlung umgebender Temperaturdaten. Im User’s Guide heißt es in Abschnitt 3.1.2:

Einmal pro Minute berechnet die ACU das 5-minütige Mittel der Umgebungstemperatur und des Taupunktes aus den 1-Minute-Beobachtungen … Diese 5-Minuten-Mittel werden zum nächstgelegenen Grad Fahrenheit gerundet, zum nächsten 0,1 Grad Celsius konvertiert und einmal pro Minute ausgegeben als das 5-Minuten-Mittel der umgebenden Temperatur und des Taupunktes…“.

Dieses automatisierte Verfahren wird mit Temperatursensoren durchgeführt, welche geeicht sind auf einen RMS-Fehler von 0,5°C, einen Maximum-Fehler von ±1,0°C und einer Auflösung von 0,06°C in den wahrscheinlichsten Temperatur-Bandbreiten, die in den kontinentalen USA angetroffen werden. Die Angabe der gerundeten Temperatur in Grad Celsius, wie oben aus dem Zitat hervorgehend, impliziert eine Präzision von 0,1°C, obwohl nur 0,6 ±0,3°C gerechtfertigt sind. Damit wird eine Präzision impliziert, die 3 bis 9 mal größer ist als sie ist. In jedem Falle ist selbst bei der Verwendung modernster Instrumente die Angabe von zwei oder mehr signifikanter Ziffern rechts vom Komma bei Anomalien der verfügbaren Temperaturdaten nicht garantiert!

Konsequenzen

Diese Dinge werden besonders wichtig, wenn die Temperaturdaten aus unterschiedlichen Quellen stammen, wobei unterschiedliche Instrumente mit variierender Genauigkeit und Präzision verwendet werden, um alle verfügbaren globalen Temperaturen zusammenzubringen und zu konsolidieren. Auch werden sie wichtig beim Vergleich historischer mit modernen Daten und besonders bei der Berechnung von Anomalien. Ein bedeutendes Problem mit historischen Daten ist, dass Temperaturen typischerweise nur in ganzen Zahlen gemessen wurden (wie es bei modernen ASOS-Temperaturen der Fall ist!). Folglich weisen die historischen Daten geringe Präzision (und unbekannte Genauigkeit) auf, und die oben genannte Regel für die Subtraktion kommt ins Spiel, wenn man berechnet, was gemeinhin Temperaturanomalie genannt wird. Das heißt, die Daten werden gemittelt, um eine so genannte Temperatur-Grundlinie [einen Temperatur-Referenzwert] zu berechnen, typischerweise für einen Zeitraum von 30 Jahren. Dieser Referenzwert wird von den aktuellen Daten subtrahiert, um eine Anomalie zu definieren. Ein Weg zur Umgehung dieser Subtraktion ist es, das beste verfügbare historische Mittel zu berechnen und danach so zu definieren, als wären genauso viele signifikante Angaben eingegangen wie in moderne Daten. Dann ist es nicht erforderlich, moderne Daten zu beschneiden und zu runden. Man kann dann legitimerweise sagen, wie sich die derzeitigen Anomalien darstellen hinsichtlich des definierten Referenzwertes, obwohl nicht offensichtlich ist, ob die Differenz statistisch signifikant ist. Unglücklicherweise macht man sich nur etwas vor, wenn man glaubt, dass diese Anomalien irgendetwas darüber aussagen können wie aktuelle Temperaturdaten im Vergleich zu historischen Temperaturdaten dastehen, wenn die Variationen nur rechts des Kommas zu finden sind!

Bezeichnend für das Problem ist, dass die von der NASA veröffentlichten Daten bei Anomalien am Ende des 19. Jahrhunderts und aktuelle Anomalien die gleiche implizite Präzision aufweisen (±0,005°C). Der Charakter der Datentabelle mit der Eingabe von 1 bis 3 Ziffern ohne Komma zeigt, dass die Aufmerksamkeit für signifikante Angaben wenig Berücksichtigung gefunden hat. Sogar noch ungeheuerlicher ist die Repräsentation einer Präzision von ±0,0005°C für Anomalien in einem Wikipedia-Beitrag, in welchem die NASA als Quelle angegeben wird.

Idealerweise sollte man eine kontinuierliche Aufzeichnung von Temperaturen über einen Zeitraum von 24 Stunden haben und die Fläche unter dem Temperatur-Zeit-Graphen integrieren, um eine wahre mittlere tägliche Temperatur zu erhalten. Allerdings ist diese Art einer Temperaturreihe nur selten, was besonders für ältere Daten gilt. Folglich müssen wir mit den Daten, die wir haben, alles in unserer Macht Stehende tun, was oftmals eine Bandbreite von Tag zu Tag ist. Zieht man die tägliche Höchst- bzw. Tiefsttemperatur heran und mittelt diese separat, gibt dies einen Einblick, wie sich Temperaturen an einer Station mit der Zeit ändern. Beweise zeigen, dass die Höchst- und Tiefsttemperaturen sich während der letzten 100 Jahre nicht in gleicher Weise geändert haben – bis vor Kurzem, als die Tiefsttemperaturen rascher gestiegen sind als die Höchsttemperaturen. Das bedeutet, sogar auch für langfristig gut betreute Wetterstationen, dass wir kein wahres Mittel der Temperatur mit der Zeit haben. Im besten Falle haben wir einen Mittelwert der täglichen Höchst- und Tiefsttemperaturen. Diese zu mitteln erzeugt ein Artefakt, bei welchem Informationen verloren gehen.

Wenn man ein Mittel berechnet zum Zwecke einer wissenschaftlichen Analyse wird diese konventionell mit einer Standardabweichung gezeigt, also einer Maßzahl der Variabilität der individuellen Einzelwerte innerhalb der Stichprobe. Ich habe bis heute noch keine einzige veröffentlichte Standardabweichung gesehen im Zusammenhang mit jährlichen globalen Temperatur-Mittelwerten. Wendet man jedoch das Theorem von Tchebysheff und die Empirische Regel (Mendenhall 1975) an, können wir mit einer konservativen Schätzung der Standardabweichung für globale Mittelwerte aufwarten. Das heißt, die Bandbreite der globalen Temperaturen sollte angenähert vier mal die Standardabweichung sein (Range ≈ ±4s). Bedenkt man jetzt, dass sommerliche Temperaturen in der Wüste etwa 130°F [ca. 54°C] und winterliche Temperaturen in der Antarktis -120°F [ca. -84°C] erreichen können, ergibt sich eine jährliche Bandbreite der Temperatur auf der Erde von mindestens 250°F [ca. 140 K] und damit eine geschätzte Standardabweichung von etwa 31°F [ca. 17 K]! Weil es in Wüsten und den Polargebieten kaum Messungen gibt, ist es wahrscheinlich, dass die Bandbreite (und damit die Standardabweichung) größer ist als meinen Vermutungen zufolge. Man sollte intuitiv den Verdacht haben, dass die Standardabweichung für das Mittel hoch ist, liegen doch nur wenige der globalen Messungen nahe dem Mittelwert! Und trotzdem werden globale Anomalien allgemein mit signifikanten Angaben rechts vom Komma präsentiert! Die Mittelung der jährlichen Höchsttemperaturen separat von den jährlichen Tiefstwerten würde die geschätzte Standardabweichung deutlich reduzieren, aber es würde immer noch nicht die Präzision rechtfertigen, von der allgemein die Rede ist. Diese geschätzte Standardabweichung sagt uns möglicherweise mehr über die Häufigkeitsverteilung von Temperaturen als die Präzision, die bzgl. des Mittels bekannt ist. Sie sagt, dass möglicherweise etwas mehr als zwei Drittel der aufgezeichneten Temperaturen zwischen -26°F und +36°F liegen [ca. zwischen -32°C und +2°C]. Weil der Zentralwert [median] dieser Bandbreite 5,0°F[*] beträgt und die allgemein akzeptierte mittlere globale Temperatur bei etwa 59°F [ca. 15°C], zeigt dies, dass es noch einen langen Schwanz bei dieser Verteilung gibt, was die Schätzung des Zentralwertes hin zu einer niedrigeren Temperatur verzerrt.

[*Die Umrechnung der absoluten Fahrenheit-Temperaturen in Grad Celsius ist einfach, aber der angegebene Zentralwert von 5°F lässt sich nicht umrechnen. Nehme ich den Zentralwert der Celsius-Angaben, komme ich auf einen Wert bei 15 K. Wahrscheinlich unterläuft mir hier ein logischer Denkfehler, aber ich bekenne, dass ich ihn nicht finden kann. Anm. d. Übers.]

Summary

Zusammengefasst lässt sich sagen, dass es zahlreiche Arten der Datenbehandlung gibt, welche Klimatologen allgemein ignorieren. Sie kompromittieren ernsthaft die Wahrhaftigkeit der Behauptungen über rekordhohe Mitteltemperaturen und reflektieren eine ärmliche [poor] Wissenschaft. Die statistische Signifikanz von Temperaturunterschieden 2 oder sogar 3 Stellen nach dem Komma ist höchst fragwürdig. Die Anwendung des Verfahrens der Berechnung des Standardfehlers des Mittelwertes, um dessen Präzision zu verbessern, wird nicht gerechtfertigt durch das Entfernen von Zufallsfehlern, weil es keinen festgelegten einzelnen Wert gibt, um den sich die Zufallsfehler verteilen. Das globale Mittel ist ein hypothetisches Konstrukt, welches in der Natur nicht existiert. Stattdessen ändern sich Temperaturen; sie erzeugen variable Fehler systematischer Art. Echte Wissenschaftler sind besorgt hinsichtlich der Größenordnung und des Ursprungs der unvermeidlichen Fehler in ihrem Messungen.

References

Mendenhall, William, (1975), Introduction to probability and statistics, 4th ed.; Duxbury Press, North Scituate, MA, p. 41

Smirnoff, Michael V., (1961), Measurements for engineering and other surveys; Prentice Hall, Englewood Cliffs, NJ, p.181

Taylor, John R., (1982), An introduction to error analysis – the study of uncertainties in physical measurements; University Science Books, Mill Valley, CA, p.6

Link: https://wattsupwiththat.com/2017/04/12/are-claimed-global-record-temperatures-valid/

Übersetzt von Chris Frey EIKE

Anmerkung: Der Autor hat zu diesem Grundlagen-Artikel einen Folgebeitrag geschrieben, in welchem er diese Erkenntnisse auf die gegenwärtige Mainstream-„Klimaforschung“ überträgt. Dieser befindet sich in der Übersetzung und wird in einigen Tagen ebenfalls hier gepostet. – C. F.




Südpazifische Oszillation und Kosmische Strahlung

Auch die durch die Magnetfelder der Sonnenwinde  ausgelösten Periodizitäten der Kosmischen Strahlung sind in diesem Zeitraum mit der zeitverzögerten Südpazifische Oszillation (SO) in Resonanz (K=0,8). Das führt zu solar gesteuerter Bewölkungsreduktion durch den Svensmark-Effekt und dadurch zu verstärkter Sonneneinstrahlung. Es erfolgt so ein zusätzlicher Temperaturanstieg und eine zusätzliche Erwärmung des Ozeans in der südlichen Hemisphäre. Diese solar bewirkte Meereserwärmung führt zur Emission von gelöstem CO2, was als Zusatzdüngung der Weltflora dient. Eine Temperaturerhöhung durch CO2 lässt sich aus den Messwerten nicht ableiten. Mit Beendigung der Sonnenaktivität im Dezember 2006 hat auch in der südlichen Hemisphäre eine kalte Wetterperiode begonnen.

Der vollständige Text des Beitrags, der vom EIKE-Mitgleid Dr. Borchert (Dipl.-Physiker) verfasst wurde, ist seiner Länge und der zahlreichen Abbildungen wegen zur besseren Lesbar- und Verfügbarkeit als herunterladbarer pdf-File "SO_Borchert.pdf" beigefügt. Sie können ihn auch permanent unter Menuepunkt Publikationen > Dr. Borchert finden.

Die EIKE – Redaktion

 

Related Files




Südpazifische Oszillation und Kosmische Strahlung

Auch die durch die Magnetfelder der Sonnenwinde  ausgelösten Periodizitäten der Kosmischen Strahlung sind in diesem Zeitraum mit der zeitverzögerten Südpazifische Oszillation (SO) in Resonanz (K=0,8). Das führt zu solar gesteuerter Bewölkungsreduktion durch den Svensmark-Effekt und dadurch zu verstärkter Sonneneinstrahlung. Es erfolgt so ein zusätzlicher Temperaturanstieg und eine zusätzliche Erwärmung des Ozeans in der südlichen Hemisphäre. Diese solar bewirkte Meereserwärmung führt zur Emission von gelöstem CO2, was als Zusatzdüngung der Weltflora dient. Eine Temperaturerhöhung durch CO2 lässt sich aus den Messwerten nicht ableiten. Mit Beendigung der Sonnenaktivität im Dezember 2006 hat auch in der südlichen Hemisphäre eine kalte Wetterperiode begonnen.

Der vollständige Text des Beitrags, der vom EIKE-Mitgleid Dr. Borchert (Dipl.-Physiker) verfasst wurde, ist seiner Länge und der zahlreichen Abbildungen wegen zur besseren Lesbar- und Verfügbarkeit als herunterladbarer pdf-File "SO_Borchert.pdf" beigefügt.  

Related Files




Neue Forschungsergebnisse: Die Warmzeit ist zuende! „Sonnenaktivität verursacht Klimawandel“

 Abb. 30: Globalstrahlung, Sonnenscheindauer und Sonnenaktivität

Messungen der Globalstrahlung (ZIMEN) und der Sonnenscheindauer (DWD) in Mitteleuropa zeigten synchron zum Auftreten außergewöhnlich starker Sonnenströme in Erdnähe ab 1989 einen sprunghaften Anstieg im Jahresmittel um fast 1,5 bis 2 mW/cm2 bzw. 0,4 bis 0,5 h. Er war offenbar eine Folge des Rückgangs der Bewölkung, und dieser eine Folge der starken Forbush – Reduktion  der Höhenstrahlung, ausgelöst durch starke Magnetfelder der Sonnenwinde zunehmender Sonnenaktivität, wie an Beispielen gezeigt wird. Die bodennahen Temperaturen folgten global dieser Entwicklung bis zu einem Maximum um 2000. (Abb.31). Mit Rückgang der Sonnenaktivität und Ende der Einwirkung von Sonnenwinden (Solarprotonen) auf das Wetter stagniert nun die terrestrische Temperaturentwicklung und zeigt Ansätze eines Rückgangs ab 2007 (Abb.26).Die Auswertung von Veränderungen im Magnetfeld der Erde als Folge der Einwirkung von Sonnenwinden, dargestellt durch den Sonnenwindindex, bestätigt die Steuerung der globalen Temperaturen durch die Sonnenaktivität in den zurückliegenden 150 Jahren.

Als Ergebnis der hier gezeigten Gegenüberstellungen muss gefolgert werden, dass besonders ab etwa 1980 die Erhöhung der bodennahen Temperatur, also der sogenannte „Klimawandel der Neuzeit“, ein natürlicher klimatischer Effekt war, der durch eine besondere Wirkung der Sonnenaktivität, quasi durch eine „solare Zusatzheizung“ verursacht wurde:

 Mit ansteigender Sonnenaktivität in der 21. Sonnenfleckenperiode erfolgte ein entsprechend zunehmender synchroner Rückgang der Höhenstrahlung und dadurch ein Rückgang der globalen Bewölkung. Die dadurch bedingte Zunahme der Sonneneinstrahlung (Globalstrahlung) führte zum Anstieg der bodennahen Temperatur.

Aber seit 13. Dezember 2006 trat nach dem Verschwinden des Sonnenflecks Nr. 930 keine besondere Aktivität auf der Oberfläche der Sonne mehr auf. Auf Grund der hier beschriebenen Beobachtungen ist bei weiter anhaltender Ruhe langfristig ein Rückgang der bereits stagnierenden Globaltemperatur zu erwarten Dieser Rückgang wird langsam erfolgen mit einer Halbwertzeit von ca. sechs bis acht Jahren als Folge der hohen Wärmekapazität von Land und Ozean. Der anhaltende kontinuierliche Anstieg des CO2 war eine Folge der Erwärmung der Ozeane wegen des Rückganges seiner Löslichkeit im Wasser bei steigender Temperatur. Bei weiterem Ausbleiben einer solaren Zusatzheizung ist ein langsamer Rückgang der Endgasung der Ozeane zu erwarten.

 Abb. 31: Globaler Temperaturverlauf zu Land und Ozean von 1970 bis 2009

Diese Beobachtungen und Folgerungen aus allgemein zugänglichen meteorologischen Messungen  wurden schon seit 2004 beschrieben und durch ergänzende Beobachtungen fortlaufend bestätigt und entsprechend publiziert (Borchert, H. 2004-2009).

Die  hier als globale Temperaturen angegebenen Werte sind Mittelwerte von Messungen über Landregionen und Ozeanen. Sie unterscheiden sich gemäß NOAA insbesondere während der Ausbildung der letzten Wärmeperiode erheblich. In beiden Bereichen der Nordhalbkugel wird schon um 2006 ein Ende des Temperaturanstiegs signalisiert. Zu diesem Zeitpunkt ist bereits der Einfluss einer Aktivität der Sonnenoberfläche beendet und der Solarwindindex auf Werte der Kaltzeit um 1900 gesunken. Auch die Höhenstrahlung zeigt zur Zeit eine seit Beginn der fortlaufenden Messungen ab 1958 höchste Intensität der kosmischen Strahlung an und  erzeugt höchste Bedeckung neben den bekannten anderen Ursachen.

Eine Ursache für diese unterschiedlichen Temperaturentwicklungen von Land und Ozean kann durch die extraterrestrische Wolkensteuerung und Wolkenbildung durch Höhenstrahlung überwiegend über den Ozeanen verstanden werden. Die Wolken reduzieren ihre Dichte durch Abregnen auf ihrem Wege zum Land und dadurch wird das Albedo dort angehoben, es scheint mehr die Sonne auf dem Land als auf den Ozeanen, dadurch wird es dort wärmer..

 Ein Temperaturanstieg durch noch weiter ansteigendes CO2 als Folge der Remanenz der Ozeane oder durch anthropogenes CO2 kann wegen der bereits bei 250 ppm vorliegenden Sättigung der 15 µm Absorptionslinie des CO2 nicht erfolgen (Dietze, 2007; Ditrich, 2008; Gerlich, 2006; Seinfeld und Pandis, 1996;). Mit Beendigung der hier beschriebenen Sonnenaktivität ist eine fortlaufende  Abkühlung der unteren Luftschichten zu erwarten.

Es ist ab etwa 2010 wieder der Beginn einer kleinen Kaltzeit wie zwischen 1930 und 1980 zu erwarten. Es gibt Signale, die ankündigen, dass der Anstieg der globale Temperatur beendet ist, bereits in eine  Stagnation übergeht und mit sehr hoher Wahrscheinlichkeit in künftiger Zeit auf Werte um 1900 zurückgehen wird.

Das bedeutet, dass die seit dreißig Jahren erlebte Wärmeperiode sich ihrem Ende zuneigt. Das bedeutet auch, dass diese Temperaturerhöhung solaren Ursprungs und nicht anthropogen war.

Eine anthropogene Steuerung der globalen Temperatur durch CO2 ist physikalisch nicht möglich.

Der Sonnenwind – Index, ein Maß für die Einwirkung der Magnetfelder der Sonnenwinde auf das Magnetfeld der Erde und damit auf das terrestrische Wetter, ist nach den hohen Werten in den zurückliegenden dreißig Jahre seit 2008 auf Tiefstwerte um 10 nTesla gesunken, wie sie erst in der Kaltzeit vor etwa 100 Jahren auftraten, danach bis 2008 aber immer höhere Werte annahmen. Das signalisiert, dass auch der Anstieg der globalen  Temperatur zwischen 1920 bis 1940 solar verursacht wurde.

CO2-Emissionen führen zu keiner weiteren Temperaturerhöhung. Die Besteuerung von CO2 aus Gründen des sogenannten Klimaschutzes hat  keine wissenschaftliche Grundlage.

Methan zeigt weltweit seit etwa sechs Jahren keinen Anstieg mehr (IPCC), die Akkumulation ist beendet und es befindet sich auf einem konstanten Level von globa1 ca. 1800 ppb. Eine wissenschaftlich fundierte Ursache wurde hierfür noch nicht gefunden. Möglicherweise befindet sich CH4 im luftchemischen Gleichgewicht mit CO2, d. h. es geht in CO2 über und betreibt zusätzlich dessen Anstieg (Seinfeld und Pandis, 1996), (Methan-Symposium in Toronto 1997).

Warum die Sonne diese außergewöhnliche Aktivität seit 1988 entwickelte, ist noch nicht geklärt. Es gibt die plausible Ansicht, dass die besondere Nähe der Drehmomente von Sonnensystem und Sonne zueinander während der 22. Sonnenfleckenperiode Turbulenzen in der Sonnenoberfläche auslöste. Dann wäre der Jupiter als der das Sonnensystem gravimetrisch dominierende Planet der Auslöser des jüngsten Klimawandels (Landscheid 2005). Andere Ansichten sprechen von einem Schwarm vom Kometen, die in den letzten Jahrzehnten in die Sonne stürzten und dort die besonders starken Protonenströme auslösten. Das erscheint weniger wahrscheinlich, da die Protonenströme eindeutig den jeweiligen Sonnenflecken zuzuordnen sind in Verbindung mit den "Start-Flares", die jeweils als Startsignale (Röntgenstrahlung) der Protonenströme auftreten und als Warnsignale für das orbitale Space – Personal der NASA genutzt werden.

Es wird auch von Messungen des Sonnenspektrums berichtet, wonach seit dem letzten Jahrhundert zusätzliche Linien durch Ca und Fe entstanden, die zu einer Zunahme der Solarkonstanten um Größenordnung von ca. 1 bis 2  Promille führten. Diesen Effekten wird ebenfalls eine, wenn auch geringe terrestrische Klimarelevanz zugeschrieben.

Hierzu sind allerdings weitere Untersuchungen des umfangreichen Datenmaterials angesagt, um den Einfluss extraterrestrischer Vorgänge auf das Wetter und damit auf die Klimaentwicklung noch genauer kennen zu lernen – für die Verbesserung der Verlässlichkeit von "Klimaprognosen mit astronomischen Mitteln" (Landscheid, Th. +, 2004).

Den ganzen Aufsatz finden Sie im Anhang

Dr. rer. nat Borchert. EIKE

Related Files