1

Von den Grundrechenarten, ihrer Nutzung in der Klimafolgenforschung und Herrn Prof. Dr. Rahmstorf

Insbesondere die viel bekannten, oft zitierten, oft interviewten Klimaforscher wie z.B. der bekannte  Professor Stefan Rahmstorf verweisen bei ihren öffentlichen Vorträgen gern auf die strenge Wissenschaftlichkeit ihres Tuns.

So auch hier in seinem Vortrag in Mainz anlässlich der Reihe „Physik im Theater“ der Uni Mainz am 2.11.19 und anderswo. Sind sachkundige Leute im Saal, dann kommt gelegentlich die Frage, wie es denn möglich sei, eine globale Mitteltemperatur auf 2 Stellen hinter dem Komma, mit nur ± 0,05 ° Unsicherheit zu berechnen, wenn die ursprünglichen Daten selber nicht nur eine sehr viel größere Messunsicherheit von bestenfalls ± 0,5 ° brächten, aber auch vielfältige systematische Fehler diese weit in den Bereich von mehreren Grad verschöben.

Die Antwort darauf ist eigentlich immer dieselbe. Sie lautet, weil man Differenzen (im Jargon: Anomalien) aus zwei Absolutwerten bilde, also den aktuellen Wert von einem Referenzwert abzöge, seien diese sehr viel genauer, weil, und das wird impliziert, wenn auch selten dazu gesagt, sich dann die Fehler von selbst aufhöben, weil ja beide Werte denselben Fehler trügen.

So auch Stefan Rahmstorf in besagtem Vortrag. Er sagte, dass nun mal die Anomalien sehr viel genauer seien, als die Absolutwerte, das sei wissenschaftlich klar belegt, und verwies in diesem Zusammenhang auf seine Website Spectrum.de Scilogs,wo er dieses ausführlich erklärt hätte.

Nun, schaut man dort nach, dann wird zwar ausführlich erläutert, dass es – seiner Meinung nach- nur auf die Veränderung, also die Anomalie, ankäme, aber, obwohl er vorher versprach „Licht ins Dunkle zu bringen“  lässt er seine Leser weiterhin im Dunkeln, behält also die versprochen Erleuchtung für sich und erklärt nichts.

Stattdessen wird dem Leser wortreich mitgeteilt, wie und auf welche  Weise die meteorologischen Rohdaten weltweit – wenn auch sehr spärlich in Raum und Zeit verteilt – gewonnen wurden, und weiter erklärt, dass verschiedene Institute sich weltweit mit deren Auswertung beschäftigten, was natürlich einen gebührenden Eindruck beim Leser hinterlässt, um dann noch stolz zu betonen, dass deren Ergebnisse „dabei in hohem Maße..“ übereinstimmten.

 

Dazu wird die Grafik (s.o) in Abbildung 2 gezeigt.

Die Übereinstimmung ist in der Tat gut, wie jeder sehen kann, erklärt aber immer noch nicht, warum die Anomalien genauer sein sollten als die Absolutwerte, zumal jede Unsicherheitsangabe in der Grafik fehlt. Und beschreibt damit eigentlich auch nur die Selbstverständlichkeit, dass wissenschaftliche Auswertungen von immer denselben Daten auch zu sehr ähnlichen, bis exakt gleichen Ergebnissen führen müssen. Bspw. muss jede Messung der Erdanziehung, egal wie sie durchgeführt wird, immer auf einen Wert von 9,81 m/s2kommen. Kleine Unterschiede, bedeuten dann entweder Fehler oder sind Hinweise auf geologische Anomalien.

Dann, etwas weiter im Text, verspricht Rahmstorf sich der eigentlichen Frage zu stellen:

„Warum sind Differenzen genauer als Absolutwerte?“

lautet zunächst vielversprechend die Überschrift des nächsten Absatzes.

Aber wiederum zeigt er dann nur, dass er wohl bis heute selber nicht verstanden hat, was er den Lesern da eigentlich erzählt. Denn als einzigen Beweis stellt er die Behauptung auf:

„Wohl jeder Wissenschaftler ist damit vertraut, dass man in vielen Fällen Differenzen bzw. Veränderungen einfacher bzw. genauer messen kann als Absolutwerte.“

Nun muss noch mal erwähnt werden, dass nur Absolutwerte gemessen und Differenzen aus eben diesen nur errechnet werden können. Doch das begreift Rahmstorf wohl nicht, denn als Beispiel führt er an:

„Um in Paris zu bleiben: gehe ich auf dem Eiffelturm eine Treppenstufe hinauf, kann ich leicht mit einem Lineal messen, wieviel höher ich dann stehe – aber wie viele Meter über dem Erdboden ich insgesamt bin, lässt sich schon schwerer feststellen.“

Das ist zwar eine schöne Metapher, aber erklärt nun wahrlich nicht, warum Differenzen einfacher bzw. genauer gemessen werden können als Absolutwerte. Denn was er so nett beschreibt ist exakt die Messung des Absolutwertes der Höhe dieser Treppenstufe.

Nichts anderes.

Und die hat natürlich die üblichen Fehler einer Messung mit einem Lineal im Zentimeterbereich.

Doch in einem hat er recht, von der Höhe der Treppenstufe lässt sich nun wirklich nicht ableiten, egal mit welcher Genauigkeit, wie hoch sich diese über Grund befindet. Dazu fehlt die zweite wichtige Angabe, nämlich deren absolute Höhe über Grund. Und die kann, ebenso wie die, die der Treppenstufe selber, nur absolut bestimmt werden.

Offensichtlich hat er bis heute nicht begriffen, dass er mit diesem Vergleich seine eigene Argumentation ad absurdum führt. Nämlich, indem er wieder einen Absolutwert bestimmt, und diesen jetzt fälschlich zur Differenz erklärt. Differenzen müssen nun mal aus den Absolutwerten gerechnet und können nicht gemessen werden, da beißt nun mal die Maus keinen Faden ab. Und dazu braucht man von den Grundrechenarten die Subtraktion A-B = C. C wird errechnet und enthält somit nach der Fehlerfortpflanzung die Summenfehler von A und B. Genauer, die Wurzel der Summe der Quadrate der Fehler von A+B.

Niemand misst die meteorologische Differenztemperatur in einer Wetterhütte.

In dem er also die Höhe der Treppenstufe misst, schafft er das Problem nicht aus der Welt, er vernebelt es nur.

Das allerdings tut er im Folgenden sehr wortreich. Zwischendurch konzediert er zwar, eher beiläufig, dass die Wetterstationen weltweit   .. den Absolutwert der Temperatur, also z.B. 13,1 °C oder –5,4 °C“messen, lenkt dann aber die Aufmerksamkeit des Lesers auf, in diesem Zusammenhang völlig unwichtige, Nebenkriegsschauplätze. Und merkt das vermutlich nicht einmal selber.

Um dann, statt Klärung und Beweis auf diesen allein wichtigen Punkt einzugehen, einfach  so zu behaupten,..

„Die klimatischen Veränderungen der Temperatur kann man dagegen viel genauer bestimmen: schon für die Monatsmittelwerte der globalen Temperatur auf plus oder minus einige Hundertstel Grad genau. Das liegt einfach daran, dass Abweichungen der Monatsmitteltemperatur großräumig korreliert sind: wie Datenanalysen ergeben haben über einen Radius von mehr als eintausend Kilometern (Hansen et al. 1999).“

Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung

Das war’s. Kein Beweis, keine Herleitung. Nur eine Behauptung.

Nun sind Korrelationen und Datenunsicherheiten zwei paar Schuhe, und der von ihm zitierte Herr Hansen hat sicher viel für die Klimapanik weltweit getan, aber in dessen hier zitierter Arbeit wird mit keinem Wort nachgewiesen, dass Anomalien genauer wären, als die ihnen zugrunde liegenden Absolutwerte. Es findet sich nichts darin,  gar nichts, sondern nur mehrfache Verweise auf eigene frühere Arbeiten, insbesondere auf Hansen und Lebedeff 1987[1].

Doch auch dort haben sie zwar die sehr kühne Behauptung aufgestellt, dass Wetterstationen, die bis zu 2400 km (1200 km Radius,) entfernt voneinander stünden, das ist immerhin die Entfernung Berlin – Malaga, immer hoch korrelierte Trends aufwiesen. Um im Umkehrschluss dann kühn zu folgern, dass deshalb nur einige wenige dieser Stationen ausreichten, um die globalen Trends der (Mittel-)Temperatur extrem genau zu berechnen. Und das, wie Rahmstorf seine Leser und Zuhörer glauben machen will „auf einige hundertstel Grad genau“. Aber auch dazu wiederum findet sich kein Wort, warum Anomalien genauer sein sollen, als ihre jeweiligen Bezugs- und Rechengrößen.

In einem meiner früheren Artikeln zum Thema (hier) in dem ich diese Aussage untersuchte, schrieb ich deshalb:

„Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels -des Politprofis Al Gore- die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.

In einem Aufsatz von 1987 [3] im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die  Autoren  „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur deswegen, weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.“

…und über Fehler bzw. deren Größe und Korrektur findet man nur:

„In der Zusammenfassung des Aufsatzes steht:

“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab

Und etwas später ebenda:

“.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ 

In diesem hochtrabenden, etwas verschwurbelten Satz steht also im Klartext:

“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“

Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet. „

Und in diesem Beitrag „von Korrelationen und Anomalien“wird dann nochmals im Detail nachgewiesen, dass auch die Behauptung über die Nutzbarkeit von Korrelationen zur Trendbestimmung weit entfernter Stationen mit fehlerhaften Messungen absoluter Humbug ist.

Zitat (Willis Eschenbach) daraus

„Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

Soweit der pfiffige, misstrauische Willis Eschenbach.“

Doch da Rahmstorf immer wieder denselben Unsinn erzählt, kann man wohl davon ausgehen, dass er vielleicht gelegentlich bei den Grundrechenarten etwas Nachhilfe benötigt, und von Fehlerrechnung – und -fortpflanzung auch nicht viel Ahnung zu haben scheint.

Denn Böswilligkeit, um mittels bewusst falscher Behauptungen seine Ideen zu verbreiten, will man ihm ja nun wirklich nicht unterstellen.

In diesem Zusammenhang möchte ich noch auf das ausgezeichnete Video vom Team Klimamanifest von Heiligenroth aufmerksam machen das den bezeichnenden Titel trägt

Das #Verwirrspiel des Stefan @Rahmstorf (V3a)

 

 

und sich intensiv mit der Verneblungstaktik im Wesentlichen von S. Rahmstorf beschäftigt, um nicht zugeben zu müssen, dass das Pariser Zweigradziel auf tönernen Füßen steht, bzw. ohne jede Grundlage ist. Es lohnt die Zeit zu investieren und es sich in ganzer Länge anzuschauen.

 

[1]Hansen, J. and Lebedeff, S., Global Trends of Measured Surface Air Temperature, J. Geophys. Res., 1987, 92 (D11), 13345-13372.

 




Wie Sven Plöger einfach 1 Grad Erwärmung verschwinden ließ!

In der Politik streitet man sich über das 1,5-Grad-Ziel; nicht mehr darf angeblich die Erde sich erwärmen. Aber wenn ARD-Meteorologe Sven Plöger im TV den angeblich natürlichen Treibhauseffekt um ein ganzes Grad nach unten „korrigiert“, dann scheint das ok zu sein!?

Video nicht mehr verfügbar
Kurzer Ausschnitt aus der Sendung „Ihre Meinung“ im WDR-Fernsehen, vom 11.04.2019, von FMD´s TV Channel kommentiert (13.04.2019); inspiriert durch das Medienkritik-Video von ‚Klima Manifest Heiligenroth’, „Sven Plöger lässt 1°C beim Treibhauseffekt verschwinden !!“.

► Weitere Infos zum Thema Klimawandel: ▪ YouTube-Playlist ‚Klimawandel / CO2-These‘: https://www.youtube.com/playlist?list… ▪ Günter Ederer auf welt.de: „Die CO2-Theorie ist nur geniale Propaganda“ http://www.welt.de/debatte/kommentare…




Klimaerwärmung Naturgesetze oder Paradoxon?

Wodurch wird die globale Temperatur bestimmt?

Die globale Temperatur wird definiert als Mittelwert der Lufttemperatur in Bodennähe der gesamten Erdoberfläche über ein Kalenderjahr. Ermittelt wird die globale Temperatur mit Tausenden von Mess-Stellen, die ungleichmäßig über Fläche und Zeit an der Erdoberfläche verteilt sind. Gemessen wird auf dem Festland die Lufttemperatur in 1 bis 2 früher auch bis 3,2 Meter Höhe, in den Ozeanen in 0-50 cm bis mehrere Meter (Engine Inlet) Wassertiefe. Analog zur globalen  Temperatur sind auch die Energieflüsse als Mittelwerte der Erdoberfläche über ein Kalenderjahr  definiert.

Das übergeordnete Ziel des Streits ist es, den Sinn vom „Klimaschutz“ zu beweisen oder zu widerlegen. Um hier weiterzukommen, brauchen wir eine saubere Untersuchung, inwieweit anthropogenes CO2 die globale Temperatur erhöht. Um dies zu ermitteln werden keine fragwürdigen Klimamodelle benötigt. Die globale Temperatur und ihre Beeinflussung, durch welchen Impuls auch immer, werden eindeutig von unstrittigen Naturgesetzen bestimmt. Der erste Hauptsatz der Thermodynamik, bekannter als Energieerhaltungssatz, liefert die Informationen, die wir benötigen.

Das Gleichgewicht von 4 Energieflüssen bestimmt die globale Temperatur:

  • Energiezufuhr durch die Sonne (1)
  • Energieabfuhr durch Verdunstung (2), Infrarotstrahlung (3) Konvektion (4)

Bild 1: Die 4 maßgebenden Energieflüsse

 

Wie kann sich die globale Temperatur ändern?

Änderungen der globalen Temperatur hat es im Verlauf der Erdgeschichte immer wieder gegeben. Auslöser waren zum Beispiel Sonnenaktivitäten, die Erdbahngeometrie, die Neigung der Erdachse, Verschiebung der Kontinente, Vulkanausbrüche und auch Treibhausgase. Jede Veränderung der Energieflüsse hat zu einem neuen Energiegleichgewicht und einer veränderten Temperatur  geführt. In der aktuellen Diskussion über den Klimawandel steht nur der „anthropogene“ Treibhauseffekt im Focus, während alle anderen Einflüsse auf das Klimageschehen ausgeblendet werden.

 

Welche Rolle spielt der Treibhauseffekt?

Der Treibhauseffekt ist im Netto Energiefluss der infraroten Strahlung (3) enthalten. Ohne Treibhausgase wäre die Kühlung der Erdoberfläche durch Wärmestrahlung viel stärker und die Erde kälter. Treibhausgase, unter anderem der dominante Wasserdampf und CO2, absorbieren den größten Teil (85 Prozent) der infraroten Abstrahlung von der Erdoberfläche. Dieser Effekt hat uns ein angenehmes Klima beschert. Zusätzliches “anthropogenes” CO2 kann den Treibhauseffekt allerdings nur marginal verstärken. Die Wirkung von CO2 ist weitgehend gesättigt. Wenn sämtliche fossilen Energieträger verbrannt werden, steigt der Treibhauseffekt lediglich um 1,2 Prozent. Um diesen geringen Wert verringert sich die Kühlwirkung der Strahlung (3). In der öffentlichen Darstellung wird die Wirkung bei weitem überschätzt.

Wechselspiel von Energieflüssen und globaler Temperatur

  • Die Strahlung der Sonne wird durch die Wolkendecke reflektiert und absorbiert. Nur etwa die Hälfte der ausgesandten Strahlung erreicht deshalb die Erdoberfläche. Die Wolken entstehen aus Wasserdampf, der an der Erdoberfläche verdunstet. Mit steigender Temperatur erhöht sich die Verdunstungsrate und die Wolkenbedeckung wird dichter. Damit wird die Sonneneinstrahlung ganz wesentlich durch die globale Temperatur beeinflusst.
  • Die Verdunstungsrate ist proportional zum Dampfdruck des Wassers und verläuft synchron mit der Dampfdruckkurve des Wassers. Aktuell trägt die Verdunstungskühlung 80 W/m² zur Energieabfuhr bei. Der Dampfdruck und damit auch die Verdunstungsrate steigen progressiv mit der Temperatur (Siedepunkt bekanntlich bei 100 Grad Celsius). Eine höhere globale Temperatur wird also zu einer verstärkten Kühlung durch Verdunstung führen. Gleichzeitig schirmt die vergrößerte Wolkendecke die Sonne stärker ab. Hier handelt es sich um einen doppelten Mechanismus der das Klima stabilisiert.
  • Die infrarote Strahlung von der Erdoberfläche wird durch den Treibhauseffekt eingeschränkt. 63 W/m² ist der Nettobeitrag zur Kühlung der Erdoberfläche. Der Wert steigt nach der allgemeinen Strahlungsgleichung mit der 4ten Potenz der absoluten Temperatur.
  • Die Konvektion trägt 17 Watt/m² zur Kühlung der Erdoberfläche bei. Bei Erwärmung steigen Wärmeinhalt und Geschwindigkeit der aufsteigenden Luft, was ebenfalls zu einer stärkeren Kühlung der Erdoberfläche beiträgt.

Wir haben gesehen, dass alle 4 Energieströme einer Erwärmung entgegen wirken. Für Verdunstung (Dampfdruckkurve) und Wärmestrahlung (Strahlungsgleichung) sind die Zusammenhänge eindeutig definiert. Für Konvektion (4) und Sonneneinstrahlung (1) wurden plausible Ansätze aufgestellt. Die kühlenden Mechanismen wurden zu einer Gesamtkurve (5) aufaddiert.

Die Kurve für Energiezufuhr von der Sonne (1) und die Gesamtkurve für die Energieabfuhr (5) schneiden sich bei 15 Grad Celsius. Energiezufuhr und Abfuhr sind bei dieser Temperatur genau gleich groß (Energiegleichgewicht). Damit ist die globale Temperatur eindeutig bestimmt. Eine Änderung der Energieflüsse führt zu einem neuen Gleichgewicht mit einer anderen Temperatur. Der „anthropogene“ Treibhauseffekt stellt eine solche Änderung dar. Eine Verdoppelung der CO² Konzentration generiert einen Strahlungsantrieb von 4 Watt/m². Dieser Wert wird von der Summe der kühlenden Energieströme (5) kompensiert, wenn sich die Temperatur um 0,4 Grad Celsius erhöht hat (Abbildung 2). Das Energiegleichgewicht und die globale Temperatur sind sehr stabil. Die Prognosen des IPCC weisen Phantasiewerte von mehr als 9 Grad Celsius aus (1). Eine derartige globale Erwärmung würde einen zusätzlichen Strahlungsantrieb von unvorstellbaren 190 Watt/m² erfordern. Das ist fast das 50 fache des maximalen „anthropogenen“ Treibhauseffektes. Absurd! Dieses Paradoxon befindet sich außerhalb jeglicher Realität.

Bild 2: Energieflüsse und globale Mitteltemperatur

Schlussfolgerung

Es wurde bereits mehrfach nachgewiesen, dass die globale Erwärmung durch anthropogenes CO2 sehr gering ausfällt (2, 3, 4). Dies ist ein weiterer Beweis dafür.

 

Quellenangaben und Impressum

  1. Assessment Report of the Intergovernmental Panel on Climate Change, p. 13, table SPM.3 A2 Scenario IPCC-Report 2007, AR4, WG1, Seite 96 [12]
  2. Hermann Harde: Was trägt CO2 wirklich zur globalen Erwärmung bei, ISBN 9 783842371576, Norderstedt: BoD, 2011
  3. R.S. Lindzen and Y.-S. Choi: On the determination of climate feedbacks from ERBE data, Geophysical Research Letters, Vol. 36, L16705 (2009)
  4. P.Frank Future Perfect 22.05.2010 Nonconsenus.wordpress.com/2011/05/24/futureperfect/

Autor:

Dr.-Ing Wolfgang Burkel,

Weißdornweg 6

69168 Wiesloch

Mail: wolfgangbu@aol.com

Borne 1945, Study and Promotion TU Munich Mechanical Engineering / Process Engineering, Professional experience: sewage technology, energy engineering, Management Heidelberg Power Plants Procurator HSE Darmstadt (EVU), Member of EIKE (European Institute for Climate and Energy) http://www.eike-klima-energie.eu/




Nobelpreisträger entlarvt Klimaschwindel

Der Nobelpreisträger für Physik Ivar Giaever erklärt Studenten in Lindau seine Sicht der Klimasituation. Nach seinen Worten ist die ganze, der Hypothese zugrunde liegende physikalische Basis  untauglich…

Video nicht mehr verfügbar

Video der Vortrages von Ivar Giaever in Lindau. Dankenswerterweise mit deutscher Übersetzung von FMDsTVChannel. Die Übersetzung besorgte YouTuber ‚yoicenet2

..Zudem erlauben die vorhandenen Daten keinerlei Bestimmung der Ursachen auf Grund ihrer unvermeidlichen Unsicherheiten. Die Versuche eine globale Mitteltemperatur und deren Verlauf auf wenige Zehntel Grad bestimmen zu wollen bezeichnet Giaever als lächerlich. Ihre Ergebnisse folgerichtig als absurd.




Climategate 13: Temperaturdatenreihen zwischen Fiktion und Wirklichkeit

Die Abbildung 1 zeigt die anhand vieler Millionen Satellitendaten ermittelte Temperaturkurve von 1979 – 2009 und zwar die Abweichung vom langfristigen Mittel (Nulllinie). Sie wird in Zusammenarbeit der University of Alabama Huntsville (UAH) und der NASA generiert.

Die Abbildung zeigt eine sehr leichte Erwärmung ab 1988 bis 2003 von ca. 0,3°C. Seitdem fällt die Langfristkurve der Temperatur und diese nähert sich wieder der Nulllinie des Langfristmittels. Zusätzlich sind zwei Ereignisse eingezeichnet, die den Trend einmal in die negative Richtung und einmal in die positive Richtung beeinflussen. Dies ist zum einen der Ausbruch des Vulkans Pinatubo auf den Philippinen in 1991, der durch seinen gewaltigen Ausstoß, der letztendlich das Sonnenlicht absorbierte, weltweit die Temperaturen für den Zeitraum von 2 Jahren um ca. 0,6°C fallen lies. In 1999 führte der starke El-Niño zu einem kurzfristigen Temperaturanstieg von ca. 0,7°C. Beides geht auf natürliche Ursachen zurück und hat nichts mit einem menschengemachten CO2-Ausstoß zu tun. Betrachten wir nun die berüchtigte Jones-Temperaturkurve (Abbildung 2), wie sie noch 2007 im 4. IPCC-Bericht um die Welt ging und in Politik und Medien entsprechenden Anklang fand, so ist plötzlich ein Temperaturanstieg zu verzeichnen, der durch Satellitenmessungen nicht bestätigt wird.

 

Abbildung 2

Die Abbildung 2 zeigt die globale Temperaturentwicklung von Jones 2007 (HadCrut3) für den Zeitraum von 1850 – 2007, welche durch Climategate als Fälschung offengelegt wurde. Deutlich ist hier ein Temperaturanstieg seit den 1970-Jahen zu sehen, der in den Satellitendaten nicht vorkommt. Dass gleiche Bild bei den Daten, für die Prof. Hansen (GISS, Abbildung 3, die drei blauen Balken stellen Standardabweichungen, als mathematische Fehlermöglichkeiten dar) verantwortlich ist. Aus beiden Datenreihen stellt das IPCC seine Prognosen zusammen und kommt zu dem Schluss, die Erde würde sich durch Menschenhand drastisch erwärmen.

 

Abbildung 3

Sowohl Jones (HADCrut3), als auch Hansen (GISS) verwenden für die Ermittlung ihrer Temperaturreihen Daten von bodengestützten Messstationen. Seit langem ist bekannt, dass diese unzulänglich, weil stark fehlerbehaftet sind. Zu diesen Fehlern zählen beispielsweise:

·       Wärmeinseleffekt

·       Mangelnde Datendichte (über weite Flächen gibt es keine Messstationen, die Daten werden nur geschätzt

·       Unterschiedliche geographische Höhe der vielen Messstationen. Pro 100m Höhe nimmt die Temperatur um etwa 0,65°C ab, wodurch die Messdaten korrigiert werden müssen, sollen die Daten miteinander vermischt werden.

·       Falsche Aufstellung der Messstationen

·       Änderung der Messerfassungszeiten

·       Software-/Algorithmusfehler, also Auswerte- und Berechnungsfehler u.v.m.

Ich möchte Ihnen die o.g. Punkte kurz erläutern.

Wärmeinseleffekt bedeutet, dass durch zunehmende Besiedlung, Industrialisierung und technische Entwicklungen, ortsgebundene Messstationen heute im Vergleich zu früher zu hohe Temperaturen messen und daher die Daten korrigiert werden müssen. Die Abbildung 4 zeigt, wie die Bevölkerungsdichte bodenbasierte Temperaturdaten beeinflusst.

Abbildung 4

Die Abbildung 4 zeigt den Wärmeinseleffekt nach Goodridge 1996. Deutlich ist erkennbar, dass mit zunehmender Einwohnerzahl die Temperaturanomalie immer schneller steigt. Dies ist nicht vorrangig durch das Fehlen von Grünflächen/Bäume, die moderierend auf den Temperaturverlauf wirken zurückzuführen, sondern durch den Einsatz von Elektro- und Verbrennungsmaschinen oder Kühlanlagen, die entsprechend ihre Verlustwärme, bzw. Abwärme an die Umgebung abgeben, was die Temperaturen immer mehr ansteigen lässt. Jedem ist bekannt, dass es z.B. im Winter in Städten wärmer ist als auf dem Land.Datendichte

Die Abbildung 5 zeigt die Messstationen des globalen Temperaturnetzwerks und die bisherige Betriebsdauer. Es ist deutlich erkennbar, dass in weiten Bereichen, insbesondere den Ozeanen, die Erfassungsdichte weit unterdurchschnittlich ist. Da die Ozeane etwa 70% der Erdoberfläche aufweisen, ergibt dies eine starke Schräglage der statistischen Messwerteerfassung und Auswertung.

Abbildung 5

Mangelnde Aufstellung der Messstationen

Im Gegensatz zu Deutschland, gibt es in den USA Audits (Überprüfungen) von unabhängiger Seite, inwieweit die dortigen Messstationen, den Ansprüchen genügen. Sozusagen ein Tüv. Bei der letzten durchgeführten Überprüfung in 2009 wurde festgestellt, dass 61% aller Temperaturmessstationen nicht geeignet für Temperaturreihen sind (Abbildung 6).

 

Abbildung 6

Das folgende Beispiel gibt die Antwort, warum dem so ist.

 

Abbildung 7

Die Abbildung 7 links zeigt die Messstation Orland in Kalifornien. Deutlich ist zu sehen, dass die Temperaturen zu Beginn des 20. Jahrhunderts z.T. deutlich höher lagen als während des sog. Klimawandels. Die Abbildung rechts (beide Abbildungen, Quelle: http://www.surfacestations.org/) zeigt eine ungenügende Station, die sich in unmittelbarer Nähe von aktiven Heizstrahlern befindet und einen starken Temperaturanstieg ausweist.

Erfassungszeiten

Zu Beginn 2001 wurde weltweit der Standard der Temperaturerfassungszeiten geändert. Bis zu diesem Zeitpunkt hatte jedes Land eine eigene Datenerhebung, so dass die Daten aus wissenschaftlicher Sicht gar nicht miteinander vermengt werden dürfen. So wurde in Deutschland dreimal am Tag gemessen (7,30 Uhr, 14,30 Uhr und 21,30 Uhr, letzter Wert wurde doppelt gewertet, um sich den 4. Wert in der Nacht zu sparen) in Frankreich zweimal am Tag (Min- und Maxtemperaturwert) gemessen und daraus der Tagesmittelwert bestimmt. Ab April 2001 wird nun stündlich gemessen, wobei Ausnahmen (alle 6 Stunden) zulässig sind. Wegen der starken Asymmetrie des Tagesganges der Temperatur ergeben beide Erfassungsmethoden (vor April 2001 und danach) andere Temperaturtagesmittelwerte. Durch die neue Methode wird der Tagestemperaturmittelwert nach oben verändert.

 

Abbildung 8

Die Abbildung 8 zeigt die Temperaturmessungen (auf der Abszisse sind die Anzahl der Messungen aufgetragen) der Wetterstation in Ny Ålesund auf Spitzbergen (Station “Koldewey“), die vom Alfred-Wegener-Institut betrieben wird. Vom Herbst 1990 bis Sommer 1997 wurde dreimal am Tag und zwar um 6-, 12-, und 18 Uhr gemessen. Ab Sommer (bis heute, ab der grünen Linie) wird achtmal täglich gemessen und zwar um 0-, 3-, 6-, 9-, 12-, 15-, 18-, und 21 Uhr. Sehr gut ist zu erkennen, dass mit der neuen Temperaturerfassung, die Temperaturkurve deutlich angehoben wird. Die Messwerte um 15 Uhr verursachen darüber hinaus noch starke Temperaturausreißer nach oben (die Anhebung der Min/Max-Werte ist durch die farbigen Querbalken markiert). Sowohl im Zeitraum 1990 bis Sommer 1997, als auch im Zeitraum vom Winter 1997 bis 2007 ist keine Tendenz der Temperatur zu erkennen. Wird aber über den gesamten Zeitraum von 1990 bis 2007 die Temperatur betrachtet, so steigt diese, aufgrund der vorgenommenen Änderung der Datenerfassung.

Die meteorologischen Institute (auch der DWD) verhelfen durch diesen Trick in der Temperaturdatenerfassung der globalen Temperaturkurve zu einem Anstieg, während gleichzeitig die Satellitenmessungen einen tatsächlichen Rückgang der Temperaturen zeigen. Verstehen Sie mich bitte nicht falsch, es ist nichts dagegen einzuwenden, dass in der Meteorologie ein, dem technischen Standard entsprechendes optimiertes Datenerhebungssystem eingeführt wurde. Es ist nur befremdend, dass dies in den Temperaturreihen nicht vermerkt wird, da durch das neue Verfahren der Vergleich der Datenreihen vor und nach 2001 nicht mehr möglich ist. Wegen der starken Asymmetrie des Tagegangs der Temperaturen werden die berühmten Äpfel mit Birnen verglichen.

Im Zusammenhang mit Climatgate wurde viel darüber berichtet, dass Mails gelöscht wurden, Rohdaten der Temperaturen beim CRU verschwunden sind, ebenfalls gelöscht wurden, etc. Auch der Beleg (Abbildung 8), dass durch zusätzliche Erfassungszeiten, die Temperaturdaten künstlich nach oben verschoben werden, wurde, nachdem der Verfasser dies in 2008 in einer Diskussion Herrn Prof. Dr. Rahmstorf auf KlimaLounge vorhielt, aus dem Netz genommen. Der Beleg war unter der Internetseite „Bremen und Umland im Bild“ (http://home.arcor.de/meino/klimanews/index.html) zu finden. Da der Verfasser von der Seite eine free-pdf. besitze, können Sie sich in der Anlage von der Richtigkeit überzeugen.

Algorithmusfehler

Besonders das GISS fiel in den letzten Jahren durch eine Reihe eklatanter Fehler auf. So mussten beispielsweise Monatsdaten nachträglich korrigiert werden, weil Daten von Vormonaten in die Bewertung einflossen. Als Folge wurden Oktoberwerte ausgewiesen, die alle bisherigen Rekorddaten brachen, weil Septemberdaten verwendet wurden, u.v.m.

Gezielte Manipulationen

Wie die Welt dank des Glimategate-Skandals erfahren hat, haben Jones und Hansen ihre Datenreihen durch einen “Trick“ angepasst. Wie dies geht, zeigt die Abbildung 9.

 

Abbildung 9

Die Abbildung 9 zeigt die aus Baumringdaten rekonstruierte Temperaturkurve der letzten 2.000 Jahre (blaue Kurve). Es ist ersichtlich, dass  ab ca. 1960 die Daten nicht mit den gemessenen Temperaturdaten übereinstimmen. Die blaue Kurve zeigt einen Temperaturrückgang, während die Bodenmessungen einen Anstieg ausweisen (vortäuschen). Jones hat offensichtlich die Datenreihe ab ca. 1960 abgeschnitten und durch die gemessenen Werte ersetzt, wodurch ein steiler Temperaturanstieg zu sehen ist, der, wie bereits erwähnt, in den Sattelitenmessungen, die im Gegensatz zu den Bodenmessungen nicht punktuell, sondern in der gesamten Oberfläche und kontinuierlich messen, nicht erkennbar ist. Es handelt sich also um eine bewusste Fälschung und Täuschung der Adressaten aus Politik und Medien.

Werden dann weitere, man muss schon von Fälschungen der Daten ausgehen, Korrekturen der Temperaturen der ersten Hälfte des 20. Jahrhunderts vorgenommen, dann erscheint die berüchtigte Jones-Kurve (Abbildung 2), die Politik und Medien manipulierte. Ich möchte Ihnen als Beweis einen Ausdruck aus 1978, Quelle National Geographic vorstellen, auf dem um 1940 eine starke Warmperiode, mit Temperaturen von über 0,5°C über dem Langfristmittel abgebildet ist, die bei Jones und Hansen heute nicht mehr zu sehen ist.

 

Abbildung 10

In der Abbildung 10 von Jones (oben) beträgt der Temperaturhub zwischen 1940 und 1970 nicht mehr 0,5°C, wie noch in der Abbildung der National Geographic von 1978 zu sehen, sondern er wurde auf wundersame Weise auf 0,1°C herunter manipuliert. Es gibt kein anderes Wort, als Manipulation oder Betrug von Temperaturdaten dafür. Oder sollte Jones von seiner Arbeit so überfordert sein, dass ihm ein solch katastrophaler Fehler unterlaufen ist. Dann wären er und mit ihm das IPCC, als kompetente Vertreter ihres Standes nicht mehr haltbar und Politik und Medien sollten sich schleunigst nach geeigneteren Personen umsehen. Auf der 2. Klimakonferenz in Berlin am 04. Dez. 2009 war z.B. eine Vielzahl von ihnen vertreten.

Werden von unabhängiger Seite die Temperaturrohdaten ausgewertet, so ist auch heute der starke Temperaturanstieg in der ersten Hälfte des 20. Jahrhunderts zu sehen, Abbildung 11.

Abbildung 11

Die Abbildung 11 zeigt die Temperaturdaten von 1870 – 2002, Quelle: (http://wattsupwiththat.com/2009/11/29/when-results-go-bad/#more-13373). Klar erkennbar, dass in der ersten Hälfte des 20. Jahrhunderts die Temperaturen höher lagen, als zum Ende des 20. Jahrhunderts, obwohl CRU, GISS und IPCC der Welt anderes weismachen wollen (Abbildung 2 und 3). Die Abbildung deckt sich mit den US-Temperaturwerten – das wärmste Jahr im 20. Jahrhundert ist 1934. Von den 10 wärmsten Jahren liegen 6 vor 1940! Auch bei den US-Temperaturdaten hatte das GISS zuerst falsche Daten geliefert, die zu dessen wohl gefälschter Temperaturkurve passen. Das GISS musste die TOP-Temperaturjahre korrigieren, als der bekannte Meteorologe Steve McIntyre ihm Fehler in der Datenauswertung nachwies.

Weitere Datenfälschungen, z.B. über arktische Temperaturen sind hier zu entnehmen: http://bobtisdale.blogspot.com/2008/07/polar-amplification-and-arctic-warming.html

oder Manipulationen bei Ländermessungen:

http://landshape.org/enm/australian-temperature-adjustments/

Anhand des Climategate-Skandals und der großen Unterschiede (Abbildung 13) zwischen den satellitenbasierten Temperaturreihe und den Daten der GISS und Jones (CRU) ist festzuhalten, dass die offiziellen Datengeber des IPCC, die Daten einer Kurspflege unterzogen haben, die das Konstrukt eines anthropogenen Klimawandels beweisen sollten. Ihre Daten halten einer wissenschaftlichen Überprüfung nicht stand, wie bereits die Hockey-Stick-Kurve von Prof. Mann, die ebenfalls (vor 3 Jahren) als Fälschung entlarvt wurde. Eine wissenschaftliche Überprüfung der HadCrut-Daten wird sich allerdings schwierig gestalten, weil ganze Rohdatensätze und Tabellen aus unerklärlichen Gründen verschwunden sind.

 

Abbildung 12

Die Abbildung 12 (Quelle: http://wattsupwiththat.com/2009/12/20/darwin-zero-before-and-after/#more-14358) zeigt die Temperaturdatenreihe der nordaustralischen Messstation „Darwin Zero“. Die Rohdaten zeigen einen gänzlich anderen Temperaturverlauf, wie die „bereinigten“ Werte (GHCN: Global Historical Climatology Network). Während diese Temperaturwerte einen gewaltigen Temperaturanstieg signalisieren, zeigt der Trend bei den Rohdaten eine leicht fallende Temperaturentwicklung.

Es muss davon ausgegangen werden, dass die Affäre um die gefälschten CRU-Daten nur die Spitze des Eisbergs darstellt und in den nächsten Wochen mit weiteren Enthüllungen zu rechnen ist, wie am Beispiel von Dr. Ben Santer, Klimaforscher und Leit-Autor des IPPC, Mitarbeiter am IPCC SAR Bericht von 1995, zeigt, der am 19.12.2009 in der Jesse Ventura Talkshow zugab, die Teile aus dem Kapitel 8 des Berichtes gelöscht zu haben, die ausdrücklich einen vom Menschen verursachten Klimawandel verneinen (http://www.eike-klima-energie.eu/news-anzeige/climategate-update-ipcc-leit-autor-ben-santer-gibt-faelschung-zu/).

Werden die satellitenbasierten Messungen (insbesondere deren Verlauf), mit den CRU-Daten verglichen, wird der Manipulationsverdacht sichtbar (Abbildung 13).

 

Abbildung 13

Während die aus Millionen Satellitendaten der NASA ermittelte globale Temperaturreihe nur einen sehr schwachen Temperaturanstieg ab 1988 zeigt, der seit 2003 wieder rückläufig ist und fällt, zeigen die Daten von Jones (und der GISS, siehe Abbildung 3) einen rasanten Temperaturanstieg im gleichen Zeitraum (grün hinterlegter Bereich).

Anhand der Satellitendaten, die seit 1979 vorliegen, ist festzuhalten, dass es bis Ende der 1980-Jahre keine Temperaturerhöhung gab, bis zur Jahrtausendwende ein leichter Anstieg von ca. 0,3 °C zu verzeichnen ist, der natürlichen Ursprungs ist, sich in die historischen Temperaturwerte einfügt und seit Beginn dieses Jahrtausends, aufgrund nachlassender Sonnenaktivität (EIKE berichtete mehrmals über die Zusammenhänge), die Temperaturen deutlich fallen, wie die Abbildung 14 zeigt.

 

Abbildung 14

Die Abbildung 14 zeigt die vier Temperatur-Szenarien (B1, A1B, A2, Commitment) aus dem IPCC-Bericht 2007, die aus den IPCC-Klimamodellen ermittelt wurden. Das Szenario “Commitment“, welches die niedrigste Temperaturentwicklung angibt, geht dabei von einer gleich bleibenden CO2-Konzentration wie im Jahr 2000 aus! Bei den drei anderen Szenarien steigt indes die CO2-Konzentration weiter an, wie dies z.B. die Mauna Loa-Daten wiedergeben, Quelle: ergänzt nach Spektrum der Wissenschaft 02/09, “Kalt erwischt“, S. 21 – 22. Die roten Punkte geben die tatsächliche Temperaturentwicklung bis 2008 wieder (schwarze Punkte, sind die gemessenen Temperaturwerte bis 2005). Seit 2005 fallen die Temperaturen deutlich. Die grün, blau und violett schraffierten Bereiche zeigen die Szenarien der früheren IPCC-Vorhersagen (FAR = First Assessment Report, 1990; SAR = Second Assessment Report, 1995; TAR = Third Assessment Report, 2001).

Für unsere Berliner Politiker zum Abschluss noch eine Datenreihe der dort gemessenen Temperaturen von 1730 – 2000, Quelle: (http://www.wetterzentrale.de/klima/tberlintem.html). Unnötig festzuhalten, dass es keinen Grund für irgendwelche Panik oder gar einer Klimasteuer oder Ähnlichem gibt. Auch in Berlin fallen die Temperaturen seit Jahren wieder, wie in der Abbildung 16 ersichtlich.

 

Abbildung 15

Die Abbildung 15 zeigt die Datenreihe der Temperaturen von Berlin im Zeitraum von 1730 – 2000. Deutlich zu sehen, dass es in der Vergangenheit teils deutlich höhere Temperaturen über längere Zeitintervalle gab als heute.

Die Abbildung 16 zeigt die Temperaturen in Berlin seit Dezember 2005 bis Dez. 2009. Auch in Berlin, wie überall auf der Welt, gehen die Temperaturen deutlich zurück. Die Max-Werte um einige °C.

 

Abbildung 16

Die Abbildung 16 zeigt den Temperaturgang in Berlin-Tempelhof von Dez. 2005 – Dez. 2009. Sowohl Min als Max-Temperaturwerte zeigen eine eindeutig fallende Tendenz, obwohl der CO2-Pegel in den vergangenen 4 Jahren deutlich angestiegen sein soll.

Es ist an der Zeit, dass unsere Politiker die Realitäten erkennen und nicht weiter unseligen Propheten der Klimakatastrophe verfallen, so wie dies noch jüngst von unserem Umweltminister Herrn Röttgen verlautbar wurde, der das Scheitern der Klimakonferenz von Kopenhagen, insbesondere den USA anlastete. Herr Röttgen sollte besser einmal in Erwägung ziehen, ob sich die dortigen Verantwortungsträger nicht längst den Realitäten stellten und vor allem, diese Realitäten auch berücksichtigen, während an manchen Stellen in Berlin anscheinend noch mittelalterliche Inquisition das Wort geredet wird.

Raimund Leistenschneider-EIKE

Die Dokumentation finden Sie auch als pdf Datei im Anhang

Related Files




EIKE Forscher findet sensationellen neuen Beweis: Die Sonne steuert unser Klima!

Ich glaube daher, eine weitere ergänzende Bestätigung für einen Zusammenhang zwischen Sonnenaktivität durch Sonnenwind und Globaler Temperatur gefunden zu haben: Der sogenannte Sonnenwind-Index, ein Maß für die Verformung des Magnetfeldes der Erde durch die Sonnenwinde. Es liegen kontinuierliche Magnetfeldmessungen seit etwa 150 Jahren an verschiedenen Stationen (21) der Erde vor. Mit den Daten aus antipodischen Standorten kann die Einwirkung der Sonnenwinde auf das Magnetfeld der Erde seit 1868 beschrieben werden. Ich habe die Zeitreihen dieses SOWI von der NOAA übernommen, fand relativ gute Übereinstimmung mit dem Verlauf der Sonnenfleckenhäufigkeit und mit dem Verlauf der Globalen Temperatur. Die Vergleiche zwischen SOWI-Index und Globaler Temperatur zeigen zudem zweierlei auf:

1. Die langfristigen mittleren Änderungen des SOWI-Index entsprechen den langfristigen Änderungen der globalen Temperatur in der Nördlichen Hemisphäre seit 1868. Daraus ist zu folgern, dass diese terrestrischen Klimaänderungen durch die Solaraktivität maßgeblich gesteuert wird

2. Insbesondere seit Beginn der Wärmeperiode um 1980 steigt auch der SOWI-Index an und erhebt sich über alle vergangenen Werte seit 150 Jahren. Das stabilisiert meine Aussage, dass diese aktuelle Wärmeperiode solar induziert ist durch starke Sonnenwinde mit starken Forbush-Reduktionen der Höhenstrahlung und Wolkenreduktionen über den Svensmark – Effekt seit den Achtzigern  und was in diesem Ausmaß bis vor 150 Jahren nicht zu sehen ist.

3. Der abrupte starke Rückgang des SOWI-Index seit 2007 kündigt das Ende der durch solaren Einfluss bestimmten Wärmeperiode an.

4. Diesem Rückgang schließt sich der Verlauf der Globalen Temperatur an durch Beendigung des Anstiegs und durch Anzeichen eines starken Rückganges, der naturgemäß wegen der Wärmekapazitäten des Bodens und der Ozeane zeitverzögert ist (siehe Abbildung).

Inwieweit das durch die Magnetfelder des Sonnenwindes deformierte Erdfeld selbst eine meteorologische  Rolle spielt, kann ich noch nicht sagen.

Aber das Verhalten dieser neuen gemessenen – nicht theoretischen- Komponente und vor allem auch ihre langjährig zurückgreifende Beschreibung des Sonnenwindeinflusses ist sehr bedeutsam für die Beurteilung der Ursachen des sogenannten modernen Klimawandels.

Ich halte das Auffinden des SOWI-Index als Steuerelement für des Klima für sehr bedeutsam l. Es müsste von der Fachwelt diskutiert werden, um von der Vorstellung einer anthropogenen Ursache des sogenannten Klimawandels herunterzukommen, die aus physikalischen Gründen auch nicht nachweisbar ist.

Der Sonnenwind-Index war mir bislang in diesem Zusammenhang neu. Seine Korrelation mit der Globaltemperaturkurve extrem eng. Weiteres in meinem neuen paper demnächst auf dieser Website.

Dr. H. Borchert EIKE

Dipl. Physiker