1

Der Wärmeinseleffekt als maßgeblicher Treiber der gemessenen Temperaturen

Bezugnehmend auf unseren Artikel, sah sich der DWD gezwungen, EIKE eine Gegendarstellung zukommen zu lassen, die wir beantworteten und darin belegen konnten, dass unsere Artikel nichts an Richtigkeit und damit Brisanz verloren hatten. Einer wissenschaftlichen Diskussion stellte sich der DWD indes nicht. In der jüngst erschienenen Arbeiten von Anthony Watts über die Wirkung dieses Effektes in der er  belegen konnte, dass auch in den USA die ausgewiesene Erwärmung doppelt so hoch angegeben wird, als wie in der Realität gemessen und damit nicht nur – wie wir damals zeigten- in Deutschland. Dieser Beitrag wird nun zeigen, dass der der Studie von Watts et al vorschnell entgegen gehaltene Argument, sie hätte den sog. TOBs (Time of Observation Errors) nicht berücksichtig, abwegig ist und am Ergebnis nichts ändern würde, wenn es so wäre.

Trotz der immer bescheideneren Sommer, der immer kälteren Winter, wird uns von Seiten diverser Institute und meteorologischer Behörden erzählt, die Temperaturen würden immer weiter ansteigen. Wir möchten diesen Behörden nicht vorhalten, sie würden falsche Zahlenwerte verbreiten, aber was werden dort für Temperaturen gemessen, die als Vergleich mit früheren Messwerten herangezogen werden? Sind sie geeignet, um Aussagen über eine vermeintliche Erwärmung und vor allem, deren Höhte, treffen zu können? Einer von uns (Leistenschneider) hat eine eigene Methodik entwickelt, mit der der WI aus einer vorhandenen Messreihe herausgerechnet werden kann. Ähnliche Verfahren werden zwar auch von anderen Autoren benutzt. (A. Watts, Tom Karl (1), Frank Lansner etc.).

Abbildung 1, (Quelle hier ) zeigt einen Querschnitt durch Regionen in den USA, die Lansner untersuchte. Er weist zu Recht darauf hin, das die Stationslage in Bezug auf ihre Umgebung (z.B. Küste, Küstennah; Gebirge, Ebene) einen wesentlichen Einfluss auf die gemessene Temperatur hat. Wobei es nicht ausreicht, wenn nur „UHI-freie“ Stationen mit „UHI Behafteten“ im Umkreis zur Homogenisierung verglichen werden. Dadurch entstehen nur neue Fehler.

Die von uns verwendete Methodik vergleicht dazu jedoch auf eine andere Weise eine Referenzstation mit der zu untersuchenden Messreihe. Die Theorie für diese Methodik basiert auf zwei fundamentalen Gesetzen der Physik:

  • • Dem Strahlungsgesetz nach Planck und dem
  • • Abkühlungsgesetz nach Newton

Das Strahlungsgesetz nach Planck gesagt, dass ein Körper umso mehr Energie pro Zeit abstrahlt, umso wärmer er ist. Das Abkühlungsgesetz nach Newton gibt an, dass eine Masse, umso mehr Energie pro Zeiteinheit verliert (kälter wird), je wärmer er ist. Dies heißt in der Praxis nichts anderes, dass mehr Energie notwendig ist, einen 300 Kelvin warmen Körper um 10 Kelvin zu erhöhen, als einen 250 Kelvin warmen Körper um den gleichen Betrag. In einer Erwärmungsphase muss es also zu einer Angleichung zwischen einer wärmeren und einer kälteren Station kommen. Mit seiner Aussage, dass sich arktische Gebiete schneller erwärmen würden als wärmere, sagt das IPCC im Prinzip nichts anderes, wenn auch die dort genannten Erwärmungswerte von 3 Kelvin und mehr, auf einer falschen Datenlage beruhen, da z.B. das GISS im betroffenen arktischen Gebiet gar keine Messstation hat (WUWT und EIKE berichteten ausführlich darüber).

Für ein Betrachtungsland (z.B.: Deutschland) ist die von der Sonne zur Verfügung gestellte Energie und für die Referenzstation gleich, sowie der CO2-Backgroundlevel (für die Anhänger des AGW). Als Referenzstation, ohne nennenswerten*2) WI, haben die Autoren die meteorologische Station auf dem Hohen Peißenberg (HPB) gewählt, die nach eigenen Angaben des DWD als Referenzstation gilt und von der seit dem Ende des 18. Jahrhunderts verlässliche Temperaturdaten vorliegen (Abbildung 2).

Abbildung 2 * zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends). Darin spiegelt sich der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus, der in 2003, als Europa unter einem Hitzesommer3 litt, sein Maximum hatte. Seitdem fällt die solare Aktivität. Hauptsonnenzyklus deshalb, weil die Fourieranalyse der Wolfzahl (Sonnenflecken) dort die stärkste Periode ergibt. Dr. Axel Mörner2 hat in seiner Arbeit “Keine Gefahr eines globalen Meeresspiegelanstiegs“ transparent gezeigt, wie der Hauptsonnenzyklus die arktische Meereisbedeckung bestimmt (Abbildung 3).

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 3, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist. Weiter zeigt die NASA, dass die Sonne zum ausgehenden 20. Jahrhundert immer aktiver wurde.

Abbildung 4 links (Quelle: hier ) zeigt die gesamte Strahlungsleistung der Korona von 1938 – 1995 in W/sr, mit r = 2.800 MHz Radio flux. Deutlich ist zu sehen, dass parallel zum (leichten) Temperaturanstieg die Strahlungsleistung der Korona stark (25%) ansteigt. Hierbei handelt es sich um die tatsächliche Strahlungsleistung und nicht, wie beim TSI, um die Strahlungsleistung eines kleinen Wellenlängenbereiches (Leistenschneider ging in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ in 08/11 ausführlich darauf ein). Die NASA beweist damit, dass die Sonne bis zum ausgehenden 20. Jahrhundert immer aktiver wurde. Die rechte Abbildung zeigt die globale Temperaturentwicklung nach Jones.

Aufgrund seiner natürlichen Schwingung, die dem Hauptsonnenzyklus entspricht, gehen wir davon aus, dass HPB weitgehend WI-frei* ist und damit grundsätzlich als Referenzstation geeignet ist. Zur Berechnung des WI werden beide Datenreihen (Deutschland und HPB) in Relation zueinander gesetzt.

Abbildung 5 zeigt die Datenreihe D/HPB im Zeitraum 1881 – 2009. Für Deutschland liegen erst ab 1881 Daten vor, daher kann die Datenreihe erst 1881 beginnen. Die Datenreihe zeigt, dass sich die Werte von HPB und Deutschland mehr und mehr angleichen (Trend ist negativ). D.h., auf HPB wird es vergleichsweise (in %) mehr warm. Dies liegt daran, dass sich kalte Gebiete, fernab von Zivilisations- also WI-Einflüssen, relativ schneller erwärmen. Drei Bereiche sind erkennbar, in denen die Werte jeweils um einen gemeinsamen Mittelwert pendeln. Nach Planck und Newton muss die Annäherung beider Stationen in einer Erwärmungsphase gleichmäßig verlaufen. D.h., die gemessenen Streuwerte der Temperatur müssten sich statistisch gleichmäßig um die Ausgleichsgerade verteilen (kleine Abbildung, idealisiert dargestellt). Das tun sie aber nicht, wie der tatsächliche Verlauf zeigt. In drei Bereichen verlaufen sie waagerecht, d.h., zusätzliche Energie ist notwendig, um die Angleichung zu verhindern. Diese kann nur vom WI kommen, da die Sonne für beide gleichermaßen strahlt.

In der Relationskurve (Abbildung 5) ist demnach der WI „verborgen“. Der WI ist in der Dämpfung (oder Spreizung, je nach Betrachtung) des DWD-Temperaturverlaufs zu HPB enthalten, weil die DWD-Deutschland-Daten relativ weniger steigen und in der statistischen Verteilung der Temperaturstreuwerte (farbige Bereiche). Die durch den WI höheren Temperaturen, dämpfen den Erwärmungstrend, bzw. erzwingen eine andere Verteilung. Um den WI in den zu sehenden Zeiträumen zu ermitteln (für die Zeiträume 2 und 3 berechnet), wird folgendermaßen vorgegangen:

  • • Ermittlung der jeweiligen Mittelwerte für D und HPB in den o.g. drei Zeiträumen (1881 – 1952, 1953 – 1982 und 1983 – 2009). Ergibt 6 Mittelwerte.
  • • Differenzbetrachtung der Mittelwerte von Epoche Xn+1 zu Xn. Getrennt für HPB und D (ergibt 4 Differenzmittelwerte, da Epoche 0 – vor 1881 – nicht bekannt ist, bzw. nicht in die Bewertung einfloss, da diese Werte nach dem DWD, für Deutschland zu ungenau sind).
  • • Betrachtung der jeweiligen Epochendifferenzwerte zueinander, d.h. Wert für D2 (2 steht für Epoche 2) wird mit Wert HPB2 verglichen und die Differenz bestimmt.
  • • Mit dieser Differenz wird der jeweilige WI im 2. und 3. Zeitraum berechnet.
  • • WI im 1. Zeitraum wurde mit 0,2°C konservativ geschätzt. Grund des WI: Andere Verteilung der Stationen, andere Messsysteme, andere Flächen – Deutschland wurde kleiner (um die Hälfte) und große Landschaftsflächen fielen weg, Beginn der industriellen Landschafts-veränderung, …
  • • WI HPB von 1881 – 2009 mit 0,2°C anhand der Bebauungsveränderungen abgeschätzt.

Dass auch HPB nicht WI-los sein kann, liegt daran, dass die Messstation bis 1940 im dortigen Kloster untergebracht war und anschließend in die meteorologische Station verlegt wurde. Im Kloster war nur ein Raum, nämlich der Gemeinschaftsraum, beheizt, in der jetzigen Station aber alle Gebäude die zum Komplex gehören. Der damalige Leiter hatte gefordert, in der Übergangszeit Parallelmessungen durchzuführen, was jedoch nicht geschah. Die alte Wetterstation wurde dann den Mönchen weggenommen und bekam ein eigenes Gebäude beim Friedhof, das seinerseits ständig erweitert und beheizt wurde. Heute stehen dort umfangreiche Gebäudekomplexe. Außerdem wurde allmählich ein stetig sich vergrößernder Parkplatz angelegt, der zugleich auch als Parkplatz für den Friedhof in der Nachbarschaft dient. Fassungsvermögen geschätzt, etwa 100 Autos.

Daraus folgt zwingend: Bis 1940 hatte der HPB keinen WI. Dann hat er einen geringen, wegen zunehmender Bebauung entwickelt. Wie eingangs geschildert, ist die Station nicht (mehr) vollständig WI-frei, wie sie allgemein in der Literatur und vom DWD dargestellt wird. Für die drei Zeiträume ergibt sich für Deutschland ein dynamischer WI:

Zeitraum 1: 1881 – 1952 = +0,2°C

Zeitraum 2: 1953 – 1982 = +0,3°C

Zeitraum 3: 1983 – 2009 = +0,6°C

Der Gesamt-WI ist die Steigung über alle drei Zeiträume.

WI-Deutschland über alle drei betrachteten Zeiträume von 1881 – 2009 = +1,1°C.

Abbildung 6 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2011. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass die heutigen Temperaturen im 120-Jahresvergleich zu kalt sind. Zum berechneten WI wurde, wie dies auch beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (gelb). Der Fehlertoleranzbereich trägt folgenden Punkten Rechnung:

Der WI-Wert der 1. Epoche musste abgeschätzt werden, da die davor liegende Vergleichsperiode zur Berechnung nicht zur Verfügung steht. Dabei wurde konservativ vorgegangen und der WI mit +0,2°C nach folgenden Kriterien festgelegt:

  • • Große ländliche Gebiete fielen 1945 im Osten weg.
  • • Die um die Jahrhundertwende beginnende Industriealisierung Deutschlands, die besonders in den 1930-Jahren forciert wurde.
  • • Die Umwandlung großer Naturflächen in Agrargebiete, mit der damit verbundenen Entwässerung der Landschaft – Verdunstungswärme, die kühlend wirkt, entfiel.

Sowie, dass HPB durch die Bebauungsmaßnahmen nicht mehr vollständig WI-los ist.

Unsere Untersuchung zeigt, dass mehr als die Hälfte der ausgewiesenen, gemessenen Erwärmung, auf den WI entfällt und von den +1,9°C, die der DWD für den Betrachtungszeitraum4 angibt, nur +0,8°C tatsächliche Erwärmung übrig bleiben. Somit exakt dieselben Werte, die auch Anthony Watts in seiner jüngst erschienenen Arbeit veröffentlichte. Der Vergleich unseres Ergebnisses mit der breitengradabhängigen Erwärmung für den 49-Breitengrad (geographisches Mittel für Deutschland) erhärtet unser Ergebnis.

TOB Time of Observation Error (Bias)

Was hat nun unsere Arbeit als Beleg für die Untersuchung von Anthony Watts zu tun? Sehr viel, da ihm vorgehalten wird, er hätte den TOB (Time of Observation Error) nicht berücksichtigt. Der ist jedoch nur relevant bei Mittelwerten, die aus Min/Max-Werten, wie in den USA gebildet werden, nicht aber bei Mittelwerten aus täglichen Mehrfachmessungen zu festen Zeiten, wie sie von Anfang an in Deutschland zur Anwendung kommen. Bis zum April 2001 wurden in Deutschland nach dem Mannheimer Verfahren die Mittelwerte gebildet. Gemessen wurde um 7:00, 14:00 und 21:00 Uhr, wobei der letzte Wert doppelt gezählt wurde. Seit April 2001 wurde stündlich gemessen (allein diese Umstellung brachte auf Grund der Asymmetrie des Temperaturtagesgangs eine scheinbare Temperaturerhöhung von +0,1°C, wie Leistenschneider anhand der Station Berlin-Dahlem nachweisen konnte) und seit 2009 sogar halbstündlich. Dennoch zeigt unsere Untersuchung, die exakt gleichen Relations wie Anthony Watts – d.h. die gemessenen Temperaturen liegen gut doppelt so hoch, wie die tatsächlichen Vergleichstemperaturen. Der Grund dafür braucht nicht lange gesucht zu werden. Er liegt in der Konzentration der ausgesuchten Messstationen in Städten und auf Flughäfen. So liegen mehr als 52% aller GHCN-Messstationen auf Flughäfen. Was es damit auf sich hat, zeigte bereits vor mehr als 2 Jahren WUWT (Abbildung 6).

 

Abbildung 7 zeigt die Temperaturmessstation auf dem Flughafen von Rom und dessen Lage zum Rollfeld. Dass dies kein Einzelfall ist, konnten die Autoren in ihrem Beitrag (hier) belegen, wie z.B. Abbildung 7 zeigt.

 

Abbildung 8, Quelle: (hier) zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen von Rom, wie von A. Watts gezeigt.

 

Abbildung 9 zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände (roter Pfeil).

Die Messstation liegt exakt zwischen beiden Start- und Landebahnen und ist dem gesamten Verkehrsaufkommen (außer Startbahn West) unmittelbar ausgesetzt, d.h. wird von allen Abgasstrahlen der Verkehrsflugzeuge unmittelbar beeinflusst. Dabei lässt sich folgende Korrelation ableiten: Je höher das Flugaufkommen, umso höher die gemessenen Temperaturen der Wetterstation! Wieso dass? Ganz einfach, die erwärmten Luftschichten werden nicht zwischen Starts oder Landungen ausgetauscht und die Erwärmung beginnt von neuem, sondern bei 120 Flugbewegungen/Stunde und der in Deutschland vorherrschenden geringen Luftbewegungen (gemittelt über das Jahr, siehe als Anhaltspunkt die geringe Auslastung der Windanlagen in Deutschland von nur ca. 16%), bleibt ein Anteil an eingebrachten Erwärmung, weil die Luft nicht schnell genug ausgetauscht wird.

Selbst bei angenommener homogener Verteilung der Abgaswärme über das Flughafenareal (Raumvolumen), ergibt sich ein WI von +0,6°C, wie bei EIKE (Herr Prof. Lüdecke) ermittelt wurde. Für die Überschlagsbetrachtung dienten folgende Daten:

Arealfläche 1940 ha

Flugbewegungen 120/h

dabei je Anzahl der Triebwerke (gemittelt: 2,5 – 3)

Mantelstromtriebwerk Rolls-Royce Trent xxx (Rolls Royce-Trend-Familie)

Schub: zertifiziert bis zu 250 – 360 kN (80.000 lbf)

Einlass-Massenstrom: 800 – 1200 kg/s

Durchmesser Auslass: ca. 2 m

Austrittstemperatur ca. 300 – 700°C (je Last, 600°C typisch im Flugverkehr)

Eine Überschlagsrechnung ergibt :

Flugplatzfläche = 5 qkm = 5 .106 m2

Angenommene max. Starthöhe beim Verlassen des Volumens: 200 m

Startzeit: 100 s

Eintrag an erhitzter Luft

durch die Turbinen:  1.000 kg/s . 100 s = 105 kg = 105 m3 Luft auf 600 °C.

Durch (stationäre) Vermischung gilt die einfache Beziehung für die Mischtemperatur T mit einer Lufttemperatur von angenommenen 20 °C:

(108 – 105) . 20 + 105 . 600 = 108  . T,  woraus T = 20,6 °C folgt.

Die  Verteilung der heißen Abgasstrahlen ist jedoch nicht homogen, sondern die Messstationen liegen, wie an Rom und Frankfurt gezeigt, in unmittelbarer Richtung der heißen Abgasstrahlen und es ist nicht so, dass diese nur im Moment der Beaufschlagung wirken, sondern noch Stunden nach dem Start, die Temperaturen erhöht halten. Aufklärungssatelliten der USA machen sich diesen Effekt zu Nutze und können noch Stunden, nachdem ein Jetflugzeug auf einer Rollbahn startete/landete, dies anhand der Erwärmung nachweisen.

In erster Linie werden die heißen Abgasstrahlen durch den sog. Wirbelschleppeneffekt über das ganze Flughafenareal verteilt, ganz gleich, wo die Messstation sich befindet.

Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören, wodurch ein Strömungsabriss entstehen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten. Am Beispiel des neuesten Flugzeugs der Airbus-Familie, dem A 380, gelten die folgenden Bestimmungen:

  • • A380 gefolgt von Flugzeug der Gewichtsklasse „schwer“ = +2 nm zusätzlich zum geltenden ICAO Abstand (6 nm gesamte Distanz)
  • • A380 gefolgt von Flugzeug der Gewichtsklasse „mittel“ = +3 nm zusätzlich zum geltenden ICAO Abstand (8 nm gesamte Distanz)
  • • A380 gefolgt von Flugzeug der Gewichtsklasse „leicht“ = +4 nm zusätzlich zum geltenden ICAO Abstand (10 nm gesamte Distanz)

nm = nautische Meile

 

Abbildung 10 links, Quelle: NASA, zeigt am Beispiel eines Kleinflugzeugs recht anschaulich, wie solche Wirbelschleppen die Luftschichten hinter sich regelrecht durchquirlen. Abbildung rechts zeigt die Luftverwirbelung und deren Ausbreitung bei einer anfliegenden Boeing 777.

Die Autoren konnten zeigen, dass die gemessenen Temperaturen am Flughafen Frankfurt um +2,5°C zu hoch waren. Der WI für den Flughafen Frankfurt demnach bei +2,5°C liegt. Für den Flughafen London Heathrow scheint der WI ebenfalls in dieser Größenordnung zu liegen. Der Jahresmittelwert betrug 2009 bei der Wetterstation am Flugplatz Heathrow bei London 11,9°C. Laut Met Office (http://www.metoffice.gov.uk/climate/uk/datasets/Tmean/ranked/UK.txt) lag die Mitteltemperatur 2009 in Großbritannien bei 9,17°C. Gut 2,7°C Temperaturdifferenz zu London Heathrow. Anzumerken ist noch, dass Flughafenstationen als ländliche Stationen gelten und somit bei einer üblichen WI-Betrachtung gar nicht berücksichtigt werden.

Fazit

Somit festzustellen, dass die Temperaturmessstationen auf Flughäfen für die Aufzeichnung von Temperaturzeitreihen oder sonstiger Vergleichsaussagen gänzlich ungeeignet sind. Anhand der dortigen Daten lässt sich nur herausfinden, dass sich das Flugaufkommen in den letzten Jahren erhöht hat, was grundsätzlich auch richtig ist. Ob für diese Feststellung jedoch eine teure Messstation notwendig ist, darf bezweifelt werden. Wird der Tatsache Rechnung getragen, dass sich ca. 52% aller GHCN-Temperaturstationen auf Flughäfen befinden, so zeigt dies, dass die ausgewiesene Erwärmung auf dem WI beruht oder, überspitzt formuliert, auf dem steigenden Flugaufkommen.

Die Arbeiten von Anthony Watts, ebenso wie unsere zeigen, dass der Hauptanteil der ausgewiesenen, gemessenen Erwärmung in der Tat auf menschliche Ursachen zurück zu führen sind, jedoch nicht auf Treibhausgase, wie dem CO2, sondern auf dem WI, der somit als Haupttreiber der gemessenen Temperaturen gilt. Zu beiden Seiten des Atlantiks schlägt der WI mit gleichen Werten zu Buche. Hinzu kommt, dass zunehmend die Solarforscher die Klima-Debatte dominieren, weil sie sowohl die langfristigen wie auch die kurzfristige Klimaschwankungen vollständig erklären können, was Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ zeigte. Für „CO2+Co.“ bleibt nichts mehr übrig.

In Anbetracht der Tatsache, dass mit der vermeintlichen Erwärmung immer noch Politik betrieben und ganze Volkswirtschaften einer verfehlten Energie- und Umweltpolitik ausgesetzt sind, ist es an der Zeit, dass sich Behörden wie der DWD einer wissenschaftlichen Diskussion stellen und die Politik endlich den Tatsachen Rechnung trägt, dass es nicht mehr wärmer, sondern kälter wird und Klimawandel keine Ausnahmeerscheinung unserer Tage ist, sondern ein stetiger und natürlicher Vorgang.

*) Eine 100%-WI-freie Station für die letzten 130 Jahre konnten wir in Deutschland nicht finden, da insbesondere, die in Städten oder stadtnahen Gebieten befindlichen Stationen, die einen kontinuierlich langen Messzeitraum abbilden, wesentlich WI-behaftet sind. Auf Grund dessen haben wir unser Ergebnis (Abbildung 6) mit einem Fehlertoleranzbereich versehen, der diesem Punkt, dass HPB nicht zu 100% WI-los ist, Rechnung trägt.

Literaturverzeichnis (falls nicht im Text bereits erwähnt)

1 Karl, T.R., C.N. Williams, Jr., F.T. Quinlan, and T.A. Boden, 1990: United States Historical Climatology Network (HCN) Serial Temperature and Precipitation Data, Environmental Science Division, Publication No. 3404, Carbon Dioxide Information and Analysis Center, Oak Ridge National Laboratory, Oak Ridge, TN, 389 pp.

2 Dr. Niels Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“, http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf  Original: Quaternary Studies, Journal der Portugiesischen Vereinigung für Quartär-Forschung (APEQ), Nr. 5, 2007,

3 Met Office Hadley Centre, ”Climate change and the greenhouse effect” Dezember 2005, Seite 30

4 DWD, Lufttemperatur (Jahresmittelwerte) Deutschland 1891 – 2009

Raimund Leistenschneider – EIKE ; Josef Kowatsch – Hüttlingen




Wer braucht schon Wissenschaftler? Es gibt doch Al Gore und James Hansen

Professor Paul Reiter am Institut Pasteur (Paris) schien die Gefühle vieler Experten auf den Punkt gebracht zu haben, als er den Film als „reine, unfassbare Propaganda“ bezeichnete. Solche Reaktionen sollten die Kanadier mit Sicherheit dazu bringen, sich zu fragen, ob der französische Schriftsteller und Nobelpreisgewinner nicht recht hat mit seinem Ratschlag: „Glaube denen, die nach der Wahrheit suchen; misstraue denen, die sie gefunden haben!“.

„Ich kann Mr. Gore versichern, dass niemand von den Inseln im Südpazifik wegen des steigenden Meeresspiegels nach Neuseeland geflohen ist. Tatsächlich, wenn Gore mal die Daten betrachten würde, würde er sehen, wie der Meeresspiegel in einigen Gebieten des Pazifik fällt“. – Dr. Chris de Freitas, Klimawissenschaftler, Assistenzprofessor, University of Auckland, N. Z.

„Wir finden keinen alarmierenden Anstieg des Meeresspiegels, weder bei den Malediven noch bei Tuvalu, Venedig, im Persischen Golf und selbst bei der Satellitenvermessung, wenn man sie sachgemäß durchführt“. – Dr. Nils-Axel Mörner, emeritierter Professor der Paläogeophysik und Geodynamik, Stockholm University, Schweden.

– – –

„Gore hat hier total unrecht – Malaria wurde bis zu einer Höhe von 2500 Metern festgestellt – Nairobi und Harare liegen 1500 m hoch. Die neue Höhengrenze für Malaria liegt niedriger als jene vor 100 Jahren. Keine der „30 sog. Neuen Krankheiten“, die Gore erwähnt, sind in irgendeiner Weise mit der globalen Erwärmung in Verbindung zu bringen, keine einzige!“ – Dr. Paul Reiter, Professor am Institut Pasteur, Fachbereich Insekten und Infektionskrankheiten, Paris, kommentiert damit Gores Glauben, dass Harare und Nairobi gerade oberhalb der Höhengrenze für Mücken gegründet worden waren, um Malaria zu vermeiden und dass die Mücken jetzt in höhere Bereiche wandern.

„Unsere Informationen besagen, dass sieben von 13 Eisbärpopulationen im kanadischen arktischen Archipel (über die Hälfte der weltweiten Gesamtzahl) entweder stabil sind oder wachsen… Von den drei, die sich zu verkleinern scheinen, konnte nur in einem Fall gezeigt werden, dass dies von der Klimaänderung beeinflusst worden war. Niemand kann mit Sicherheit sagen, ob die Klimaänderung nicht auch die anderen Populationen beeinflusst hat, aber richtig ist auch, dass wir keine Informationen darüber haben, ob das doch der Fall war“. – Dr. Mitchell Taylor, Manager, Wildlife Research Station, Umweltdepartment, Igloolik, Nunavut [Nunavut = früher die kanadischen Nordwest-Territorien. A. d. Übers.]

– – –

„Mr. Gore sagt, dass das Abschmelzgebiet in Grönland zwischen 1992 und 2005 sichtlich größer geworden ist. Aber im Jahr 1992 war es in Grönland außerordentlich kalt, und die Abschmelzgebiete waren außerordentlich klein infolge der Abkühlung durch die Aschepartikel des Ausbruchs des Mt. Pinatubo. Wenn Gore anstatt 1992 das Jahr 1991 zum Vergleich heran gezogen hätte, in dem das Abschmelzgebiet um 1% größer war als 2005, hätte er zu dem Schluss kommen müssen, dass sich das Abschmelzgebiet verkleinert und dass eine neue Eiszeit vielleicht schon um die Ecke schaut“. – Dr. Petr Chylek, außerordentlicher Professor, Department of Physics and Atmospheric Science, Dalhousie University, Halifax.

– – –

„Die Ozeane treten jetzt in eine ihrer periodischen Abkühlungsphasen ein… Moderate Änderungen der Temperatur werden sie (die Korallen) nicht schädigen. Das Gleiche gilt für einen höheren CO2-Gehalt. CO2 ist für die Bildung der Korallen ein fundamentaler chemischer Grundstoff, ohne den Korallenriffe gar nicht existieren könnten“. – Dr. Gary D. Sharp, Center for Climate/Ocean Resources Study, Salinas, Calif.

– – –

„Die Eisschilde sowohl in der Antarktis als auch in Grönland werden derzeit dicker. Die Temperatur am Südpol ist seit 1950 um mehr als 1°C zurück gegangen. Und die Ausdehnung des Meereises rund um den Kontinent hat sich während der letzten 20 Jahre vergrößert“. – Dr. R.M. Carter, professor, Marine Geophysical Laboratory, James Cook University, Townsville, Australia.

– – –

„Den veröffentlichten Daten des Canadian Ice Service zufolge gab es  keinen abrupten Abfall hinsichtlich Menge und Dicke der Eiskappe seit 1970, als die verlässliche Überwachung der gesamten kanadischen Arktis verfügbar war“. — Dr./Cdr. M.R. Morgan, FRMS, früherer Berater der World Meteorological Organization/climatology research scientist an der University of Exeter, U.K.

– – –

„Der MPB (mountain pine beetle [eine Art Borkenkäfer, A. d. Übers.]) ist eine Spezies, die von Natur aus in diesem Gebiet Nordamerikas vorkommt und immer präsent ist. Die MPB-Plage begann mit vergleichsweise kleinen Ausbrüchen und geriet durch die Untätigkeit des Forstmanagements vollständig außer Kontrolle“. – Rob Scagel, M.Sc-, Wald-Mikroklima-Spezialist, Pacific Phytometric Consultants, Surrey, B.C., kommentiert Gores Glauben, dass der Bergborkenkäfer eine „invasive exotische Spezies“ ist, die wegen der geringeren Anzahl von Frosttagen zur Plage geworden sein soll.

Steven Goddard

Link: http://stevengoddard.wordpress.com/2012/05/26/who-needs-scientists-they-have-al-gore-and-james-hansen/

Übersetzt von Chris Frey EIKE   www.Chris-Frey-Welt.de




Vom Menschen verursachter Anstieg des Meeresspiegels ist Folge künstlicher globaler Anpassungen

Schon die erste Graphik in Frank Lansners Gastbeitrag hat mich überrascht. Worüber ich wirklich erstaunt war: die erste Aufzeichnung des Meeresspiegels durch den Satelliten Poseidon-Topex zeigte von 1993 bis 2001 fast keinen Anstieg. Sicher nicht, dachte ich. Ich fragte den Meeresspiegelexperten Nils-Axel Mörner, und er bestätigte mir: „Ja, genauso schlimm ist es!“ Also, da auch der Satellit Envisat (der europäische Satellit) von 2003 bis 2011 keinen Anstieg zeigte (bis er angepasst wurde), bedeutet das, dass die Rohdaten der Satelliten seit 20 Jahren nur einen sehr geringen Anstieg zeigen.

Wir dachten, dass die Satelliten uns endlich eine definitive Antwort zum Meeresspiegel geben. Stattdessen scheinen die Satelliten den Anstiegstrend systematisch zu unterschätzen, genau wie Tidenmessungen und jedes andere, den Menschen zur Verfügung stehendes Verfahren. Und obwohl die Lichtgeschwindigkeit ziemlich hoch ist, kann es Jahre dauern, bis die Daten schließlich ankommen. Manchmal „entdecken“ die Wissenschaftler erst nach 4 oder 5 (oder 10 Jahren), dass sie falsch waren.

Natürlich kann es für all diese Anpassungen sehr gute Gründe geben, und sie können uns Ergebnisse liefern, die näher bei der Wahrheit liegen. Aber die Anpassungen bringen die Daten immer näher an den modellierten Trend. Sie sind entschieden gezielt. Entweder gibt es irgendwo einen Gott, der glaubt, dass das Ärgern von Klimawissenschaftlern schick ist, oder es geht etwas Verdächtiges vor, und einige Journalisten müssten einige bohrende Fragen stellen. Steigt der Meeresspiegel nun aufgrund der globalen Erwärmung oder aufgrund globaler Anpassungen?

Jo Nova

————————————————————————————————————-

Gastbeitrag von Frank Lansner

Herausgegeben von Jo Nova

Meeresspiegel – die Daten werden immer nach oben korrigiert

Die Rohdaten zum Meeresspiegel werden immer „nach oben“ korrigiert. 

Abbildung 1: Die Daten der letzten Jahre wurden signifikanten Änderungen unterzogen. Bei Mörner (2004) werden die Satelliten-Rohdaten mit der Originalneigung gezeigt (die graue Linie mit Punkten mit der Bezeichnung “Topex/Poseidon as of 2001” oben).

Die Daten stammen aus einem begutachteten Artikel von Mörner aus dem Jahr 2004. Es scheint so, als ob Mörner einfach die Daten zum Meeresspiegel gezeigt hat, wie sie damals bekannt waren. Außerdem scheinen auch die Daten von Holgate aus den Jahren 2006 und 2007 nach 1994 einen ähnlich flachen Trend zu zeigen.

Der flache Graph von Holgate zum Meeresspiegel endet im Jahr 2004 – als Envisat mit einem anderen, ebenfalls einen flachen Trend zeigenden Datensatz begann. Die Envisat-Daten sind gestrichelt, so dass sie sich in den Jahren von 2004 bis 2006 mit den Satellitendaten überlappen. (Aber sie können an die Original-Rohdaten von Topex/Poseidon abgeglichen worden sein, so dass Envisat dort weitermacht, wo Holgate 2007 aufhört).

Abbildung 2: Der originale rote Graph stammt aus dem IPCC-AR4-Datensatz (Church und White 2006). Andere Datensätze des Meeresspiegelanstiegs sind hinzugefügt worden, um die Trends zu zeigen, wie sie zum Zeitpunkt ihrer Erstveröffentlichung im jeweiligen Jahr ausgesehen haben.

Anscheinend ist um die Jahre 2004 oder 2005 etwas mit den Meeresspiegeldaten von den Satelliten passiert, weil Mörner 2005 darauf hingewiesen hat, dass die Satellitendaten signifikant verändert worden waren. Die Trends sehen anders aus als vor dem Jahr 2004.

Abbildung 3: Der Meeresspiegel zeigt einen Trend aufwärts. Die Änderungen des Meeresspiegels im Maßstab eines Jahrhunderts hatten 2006 und 2007 immer noch ein Problem: die Daten des Meeresspiegels stützten das Argument der globalen Erwärmung nach wie vor nicht.

Selbst die Ergebnisse von Jevrejeva (2006) sind für die Theorie der anthropogenen globalen Erwärmung ein Problem. Der jährliche Anstieg des Meeresspiegels in den neunziger Jahren war ähnlich dem jährlichen Anstieg in den vierziger Jahren. Dies würde auf den gleichen globalen Temperaturtrend während dieser beiden Perioden hinweisen. Das unterstützt nicht den Alarmismus hinsichtlich der globalen Erwärmung.

Schließlich erzeugten Vermeer und Rahmstorf im Jahr 2009 einen Datensatz zum Meeresspiegelanstieg, der tatsächlich annimmt, dass der jährliche Anstieg des Meeresspiegels in den neunziger Jahren schneller erfolgt ist als in den vierziger Jahren, dass also die Erwärmung jetzt schneller zunimmt als damals. Dies war das erste Mal, dass ein Datensatz zum Meeresspiegelanstieg aufgetaucht war, der das Argument der globalen Erwärmung wirklich stützte.

Inzwischen kommen weitere Daten von Envisat zum Meeresspiegel, und es scheint, als hätten die neuen Mitarbeiter an dem Projekt keine Ahnung, wie sie an die globale Erwärmung angepasste Daten erzeugen können:

Abbildung 4: Der europäische Satellit brauchte ebenfalls eine aufwärts gerichtete „Korrektur“. Wie immer gibt es eine Art von Adjustierung, die die Daten ein wenig mehr in Richtung globale Erwärmung verschiebt, aber immer noch zeigt die adjustierte Version einen kleinen Anstieg von etwa 6 bis 7 cm pro Jahrhundert… (die nicht adjustierten Daten zeigen einen solchen von 3 cm pro Jahrhundert).

Europäische Satelliten brauchen ebenfalls aufwärts gerichtete Korrekturen

Abbildung 5: Der von Envisat aufgezeichnete Meeresspiegel wurde Anfang 2012 dramnatisch korrigiert. Hier sieht man die europäischen Envisat-Daten vor (Schwarz) und nach (rot) der Korrektur.

Nach dem Ende der Envisat-Messungen wurde die gesamte Reihe dramatisch verändert. Zusätzlich wird jetzt die gesamte Länge der Aufzeichnungen mit Beginn im Jahr 2002 gezeigt. Es scheint, als zeigten die Envisat-Daten von 2002 bis 2004 ein Fallen des Meeresspiegels, aber dieser Rückgang zeigte sich bis jetzt nicht, wenn der neue stärkere Anstieg des Meeresspiegels das Bild dominiert.

Zusatz von Jo Nova: Die Rechtfertigungen für diese aufwärts gerichteten Korrekturen strapazieren die Gutgläubigkeit. Eine der Anpassungen zum Meeresspiegel, die den Trend zunehmen lässt, ist eine „Korrektur“ des sich hebenden Landes (global) – ernsthaft: 10% des aufgezeichneten Meeresspiegelanstiegs sind eine Kompensation dafür, dass sich das Land ebenfalls hebt. Wie auch immer, selbst wenn der Meeresspiegel immer noch steigt (kann sein), dann hat das schon lange angefangen, bevor wir Kohle zur Stromerzeugung verbrannt haben; siehe It wasn’t CO2: Global sea levels started rising before 1800. Und im Falle von Australien: Australian sea level rises exaggerated by 8 fold (or maybe ten).

REFERENCES

Gornitz V, Lebedeff S. 1987. Global sea-level changes during the past century. In Sea-level Fluctuation and Coastal Evolution, Nummedal D, Pilkey OH, Howard JD (eds). The Society for Sedimentary Geology: Tulsa, Oklahoma; 316, (SEPM Special Publication No.41).(1987) [Data]

IPCC Assessment Report 4, Working Group I, Chapter 9. [pdf]

http://ruby.fgcu.edu/courses/twimberley/EnviroPhilo/PastRecords.pdf

Stoddart, D.R. and  Reed, D.J. (1990) Sea-level rise as a global geomorphic issue, Progress in Physical Geography December 1990 14: 441-445, doi:10.1177/030913339001400401  [PDF]

Mörner. N.A.  Estimating future sea level changes from past records, Global and Planetary Change 40 (2004) 49–54  doi:10.1016/S0921-8181(03)00097-3 [PDF]

Holgate 2006 (poster version): [PDF]

Holgate, S.J. 2007. On the decadal rates of sea level change during the twentieth century. Geophysical Research Letters 34: 10.1029/2006GL028492 GRL: [PDF]

Mörner N.A.: Memorandum by Professor Nils-Axel Mörner, Head of Paleogeophysics & Geodynamics, Stockholm University, Sweden President, (1999-2003) of the INQUA Commission on Sea Level Changes and Coastal Evolution, Leader of the Maldives Sea Level Project http://www.publications.parliament.uk/pa/ld200506/ldselect/ldeconaf/12/12we18.htm

Jevrejeva, S., Grinsted, A., Moore, J. C., and Holgate, S. (2006) Nonlinear trends and multiyear cycles in sea level records, J. Geophys. Res., 111, C09012, doi:10.1029/2005JC003229. [Source] [PDF]

Church, J.A. and White, N.J. 2006. A 20th-century acceleration in global sea-level rise. Geophysical Research Letters 33: 10.1029/2005GL024826. [eea.europa.eu]

Vermeer, M., and S. Rahmstorf, 2009. Global sea level linked to global temperature. Proceedings of the National Academy of Sciences. 106:6. PNAS (PDF)

Steven Goddard on Envisat:[real-science.com]

Watts/Goddard on Envisat: [WattsUpWithThat-April-2012]

 Frank Lansner writes HideTheDecline, from Denmark.

Link: http://joannenova.com.au/2012/05/man-made-sea-level-rises-are-due-to-global-adjustments/

Übersetzt von Chris Frey EIKE




Was nicht passt wird passend gemacht – ESA korrigiert Daten zum Meeresspiegel

Der “Environmental Satellite” (Envisat) ist so etwas wie das Prunkstück der European Space Agency (ESA). Der 8 Tonnen schwere Umweltsatellit stellte die größte Nutzlast dar, die jemals mit einer Ariane Rakete ins All befördert wurde und ist mit 2,3 Milliarden Euro auch der bislang teuerste Satellit der ESA.

Zu den Aufgaben dieses Satelliten gehört unter anderem die Vermessung der Ozonschicht, der Eisbedeckung, die Dokumentation von Vulkanausbrüchen und die Vermessung des Meeresspiegels. Allerdings hat die Auswertung letzterer Daten bislang zu Ergebnissen geführt, die weder mit den Aussagen eines beschleunigten Meeresspiegelanstiegs, noch mit den Messungen der amerikanischen Jason Satelliten in Einklang standen.

Anstieg durch “Datenkorrektur” verfünffacht

Der von Envisat gemessenen Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. (Bitte beachten Sie, dass die folgenden Darstellung zum Vergleich der Absolutwerte normiert sind. Die aus den Ergebnissen resultierenden Steigungen des Meeresspiegels bleiben davon unberührt.)

Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr. Wer nach einer Begründung für diese Maßnahme sucht, der wird auf der Aviso-Homepage unter “Processing and corrections“  fündig. Dort heißt es: “sign of instrumental correction (PTR) corrected via external CLS input (impact of +2 mm/year drift)” Man hat also einen Abgleich an externen Daten vorgenommen. Es findet sich allerdings kein Wort dazu, was für Daten das sind oder welcher Umstand diesen radikalen Eingriff notwendig gemacht hätte.

Was weiter auffällt ist, dass in der neuen Version (2.1) nicht nur eine deutlich größere Steigung zeigt, sondern dass sie jetzt bis ins Jahr 2002 zurückreicht (die bisherige Version begann Ende 2003). Man scheint also nicht nur befunden zu haben, dass der bisher gefundene Anstieg deutlich zu niedrig war, sondern hat allem Anschein nach außerdem noch “alte Daten” wiederentdeckt.

Laufende Anpassungen nach oben

Anpassungen dieser Art sind in der noch jungen Geschichte der Satelliten-Altimetrie nichts ungewöhnliches. Wobei man sich im jeweiligen Fall durchaus die Frage stellen muss, ob die vorgenommenen Korrekturen nun die Wirklichkeit besser widerspiegeln, oder ob sie vorgenommen werden, damit die Ergebnisse besser zu einer vorgefertigten Meinung passen. Dieser Verdacht kann einem nämlich durchaus kommen, wenn man die Zahlreichen Korrekturen etwa beim amerikanischen Programm zur Meeresspiegelmessung mit Satelliten betrachtet. Dieses Begann im Jahr 1992 mit dem TOPEX/Poseidon Satelliten.

In einer im Jahr 2000 publizierten Veröffentlichung (G. Menard, 2000. “Satellite-based altimetry reveals physical ocean.” MEDIAS Newsletter, Vol. 12, pp. 9-17) wurden die Ergebnisse der Messungen von Oktober 1992 bis April 2000 dargestellt. Der Verlauf war mehr oder weniger flach, lediglich durch den im El Nino 1997/98 kam man damals rechnerisch auf einen Anstieg von einem Millimeter pro Jahr.

 

Als die gleichen Daten dann im Jahr 2003 erstmals auf der Internetseite AVISO (Archiving, Validation and Interpretation of Satellite Oceanographic data) vorgestellt wurden, stellte sich das Bild sich bereits anders dar.

 


“Wir mussten das machen, ansonsten hätten wir ja keinen Anstieg”

Offensichtlich waren die Daten jetzt mit einem Trend versehen worden, so dass sich ein Anstieg von 2,3 mm pro Jahr ergab. Der schwedische Ozenaograph Nils-Axel Mörner der von 1999 bis 2003 Präsident der INQUA-Kommission zur Meeresspiegelveränderung und Küstenentwicklung war, schrieb  hierzu in 21st Century Science & Technology:

“Als die Satelliten-Altimetrie-Gruppe feststellte, dass der Anstieg im Jahr1997 ein ENSO-Signal war und sie den Trend bis 2003 fortführten, stießen sie auf ein Problem. Es war kein Anstieg des Meeresspiegels sichtbar und daher musste eine “Re-Interpretation” vorgenommen werden.”

“When the satellite altimetry group realized that the 1997 rise was an ENSO signal, and they extended the trend up to 2003, they seemed to have faced a problem: There was no sea level rise visible, and therefore a “reinterpretation” needed to be undertaken.”

Laut Mörner blieb es damals unklar, wie genau dieser neue Trend rechnerisch zustande kam, die Satelliten-Altimetrie-Gruppe hätte nicht genauer spezifiziert, welche Art von “Korrekturen” im Detail vorgenommen worden wären. Mörner zitiert in seinem Text ein Mitglied der britischen IPCC Delegation mit den Worten:

“Wir mussten das machen, ansonsten hätten wir ja keinen Anstieg”

“We had to do so, otherwise there would not be any trend.”

Der Trend wird immer weiter nach oben korrigiert

Und auch nach diesem “großen Wurf” gingen die “Anpassungen” munter weiter. Zu welchen Resultaten das führte soll im Folgenden erläutert werden. Betrachten wir zunächst die Entwicklung des Meeresspiegels nach Messungen der Satelliten Toppex/Poseidon, sowie Jason-1 und Jason-2, wie sie auf der Homepage der University of Colorado dargestellt wird.

Man erkennt deutlich, dass der Anstieg bis etwa 2005 ziemlich gleichförmig verlief und sich die Geschwindigkeit des Anstiegs seitdem verlangsamt hat. Man sollte also annehmen, dass der resultierende Anstieg über den gesamten Zeitraum daher seit 2005 tendenziell rückläufig sein sollte. Allerdings ist ziemlich genau das Gegenteil der Fall. Lag der aus den Daten errechnete Anstieg über den bis dahin gemessenen Gesamtzeitraum bei 2,9 mm/Jahr, lag er 2008 trotz der offensichtlichen Stagnation von 2006 bis 2008 bei 3,3 mm/Jahr. Und trotz des Umstands dass der Anstieg sich von 2008 bis 2012 weiter deutlich unter dem Niveau der 90er Jahre befindet beträgt der errechnete Anstieg seit 1992 heute 3,1 mm/Jahr. Die Entwicklung des Anstiegs von 2004 bis 2012 ist in nachfolgender Tabelle dargestellt.

Jahr

Anstieg [mm]

Fehler [mm]

2004

2,8

0,4

2005

2,9

0,4

2006

3,2

0,4

2007

3,2

0,4

2008

3,3

0,4

2009

3,2

0,4

2010

3,1

0,4

2011

3,1

0,4

2012

3,1

0,4

Um zu verstehen, wie es zu diesem vermeintlichen Widerspruch kommt muss man sich die Daten aus den jeweiligen Jahren etwas genauer ansehen. Leider gibt es auf der Homepage der University of Colorado kein Archiv, aus dem man die Daten der vorherigen Jahre beziehen könnte. Aber da das Internet bekanntlich nie etwas vergisst und es nützliche Seiten wie die WaybackMachine gibt, lassen sich die entsprechenden Daten auch nachträglich bis 2004 zurückverfolgen. Die Daten für die Jahre 2004 bis 2012 sind in der folgenden Grafik vergleichend dargestellt.

Man erkennt auf den ersten Blick, dass an den Daten laufend Korrekturen vorgenommen wurden. Interessant ist dabei, dass diese Anpassungen allesamt in eine Richtung weisen, und zwar hin zu einem immer größeren Anstieg des Meeresspiegels. Man gewinnt fast den Eindruck, dass in den letzten Jahren immer weiter “angepasst” wurde, um den Gesamtanstieg über der magischen Grenze von drei Millimeter pro Jahr zu halten. Das Ganze wird noch deutlicher, wenn man die sich ergebende Steigung im zeitlichen Verlauf für die Unterschiedlichen Versionen grafisch darstellt.

Über die Jahre lässt sich so ein “schleichender” Prozess von immer neuen Korrekturen und Anpassungen feststellen. Man kann also festhalten, dass die Rohdaten der Meeresspiegelmessungen einen eher flachen Verlauf mit einem Anstieg im Bereich von 0,5 bis 1 Millimeter pro Jahr zeigen. Nur durch zahlreiche Korrekturen, die auf Annahmen beruhen die nicht weiter ausgeführt werden, ergibt sich der “offizielle” Wert von zur Zeit 3,1 mm pro Jahr.

Beschleunigt sich der Anstieg des Meeresspiegels?

Wobei diese Zahl einen durchaus stutzig machen kann. Wenn man sich die verfügbaren Pegeldaten aus der ganzen Welt ansieht (Permanent Service for Mean Sea Level PSMSL, hier eine Liste der NOAA mit Stationen längerer Messhistorie und den zugehörigen Trends), hat man Schwierigkeiten, überhaupt Stationen zu finden, an denen ein ähnlich hoher Wert für den Meeresspiegelanstieg gefunden wird. Jetzt sollte aber der von den Satelliten gemessene Wert, wenn er denn sinnvoll ist, in erster Näherung den Durchschnitt der globalen Messtationen repräsentieren.

Der Versuch einen solchen Durchschnitt zu ermitteln wurde bislang von verschiedenen Autoren mithilfe unterschiedlicher Methodiken unternommen. Die gefundenen Werte bewegen sich alle im Bereich zwischen 1-2 mm Anstieg pro Jahr (10-20 cm in 100 Jahren). Keiner der Autoren sah auch nur annähernd Werte, welche den 3,1 mm/Jahr der Satelliten auch nur nahe kamen.Die folgende Tabelle gibt einen Überblick über verschiedene Arbeiten.

Autor(en)

Jahr

Abgeschätzter globaler Anstieg des Meeresspiegels [mm/Jahr]

Anzahl der Messstationen

Link zur Arbeit

B. C. Douglas

1997

1,8 ± 0,1

24

http://www.springerlink.com/content/p364381652174757/

D.A. Burton

2001

1,84 – 1,91

 

http://www.sciencedirect.com/science/article/pii/S0074614201800073

Church et al.

2006

1,7 ± 0,3

15

http://naturescapebroward.com/NaturalResources/ClimateChange/Documents/GRL_Church_White_2006_024826.pdf

IPCC

2007

1,8 ± 0,5

 

http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch5s5-5-2.html

S. J. Holgate

2007

1,75 ± 0,16

9

http://www.joelschwartz.com/pdfs/Holgate.pdf

D.A. Burton

2010

<1,2

159

http://www.burtonsys.com/climate/global_msl_trend_analysis.html

Church et al.

2011

1,7 ± 0,2

290

http://www.springerlink.com/content/h2575k28311g5146/fulltext.pdf

Nun könnte man annehmen, dass sich der Anstieg der Meeresspiegel im 20. Jahrhundert eben beschleunigt hat (was schließlich auch von IPCC-nahen Autoren suggeriert wird). Eine (wenn auch geringe) Beschleunigung wurde in den Arbeiten von Church et al. (2006 und 2011) schließlich auch gefunden. Allerdings schreiben die Autoren selbst, dass andere Autoren bisher eine solche Beschleunigung nicht sehen konnten (“no 20th century acceleration has previously been detected”). Interessant ist auch zu erwähnen, dass Holgate (2007) genau das Gegenteil gefunden hat, nämlich dass der Anstieg zwischen 1904 und 1953 mit 2,03 mm pro Jahr größer war, als in der Zeit von 1954 bis 2003 mit dann 1,45 mm pro Jahr.

Modelle statt Messungen?

Zusammenfassend kann man wohl sagen, dass die Ermittlung des exakten Wertes der Veränderung des Meeresspiegels eine hochkomplexe Aufgabe darstellt, bei der man abhängig von den gewählten Daten und der verwendeten mathematischen Korrekturen und Modelle zu gänzlich unterschiedlichen Schlüssen kommen kann. Eine gute Beschreibung der Situation findet sich in dem äußerst lesenswerten Essay des 2004 verstorbenen Skeptikers John Daly (dessen Tod, wie manche sich vielleicht erinnern, vom damaligen CRU Chef Phil Jones als ” aufheiternde Neuigkeiten” (“cheering news”) bezeichnet wurde).

“Es wurde der Weltöffentlichkeit, den Medien und den politischen Entscheidern immer der Eindruck vermittelt, dass der Anstieg der Meeresspiegel von 18 cm im vergangenen Jahrhundert eine gemessene Größe wäre, die nicht zur Diskussion stünde. Was größtenteils nicht bekannt ist, ist der Umstand, dass diese Größe in weiten Teilen das Produkt von Modellen, und nicht von Messungen ist, und daher sehr wohl diskussionswürdig, ganz besonders da die Meeresspiegeldaten in vielen Teilen der Welt nicht den IPCC Annahmen entsprechen.”

“The impression has been conveyed to the world’s public, media, and policymakers, that the sea level rise of 18 cm in the past century is an observed quantity and therefore not open to much dispute. What is not widely known is that this quantity is largely the product of modeling, not observation, and thus very much open to dispute, especially as sea level data in many parts of the world fails to live up to the IPCC claims.”

Die 3 Millimeter müssen gehalten werden

Wenn man die Entwicklung der Trends bei den Satellitendaten in den letzten 10 Jahren betrachtet, dann drängt sich einem der Eindruck auf, es soll nach Kräften verhindert werden, dass die publizierten Daten unter einen Wert fallen, der dann nicht mehr als besorgniserregend wahrgenommen würde. Kaum anders ist es zu erklären, dass die Satellitenmessungen der University of Colorado trotz des seit mittlerweile fast 7 Jahre andauernden Rückgangs des Anstiegs unvermindert hohe Werte von über 3 mm Anstieg pro Jahr angeben.

Und auch die aktuell bei den Daten des europäischen Envisat Projektes vorgenommenen Korrekturen folgen nicht nur dem altbekannten Schema, dass diese Maßnahmen ausnahmslos in eine Richtung weisen, und zwar zu höheren Werten. Auch die Begründung, welche die Wissenschaftler anbieten trägt mehr zur Verschleierung bei, als dazu aufzuklären, warum ein so fundamentaler Eingriff in die Daten vorgenommen werden musste.

Was bleibt ist der Eindruck, dass hier Daten systematisch “schöngerechnet” werden. Schließlich steht der nächste Zustandsbericht des Weltklimarates (IPCC) für das Jahr 2014 an. Und dieser kann seine volle Wirkung nur entfalten, wenn alles sich noch viel schlimmer darstellt, als man im letzten Report 2007 bereits gesichert wusste. Ein seit Jahren langsamer werdender Anstieg des Meeresspiegels wäre hierzu ganz sicher nicht hilfreich.

Von Rudolf Kipp;  Zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

•    Grönländischer und westantarktischer Eisschild schmelzen nur halb so schnell

•    Erneuter Rückschlag für Klimaalarmisten – Die globale Strahlungsbilanz zeigt ein starkes negatives Feedback

•    Meeresspiegelanstieg stetig nachlassend – PIK-Propaganda im Abseits

 Ergänzend dazu der Vortrag von K.E. Puls über die Einflussgrößen auf den Meeresspiegel anlässlich der IV- IKEK im November 2011 in München




Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen

Der WI lässt sich dabei in einen aktiven und einen passiven Teil aufteilen. Der aktive Teil ist der durch Zivilisationseinflüsse zusätzlich eingebrachte Energieeintrag in einen Raum. So ist allseits bekannt, dass es in der Stadt wärmer ist, als auf dem Land. Dies liegt zum einen an zusätzlich ausgebrachter Wärme durch Heizungen und Verkehr (aktiv) und/oder durch Bebauung (passiv). Dieser passive Teil ist jedoch nicht nur bei Temperaturmessstationen in der Stadt, sondern vor allem auch auf dem Land zu berücksichtigen, da durch die Kultivierung der Landschaft, sich Deutschland in den letzten 100 Jahren in der Fläche mehr änderte, als dies durch die Städtisierung erfolgte. Durch die Umwandlung von Waldgebieten (1 Quadratkilometer Buchenwald verdunstet z.B. jeden Tag 2 Millionen Liter Wasser) und Feuchtgebieten, sinkt die Verdunstungsrate dramatisch, was, da Verdunstung immer mit einer Kühlung einhergeht (auf diesem Prinzip funktioniert eine Klimaanlage), die Temperatur künstlich in die Höhe treibt. Auch ist durch die Abholzung von Waldgebieten, der Sonnenschirm sozusagen weg und die Sonnenstrahlen können nun direkt bis zum Boden gelangen und diesen großflächig aufwärmen. Von Regenwaldgebieten ist der Temperaturunterschied von Vorher zu Nachher bekannt und beträgt +16°C!

Der Wärmeinseleffekt ist also keine konstante Größe einer Station, sondern er ist, wie aus den obigen Schilderungen leicht verständlich, eine dynamische, mit der Veränderung des Raums (und der Zivilisationseinflüsse), sich mit ändernde Größe.

So ist es beim Wärmeinseleffekt  gar nicht notwendig, dass Messstationen zunehmend in die Stadt verlegt werden müssen, die Stadt kommt vielmehr zur Messstation durch die ständige Ausuferung der Bebauung. Nicht nur Gebäude, sondern Straßen, Beleuchtungen, Heizungen, Kraftwerke, Industrie- und Gewerbegebiete breiten sich täglich aus. Laut Angaben des Statistischen Bundesamtes betrug der Flächenverbrauch in Deutschland zwischen 2005 und 2008 im Durchschnitt 107 ha pro Tag.  In Baden-Württemberg beispielsweise im Jahr 2009 allein 7 ha pro Tag. Bei jedem neuen Bauwerk ist die Natur der Verlierer. Und der WI nimmt zu, weil weiträumige Wärmeinseln neu geschaffen werden.

Abbildung 1: Temperaturgang für Deutschland, Datenquelle: DWD. Bei einem Vergleich über die letzten 12 Jahre macht sich der Wärmeinseleffekt noch kaum bemerkbar. Man kann die Temperaturen direkt vergleichen. Das ist nicht möglich, wenn man größere Zeiträume vergleicht.

Völlig unberücksichtigt blieb bislang in der wissenschaftlichen Betrachtung zum WI die bereits erwähnte enorme Trockenlegung der freien Landschaft in den letzen 50 Jahren durch Sickerungsgräben entlang der Straßen und Feldwege, durch Drainagen und zigtausende Kilometer an (gelben) Sickerschläuchen, wodurch sich die physikalischen Eigenschaften des Erdbodens verändern. Das Regenwasser fließt schneller ab, die Verdunstungsrate der freien Landschaft und damit die Kühlung haben abgenommen und nehmen ständig weiter ab. Abnahme der Kühlung bedeutet umgekehrt ein Anstieg der Erwärmung. So steigt der Wärmeinseleffekt weltweit, verursacht durch gut 7 Milliarden Menschen von Jahr zu Jahr an.

Die Aussage des Deutschen Wetterdienstes, Offenbach: Auch früher habe es den WI schon gegeben, deshalb kann man ihn unberücksichtigt lassen, ist denn rundum falsch. Richtig an der Aussage ist nur, dass auch früher (z.B. vor 100 Jahren) ein WI vorhanden war, der Wert aber deutlich geringer war. Durch die fortschreitende Kultivierung der Landschaft und der vom statistischen Bundesamt genannten Zahlen, vergrößert sich der Wärmeinseleffekt von Jahr zu Jahr. Vor allem in den Alpen macht sich der WI stark bemerkbar, denn dort ist in den letzten 50 Jahren der Eingriff in die Natur, verstärkt durch das Anschwellen der Touristenströme, am größten. Bestes Beispiel ist die DWD-Messstation auf der Zugspitze, die für Temperaturvergleichsbetrachtungen wertlos ist, da sie in einer Touristenhochburg mit starker Bebauung liegt. Zudem steigt die Warmluft der Täler nach oben und damit auch die Vegetationszonen. Übrigens hat die in der Presse so oft zu hörende alpine Gletscherschmelze nichts mit menschengemachten Einflüssen zu tun, sondern basiert auf der AMO (Temperaturschwingung des Atlantikwassers) und diese wird von der Sonne bestimmt, wie die folgende Abbildung zeigt.

Abbildung 2 (Quelle: Slupetzky, 2005, Uni Salzburg) zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002. Gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen vorlagen, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild). Dies bestätigt auch die ETH Zürich: “Alpen-Gletscherschmelze von Atlantikströmung beeinflusst?“, Geophysical Research Letters (2010), 37, L10501. Die Untersuchungen anhand von 30 Gletschern zeige, dass die Massenbilanz der Schweizer Gletscher mit der AMO korreliere, so die Forscher. Und weiter “Es zeigte sich, dass die AMO die Perioden besonders markanter Gletscherrückgänge, wie etwa in den 1940ern und seit den 1980ern, so wie Stagnation oder Zuwachs in den 1910er und 1970er Jahren, erklären kann.“

Nach diesem Exkurs wieder zum WI. Fazit: Ein direkter Temperaturvergleich von heute und vor 120 Jahren ist bei keiner Station möglich. Das ist unseriös und führt zu falschen Ergebnissen. Man müsste vom heutigen Temperatur-Wert einen Korrekturfaktor abziehen, eben den Wärmeinseleffekt. Für den Frankfurter Großflughafen beträgt der Faktor z.B. +2,5°C, denn die Klimastation steht neben der Startbahn im Strahle der heißen Abgase. Vor 100 Jahren war dort noch Wald und der Boden nicht trocken gelegt, so wie heute. Im Schnitt der 2100 Stationen Deutschlands beträgt der  WI etwa 0,1 Grad je Jahrzehnt. Die untere Linie ist zugleich der Korrekturfaktor bei Vergleichen mit früher.

Abbildung 3, Rot: Gemessene Temperaturreihe ohne Berücksichtigung des WI (dient zur jeweiligen Temperaturaussage, ist jedoch für Vergleichsbetrachtungen ungeeignet).

Blau: WI-bereinigte Vergleichstemperaturkurve (dient nicht zur Temperaturaussage, stellt jedoch die richtigen Vergleichsbedingungen und damit richtigen Vergleiche dar).

Weitere Erklärungen und Begründungen dieser Grafik, siehe:

http://www.eike-klima-energie.eu/news-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/

http://www.eike-klima-energie.eu/news-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert

http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/

Die Kurzfassung dieser drei wissenschaftlichen Artikel finden Sie hier:

http://www.wahrheiten.org/blog/2011/01/27/waermeinseleffekt-taeuscht-klimaerwaermung-vor/

WI-bereinigte Daten heißt:

1)      Die Zivilisationsveränderungen durch den Menschen sind erfasst.

2)      Die Änderungen des Raumes durch die Zeit werden berücksichtigt.

Der reale Temperaturvergleich Deutschlands über die letzten 120 Jahre sieht WI-bereinigt so aus:

Abbildung 4: Auch die um den Wärmeinseleffekt korrigierten Deutschlandwerte zeigen:

(an der blauen gestrichelten Durchschnittlinie sieht man), dass zwischen 1960 und 1985 ein „Temperaturloch“ (Kaltzeit, vergleiche, die in den 1970-Jahren in Politik, Presse und Wissenschaft kursierende Furcht einer anstehenden Eiszeit) in Deutschland war und dann die Jahresmittelwerte bis zum Jahre 2000 ständig gestiegen sind. Seit über einem Jahrzehnt sinken die Temperaturen erneut, und zwar deutschland- und auch weltweit.

Zum Abschluss der Deutschlandbetrachtung eine Station, die nur einen geringen WI (WI-los ist praktisch keine Landstation, da keine Messstation und Messbedingung heute wie vor 100 Jahren ist) hat. Dies ist die DWD-Messstation auf dem Hohenpeißenberg (HPB).

Abbildung 5 zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends).

Diese Schwingung stimmt exakt mit dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus überein, der in 2003 sein (im Mittel) 208-jähriges Aktivitätsmaximum hatte, als ganz Europa unter einem Jahrhundertsommer stöhnte. Wie der Hauptsonnenzyklus nicht nur bei uns, sondern z.B. auch die arktische Meereisbedeckung bestimmt, hat Prof. Mörner (bis 2003 Präsident der INQUA, International Union for Quaternary Research) ermittelt.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 6, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre, entgegen den Computerspielen der ACIA, eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist. Die letzte Kaltphase um 1900 wurde übrigens der RMS Titanic zum Verhängnis, als auf ihrer vergleichsweise südlichen Route Eisberge auftauchten, mit denen „normalerweise“ (in wärmeren Zeiten) niemand dort rechnete, wie Abbildung 7 zeigt.

 

Abbildung 7, Quelle:  Joanna D. Haigh, Blackett Laboratory, Imperial College London, zeigt die Anzahl der Sonnenflecken und das Eisbergaufkommen am Breitengrad 48 Nord. Insbesondere zwischen 1900 und 1914 drangen Eisberge weit nach Süden vor. Weiter, als üblich. In diesem Zeitraum hatte der Hauptsonnenzyklus sein Minimum und die solare Aktivität war entsprechend gering, was zum einen die Meerestemperatur senkte (siehe AMO) und zum anderen das arktische Eisvolumen verstärkte (siehe obige Untersuchungen von Dr. Mörner). Rechts: Zeitgenössiges Gemälde.

In größeren Ländern als Deutschland, wie z.B. den USA, auf denen wegen der Flächengröße noch Gebiete mit sehr geringem menschlichen Einfluss zu finden sind, wird schnell deutlich, wie stark der WI in urbanisierten Gebieten wirkt. Denn dort sind Messstationen zu finden, wo die Raumveränderung durch die Zeit gering und damit der WI gering ist. Eine solche Station, die praktisch keinen Wärmeinseleffekt hat, da die Umgebung fast keine Veränderung erfahren hat, ist „Dale Enterprise Virginia“. So kann es niemanden mehr überraschen, dass dort bei den real gemessenen Temperaturen der gleiche Verlauf zu sehen ist, wie bei den WI-bereinigten Temperaturen für Deutschland. Ohne den geringen Wärmeinseleffekt hätte es in den letzten 100 Jahren überhaupt keine Erwärmung gegeben, Stand 2010, da der geringe, sonnenbasierte Temperaturanstieg gegen Ende des 20. Jahrhunderts, mittlerweile, durch die zurückgehenden Temperaturen aufgebraucht ist. Der WI ist somit der primäre Temperaturtreiber in den letzten 100 Jahren, was bei einem WI-Wert für Deutschland von ca. +1,2°C, gegenüber der sonnenbasierten Erwärmung von ca. +0,6°C im 20. Jahrhundert, offensichtlich wird.

Abbildung 8, Quelle: http://sppiblog.org/news/contribution-of-ushnc-and-giss-bias-in-long-term-temperature-records-for-a-well-sited-rural-weather-station zeigt den Temperaturgang der Messstation Dale Enterprise Virginia.

Nun kann zurecht eingewendet werden, dass eine einzige Station, die nur regional „ihr“ Temperaturprofil abdeckt, kein hinreichender Beleg dafür ist, dass die vom DWD und der WMO herausgegebenen Temperaturreihen für Vergleichsbetrachtungen wertlos sind und die EIKE-Vergleichstemperaturreihe die korrektere Sichtweise abbildet. Daher soll zum Abschluss der Bereich der Erde betrachtet werden, der die größte Fläche und die geringste Bebauung aufweist – die Meeresflächen. Beginnend mit der bereits erwähnten AMO (Atlantic Multidecadal Oscillation).

Abbildung 9 zeigt die Abweichungen der Oberflächentemperatur im Nordatlantik (Quelle: NOAA), dazu eingezeichnet, die natürliche Schwingung der AMO von gut 60 Jahren, die auf die Sonne zurück zu führen ist. Abbildung 9 zeigt deutlich keinen Temperaturtrend. Gleiches Bild im Pazifik.

Abbildung 10 zeigt die Wassertemperaturen (Abweichungen vom Mittelwert, Datenquelle, ebenfalls NOAA) im Pazifik. Auch hier: kein Temperaturtrend. Ebenso im Nordpazifik (Abbildung 11).

Abbildung 11: Temperaturgang (Abweichungen vom Mittelwert) im Nordpazifik (PDO – Pacific Multidecadal Oscillation). Auch hier kein Temperaturtrend, sondern Schwingcharakter. Ebenso ist im Südatlantik kein Temperaturtrend zu sehen (Abbildung 12).

Abbildung 12: Meerestemperatur (wie oben) im Südatlantik. Der Temperaturgang spricht für sich. Auch bei den globalen Meerestemperaturen lassen die Temperaturschwankungen keinen steigenden Trend erkennen (Abbildung 13).

Abbildung 13: Temperaturabweichungen der globalen Meerestemperaturen (blau).

Da die obigen Wassertemperaturen „lediglich“ mehrere Jahrzehnte abdecken, ein Blick über die letzten 1.000 – 2.000 Jahre.

Abbildung 14 (http://www.abd.org.uk/pr/274.htm) zeigt die mittlere Oberflächentemperatur der letzten 1.100 Jahre. Deutlich ist ein Schwingungsmuster von ca. 1.000 Jahren zu sehen. Ca. alle 500 Jahre wechseln sich Warm-und Kaltzeiten ab, was auf die variable Sonne zurück zu führen ist. Um 1650 (Kleine Eiszeit) waren die tiefsten Temperaturen im Betrachtungszeitraum und im 13. Jahrhundert die höchsten. Dies stimmt weitgehend mit dem Schwankungsmuster des Meeresspiegels aus K.-E. Behre, “Probleme der Küstenforschung“, Band 28, überein.

Wie Abbildung 14 deutlich zeigt, war die Temperatur während des Klimaoptimums im Mittelalter deutlich höher als heute. Dies legt den Schluss nahe, dass auch der Meeresspiegel seinerzeit höher als heute war (thermische Ausdehnung).

Abbildung 15 zeigt die globalen Meeresspiegelschwankungen der letzten 1.800 Jahre nach Aslak Grinsted, Moberg et al., 2005 und Jevrejeva, 2006, Quelle: (http://www.c3headlines.com/). Um das Jahr 1200 lag im Betrachtungszeitraum der höchste Wert, deutlich über dem heutigen. Seit dem Klimaminimum der “Kleinen Eiszeit“ (rote Linie), steigt der Meeresspiegel wieder global an.

In der mittelalterlichen Warmzeit lagen der globale Meeresspiegel und die globale Meerestemperatur höher als heute (siehe auch http://www.oism.org/pproject/s33p36.htm#Message5976). Trotzdem lag z.B. Holland nicht 7 m unter Wasser, wie dies noch jüngst von Klimaalarmisten des AWI bei weiterer Erwärmung zu hören war. Dies zeigt, was von solchen Horrorszenarien, die gebetsmühlengleich von einigen Instituten verbreitet werden, zu halten ist.

Fazit:

Während die unbebauten und WI-losen Flächen der Erde, die Meeresflächen, keinen Temperaturtrend erkennen lassen und somit das gleiche Bild liefern, wie die gezeigte Station in Virginia (Abbildung 7), sowie die von EIKE ermittelte, richtige WI-Temperaturvergleichskurve für Deutschland (Abbildung 3 und 4) , muss davon ausgegangen werden, dass sowohl die DWD-Temperaturreihe, als auch die von der WMO jährlich veröffentlichte Globaltemperaturreihe für Vergleichsbetrachtungen wertlos sind, da dort der WI die gemessenen Temperaturen in die Höhe treibt und Vergleiche zu früheren Temperaturen damit sinnlos macht, was nicht verwundern kann, befinden sich über 50% der weltweiten Temperaturmessstationen auf Flughäfen und damit im Strahle der heißen Flugzeugabgase. DWD und besonders die WMO, weisen denn mit ihren Temperaturreihen nichts anderes aus, als die Zunahme des weltweiten Luftverkehrs. Ob zu dieser (richtigen) Erkenntnis jedoch ein teures Netz von Temperaturmessstationen notwendig ist, darf bezweifelt werden.

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen




4. Internationale Klima- und Energiekonferenz in München. Ein Bericht!

Als man den Rhein bei Köln zu Fuß überqueren konnte

Das CO2 und der ganz normale Klimawandel / In  München eine Gegenkonferenz zum UN-Klimagipfel in Durban

Im Durban hat die 17. UN-Klimakonferenz begonnen, in München wenige Tage davor die 4. kritische Gegenkonferenz stattgefunden. In Durban haben sich rund 20 000 Teilnehmer versammelt, in München sind es nur rund 100 gewesen. In Durban zieht sich die Konferenz über 12 Tage hin, in München hat sie 2 Tage gedauert. In Durban werden Unwahrheiten und Täuschung geboten, in München gab es sachliche Information über die Wirklichkeit. Nach Durban haben sich auch Heerscharen von Journalisten begeben, in München fanden sich – wie schon in den drei Jahren zuvor – nur sehr wenige Medienvertreter ein.

In Durban werden weiterhin die üblichen Schreckensbilder gemalt: Das Erdklima erwärmt sich, die Gletscher schmelzen, der Meeresspiegel steigt, extreme Wetterlagen mit Überschwemmungen, verheerenden Stürmen, Trockenheit und Hitze nehmen zu. In München dagegen fragte man: Was ist dran an diesen Szenarien? Wird es auf der Erde wirklich wärmer? Und was ist dran an der Behauptung, die Ursache für die Erderwärmung seien die Menschen mit ihrem steigenden Ausstoß von technisch bedingtem Kohlendioxid? Diese 4. Internationale Klima- und Energiekonferenz am 25. und 26. November in München wurde ausgerichtet vom Europäischen Institut für Klima und Energie (Eike), vom Berlin Manhattan Institut (BMI), vom Haus der Zukunft Berlin und vom Internationalen Institut für Deutschland- und Europapolitische Bildungsarbeit.

Den Beginn machte die kanadische investigative Journalisitin Donna Lafromboise, die die fachliche Qualifikation der IPCC Autoren unter die Lupe nahm. Die oft wiederholte Behauptung, für die IPCC Berichte würde die Créme de la Créme der internationalen Klimaforschung zusammenarbeiten, entpuppt sich als eines der vielen Märchen, die insbesondere vom IPCC Chairman Pachauri verbreitet und von allen Medien und der Politik ohne jede Prüfung aber willig übernommen wurden. Frau undefinedLafromboise weist in Ihrem Vortrag und einem neuen Buch nach, dass der Weltklimarat nicht die besten Forscher versammelt, wie immer behauptet wird. Stattdessen sitzen Aktivisten dort im Gremium und betreiben grüne Propaganda. Darüberhinaus sind Forschungsresultate häufig zweifelhaft. 

Sie berichtete, dass sie durch unabhängige Untersuchungen (IAC-Bericht)auf diese Fragen gestoßen sei, weil dort, wenn auch anonymisiert z.B. steht (aus der undefinedBasler Zeitung):".. auf Seite 138 des Berichts sagt eine befragte Person, dass die Hälfte der Hauptautoren nicht kompetent sei, und auf Seite 554 heisst es, dass die Mehrheit der IPCC-Entscheide eher politisch denn wissenschaftlich motiviert ist.»

Beispiel Richard Klein. Mit 23 Jahren schliesst der Holländer seine Masterarbeit in Geografie ab, anschliessend arbeitet er als Campaigner bei Greenpeace. Bereits zwei Jahre später schreibt er erstmals als Autor für den IPCC. Sechs Jahre vor Abschluss seiner Doktorarbeit gehört Klein, der heute am Stockholm Environment Institute tätig ist, zum engsten Kreis der Hauptautoren. «Wenn ich diesen Lebenslauf ansehe, frage ich mich, ob Richard Klein zu den weltweit besten und erfahrensten Wissenschaft- lern zählt», sagt Laframboise.

Krasser sei der Fall von Laurens Bouwer, der an der Universität Amsterdam Umweltwissenschaften studierte und bereits zwei Jahre vor Abschluss seiner Masterarbeit zum Autorenteam des Weltklimarates stösst. «Bouwer war zu diesem Zeitpunkt Praktikant bei der Münchner Rückversicherungs-Gesellschaft. Für das IPCC reichte diese Qualifikation offenbar aus, um ihn als Hauptautor zu beauftragen», kommentiert Laframboise… und so geht mit vielen Beispielen weiter..

Auch im Mittelalter sind die Gletscher stark zurückgegangen

Der Physik-Professor Horst-Joachim undefinedLüdecke stellte dem „Klima-Alarmismus“ tatsächliche Temperaturmessungen entgegen, darunter Thermometerdaten der Nordhemisphäre von heute bis etwa 250 Jahre zurück. Und bei einem 2000-Jahresvergleich kommt er zu dem Schluss, dass die Thermometerdaten im Normalbereich liegen. Zusammengefasst lautet sein Ergebnis: “Der Temperaturanstieg des 20. Jahrhunderts ist im Vergleich mit den letzten 2000 Jahren völlig normal. Der Temperaturanstieg im 20. Jahrhundert war überwiegend natürlich. Es ist aber ein zusätzlicher externer Trend auffindbar. Welche Ursache dieser hat, kann nicht ohne weiteres entschieden werden.“ Lüdecke machte auch auf die Warmzeit („Klimaoptimum“) im Mittelalter (950 – 1100 n. Chr.) aufmerksam, wie bei einer Untersuchung von Stalagmiten aus der Spannagel-Höhle bei Innsbruck zu erkennen – obwohl technisches Kohlendioxid noch nicht vorhanden gewesen sei. Damals habe die Regensburger Steinbrücke über die Donau in Trockenbauweise errichtet werden können, der Rhein bei Köln zu Fuß überquert werden können, und es habe einen starken Rückgang der Gletscher gegeben.

Kanzlerin Merkel – nicht nur alternativlos, auch antwortlos

Als Lüdecke in der anschließenden Diskussion gefragt wurde, ob es über solche Erkenntnisse denn keinen Dialog mit Politikern gebe, sagte er: „Nein, den gibt es nicht. Wenn wir einladen, kommt niemand.“ Eike-Mitglied Michael Limburg ergänzte: „Wir haben auch an Kanzlerin Merkel geschrieben mit Unterschriften von 400 Wissenschaftlern, aber bis heute keine Antwort erhalten.“ Die alternativlose Frau Merkel hat es auch mit antwortlos.

Die Gletscher in den Alpen waren früher schon kleiner als heute

Welche Temperaturen in früheren Jahrhunderten und Jahrtausenden herrschten, als der Mensch mit seinem technischen („anthropogenen“) CO2 noch keinerlei Einfluss auf das Klima haben konnte, zeigte der österreichische Gletscherforscher Gernot Patzelt (Vortrag liegt bisher nicht vor), Professor für Meteorologe und Geographie aus Innsbruck. Er sprach über die Entwicklung der Gletscher und Waldgrenzen in alpinen Hochlagen in den zurückliegenden zehntausend Jahren. An ihnen könne man die Temperaturen, die früher geherrscht hätten, gut nachvollziehen. Warme und kalte Zeiten hätten sich abgewechselt. Seien die Hochlagen in warmer Zeit eisfrei gewesen, seien dort Bäume gewachsen. Bei Gletschervorstößen in kalter Zeit, seien sie im Gletscher verschwunden. An Ringen von Baumstämmen, die ein Gletscher freigebe, wenn er zurückgehe, könne man das sehen. Vor 5000 Jahren zum Beispiel seien Bäume in viel höheren Lagen der Alpen gewachsen, wo heute keine wachsen könnten. Also sei es damals viel wärmer gewesen. Patzelts Fazit lautet: „In den letzten zehntausend Jahren ist es zu 65 Prozent wärmer gewesen als heute. Das Klima heute zeigt also keine Anomalie. Die Gletscher in den Alpen waren früher schon kleiner, als sie heute sind. Seit 150 Jahren gehen sie jetzt schon wieder zurück, also unabhängig vom anthropogenen CO2.“ Dessen behaupteter Einfluss auf das Klima sei Unsinn.

Der Meeresspiegel steigt schon seit 10 000 Jahren

Als unzutreffend beschrieb der Meteorologe Klaus-Eckart undefinedPuls die Angstmacherei, der Anstieg des anthropogenen CO2 führe zum Anstieg des Meeresspiegels oder beschleunige ihn. Der Meeresspiegel steige schon seit rund zehntausend Jahren, seit dem Ende der letzten Eiszeit, aber der Anstieg beschleunige sich nicht, im Gegenteil, festgestellt werde ein abnehmender Trend. Im tatsächlichen Datenstand habe die Angstmacherei keine Grundlage. Weltweit gebe es einige hundert Pegelstandmessungen, auch hier zeige sich keine Beschleunigung, eher eine Abschwächung. An der deutschen Nordsee sei der Meeresspiegel in den zurückliegenden dreitausend Jahren um insgesamt 1,5 Meter gestiegen, also durchschnittlich um 0,05 Millimeter im Jahr. Von 1900 bis 2000 habe sich der Anstieg – trotz des zunehmenden anthropogenen CO2 – verlangsamt. Einen einheitlichen Meeresspiegel gebe es ohnehin nicht, irgendwo steige er, irgendwo sinke er auch.

„Der Meeresspiegel hat in der Klimadiskussion nichts zu suchen“

Ohnehin wird die Höhe des Meeresspiegels von vielen Einflüssen bestimmt. Puls nannte Magma und Schwerkraft, Hebungen und Senkungen von Küsten oder Kontinenten, Hebungen und Senkungen des Meeresbodens, Plattentektonik, Vulkanismus, Veränderungen der Windsysteme, Veränderungen der Meeres-Ströme, Verdunstung und Niederschlag (meteorologische Effekte), thermische Ausdehnung  oder  Kontraktion  des  Wasser  sowie  die  Eisveränderungen  (Schmelze  oder  Akkumulation).  Aber geredet werde immer nur von einem einzigen dieser insgesamt zehn Faktoren: vom Klima. Aber der Meteorologe und Klimaforscher Hans von Storch habe bewiesen, dass der Meeresspiegel in der Klimadiskussion nichts zu suchen habe. Puls belegte seine Ausführungen mit vielen Messdaten, Berechnungen und wissenschaftlichen Untersuchungsergebnissen. Zusammenfassend zitierte er den schwedischen Ozeanographen Nils-Axel Mörner, die auf Beobachtungen beruhenden Voraussagen für den künftigen Meeresspiegel im Jahr 2100 kämen auf einen Anstieg von 10 bis 15 Zentimetern. Das bedeute, vor einer starken Überflutung, wie in den meisten globalen Erwärmungsszenarien behauptet, müsse man keine Angst haben.

CO2-Verpressung in den Untergrund ist eine Absurdität

Aber entgegen allen solchen Erkenntnissen wird den Menschen weiterhin vorgetäuscht, das menschengemachte CO2 führe zu einem Treibhauseffekt, es bewirke eine globale Erwärmung, diese dürfe 2° Celsius nicht übersteigen, sonst sei die menschliche Existenz gefährdet, und folglich seien die CO2-Emissionen zu begrenzen. Zusätzlich wird daran gearbeitet, das – weil nicht zu verhindern – weiterhin emittierte CO2 durch Verpressen in den Untergrund zu entsorgen, genannt Carbon Captured Storage (CCS). Der Geologie-Professor Friedrich-Karl undefinedEwert nannte dieses Verpressen eine Absurdität: „Die Fakten beweisen, dass eine CO2–Entsorgung nicht notwendig, sondern schädlich ist.“ Wohl nannte er drei Untergrundzonen, die für CCS geeignet und harmlos seien (ausgebeutete Erdgaslagerstätten; porenhaltige Gesteinszonen, die von vielen hundert Meter dicken dichten, festen und verformungsstabilen Gesteinszonen überlagert werden; Gesteinszonen, die nicht mit CO2 und Grundwasser chemisch reagieren und dabei ihr Volumen und  ihren Spannungszustand verändern). Aber er führte auch fünf ungeeignete andere Zonen auf (geschichtete und geklüftete Gesteinskörper, besonders bei horizontaler Schichtung; tektonisch gestörte Gesteinskörper; geschichtete und geklüftete Gesteinskörper ohne Überlagerung einer ausreichend mächtigen dichten, festen und verformungsstabilen Gesteinszone; geschichtete und geklüftete Gesteinskörper ohne Überlagerung einer ausreichend mächtigen dichten, festen und verformungsstabilen Gesteinszone; Gesteinskörper, die bergmännisch genutzt werden).

Bei Verpressung Gefahr von Erstickungstod in CO2-Seen

CO2 sei zwar nicht giftig, aber schwerer als Luft. Bei einem Austritt von großen Mengen bilde es eine auf dem Boden schwebende dichte Wolke, verdränge dort die Atemluft und führe zum Tod durch Ersticken. Beispiele aus vielen Bereichen seien bekannt, Unfälle recht häufig. Im Untergrund gespeichertes CO2 stehe unter Druck und könne austreten. Bei der CCS-Entsorgung soll anthropogenes  CO2  (vor allem aus Kohlekraftwerken), wie Ewert weiter ausführte, mit Drücken bis zu 250 bar eingepresst werden. „Die Wahrscheinlichkeit ist groß, dass dabei CO2 aufsteigt und an der Oberfläche austritt. In abflusslosen Mulden können sich CO2-Seen bilden, in denen Lebewesen ersticken.“ Es komme zu CO2-Unfällen. Ewerts  Zusammenfassung: „Tatsächlich wird die Entsorgung von CO2 nicht gebraucht. Standort-Untersuchungen  sind nicht nötig. Der CO2-Einfluss auf das Klima ist unerheblich, und ein potentielles Risiko wird vermieden.“  

Mehr CO2 ist für die Menschen gut, nicht schlecht              

Zusätzlich hob Ewert hervor, dass CO2 über die Photosynthese der Grundbaustoff der Nahrungskette,  also lebenswichtig ist, das Pflanzenwachstum fördert, der Grundbaustoff für die Skelette vieler Tierarten, vieler Gesteine sowie ein wichtiges Industriegas für viele Anwendungszwecke ist. Mehr CO2 bedeute zum Beispiel höhere Ernten an Weizen und anderen Ackerbauprodukten und sei daher gut für die Menschen. „Wenn man den Kindern in der Schule beibringt, CO2 sei gefährlich, dann ist das ein Verbrechen.“

Täuschungen und Vertuschungen des „Weltklimarates“ IPCC

Über die Zusammenhänge zwischen Klima, Wasser, CO2 und die Sonne sprach der kanadische Paläogeologe und Professor Jan undefinedVeizer, über den Einfluss der kosmischen Strahlung auf das Klima samt neuesten Erkenntnissen und deren Bedeutung für den Klimawandel der israelische Atmosphärenphysiker und Professor Nir Shaviv, über die  klimatische Rolle der Sonne und der kosmischen Strahlung der dänische Atmosphärenphysiker und Professor Henrik Svensmark. Der britische Meteorologe Piers undefinedCorbyn von Weather Action, London, erläuterte, dass und wie akkurate und langfristige Wettervorhersagen möglich sind und auch erfolgreich waren. Der promovierte amerikanische Jurist Christopher C. undefinedHorner stellte die Profiteure des staatlichen Klimaschutzes vor und in einem zweiten Vortrag die Täuschungen, Vertuschungen und das Spurenverwischen durch den „Weltklimarat“ IPPC (Intergovernmental Panel on Climate Change). In das gleiche Horn stieß die kanadische Journalistin und Buchautorin Donna Laframboise mit ihrem Thema „Warum fast nichts, was Sie über den IPPC wissen, wahr ist“ (Ihr Blog: http://nofrakkingconsensus.com). Die Geschichte einer Vertuschung und die Korruption von Wissenschaftlern („Climategate“) war auch das Thema des britischen Autors Andrew undefinedMontfort. und undefinedhier. Der Diplom-Ingenieur Tilman undefinedKluge, Bad Soden, sprach über windige Windkraftverträge (www.windknast.de), darunter auch über Vorteilsgewährungen an und Vorteilsannahmen von Amtsträgern für Zustimmungen zum Aufstellen von Windkraftanlagen.

Die katastrophale Produktivität von Strom mit Wind und Sonne

Mit den wahren Kosten des „grünen“ Stroms befasste sich der Experimentalphysiker Gerd undefinedGanteföhr, Professor an der Universität Konstanz: „Die Arbeitsproduktivität der erneuerbaren Energien ist vollkommen katastrophal, die können gar nicht wirtschaftlich sein.“ So hätten 2010 zum Beispiel in der Fotovoltaik 133 000 Menschen gearbeitet und 12 Milliarden kWh Strom erzeugt. Im gleichen Jahr hätten in einem einzigen Braunkohlewerk (Niederaußem) 700 Menschen gearbeitet und 27 Milliarden kWh Strom geschafft. Und auch diese Produktivitätsanalyse stellte Ganteföhr vor: Um im Jahr 1 Milliarde kWh Strom zu erzeugen, geling das mittels Kohle mit 73 bis 106 Vollzeitstellen, mittels Uran mit 77 bis 125, mittels Wind 650 bis 850, mittels Biomasse mit 507 bis 960 und mittels Fotovoltaik mit 1228 bis 1764 Vollzeitstellen. 

Strom-Mehrkosten 170 Euro je Haushalt im Monat

Ganteföhr weiter: „Die deutsche Energiewende wird kaum einen Einfluss auf die globalen CO2-Emissionen haben, denn Deutschland ist zu klein, und die meisten anderen Länder können dem Vorbild Deutschlands nicht folgen.“ Aber die Kosten der Energiewende lägen für Deutschland in der Größenordnung der Kosten für die Wiedervereinigung. Die Mehrkosten beliefen sich für die 40 Millionen Haushalte auf 83,1 Milliarden Euro im Jahr und je  Haushalt auf 173 Euro im Monat. Diese hohen Kosten und die niedrige Produktivität der erneuerbaren Energien würden zu einem Sinken des Lebensstandards führen und die Energiekosten nicht sozial abgefedert, sondern müssten anteilig auch von den einkommensschwachen Haushalten getragen werden. (Der Kern und Teile seines Vortrags finden sich hier: http://www.faszinationphysik.ch/sites/einzelvortraege.php?id=4).

Der verborgene Zweck: De-Industrialisierung und „große Transformation“

Der Physiker und Geograph Werner undefinedKirstein, Professor an der Universität Leipzig. beschrieb die Klimaschutzpolitik als eine Heilslehre, die zu einer Ersatzreligion geworden sei. „Rationale Argumente prallen an Glaubensinhalten ab.“ Fast alle Menschen seien anfällig für Katastrophenszenarien.  Die Angst vor Feuer (Hölle) und Wasser (Sintflut) seien Urängste der Menschen, mit denen man auch ideologische und politische Ziele erreichen könne. Verfolgt würden mit der Klimaschutzpolitik diese Ziele: erstens gesellschaftspolitische Änderungen durch langsame, schrittweise De-Industrialisierung und Dezentralisierung, genannt die „große Transformation“; zweitens gigantische Einnahmen aus dem Emissionshandel mit „Verschmutzungszertifikaten“, Klimasteuer; drittens Ankurbelung der Konjunktur mit neuen CO2-reduzierenden Techniken. Für viele Menschen seien das vielleicht sogar erstrebenswerte Ziele, aber warum mit der perfiden Idee der CO2-Lüge? Und warum  nicht mit  logischen  Argumenten statt mit  ideologischen? 

Eine klimapolitische Weltdiktatur

Bezogen auf das Ziel „die große Transformation“ zur  „Green Economy“ zitierte Kirstein Maurice Strong, den ersten UNEP-Direktor mit dessen Äußerung auf Klima-Konferenz von 1992 in Rio de Janeiro:    „Besteht nicht die einzige Hoffnung für diesen  Planeten in dem Zusammenbruch der industriellen Zivilisation? Liegt es nicht in unserer Verantwortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?“ Der Weg dahin sei, mit CO2-Ängsten zu schüren. Kirstein zitiert auch den Sozialwissenschaftler Gerhard Schulze, Universität Bamberg: "Ich sehe allmählich die Bereitschaft zum Demokratieverzicht. Es stimmt mich sehr bedenklich, wenn auf Klimakongressen wie jüngst die Äußerung fällt oder die Frage gestellt wird, ob man autoritären Regimen nicht besser zutrauen könnte als einer Demokratie, die angeblich anstehenden Probleme in den Griff zu bekommen.“  „Was sich da am Horizont abzeichnet ist eine klimapolitische Weltdiktatur.“  (8. Dezember 2009)

Papst Al Gore, zwei seiner Bischöfe in Potsdam, jüngstes Gericht , Ablasshandel, Ketzer

Daher sieht auch der Ökonom und Wirtschaftsphilosoph Gerd Habermann in der Klimaschutzpolitik eine Gefahr für die Freiheit. Zuerst gehe es an die Freiheit von Forschung und Lehre, dann an weitere Freiheiten. Auch für Habermann hat sich diese Politik zur Religion verdichtet. Selbst einen Papst habe man dafür schon gefunden: den ehemaligen US-Vizepräsidenten Al Gore. Zwei deutsche Bischöfe habe dieser in Potsdam (die Professoren Rahmstorf und Schellnhuber). Als Jüngstes Gericht werde die Klimakatastrophe instrumentalisiert. Der käufliche Erwerb von CO2-Emissionsrechten entspreche dem einstigen Ablasshandel, und ihre Ketzer kenne diese religiöse Welt ebenfalls: die „Klimaleugner“. 

Die ehemalige Bürgerrechtlerin und Ex CDU MdB Vera Lengsfeld zog in ihrem viel beachteten Abendvortrag weitreichende Parallelen zwischen der heute obsessiv als Wissenschaft bezeichneten Klimareligion und ähnlichen Pseudowissenschaften der Vergangenheit, wie der Eugenik.

Hauptautor Dr. K.P. Krause,

Erstell von EIKE unter tlw. Verwendung von Textteilen aus der Basler Zeitung und der Weltwoche.




Der Meeresspiegel im Sumpf der Skandale

Niemand spricht das mit auch nur annähernd so viel Elan aus wie Mohammed Nasheed, Präsident der Malediven. Im Vorlauf zu dem Klimagipfel erklärte er, dass er „eine Inselnation führe, die unter den Wellen verschwinden könnte, wenn all diese Gespräche zum Klima nicht bald in Taten münden".

Seitdem er eine Unterwassersitzung seines Kabinetts geleitet hatte, war Nasheed unermüdlich bei der Sache, um andere tief liegende Nationen zu drängen, Ähnliches hervorzubringen. Er führte den Vorsitz solcher Nationen in Bangladesh, um Noten im Vorlauf von Durban aneinander anzupassen, und sie stimmten darin überein, ihre eigenen Kohlenstoffemissionen zu begrenzen.

Ban Ki-Moon, Führer der Vereinten Nationen, war erfreut – und sagte, dass es unfair sei, „von den Ärmsten und am meisten Verwundbarsten zu verlangen, allein die Hauptlast der Auswirkungen des Klimawandels zu ertragen“ und rief andere Länder auf, nach Zahlungen reicherer Länder zu verlangen, um Maßnahmen zur Anpassung zu finanzieren.

Ich könnte vielleicht helfen. Als jemand mit einiger Erfahrung auf diesem Gebiet kann ich den tief liegenden Ländern versichern, dass es sich hierbei um einen falschen Alarm handelt. Das Meer steigt nicht steil an. Ich habe viele der tief liegenden Gebiete während meiner 45-jährigen Laufbahn studiert, habe Daten zum Meeresspiegel aufgezeichnet und interpretiert.

Für Feldstudien war ich sechsmal auf die Malediven gereist; ich war in Bangladesh, dessen Umweltminister behauptet hatte, dass Überflutungen wegen des Klimawandels zu bedrohlichen 20 Millionen „ökologischer Flüchtlinge“ führen könnten. Ich habe sorgfältig die Daten des „untergehenden“ Tuvalu untersucht. Und ich kann berichten, dass diese Nationen zwar Probleme haben, aber keine Angst vor einem steigenden Meeresspiegel haben müssen.

Mein letztes Projekt führte mich auf eine Feldexpedition nach Indien an die Küste von Goa, um Beobachtungen mit archäologischen Informationen abzugleichen. Das Ergebnis ohne Umschweife: Es gibt keinen fortgesetzten Anstieg des Meeresspiegels!

Der Meeresspiegel war während der letzten 50 Jahre oder so stabil, nachdem er um 20 cm um das Jahr 1960 gefallen war; er lag im 18. Jahrhundert ein ganzes Stück unter dem heutigen Level und im 17. Jahrhundert etwa 50 bis 60 cm über dem heutigen Niveau. Daraus wird deutlich, dass Anstieg und Rückgang des Meeresspiegels völlig unabhängig von der sog. „Klimaänderung“ erfolgen.

Dies der Öffentlichkeit zu erklären kann sehr schwierig sein.

Es gibt so viele falsche Vorstellungen über den Meeresspiegel, wobei die Vorstellung, dass er über die ganze Welt konstant ist, nicht die geringste ist. Tatsächlich gibt es große Variationen – bis zu zwei Metern. (Anmerkung: dieser Wert von 2 m bezieht sich auf die dynamische Oberffäche in Bezug auf die (statische) Geoid Oberfläche*) 

Die Differenz von 180 m gilt für die Oberfläche des Geoids unter Berücksichtigung der theoretischen Oberfläche der Hydrosphäre. Man muss nicht an eine konstante Meeresoberfläche denken, sondern an eine imaginäre Badewanne, in der das Wasser vor- und zurückschwappt. Dies ist ein dynamischer Prozess.

Im Jahre 900 beispielsweise lag der Meeresspiegel in Tansania hoch und in Peru niedrig; ein Jahrhundert später ist es genau umgekehrt. Oft wird auch vergessen, dass zwar Meeresspiegel steigen und fallen können („Eustatik“), dass aber auch Landmassen selbst steigen und fallen können („Isostasie“).

Heute ist alles, worüber die Welt redet, der Meeresspiegel – weil es zufällig mit der Mär des IPCC über schmelzende Eisschilde, verschwindende Gletscher und anthropogener globaler Erwärmung zusammenfällt. Dies führt zu Verwirrung, wenn es um Fälle wie Bangladesh geht, dessen Misere genau das Gegenteil von dem ist, was Umweltaktivisten und das IPCC behaupten.

Bangladesh leidet wegen des Regens im Himalaya. Das hat nichts mit dem Meer zu tun. Es leidet auch unter den Wirbelstürmen, die das Wasser landeinwärts treiben.

Auch das hat nichts mit dem Meer zu tun. Bangladesh leidet, weil die Hälfte seiner Landmasse weniger als acht Meter über dem Meeresspiegel liegt – was eine hohe Anfälligkeit für küstennahe Überflutungen zur Folge hat. Aber es war immer das Schicksal von Deltagebieten: Es hat wenig, wenn überhaupt, mit dem „Klimawandel“ zu tun.

Vor zwei Jahren besuchte ich das Gebiet mit dem Delta des Sundarban-Flusses und konnte klare Beweise für die küstennahe Erosion beobachten, aber keinen Anstieg des Meeresspiegels. Tatsächlich war er 40 bis 50 Jahre lang stabil. Eine Möglichkeit, dies zu belegen, besteht darin, die Mangroven zu untersuchen, deren horizontale Wurzelsysteme heute als Folge der Erosion etwa 80 cm über dem Schlick liegen.

Aber im vierten Zustandsbericht des IPCC (2007) steht das ganz anders: „Selbst unter dem konservativsten Szenario wird der Meeresspiegel am Ende des 21. Jahrhunderts 40 cm höher liegen als heute, und es wird erwartet, dass dies zu einer Steigerung der jährlichen Anzahl von Menschen, die aus überfluteten küstennahen Gebieten fliehen müssen, von 13 Millionen auf 94 Millionen steigt. Fast 60% dieser Zunahme wird es in Südasien geben“.

Das ist Unsinn! Die wirklichen Experten bzgl. des Meeresspiegels finden sich in der Kommission der International Union for Quaternary Reseach (INQUA), die sich mit Änderungen des Meeresspiegels und der Evolution von Küsten befasst, und nicht beim IPCC. Unsere Forschungen sind das, was die Klimalobby eine „unbequeme Wahrheit“ nennen könnte: sie zeigen, dass der Meeresspiegel während der letzten drei Jahrhunderte um einen Wert oszilliert hat, wie er dem heutigen entspricht.

Dies liegt nicht an schmelzenden Gletschern: Der Meeresspiegel wird durch eine Vielzahl von Faktoren beeinflusst, zum Beispiel durch die Geschwindigkeit, mit der die Erde rotiert. Er stieg in der Größenordnung 10 bis 11 cm zwischen 1850 und 1940. Dann kam der Anstieg zum Stillstand, oder er fiel sogar ein wenig um 1970. Seitdem ist er im Wesentlichen gleich geblieben.

Also muss jedes der Probleme, die mit dem „steigenden Meeresspiegel“ in Zusammenhang gebracht werden, das Ergebnis anderer, lokaler Faktoren oder grundlegender Fehlinterpretation sein. In Bangladesh beispielsweise wurde die zunehmende Versalzung der Flüsse tatsächlich durch Dammbauten im Ganges hervorgerufen, die den Zufluss frischen Wassers behindert haben.

Der Vierte Zustandsbericht des IPCC behauptet, dass es „starke Beweise“ dafür gibt, dass der Meeresspiegel während der letzten Jahrzehnte gestiegen ist. Er geht sogar so weit zu behaupten: „Satellitenbeobachtungen, verfügbar seit den neunziger Jahren, stellen genauere Daten zum Meeresspiegel zur Verfügung… Diese Jahrzehnte lange Satellitenaufzeichnung zeigt, dass der Meeresspiegel seit 1993 mit einer Rate von rund 3 mm pro Jahr gestiegen ist, also signifikant stärker als im Mittel des vorigen halben Jahrhunderts“.

Fast jedes Wort davon ist unwahr. Satellitenbeobachtung ist eine wundervolle und vitale neue Technik, die eine Rekonstruktion von Änderungen des Meeresspiegels auf der gesamten Ozeanoberfläche erlaubt. Aber sie wurde vom IPCC für politische Ziele gekidnappt und verbogen.

Im Jahre 2003 wurde die Satellitenmessung auf mysteriöse Weise nach oben korrigiert, um einen plötzlichen Anstieg um 2,3 mm pro Jahr zu erhalten. Als ich diese falsche Anpassung auf einer Konferenz zur globalen Erwärmung in Moskau kritisiert habe, gab ein britisches Mitglied der IPCC-Delegation öffentlich als Grund für diese neue Kalibrierung zu: „Wir mussten das tun, sonst hätte sich kein Trend ergeben“.

Dies ist ein Skandal, den man „Meeresspiegel-gate“ nennen sollte.

Prof. Dr. Nils-Axel Mörner

* Die oft genannten 180 m Differenz bezieht sich auf die Geoid Oberfläche in Bezug auf die theoretische Oberfläche der Hydrosphäre.

Der Autor war Leiter von paleogeophysics and geodynamics at Stockholm University und Präsident der INQUA-Kommission zu Änderungen des Meeresspiegels und der Entwicklung küstennaher Gebiete.

Übersetzt von Chris Frey für EIKE




Der verlogene ‚Konsens’ bzgl. der Klimaänderung

Die Theorie (genauer die Religion zur Umverteilung von Wohlstand) erlitt kürzlich eine ganze Reihe empfindlicher Schläge – obwohl sich die Lobby der Klimaänderung immer noch anstrengt, ihre Sicht der Dinge der Welt überzustülpen. Zum Beispiel hat Time Magazine einen Erguss unter der Überschrift „Wer finanziert die Leugner der Klimaänderung?“ veröffentlicht. Darin wundert man sich, warum es immer noch Zweifel gibt. In Time heißt es „…ein überwältigender wissenschaftlicher Konsens sagt es“.

Natürlich handelt es sich dabei um das gleiche Magazin, dass in den frühen siebziger Jahren die Ankunft einer neuen Eiszeit verkündete und Millionen zu Tode ängstigte. Am Ende stellte sich das als Mythos heraus.

Dass heute ein Konsens existiert ist ebenfalls ein Mythos, und es wird Zeit, diesen Mythos zu zerschlagen.

Selbst Skeptiker der Klimaänderung stimmen zu, dass die menschliche Rasse die Zusammensetzung der Atmosphäre verändert. Mit immer mehr Menschen, die sich an Wohlstand und Komfort dank der Leistungen der Industrie erfreuen, gibt es ein wenig mehr Kohlendioxid in der Luft. Das geht in die Rubrik „na und?“ ein.

Darüber hinaus gibt es aber keinen Konsens – nicht darüber, ob das CO2 den Planeten erwärmt, nicht darüber, wie groß diese Änderungen sind, nicht darüber, ob die Menschheit dafür verantwortlich ist, nicht darüber, ob die Wärme gefährlich ist und nicht darüber, was man dagegen tun soll.

Jene, die etwas anderes sagen und den Konsens aufdringlich vertreten, sind bestenfalls naiv.

Nehmen wir beispielsweise den früheren Gouverneur von Utah, Jon Huntsman. In einer nationalen Debatte unter den Republikanern sagte er, dass die Skeptiker der globalen Erwärmung leugnen, „was 98 von 100 Wissenschaftlern“ glauben.

James Taylor vom Heartland Institute erwiderte sofort, dass Huntsman sich auf eine Online-Umfrage bezog, auf die 77 Menschen geantwortet hatten – eine Umfrage, in der die Fragen bis zur Bedeutungslosigkeit einseitig und vage gestellt worden waren.

Abspringende Wissenschaftler

Das könnte man nun als irgendein Vorkommnis betrachten – außer dass der Hype um den „Konsens“ so weit verbreitet als Waffe benutzt wird, um Kritiker niederzuknüppeln. Die Wahrheit ist, dass immer mehr Wissenschaftler zurückweisen, dass eine solche komplexe Debatte jemals beendet werden könnte.

Vor kurzem ist beispielsweise ein Physik-Nobelpreisträger aus einer bedeutenden wissenschaftlichen Vereinigung ausgetreten, um gegen deren engstirnige Haltung zur Klimaänderung zu protestieren. In seiner Begründung an die Amerikanische Physikalische Vereinigung APS schrieb Ivar Giaever: „In der APS ist es in Ordnung, darüber zu diskutieren, ob sich die Masse von Protonen mit der Zeit ändert und wie sich ein Multi-Universum verhält, aber die Beweise für globale Erwärmung sollen unwiderlegbar sein?“

Andere waren weniger zurückhaltend. Harold Lewis, emeritierter Professor der Physik an der University of California in Santa Barbara, hat sich ebenfalls aus der APS zurückgezogen, und zwar mit folgenden Worten:

„Es ist natürlich der Zirkus um die globale Erwärmung und die Dollarmilliarden, mit denen er vorangetrieben wird, der so viele Wissenschaftler korrumpiert hat und der die APS wie eine Hammelherde vor sich her getrieben hat. Es ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich in meinem langen Leben als Physiker gesehen habe“.

Nur als Randbemerkung, wenn Zahlen als Kriterium dienen könnten, haben sie viel Gesellschaft. Über 400 Wissenschaftler haben bereits im Jahre 2007 in einem Bericht an den US-Senat Fragen zur Erwärmungshypothese aufgeworfen. Bei einem Update dieses Berichtes 2010 ist die Zahl der Unterschriften auf etwa 1000 gestiegen.

Inzwischen haben über 31000 Wissenschaftler eine Petition unterzeichnet, in der sie bestreiten, dass menschliche Aktivitäten für eine wesentliche Klimaänderung verantwortlich sind. In der Petition, jetzt unter Federführung des Oregon Institute of Science and Medicine heißt es: „Es gibt keinen überzeugenden wissenschaftlichen Beweis, dass die menschlichen Emissionen von … Treibhausgasen zu einer katastrophalen Erwärmung der Erdatmosphäre oder einer „Disruption“ des Erdklimas geführt haben und jemals führen werden. Mehr noch, es gibt substantielle wissenschaftliche Beweise, dass eine Zunahme des CO2-Gehaltes in der Atmosphäre zahlreiche positive Auswirkungen auf die irdische Pflanzen- und Tierwelt hat.“

Falls man das Nummernspiel spielen will, hier ein Beispiel: 52 Wissenschaftler haben an einem grundlegenden Pfeiler zur Erderwärmung geschrieben, nämlich dem IPCC-Bericht für Politiker aus dem Jahr 2007. Dies bedeutet, dass sie mit 600 zu 1 in der Minderheit sind, verglichen mit den Unterzeichnern der Oregon-Petition.

The carbon problem Das Kohlenstoffproblem

Während des vergangenen Jahrzehnts haben die globalen CO2-Emissionen um 28 Prozent zugenommen. Die Emissionen in Afrika nahmen um 30 Prozent, in Asien um 44 Prozent und im Mittleren Osten um 57 Prozent. Die Emissionen in China haben sich mehr als verdoppelt. Diese Emissionen sind innerhalb eines Jahres um 2 Milliarden Tonnen größer als alles, was die USA emittieren. Und das Tempo des Anstiegs nimmt zu. Im vergangenen Jahr hat die CO2-Erzeugung in China um 10 Prozent zugenommen, während die Emissionen in den USA rückläufig waren.

Entwicklungsländer samt ihrer Milliarden Einwohner weisen die Klimaänderungshysterie durch ihre Politik zurück. Und zwar weil es bessere Gelegenheiten gibt, Geld für ein besseres Leben auszugeben als für eine fadenscheinige Institution, auf deren Fundamenten die Klimaänderung erzeugt worden ist.

Aber steht die Wissenschaft nicht auf der Seite der Untergangspropheten? Keine gute Wissenschaft. Die Theorien hinter der Hysterie werden durch neue Gedanken und Entdeckungen immer mehr erschüttert. Wesentliche Fragen sind immer noch nicht beantwortet. Nobelpreisträger Ivar Giaever beispielsweise ist unter jenen, die ihre Schwierigkeiten bei der Verifikation der weltweiten Klimadaten und des Beweises bekannt gemacht haben, dass die Erwärmung etwas Schlechtes wäre.

Die Behauptung (wie kann man die mittlere Temperatur der ganzen Erde über ein ganzes Jahr messen?) lautet, dass sich die Temperatur von 288,0 auf 288,8 K während 150 Jahre erhöht hat, was (wenn es stimmt) für mich bedeutet, dass die Temperatur erstaunlich stabil war, und sowohl die menschliche Gesundheit und das Wohlergehen haben sich definitiv während dieser ‚Erwärmungs’-Periode verbessert.

Das Problem der Ozeane

In einem Gespräch mit der New York Times sprach er eine andere unbequeme Wahrheit bzgl. der Daten an: „Es gibt keinen ungewöhnlichen Anstieg des Meeresspiegels, also wo liegt das Problem?“

Was?! Schmilzt die Antarktis nicht ab, und wird New York nicht durch das anschwellende Meer verschlungen?

Äh… nein! Im vorigen Jahr mussten Wissenschaftler, die in einer Schlüsselstudie behauptet hatten, dass der Meeresspiegel steigt, ihre Forschungen zurückziehen, nachdem man darin Fehler gefunden hatte, die die Ergebnisse unterminiert haben.

Die Autoren der Studie in Nature Geoscience sagten: „Seit Veröffentlichung unserer Studie sind wir auf zwei Fehler aufmerksam geworden, die die gezielte Abschätzung des zu erwartenden Meeresspiegelanstiegs betreffen. Dies bedeutet, dass wir ohne weitere Arbeiten keine weiteren Schlussfolgerungen hinsichtlich des Meeresspiegels im 21. Jahrhundert ziehen können“.

Mit anderen Worten, sie wissen es nicht. Aber einer der führenden Forscher der Welt bzgl. des Meeresspiegels sagt, dass er es weiß. Und er sagt, dass der Meeresspiegel nicht – Wiederholung: nicht – katastrophal ansteigt.

Nils-Axel Mörner ist Leiter der Abteilung Paläogeophysik und Geodynamik an der Stockholm University in Schweden. Er sagte, dass der Meeresspiegel von 1850 bis 1940 etwa 1 mm gestiegen sei. Das ist ein kleines bisschen. Aber dann fiel der Meeresspiegel. „Es gibt keinen Trend, absolute keinen Trend“, sagte Mörner.

Was ist aber mit dem IPCC-Bericht über den steigenden Meeresspiegel? Er sagte, dass das IPCC einen solchen Anstieg nicht aufgezeichnet, d. h. nicht gesehen hatte. Es war ein „Korrekturfaktor“ in einem Computermodell. Mit anderen Worten, sagte Mörner, „es handelt sich um eine Fälschung des Datensatzes“.

Was ist mit der Inselgruppe der Malediven, die im Indischen Ozean versinken soll? Mörner ist dorthin gereist. Die Inselbewohner bestätigten, dass der Meeresspiegel gesunken sei – in den siebziger Jahren. Aber Ursache waren eventuell andere Faktoren und nicht der Meeresspiegel. Mehr noch, seit damals „war der Meeresspiegel stabil; hat sich während der letzten 35 Jahre nicht verändert“.

Und was ist mit den abschmelzenden Polargebieten? „Die Antarktis schmilzt definitiv nicht ab“, sagte er. „Alle Aufzeichnungen von dort zeigen eine Ausdehnung des Eises.“.

Zu oft, sagt er, haben die Theoretiker der globalen Erwärmung kein Hintergrundwissen bzgl. der Wissenschaft vom Meeresspiegel. „Also stammt alles Gerede von einem Anstieg des Meeresspiegels aus Computermodellen, nicht aus Beobachtungen. Die Beobachtungen können ihn nämlich nicht finden“.

Ein Computermodell wird mit einer Programmierung des Computers erstellt. Und da gibt es das alte Akronym: Müll rein, Müll raus [Unübersetzbares Wortspiel. Original: “GIGO,” or Garbage In, Garbage Out].

Was die CO2-Zunahme betrifft, so dürften menschliche Aktivitäten nur einen winzigen Beitrag dazu leisten. Vor Kurzem hat Murry Salby, Vorsitzender der Klimaabteilung an der Macquarie University in Australien, festgestellt, dass 96 Prozent aller CO2-Emissionen aus natürlichen Quellen stammen.

Außerdem ist das Kohlendioxid nicht das von den wärmehysterischen Massen behauptete Superagens. Dem Leiter des Center for the Study of Carbon Dioxide Craig Idso zufolge ist es für die Umwelt unabdingbar notwendig. Er hat ein Buch geschrieben, in dem 55 Vorteile aufgezählt werden, wie das CO2 umweltverbessernd wirkt,

In extremen Mengen ist fast alles giftig, aber das CO2 ist in extremer Menge einfach nicht vorhanden. Und selbst wenn das doch der Fall wäre, gäbe es nichts, was irgendjemand dagegen tun könnte.

„Jeder weiß, dass CO2 ein Treibhausgas ist”, hat Idso gesagt. „Was nur sehr wenige Leute zu wissen scheinen ist, dass Wasserdampf ein viel wirksameres Treibhausgas ist, und so weit ich weiß, werden wir nie in der Lage sein, den Wasserdampfgehalt in der Atmosphäre zu kontrollieren, solange jedenfalls der Wind über den Ozean weht.“.

Die unbequeme Sonne

 

Was uns zu der Frage bringt: Was ist mit unserer Kontrolle der Sonne?

Im Juni haben das National Solar Observatory und das Forschungslabor der US-Luftwaffe von drei getrennten, unabhängigen Analysen berichtet, die darauf hindeuten, dass die Sonne derzeit in einer Phase mit geringer Sonnenfleckenaktivität eintritt. Solche Perioden korrespondierten mit globaler Abkühlung – einschließlich der „kleinen Eiszeit“ von 1645 bis 1715.

Mehr noch, ein vor kurzem in der prestigeträchtigen Zeitschrift Nature erschienener Artikel berichtet über Forschungsergebnisse am CERN, dem größten Partikelbeschleuniger der Welt. Wissenschaftler haben dort gefunden, dass kosmische Strahlen eine viel größere Rolle als gedacht hinsichtlich der Bewölkung auf der Erde spielen. Offenbar hat die Wolkenbedeckung große Auswirkungen auf Temperaturen.

Was bedeutet, dass man alle Theorien zur Erwärmung wieder auf das Zeichenbrett bannen muss.

Politik kontra Wissenschaft

Derzeit findet eine furiose Debatte darüber statt, was man hinsichtlich der Erwärmung tun sollte. Die Debatte ist überwiegend politisch, und zwar einschließlich Wissenschaftlern auf der Jagd nach Finanzmitteln von der Regierung.

Während er weiterhin verkündet, dass der Planet sich erwärmt, argumentiert der dänische Umweltaktivist Björn Lomborg nichtsdestotrotz, dass „viele der aufwendigen und teuren Aktionen, über die man jetzt nachdenkt, um die globale Erwärmung zu stoppen und die hunderte Milliarden Dollar kosten werden, oft mehr auf Emotionen als auf strikt wissenschaftlichen Hypothesen basieren. Sie werden mit hoher Wahrscheinlichkeit nur wenig Einfluss auf die Temperatur der Erde für Hunderte von  Jahren haben.“

Zusammenfassend lässt sich sagen, dass es weder unter den Wissenschaftlern noch hinsichtlich der wissenschaftlichen Theorie einen „Konsens“ darüber gibt, ob überhaupt eine Klimaänderung stattfindet, was sie bedeuten könnte und was man dagegen tun könnte.

All dies unterstreicht eine zentrale Wahrheit: Wissenschaft ist kein Popularitätswettbewerb! Was zählt ist nicht, wie viele Leute irgendetwas glauben oder ob sie sich selbst Wissenschaftler nennen oder ob sie in der Lage sind, Kritiker ruhig zu stellen. Was zählt ist, was wahr ist.

Der einzige ehrbare und nützliche Weg für die Befürworter der globalen Erwärmung ist es damit aufzuhören, Kritiker zum Schweigen zu bringen und so zu tun, als existiere ein Konsens. Stattdessen ist es an der Zeit, eine ehrliche Bestandsaufnahme aller Daten und der gesamten komplexen Theorie vorzunehmen. Dann und nur dann ist ein vernünftiger Fortschritt möglich.

Quelle:  Provo Daily Herald

Link: http://sppiblog.org/news/the-phony-%e2%80%98consensus%e2%80%99-on-climate-change#more-6265

Übersetzt von Chris Frey für EIKE




Teil 6: Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
           interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

 

Im Teil 1, „Die Sonne bestimmt den Temperaturgang“ wurde bereits gezeigt, wie die Sonne auf die El Niñoaktivität einwirkt und damit die Temperaturen der letzten 30 Jahre exakt moderierte. Weiter wurde im Teil 3 dargelegt, wie der Brückner/Landscheidt-Zyklus den Temperaturgang der letzten 1.200 Jahre bestimmt, sowie (Abbildung 45) der kleine Landscheidt-Zyklus im Temperaturgang der letzten 30 Jahre deutlich abgebildet ist. Darüber hinaus zeigt Abbildung 38, die hier nochmals gezeigt wird, wie der Brückner/Landscheidt-Zyklus wichtige Klimaparameter, wie AMO und PDO regelt.

 

Abbildung 38 links, Quelle: Dr. Landsea, zeigt die AMO-Schwingung, mit einer positiven und negativen Phase von im Mittel 33,5 Jahren. Abbildung rechts (NOAA) zeigt die PDO mit der negativen Phase von 33 Jahren.

Viel war in den letzten Jahren über einen dramatischen Gletscherrückgang zu hören, der auf die CO2-Ausbringung zurückzuführen wäre. Nun, die folgende Abbildung zeigt, was es damit auf sich hat und was den Gletscherrückgang tatsächlich bestimmt. Dass derzeit die Alpengletscher stark auf dem Rückzug sind, was für die Kurzzeitbetrachtung auch stimmt, ist auf die AMO und damit auf die Sonne zurückzuführen. Die folgende Abbildung gibt einen Überblick über die Entwicklung der österreichischen Alpengletscher seit 1890, Quelle: Slupetzky, 2005, Uni Salzburg.

  

Abbildung 133 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002. Gut ist erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen vorlagen, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

Abbildung 133 wurde durch Untersuchungen der ETH Zürich in 2010 bestätigt “

In ihrer Studie geben die Forscher der Sonneneinstrahlung den maßgeblichen Anteil am Gletscherrückgang. Dabei dienten ihnen die seit 1934 vorliegenden Messungen der Sonneneinstrahlung in Davos. Während die ETH-Wissenschaftler die verstärkte Sonneneinstrahlung auf die alpinen Gletscher und auf die geringere Aerosolkonzentration der Atmosphäre zurückführen (Aerosole reflektieren direkt das Sonnenlicht, bzw. dienen über chemische Reaktionen als Kondensationskeime für Wassertropfen und beeinflussen somit maßgeblich die Wolkenbildung), sind direkte solare Aktivitätssteigerungen und damit verbundener geänderter Wetterlagen und höherer Temperaturen ebenso ausschlaggebend für die Periode der Gletscherrückgänge, wie Abbildung 133 zeigt.

Die ETH-Forscher ermittelten eine um 18 W/m2 höhere solare Einstrahlung als in den vergangenen 10 Jahren bis heute, was, angesichts dem Strahlungsantrieb von 1,5 W/m2, welcher das IPCC dem CO2 in seinen Klimamodellen zubilligt, ganz enorm ist. Die erhöhte Sonneneinstrahlung in den 1940-Jahren deckt sich weiter mit den Messungen der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“. Die folgenden beiden Abbildungen zeigen die solare Aktivität im Vergleichzeitraum, sowie die Durchlässigkeit der Atmosphäre.

Abbildung 134 links, Quelle: British Geological Survey, zeigt die magnetische- und Fleckenaktivität der Sonne im Zeitraum von 1867 – 2007. Im Zeitraum von 1930 – 1960 (grün) ist ein deutlicher Anstieg in der magnetischen, als auch in der Fleckenaktivität der Sonne erkennbar (die Aktivitätssteigerung hält bis zum Jahr 2003 an – dort hatte der Hauptsonnenzyklus*), der im Mittel 208-jährige de Vries-Suess-Zyklus sein Maximum), was mit dem Zeitraum der positiven AMO und des mit ihr in Verbindung stehenden Gletscherrückgangs (Abbildung 133) übereinstimmt. Die Abbildung rechts zeigt den SO2-Aerosolgehalt in der Atmosphäre im Zeitraum von 1880 bis 2000, Quelle: David Ian Stern, Australian National University, Centre for Resource and Environmental Studies.

Für die atmosphärische Aerosolentwicklung ist der atmosphärische Schwefeldioxid-, bzw. Sulfat-Gehalt (bildet sich über Wasser und SO2) wesentlich. Der unter dem Begriff “Global Cooling“ bekannte Temperaturrückgang durch zusätzliche Partikel in der Atmosphäre basiert auf SO2 und Rußpartikel. Den Einfluss von SO2 auf die globalen Temperaturen zeigen beispielsweise die Auswirkungen des Vulkanausbruchs Pinatubo in 1991, durch den große Mengen SO2 in die Atmosphäre gelangten, wodurch die global gemittelten Temperaturen für 2 Jahre um ca. 0,6°C zurückgingen.

Hohe solare Aktivität, verbunden mit geringer Aerosolbildung (klare Luft) sind demnach die Ursachen für den starken Gletscherrückgang in den 1940-Jahren. Da die Gletscher im Zeitraum davor wuchsen und die Luft seinerzeit damit noch klarer war (!), bleibt für den Gletscherrückgang in den 1940-Jahren einzig die starke solare Aktivität übrig, wie dies bis zu den letzten Jahren ebenfalls vorlag.

*) Periodizäten werden anhand der Fourier-Analyse der Sonnenfleckenzahl (Wolf-Zahl) bestimmt.

 

Abbildung 135: Anhand der Fourier-Analyse, Quelle: Orgutschov et al., werden in der Sonnenfleckenzahl verschieden Perioden sichtbar. Die dominanteste ist die 205-Jahres-Periode, was dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus entspricht. Darüber hinaus eine 85-Jahres-Periode, der Gleißberg-Zyklus, eine 60-Jahres-Periode (Landscheidt-Zyklus).

Das gleiche Bild der Korrelation auch für die schweizerischen Gletscher.

 

Abbildung 136 der schweizerischen Gletscherentwicklung im Zeitraum von 1890 – 2008 zeigt ebenfalls keinerlei Zusammenhang mit dem Anstieg eines atmosphärischen CO2-Pegels, dagegen aber einen nicht zu übersehenden Zusammenhang zur AMO. Während der AMO-Warmphasen kommt es zu einem deutlichen Gletscherrückgang und während der AMO-Kaltphase zu einem entsprechenden Gletschervorstoß, wobei der heutige Gletscherschwund nichts Außergewöhnliches darstellt und ebenfalls zyklisch ist.

So wundert es denn auch nicht (AMO und PDO geben die Schwankungen der Meeresoberflächentemperatur an und das Hauptkriterium für Veränderungen des Meeresspiegels auf kleinen Zeitskalen ist die thermische Ausdehnung des Wassers), dass die Meeresspiegelschwankungen ebenfalls auf die variable Sonnenaktivität zurückgehen und mit einem atmosphärischen CO2-Pegel rein gar nichts zu tun haben,

 

Abbildung Abbildung 137 zeigt, dass die Meeresspiegelschwankungen gut mit den Schwankungen im Schwabe-Zyklus der Sonne korrelieren (Quelle: http://wattsupwiththat.com/2009/04/07/archibald-on-sea-level-rise-and-solar-cycles/). Dr. Simon Holgate (National Oceanography Centre – von ihm stammt die Untersuchung) gibt an, dass 70% der ermittelten Meresspiegelschwankungen auf thermische Ursachen und nur 30% auf Schmelzvorgängen beruhen.

Nicht nur die alpine Gletscherentwicklung und damit Eisbedeckung wird unmittelbar von der Sonne gesteuert, sondern auch die arktische Eisbedeckung, wie die folgende Abbildung zeigt.

 

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 138, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

Der Hauptfaktor für das Wetter in Europa und für die dortigen Klimaschwankungen ist die Nord-Atlantik-Oszillation (NAO). Sie ist ein regionaler Teil der ringförmigen Arktik Oszillation (AO, siehe folgende Abbildung) und beschreibt den Druckunterschied zwischen dem Islandtief und dem Azorenhoch. Wie der Name sagt, ist dieser Druckunterschied nicht konstant, sondern Schwankungen unterworfen, die einen oszillatorischen Charakter haben.

 

Abbildungen 139 zeigt die positive (links) und negative (rechts) Phase der Arktischen Oszillation: Milde Winter in Europa, feucht im Norden und trocken im Süden, sowie Kälte in Ostkanada sind Ausdruck der von starker zirkumpolarer Luftmassenzirkulation geprägten positiven AO-Phase. Hingegen bringt die negative Phase Kaltluft nach Europa und weit nach Nordamerika, sowie Feuchtigkeit in den Mittelmeerraum. Die AO gibt die gemittelte Druckanomalie auf dem 1.000hPa-Niveau nördlich des 20. Breitengrads an.

 

Abbildung 140 zeigt den Verlauf der AO im Zeitraum 1951 – 2003, Quelle: ACIA.

Die NAO bestimmt den Verlauf der Zugbahnen atlantischer Sturmsysteme und der daraus resultierenden Beeinflussung von Niederschlags- und Temperaturmuster im Nordatlantik. Sie wird auch in Zusammenhang gebracht mit der arktischen Meereisausbreitung, dem Eisvolumen in der “Davis Strait“ und den Eisbergflussraten vor der Küste Labradors. Sie ist maßgeblich für unser Wettergeschehen und wird an dieser Stelle näher betrachtet.

Allgemein gilt, dass der NAO-Index die Differenz der Druckanomalie auf den Azoren minus der auf Island ist, d.h. ist der NAOI stark positiv, hat man ein ausgeprägtes Azorenhoch bzw. Islandtief, was mit einem starken westwärts gerichteten Grundstrom und dafür typischen wandernden Zyklonenfamilien im nord-west-atlantischen und west-europäischen Raum verbunden ist. Im Gegensatz dazu, wenn der NAOI niedrig oder negativ ist, dann ist der Grundstrom schwach, was oft mit meridionalen, blockierten Wetterlagen einher geht. Hieraus wird deutlich, dass der NAO eine besondere Bedeutung für das europäische Wettergeschehen, vor allem im Winter zukommt, da dann aufgrund des verstärkten meridionalen Temperaturgradienten zwischen Äquator und Pol die allgemeine atmosphärische Zirkulation in den gemäßigten Breiten verstärkt ist. Folgend sind die Auswirkungen einer positiven und negativen NAO auf die Atmosphäre und die Ozeane kurz zusammen gefasst. Positiver Index bedeutet meist nasses und warmes Wetter, negativer Index trocken und kaltes Wetter.

 

Auswirkungen der positiven NAO

Atmosphäre

·       In Grönland bestimmt die Polarluft das Wetter, somit ist es besonders kalt und trocken.

  

·         Der Jetstream (PFJ), ein Windsystem (Abbildung 141, zeigt nur die nördlichen Jetstream, es gibt gleichermaßen auch die südlichen Jetstream – sie werden durch große horizontale Temperaturunterschiede und die Corioliskraft verursacht), das in der oberen Tropos- und unteren Stratosphäre bei etwa 30° bis 70° nördlicher Breite um den Globus bläst und dabei Windgeschwindigkeiten von über 400 km/h erreicht, wird von dem Islandtief so beeinflusst, dass die über dem Atlantik gebildeten Tiefdruckgebiete mit ihren starken Stürmen direkt Nordeuropa erreichen. Starke Niederschläge und milde Temperaturen in unseren Breiten sind die Folge.

·         Währenddessen erreichen kalte Ausläufer des Russland-Hochs häufig den Mittelmeerraum. Dem entsprechend wird es dort kälter und trockener als gewöhnlich.

·         Über Nordafrika verstärken sich die Passatwinde.

Ozeane

·         Der Eisexport aus der Arktis scheint durch das kalte Wetter in Grönland größer als normal zu werden.

·         Die Oberflächentemperatur zeigt eine dreiteilige Struktur: Durch die kalten Winterstürme wird die Labradorsee besonders kalt. Die Region des Golfstroms dagegen erwärmt sich, wenn der Golfstrom und sein Ausläufer, der Nordatlantische Strom mehr warmes Wasser nordwärts transportiert.

Auswirkungen der negativen NAO

Atmosphäre

·         In Grönland wird es relativ warm, denn das schwache Tief kommt nicht gegen die warmen Luftströmungen vom amerikanischen Festland an.

·         Durch einen schwächeren Luftdruckgegensatz sind die Westwinde über dem Atlantik schwächer. Sie erreichen kaum Nordeuropa, sondern eher den Mittelmeerraum.

·         Dort sorgt die Luftströmung vom Atlantik für verstärkte Niederschläge.

·         Das Hoch über Russland kann nun seine volle Kraft entfalten und schickt Nordeuropa sibirische Temperaturen und trockenes Wetter.

Ozeane

·         Die Eismassen in der Arktis scheinen sich zurückzuziehen, genauso wie die Gletscher auf Grönland. Dies geschieht aber deutlich langsamer als die NAO schwankt.

·         Die dreiteilige Struktur im Nordatlantik hat sich umgedreht: Die wärmere Festlandsluft in der Labradorsee sorgt dafür, dass diese Gegend wärmer wird. Vor der Ostküste der USA bleibt es eher kühl, weil der jetzt schwächere Golfstrom weniger warmes Wasser nach Norden transportiert.

·         Die Passatwinde entlang des Äquators sind schwächer, so dass die Abkühlung dort geringer wird.

Wie aus Abbildung 142 ersichtlich, ist kein Zusammenhang des NAOI mit einer Erhöhung der CO2-Konzentration zu erkennen. Dagegen gibt es eine signifikante Korrelation zwischen NAO-Index (positiver, negativer NAO) und Sonnenaktivität. Quelle: ”Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003, European Geophysical Society.

 

Abbildung 142: Wintermittel der NAOI nach Hurrell (durchgezogen) 1865 – 1999 und nach Jones (gepunktet) 1865 – 1998 (Ordinatenwerte: Differenz des normalisierten, auf Meeresniveau reduzierten Luftdrucks in [hPa]). Quelle: W. Hurell and H. van Loon. “Decadal variations in climate associated with the North Atlantic oscillation.” Climate Change, 36:301-326, 1997.

Die folgenden Abbildungen zeigen den NOA-Winterindex nach Hurrel. Sowohl in der linken und noch mehr in der rechten Abbildung ist deutlich der Schwabe-Zyklus der Sonne abgebildet. Die Schwankungen der NAO sind in Übereinstimmung mit den Sonnenzyklen.

 

Abbildung 143 links zeigt den NAO-Winterindex von 1865 – 2000 (Quelle: Deutscher Wetterdienst). Deutlich ist in der Wellenform ein 10-Jahres-Zyklus abgebildet, der zeitlich mit dem Schwabe-Zyklus korreliert. Hohe Indexwerte sind mit einer intensiven nordatlantischen Westdrift und damit milderen Temperaturen verbunden. Rechts ist der NAO-Winterindex von 1982 – 1998 abgebildet (ergänzt nach Quelle: American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000). Die kleine Abbildung ist hineinkopiert und zeigt den Schwabe-Zyklus der Sonne im selben Zeitraum. Er stimmt exakt mit dem NAO-Winterindex überein.

Die dargelegten Zeitreihen belegen nachhaltig, dass die NAO und somit unser Wetter nicht von einem CO2-Gehalt in der Atmosphäre beeinflusst werden, da kein Zusammenhang feststellbar ist, sondern von der Sonne.

 

Abbildung 144 zeigt oben die NAO im Zeitraum von 1973 bis 2002. Darunter das elektrische Feld (E) des Sonnenwinds. Als dritten Graph den planetary magnetospheric Kp-Index und den dynamischen Druck (P) des Sonnenwindes, Quelle: Lund-University, Schweden (http://sunspot.lund.irf.se/nao1.html). Der Kp-Index ist eine Maßgröße für die geomagnetische Sonnenaktivität, die aus den Daten von 13 weltweiten Observatorien bestimmt wird. Der Kp-Index geht zurück auf Prof. Julius Bartels, der ihn 1949 entwickelte.

Es ist ein deutlicher Zusammenhang zwischen dem NAO-Verlauf und den verschiedenen Sonnenaktivitätsparametern festzustellen. Dies zeigen auch die beiden folgenden Abbildungen. Die erste Abbildung stammt aus der Arbeit “Solar Wind Variations Related to Fluctuations of the North Atlantic Oscillation“ von Fredrik Boberg (Lund Observatorium, Schweden), Henrik Lundstedt (Swedish Institute of Space Physics) und die andere von der University of Colorado.

 

Die linke Abbildung 145 zeigt oben die Gruppe der Sonnenflecken (RG) für 33 Sonnenzyklen, vom Zyklus -12 bis Zyklus 20 und darunter die Stärke der positiven NAO, Quelle: (http://sunspot.lund.irf.se/NAO_article1.pdf). Die rechte Abbildung zeigt die Temperatur in den USA von 1885 – 2000 und dazu die positiven und negativen Phasen der PDO und NAO im Vergleich zur Sonnenzykluslänge (rote und blaue Balken), Quelle: (http://wxpaos09.colorado.edu/atoc1060/overheads/fig4.gif).

So ist mit dem Einfluss der Sonnenaktivität auf die NAO, die Sonne für die Änderungen in den Luftströmungen verantwortlich und damit für unser Wetter/Klima ursächlich. CO2 spielt erkennbar keine Rolle. Auch keine kleine – gar keine!

In der Abbildung 145 rechts ist der Zusammenhang zwischen Zykluslänge des Schwabe-Zyklus und der PDO und AMO dargestellt. Aus der Zykluslänge lässt sich die Sonnenaktivitätsstärke ableiten und sie ist somit ein direktes Maß für die solare Aktivität. Abbildung 146 verdeutlicht dies.

 

Abbildung 146: Das Bild zeigt die Länge der Sonnenzyklen und die Sonnenfleckenanzahl (SSN: Solar Sonspot Number). Der 23. Schwabe-Zyklus ist mit 14 Jahren Länge, einer der längsten seit Aufzeichnungsbeginn. Je kürzer der Zyklus, umso höher die Fleckenzahl, was nach der Dynamotheorie physikalisch zwangsläufig ist, da Ladungen schneller bewegt werden!

Wie bereits gezeigt, bestimmt die Sonne nicht nur das Wetter/Klima alleinig auf der Nordhalbkugel, sondern natürlich auch auf der Südhalbkugel und den Tropen, was am Beispiel ihres Einflusses (CO2 spielt auch hier keine Rolle, wie die Abbildungen zeigen) auf die QBO gezeigt wird.

Mit der QBO wird die periodische Umkehrung der äquatorialen Winde in der unteren Stratosphäre (quasi-zweijährige Schwingung des tropischen Windes) beschrieben. Sie dominiert die untere tropische Stratosphäre das ganze Jahr und beeinflusst auch die Winterhemisphäre der hohen Breiten deutlich. Perioden mit Ost- respektive Westwind in einer Höhe von 15 – 30 km wechseln sich etwa alle 26 Monate ab. Dabei geht die Windänderung von den oberen Schichten aus und pflanzt sich nach unten fort. Die QBO verläuft zonal über dem Äquator und erstreckt sich auf Breiten von weniger als 15°. Der unten aufgezeichnete QBO-Index entspricht dem monatlich gemittelten zonalen Wind über dem Äquator auf einer Höhe von 30hPa (standardisiert). Der Prozess der QBO ist heute noch relativ unerforscht. Als Ausbreitungs-mechanismus werden Wellen angenommen. Dagegen sind die Auswirkungen der QBO, beispielsweise auf die Verteilung des stratosphärischen Ozons relativ gut bekannt.

Während Westphasen der QBO, in denen die Temperatur der arktischen Stratosphäre mit der solaren Strahlung positiv korreliert, treten Stratosphärenerwärmungen nur zu Zeiten solarer Maxima auf. Hingegen treten während der Ostphase – die obige Korrelation ist jetzt negativ – markante Stratosphärenerwärmungen beinahe nur zu Zeiten solarer Minima auf. Quelle: Gruppe für Klimatologie und Meteorologie der Universität Bern. Die folgende Tabelle gibt den Zusammenhang wieder (Quelle: Prof. Karin Labitzke).

 

Abbildung 147: Die Tabelle zeigt den Einfluss der QBO und des Schwabe-Zyklus auf die Winterzirkulation der Stratosphäre. Darunter die QBO im Zeitraum von 1987 – 2005. (Quelle: Hamburger Bildungsserver) Deutlich ist ihre zweijährige Schwingung zu sehen. Jeweils vor einem solaren Maximum (1991 und 2001) ist ihre Phase länger ausgeprägt (Pfeile). Auch bei der QBO ist kein Einfluss vom atmosphärischen CO2-Pegel zu erkennen.

Der Einfluss, der durch die Sonnenaktivität modulierten Stratosphäre reicht über vertikale Zirkulation bis in die Troposphäre und bestimmt dort unser Wetter. So konnten Labitzke und Loon zeigen, dass sich die Hadley-Zirkulation in Abhängigkeit der QBO während des Sonnenfleckenmaximums verstärkt. Aktuelle Untersuchungen zeigen ebenso einen Einfluss auf die Walker-Zirkulation und damit auf die ENSO (El Niño Southern Oscillation). Wie bereits gezeigt, werden ebenso die AO und die NAO durch die Sonnenaktivität moduliert. Darüber hinaus wird bei schwächer strahlender Sonne die Stratosphäre durch UV-Anteile, die weit stärker variieren, als der sichtbare Anteil, nicht so stark erwärmt und wendiger Ozon von den Tropen polwärts transportiert (Brewer-Dobsen-Zirkulation). Der daraus resultierende geringere Temperaturunterschied zwischen Pol und Tropen erzeugt einen schwächeren Polarwirbel mit dem dazugehörigen Stratosphärenjet, wodurch sich der Polarjet abschwächt und dieser mehr mäandriert, wodurch es zu einer größeren Neigung von Kaltvorstößen kommt.

Nicht nur in unseren Zeiten, auch in der Vergangenheit hat die Sonne und nur sie allein, das Wetter- und Klimageschehen bestimmt, wie am Beispiel des 8,2k-Ereignisses gezeigt wird. Üblicherweise dient das 8,2k-Ereignis als Beleg dafür, wie sehr die Meeresströmungen, wie z.B. der Golfstrom, labil sind und durch Änderungen in der Wasserzusammensetzung, z.B. durch Süßwasser, verursacht durch Gletscherschmelze, beeinflusst werden und somit eine Gletscherschmelze eine Gefahr für Europa darstellt, da hierdurch der Golfstrom zum erliegen käme. Dies alles sind nichts weiter als Horrorgeschichten, jenseits der Realität. Im Hollywood-Streifen „The Day After Tomorrow“ wurde dieses Schreckgespenst gewinnbringend vermarktet. Diverse Institute, wie das PIK, nehmen gerne solche Streifen, um die Richtigkeit ihrer Modelle zu unterstreichen. Dass es mit beiden nicht viel auf sich hat, zeigt die Beleuchtung des 8,2-k-Ereignisses und den tatsächlichen Hintergründen, die es auslösten und Europa für ca. 200 Jahre eine Kälteperiode brachten. Eine Änderung des Golfstroms ist nicht ursächlich!!

 

8,2k-Ereignis

 

Abblildung 148 (Quelle: Klett) zeigt das thermophaline Förderband mir seinen kalten Tiefen- und warmen Oberflächenströmungen. Unterschiede in der Wassertemperatur und im Salzgehalt sollen die Ursache für das thermophaline Förderband sein. Kaltes Wasser, sowie salzhaltiges Wasser ist schwerer und sinkt nach unten, was die Strömung anwerfen soll. Bei Erwärmung sind die Unterschiede geringer und das Förderband entsprechend schwächer.

Anmerkung: Bereits in 2010 stellten die Untersuchungen von Susan Lozier, Professor für physische Ozeanographie an der Duke Universität dieses Modell in Frage (scinexx, “Ozeane: Hat das „Förderband“ ausgedient?“). Susan Loizer: “Das alte Modell ist für die Umwälzung des Ozeans nicht länger gültig – nicht weil es eine grobe Vereinfachung ist, sondern weil es entscheidende Elemente wie Wirbel und Windfelder völlig ignoriert. Das Konzept eines Förderbands für die Umwälzung ist vor Jahrzehnten entwickelt worden, bevor Meeresforscher die Wirbelfelder des Ozeans gemessen haben und bevor die verstanden hatten, wie die Energie des Windes die Umwälzung beeinflusst.“ Zurück zum 8,2k-Ereignis.

 

Abbildung 149, Quelle: (http://www.eos.ubc.ca/research/glaciology/research/LakeAgassiz.html) zeigt den Agassizsee im norden Kanadas, der sich aus dem abtauenden Eisschild der letzten Eiszeit bildete. Der Winnipegsee, Manitobasee und der Lake of the Woods sind die heutigen Übereste des Agassizsees.

Nach der Theorie verdünnten die gewaltigen Süsswassermengen der Agassizsee, welches nach einem Dammbruch in die Hudson Buy floss, das ozeanische Salzwasser und brachten damit das Förderband zum Erliegen, was sich in einem deutlichen Temperaturrückgang bemerkbar machte. Dieser Temperaturrückgang ist in den Daten der Eisbohrkerne deutlich zu sehen (folgende Abbildung).

 

Abbildung 150, Quelle: (http://mclean.ch/climate/Ice_cores.htm) zeigt den Temperaturgang in Grönland anhand von GISP-Eisbohrkerndaten. Vor 8.400 Jahren ist ein deutlicher Temperaturrückgang zu verzeichnen, der um 8.200 seinen Tiefpunkt erreichte und etwa 200 Jahre anhält. Der Temperaturrückgang wird allgemein dem plötzlichen Auslaufen der Agassizsee in die Hudson Buy zugeschrieben.

Das Problem dabei ist, dass der Agassizsee bereits mehrmals davor und in viel heftigeren Flutwellen auslief, die alle keinen Fingerabdruck in der Temperaturreihe hinterließen. Das Manitoba Geological Survey hat eine Auflistung für mehrere Überläufe der Agissisee im Zeitraum von 11.700 BP und 7.600 BP aufgestellt (Auszug):

  

Abbildung 151 links zeigt die Situation der Agassizsee vor 10.400 Jahren und rechts, nach dem Überlauf, 500 Jahre Später, vor 9.900 Jahren. Weis: Wisconsin Eisschild, blau: Agassizsee, Quelle: Manitoba Geological Survey. Nach dem Abfluss zeigt sich der See vor 9.900 Jahren deutlich kleiner. Zu einem Dammbruch kam es jeweils, wenn die eisigen „Staudämme“ dem Wasserdruck nicht mehr Stand halten konnten.

 

Abbildung 152 links zeigt die Situation der Agassizsee vor 8.200 Jahren. Rechts, nach dem Überlauf, 200 Jahre später, vor 8.000 Jahren. Weis: Wisconsin Eisschild, blau: Agassizsee, Quelle: Manitoba Geological Survey.

Die Abbildung zeigt, dass der Abfluss vergleichweise gering war, obwohl dieses Ereignis für den deutlichen Temperaturrückgang vor 8.200 Jahren verantwortlich sein soll und die Ereignisse davor, die teils viel heftiger waren, keinerlei Spuren in der Temperaturkurve hinterließen. Dies zeigt auch die folgende Arbeit.

 

Abbildung 153, Quelle: (http://www.geostrategis.com/p_agassiz.htm) zeigt die Pegelveränderung der Agassizsee im Zeitraum von 11.700 – 7.600 BP nach Thorleifson 1996 und Teller 2001. Dazu den Abfluss der Wassermassen. Gut erkennbar, dass die vorherigen Ereignisse, insbesondere vor ca. 11.000 Jahren, deutlich stärker waren, als das 8.2k-Ereignis.

In der folgenden GISP-Temperaturreihe, die 20.000 Jahre zurückreicht, hinterlässt keines dieser schwerwiegenderen Ereignisse irgendeine Spur in der Temperaturen.

 

Abbildung 154, Quelle: (http://mclean.ch/climate/Ice_cores.htm), zeigt den Temperaturgang in Grönland (GISP) im Zeitraum vor 20.000 – 5.000 Jahre. Während sich das 8,2k-Ereignis deutlich abzeichnet, hat kein Überlaufen der Agassizsee davor, die deutlich heftiger ausfielen, irgendeinen erkennbaren Einfluss auf die Temperatur.

Die bisherigen Betrachtungen legen den Schluss nahe, dass mit der These des 8,2k-Ereignisses und dem postulierten Zusammenhang (sein Einwirken) mit dem Golfstrom falsch sind. Dies umso mehr, als dass die vorherigen, größeren Wassermassen, nicht fernab des Golfstroms, in die Hudson Buy einflossen, sondern direkt in den Atlantik oder gar in den Golf von Mexiko und damit dem Golfstrom sozusagen direkt in die Flanke fielen.

  

Abbildung 155, Quelle: (http://www.webpages.ttu.edu/dleverin/quaternary_envs/quaternary_environments.html) nach Leverington und Teller, 2003, zeigt das maximale Überflutungsgebiet des Agassizsees. Die roten Pfeile kennzeichnen jeweils sein abfließen. HB=Hudson Buy, KIN= Angliers and Kinojévis, S=Southern (Golf von Mexiko), K=Kaministikwia Rute, E=Eastern und NW=Northwestern-Abfluss.

Das 8,2k-Ereignis, welches dem Agassizsee zugeschrieben wird und den Golfstrom geändert haben soll und demnach in Mitteleuropa wirksam war, lässt sich auch in andere Gebieten der Erde, die nichts mit dem Golfstrom zu tun haben, nachweisen (folgende Abbildung).

 

Abbildung 156, Quelle: (http://climateaudit.org/2007/09/30/dongge-cave/) zeigt die Temperaturentwicklung nach Yang et al. im Oman während des Holozäns. Deutlich ist vor 8.200 Jahren (rote Linie) ein Temperatursturz zu sehen. Vor ca. 9.100 Jahren lag ein noch heftiger Temperatursturz vor (blaue Linie). Zu diesem Zeitpunkt gab es keinen Überlauf der Agassizsee.

Anhand der bisherigen Analysen muss der Schluss gezogen werden, dass die These zur Erklärung des 8,2k-Ereignisses falsch ist. Aber was hat dann dieses Ereignis und darüber hinaus, den Temperatursturz vor 9.100 Jahren ausgelöst? Die Antwort findet sich in der Sonnenaktivitätskurve von Prof. Solanki, MPS.

 

Abbildung 157 zeigt die Sonnenaktivitätskurve nach Untersuchungen von Prof. Solanki, MPS. Sowohl vor 8.200 Jahren, als auch vor 9.200 Jahren war ein starker und lang anhaltender Rückgang in der solaren Aktivität (gestrichelte Linien), der sowohl das 8,2k-Ereignis, wie auch den Temperaturrückgang vor 9.100 Jahren erklärt. Ebenso die Temperaturrückgänge vor 7.000 Jahren, 6.400 Jahren, 5.500 Jahren, u.s.w. Sie stimmt somit mit nicht nur einem, dem 8,2k-Ereignis überein, sondern mit allen Temperaturentwicklungen im Holozän. Bezeichnend übrigens, dass die solare Aktivität vor dem Überlauf der Agassizsee, der vor 8.450 Jahren stattfand, ausgesprochen hoch war, wodurch viel Schmelzwasser den Agassizsee füllen konnte.

Es war keine Verdünnung des Golfstroms mit Süßwasser, der seinen Verlauf deswegen geändert haben soll. Es war die dynamische Sonne, die den plötzlichen Temperaturrückgang vor 8.200 Jahren hervor rief. Genauso wie die Dansgaard-Öschgar-Ereignisse, die ebenfalls starke, kurzfristige Temperaturschwankungen darstellen, auf die variable Sonne zurückzuführen sind, ist das 8,2k-Ereignis nicht auf den Agassizsee, sondern auf die Sonne zurück zuführen. Wie aber setzt die Sonne ihren Einfluss im irdischen Wetter-und Klimageschehen um? Eine Antwort findet sich im Polarfrontjet (PJF), der für das Wetter in den mittleren und hohen Breiten maßgeblich ist.

Der PFJ sollte demnach in einer Erwärmungsphase schwächer werden. Lässt die Sonnenaktivität wiederdeutlich nach, wie z.B. nach jedem Hauptsonnenzyklus, oder vor dem 8,2k-Ereignis, so ist zunächst einmal der PFJ schwach, da der Temperaturgradient nach wie vor (Wassermassen) gering ist. Einfallende Kaltluftmassen durch den stark mäandrierenden PFJ können nun nicht mehr schnell genug erwärmt werden, was zu einer deutlichen und schnellen Abkühlung führen sollte. Dies würde z.B. erklären, warum nach jedem Hauptsonnenzyklus binnen weniger Jahre die Temperaturen stark fallen und die Temperaturschwankungen vergleichsweise hoch sind. Der Rückgang der Temperaturen hat demnach nichts mit einer Veränderung des Golfstroms, wohl aber mit einer Veränderung des PFJ und der Luftströmungen zu tun, da die Sonnenaktivität seinerzeit vergleichweise hoch war und der PFJ entsprechend schwach war. Dies passt dann auch zu den regionalen Temperaturen bei uns, wie in der folgenden Abbildung zu sehen. Die geänderten Luftströmungen, durch den PFJ führten zu einer schnellen und deutlichen Abkühlung, wie sie durch träge Wassermassen oder Fließsysteme wie den Golfstrom nur schwerlich herbeigeführt werden können.

  

Abbildung 158 zeigt den Temperaturgang in Bayern während des Holozäns, anhand von Sedimentuntersuchungen am Ammersee. Vor 8.200 Jahren war Süddeutschland von einem Kälteeinbruch betroffen. Dieser Kälteeinbruch geht nach Ansicht des Autors nicht auf Änderungen am Golfstrom, sondern auf die variable Sonne und mit ihr auf Änderungen in den Luftströmungen zurück.

 

Raimund Leistenschneider – EIKE

 

Teil 7 in Kürze

Übersicht über alle Teile:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4a – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 4b – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen




Eine traurige und verdrehte Geschichte: Von wirklichen Problemen in der wirklichen Welt wird die Aufmerksamkeit abgelenkt

Wieder und immer wieder habe ich versucht zu zeigen (Mörner 2007, 2010, 2011), dass der Meeresspiegel um Tuvalu in keiner Weise im Anstieg begriffen ist, und zwar abgeleitet aus der einzigen verfügbaren Beobachtungsmöglichkeit, den Aufzeichnungen der Tide. Das wurde auch von Anderen untersucht, vor allem Gray (2010). Dies zeigen die Abbildungen 1 und 2, in denen kein Anzeichen eines Anstiegs des Meeresspiegels erkennbar ist.



Abbildung 1: Die Gesamtaufzeichnung der Tidenhöhe seit 1978 in Tuvalu (aus Mörner 2010). Seit 1985 gibt es keinerlei Anzeichen für irgendeine Art von Meeresspiegelanstieg. Drei markante ENSO-Ereignisse mit jeweils signifikantem Rückgang der Höhe des Meeresspiegels zeigen sich 1983, 1992 und 1998.


Abbildung 2: Die SEAFRAME-Tidenmessung in Tuvalu ohne jedes Zeichen eines Anstiegs (nach Gray 2010).

Also, wenn die Fakten eindeutig sagen: kein Anstieg des Meeresspiegels, warum treiben dann manche Individuen die Illusion eines Meeresspiegelanstiegs immer weiter? Das wird auch nicht besser (eher im Gegenteil), falls man Generalsekretär der UN oder des Pazifik-Forums ist. Es ist einfach falsch! Aber was noch schlimmer ist: es lenkt die Aufmerksamkeit von den realen Problemen in der realen Welt ab!

Das gilt auch für Kiribati. Die Insel liegt in einem Gebiet des südwestlichen Pazifik, in dem Satellitenmessungen einen Anstieg um 5 mm/Jahr nahelegen. Gray (2010) hat gezeigt, dass dies wirklich nicht mit der jüngsten SEAFRAME-Aufzeichnung in Kiribati konkurriert (Abbildung 3). Die Aufzeichnung umfasst 17 Jahre. Auch hier kein irgendwie gearteter langzeitlicher Anstieg; lediglich Stabilität.

Abbildung 3 (vergrößert): Die SEAFRAME-Aufzeichnung von Kiribati (nach Gray 2010) zeigt keinen irgendwie gearteten langzeitlichen Anstieg, sondern lediglich Stabilität während der letzten 17 Jahre.

Vanuatu ist eine andere berühmte Stelle in der Debatte um den Meeresspiegel. Hier fehlt ebenfalls jeder Hinweis auf einen Anstieg während der letzten 17 oder 18 Jahre (Mörner 2007, 2011; Gray 2010). Die Liste kann erweitert (um den Indischen Ozean mit Orten wie den Malediven und Bangladesh) und wieder erweitert werden (auf Stellen auf der ganzen Welt, nicht zuletzt Nordwesteuropa, wo dieser Sachverhalt überall getestet werden kann, ebenso wie in Venedig).

Offensichtlich gibt es einen fundamentalen Gegensatz zwischen den auf Computersimulationen basierenden Szenarien und der Wirklichkeit in Form von beobachteten Fakten und Beobachtungen in der Natur selbst. Folglich sprechen alle logischen Gründe dafür, sich von der Propagandainformation abzuwenden und alle Aufmerksamkeit sowie jedes Interesse auf die beobachteten Fakten zu richten. In diesem Falle geben die Fakten eine sehr klare und unwiderlegbare Botschaft: es gibt keinen alarmierenden Anstieg des Meeresspiegels, weder in Tuvalu noch in Kiribati.

Ban Ki Moon und sein Freund vom Pazifik-Forum sollten sich beide schämen wegen ihrer Behauptungen und Feststellungen bzgl. Tuvalu und Kiribati!

Nils-Axel Mörner, Paleogeophysics & Geodynamics, Stockholm, Sweden, morner@pog.nu

References

Gray, V., 2010. The South Pacific Sea Level: A reassessment. SPPI Original Paper, p. 1-24.

Morner, N.-A., 2007. The Greatest Lie Ever Told. 1st Edition, 2007, P&G print, Stockholm.Also: What Sea Level Rise? 21st Century Science & Technology, Fall 2007, Front, p. 25-29, 30-34.

Morner, N.-A., 2010. Some problems in the reconstruction of mean sea level and its changes with time. Quaternary International, 221, 3-8, doi.org/10.1016/j.quaint.2009.10.044

Morner, N.-A., 2011. The great sea level humbug. There is no alarming sea level rise. 21st Century Science & Technology, Winter 2010/11 issue, p. 7-17.

See also this sea level piece in SPPI and Master Resource by Chip Knappenberger.

Link: http://icecap.us/index.php/go/political-climate vom 7. September 2011

Übersetzt von Chris Frey für EIKE

Kommentar des Übersetzers: Man könnte sogar noch einen Schritt weitergehen! Entweder diese Herrschaften wissen es nicht besser, dann gehören sie sofort abgesetzt, wegen Dummheit. Oder sie wissen es doch besser, sagen es aber nicht. Dann gehören sie ebenfalls abgesetzt wegen Volksverdummung (um nicht zu sagen Volksverhetzung).

Dies gilt natürlich auch für unsere werten Politiker hier in Deutschland!

C. F.

Related Files




Der Große Schwindel mit dem Meeresspiegel – Es gibt keinen alarmierenden Anstieg des Meeresspiegels!

In diesem Papier möchte ich die vom IPCC und Anderen propagierten Raten des Meeresspiegelanstiegs untersuchen. Abbildung 1 zeigt die Unterschiede zwischen den Modellrechnungen des IPCC und den beobachteten Fakten. Nach 1965 beginnen die beiden Kurven, signifikant auseinander zu laufen (markiert mit einem Fragezeichen). Diese Studie wird die Unterschiede beleuchten und eine Lösung anbieten, welchen Daten man trauen kann und welche zu verwerfen sind.

Abbildung 2 zeigt das Spektrum der gegenwärtigen Abschätzungen zur Änderung des Meeresspiegels. Die Raten reichen von 0,0 bis 3,2 mm pro Jahr. Logischerweise können nicht alle diese Raten richtig sein. Ich möchte versuchen, das Fragezeichen in Abbildung 1 aufzulösen, und zwar durch eine kritische Untersuchung der Graphen in Abbildung 2.

Während das IPCC und seine Propagandisten immer wildere Vorhersagen des Anstiegs des Meeresspiegel in naher Zukunft abgeben, zeigen die tatsächlich beobachteten Fakten, dass der Meeresspiegel während der vergangenen 40 bis 50 Jahre weitgehend stabil war.

Beobachtete Fakten

Eindeutige Messungen vor Ort deuten darauf hin, dass der Meeresspiegel weder bei den Malediven noch in Bangladesh, Tuvalu, Vanuatu und Französisch Guayana steigt (Mörner 2007a, 2007b, 2007c, 2010a, 2010b). Alle diese Orte nehmen in der Diskussion um den Meeresspiegel Schlüsselstellungen ein, in der das IPCC und seine ideologischen Erfüllungsgehilfen katastrophale Überflutungsszenarien entworfen haben. Die Wirklichkeit unterscheidet sich jedoch fundamental von den Behauptungen des IPCC, wie ich in einem Beitrag und dem Interview in 21st Century hier  dargelegt habe.

Das IPCC und die Präsidenten von den Malediven und Tuvalu behaupten weiterhin, dass die Überflutung bereits im Gange ist und die Inseln bald von der Oberfläche des Planeten (oder besser des Ozeans) verschwinden werden. Schon hier erleben wir ein Verhalten, das man gut und gerne als „Sea-Level-Gate“ bezeichnen könnte. In einem offenen Brief an den Präsidenten der Malediven (Mörner 2009) brachte ich die Diskrepanz zwischen dieser Behauptung und unseren Messungen zum Ausdruck. Bisher gab es keine Antwort.

Bangladesh ist eine Nation, die häufig Opfer von Naturkatastrophen ist – starke Niederschläge im Himalaya und tropische Wirbelstürme an der Küste. Als wäre das noch nicht schlimm genug, wurde behauptet, dass der Meeresspiegel in raschem Anstieg begriffen sei. Diese Behauptung wurde in meiner Studie im Sundarban-Gebiet total diskreditiert, wo es eine Tatsache ist, dass der Meeresspiegel seit 40 bis 50 Jahren stabil geblieben ist (Mörner 2010a).

Der fälschlich hergeleitete Anstieg des Meeresspiegels wurde benutzt, um wilde Szenarien zu erzeugen, in denen behauptet wird, dass Hunderte und Tausende Menschen ertrinken könnten und dass „Millionen von Menschen im Verlauf dieses Jahrhunderts aus ihren Häusern wegen des Anstiegs des Meeresspiegels vertrieben werden würden“ (Byravana und Raja 2010). Dies ist wirklich eine schlimme Verfälschung der augenblicklichen Situation. Zweifellos stehen wir vor einem „Sea-Level-Gate“. Das Magazin, dass die falschen Behauptungen verbreitet, Ethics and International Affairs, lehnt es ab, einen Kommentar zu veröffentlichen, der „empirische Daten in den Mittelpunkt stellt“. Mit Befremden müssen wir fragen: Was bedeuten die moralischen Warnungen, wenn die gesamte empirische Basis falsch ist?

In Tuvalu behauptet der Präsident weiterhin, dass sie dabei sind, überflutet zu werden. Und dies, obwohl Messungen des Pegelstands klar auf die Stabilität des Meeresspiegels während der letzten 30 Jahre hinweisen (Mörner 2007a, 2007c, 2010b; Murphy 2007). In Vanuatu zeigen die Wasserstandsmessungen während der letzten 14 Jahre einen stabilen Meeresspiegel (Mörner 2010c).

Von den Küsten von Französisch-Guayana und Surinam gibt es ausgezeichnete Aufzeichnungen des Meeresspiegels, die multiple 18,6 Jahre lange Tidenzyklen zeigen (Gratiot et al. 2008). Sie zeigen Variationen rund um einen stabilen Nullwert während der letzten 50 Jahre (Mörner 2010b). Für das gleiche Gebiet zeigen die Satellitenmessungen einen Anstieg des Meeresspiegels um 3,0 mm/Jahr. Dies erweckt erhebliche Zweifel an der Qualität der Satellitenwerte, was weiter unten diskutiert wird.

Die Aufzeichnungen des Meeresspiegels in Venedig können als ein Test für die globale Eustatik² verwendet werden. Zieht man den Faktor ab, der sich aus der Landabsenkung dort ergibt, zeigt sich kein Anstieg eustatischen Ursprungs, keine wie auch immer geartete Beschleunigung; statt dessen zeigt sich ein Absinken des Meeresspiegels um das Jahr 1970 (Mörner 2007a, 2007c).

² Eustatik oder eustatische Änderung (Im Gegensatz zu Änderungen der Landoberfläche) bedeuten Änderungen des Ozeanspiegels (von dem man früher dachte, er sei global, doch fand man inzwischen heraus, dass es wegen einer horizontalen Umverteilung von Wassermassen auch regionale Änderungen geben kann).

Die Küsten Nordwesteuropas sind interessant, weil es hier sowohl ein Heben als auch ein Absinken von Landmassen gibt. Der Pegel bei Korsør im Großen Belt (zwischen den dänischen Inseln Fünen und Seeland) beispielsweise befindet sich seit 8000 Jahren an einem Angelpunkt zwischen Hebung und Absenken. Dieser Pegel zeigt während der letzten 50 bis 60 Jahre keinen Anstieg des Meeresspiegels.

Cuxhaven an der deutschen Nordseeküste verfügt über einen Pegel bis zurück zum Jahr 1843, und zwar in einem Gebiet, dass das absinkende Segment der deutschen Nordseeküste repräsentiert. Abbildung 3 zeigt die mittleren jährlichen Werte über 160 Jahre mit einem langzeitlichen angepassten Trendpolynom (Herold, nicht veröffentlicht) versehen. Diese Kurve (blau) zeigt einen leichten Anstiegstrend in einem sinusförmigen Verlauf, welcher die mittleren relativen Änderungen des Meeresspiegels in dem Gebiet repräsentiert. Nächste Spalte über den beiden Bildern Zusätzlich zu dieser eustatischen Komponente in Nordwesteuropa (Mörner 1973) bekommt man teilweise die lokale Rate des Absinkens von Land (rote Kurve) und die teilweise eustatische Komponente, extrapoliert bis in die Gegenwart und doppelt geprüft für den Zeitraum bis 1970 (der Unterschied zwischen der roten und der blauen Kurve).

Die regionale eustatische Änderung des Meeresspiegels nimmt nach 1930 bis 1940 ab, wird flach von 1950 bis 1970 und fällt seit 1970 bis zum heutigen Tag. Dies stellt einen sicheren Beweis dafür dar, dass sich der Meeresspiegel heute in keiner Weise in einem rapiden Anstieg befindet; vielmehr gibt es einen gegenteiligen Trend: einen langsam fallenden Meeresspiegel.

Pegelmessstellen wurden an Häfen installiert, um die Änderungen des Tidenhubs und langfristige Änderungen des Meeresspiegels zu messen. Der Pegel in Amsterdam ist der Älteste, wurde er doch schon im Jahre 1682 errichtet. Die Messstelle in Stockholm ist die zweitälteste und wurde 1724/1774 errichtet, die drittälteste befindet sich in Liverpool, und zwar seit 1768. Die meisten Pegel sind auf instabilen Hafenkonstruktionen oder Landungsbrücken installiert. Daher neigen diese Aufzeichnungen dazu, den Anstieg des Meeresspiegels zu übertreiben. In der National Oceanic and Atmospheric Administration NOAA enthält die Datenbasis 159 Pegelmessstellen (Abbildung 4)

Die Autoren des IPCC nehmen sich die Freiheit, zur Rekonstruktion eines Meeresspiegeltrends pro Jahrhundert bestimmte Stationen auszusuchen, die sie „repräsentativ“ nennen. Dies bedeutet natürlich, dass ihre persönliche Ansicht – nämlich das IPCC-Szenario seit Beginn des Projektes – in dieser Auswahl einfließt und „repräsentativ“ nur die Messstellen sind, die diese Vorgabe erfüllen. Es beginnt, nach einem neuen „Sea-Level-Gate“ zu stinken.

Die Messung mit Satelliten ist eine wunderbare neue Technik, die eine Rekonstruktion von Änderungen des Meeresspiegels an der gesamten Wasseroberfläche zulässt. Dies ist unabdingbar, da sich der Meeresspiegel nicht nur vertikal, sondern auch horizontal ändert. Die horizontale Umverteilung von Wasser im Maßstab von Jahrhunderten und Jahrzehnten wurde zum ersten Mal während des späten Holozäns beobachtet (siehe z. B. Mörner 1995 und 1996) und zeigen sich deutlich in den Satellitenaufzeichnungen von 1992 bis 2010 (siehe z. B. Nicholls und Casenaye 2010; Casenaye und Llovel 2010). Jedoch verbleiben große Probleme hinsichtlich des gewählten Null-Niveaus und für den langfristigen Trend (Mörner 2004, 2007c, 2008).

Die Missionen Topex/Poseidon und später Jason zeichneten die Variationen der Ozeanoberfläche in hoher Auflösung auf. Nachdem man alle notwendigen technischen Korrekturen angebracht hat, präsentierten Menard (2000, auch Aviso 2000) den ersten Verlauf der Meeresspiegels von 1992 bis 2000 (Abbildung 5).

Die Abbildung 5 mit einem Trend von 1,0 mm/Jahr wird durch die lineare Annäherung begründet. Die Tatsache, dass das große Hoch in den Zyklen 175 bis 200 durch ein ENSO-Ereignis hervorgerufen wurde, wird ignoriert. (Bei ENSO handelt es sich um die El Niño – La Niña Southern Oscillation, eine quasi-periodische Schwankung, die es alle paar Jahre im tropischen Pazifik gibt). Darum ergibt sich eine viel bessere Annäherung, wenn man diese ENSO-Signale als ein separates Ereignis betrachtet, der dem langzeitlichen Trend überlagert ist, wie in Abbildung 6 gezeigt (Mörner 2004). Abbildung 6 zeigt eine Variabilität (von ±10 mm) um einen stabilen Nullwert (blaue Linie) im Jahre 1997 und ein starkes EBSO-Ereignis (gelbe Linien) im Jahre 1997. Der Trend danach ist weniger klar (graue Linien). Dieser Graph zeigt keinerlei Hinweis auf irgendeinen Anstieg während der betrachteten Zeitspanne (Mörner 2004, 2007a, 2007c).

Als die Satellitengruppe merkte, dass der Anstieg 1997 das Signal eines ENSO-Ereignisses war und sie den Trend bis 2003 extrapolierten, scheint es, dass sie ein Problem hatten: Es gab keinen sichtbaren Anstieg des Meeresspiegels, und daher musste eine „Reinterpretation“ vorgenommen werden (dies wurde mündlich auf dem Global Warming Meeting bestätigt, welches von der russischen Akademie der Wissenschaften abgehalten worden ist und an dem ich teilnahm). Nur, was man genau gemacht hatte, blieb unklar, da die Satellitengruppe die zusätzlichen „Korrekturen“, die sie angebracht hatten, nicht spezifiziert haben.

Im Jahre 2003 geriet die Aufzeichnung der Satellitenmessungen plötzlich erneut in Schieflage (Aviso 2003) – weg von dem weitgehend horizontalen Verlauf von 1992 bis 2000, wie man in den Abbildungen 5 und 6 erkennt – und zwar hin zu einer Rate von 2,3 (± 0,1) mm/Jahr (Abbildung 7)

Woher kommt diese neue Schieflage? War der Verlauf in Abbildung 5 aus dem Jahr 2000 noch flach, zeigt er jetzt aufwärts in Abbildung 7 aus dem Jahr 2003 (Aviso 2000, 2003). Offensichtlich wurde irgendeine Art „Korrektur“ angebracht, ohne diese jedoch zu spezifizieren, so dass eine Auswertung vorgenommen werden könnte (siehe Mörner 2007c, 2008). In den meisten Graphen der Satellitenaufzeichnungen des Meeresspiegels Seite 5 à Seite 6) (im Internet und Artikeln in Zeitschriften) wird nicht einmal angemerkt, dass die Graphen eben nicht die gegenwärtigen Trends zeigen, wie sie von den Satelliten registriert werden, sondern Trends nach Anbringung von „Korrekturen“. Ursprünglich schien es so, als ob sich diese nicht spezifizierte „Extrakorrektur“ auf die globale isostatische³ Anpassung (GIA) von 2,4 mm/Jahr (siehe z. B. Peltier 1998), oder 1,8 mm/Jahr (IPCC 2001) bezogen hatte. Die Nullbasis der GIA wurde nach Peltier (1998) in Hong Kong ermittelt, wo eine Messstelle einen relativen Anstieg des Meeresspiegels um 2,3 mm/Jahr zeigte. Dies entspricht genau dem Wert in Abbildung 7. Diese Messung steht jedoch im Widerspruch zu den vier anderen Messstellen in Hong Kong und repräsentiert offenbar eine lokale spezifische Landabsenkung, ein Faktum, dass den Geologen vor Ort wohlbekannt ist.

³Isostatisch bezieht sich auf die Balance der geologischen Massen und der Tendenz zum Gleichgewicht.

Nichtsdestotrotz wurde ein neuer Anpassungsfaktor an den Graph in Abbildung 7 angebracht.  Auf dem Moskauer Treffen 2005 erwiderte eine der Personen in der britischen IPCC-Delegation auf meine Frage und Kritik an dieser „Korrektur“: „Wir mussten das tun, weil es sonst gar keinen Trend gegeben hätte!“ darauf antwortete ich: „Haben Sie gehört, was Sie sagen? Das ist doch genau das, was ich Ihnen vorwerfe!“ Daher wurde in meinem Booklet aus dem Jahre 2007 (Mörner 2007c) der Graph in Abbildung 7 zurück in seine Originalposition gebracht (Abbildung 5).

Die Kalibrierungen, die an die altimetrischen Satellitenmessungen angebracht worden waren, werden bei Mitchum (2000 – cf. Casenave und Nerem 2004; Leuliette und Scharroo 2010) diskutiert. Die Messungen an den Pegeln spielten dabei eine zentrale Rolle und schlossen eine gewisse Art von Zirkelschluss hinsichtlich dieser Kalibrierungen ein. Andere wichtige Faktoren sind die globale isostatische Anpassung (GIA) und die Vertikalbewegungen der Orte mit den Pegeln.

Mitchum (2000) stellt zum Einen fest: „wir haben die Rate vorgegeben durch Douglass (1991, 1995) von 1,8 ± 0,1 mm/Jahr übernommen“, und zum Anderen: „von den Messstellen wurde angenommen, dass sie vertikal stabil sind“. Beide diese Annahmen sind falsch. Die Rate von 1,8 mm/Jahr ist nicht belegt, sondern eher im Gegenteil (siehe Abbildung 2). Die Aufzeichnungen an Messstellen sind alles andere als vertikal stabil, sondern eher im Gegenteil (dies gilt für die 6 Messstellen, die von Church et al. sowie die 25 Messstellen, die von Douglas verwendet wurden). Mitchum (2000) schlug die folgenden Beziehungen vor (wie in der farbig hinterlegten Gleichung unten):

Der vorgeschlagene „globale Faktor des Meeresspiegels” (Kasten B) ist niemals eindeutig und vertrauenswürdig, sondern eher Gegen­stand persönlicher Ansichten, wie man in Abbildung 2 sieht. Die Rate von 1,8 mm/Jahr ist mit Sicherheit eine Überschätzung, die stark durch Landabsenkungen an den ausgewählten Messstellen beeinflusst ist (Abbildung 2). Nach meiner Ansicht wäre 0,0 mm/Jahr (oder ein wenig darüber) ein viel besserer Wert.

Die lokalen Landbewegungen an den Messstellen (Kasten C) ist eine weitere komplexe Angelegenheit, die nach einem geologischen Verständnis der fraglichen Messstelle verlangt. Lokale Änderungen des aus Sedimenten gebildeten Untergrundes (wie Verdichtung, Rückzug des Wassers (water withdrawal) usw.) ist ein primärer Faktor, dem man Rechnung tragen muss (Mörner 2004, 2010b). Diese Änderungen können durch Satellitenmessungen nicht aufgezeichnet werden, sondern nur mit genauen Kenntnissen der Verhältnisse vor Ort. Viele Messstellen wurden in Häfen und an Landungsbrücken installiert, die alles andere als stabil sind. Bewegungen der Erdkruste sowie die Seismoektonik sind andere Faktoren. Im Falle des Hafens der maledivischen Hauptstadt Malé ist diese Insel so überladen mit Bebauung, dass die Hafenbauten zerbrechen und sich in einer Weise verändern, die jede glaubwürdige Messung des Meeresspiegels dort ungültig machen.

Abbildung 9 zeigt die Satellitenaufzeichnungen, wie sie von NOAA (2008) veröffentlicht worden sind, und die einen Anstieg von 3,2 ± 0,4 mm/Jahr ergeben.

In Abbildung 10 sind die Satellitenmessungen von Abbildung 9 zurück geneigt worden, damit sie zu dem Originaltrend der Abbildungen 5 und 6 im Zeitraum 1992 bis 2000 (gelbe Bereiche) sowie zu den Rohdaten von GRACE in Abbildung 8 des Zeitraumes 2003 bis 2007 (gelbe Linie) passen.

Ich habe früher behauptet (Mörner 2008), dass die Satellitenaufzeichnung aus drei Schritten besteht: (1) Messung mit den Instrumenten an Bord des Satelliten, (2) „instrumentelle Aufzeichnung“ (nach der Korrektur durch technische Anpassungen) S. 8 à S. 9 wie in Abbildung 10 gezeigt, und (3) „interpretierende Aufzeichnungen“ (nach Anbringung von „persönlichen Korrekturen“) wie in Abbildung 9 gezeigt. Dies veranschaulicht Abbildung 11.

Wie oben schon erwähnt hat mir ein Mitglied des IPCC hinsichtlich solcher Anpassungen gesagt: „Wir mussten das tun, denn anderenfalls hätte sich kein Trend irgendeiner Art gezeigt“, und genau das scheint der Fall zu sein. Das bedeutet, dass wir hier vor einem sehr schweren, um nicht zu sagen unethischen, „Sea-Level-Gate“ stehen. Somit ergibt sich aus den „instrumentellen Aufzeichnungen“ aus Satellitenmessungen (Abbildung 10) einen Anstieg des Meeresspiegels von 0,0 mm/Jahr. Dies passt viel besser zu den beobachteten Fakten, und es scheint sich hier ein schlüssiges Bild mit keinem oder höchstens einem sehr geringen (in einer Größenordnung von 0,5 mm/Jahr) Meeresspiegelanstieg während der letzten 50 Jahre abzuzeichnen .

So sehen wir, wie des IPCC Bedrohung durch den Meeresspiegel verschwindet. S. 9 à S. 10 Der Gedanke an einen fortgesetzten Anstieg des Meeresspiegels, der Inseln und niedrig liegende Küstenbereiche überflutet, mit Zehntausenden Ertrinkenden und Hunderttausenden bis Millionen Menschen, die zu Meeresspiegelflüchtlingen werden, ist einfach ein schwerer Irrtum, der hiermit als Täuschung, Humbug und schlimmer Desinformation entlarvt wird. Dies ist zweifellos ein ernstes und schäbiges „Sea-Level-Gate“.

Die echten Fakten können in der Natur selbst gefunden werden; mit Sicherheit aber nicht an den Modelliertischen. Einige Aufzeichnungen sind interpretativer Natur. Andere sind ziemlich eindeutig und geradlinig. Ich habe oft behauptet, dass „Bäume nicht lügen“ (z. B. Mörner 2007c) und meinte damit den einsamen Baum auf den Malediven, der auf einen stabilen Meeresspiegel während der letzten 50 bis 60 Jahre hinwies (und der daher von Hand durch eine Gruppe australischer „Wissenschaftler“ und Kundschaftern des IPCC gefällt worden ist). Und ich dachte an die Bäume auf einem Strand in Sundarban, die eine starke Erosion, aber keinerlei Anstieg des Meeresspiegels zeigen. (Mörner 2007c, 2010a).

Durch diesen Beitrag können wir, so hoffe ich, die Welt von einer künstlichen Krise befreien, zu der sie durch den IPCC und seinen Schergen verdammt worden ist, einer Krise durch extensive und desaströse Überflutungen in naher Zukunft. Dies war die Hauptbedrohung im Szenario des IPCC, und jetzt ist sie verschwunden.

 Autor Nils Axel Mörner; mit freundlicher Genehmigung

Übersetzt von Chris Frey für EIKE

References _______________________________

Aviso, 2000. Observing the oceans by altimetry. www.aviso.cis.cnes.fr

Aviso, 2003. Observing the oceans by altimetry. www.aviso.cis.cnes.fr

Aviso, 2008. Mean Sea Level as seen by altimeters. www.avsio.oceanobs.com

D.A. Burton, 2010. “Analysis of global linear mean sea level (MSL)-trends, including distance-weighted averaging.” www.burtonsys.com/global_msl_trend_analysis.html

S. Byravana and S.C. Rajan, 2010. “The ethical implications of sea-level rise due to climate changes.” Ethics and International Affairs, Vol. 24, No. 3, pp. 239-260.

A. Casenave, K. Dominh, S. Guinehut, E. Berthier, W. Llovel, G. Rammien, M. Ablain, and G. Larnicol, 2009. “Sea level budget over 2003-2008: A reevaluation from GRACE space gravimetry, satellite altimetry and Argo.” Global Planetary Change, Vol. 65, pp. 83-88. A. Cazenave and W. Llovel, 2010. “Contemporary sea level rise.” Ann. Rev. Marine Sci., Vol. 2, pp. 145-173.

A. Casenave, and R.S. Nerem, 2004. Present-day sea level changes: Observations and causes. Rev. Geophysics, Vol. 42, pp. 1-20.

J.A. Church, N.J. White, and J.R. Hunter, 2006. “Sea-level rise at tropical Pacific and Indian Ocean islands.” Global Planetary Change, Vol. 53, pp. 155-168.

B.C. Douglas, 1991. “Global sea level rise.” J. Geophys. Res., Vol. 96, pp. 6981-6992.

B.C. Douglas, 1995. “Global sea level changes: determination and interpretation.” Rev. Geophys., Vol. 33, pp. 1425-1432.

N. Gratiot, E.J. Anthony, A. Gardel, C. Gaucherel, C. Proisy, and J.T. Wells, 2008. “Significant contribution of the 18.6 year tidal cycle to regional coastal changes.” Nature Geoscience, Vol. 1, pp. 169-172 (doi: 0.1038/ngeo127).

S.J. Holgate, 2007. “On the decadal rates of sea level change during the twentieth century.” Geophys. Res. Letters, Vol. 34, LO1602, doi:10.1029/2006GL028492.

INQUA, 2000. “Sea Level Changes and Coastal Evolution.” www.pog.su.se, (from 2005: www.pog.nu).

IPCC, 2001. Climate Change. (Cambridge: Cambridge Univ. Press).

IPPC, 2007. Climate Change. (Cambridge: Cambridge Univ. Press).

G. Menard, 2000. “Satellite-based altimetry reveals physical ocean.” MEDIAS Newsletter, Vol. 12, pp. 9-17.

G.T. Mitchum, 2000. “An improved calibration of satellite altimetric heights using tide gauge sea levels with adjustment for land motion.” Marine Geodesy, Vol. 23, pp. 145-166.

N.-A. Mörner, 1973. “Eustatic changes during the last 300 years.” Palaeogeogr. Palaeoclim. Palaeoecol., Vol. 13, pp. 1-14.

N.-A. Mörner, 1995. “Earth rotation, ocean circulation and paleoclimate.” GeoJournal, Vol. 37, No. 4, pp. 419-430.

N.-A. Mörner, 1996. “Sea Level Variability.” Z. Geomorphology N.S., Vol. 102, pp. 223-232.

N.-A. Mörner, 2004. “Estimating future sea level changes.” Global Planet. Change, Vol. 40, pp. 49-54.

N.-A. Mörner, 2005. “Sea level changes and crustal movements with special aspects on the Mediterranean.” Z. Geomorph. N.F., Suppl. Vol. 137, pp. 91-102.

N.-A. Mörner, 2007a. “The Sun rules climate. There’s no danger of global sea level rise.” 21st Century, Fall 2007, pp. 31-34.

N.-A. Mörner, 2007b. “Sea Level Changes and Tsunamis. Environmental Stress and Migration over the Seas.” Internationales Asienforum, Vol. 38, pp. 353-374.

N.-A. Mörner, 2007c. “The Greatest Lie Ever Told.” P&G-print (2nd edition 2009, 3rd edition 2010.

N.-A. Mörner, 2008. “Comments.” Global Planet. Change, Vol. 62, pp. 219-220.

N.-A. Mörner, 2009. “Open letter to the President of the Maldives.” New Concepts in Global Tectonics Newsletter, No. 53, pp. 80-83.

N.-A. Mörner, 2010a. “Sea level changes in Bangladesh. New observational facts.” Energy and Environment, Vol. 21, No. 3, pp. 249-263.

N.-A. Mörner, 2010b. “Some problems in the reconstruction of mean sea level and its changes with time.” Quaternary International, Vol. 221, pp. 3-8.

G. Murphy, 2007. “Claim that sea level is rising is a total fraud (interview).” 21st Century, Fall 2007, pp. 33-37.

R.J. Nicholls and A. Casenave, 2010. “Sea-level rise and its impact on coastal zones.” Science, Vol. 328, pp. 1517-1520.

NOAA, 2008. “The NOAA satellite altimetry program: Closing the sea level rise budget with alrimetry, Argos and Grace.” www.oco.noaa.gov .

W.R. Peltier, 1998. “Postglacial variations in the level of the sea: implications for climate dynamics and solid-earth geophysics.” Rev. Geophysics, Vol. 36, pp. 603-689.




FAZ meldet zum Meeresspiegel: Die Pegel steigen! Oder etwa nicht?

Die FAZ schreibt: "Der Meeresspiegel steigt kontinuierlich mit  der Erwärmung. Und er steigt mit der beschleunigten Aufheizung der Erdatmosphäre auch offenbar immer schneller." (den Originartikel finden Sie hier)

Genau das tut er nicht, sondern eher das ganze Gegenteil :

(1) Die kürzlich von EUMETSAT[1] veröffentlichten Daten zeichnen nämlich ein ganz anderes Bild:

Seit nahezu 150 Jahren gibt es Pegelmessungen. Diese zeigen eine Abschwächung des Meeresspiegel-Anstieges in der zweiten Hälfte des 20. Jahrhunderts. Seit nahezu 20 Jahren wird der Meeresspiegel mit speziellen Radar-Methoden von Satelliten aus gemessen. Daraus ergibt sich für diesen Zeitraum ein mittlerer Meeresspiegel-Anstieg von 2,8 mm pro Jahr. Mehr noch: Nach diesen EUMETSAT-Daten gibt es seit etwa fünf Jahren eine Stagnation des Meeresspiegels. Das alles deckt sich mit einer soeben erschienen Übersichts-Publikation[2] des Stockholmer Meeresspiegel-Experten Prof. Mörner (eh. IPCC-Reviewer): "Observational facts indicate that the sea level  is by no means in rapidly rising mode, but rather quite stable." u.w.a.a.O.: "Satellite Altimetry is shown to record variations around a stable zero-level for the entire period 1992-2010."

(2) Dieses alles bestätigt eine soeben publizierte US-Studie[3]:

"World-wide temperature increase has not produced acceleration of global sea level over the past 100 years, and indeed why global sea level has possibly decellerated for at least the last 80 years." (Der weltweite Anstieg der Temperatur führte nicht zu einem beschleunigten Anstieg des Meeresspiegels während der letzten 100 Jahre).

(3) Auch der IPCC-Forscher Kevin Trenberth kommt in SCIENCE[4] zu diesen Ergebnissen:

Es gibt keinen beschleunigten Meeres-Anstieg, mehr noch: Die Oberflächen-Temperatur der Weltmeere sinkt wieder, und somit gibt es auch keine thermische Ausdehnung der Meere, und somit keine thermische Beschleunigung des Meeres-Anstiegs!

 

(4) Das gleiche Bild ergibt sich für die Deutsche Nordsee-Küste:

 

Sowohl der für den Küstenschutz zuständige Landesverband[5] als auch die Landesregierung[6] kommen zum gleichen Ergebnis:

"Für einen steigenden Meeresspiegel an Niedersachsens Nordseeküste als Folge des Klimawandels sieht die Landesregierung keine Anzeichen.  Auch ein Trend zu höherer Sturmfluthäufigkeit sei nicht erkennbar, teilte Umweltminister Hans-Heinrich Sander (FDP) im Landtag mit. Danach liegt der Trend des Anstieges bei unverändert 25 cm je Jahrhundert. Ein schnellerer Anstieg ist nicht zu beobachten."

Noch einen Schritt weiter geht der NLWKN[7] : "Allen Diskussionen und Horrorszenarien zum Trotz : Einen wissenschaftlichen Beleg für einen massiven Anstieg des Meeresspiegels für den Zeitraum bis 2100 gibt es nicht. Der NLWKN hat für diese Aussage einen objektiven Zeugen: Den Pegel Norderney. Er liefert seit genau 100 Jahren eine konsistente Aufzeichnung der Wasserstände. Und aus dieser Zahlenreihe lässt sich ablesen: Der Anstieg für den Zeitraum von 1906 bis 2005 beträgt exakt 24,3 cm."

(5) Nochmals zur FAZ: "…wird mit einer zwanzigjährigen Studie amerikanischer Forscher gezeigt, dass zuletzt vor allem das Abschmelzen der Grönlandeisschilde und – etwas weniger stark – der Antarktisgletscher die Entwicklung beschleunigt  hat."

Das steht ganz offensichtlich im Widerspruch zu Erkenntnissen des Alfred-Wegener-Instituts[8]: …daß "…Grönland zwar sehr wahrscheinlich an Masse verlieren wird, aber dieser Massenverlust durch verstärktes Abschmelzen in Grönland wird kompensiert durch eine Eiszunahme in der Antarktis", und weiter "… nach den von uns berechneten Szenarien kommen wir zu dem Schluß, daß Veränderungen der großen Eismassen keinen Beitrag zu einem Meeresspiegelanstieg leisten werden".

Und weiter das AWI[9]: Die Daten von Nord- und Südpol widerlegen düstere Prophezeiungen, der Meeresspiegel könne in kurzer Zeit um mehrere Meter ansteigen. „Bis das Grönlandeis schmilzt, vergehen mehr als tausend Jahre“, versichert Miller, “denn es war in der Vergangenheit auch deutlich wärmer als heute, ohne dass die riesigen Gletscher verschwanden.“ …und weiter[10]: "Selbst wenn es in Zukunft im Bereich der Antarktis deutlich wärmer werden würde, sind keine wesentlichen Schmelzprozesse zu erwarten. Ein wärmeres Klima in der Antarktis könnte jedoch zu mehr Schneefall führen. Der antarktische Eispanzer würde dann bei einer Erwärmung eher wachsen als schmelzen. Der weltweite Anstieg des Meeresspiegels könnte durch die Antarktis sogar gemindert werden."

(6) Allen diesen Fakten hat offensichtlich auch das IPCC Rechung getragen, denn die IPCC- Prognosen des Meeresspiegels für das Jahr 2100 wurde von Bericht zu Bericht zurück genommen: Von im Mittel 63 cm (1990) auf 39 cm (2007) !

 

(7) Stimmen die Satellitenkurven überhaupt?

Es gibt noch einen sehr wichtigen anderen Aspekt, der im FAZ Artikel völlig unbeachtet bleibt. Satelliten messen sehr genau, jedoch auch nur indirekt. Die Auswertung  der Signale steht und fällt mit der korrekten Bestimmung des Nullpunktes und der Ausmerzung von evtl. Driften die durch technische Eigenschaften der Messapparatur entstehen können. Dieser Frage ist unter anderem der zuvor erwähnte Prof. Mörner nachgegangen

Er stellt die Ergebnisse der Satellitenmessung umfassend in seinem Aufsatz [Mörner, 2004] Estimating future sea level changes from past records“ vor. Als wichtiges Ergebnis merkt er an, dass die Messungen von 1993 bis 1996 keinen Trend zeigen, erst ab 1997 bis 2000 wären unstetige Schwankungen zu erkennen.  Für die ersten 4 Jahre bestimmte Nerem et. al [Nerem, 1997] sogar eine geringe Abnahme von -0,2 mm/Jahr. Diesen Verlauf zeigt die folgende Abbildung.

Abbildung 1: Messdaten der Topex/Poseidon (T/P) von 1993 bis Anfang 2000 nach Mörner. Man beachte den fehlenden Trend von 1993 bis 1997 und danach die starken Schwankungen um + 15mm bis -10mm[11]. Die gezeigten Satellitendaten enthalten die erforderlichen Driftkorrekturen des Satelliten nach Mitchum [Mörner, 2008].

Parallel dazu wurden von anderer Seite Zweifel an den Messergebnissen der Topex/Poseidon Mission, wie sie z.B. Mörner erwähnt, geäußert. Der Grund war, dass eine Landstationen, erwähnt wird in diesem Zusammenhang eine von mehreren Stationen in Hongkong, deutlich positive Trends in derselben Zeit zeigten, während die anderen 5 Hongkonger Landstationen Topex/Poseidon Daten dies nicht taten.

Also entschlossen sich Nerem et. al [Nerem, 1997], die Satellitendaten mit einem positiven Trend zu versehen, weil sie davon ausgingen, dass eine noch unbekannte negative Drift von -2,3 ± 1,2 mm/Jahr die T/P Daten verfälscht hätte. Deshalb wurde diesen Daten, per Beschluss, ein positiver Trend von +-2,1 ± 1,3 mm überlagert („calibrated“ wie Nerem selbst in Parenthese gesetzt schrieb), der insgesamt zu einem positiven Trend von 2,1±1,3 mm/Jahr führte[12]. Die untenstehende Abbildung zeigt diesen Sachverhalt fortgeführt bis 2000[13]. Seit dieser Korrektur, die von vielen als nicht gerechtfertigt angesehen wird, berufen sich fast alle Autoren auf die gute Übereinstimmung der Messdaten von Pegelstationen (nach Korrektur des GIA Effektes) mit den Satellitenmessungen der T/P Mission. Dass dies ein unfreiwilliger Zirkelschluss ist, fiel diesen Autoren offenbar nicht auf.

 

Abbildung 2: Korrigierte Zeitreihe des GSML der Topex-Poseidon Mission. Quelle [Douglas, 2000] Chapter 6 Nerem, Mitchell

Diese künstliche positive Drift wurde bis heute nicht korrigiert, noch nicht mal zu Kenntnis genommen, wie Mörner im aktuellen, in einem u.a. über das Internet abrufbaren, Aufsatz [14] (siehe auch pdf Anlage) erläutert. Noch 2000 hatte Menard[15]  diese künstliche Driftkorrektur nicht in seinem Paper, die wurde erneut erst 2003 von Aviso[16] und zwar exakt, hinzugefügt.

Dieser Befund dass die Original-Satellitendaten keine reale Anhebung oder gar eine Beschleunigung zeigen, wird auch dadurch gestützt, dass die als besonders bedrohten Gebiete eingestuften Gebiete wie die Malediven, Bangladesh, Tuvalu, Vanuatu, oder Französich Guyana sowie auch div. andere Gebiete, die umfassend bei Mörner aufgezählt werden, zumindest bei unmittelbarer Beobachtung vor Ort keinerlei bedrohliche Veränderung aufzeigen. Aus alledem ziehen wir den Schluss, dass die Beschleunigung eines Meeresspiegelanstiegs, wie auch bei der globalen Temperatur eine  Erfindung der Modelle ist, die einer Überprüfung mit der Wirklichkeit nicht standhalten.

gez.: Klaus-Eckart Puls, Michael Limburg

Siehe auch Protokoll des PIK EIKE Kolloqiums  kommenden Montag 9.5.11

Anmerkung der Redaktion: Unsicherheiten 2 bis 3 x größer ais der vermutete Anstieg

Leser Prof. Gerhard Kramm macht uns auch auf folgende Unsicherheit (man könnte auch  Ungereimtheit sagen) aufmerksam:

Nach dem IPCC-Report von 2007 betraegt der Anstieg des Meeresspiegels, beobachtet waehrend der Zeitspanne von 1961 bis 2003, etwa 1,8 mm/Jahr. Das sind 18 cm in 100 Jahren, was in Einklang ist mit den Beobachtungen seit etwa 1850 (siehe Akasofu, 2010). Folgt man dem IPCC, so betraegt der Anstiegt waehrend der Zeitspanne von 1993 bis 2003  3,1 mm/Jahr. Dieser hoehere Anstieg geht mit einem Wechsel in der Beobachtungstechnik einher. Interessant ist, dass die Unsicherheit im Falle von Groenlandeis (0,05 +/- 0,12 mm/Jahr) und Antarktiseis (0,14 +/- 0.41 mm/Jahr) so gross is, dass sie die Mittelwerte fuer die Zeitspanne 1961-2003 bei weitem uebersteigen. Das gilt auch im Falle des Antarktiseises, wenn die Zeitspanne 1993-2003 betrachtet wird.


[1] EUMETSAT, issue 32 (2010), S.4

[2] Niels-Axel Mörner: There is no alarming sea level rise, 21st Century Science&Technologie, Winter 2010/2011, S.12-22

[3] J. of Coastel Res., http://www.jcronline.org/doi/pdf/10.2112/JCOASTRES-D-10-00157.1

[4] Trenberth, K.E. et al: Tracking Earths Energy, SCIENCE, Vol. 328, 16.04.2010, S.316-317

[5] NLWKN: Niedersächsischer Landesverband für Wasser, Küsten- und Naturschutz

[6] Landesregierung Niedersachsen, NZ, 04.02.2010, S.4

[7] Nieders. Landesverb. f. Wasser, Küsten- und Naturschutz, Jahresbericht 2005

[8] http://www.awi.de/delaktuelles_und_presse/bildfilm_ton/tonbeitraege/miller_3112007_klimawandel ;Okt.2007

[9] H. Miller: Bohrer im Eis, DIE ZEIT, 06.06.2007 , S.40

[10] AWI, Schmilzt die Antarktis?, Poster, 2009

[11] In einer später abgegebenen Erläuterung schreibt Mörner:“It should be noted that this graph includes the technical adjustments (including the drift factor of Mitchum, 2000, Fig. 10) illustrated by the lower arrow in Fig. 1. Later the same graph re-appears with a strong tilt (Aviso, 2003; cf. Leuliette et al., 2004; Moerner, 2005). Why is that?“ Quelle: : http://antigreen.blogspot.com/2009/03/accelerated-sea-level-rise-i-mentioned.html

[12] Begründung von Nerem et. al [Nerem, 1997]: The TOPEX/POSEIDON satellite altimeter mission has measured sea level on a global basis over the last 4 years at 10 day intervals. After correcting for a recently discovered error in the measurements, the estimated rate of global mean sea level change over this time period is ?0.2 mm/year. Comparisons to tide gauge sea levels measured in spatial and temporal proximity to the satellite measurements suggest there is a residual drift in the satellite measurement system of ?2.3±1.2 mm/year, the origin of which is presently unknown. Application of this rate correction yields a “calibrated” estimate of +2.1±1.3 mm/year for the rate of sea level rise, which agrees statistically with tide gauge observations of sea level change over the last 50 years.

[13] Mörner: Quelle: Rise of sea levels is ‚the greatest lie ever told‘ http://www.telegraph.co.uk/comment/columnists/christopherbooker/5067351/Rise-of-sea-levels-is-the-greatest-lie-ever-told.html „But suddenly the graph tilted upwards because the IPCC’s favoured experts had drawn on the finding of a single tide-gauge in Hong Kong harbour showing a 2.3mm rise. The entire global sea-level projection was then adjusted upwards by a "corrective factor" of 2.3mm, because, as the IPCC scientists admitted, they "needed to show a trend".

[14] There Is No Alarming Sea Level Rise! 21st Century Science & Technology Winter 2010/2011

[15] G. Menard, 2000. “Satellite-based altimetry reveals physical ocean.” MEDIAS Newsletter, Vol. 12, pp. 9-17.

[16] Aviso, 2003. Observing the oceans by altimetry. www.aviso.cis.cnes.fr

Sie auch weiterführende links: http://wattsupwiththat.com/2011/05/04/more-arctic-sea-level-worse-than-we-thought-scare-stories/

Related Files




Der UNO-Schwindel mit den Klimaflüchtlingen!

Es wurde gesagt, wenn man eine Vorhersage macht und ein Datum angibt, nenne man nie das Ausmaß, und wenn man das Ausmaß nennt, gebe man nie ein Datum an. Dann kann man immer behaupten, dass man recht hat, selbst wenn man falsch lag. Und dies ist noch nicht geschehen.

Das Umweltprogramm der UN UNEP hat 2005 einen Fehler gemacht, als es eine Karte mit den Gebieten erstellt hat, die von den Auswirkungen der Klimaänderung betroffen sein würden. Aus diesen Gebieten würden 50 Millionen „Klimaflüchtlinge“ vertrieben werden, wegen steigenden Meeresspiegels, häufigerer und stärkerer Hurrikane, Ernteausfällen usw.

Dem Blogger Gavin Atkins zufolge, der die vergessenen Prognosen des Untergangs wieder ans Tageslicht befördert hat, gab es in einigen dieser Gebiete Volkszählungen, und wenn sie überhaupt irgendwelche Probleme haben, dann durch das rapide und fortgesetzte Bevölkerungswachstum. Falls irgendjemand diese Gefahrenzone verlassen sollte, dann nur deswegen, weil sie überbevölkert sind.

Zum Beispiel ergab der jüngste Zensus auf den Solomon Islands bei Australien, dass die dortige Bevölkerung während des letzten Jahrzehnts um 100 009 auf über eine halbe Million gestiegen war. Auf den Seychellen im Indischen Ozean gab es einen Bevölkerungszuwachs von 81 755 Menschen im Jahre 2002 auf heute 88 311.

Auf den Bahamas, dem bevorzugten Ferienort für jene reichen Kapitalisten, die die Erde ausplündern, wuchs die Bevölkerung um über 50 000. Die sechs am schnellsten wachsenden Städte in China liegen inmitten einer der von der UNEP genannten Gefahrenzonen, ebenso wie viele Küstenstädte in den USA. Nach letzten Berichten gab es keine Massenflucht Richtung Inland. Offensichtlich haben diese gefährdeten Menschen das Ganze nicht verstanden.

Im Jahre 2005 berichtete die britische Zeitung “The Guardian” über eine Prognose von Janos Bogardi vom Institute for Environment and Human Security an der United Nations University in Bonn. Er sprach von „der wohlbegründeten Furcht, dass die Anzahl der Menschen, die vor unerträglichen Umweltbedingungen fliehen werden, exponentiell wachsen könnte, wenn sich die Auswirkungen des Klimawandels in der Welt zeigen werden“. Wohlbegründet?

In dem Artikel hieß es weiter, dass Neuseeland zugestimmt habe, die 11 600 Einwohner des tief liegenden Inselstaates Tuvalu im Pazifik aufzunehmen, falls der steigende Meeresspiegel diese Inseln überfluten würde. Jüngsten Berichten zufolge geht es Tuvalu immer noch sehr gut, und es liegt über Wasser.

Apokalyptische Vorhersagen von Alarmisten der Klimaänderung sind völlig aus der Luft gegriffen, sagt der schwedische Geologe und Physiker Nils Axel Mörner, früher Vorsitzender der Internationalen Kommission zur Änderung des Meeresspiegels. Wohl gibt es einige Fluktuationen in beide Richtungen, aber im Ganzen „ist der Meeresspiegel nicht gestiegen“, sagt er. „Er ist seit 50 Jahren nicht gestiegen“. Sollte es irgendeinen Anstieg in diesem Jahrhundert geben, wird er „nicht größer als 10 cm ausfallen, mit einer Fehlergrenze von ±10 cm“.

Update 17.4.11

Einige Leser glauben es handele sich um einen Zahlendreher. Das kann vorkommen, ist es aber hier nicht. Die offzielle Website ist inzwischen entfernt worden, aber in Coogle Cache findet man sie noch und zwar hier. Dort fehlt nur die o.a. Karte mit den kurzfristig gefährdeten Ländern. Wir bringen dazu in Kürze mehr. 

Link: http://www.investors.com/NewsAndAnalysis/Article.aspx?id=569069&p=1

Übersetzt von Chris Frey für EIKE

Wird fortgesetzt. Man lese vorab weitere Details dazu hier




Monckton „spießt“ australischen Klima-Alarmisten Steketee auf!

1. Nach vorläufigen Daten bis zum 30. November waren die Wassertemperaturen rund um Australien im vorigen Jahr die höchsten jemals gemessenen, ebenso wie für die gesamte letzte Dekade.

Die Aufzeichnungen selbst begannen vor zehn Dekaden. Für die Wassertemperaturen gilt, dass sie für die Analyse der „globalen Erwärmung“ weniger signifikant sind als für die Abschätzung des Wärmegehalts der Ozeane. In einer kürzlich veröffentlichten Studie haben die Professoren David Douglas und Robert Knox von der Rochester University in New York – entgegen der Behauptung zahlreicher Klimaextremisten – festgestellt, dass es keine Ansammlung der „fehlenden Energie“ [missing energy] in Form von Wärme in den Ozeanen weltweit gegeben hat, seit dieser Wärmegehalt erstmals im Jahre 2003 verlässlich durch 3000 automatische Bathythermographen [Erklärung in Wikipedia hier ] gemessen wurde. Dieses Ergebnis bedeutet, dass der Grad der Erwärmung, den man selbst bei einer starken Zunahme des CO2-Gehaltes bekommt, viel kleiner ist, als das IPCC und andere Gruppen von Klimaextremisten behaupten.

2. Die Weltorganisation der Meteorologie WMO sagt, dass das Jahr bis Ende Oktober das wärmste Jahr war seit dem Beginn von instrumentellen Klimaaufzeichnungen im Jahre 1850 – 0,55°C über dem Mittel der Jahre 1961 bis 1990 von 14°C.

Es ist einfach, eine Periode herauszupicken, die kürzer ist als ein Kalenderjahr und dann zu behaupten, es hätte einen neuen Rekord gegeben. Das Herauspicken der ersten neun Monate 2010 ist besonders inakzeptabel, weil diese Periode von einem starken El Niño-Ereignis dominiert wurde, einer plötzlichen Änderung der Meeresströme weltweit, die ebenso weltweit wärmeres Wetter zur Folge hatte. Die letzten paar Monate des vorigen Jahres, die sorgfältig aus der Feststellung von Mr. Steketee herausgehalten worden waren, zeigten den Beginn eines La Niña-Ereignisses, was zu einer weltweiten Abkühlung führt. Tatsächlich war das Kalenderjahr von Januar bis Dezember 2010 den zuverlässigen Satellitendaten von RSS und UAH zufolge nicht das wärmste. Davon abgesehen, was zählt, ist nur, wie schnell sich die Erde erwärmt. Die Erwärmungsrate lag von 1975 bis 2001 etwa bei 0,16°C pro Dekade. Dies war die höchste Rate für mehr als ein Jahrzehnt in der 160 Jahre langen Aufzeichnung – und genau die gleiche Rate wie von 1860 bis 1880 und dann wieder von 1910 bis 1940, zu einer Zeit also, bei der wir mit Sicherheit damit nichts zu tun haben können. Seit 2001 hat es praktisch überhaupt keine „globale Erwärmung“ mehr gegeben.

3. Die letzte Dekade war ebenfalls die wärmste seit Beginn der Aufzeichnungen.

Nach 300 Jahren globaler Erwärmung, in denen wir fast durchweg in keiner Hinsicht das Klima in messbarem Ausmaß beeinflusst haben können, ist es kaum überraschend, dass jüngere Dekaden wärmer ausfallen als frühere. Dies ist zu erwarten. Wenn jemand lange Zeit steil bergauf gegangen ist, wird er auch nicht überrascht sein, sich am Ende dieser Klettertour in einer höheren Position zu befinden als zu Beginn.

4. Die Welt ist nicht kühler, verglichen mit 1998.

Tatsächlich ist es kühler. Es gab 1998 eine bemerkenswerte Wärmespitze der globalen Temperatur, aber nicht durch anthropogene „globale Erwärmung“, sondern durch ein gewaltiges El Niño-Ereignis – ein Wechsel in der Verteilung der Meeresströme, die im äquatorialen Ostpazifik beginnt und rings um den Globus läuft und die ein paar Monate anhält. In den ersten neun Monaten 2010 gab es ein weiteres substantielles El Niño-Ereignis, aber selbst auf dem Höhepunkt wurde nicht die Wärmespitze des Großereignisses von 1998 erreicht.

5. Die Trends folgen ziemlich genau den Vorhersagen des Temperaturanstiegs der letzten 40 Jahre, verursacht durch die zunehmende Emission von Treibhausgasen.

In den 40 Jahren seit 1970 hat die globale Temperatur linear in einer Rate um 1,3°C pro Jahrhundert zugenommen. Die CO2-Konzentration nimmt in einer geraden Linie um 2 ppmv pro Jahr zu, und selbst wenn wir eine exponentielle Zunahme bekämen, kann eine damit korrespondierende Temperaturzunahme in einer geraden Linie erwartet werden. Wie auch immer, eine weitere „globale Erwärmung“ um 1,3°C in diesem Jahrhundert wäre harmlos. Das IPCC sagt 3,4°C voraus, aber seit der Jahrtausendwende am 1. Januar 2001 hat die globale Temperatur  (im Mittel von  zwei Datensätzen von Satelliten) mit einer Rate äquivalent zu 0,6°C pro Jahrhundert zugenommen, also viel geringer als im gesamten 20. Jahrhundert. In diesen Zahlen steckt nichts, worüber man sich Sorgen machen müsste – außer über die Tendenz mancher Journalisten, dies zu verheimlichen.

6. Die meisten Wissenschaftler stimmen darin überein, dass eine Verdoppelung des CO2-Gehaltes der Atmosphäre zu einer Erwärmung um 2 bis 3°C führen würde.

Es ist zu bezweifeln, dass Mr Steketee „die meisten Wissenschaftler“ konsultiert hat. Die meisten Wissenschaftler, die keine Klimawissenschaftler sind, nehmen an der Klimadebatte gar nicht teil. Die meisten Klimawissenschaftler haben nie untersucht, welche Erwärmung eine gegebene CO2-Zunahme hervorrufen würde: das heißt, welche Meinung auch immer sie vertreten, sie wäre nicht viel mehr wert als die eines Laien. Die meisten der wenige Dutzend Wissenschaftler weltweit, schätzt Prof. Richard Lindzen vom MIT, haben tatsächlich die Klimasensitivität bis zu einem Stadium untersucht, in dem man sie in einer Fachzeitschrift veröffentlichen kann. Sie haben ihre Ergebnisse aber nicht durch Messungen und Beobachtungen gewonnen, sondern durch bloßes Modellieren. Die Modelle simulieren eine Erwärmung in der Größenordnung, wie Mr. Steketee sie nennt, aber in den Modellen stecken zahlreiche Knackpunkte, von denen man weiß, dass sie die Klimawirklichkeit nicht genau wiedergeben. Im Einzelnen nehmen die Modelle an, dass, falls der Mensch und nur der Mensch der Grund für die Erwärmung ist, sich die höheren Atmosphärenschichten über den Tropen in etwa 7 bis 10 km Höhe dreimal so schnell erwärmen wie die Erdoberfläche, aber dieser tropische hochtroposphärische „Hot Spot“ wurde in 50 Jahren mit Messungen durch Radiosonden, Fallsonden aus hoch fliegenden Flugzeugen oder Satelliten nie entdeckt. [Auch ohne Messungen: ein solcher Vorgang hätte den totalen Zusammenbruch der gesamten tropischen Gewitterkonvektion zur Folge – ein Vorgang, der noch nie beobachtet wurde und auch gar nicht vorstellbar ist. Herr Puls von EIKE weiß sicher mehr darüber. A. d. Übers. nach einem Hinweis von einem Meteorologen]. Die Modelle simulieren auch, dass jedes Grad Erwärmung die Verdunstung auf der Erdoberfläche um 1 bis 3% zunehmen lassen würde, aber die tatsächlich beobachtete Zunahme liegt mehr bei 6%. Daraus lässt sich einfach folgern, dass das IPCC die Erwärmung, die durch den zusätzlichen Eintrag von Treibhausgasen verursacht wird,  um das Vierfache überschätzt hat. Wenn man diese wunderbare Übertreibung, die wiederholt in wissenschaftlichen Studien belegt wurde, worüber aber von Journalisten eines Schlages wie Mr. Steketee niemals berichtet wurde, einfach wegnimmt, würde die Klima„krise“ verschwinden.

7. Bei einer Erwärmung um 2 bis 3°C besteht das Risiko signifikanter Umwelt- und wirtschaftlicher Schäden.

Tatsächlich vertritt das IPCC gegenwärtig die Ansicht, dass eine Erwärmung um bis zu 2°C harmlos wäre und eher positive Auswirkungen hätte. Angesichts der Tatsache, dass  während der letzten 600 Millionen Jahre viel höhere Temperaturen als heute die Regel waren, gibt es keine wissenschaftliche Basis für die Behauptung, dass eine so geringe Erwärmung zu signifikanten Umwelt- und wirtschaftlichen Schäden führen würde. Allerdings ist ein signifikanter wirtschaftlicher Schaden schon jetzt zu verzeichnen, und zwar durch die teuren, aber nutzlosen Versuche der Regierungen, die „globale Erwärmung“ aufzuhalten.

8. Die Konzentration von Treibhausgasen hat von 1990 bis 2009 um 27,5% zugenommen.

Da die anthropogenen Effekte auf das Klima mit Ausnahme des CO2 zu vernachlässigen sind, braucht man sich nur mit der CO2-Konzentration zu befassen. Sie betrug 353 ppmv im Jahre 1990 und 390 ppmv heute. Dies ist eine Zunahme nicht um 27,5%, sondern um 10,5%.

9. Das arktische Meereis schrumpfte bis auf die drittkleinste Fläche seit Beginn von Satellitenbeobachtungen, kompensiert lediglich ein wenig durch die Zunahme des antarktischen Meereises.

Tatsächlich zeigt die globale Meereisbedeckung praktisch keine Änderung während der letzten 30 Jahre, weil der ziemlich rapide Eisverlust in der Arktis seit der Überwachung durch Satelliten durch ein fast genauso rapides Wachstums des Eises um die Antarktis kompensiert wurde. Als die sommerliche Eisausdehnung im September 2007 ihre geringste jemals beobachtete Ausdehnung aufwies, kam es nur drei Wochen später in der Antarktis zu einem 30-Jahres-Rekord der Eisausdehnung. Über das Rekordminimum wurde lang und breit berichtet, während über das Maximum kaum ein Wort verloren wurde.

10. Die globale Schneebedeckung geht zurück, vermutlich wegen des menschlichen Einflusses.

Tatsächlich gab es im Winter 2008/2009 einen neuen Rekord der Schneebedeckung, und die Chancen stehen gut, dass es in diesem Winter einen weiteren Rekord geben wird.

11. Der globale Meeresspiegel steigt, vermutlich wegen des menschlichen Einflusses.

Tatsächlich hat sich das Ausmaß des Meeresspiegelanstiegs nicht verändert, seit die Satelliten 1993 begannen, den Meeresspiegel verlässlich zu messen. Es ist der verstörende Anstieg um 1 Fuß[ ca. 30 cm] pro Jahrhundert – nicht viel größer als die 8 inches [ca. 20 cm] pro Jahrhundert durch den Tidenhub. Eine neue Studie hat bestätigt, was Meeresbiologen schon lange vermutet hatten: Korallenatolle wachsen einfach dem Licht entgegen, und einige davon haben einem soeben veröffentlichten Papier zufolge sogar an Landmasse hinzugewonnen. Professor Niklas Mörner [Nils Axel Mörner?], der den Meeresspiegel ein Drittel Jahrhundert lang studiert hat, sagt, dass es physikalisch gar nicht möglich ist, dass der Meeresspiegel noch stärker als mit der gegenwärtigen Rate steigt. Er rechnet in diesem Jahrhundert mit einem Anstieg um 4 bis 8 Inches [10 bis 20 cm], also weniger als im vorigen Jahrhundert. Seit dem Ende der letzten Eiszeit vor 11 400 Jahren ist der Meeresspiegel mit einer Rate um 4 Fuß [ca. 122 cm] pro Jahrhundert gestiegen. Inzwischen hat sich der Anstieg sehr verlangsamt, weil nahezu alles Festlandseis, das es damals bis in niedrige Breiten gegeben hatte, längst verschwunden ist.

12. Der Versicherung Munich Re zufolge gab es 2010 die zweithöchste Zahl von Naturkatastrophen seit 1980. 90% davon hängen mit Wetterereignissen zusammen.

Tatsächlich gibt es nur drei Gruppen versicherbarer Naturkatastrophen – meteorologische, epidemische und seismische (Vulkanismus, Erdbeben, Tsunamis usw.) Katastrophen. Außer beim Eintreten schwerer seismischer Katastrophen (wie z. B. der durch ein gewaltiges Erdbeben ausgelöste Tsunami im Jahre 2000) oder wenn große Pandemien große Verluste an Menschenleben fordern (dies war 2010 überhaupt nicht der Fall) verursachen extreme Wettervorgänge rund 90% dieser Katastrophen. Weil es sich beim Klima um ein mathematisch-chaotisches System handelt, variiert das Auftreten von Wetterkatastrophen stark von Jahr zu Jahr, und es gibt keinen vernünftigen Grund, die Ereignisse von 2010 der anthropogenen „globalen Erwärmung“ in die Schuhe zu schieben.

13. Die 2010 in Melbourne an einem Sonnabend gemessene Temperatur von 46,4°C lag um mehr als 3°C über dem bisherigen Rekord für den Monat Februar.

Der Februar ist in Melbourne der Hochsommermonat. Da sich der Planet seit 300 Jahren erwärmt hat, ist es keine Überraschung, dass Wärmerekorde der Temperatur von Zeit zu Zeit gebrochen werden. Allerdings wurden auch einige sehr spektakuläre Kälterekorde in 2010 gebrochen, und zwar Anfang 2010, als alle 49 zusammenhängenden Bundesstaaten der zentralen USA [= also außer Bundesstaaten wie Hawaii und Alaska] unter einer geschlossenen Schneedecke lagen, was seit Beginn regelmäßiger Satellitenaufzeichnungen vor 30 Jahren noch nie der Fall war, sowie im Dezember, der in Zentralengland der kälteste Dezember seit Beginn von Aufzeichnungen vor 352 Jahren war. Allerdings haben weder die extreme Hitze noch die extreme Kälte des Jahres 2010 irgendetwas mit der anthropogen verursachten „globalen Erwärmung“ zu tun; wie auch die Hitzewelle 2003 in Europa, der dem Vernehmen nach 35 000 Menschen zum Opfer fielen. Sie wurde bekanntermaßen durch eine ungewöhnliche Wetterkonstellation verursacht, die die Meteorologen „Blockierung“ nennen – also vergleichsweise seltene und stabile Hochdruckgebiete [über nördlichen Breiten],  die die Jetstreams aus ihrer normalen Position verdrängen und bestimmte Wettersysteme für Tage oder sogar einen Monat lang an Ort und Stelle festhalten. Es konnte bisher keine Verbindung zwischen Häufigkeit, Intensität und Dauer solcher Blockierungen und der anthropogenen „globalen Erwärmung“ gefunden werden.

14. In Moskau lag die Mitteltemperatur im Juli 2010 mehr als 2°C über dem bisherigen Rekord, und am 29. Juli war die Temperatur bis 38,2°C gestiegen.

Und die jemals gemessenen tiefsten Temperaturen wurden während der letzten 12 Monate an zahlreichen Stationen in den USA und Großbritannien registriert. Das Herauspicken einzelner Extremwetterereignisse, das nur in eine Richtung zielt, wenn es gleichzeitig tausend andere Ereignisse gibt, die in die andere Richtung gehen, ist weder seriöse Wissenschaft noch seriöser Journalismus.

15. Die Hitzewelle und die Waldbrände in Zentralrussland forderten mindestens 56 000 Todesopfer. Damit war es die schlimmste Naturkatastrophe der russischen Geschichte.

Noch mehr des Herauspickens, und die Bemerkung, dass die Waldbrände, die schlimmste Katastrophe in der Geschichte Russlands waren, ist fragwürdig. Intensive Kältewellen – wie z. B. General Januar und General Februar, die Korporal Hitler 1941 vor den Toren Stalingrads in die Knie zwangen – haben viele Male Hunderttausende Opfer in Russland gefordert.

16. In Pakistan kamen 1769 in den jemals beobachteten schwersten Überschwemmungen des Landes ums Leben.

Tatsächlich waren die Überschwemmungen nicht die schlimmsten jemals beobachteten: es war die schlimmste Überschwemmung seit 1980. Die Region war schon lange anfällig für Überschwemmungen. Katastrophale Überschwemmungen gab es in seltenen Intervallen, wenn ein blockierendes Hochdruckgebiet zusammen mit einem ungewöhnlich starken Abfluss von Schmelzwasser aus dem Himalaya zusammen fiel. Dann schwellen die zahlreichen Flüsse des Gebietes rasch an (Punjab, oder panj-aub, bedeutet „fünf Flüsse“). Die Überschwemmung trat also nicht infolge einer anthropogenen „globalen Erwärmung“, sondern infolge eines blockierenden Hochdruckgebietes auf.

17. Die Hurrikan-Saison im Nordatlantik war eine der stärksten im vorigen Jahrhundert.

Tatsächlich sagt Dr. Ryan Maue von der Florida State University, der den Accumulated Cyclone Energy Index, eine gleitende Zusammenzählung über 24 Monate von Häufigkeit, Intensität und Dauer aller tropischen Zyklone weltweit, dass dieser Index auf seinem niedrigsten Wert seit 30 Jahren und nahe dem absoluten Minimum der letzten 50 Jahre liegt. Seit 150 Jahren zeigt die Anzahl der Hurrikane, die auf das amerikanische Festland treffen, überhaupt keinen Trend: dies ist eine lange und zuverlässige Reihe, weil man natürlich keine komplexen Instrumente braucht, um ein solches Auftreffen zu dokumentieren.

18. Sogar zurückhaltende Wissenschaftler tendieren zu der Aussage, dass die anthropogen verursachte Klimaänderung dafür verantwortlich ist.

Zurückhaltende Wissenschaftler sagen nichts dergleichen. Selbst das zu Übertreibungen neigende IPCC hat wiederholt festgestellt, dass einzelne Extremwetterereignisse nicht mit der anthropogenen „globalen Erwärmung“ in Verbindung gebracht werden können. Insbesondere wäre es unvorsichtig von jedem Wissenschaftler, wenn er den Menschen die Schuld an den blockierenden Hochdruckgebieten, die für fast alle auf das Wetter zurückgehende Schäden 2010 verantwortlich waren, in die Schuhe schieben würde, obwohl diese Gebilde seit langem bekannte natürliche Phänomene sind.

19. Die Klimaänderung hat zu der Verringerung der Regenmenge um 20% in Teilen Südaustraliens während der letzten 40 Jahre beigetragen.

Klimaänderung begann vor 4567 Millionen Jahren, an jenem Donnerstag, an dem sich die Erde zum ersten Mal formiert hatte (wie es Prof. Plimer ausdrückt). Die Frage ist, ob eine anthropogene Klimaänderung zu der Dürre beigetragen hat. Interessanterweise hatte es in  jedem der letzten zwei Jahre schwere Regenfälle in zuvor von Dürre heimgesuchten Gebieten in Südaustralien gegeben. In Australien herrscht Wüstenklima: daher ist es keine Überraschung, dass es zu Dürreperioden kommt – manchmal auch für längere Zeit. Eine der längsten Aufzeichnungen über Dürre und Überschwemmungen, die wir haben, ist das Nilometer, das bis 5000 Jahre zurück reicht. Dürreperioden mit Ausmaßen weit jenseits dessen, was wir in der heutigen Zeit je gesehen haben, kamen häufig vor, und ganze Regionen in Ägypten wurden als Folge davon unbewohnbar. Ein Rückgang der Regenmenge um 20% in einer einzelnen Region kann daher nicht gut durch etwas anderes als die natürliche Variabilität des Klimas hervorgerufen worden sein.

20. Es gibt starke Beweise dafür, dass die „globale Erwärmung” die Buschfeuer rund um Melbourne verschlimmert hat.

Es gibt keinen solchen Beweis. Wie das IPCC wiederholt gesagt hat, ist die Zuordnung individueller, lokaler Extremwetterereignisse zur „globalen Erwärmung“ unzulässig.

21. Es gab eine ganze Reige außerordentlicher Hitzewellen mit großen Sprüngen zu neuen Extremwerten der Temperatur. Das begann 2003 in Europa und setzte sich rund um die Welt fort bis zum Höhepunkt in Russland im vorigen Jahr. In mehr als 17 Ländern wurden 2010 Temperaturrekorde gebrochen, und „man muss schon seine Glaubwürdigkeit aufs Spiel setzen, wenn man sagt, dass dies nichts mit der Klimaänderung zu tun hat“.

Die Hitzewelle 2003 in Europa wurde bekanntlich durch ein blockierendes Hochdruckgebiet verursacht, ähnlich dem, das zu der Hitzewelle mit den Rekordtemperaturen 2010 in Russland führte. Dieses hielt den Monsun in Pakistan lang genug in Position, so dass es dort zu den Überschwemmungen gekommen war. Man muss wirklich seine Glaubwürdigkeit aufs Spiel setzen, wenn man sagt, dass dies irgendetwas mit der anthropogenen „globalen Erwärmung“ zu tun hat. Zwar könnte diese Hitzewelle europaweit 35 000 Opfer gefordert haben, aber eine dreitägige Kältewelle in Großbritannien forderte 2009 allein in einem einzigen Land 21 000 Opfer. Die Auswirkungen von weltweit wärmerem Wetter dürfte also die Anzahl der Todesopfer reduzieren und nicht ansteigen lassen. Dies ist auch der Grund dafür, warum bestimmte Perioden wie das Klimaoptimum des Holozän vor 8000 bis 6000 Jahren, als es rund 3°C wärmer war als heute, als „Optima“ bezeichnet werden: Wärmeres Wetter ist für die meisten Lebensformen – einschließlich der Menschen –  besser als kälteres Wetter.

22. Seit 20 Jahren gab es mehr Wärme- als Kälterekorde.

Dies ist ein anderer Weg zu behaupten, dass die Temperaturen heute generell höher sind als vor 20 Jahren. Da es tatsächlich eine kleine Erwärmung gegeben hat, gab es mehr Wärme- als Kälterekorde. Nicht sehr überraschend, aber auch nicht sehr alarmierend: die bloße Tatsache der Erwärmung besagt nichts über den Grund für diese Erwärmung, vor allem, wenn man sich vor Augen führt, dass der Grad der Erwärmung der letzten Dekaden nicht größer war als während zwei früherer Perioden über 25 Jahre während der letzten 160 Jahre.

Selbst wenn die Emissionen von Treibhausgasen auf wenig mehr als dem heutigen Stand stabilisiert werden können, wird es eine weitere Erwärmung um 2°C geben – viermal so viel wie die Zunahme während der letzten 30 Jahre.

Dieser Wert von 2°C scheint – wie viel zu viele andere in diesem bedauernswert fiktiven Artikel – aus sehr dünner Luft gegriffen worden zu sein. Lassen Sie uns die Mathematik durchführen. Wir können alle Einflüsse des Menschen mit Ausnahme des CO2 ignorieren, weil sie sich gegenseitig bisher aufgehoben haben, wie die Tabelle der „Strahlungsantriebskräfte“ im jüngsten, alle fünf Jahre erscheinenden Zustandsbericht des IPCC zeigt. Im Jahre 1750, vor der industriellen Revolution, lag die CO2-Konzentration bei 278 ppmv. Heute liegt sie bei 390 ppmv. Nimmt man die Hauptschätzung aus dem Kasten 10.2 auf Seite 798 des Zustandsberichtes von 2007, und addiert/subtrahiert man eine Standardabweichung, kann man die folgende einfache Gleichung für die gesamten in 2000 Jahren zu erwartende Erwärmung herleiten, nachdem das Klima in vollem Umfang das Gleichgewicht erreicht hat, nachdem es sich an die Menge unserer Kohlenstoffemissionen angepasst hat:

?Tequ = (4.7 ± 1) ln(390/278) F°

Lassen Sie uns nun allgemein eine Standardabweichung dazu addieren: dann kommt als die vom IPCC erwartete Erwärmung als Ergebnis unserer CO2-Emissionen, die seit 1750 5,7 mal der natürliche Logarithmus der proportionalen Zunahme der CO2-Emissionen während einer Periode von 260 Jahren is, ein Wert von 1,9°C heraus. Selbst diese gesamte Erwärmung von 1750 bis heute liegt noch unter den 2°C, die nach den Behauptungen von Mr. Stetekee auf der Lauer liegen. [Hinweis: Im Original lautet dieser Absatz:

Let us generously go one standard deviation above the central estimate: thus, a high-end estimate of the total equilibrium warming the IPCC would expect as a result of our CO2 emissions since 1750 is 5.7 times the natural logarithm of the proportionate increase in CO2 concentration in the 260-year period: i.e. 1.9 C°. Even this total since 1750 to the present is below the 2 C° Mr. Stetekee says is lurking in the pipeline.

 Mangels ausreichender Fachkenntnisse kann ich keine Garantie übernehmen, diesen Absatz dem Sinn nach korrekt übersetzt zu haben. A. d. Übers.]

Weiter: falls die anthropogene “globale Erwärmung” wirklich ein so großes Problem sein sollte wie vom IPCC behauptet, müssen wir folgern, dass die gesamte beobachtete Erwärmung seit 1750 – also etwa 1,2°C – unsere Schuld ist. Also müssen wir diese 1,2°C von der Erwärmung um 1,9°C beim Gleichgewicht abziehen. Ergebnis: Lediglich eine weitere Erwärmung um 0,7°C wird bis zum Gleichgewicht noch erfolgen.

Allerdings haben viele Klimaextremisten Studien veröffentlicht, die besagen, dass dieses Gleichgewicht der Erwärmung in 1000 Jahren noch nicht erreicht sein wird (oder sogar, in einem besonders fatalen Papier, für 3000 Jahre). Das IPCC selbst erwartet bis zum Jahr 2100, dass das Gleichgewicht lediglich 57% erreicht hat: der Rest wird so lange dauern, dass nicht einmal die Kinder unserer Kinder noch da sein werden, um dies festzustellen, und die restliche Erwärmung wird sich so allmählich abspielen, dass alles und jeder Zeit hat, sich anzupassen.

Unter dem Strich: bis zum Jahr 2100 kann man also nicht von 2°C weiterer „globaler Erwärmung” ausgehen, sondern höchstens um 0,4°C. Die Wahrheit ist, wie üblich in der Klimadebatte, wesentlich weniger aufregend als die Lüge.

24. Die Anpassung an die Konsequenzen der “globalen Erwärmung” wird umso schwieriger, je länger wir warten.

Auch diese Behauptung hat keinerlei wissenschaftliche Grundlage. Die Kosten der Anpassung sind hauptsächlich mehr eine ökonomische als eine klimatologische Frage. Jede seriöse ökonomische Analyse (hier schließe ich die diskreditierte Propaganda von Stern aus, und zwar wegen seiner absurden Behauptungen einer „globalen Erwärmung“, die die extremsten Positionen des IPCC noch weit übersteigen) zeigt, dass die Kosten für Abwarten und Anpassung an jedwede widrigen Konsequenzen, die sich aus der „globalen Erwärmung“ ergeben könnten, selbst bei der vom IPCC angenommenen, aber bisher durch Messungen nicht bestätigten Rate, um ganze Größenordnungen niedriger und kosteneffektiver ausfallen würden als alle Versuche, die weitere „globale Erwärmung“ durch die Besteuerung und Regulierung von CO2-Emissionen verhindern zu wollen. Daraus folgt, dass die Anpassung an die Konsequenzen der „globalen Erwärmung“ desto einfacher und billiger wird, je länger wir warten: weil wir uns dann nämlich nur an die wenigen und harmloseren Konsequenzen anpassen müssen, so diese überhaupt auftreten, und nicht vorher, und auch nur dort, wo und wann sie auftreten.

Link: http://wattsupwiththat.com/2011/01/09/monckton-skewers-steketee/

Übersetzt von Chris Frey für EIKE

Die ganze Arbeit können Sie als pdf Datei herunterladen

Related Files




Klimaerwärmung in Deutschland nicht nachweisbar: Der DWD hantiert mit falschen Daten – Eine Bestandsaufnahme der Deutschlandtemperaturen

Realer Temperaturverlauf für Deutschland

Nicht nur Großflughäfen und Städte haben einen Wärmeinseleffekt, der die Temperaturdaten in die Höhe treibt und damit verfälscht. Der WI steht für Einflüsse des Menschen auf seine Umgebung, die nicht temperaturneutral sind, da sie entweder direkt Wärme ausbringen oder indirekt das Wärmeverhalten der Landschaft und damit dessen Wärmespeicherung und/oder Abstrahlung ändert, einwirken. Hierzu zählen beispielsweise Flächenversiegelung/-umwandlung, Energieverbrauch, Verkehr, Industrialisierung, mehr Komfort im Haushalt,…

Für die tägliche Temperaturerfassung eines Ortes ist der WI nicht von Bedeutung. Denn die ortsgebundene Temperaturmessung soll ja dazu dienen, den Temperaturwert vor Ort aktuell zu bestimmen. Der WI ist aber von immenser Bedeutung, werden Vergleiche zu anderen Messstationen oder gar Vergleiche zu früheren Epochen, in denen es z.B. keine Jets gab oder das Landschaftsbild ein ganz anderes war, erstellt. Werden hier keine WI-Korrekturen vorgenommen, werden die berühmten Äpfel mit Birnen verglichen und genau dies ist in der/den Datenreihen des DWD, die die Deutschlandtemperaturen von 1881 – 2009 zeigen, der Fall.

Auf Anfrage konnte uns der DWD keine Aussage über den WI seiner Messstationen machen. Er teilte lediglich mit, dass dieser in der Fläche in Deutschland nicht über 0,1°C läge und damit unbedeutend sei. Nun, wir wollten dies genauer wissen und untersuchten, wie der WI-Anteil aus den DWD-Deutschlandwerten herauszurechnen ist. Hierzu ist es notwendig, eine Referenzstation zu finden, die eine lange Temperaturaufzeichnung vorweisen kann, weitab von Zivilisationseinflüssen liegt und die sich über die Jahre überschaubar änderte (es gibt keine Messstation, die sich über 100 Jahre nicht ändert). Eine solche Referenzstation, die auch der DWD als Referenzstation benennt, ist die Station Hohenpeißenberg (HPB).

Abbildung 1 zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends). Diese stimmt exakt mit dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus überein, der in 2003 sein (im Mittel) 208-jähriges Aktivitätsmaximum hatte, als ganz Europa unter einem Jahrhundertsommer stöhnte. Folgende Abbildung zeigt beispielsweise seinen Einfluss auf die arktische Eisbedeckung.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 2, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

Es gilt nun, die Deutschlandtemperaturwerte mit der Referenzstation HPB in Relation zu setzen. Dabei ist anzumerken, dass beide Datenreihen vom DWD stammen und somit offiziellen Charakter besitzen. Die Relation der Daten ergibt folgende Reihe.

Abbildung 3 zeigt die Datenreihe D/HPB im Zeitraum 1881 – 2009. Für Deutschland liegen erst ab 1881 Daten vor, daher kann die Datenreihe erst 1881 beginnen. Die Datenreihe zeigt (die Zahlen 1 – 126 dienen zum Vergleich mit der Excel-Liste der Anlage), dass sich die Werte von HPB und Deutschland mehr und mehr angleichen (Trend ist negativ). D.h., auf HPB wird es vergleichsweise (in %) mehr warm. Dies liegt daran, dass sich kalte Gebiete, fernab von Zivilisations- also WI-Einflüssen, relativ schneller erwärmen (warum? – weiter im Text). Es lassen sich drei Bereiche erkennen, in denen die Werte jeweils um einen gemeinsamen Mittelwert pendeln.

In der obigen Relationskurve ist der WI „verborgen“ und nicht in der Referenzkurve (die als Referenz nur einen kleinen WI hat – 0 kann er nicht sein, weil, wie gesagt, keine Station über 100 Jahre unverändert bleibt), sondern in der Deutschlandkurve des DWD. Der WI ist in der Dämpfung (oder Spreizung, je nach Betrachtung) des DWD-Temperaturverlaufs zu HPB enthalten, weil die DWD-D-Daten relativ weniger steigen. Die durch den WI höheren Temperaturen dämpfen dort den Erwärmungstrend, weil sie ihn quasi bereits vorweg genommen haben.

Um den WI in den drei in Abbildung 3 zu sehenden Zeiträumen zu ermitteln (für die Zeiträume 2 und 3 berechnet), wurde folgendermaßen vorgegangen:

·         Ermittlung der jeweiligen Mittelwerte für D und HPB in den o.g. drei Zeiträumen (1881 – 1952, 1953 – 1982 und 1983 – 2009)

·         Ermittlung der jeweiligen %-Änderung des Folgezeitraums zum Vorgängerzeitraum

·         Unterschied ermittelt HPB zu D

·         WI im 2. und 3. Zeitraum berechnet

·         WI im 1. Zeitraum wurde mit 0,2°C sehr konservativ geschätzt. Grund des WI: Andere Verteilung der Stationen, andere Messsysteme, andere Flächen – Deutschland wurde kleiner (um die Hälfte) und große Landschaftsflächen fielen weg, Beginn der industriellen Landschaftsveränderung, …

·         WI HPB von 1881 – 2009 mit 0,3°C bestimmt.

Dass auch HPB nicht WI-los sein kann, wurde bereits geschildert. Der Grund für die 0,3°C ist wie folgt: Etwa 1940 ist die Klimastation auf dem HPB umgezogen. Der Leiter hat damals gefordert, Parallelmessungen durchzuführen, was aber nicht geschah. Die alte Wetterstation wurde den Mönchen weggenommen und bekam ein eigenes Gebäude beim Friedhof, das ständig erweitert und beheizt wurde. Heute stehen dort Gebäudekomplexe. Im Kloster zuvor wurde nur ein Aufwärmraum beheizt. Außerdem wurde allmählich ein stetig sich vergrößernder Parkplatz angelegt, der zugleich auch als Parkplatz für den Friedhof in der Nachbarschaft dient. Fassungsvermögen geschätzt, etwa 100 Autos. Daraus folgt: Bis 1940 hatte der HPB keinen WI. Dann hat er einen entwickelt, mit zunehmender Bebauung. Der Berg ist also nicht WI-frei, wie er allgemein in der Literatur und vom DWD dargestellt wird.

Für die drei Zeiträume ergibt sich ein dynamischer WI:

Zeitraum 1: 1881 – 1952 = 0,2°C

Zeitraum 2: 1953 – 1982 = 0,3°C

Zeitraum 3: 1983 – 2009 = 0,7°C

Der Gesamt-WI ist die Steigung über alle drei Zeiträume.

WI über alle drei betrachteten Zeiträume von 1881 – 2009 = 1,2°C

Die Berechnung ist in der Excel-Liste mit den Quelldaten im Anhang zu sehen. Mit den von uns ermittelten dynamischen WI-Werten ergibt sich die für Deutschland korrekte Vergleichskurve der Temperaturdaten von 1881 – 2009 (Abbildung 4).

Abbildung 4 zeigt den Temperaturverlauf für Deutschland nach Daten des DWD (rosa), ohne Berücksichtigung der sich veränderten Rahmenbedingungen für Deutschland von 1881 – 2009. Die blaue Kurve zeigt die von uns ermittelte reale, WI-bereinigte Temperaturvergleichsreihe für Deutschland im selben Zeitraum. Der grüne Trendverlauf zeigt den dynamischen WI, der für die drei Zeiträume ermittelt wurde.

Die realen Vergleichswerte (blaue Kurve) zeigen keine nennenswerte Temperaturerhöhung für Deutschland im Betrachtungszeitraum. Die Maximaltemperatur wurde in den 1930-Jahren erreicht, was i.ü. mit den Temperaturdaten in den USA übereinstimmt. Dort lagen die höchsten Temperaturen ebenfalls in den 1930-Jahren (Abbildung 5).

Die Berechnung ergab, dass der WI dynamisch ansteigt, was auch einleuchtend ist, da der WI bekanntlich auf Flächenversiegelung, Flächenumwandlung, Energieverbrauch, Verkehr, Industrialisierung, mehr Komfort im Haushalt, eben human-influences basiert und diese werden und wurden von Jahr zu Jahr größer, und folglich der WI ebenfalls größer.

Abbildung 5 zeigt den Temperaturverlauf in den USA nach Daten der amerikanischen Wetterbehörde NOAA (National Oceanic and Atmospheric Administration). Die höchsten Temperaturen lagen auch dort Mitte der 1930-Jahre.

In unserem Vergleich der Abbildung 4 beginnt die Datenreihe ab 1881, weil ab diesem Jahr beim DWD durchgängige und verlässliche Temperaturdaten für Deutschland vorliegen, die uns der DWD übermittelte. Der DWD selbst lässt seine Datenreihe indes erst ab 1891 beginnen (Abbildung 6). Darum in Abbildung 7 der direkte Vergleich zu den DWD-Daten von 1891 – 2009.

Abbildung 6 (Quelle DWD) zeigt die mittlere Jahrestemperatur in Deutschland von 1891 – 2009. Für den Betrachter ergibt sich der Eindruck, dass Ende des 20. Jahrhunderts und zu Beginn des 21. Jahrhunderts die Temperaturen außerordentlich hoch ausfallen und auch in den „Kältejahren“ 2008 und 2009 die Temperaturen immer noch über dem Durchschnitt liegen und damit zu warm wären. Unsere Berechnung der realen Vergleichstemperaturen ergab, dass seit 10 Jahren die mittleren Temperaturen in Deutschland unter dem Trend(gestrichelte Trendkurve) liegen und damit zu kalt sind.

Abbildung 7 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und EIKE von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI aus Abbildung 4, haben wir, wie dies beim IPCC üblich ist, den Fehlertoleranzbereich angegeben (grüner Bereich). Auch bei der Datenreihe ab 1891, wieder der Quervergleich mit dem Temperaturniveau der USA aus Abbildung 5. Die EIKE-Deutschlandtemperaturkurve zeigt exakt das gleiche Bild: Die höchsten Temperaturen im Betrachtungszeitraum lagen Mitte der 1930-Jahre. Um 1950 lagen die Temperaturen ebenfalls über denen der letzten 30 Jahre und das Temperaturniveau von heute ähnelt dem zu Beginn des 20. Jahrhunderts. Allerdings sind solche Meldungen natürlich nicht geeignet, die Theorie einer menschen-gemachten Erwärmung, die auf sog. Treibhausgasen basiert, zu unterstützen oder gar zu beweisen. Zur Temperaturentwicklung, siehe auch den aktuellen Bericht von Antony Watts  vom 26.11.2010 (http://wattsupwiththat.com/2010/11/26/examination-of-cru-data-suggests-no-statistically-significant-warming/).

Die Basisüberlegung zum Berechnen des WI liegt darin (siehe oben), dass bei Erwärmung sich die Daten zur Referenzstation mehr und mehr angleichen, folglich muss auch der Umkehrschluss gelten, dass sich bei Abkühlung, die Temperaturen relativ mehr und mehr wieder voneinander entfernen. Da wir in Deutschland seit mehreren Jahren eine Abkühlung zu verzeichnen haben, kann dies überprüft werden. Dabei wurde nach zwei Kriterien vorgegangen:

1.   Beginn der Erwärmungsphase, anhand der diversen national (siehe DWD-Kurve in Abbildung 6) und internationalen Temperaturreihen, ab 1980. Dies ist somit das erste Betrachtungsjahr zur Überprüfung der Aussage, dass sich auf Grund des WI in einer Erwärmungsphase die Werte zur Referenzstation angleichen und damit das Verhältnis abnimmt.

2.   Ende der sonnenbasierten Erwärmungsphase in 2003. Hier hatte der Hauptsonnenzyklus sein (im Mittel) 208-jähriges Maximum und die NASA-Satellitenwerte der gemessenen und somit realen Sonnenaktivität, hatten um diesen Zeitraum ihr Maximum, wie die folgende Abbildung belegt:

Abbildung 8 zeigt die rekonstruierte Sonnenaktivitätskurve (blau, PMOD = Physikalisch-Meteorologisches Observatorium Davos) und die von NASA-Satelliten direkt gemessene Sonnenaktivitätskurve (rot, ACRIM = Active Cavity Radiometer Irradiance Monitor), Quelle: (http://bobtisdale.blogspot.com/2008/08/reference-graphs-total-solar-irradiance.html). Deutlich zeigen die direkten Satellitenmessungen, dass die solare Aktivität ab 1980, als global die Temperaturen (moderat) zu steigen beginnen, deutlich anzieht und unmittelbar nach der Jahrtausendwende, mit dem de Vries/Suess-Hauptsonnenzyklus ihr Maximum erreichen und anschließend, wieder parallel zu den Temperaturen, deutlich fallen.

Unter Anwendung beider Punkte ergeben sich fünf 6-Jahresblöcke. Die Überprüfung ergibt folgende Tabelle:

Dazu der Verlauf:

Abbildung 9 zeigt ganz deutlich, dass bis 2003, also in der gesamten sonnenbasierten Erwärmungsphase, das Verhältnis Deutschlandtemperatur zur Referenzstation (D/HPB) fällt und seit Beginn der Abkühlungsphase wieder ansteigt. Die Trendkurve bestätigt in eindrucksvoller Weise, den seit Beginn des 21. Jahrhunderts beobachteten Temperaturrückgang. Die Kurve steigt dabei viel schneller (doppelt so schnell), als sie vorher abfiel, d.h. nichts anderes, als dass wir derzeit einen schnellen Temperaturrückgang erleben, der durch den WI der Städte und Landschaftsveränderung gemindert wird und sich daher in den diversen Temperaturkurven des DWD nicht wiederfindet, aber von uns allen bereits erlebt  wird – der letzte kalte und lange Winter und das insgesamt sehr kalte Jahr 2010. Die Kurve passt auch zu den Aussagen der NASA, russischer Forscherteams (http://de.rian.ru/science/20100423/126040500.html) und des SSRC (Space and Science Research Center)>zur erwartenden Sonnenaktivität und der daraus resultierenden Kälteepoche, die uns bevorsteht.

Fazit – Die Erwärmung ist vorbei

Mit einem dynamischen WI von derzeit +1,2°C liegen die heutigen Temperaturen auf dem Niveau zu Beginn der Messaufzeichnungen in den 80-Jahren des 19. Jahrhunderts, also auf einem Niveau, welches kurz nach den letzten Kälteepoche, die in der Wissenschaft als die “Kleine Eiszeit“ bekannt ist und bis ca. 1850 andauerte, erreicht wurde. Dies deckt sich übrigens mit der Aussage des Leiters der Wetterstation Ostalbwetterwarte:

„Zusammenfassend kann man sagen: Das vergangene Frühjahr war ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren“.>

Quelle: “Das Wetterglas“ Nr. 49 (http://www.wetterglas.de/Wetterglas/wg_49.PDF), und damit so kalt wie am Ende der “Kleinen Eiszeit“, der kältesten Epoche seit 2.000 Jahren!

Es ist daher dringend geboten, dass der DWD seine Temperaturdaten der Realität anpasst und Politik, Medien und insbesondere der Bevölkerung das wahre Temperaturniveau mitteilt. Und zwar das, was wohl jeder bereits wahrgenommen hat, dass es kälter geworden und die Zeit der Warmperiode vorbei ist und wir für die nächsten Jahrzehnte, wegen dem beobachteten starken Rückgang in der Sonnenaktivität (Abbildung 8) deutlich fallende Temperaturen bekommen.

Für die Politik ist es an der Zeit, das Gespenst der anthropogenen CO2-basierten Klimaerwärmung dorthin zu verfrachten, wo es hingehört, auf den Müllhaufen falscher (vermeintlich) wissenschaftlicher Theorien – da abgekoppelt von jeglicher beobachteter Realität und sich wieder den Themen zuwendet, die für unser Land und für unsere Gesellschaft essenziell sind. Bildung und Wissen sind hiervon nur zwei Begriffe. Eine Klimakönigin braucht unser Land nicht. Die Zeiten der Monarchie sind schon lange vorbei, wie die globale Erwärmung.

 

Der schleichende WI beim DWD, Zusammenfassung unserer beiden ersten Beiträge

Als Anhang für den eiligen Betrachter, eine kurze Zusammenfassung unserer ersten Beiträge, aus denen ersichtlich wird, warum der DWD in seinen Messreihen und damit Messstationen einen gemittelten WI von derzeit 1,2°C hat, der seine ganze Messreihe verfälscht.

Nach Angeben des DWD vom 10.06.2010 besteht sein Hauptamtliches Netz aus 182 Wetterwarten und an 531 Stationen werden nach unseren Informationen Lufttemperatur und- feuchte gemessen. Wir hatten 130 Messstationen des DWD an dessen eigenen Vorgaben für die Aufstellung und Betrieb solcher Stationen gespiegelt und dabei festgestellt, dass allein nach diesen Kriterien ca. 40% ungeeignet sind. Anbei einige Beispiele:

 

 

Eingangs hatten wir erwähnt, dass vermehrt Flughafenstationen in die Datenreihen einfließen. So lag allein 2009 der Anteil der „Flughafenmessstationen“ im globalen Temperaturnetzwerk des GHCN (Global History Climate Network), welches die globalen Temperaturreihen generiert, bei 41%! Somit sind deren Daten über globale Temperaturtrends ungeeignet. Bei näherer Betrachtung ist es logisch, dass Temperaturmessstationen auf Flughäfen, mit ihren vielen heißen Triebwerksabgasen für Messwerterfassungen im Zehntel-°C-Bereich ungeeignet sind. Kein Hausbesitzer käme auf die Idee, die Temperatur eines Wohnraumes unmittelbar an den Heizkörpern abzugreifen! Der DWD aber tut dies bei seinen Flughafenmessstationen.

WI auf Großflughäfen

Zur Qualifizierung und Quantifizierung ist zu beachten, wo sich die Temperaturmessstation auf dem Flughafengelände befindet, wie groß der Flugbetrieb, also die Flugbewegungen sind und welche Luftturbolenzen durch den Flugbetrieb auftreten. Die Höhe des Flugbetriebes bestimmt das Maß für den Wärmeeintrag der rund 600°C heißen Strahltriebwerksabgase in die Umgebungsluft. Die Luftturbolenzen zeigen, wie sich diese heißen Luftschichten verteilen und wie groß ihr Einzugsgebiet ist und der Aufstellort bestimmt, inwieweit die Messstation von diesen Turbolenzen oder sogar direkt von den heißen Abgasstrahlen der Jets beaufschlagt wird, wodurch sich in allen Fällen, der Messwert erhöht, also verfälscht.

Zur Bewertung der Luftturbolenz werden die in der Luftfahrt gefürchteten Wirbelschleppen herangezogen. Diese werden an den Tragflächenenden von Flugzeugen infolge des unterschiedlichen Drucks an Flügelunter- und Flügeloberkante erzeugt. Die Höhe der Druckdifferenz hängt von der Flugzeugeigengeschwindigkeit, dem Tragflächenprofil und dem Anstellwinkel ab. Die Stärke der Wirbel vom Flugzeuggewicht. Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören und es so zu einem Strömungsabriss kommen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten.

 

 

Wo liegt die DWD-Temperaturmessstation auf dem Flughafen Frankfurt?

 

Auch auf Berlin-Tegel oder London-Heathrow ergibt sich prinzipiell das gleiche Bild.

Abbildung 18 links zeigt die Temperaturmessstation auf Berlin-Tegel (roter Pfeil). Gut erkennbar, dass die Station unter 100m vom Rollfeld entfernt liegt und ca. 270m von der Start- und Landebahn. Abbildung rechts zeigt die Temperaturmessstation auf London Heathrow (roter Pfeil). Mit einem Abstand von knapp 200m ist die Wetterstation zwar grundsätzlich besser platziert, als in Frankfurt Rhein-Main, jedoch ist auch hier der Abstand zu den heißen Luftturbulenzen auf Grund der Wirbelschleppen viel zu gering. Es ist festzuhalten, dass die Wetterstation deutlich zu hohe Werte liefert (die Mitteltemperatur lag 2009 in Heathrow bei 11,9°C, gegenüber 9,17°C der Jahresmitteltemperatur von Großbritannien). Ein Unterschied von gut 2,5°C, was dem WI-Wert von Frankfurt Rhein-Main sehr nahe kommt.

Darüber hinaus hat der DWD zum 01. April 2001 (kein Aprilscherz) die Datenerfassungsmethode grundlegend geändert. Bis zu dem Datum wurde am Tag dreimal gemessen  (um 7,30 Uhr, 14,30 Uhr und 21,30 Uhr – letzter Wert wurde doppelt gewertet, weil man sich den vierten Wert in der Nacht sparen wollte) und seither stündlich. Wegen der starken Asymmetrie des Temperaturtagesganges können beide Verfahren grundsätzlich keine gleichen Ergebnisse liefern. Durch das neue Verfahren werden die Mitteltemperaturen um mindestens 0,1°C autom. angehoben, obwohl sich an den gemessenen Temperaturen überhaupt nichts ändert.

Die Datenreihe zeigt die Temperaturabweichung (nach oben) der DWD-Station in Berlin-Dahlem nach der alten und nach der neuen Methode.

Nicht nur, dass der DWD offensichtlich mit Taschenspielertricks die Temperaturen künstlich in die Höhe treibt, seine eigenen Vorgaben für die Aufstellung und den Betrieb von Wetterstationen missachtet und nicht einmal den WI seiner eigenen Stationen kennt, scheint er nicht einmal wahrzunehmen, was er eigentlich misst und was er womit vergleicht.

Links zu den WI-Artikeln Teil 1 und Teil 2

http://www.eike-klima-energie.eu/klima-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/?tx_ttnews[pointer]=2

und

http://www.eike-klima-energie.eu/klima-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/?tx_ttnews[pointer]=1

 

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

Anlage

In der Dateianlage finden Sie die Excel-Liste der Jahreswerte und der WI-Berechnung

Related Files