1

Die Sonne bringt Licht ins dunkel – Was die Erdtemperaturen wirklich bestimmt, Teil 3

Teil 3: Warum und wie El Niño das Wettergeschehen in Europa und Nordamerika steuert

Teil 3 zeigt, wie die Sonne ihre Energie auf die irdischen Wettersysteme einprägt. Die physikalischen Grundlagen werden dargelegt, über die die Auswirkungen von El Niño-Ereignissen global wirken und wie das Wettergeschehen (über die NAO) in Europa und Nordamerika diesen Parametern folgt.

 

Bleibt noch die Frage zu klären, wie die in den Teilen 1 und 2 gezeigte Sonnenaktivität ihren Einfluss sozusagen umsetzt? Hier geben die Antwort, die Passatwinde (englisch: Trade Winds), also die Großraumwetterlage, die durch die Hadley-Zellen bestimmt wird. Die Passatwinde sind ein beständiges Windsystem, welches sich auf beiden Seiten des Äquators bis zum 24. Breitengrad ausbildet. Es liegt damit im Bereich der Hadley-Zellen und unterteilt sich in den Nordost-Passat (Nordhalbkugel) und in den Südost-Passat (Südhalbkugel). In der Wissenschaft ist unstrittig, dass die Passatwinde durch die Sonne entstehen und ihre Ausbildung und Stärke von der Sonnenscheindauer und -Stärke abhängt. Durch erwärmte, aufsteigende Luftschichten (Tiefdruckgebiet entlang der innertropischen Konvergenzzone) die an der Tropopause vom Äquator weg strömt und ca. 30° Nord oder Süd wieder zu Boden fällt (Hochdruckgebiet) entsteht ein Druckgefälle, wodurch sich Ausgleichströmungen zwischen den Hoch-/Tiefdruckgebieten bilden. Durch die Corioliskraft werden sie entsprechend abgelenkt.

 

Abb.23 (Quelle) zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung und dies ist der Ansatzpunkt, wie die Sonne neben ihrer Strahlungsleistung ihren Einfluss auf das irdische Wettersystem umsetzt. Seit Svensmark gibt es eine These, wie die solare Aktivität die Bewölkung beeinflusst. Den Einfluss des Polfeldes (Hale-Zyklus) auf die Wolkenbedeckung hat der Autor in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ gezeigt.

Da die Passatwinde Ausdruck der Hadley-Zellen sind und diese in einem Band zwischen ±30° um den Globus verlaufen, wird der unmittelbare solare Einfluss auf die Hadley-Zellen untersucht.

Die Hadley-Zelle ist ein wesentlicher Bestandteil der atmosphärischen Zirkulation. Sie entsteht durch die meridional unterschiedliche Sonneneinstrahlung und dem daraus resultierenden Energietransport von den Tropen zu den Polen. Diese thermisch angeregte Zirkulation reicht jedoch im ersten Schritt nur bis zum 30-Breitengrad, weil dort die Strahlungsenergie der Sonne deutlich abfällt (Abb.25). Die daraus entstehende Hadley-Zelle ist als globale (verläuft um den ganzen Globus) Vertikalzirkulation zwischen dem Hochdruckgürtel der Subtropen und der äquatorialen Tiefdruckrinne ausgebildet. Die Hadley-Zelle kann näherungsweise als ein in sich abgeschlossenes System betrachtet werden (Abb.24).

 

Abb.24: Über der ITCZ (Innertropische Konvergenzzone) steigt aufgrund der Konvektion warme und feuchte Luft auf, wobei dort ein Tiefdruckgebiet entsteht. Die Luft expandiert, kühlt dabei ab, was zur Wolkenbildung führt. Durch die Corioliskraft wird die Luft abgelenkt. Im Bereich des Subtropenhochdruckgürtels sinkt die kalte und trockene Luft (schwerer) ab, wodurch am Boden ein Hochdruckgebiet entsteht. Die sich dabei erwärmende Luft nimmt über den Ozeanen große Mengen an thermischer Energie in Form von fühlbarer und latenter Wärme (Luftfeuchte) auf und fließt als Nord/Ost-Passat zum Äquator zurück. Der übrige meridionale Energietransport findet über die sich anschließenden Zellen durch horizontale zyklonale (entgegen dem Uhrzeigersinn drehende) und antizyklonale (mit dem Uhrzeigersinn drehende) Zirkulation statt. In der Ferrel-Zelle wird die Energie durch die Westwinddrift abgeführt. Diese entsteht aus thermodynamischen Gründen wegen des Temperaturgegensatzes der Luft von ca. 20K zwischen 30° und 60°-Breite.

Wie Untersuchungen zeigen, hat sich die Hadley-Zelle im Zeitraum der moderaten Erwärmung zwischen 1979 und 2005 (Anstieg des Hauptsonnenzyklus und dem Brückner-Zyklus) um 5-8 Breitengrade ausgedehnt und sich deren Volumen, da auch die Tropopause wegen der erhöhten Konvektion durch die Wärmeflüsse um einige Zehnmeter erhöhte, um ca. 5% vergrößert, D. J. Seidel et al. (2008), ”Widening of the tropical belt in a changing climate“, Nature Geoscience 1, 21-24.

 

Abb.25 zeigt das Jahresmittel der Energieflüsse der Atmosphäre in Abhängigkeit von der geographischen Breite nach Häckel, 1990. Neben der Strahlungsbilanz dominieren die Flüsse von sensibler und latenter Wärme (Luftfeuchte). Die Advektion von Wärme durch die Luft, verhindert die Auskühlung der Pole. Gut zu sehen, wie Energie meridional transportiert wird, Quelle: Häckel, 1990, “Meteorologie“. Bis etwa zum 25. Breitengrad ist die Strahlungsenergie konstant und am größten. Ab dem 30-Breitengrad fällt der Energiestrom der Strahlungsbilanz deutlich ab.

Die Wissenschaftler Xiao-Wei Quan et al. untersuchten, wie sich die Hadley-Zelle seit den 1950-Jahren veränderte “Change of the Tropical Hadley Cell Since 1950“. Abb.26 entstammt ihrer Untersuchung. Dieser wird aus der gemittelten Windgeschwindigkeit der 200 hpa-Höhe, minus der gemittelten Windgeschwindigkeit in der 850 hpa-Höhe gebildet und ist somit ein Maß für die Luftmassengeschwindigkeit und des Luftmassenstroms in der Hadley-Zelle.

 

Abb.26 zeigt den Hadley-Zirkulations-Index. Dies ist die Abweichung vom Mittel der zonalen Meridiangeschwindigkeit in der 200 hpa-Höhe minus des Mittels der zonalen Meridiangeschwindigkeit in 850 hpa-Höhe und steht für die Luftmassenströmungen in der Hadley-Zelle. Y-Achse = 1010 kg/s. Während die südliche Hadley-Zelle (unten) eine Schwingung von ca. 23 Jahren zeigt, was der Länge des Polaritätszyklus (Hale-Zyklus) der Sonne entspricht, steigt der Index auf der Nordhalbkugel bis zur Jahrtausendwende stetig an. Die Erklärung für das unterschiedliche Verhalten könnte in der Zellgröße und den Landmassen liegen. So ist die nördliche Zelle fast doppelt so groß (kleine Abbildung), was wiederum mit der größeren Landfläche auf der Nordhalbkugel zusammenhängen könnte, die sich mit dem Ansteigen des Hauptsonnenzyklus direkter und schneller erwärmt, als die großen Wasserflächen unter der südlichen Hadley-Zelle.

Da die Untersuchungsergebnisse von Xiao-Wei Quan et al. auf solare Einflüsse hindeuten, sollen diese mit den gezeigten Untersuchungen des Autors in Relation gesetzt werden (Abb.27).

 

Abb.27 bestätigt, dass die El Niño-Ereignisse unmittelbar mit der Aktivität in der Hadley-Zelle gekoppelt sind. Wie bereits gezeigt, sind die Auswirkungen von El Niño um den ganzen Globus zu verzeichnen, insbesondere in einem Band von ±30° nördlicher und südlicher Breite, was dem Gebiet der Hadley-Zellen entspricht. Wie die Gesamtabbildung zeigt, ist jeder El Niño einem Hadley-Ereignis direkt zugeordnet (rote gestrichelte Linien) und damit, wie bereits bewiesen, der solaren Aktivität unmittelbar zuzuordnen. Die Abbildung zeigt ganz deutlich, dass mit Eintreten eines El Niño-Ereignisses und des entsprechenden solaren Parameters, die Windgeschwindigkeiten in der Höhe zunehmen. Dies ist auch der Schlüssel zu der Erkenntnis, dass die El Niño-Auswirkungen nicht nur zonal (zwischen ±30° geographischer Breite), sondern global auftreten.

Abb.25 zeigt schematisch, wie der Energietransport zwischen der Hadley-Zelle und den nördlichen Breiten verläuft, sowie der Luftmassenstrom über die Hadley-Zelle zu den nördlichen Breiten. Daraus wird ersichtlich, dass El Niño-Ereignisse über den Bereich der Hadley-Zelle Einfluss auf das Wettergeschehen haben, wie dies aus den Untersuchungen von Prof. Brönnimann und des MPI-M und der University of Cambridge (“Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate“, Journal of Geophysical Research, Vol. 117, D01102, 10 PP., 2012), sowie Prof. Malberg (erschienen in der Berliner Wetterkarte e.V. am 31.01.2012) hervorgeht. Die Erklärung ist im Drehimpulserhaltungssatz zu finden.

 

Abb.28 zeigt das Druckverteilungsmuster und die Windverhältnisse der bodennahen Troposphäre. Im Absinkbereich der Hadley-Zelle bilden sich Hochdruckgebiete, wodurch dort trockenes Klima vorherrscht. So liegen in ihrem Bereich die Wüstengebiete der Erde. Durch die Passatwinde fließt ein stetiger Rückstrom (Oststrom) in Richtung Äquator. In der IPCZ fließt daher ein schwacher Ostwind. In der Westwinddrift der Ferrel-Zelle fließen die Frontensysteme der Tiefdruckgebiete nach Osten und zwar entlang des Polarfrontjet, an dem sich fortwährend Tiefdruckgebiete bilden. An der sich angrenzenden Polar-Zelle entsteht an der absinkenden schweren Kaltluft ein Hochdruckgebiet. Zwischen dem Druckgradient und der Corioliskraft bildet sich dort ein Gleichgewicht, welches einen schwachen Ostwind verursacht. Sowohl die Ostwinde der Subtropen/Tropen, als auch die Ostwinde der Polargebiete und der Westwind der mittleren Breiten sind mit einem Drehimpuls verbunden. Aus Gründen der Drehimpulserhaltung muss deren Summe Null ergeben.

Drehimpuls

Der Drehimpuls (Einheit: Nms) wirkt bei einer Kreisbewegung in Richtung Zentrum und gibt die Drehachse der Bewegung an. Er steht damit senkrecht zur Ebene, in der sich die Masse bewegt. Der Drehimpuls ist abhängig von der Geschwindigkeit, der Masse, sowie dem Abstand zur Drehachse. Bei Zunahme einer der drei vorgenannten Parameter, wächst der Drehimpuls an. Der Drehimpulserhaltungssatz gibt an, dass der Gesamtdrehimpuls in abgeschlossenen Systemen konstant ist.

Verändert sich z.B. der Drehimpuls auf Grund einer Geschwindigkeitszunahme der Luftströmungen in der Hadley-Zelle, so muss dies wegen dem Drehimpulserhaltungssatz Auswirkungen auf die Luftströmungen in den beiden anderen Zellen (Ferrel- und/oder Polar-Zelle) haben. Wird die Geschwindigkeit der Luftströmungen durch ein solares Ereignis in der (oberen) Hadley-Zelle erhöht, so sind durch die Kopplung über den Drehimpuls auch die anderen Zelle(n) beeinflusst. In der Ferrel/Polarzelle stellen sich dann geringere Drehimpulse ein, was zu einem ruhigen, kalten Winter führt (siehe Untersuchungen von Prof. Brönnimann).

Da die Hadley-Zelle zeitlich begrenzt, als geschlossenes System betrachtet werden kann, gilt natürlich, wie für jedes geschlossene System, der Energieerhaltungssatz. D.h. eine Erhöhung der Windgeschwindigkeiten in der Höhe muss mit einer zeitlich begrenzten Verringerung der Windgeschwindigkeiten in niedriger Höhe verbunden sein, wodurch bei einem El Niño die Passatwinde erschlaffen.

 

Abklingen des El Niño-Ereignisses

Stellt sich noch die Frage, warum das El Niño-Ereignis nicht bestehen bleibt? Dies ist bei El Niño-Ereignissen, die vom magn. Maximum des jeweiligen Schwabe-Zyklus oder durch die Polarfeldaktivitäten ausgelöst werden, recht einfach zu begründen: Weil die solare Aktivität und damit die Energiezufuhr dann am höchsten ist und anschließend wieder abfällt. Die mit einem Ereignis unter den Punkten 2 oder 3 erfolgte Energiezufuhr baut sich also wieder ab.

Diese Begründung kann jedoch nicht für die El Niño-Ereignisse unter Punkt 1 heran gezogen werden, weil nach der integralen Zunahme der Koronatemperatur (der integralen Zunahme der Korona-Aktivität) die solare Aktivität nicht abnimmt, sondern weiter zunimmt, bzw. die Korona-Temperatur in der Fläche auf ihrem hohen Wert von nahezu 2 Mio. Kelvin verbleibt. Also müsste das El Niño-Ereignis bestehen bleiben.

Der Gund, warum ein El Niño-Ereignis letztendlich entsteht (ausgelöst wird), besteht in den Änderungen von Energiedifferenzen zwischen den oberen Atmosphärenschichten und den unteren Atmosphärenschichten. Wie die Untersuchungen von Xiao-Wei Quan et al., “Change of the Tropical Hadley Cell Since 1950“ und die Korrelation mit der solaren Aktivität zeigen, wird durch die Aktivitätszunahme der Sonne die Luftmassenströmung zwischen oberen und unteren Atmosphärenschichten deutlich erhöht. Auch bei der Aktivitätszunahme der Korona. Die Änderung in der Aktivitätszunahme löst die Erhöhung des Luftmassenstromes und der Luftgeschwindigkeit in den oberen Atmosphärenschichten aus.

Xiao-Wei Quan et al. konnten zeigen, dass durch die entstandenen Energiedifferenzen zwischen oberen und unteren Atmosphärenschichten, die Erhöhung des Luftmassenstromes, damit verbunden, der Drehimpulsänderung und dem Erschlaffen der Passatwinde, entsteht. Obere und untere Atmosphärenschichten gelangen durch die Änderung (Impuls) aus ihrem vorherigen relativen Gleichgewichtszustand und zwar so lange, bis die Energie der oberen Atmosphäre, die die Erhöhung des Luftmassenstroms zwischen 200 hPa und 800 hPa bewirkt, an die unteren Atmosphärenschichten (und die übrigen Zellen – Ferrel- und Polarzelle) abgegeben wird. Also der Energieausgleich stattfindet. Ist dieser Energieaustausch abgeschlossen, also das vor dem Ereignis gültige relative Gleichgewicht wieder hergestellt, ist das El Niño-Ereignis beendet. Eine weitere gleichbleibend hohe Aktivität (Koronatemperatur bleibt auf 2 Mio. Kelvin) kann dann keine weitere Zustandsänderung hervorrufen. Der stabile Zustand zwischen oberen und unteren Atmosphärenschichten ist allerdings jetzt auf einem höheren Niveau und zwar für beide Luftschichten, die oberen und unteren, was keinen Einfluss mehr auf Änderungen der Luftmassenströmungen zwischen beiden Schichten (daher relatives Gleichgewicht) haben kann, also auch kein El Niño-Ereignis bestehen lassen oder entstehen lassen kann.

Vereinfacht dargestellt: Das System wird durch den Aktivitätsschub der Sonne vorrübergehend aus seinem Gleichgewicht gebracht, wodurch der El Niño entsteht. Dieser bleibt so lange bestehen, bis sich das vorherige relative Gleichgewicht wieder einstellt. Dies ist auch der Grund, warum das El Niño-Ereignis unter Punkt 1 stärker ausgeprägt ist, als die El Niño-Ereignisse, die durch Punkt 2 oder 3 ausgelöst werden. Zum einen, ist das System zwischen oberen und unteren Atmosphärenschichten durch das solare Minimum in seinem energieärmsten Zustand (eine „plötzliche“ Aktivitätssteigerung der Sonne kann also ein starkes Ungleichgewicht auslösen) und zum anderen, verhindert die weiter ansteigende solare Aktivität, den schnellen Energieabbau und damit das Einstellen des vorherigen relativen Gleichgewichts zwischen oberen und unteren Atmosphärenschichten, wogegen der Abfall der Energiezufuhr der Sonne bei den El Niño-Ereignissen unter Punkt 2 oder 3 das einstellen des vorherigen relativen Gleichgewichts unterstützt.

Weiter steht die Hadley-Zelle, wie gezeigt, mit der Ferrel-Zelle im Energieaustausch, so dass die Energiezunahme, die ein solares Ereignis auslöst, über diese und den Jetstream wieder abgebaut wird, wodurch sich die „normalen“ Bedingungen wieder einstellen und die Passatwinde an Kraft gewinnen. Dieser Energieaustausch (Abbau) beschleunigt den vorgenannten Energieangleich und damit den Abbau des El Niño-Ereignisses.

Soweit zur Theorie, die sich erst noch anhand der Realität bestätigen oder verworfen werden muss. Dies wird Ende dieses Jahres sein.

Wenn ein El Niño sich so verhält und auf diese Weise seine Auswirkungen an Ferrel- und/oder Polarzelle weitergibt, dann sollte sich auch sein „Fingerabdruck“ dort finden lassen. Exakt, der Verlauf des El Niño 3.4 (oder seiner größeren „Schwester“, der ENSO) sollten sich auch in den Parametern der Ferrel-Zelle abzeichnen. Daher soll die NAO, die unser Wettergeschehen in Europa maßgeblich beeinflusst, mit der ENSO in Relation gesetzt werden, Abb.29.

 

Abb.29 zeigt, dass NAO und ENSO zusammenhängen und deren Extrema weitgehend identisch sind. Wobei die Ereignisse in der NAO mit einem zeitlichen Versatz von ca. 1 Jahr auftreten. Markante Ereignisse in der ENSO (rote und grüne Ovale) hinterlassen in der NAO regelrecht ihren Fingerabdruck.

Wie eingangs gezeigt, lässt sich der gesamte Temperaturgang der letzten 35 Jahre, der Zeitraum also, der für die solare Abkopplung der Temperaturen und dem Temperaturantrieb durch Treibhausgase stehen soll, mit den El Niño-Ereignissen und damit der solaren Aktivität erklären. Diesem Beweis und der Logik, dass El Niño über die Drehimpulskopplung auf die anderen Zellen unmittelbaren Einfluss ausübt, müsste sich der Temperaturgang der letzten 35 Jahre genauso in der Ferrelzelle, ihren Parametern, abzeichnen und wie in Abb.30 gezeigt, zeitversetzt.

 

Abb.30 zeigt die NAO mit dem El Niño 3.4, der in Abb.7 den Beweis zum Temperaturgang erbrachte. Wie unschwer zu erkennen, tritt in der NAO jedes Maxima des El Niño 3.4 auf und mit einem Versatz von im Mittel 1 Jahr.

Abb.31 zeigt die Gesamtabbildung, aus der die NAO in Teilbereichen für den Vergleich in Abb.29 und Abb.30 stammt.

 

Abb.31 zeigt die verwendete Zeitreihe der NAO.

Wer die Wetter- und deren Klimageschehen verstehen will, der muss sich der Natur zuwenden. Insofern betrachtet der Autor die sog. Klimarealisten, als die Naturforscher unter den Klimaforschern, die das Erbe Alexander von Humboldts, einem der größten Naturforscher, leben. Das Zentrum zum Verständnis der Wetter- und Klimavorgänge, sofern ein statistischer Mittewert überhaupt als wissenschaftliches Refugium betrachtet werden darf, ist unser Zentralgestirn, die Sonne. Ihr gilt es, die Forschungsanstrengungen zu konzentrieren und die notwendigen Mittel dazu bereitzustellen, als diese für sinnlose Forschung in pseudowissenschaftlichen Bereichen, wie der von Treibhausgasen zu vergeuden und für "Forscher" bereitzustellen, die sich in immer aberwitzigeren Theorien und Horrorgeschichten verstricken, die sie dann einer unwissenden Presse- und Politikerschar verkaufen. Lenin nannte Journalisten einst "nützliche Idioten". Er hätte gewiss seine Freude, würde er sehen, wie ein Großteil der heutigen deutschen Journalistenschar seine Aussage immer wieder aufs Neue bestätigt.

El Niño – ein Rätsel. Wie beschrieben, Nein! Die Natur kennt keine Rätsel. Das Rätsel sind allein wir Menschen. Betrachten wir die Natur doch immer nur mit unseren eigenen Augen und spiegeln damit lediglich die Natur an uns selbst, wodurch zwangsläufig ein Zerrbild entsteht (was übrigens durch die Quantentheorie begründet ist, aber dies ist ein anderes Thema). Dabei gilt es, sich diesem bewusst zu sein und es zu erkennen. Dies gelingt einzig durch unseren Verstand und unsere Fähigkeit zu denken. So entsteht „Blindheit“, wenn Verstand und Denken abgeschaltet und/oder durch ideologische Vorgaben außer Kraft gesetzt werden. Insofern wird das Verhalten des IPCC und ihrer nahestehenden Institute erkenn- und begründbar und insbesondere das der deutschen Presse, bei der es aussieht, als ob der Verstand und das Denken durch ideologische „Blindheit“ außer Kraft gesetzt ist und daher solche Artikel entstehen, wie der eingangs genannte von Fokus. In Kenntnis der kurz angerissenen menschlichen Eigenschaften geht der Autor davon aus, dass der deutsche Leser von ideologischen Zerrbildern in der Wissenschaft und ihrer Berichterstattung, auch in Zukunft nicht verschont bleiben wird. Um das entstandene Zerrbild wieder der Natur anzugleichen und damit der Realität zuzuführen, gibt es die Wissenschaftler von EIKE. Wir werden unseren Lesern die Natur zeigen, wie sie ist. Ohne Zerrbilder und ohne ideologische Verblendung. Einfach nur schön anzusehen…

 

Raimund Leistenschneider – EIKE

 




IPCC-Forschern gelingt der Durchbruch – Klimawirksamkeit von Treibhausgasen nachgewiesen

1. CO2-Wärmekraftmaschine

Der Ansatz dafür, so Prof. Schelmhuber, war denkbar einfach. Gehen wir einmal davon aus, dass unsere Ausgangsbasis, die von einer Temperaturerhöhung von 1,2°C bei CO2-Verdopplung (und der damit verbundenen Klimasensitivität) durch zusätzlichen Strahlungsantrieb ausgeht, richtig ist. Dann wäre dies nichts anderes als eine Wirkungsgraderhöhung in einem technischen System, welches Energieumwandlung in der Bereitstellung von Wärme nutzt. Bei zugrunde gelegten +14°C globaler Ausgangstemperatur, immerhin fast 10% Wirkungsgraderhöhung. Dieser Wert ließe sich bei nochmaliger CO2-Verdopplung weiter erhöhen und nicht zu vergessen, das Wasserdampf-Feedback.

Wir mussten ein Anwendungsbeispiel finden, dass dem Treibhauseffekt in der Natur sehr nahe kommt. Da das Auto aufgrund seiner großen Glasflächen wie ein Treibhaus wirkt (jeder kennt das Beispiel mit einem, in der Sonne abgestellten Fahrzeug), ist es wie geschaffen für die praktische Anwendung des Treibhauseffektes.

Basierend auf der Nutzung der Klimasensitivität des CO2, so die Ausgangsbasis der Überlegungen, wird durch einfache Zugabe von CO2 in den Fahrgastinnenraum eines Fahrzeuges, dessen Temperatur erhöht und dadurch gleichzeitig, durch die erzielte Wirkungsgraderhöhung der Heizungsanlage, Kraftstoff gespart. Bei CO2-Verdopplung auf 0,08 Vol.% (gesundheitlich völlig unbedenklich) konnte unser Team, bei gleicher (!!) Heizleistung, eine Temperaturerhöhung um mindestens 1,2°C (wenn nicht noch mehr) erzielen. Durch geschickte Beimengung von Wasserdampf, eine weitere Temperaturerhöhung (und alles bei gleicher Heizleistung!!) um 4°C – wenn man Glück hat, sogar um +7°C. Prof. Milchdorf, ein weiterer Forscher aus dem Team, berichtet, dass darauf zu achten ist, dass nicht durch die Beimengung von zu viel an Wasserdampf, dem Fahrer die Sicht genommen wird. Und zu allem können wir uns bei unseren Ergebnissen auf Planck berufen. Eine erhöhte Temperatur setzt mehr Strahlung frei und diese Strahlung haben wir genutzt, um das CO2 anzuregen und ihm seine Klimasensitivität raus zu kitzeln.

Dieses Prinzip ist natürlich auch zur Erhöhung der Motorleistung (hier ebenfalls bei gleichem Energieeinsatz, sprich Kraftstoffverbrauch) zu nutzen, so Prof. Milchdorf weiter, indem in den Verbrennungskreislauf CO2 eingebracht wird. Denn, was bei der Heizung funktioniert, muss auch beim Motor funktionieren, da, wir haben Planck bereits erwähnt, eine erhöhte Temperatur mehr Strahlung freisetzt und diese Strahlung nutzen wir beim Motor, um das CO2 anzuregen und ihm seine Klimasensitivität raus zu kitzeln. Inwieweit dieses Prinzip auch bei Elektromotoren anwendbar ist, ob dadurch die Elektronen also schneller fließen, müsste untersucht werden. Sollten bei diesen Untersuchungen, die Elektronen, bei einer hohen CO2-Dosis, die Lichtmauer durchbrechen, so ein andere Forscher, der seinen Namen nicht genannt haben möchte, so wird uns dies nicht schrecken. Wir stehen damit zwar in krassem Widerspruch zu den Postulaten der Speziellen Relativitätstheorie, aber der Treibhauseffekt steht auch im eklatanten Widerspruch zu den Grundfesten der Thermodynamik und dennoch konnte unser Team jetzt beweisen, dass er existiert. Die Frage, ob beim Elektroantrieb schon konkrete Untersuchungen mit CO2 laufen, verneinte der Forscher, aber er sei guter Dinge, dass das Team heutzutage in unserem Land, bei unseren Politikern, jede Menge Fördergelder abrufen kann, um solches weiter zu untersuchen. Sie dürfen dabei nur nicht vergessen, Ihre Forschungsanfrage auf CO2 aufzubauen.

2. CO2-Solar-Sackkleid

Die CO2 Solarsäcke dienen in der Bekleidungsindustrie als Ersatz für Mäntel und Pullover, da sie, dank der CO2-Füllung, schön warm halten. Ich sehe schon vor Augen, so Prof. Schelmhuber, wie die deutsche Presse vor Begeisterung über dieses neue Geschäftsfeld schwelgt, was Deutschland wieder zurück an die Spitze der Bekleidungsindustrie führt und wie die Journalistinnen in unserem Land, die Modehäuser stürmen, um als erste diese Modeartikel zu erwerben und zur Schau zu tragen. Dabei kann die Dame durch geschickte CO2-Dosierung des CO2-Solar-Sacks selbst bestimmen, ob sie den auf der Abbildung (siehe unten) zu sehenden Umhang anbehält oder lieber ablegen möchte. Welch traumhafte Vorstellungen für Mann tun sich hiermit auf. Die CO2-Dosierfläschchen lassen sich geschickt in der Damenhandtasche unterbringen und nach Wunsch mit dem passenden Parfümduft bereichern.

 

So weit unser Bericht. Für die Mitglieder der deutschen Presse, wie sie z.B. in der Süddeutschen oder Die Zeit zu finden sind und die daher noch nicht mitbekommen haben, was unsere Leser längst gemerkt haben, dass es sich bei der Geschichte, um eine 1. April-Geschichte handelt: DIES IST EINE 1. APRIL-GESCHICHTE! Und natürlich auch die zugehörigen Abbildungen. An dieser Stelle ist daher anzuführen, dass die Namen frei erfunden sind. Ähnlichkeiten mit lebenden Personen sind rein zufällig.

Der ganze Treibhauseffekt und die Klimawirksamkeit von sog. Treibhausgasen könnte als Aprilscherz abgetan werden, wären damit nicht zig Milliarden Euro verbunden, die uns Steuerzahlern abverlangt werden, um die „Scherze“ aus Politik, den beauftragten Wissenschaftlern und der daran adaptierten Industriezweige, die nur aus Steuermitteln überlebensfähig sind, zu finanzieren. Was letztendlich in einer katastrophalen und für unser Land verhängnisvollen Energiepolitik gipfelt. Einer Energieausrichtung auf Zufallsenergien, wie Wind und Solar, anstatt auf Zuverlässigkeitsenergien, die für unser Land, von Helmut Schmidt über Helmut Kohl, Garant für Stabilität, Wirtschaftsentwicklung und damit Wohlstand bedeuteten. Daher werden wir nicht müde, den Treibhauseffekt als das zu entlarven, was er ist: „Die Klimakatastrophe ist die große Geschäftemacherei unserer Zeit“, wie der renommierte Zukunftsforscher, Matthias Horx, feststellt. Je größer die angebliche Katastrophe dargestellt wird, umso größer die Geschäftsaussichten. Mit Wissenschaft, wie unsere 1. April-Geschichte satirisch zeigt, hat dies nichts zu tun, sondern nur mit Abzocke, flankiert von einer, aus ideologischen Gründen, weitgehend blinden Journalistenschar.

Raimund Leistenschneider – EIKE




Die Sonne bringt Licht ins Dunkel – Was die Erdtemperaturen wirklich bestimmt, Teil 2

Teil 2: 2014, ein El Niño-Jahr (?) – El Niño und seine solaren Auslöser über die letzten 1.000 Jahre

Im 2. Teil werden die im Teil 1 gefundenen Korrelationen mit den Daten der letzten 140 Jahre abgeglichen und dadurch gezeigt, dass auch für diesen Zeitraum die gefundenen Beziehungen und Zusammenhänge bestehen. Darüber hinaus wird ein El Niñodatenabgleich für die letzten 1.000 Jahre mit dem Hauptsonnenzyklus vorgenommen. Es wird gezeigt, dass immer dann ein El Niñoereignis stattfindet, wenn der Hauptsonnenzyklus in seiner Aktivität (nach seinem Aktivitätsminimum) wieder zu steigen beginnt. Anhand der Theorie des Autors wird anschließend dargelegt, dass Ende 2014 ein El Niño vorliegen wird, der zu Beginn 2015 sein Maximum (stärkste Ausprägung) erreichen wird.

Anhand der Abb.15 möchte der Auto die letzten 60 Jahre zeigen. Inwieweit auch für diesen Zeitraum die gefundenen Korrelationen gelten. Hier muss auf rekonstruierte Werte zurückgegriffen werden.

 

Abb.15: Alle El Niño-Ereignisse stehen auch hier in unmittelbarem Zusammenhang „ihres“ solaren Parameters. Ein solarer Parameter (um 1955) steht bei den rekonstruierten Werten nicht mit einem El Niño in Beziehung.

Zwischenergebnis: Von 19 Ereignissen fallen alle mit einem solaren Maximum zusammen. Bei den rekonstruierten Werten löst ein solares Ereignis (1955) keinen El Niño aus.

Lässt sich darüberhinaus die aufgestellte Theorie des Autors anhand von Datenreihen erhärten? Hierzu schauen wir uns den Zeitraum der El Niño-Ereignisse und der solaren Parameter, die ihn auslösen, bis in die 1870-Jahre an. Allerdings handelt es sich hier, wie auch in Abb. 15, nicht um gemessene, sondern um rekonstruierte Werte, die nicht die Exaktheit und die Aussagefähigkeit, wie gemessene Ereignisse besitzen.

 

Abb.16 zeigt die Zusammenhänge bis Mitte der 1870-Jahre. Alle El Niño-Ereignisse, bis auf das Ereignis im Jahre 1900, lassen sich einem solaren Aktivitätsereignis zuordnen. Bei zwei solaren Ereignissen bleibt der El Niño aus. Der Autor hat zu seiner Untersuchung die gleichen solaren Parameter verwendet. Allerdings sind diese nicht gemessen, sondern rekonstruiert. Die Zeitreihe ganz unten zeigt den TSI, Quelle: NASA. Die NASA schreibt hierzu auf ihrer Internetseite, dass der TSI aus einem eigenen, physikalischen Modell entwickelt wurde und die Abbildung von der University of Montreal stammt. Die Zeitreihe darüber zeigt den Total flux, Quelle: ”A Doubling of the Sun’s Coronal Magnetic Field during the Last 100 Years”, M. Lockwood, R. Stamper, and M.N. Wild, Nature Vol. 399, 3.Juni 1999.

Lässt sich der El Niño von 1900 wirklich keinem solaren Ereignis zuordnen?

Abb.17 stammt aus der Arbeit von Russell und T. Mulligan (Institute of Geophysics and Planetary Physics, University of California) “The 22-year Variation of Geomagnetic Activity: Implications for the Polar Magnetic Field of the Sun”,Geophysical Research Letters, 22, 3287-3288, 1995. 

Abb.17 zeigt den geomagnetischen aa-Index von 1850 – 1990. In 1900 beginnt die magnetische Aktivität der Sonne wieder anzusteigen (grüne Trendlinie) und erreicht zum ausgehenden 20. Jahrhundert ihren Höhepunkt. Dabei steigt der aa-Index um 100% (blaue waagerechte Linien), was Rückschlüsse auf den starken Anstieg der solaren Aktivität zulässt. Der Anstieg verläuft synchron zum Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus. Er reduzierte dabei die kosmische Strahlung im gleichen Zeitraum um ca. 15%.

Diese Arbeit soll mit einer anderen, die ebenfalls den Verlauf des Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus, zeigt, verglichen werden (Abb.18).

 

Abb.18 zeigt natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

Abb.18 zeigt, dass der Hauptsonnenzyklus Ende der 1890-Jahre sein Minimum erreichte und die solare Aktivität im Hauptsonnenzyklus in 1900 wieder zunimmt, was einen El Niño ausgelöst haben könnte. Haben solare Gesetzmäßigkeiten, die auf kleinen Skalen auftreten, auch auf großen Skalen ihre Gültigkeit?

Vom Schwabe-Zyklus ist bekannt (Friis-Christensen, E. & Lassen, K.: Length of the solar cycle: an indicator of solar activity closely associated with climate. Science 254 (1991), 698) dass, je länger sein Zyklus ist, umso schwächer die solare Aktivität im selben Zyklus. Dieser Zusammenhang auf kleinen Skalen ist ebenfalls auf großen Skalen zu beobachten. Auch beim Hauptsonnenzyklus und seiner Oberschwingung, dem Hallstatt-Zyklus verhält sich die Zyklusdauer analog zur Sonnenaktivität, d.h. je schwächer der Hallstatt-Zyklus, desto länger seine Zyklusdauer.

Die Sonne scheint sich bei Auslösen eines El Niño-Ereignisses auf großen Skalen auch hier gleich zu verhalten, wie auf kleinen Skalen. Der Autor hat gezeigt, dass mit jedem Anstieg der solaren Aktivität im Schwabe-Zyklus, ein El Niño-Ereignis ausgelöst wird. Dies scheint auf großen Skalen gleich zu sein. Steigt die solare Aktivität im Hauptsonnenzyklus an, löst dies (den El Niño von 1900) einen El Niño aus. Anhand eines Ereignisses kann noch keine Korrelation hergestellt werden, daher soll die These weiter geprüft werden. Abb.18 zeigt eine Übersicht historischer El Niño-Ereignisse.

 

Abb.19, zeigt eine Auflistung historischer El Niño/La Niña-Ereignisse über die letzten 1.000 Jahre, Quelle: http://nexialinstitute.com/climate_el_nino.htm

Nach den Arbeiten von Prof. Mörner (Abb.18) hatte der Hauptsonnenzyklus ca. 1670 und 1465 sein Minimum und drehte dann in seiner Aktivität.

 

Abb.20 zeigt den C14-Proxy, der als Maß der solaren Aktivität steht über die letzten 1.100 Jahre, Quelle: United States Geological Survey. Der Autor hat dazu die Minima (blaue Linien) eingezeichnet, an denen sich der Verlauf umkehrt, also die Sonnenaktivität wieder zunimmt. Die Minima sind identisch mit den Minima der solaren Aktivität und wie die Zykluszeit unschwer erkennen lässt, den Hauptsonnenzyklus darstellen. Die Minima liegen bei ca. 1078, 1338, 1538 und 1718.

Jetzt werden diese Daten mit der Auflistung in Abb.19 verglichen (Abb.21).

 

Abb.21: Sowohl die Wechsel in der solaren Aktivität aus den Arbeiten von Prof. Mörner (Abb.18, die Jahre 1670 und 1465), als auch die Wechsel in der Aktivität aus Abb.19 (United States Geological Survey, die Jahre 1718, 1538, 1338 und 1077) fallen exakt mit einem El Niño-Ereignis zusammen.

Daraus lässt sich der Schluss erhärten, dass zu den bereits drei gefunden solaren Parametern, die einen El Niño auslösen, ein vierter Parameter kommt:

4. Zu jedem Aktivitätswechsel im Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus wird ein El Niño ausgelöst, wenn die solare Aktivität im Hauptsonnenzyklus ihr Minimum durchlaufen hat und wieder ansteigt.

Anhand der Untersuchungsergebnisse ist festzustellen dass alle 40 El Niño-Ereignisse im Untersuchungszeitraum der letzten 140 Jahre durch einen solaren Parameter ausgelöst werden. Bei der solaren Aktivität bleiben bei den rekonstruierten Werten zwei El Niño aus. Im Zeitraum der gemessenen Werte bleibt kein solares Ereignis, ohne „seinen“ El Niño ausgelöst zu haben. Der El Niño tritt dabei in einem exakten Zeitfenster nach der solaren Aktivitätserhöhung/solarem Maximum ein. Genau 11 Monate danach.

Aus diesen Gründen geht der Autor davon aus, dass sich Ende 2014/Anfang 2015 ein El Niño-Ereignis einstellen wird und zwar deswegen, weil die Sonne genau jetzt ihr magnetisches Maximum im 24. Schwabe-Zyklus hat (Abb.22). Jedes gemessene magn. Maximum hat im Untersuchungszeitraum „seinen“ El Niño ausgelöst. Dass die Physiker Armin Bunde und Josef Ludescher von der Universität Gießen anhand ihrer Studie (veröffentlicht im US-Fachjournal „Proceedings of the National Academy of Sciences“) unabhängig zu dem gleichen Ergebnis gelangen, erfreut natürlich den Autor. Dabei schreiben die Physiker “Jetzt geben wir bekannt, dass unser Verfahren bereits im September 2013 die Wiederkehr von El Niño im Spätjahr 2014 erkennen ließ.“ Der Autor hat bereits im Januar 2011 bekannt gegeben, wann und wie El Niños auftreten. Er ließ dies nicht nur „erkennen“, sondern hat klar die Aussage abgegeben.

Während die Gießener Physiker angeben “die Wahrscheinlichkeit, mit der ein El Niño noch in diesem Jahr eintritt, liege bei 76 Prozent“, konnte der Autor zeigen, dass alle El Niño in den letzten 140 Jahren durch „ihren“ solaren Parameter ausgelöst wurden. Dies ist eine Trefferquote von 100%. Werden die beiden solaren Ereignisse, die keinen El Niño auslösten, mit einbezogen, so liegt die Wahrscheinlichkeit bei 96%. Inwieweit beide Fraktionen Recht behalten, wird sich Ende 2014 zeigen.

 

Abb.22 zeigt den gegenwärtigen 24. Schwabezyklus, Quelle:http://www.solarham.net/ Das magnetische Maximum liegt in 02/14. Anhand der Untersuchungen des Autors wird demnach 11 Monate später, in 01/15, der El Niño voll ausgeprägt sein und sein Maximum erreichen.

  

Raimund Leistenschneider – EIKE




Die Sonne bringt es an den Tag – Was die Erdtemperaturen wirklich bestimmt

Teil 1: Der Temperaturgang der letzten 35 Jahre – Was ihn steuert

Teil 2: 2014, ein El Niño-Jahr (?) – El Niño und seine solaren Auslöser über die letzten 1.000 Jahre

Teil 3: Warum und wie El Niño das Wettergeschehen in Europa und Nordamerika steuert

 

Abb.1, Quelle: Josef Kowatsch, Datenquelle: DWD, zeigt, dass auch der vergangene milde Winter nichts daran ändert, dass seit gut einem viertel Jahrhundert die Wintertemperaturen deutlich zurückgehen.

Überblick

Im 1. Teil erfahren Sie, was die Erdmitteltemperaturen, wie sie z.B. im HadCRUT oder UAH veröffentlicht werden, steuert. Anhand von Belegen wird exakt aufgezeigt, wie die Erdmitteltemperaturen von El Niño-Ereignissen und diese wiederum von der variablen Sonne gesteuert werden. Das Wetter- und Klimageschehen damit vollständig von natürlichen Ursachen, der Aktivität unseres Zentralgestirns abhängt. Zur Erklärung des Wetters und seiner statistischen Größe, des Klimas, reicht allein die variable Sonne. Es wird gezeigt, dass, wie IPCC und Unterstützer gerne verlauten, es keine Abkopplung der Erd(mittel)temperaturen von der Sonnenaktivität gibt, sondern bewiesen, dass beide in exakter Weise zusammenhängen und synchron verlaufen, bis in die heutige Zeit. Zum Verständnis der Zusammenhänge wird zu Beginn die Wetteranomalie El Niño kurz erläutert und ihre globalen Auswirkungen gezeigt. Anschließend der Beweis geführt, dass ausschließlich solare Aktivität einen El Niño auslöst und somit das Wettergeschehen moderiert und wann der El Niño dabei ausgelöst wird.

Im 2. Teil werden die im Teil 1 gefundenen Korrelationen mit den Daten der letzten 140 Jahre abgeglichen und dadurch gezeigt, dass auch für diesen Zeitraum die gefundenen Beziehungen und Zusammenhänge bestehen. Darüber hinaus wird ein El Niño-Datenabgleich für die letzten 1.000 Jahre mit dem Hauptsonnenzyklus vorgenommen. Es wird gezeigt, dass immer dann ein El Niño-Ereignis stattfindet, wenn der Hauptsonnenzyklus in seiner Aktivität (nach seinem Aktivitätsminimum) wieder zu steigen beginnt. Anhand der Theorie des Autors wird anschließend dargelegt, dass Ende 2014 ein El Niño vorliegen wird, der zu Beginn 2015 sein Maximum (stärkste Ausprägung) erreicht.

Teil 3 zeigt, wie die Sonne ihre Energie auf die irdischen Wettersysteme einprägt. Die physikalischen Grundlagen dargelegt, über die die Auswirkungen von El Niño-Ereignissen global wirken und wie das Wettergeschehen (über die NAO) in Europa und Nordamerika diesen Parametern folgt.

Teil 1

Wer die Zeilen zu Beginn aufmerksam lass, wird feststellen, dass sich die Wissenschaftler und ihre Schreiberlinge geschickt ein Hintertürchen aufgelassen haben. So ist zu lesen „wahrscheinlich“. Nun, Wissenschaft ist die Lehre der Exaktheit. Wissenschaft ist sich sicher, bzw. stellt Thesen/Theorien auf, die dann an der Realität zu messen sind und ändern, sollte die Realität nicht im Einklang mit der Theorie stehen, die Theorie und versucht nicht, die Realität zu ändern (zu manipulieren), um die Theorie zu retten. Insofern zeigt dieses unscheinbar, eingefügte Wort, was es mit der Aussage auf sich hat, sie basiert auf Vermutungen, wie übrigens die gesamte Treibhaustheorie und hat demnach nichts mit Wissenschaft, sondern allenfalls etwas mit Pseudowissenschaft zu tun, wie sich so treffend der Physik-Nobelpreisträger, Ivar Giaever, ausdrückte.

Was verbirgt sich hinter El Niño? Eine kurze Erläuterung:

El Niño, ein in der Wissenschaft immer noch rätselhaftes Phänomen, dass scheinbar aus heiterem Himmel eintrifft  und natürlich ebenfalls schon versucht wurde, von der Treibhausaktivisten für ihre Zwecke zu missbrauchen. Es gäbe eine Zunahme dieser Ereignisse und deren Stärke. Bereits der EIKE-Artikel von Herrn Lüning zeigt, dass beides nicht zutrifft (http://www.eike-klima-energie.eu/klima-anzeige/katastrophaler-focus-artikel-stellt-die-klimawissenschaften-auf-den-kopf-folgen-fuer-den-serioesen-wissenschaftsjournalismus-sind-fatal/). Aber, steht in 2014 wirklich ein El Niño an? Um die Antwort vorwegzunehmen: Anhand der wissenschaftlichen Untersuchungen des Autors, Ja! Er hat dies bereits in 01/2011 und 09/2011 auf EIKE veröffentlicht und gezeigt, warum. Seine Theorie erklärt nicht nur das Eintreten von El Niños, sondern auch dessen globale Auswirkungen, die bis in die Polarzelle reichen. So hat Prof. Brönnimann (ETH) nachgewiesen (”Extreme climate of the global troposphere and stratosphere in 1940–42 related to El Niño”, Nature 431, 971-974, 21. Oktober 2004), dass in den 40er Jahren des 20. Jahrhunderts über mehrere Jahre eine ungewöhnlich hohe Temperaturschwankung vorlag, die auf El Niño-Ereignissen beruhte. Aus alten meteorologischen Messdaten konnte er die atmosphärischen Verhältnisse auf der Nordhalbkugel zu Beginn der 1940er Jahre rekonstruieren. Dass El Niño-Ereignisse nicht regional, auf die Hadley-Zelle begrenzt sind, zeigt Abb.2.

 

Abb.2 El Niño-Ereignisse haben Auswirkungen auf die Großwetterlagen weltweit (Quelle: South Carolina State Climatology Office). Die als ENSO (El Niño und Südliche Oszillation) benannte natürliche Schwingung hat über den pazifischen Raum Auswirkungen auf die Globaltemperaturen, Nord- und Südamerikas, Afrikas und Europas. Das El Niño-Ereignis betrifft somit nicht nur den pazifischen Raum, sondern weltweit sind einschneidende Folgen bemerkbar, so z.B. in Afrika. Dort machen im Süden des Landes starke Dürreperioden den Menschen zu schaffen. In Somalia hingegen werden ganze Dörfer von sintflutartigen Regenfällen weggespült.

Dabei sind die Passatwinde der Motor der El Niño-Ereignisse. Die Passatwinde verlaufen aufgrund der Corioliskraft gegen Westen über den tropischen Pazifik. Der Temperaturgradient ist im Westen ca. 10°C höher. Durch die dort aufsteigende Luft kondensiert das darin enthaltene Wasser und fällt als Regen nieder. Der Ostpazifik ist dagegen relativ trocken. Die Passatwinde befördern kühles Oberflächenwasser von der südamerikanischen Küste nach Westen. Durch die Verschiebung der Wassermassen entsteht ein Kreislauf. Dem in Südostasien ankommenden, inzwischen erwärmten Oberflächenwasser weicht kaltes Wasser in genau umgekehrter Richtung aus. So bewegt sich kaltes, nährstoffreiches Wasser, welches sich wegen seiner größeren Dichte in tieferen Regionen des Pazifiks befindet, von Westen nach Osten. Die Winde im Hochdruckgebiet treiben den Humboldtstrom an, der entlang eines Tiefseegrabens fließt und kaltes Wasser aus der Antarktis an die Westküste Südamerikas bringt. Vor Südamerikas Westküste gelangt dieses Wasser in den Auftriebsgebieten an die Oberfläche. Deshalb befindet sich dort der kalte und nährstoffreiche Humboldtstrom (Abb.3 links).

 

Abb.3: Zu sehen ist die Wärmeverteilung der marinen Strömungen. Die Abbildung zeigt die Abweichung der Meeresoberflächentemperatur vom Durchschnitt (in °C) in einem „Normaljahr“, links und in einem „El Niño-Jahr“, rechte Abbildung. Quelle: povworld.de/michariser/de/elnino4.shtml

Bei El Niño kehrt sich das o.g. eingestellte Förderband um (siehe Abb.4, rechts), weil die Passatwinde aufgrund einer Änderung in der südlichen Oszillation (SOI) erschlaffen, wodurch es zu einem Niedergang der Ökosysteme kommt, da kaltes und nährstoffreiches Wasser nicht nachgeliefert wird. Das Druckgefälle zwischen dem Hoch vor der Westküste Südamerikas und dem Tief über Indonesien ist aufgrund der Änderung der SOI gering, wodurch die Luftströmung aus dem Hoch zum Tief erschlafft und die Passatwinde abflauen. Die Passatwinde verbleiben nun im zentralen und westlichen Pazifik, was zu einem Zusammenbruch des Temperaturgradienten im Ostpazifik führt. Im Süden der USA und Peru treten dann starke Regenfälle und Überschwemmungen auf. In Australien herrscht dagegen Trockenheit.

Die Klimaanomalie bekam ihren Namen von den stark betroffenen peruanischen Fischern (die Fischschwärme verschwinden, weil der Nachschub von nährstoffreichem Wasser ausbleibt), welche sie als erste wahrgenommen haben. Sie nannten das Klimaphänomen in sarkastischer Weise "El Niño", was auf Spanisch "Christkind" oder "Knabe" bedeutet, da sie die Auswirkungen von El Niño um die Weihnachtszeit wahrgenommen haben.

 

Abb.4: Wasserkreislauf „normal“ und bei El Niño (rechts), Quelle: (www.elnino.info).

Die Verlagerung der atmosphärischen und marinen Wärme nach Osten stört die globale Luftzirkulation, was wiederum zu Wetteränderungen in weit entfernten Gebieten führt. Ein Parameter für El Niño (und La Niña, seinem Gegenpart) ist die ENSO (El Niño Southern Oscillation), die die Abweichungen der Oberflächentemperatur im El Niño-Meeresgebiet angibt.

 

Abb.5 zeigt die ENSO (El Niño Southern Oscillation-Index) und darin die sich abwechselnden El Niño (rot) und La Niña-Ereignisse (blau) von 1950 – 2010, Quelle: NOAA

Wissenschaftler aus Australien und Neuseeland (Prof. Robert M. Carter et al. von der James Cook University in Australien) haben in ihren Untersuchungen den Zusammenhang zwischen der ENSO-Schwingung (El Niño/Southern Oszillation) und dem Weltklima aufgezeigt. Sie veröffentlichten ihre Studie, die auf gut erfassten Messdaten der vergangenen 50 Jahre zurückgriff, im "Journal of Geophysical Research". Ihr Ergebnis: Je stärker der jeweilige El Niño war, desto deutlicher stieg in der Folge die globale Temperatur an.

Die Forscher geben an, dass ca. 70% der zuletzt beobachteten Erwärmung auf die El Niño-Tätigkeit zurückzuführen ist. Es habe sich gezeigt, dass etwa 6 Monate nach einem El Niño-Ereignis die globalen Temperaturen, je nach Stärke des El Niño anstiegen. Blieben dagegen El Niño-Ereignisse über längere Zeit aus, soll dies zu einem globalen Rückgang der Temperaturen geführt haben. Die folgenden Abbildungen geben den Zusammenhang wieder.

 

Abb.6 links zeigt den SOI (dunkle Linie) und die GTTA (Global Tropospheric Temperature Anomalies, helle Linie). Deutlich sind die Einflüsse der starken Vulkaneruptionen des El Cichon und Pinatubo zu erkennen, durch die die Globaltemperaturen zeitweise zurückgingen. Bereits hier ist deutlich zu erkennen, dass außerhalb der Vulkanereignisse eine hohe Korrelation gegeben ist. In der rechten Abbildung sind diese Einflüsse bereinigt. Quelle: McLean, de Freitas, Carter, ”Influence of the Southern Oscillation on tropospheric temperature”, Journal of Geophysical Research Atmospheres

Die Forscher gehen weitgehend von natürlichen Ursachen der globalen Temperaturtrends aus. In den Klimamodellen sei dies nicht berücksichtigt. Ein Grund mehr, warum Klimamodelle nicht die Realität abbilden, wie die Globaltemperaturen und die Deutschlandtemperaturen seit langem belegen.

Soweit der kleine Exkurs zu El Niño und den exemplarisch gezeigten El Niño-Forschungsergebnissen. Aber was löst einen El Niño aus und vor allem, wann und wie wird dies auf die irdischen Wettergeschehnisse eingeprägt, die, wie wir gesehen haben, sich nicht nur auf die Hadley-Zelle beschränken, sondern darüber hinaus Auswirkungen auf die Ferrel- und Polarzelle haben. Der Reihe nach.

Durch was werden El Niño-Ereignisse ausgelöst?

Der Autor hat hierzu anhand von Auswertungen solarer Parameter eine eindeutige Korrelation gefunden und anhand dessen, eine ganzheitliche Theorie zur Beantwortung der o.g. Fragen entworfen. Erstmals veröffentlicht auf EIKE am 24.01.2011 “La Niña und El Niño, was sich dahinter verbirgt und was sie, wann auslöst – Die Sonne ist an allem schuld“ und dann in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ (Teil 1) in 09/2011. Inwieweit seine Theorie stimmig ist, muss sich natürlich, wie alle Theorien in der Wissenschaft, mit der Realität messen. Hier unterscheiden sich übrigens die Wissenschaftler von EIKE grundlegend von den Wissenschaftlern des IPCC oder ihrer nahen Institute. Während diese ihre Theorien nicht an der Realität spiegeln und ihre Richtigkeit davon abhängig machen, wie dies in der Wissenschaft üblich ist, versuchen sie, die Realität zurechtzubiegen, wenn diese nicht mit ihren Theorien in Einklang stehen, schlimmer noch, generieren sie munter weiter die aberwitzigsten Thesen über verbleibende Wärme, katastrophalem Meeresspiegelanstieg, u.s.w., stellen wir von EIKE uns der Realität und machen die Theorie von der Wirklichkeit abhängig und nicht umgekehrt. Das letztere nennt sich Wissenschaft, dass Erstere, dass Vorgehen des IPCC und ihrer Institute, Pseudowissenschaft. Anhand der Theorie des Autors muss Ende dieses Jahres ein El Niño-Ereignis eintreffen, ansonsten ist seine Theorie nicht stimmig und nicht die Realität! Insofern freut es natürlich den Autor, wenn jetzt unabhängig von ihm, deutsche Wissenschaftler, die Physiker Armin Bunde und Josef Ludescher von der Universität Gießen anhand ihrer Studie (veröffentlicht im US-Fachjournal „Proceedings of the National Academy of Sciences“) auch zu dem Schluss kommen, dass Ende diesen Jahres ein El Niño-Ereignis eintreten soll.

Die Wissenschaftler bei EIKE sind sich darüber einig, dass der maßgebliche Anteil der realen Erwärmung im 20. Jahrhundert auf natürliche Ursachen und somit auf die solare Aktivität, dem einzigen Energielieferanten (die 0,02% aus dem Erdinnern sind hier vernachlässigbar) zurückzuführen ist. Daher liegt es nahe, die El Niño-Ereignisse mit der variablen Sonne in Bezug zu setzen.

Bevor der Autor hier näher eingeht, möchte er zeigen, wie die globalen Mitteltemperaturen von El Niño-Ereignissen abhängen, wie dies auch das o.g. Forscherteam um Prof. Robert M. Carter herausfand. Anfangs wurde bereits gezeigt, dass El Niño-Ereignisse weltweiten Einfluss auf die Wettersysteme ausüben.

 

Abb.7 oben zeigt die Temperaturdatenreihe seit Beginn der Satellitenmessungen (1979). Die kleine Abbildung zeigt die atmosphärische CO2-Entwicklung nach Mauna Loa. Die Abbildung darunter die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Jede globale Temperaturspitze in den letzten 30 Jahren fällt mit einem El Niño-Ereignis exakt zusammen und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil). Die schwarzen Linien dienen zur zeitlichen Justierung der Datenreihen.

Die Messdaten belegen in eindrucksvoller Weise, dass die globalen Temperaturen natürlichen Schwankungen, den El Niño-Ereignissen unmittelbar folgen. Mit CO2 oder einer angeblichen anthropogenen Erwärmung hat dies rein gar nichts zu tun, wie die kleine Abbildung belegt.

 

Abb.8 zeigt die El Niño-Gebiete.

Abb. 7 belegt, dass El Niño-Ereignisse die klimatischen Bedingungen weltweit beeinflussen und die Erdtemperaturen global moderieren. Aktuelle Untersuchungen des MPI für Meteorologie und der University of Cambridge, “Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate“ (Journal of Geophysical Research, Vol. 117, D01102, 10 PP., 2012) und Prof. Malberg, Leiter Institut für Meteorologie der Humboldt Universität (erschienen in der Berliner Wetterkarte e.V. am 31.01.2012), bestätigen ebenfalls den dominanten globalen Einfluss von El Niño-Ereignissen auf die Erdtemperaturen und damit auf unser Wettergeschehen.

Mit einer Vielzahl von Untersuchungen wurde versucht, El Niño, bzw. La Niña mit der Sonnenaktivität zu koppeln (um eine bessere Vorhersage zu erzielen), bzw. dem CO2-Anstieg zuzuordnen, um einen anthropogenen Einfluss zu beweisen. Zur Korrelation wird dabei die Sonnenfleckenzahl oder die Strahlungsintensität herangezogen (“How will Earth’s surface temperature change in future decades?“, Judith L. Lean, David H. Rind, Geophysical Research Letters, Vol. 36), was zu keinem brauchbarem Ergebnis führt. Die Sonnenfleckenzahl ist z.B. als Proxy dann erste Wahl, wenn Vergleiche zu früheren Jahrhunderten durchgeführt werden, da ab dem 17 Jahrhundert verlässliche Beobachtungsdaten vorliegen. Die Sonnenfleckenzahl gibt jedoch nur annähernd die reale Sonnenaktivität wieder, wie der Autor in seiner 8-teiligen EIKE-Reihe nachweisen konnte. Ein weiterer Parameter ist der sog. TSI (Total Solare Irradiance). Dieser deckt jedoch nur einen eingeschränkten Teilbereich des solaren Energiespektrums ab, den Bereich zwischen 200nm und 2.000nm, von “Total“ kann also keine Rede sein.

Wie der Autor in seiner 8-teiligen EIKE-Reihe .“Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels zeigte, eignet sich besser zur Bewertung der solaren Aktivität die magnetische Aktivität der Sonne. Seit dem Satellitenzeitalter stehen noch weitere Parameter zur Verfügung, die von der Erde aus nicht beobachtbar sind, die jedoch die ganzheitliche magnetische Aktivität besser erfassen. Ein bedeutsamer Parameter ist die Korona der Sonne. Wie Abb.8 zeigt, „springt“ die Koronatemperatur scheinbar unvermittelt auf annähernd ihren doppelten Temperaturwert. Dies ist dann, wenn die Aktivität der Korona zunimmt.

 

Abb.9, Quelle: http://rst.gsfc.nasa.gov/Sect20/A5a.htm

Anmerkung:

Dabei handelt es sich also nicht um neue physikalische Prozesse in, bzw. auf der Sonne, die die Korona heizen, sondern bestehende Heizprozesse der Korona (Nano-Flares, Alvén-Wellen) werden verstärkt, wodurch in der Gesamtheit der solaren Fläche (Gebiete) die Koronatemperatur auf ihren nahezu doppelten Wert (im Vergleich zu „inaktiven“ Zonen) angehoben wird, der vorher in der Fläche herrschte. Darunter ist die integrale Zunahme der Koronaaktivität über der Fläche zu verstehen, die einen neuen solaren Zyklus deutlich exakter anzeigt, wie dies gegenwärtig durch den Wechsel in der Fleckenpolarität geschieht. Ein neuer solarer Zyklus kündigt sich nach Ansicht des Autors zuerst auf kleinen Skalen an und dann erst auf großen (Sonnenflecken). Hat nun dieser „Sprung“ in den Koronatemperaturen Einfluss auf das irdische Wetter und hier insbesondere auf El Niño/La Niña-Ereignisse? Hierzu werden die El Niño-Ereignisse in Relation gesetzt.

Da die Korona der Teil der Sonne ist, die (über den Sonnenwind) direkten Kontakt zur Erdatmosphäre hat, liegt es nahe, deren Aktivität mit El Niño-Ereignissen in Relation zu setzen (Abb.10).

 

Abb.10: Die Zeitreihe oben zeigt den El Niño 3.4, der z.B. von der NOAA zur Betrachtung von El Niño-/La Niña-Ereignissen herangezogen wird. Die mittlere Zeitreihe die solare Aktivität nach Angaben der PMOD (Physikalisch-Meteorologisches Observatorium Davos) und die untere Datenreihe die Koronatemperatur. Die blauen Linien dienen zur Zeitausrichtung der Zeitreihen, die rote Linie zeigt die integrale Zunahme der Koronatemperatur von 1 Million auf annähernd 2 Millionen Kelvin. Das blaue Rechteck die verstrichene Zeit vom Sonnenminimum, welches von der PMOD durch einen senkrechten Strich gekennzeichnet ist und das rote Rechteck die Zeitspanne von der Zunahme der Koronatemperatur in der Fläche bis zum ElNiño-Maximum.

Nun lässt sich anhand einer Datenbeziehung kein Korrelationsbeweis führen. Daher sollen alle El Niño-Ereignisse in der Datenreihe El Niño 3.4 auf Korrelation zur solaren Aktivität überprüft werden. Der Zeitpunkt ab 1981 ist daher so interessant, da von den Vertretern der CO2-basierten Erwärmung die Aussage gemacht wird, dass bis ca. 1980 Sonnenaktivität und Temperatur synchron laufen, ab 1980 sich die Temperatur jedoch von der solaren Aktivität abkoppeln würde und dies auf den Austrag von Treibhausgasen zurückzuführen sei. Wir werden sehen, ob dem so ist.

Abb.11: Da, wie bereits geschildert, Beobachtungsdaten über die Korona nur vom Weltraum aus möglich sind und Daten nur für den Zeitraum 1991 – 2007 vorliegen, wird die weitere Datenreihe rekonstruiert, wobei die Zeitabstände sowohl beim Koronaminimum (grüne Rechtecke), als beim Zyklusbeginn Schwabe-Zyklus zum Anstieg Koronatemperatur (kleine blaue Rechtecke) jeweils gleich gehalten werden und dann geprüft wird, inwieweit eine El-Niño-Beziehung zur Korona besteht. Die Abbildung zeigt, dass nach jeder integralen Zunahme der Koronatemperatur ein El Niño ausgelöst wird (rote Rechtecke) und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht, voll ausgeprägt ist.

Abb.12 bringt den El Niño 3.4, der für die Entwicklung der Erdtemperaturen steht (siehe Abb.7) und den Total Flux, den TSI und die Korona in Relation zueinander.

Abb.12 zeigt nochmals die Erkenntnisse der bisherigen Untersuchungen und darüber hinaus die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem magnetischen Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).

Bleibt noch die Frage zu beantworten, was die grün und rot umrundeten schwächeren El Niño-Ereignisse auslöst. Die Antwort für das rot-umrundete in 2005 lässt der Autor die NASA und zwar deren Sonnenforscher David Hathaway vom September 2005 geben: Das Solare Minimum explodiert – Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum“. In 2005 war das Maximum im 36-jährigen Brückner-Zyklus der Sonne, der die Temperaturen maßgeblich beeinflusst. Siehe hierzu die Arbeit des Autors http://www.eike-klima-energie.eu/climategate-anzeige/arktische-sommereisschmelze-2012-menetekel-oder-nuechterne-wissenschaft/ (dort die Abb.15 und 16). Die Antwort für die grün umrundeten gibt bereits die Datenreihe von der Max Planck Gesellschaft und zwar die grüne Datenreihe, die das magnetische Polarfeld der Sonne zeigt. Der Autor möchte dies anhand der Sonnenwindaktivität weiter belegen.

 

Abb.13 zeigt den 27-Tage-Durchschnitt der Sonnenwindgeschwindigkeit in 100 km/s (Ausschnitt), Quelle: (http://www.leif.org/research/files.htm). Blau, rekonstruiert, rot, direkt gemessene Werte. Der schnelle Sonnenwind kommt entweder aus dem Nonaxisymmetric Open Flux, dort von starker solarer magnetischer Aktivität (z.B. Koronale Massenauswürfe, Coronal Mass Ejections (CME) oder aus den polaren Löchern der Sonne (siehe die genannte 8-teilige EIKE-Reihe). Deren Aktivität wird durch das Polarfeld der Sonne (grüne Datenreihe von der Max Planck Gesellschaft) bestimmt. Werden nun die oben grün umrundeten Spitzen (starke magnetische Aktivität des Polarfeldes der Sonne) mit den grün-umrundeten Spitzen in der El Niño-Datenreihe verglichen, so ist Übereinstimmung festzustellen.

Das Max Planck-Institut für Sonnensystemforschung (MPS) nennt diese Aktivität, Coronal Hole associated storms (“Physikalische Grundlagen des Weltraumwetters – Der Sonnenwind“) Abb.14.

 

Abb.14 zeigt die solare magnetische Aktivität im Zeitraum von 1930 – 2000 (Quelle: MPS).

Ergebnis:

Somit ist bisher festzuhalten, dass El Niño-Ereignisse durch drei solare Ereignisse unmittelbar ausgelöst werden:

1) Der Zunahme der Koronatemperatur in der Fläche, wenn deren Temperatur auf den doppelten Wert in der Fläche ansteigt.

2) Nach jedem Maximum im magnetischen solaren Zyklus.

3) Das Polarfeld der Sonne (schwache El Niño).

4) Der Temperaturgang der letzten 30 Jahre folgt exakt der Sonnenaktivität. Von einer Abkopplung kann keine Rede sein!

Die Messdaten und die Untersuchungen belegen in eindrucksvoller Weise, dass die globalen Temperaturen natürlichen Schwankungen, den El Niño-Ereignissen und der solaren Aktivität unmittelbar folgen. Mit CO2 oder einer angeblichen anthropogenen Erwärmung hat dies nichts zu tun. Mit dem vorliegenden Nachweis, dass alle El Niño-Ereignisse im Betrachtungszeitraum durch die solare Aktivität unmittelbar ausgelöst werden und der globale gemittelte Temperaturgang diesen Ereignissen unmittelbar folgt, ist der wissenschaftliche Beweis erbracht, dass die Erwärmung (und Abkühlung seit Beginn dieses Jahrhunderts) einzig auf die Sonne zurückzuführen ist. Eine Korrelation zu Treibhausgasen wie CO2 ist nicht zu finden, siehe Kämpfe, Kowatsch, Leistenschneider (http://www.eike-klima-energie.eu/climategate-anzeige/klimawandel-in-deutschland-real-sinken-seit-25-jahren-die-temperaturen/).

Abb.14b zu Kommentar #11:

Abb.14b  zeigt den Einfluss der QBO und des Schwabe-Zyklus auf die Winterzirkulation der Stratosphäre. Darunter die QBO im Zeitraum von 1987 – 2005. Deutlich ist ihre zweijährige Schwingung zu sehen. Jeweils vor einem solaren Maximum (1991 und 2001) ist ihre Phase länger ausgeprägt. 

Teil 2 in Kürze

Raimund Leistenschneider – EIKE




Die Gründe für das Sommerhochwasser 2013

….wenn manch deutsche Journalisten versuchen eigenständig zu denken, möchten wir Ihnen nicht vorenthalten.

So schrieb Herr Harald John jüngst in einem Leitartikel in der LVZ (Leipziger Volkszeitung) folgendes Statement:

“Schuld ist der von vielen immer noch geleugnete Klimawandel, der nicht nur zu kurzen, extrem heißen Sommern und langen, kalten Wintern führt, sondern auch zu stärkeren Stürmen und sehr langen, heftigen Regenfällen. Natürlich wird sich keine Statistik finden, die diesen Anstieg unmittelbar und für jedes Jahr nachweisen kann. Aber in der Tendenz sind sich die Experten einig: Extreme Wetterlagen nehmen deutlich zu.“

Da konnte auch BILD nichts abseits sehen und legte am 12.06. nach:

“Klimawandel schlägt voll zu“.

Die Aussagen unserer sog. Klimaforscher, wie Mojib Latif, zum aktuellen Hochwasser, erinnerten den Autor spontan an eine Comic-Lektüre, die er in seiner Jugend las – “Asterix und der Seher“. Bei Filmproduktionen wird an dieser Stelle immer angegeben. “Ähnlichkeiten mit lebenden Personen sind rein zufällig“.

Da haben wir´s, Schuld ist der Klimawandel und natürlich die Leugner, ohne die gäbe es dann wohl auch keine Flut und damit auch kein Elend – die logische Fortführung solchen Unsinns. Nein, zu dem Elend, den Prüfungen der Betroffenen, kommt das bekannte geistige Elend, nicht zuletzt hervorgerufen durch ideologische Verblendung oder politische Gleichschaltung, der deutschen Mediengesellschaft. Aber was können wir unseren Lesern, den wissenschaftlich interessierten Menschen, denn als Erklärung anbieten, dass sich in der heutigen Zeit solche Naturkatastrophen (scheinbar) häufen. Auf komplexe Themen gibt es meist keine einfache Antwort. Die Gründe sind vielfältig. Mit einem beschworenen, menschengemachten Klimawandel hat dies jedoch wenig zu tun. So ist das einzig „menschengemachte“ der statistische Vergleich, der solch Aussagen wie “Jahrhundertflut“ hervorbringt.

Sowenig wie bei den Temperaturen, können heutige Ereignisse nicht einfach mit früheren verglichen werden, da bekanntlich die Zeit den Raum ändert und wenn der Mensch diesem „Naturgesetz“ auch noch dadurch „Nachhilfe“ erteilt, indem er Flussläufe begradigt, natürliche Überflutungsgebiete, sprich Auen oder Sumpflandschaften entwässert und der Bebauung und/oder Besiedlung zugänglich macht, dann verändert er damit statistische Vergleiche. Mehr noch, er macht sie unmöglich.

So war in den Medien zu hören, dass an der Elbe eine künstliche Aue (Überflutungsgebiet) geschaffen wurde, die den Fluss entlastete und eine Pegelentlastung um 35 cm brachte. In früheren Jahrhunderten hatten unsere Flüsse dutzende solcher möglichen Überflutungsgebiete, die alle dafür sorgten, dass keine großen Flutwellen entstehen konnten und wenn doch, waren diese auf heutige Verhältnisse hochgerechnet, viel gravierender (Abb.1), als die heutige. Nein, wir haben nicht ein mehr an „Jahrhundertfluten“, nur ein mehr an Halbwissenden und leider ein mehr an Hochwasserbetroffenen, denen unser Augenmerk und unsere Hilfe zukommen sollte. Nicht einem Phantom, das es gar nicht gibt.

Abb.1: Flugschrift zum Hochwasserereignis 1651, Quelle: Bayer. Staatsbib. München, Fl.-Nr. 03099 aus “Zur Temperatur- und Hochwasserentwicklung der letzten 1000 Jahre in Deutschland“, R. Glaser, Ch. Beck, H. Stangl.

So befasst sich der DWD, der sicherlich nicht dem Lager der “Klimaleugner“ zugeordnet werden kann, vorrangig mit Erwärmungsauswirkungen (z.B.: Seine Erwärmungsprognose für das Jahr 2100), wie sie dem (menschengemachten) Klimawandel angeheftet werden und kommt zu folgendem Schluss „Langfristig seit Beginn des 20. Jahrhunderts zeigt sich zumindest großräumig kein signifikanter Trend zu mehr Trockenheit in Europa.“ (DWD, Bissolli et al., “Trockenheit in Europa im Frühjahr 2012“).

Während sich der DWD (diesmal) nicht mit Zukunftsdeutungen beschäftigte, gab Herr Prof. Schellnhuber vom PIK einer erstaunten Öffentlichkeit, anhand von Computerprogrammen  im September 2012 zu Protokoll (Fokus, 24.09.2012) ““Ostdeutschland wird durch größere Hitzewellen im Sommer und mehr Niederschläge im Winter wahrscheinlich härter getroffen“, sagte Pik-Direktor Hans Joachim Schellnhuber am Freitag in Berlin.“ (http://www.focus.de/wissen/klima/klimaprognosen/tid-27463/von-hitze-bis-hochwasser-der-klimawandel-trifft-vor-allem-den-osten-deutschlands_aid_825826.html). EIKE berichtete darüber: (http://www.eike-klima-energie.eu/climategate-anzeige/klimafolgenforscher-schellnhuber-ruft-mal-wieder-zum-umdenken-auf-kassandrarufe-statt-fundierte-wissenschaft/).

Von einem Rinnsal kann bei der Elbe nun wahrlich keine Rede sein. In Ostdeutschland sinkt auch nicht der Grundwasserspiegel, wie dies am Beispiel Brandenburgs anhand von Berechnungen bereits eintreten soll, sondern dieser steigt seit Jahren. Bei unseren Freunden aus der Klimaerwärmungsfraktion werden allzuoft Realität und Fiktion miteinander verwechselt.

Da darf natürlich auch der andere Zukunftsseher, Prof. Latif, nicht hinten anstehen. Das ZDF (12.06.) gibt ihm wieder eine Plattform für seine seherischen Statements “Zwar gab es bereits 1613 die Thüringer Sintflut und 1501 ein Extremhochwasser in Passau. Doch diese Jahrhunderthochwasser häufen sich in den letzten Jahren – das sieht man an Beispielen wie dem Oderhochwasser 1997 und 2009, der Elbeflut 2002 und nun dem Jahrhunderthochwasser 2013. Wetterphänomene im Einzelnen könne man nicht auf den Klimawandel zurückführen, erklärt Meteorologe Mojib Latif. Vielmehr müsse man die Häufung und die Intensität der Ereignisse über einen langen Zeitraum betrachten. Denn erst durch die Beobachtung des globalen Klimas über Jahrzehnte ließen sich Trends ausmachen. Steigt die Erwärmung der Erde unverändert weiter, scheint jedoch ein Trend bereits vorgezeichnet: Das Klima in Deutschland wird extremer, Wechselspiele zwischen Hitze und großer Trockenheit sowie sintflutartigen Regenfällen werden keine Seltenheit mehr sein.“

Diese Aussage stammt von demselben Latif, der im Jahr 2000 dem Spiegel (“Winter ade: Nie wieder Schnee?“) folgendes übermittelte: In Deutschland gehören klirrend kalte Winter der Vergangenheit an: „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“, sagt der Wissenschaftler Mojib Latif“ Angesichts der eingetretenen Realität und der in unserem Land eingeführten „Winterreifenpflicht“, fürwahr eine Lachnummer. Offensichtlich hat Herr Prof. Latif nichts dazugelernt und bleibt bis zum heutigen Tag bei seinen Lachnummern.

Das „Geschäft mit der Zukunft“ hat indes eine lange Tradition. Bereits unsere Vorfahren versuchten aus den Innereien von Tieren die Zukunft zu ergründen – Gänseleber und Krötenblasen waren sehr beliebt. Die Spätgermanen von heute, wie an den Beispielen Latif und Schellnhuber gezeigt, versuchen wieder aus Innereien in die Zukunft zu sehen, diesmal sind das die Bytes und Flops der Supercomputer – mit demselben Ergebnis. Doch zurück zur Realität.

Bereits bei der „Jahrhundertflut“ an der Elbe in 2002, wurde wissenschaftlich untersucht, ob diese mit einem menschengemachten Klimawandel in Verbindung zu bringen ist, bzw. inwieweit sich eine Tendenz zu höheren Pegelständen zeigt (Abb.2). (Nature, vol. 425 vom 11. September 2003, ”No upward trends in the occurrence of extreme floods in central Europe”,Mudelsee et al.).

Abb.2: Die Untersuchungen von Mudelsee et al. lassen in ihrer Deutlichkeit keinen Zweifel, weder ist eine Tendenz zu höheren Pegelständen zu sehen, noch zu vermehrtem Hochwasser. Darüber hinaus zeigen seine Untersuchungen, dass auch in früheren Zeiten mehrere „Jahrhundertereignisse“ zeitnah auftraten. Anhand seiner Untersuchungen, das letzte mal um 1700 (untere Zeitreihe).

Wie am Beispiel Latif gezeigt, wird von der Klimaerwärmungsfraktion, gern die Vokabel  „Jahrhundertereignisse“ verwendet. Womit dann dem Betrachter signalisiert werden soll, hier liefe etwas „aus dem Ruder“, wenn solche vermehrt auftreten. Die Berliner Wetterkarte des Instituts für Meteorologie der Freien Universität Berlin schrieb zu diesem heute so gern verwendetem Begriff bereits am 27.03.1981:

“Jedes Jahr mehrere Ereignisse, die jedes höchstens einmal im Laufe eines Menschenlebens zu erwarten gewesen wären – und das soll normal sein? – Die Antwort lautet: ja.

Um diese Antwort zu geben oder nachzuvollziehen, bedarf es im folgenden einer einfachen Rechnung und einer Portion gesunden Menschenverstands.

Wir machen uns dazu eine (unvollständige) Liste von wichtigen Wetterereignissen der Art, daß sie mit „dies trltt in 100 Jahren genau 1x auf“ umschrieben werden können:

Der kälteste/wärmste Monat m seit 100 Jahren: 24,

der nasseste/trockenste Monat n seit 100 Jahren: 24 ,

der sonnenreichste/-ärmste Monat o seit 100 Jahren: 24,

der stürmischste Monat p seit 100 Jahren: 12,

der kätteste/wärmste m Tag seit 100 Jahren: 24,

der nasseste/sonnenreichste n Tag seit 100 Jahren: 24,

der stürmischste p Tag seit 100 Jahren: 12,

sowie

die k./w., n.It., sr ./sä., st. Jahreszeit z seit 100 Jahren 28,

Dies ergibt nach Ablauf von 100 Jahren summa summarum 172 definierte Jahrhundertereignisse dieser Art allein in Berlin; anders ausgedrückt sind innerhalb von 3 Jahren etwa 5 Jahrhundertereignisse dieser Art allein für Berlin zu erwarten.“

Was zeigt uns die statistische Untersuchung am Institut für Meteorologie der Freien Universität Berlin? Mit diesem Begriff “Jahrhundert..“ soll Panik verbreitet werden, obwohl er lediglich Normalität beinhaltet. Latif und Co. wollen wieder einmal die Bürger für dumm verkaufen. Wen wundert’s, dass ihnen dieses bei den deutschen Journalisten wieder einmal gelungen ist, deren Kenntnisse meist an der Oberfläche enden (EIKE berichtete mehrfach darüber).

Da Latif und Co. also gerne Taschenspielertricks anwenden, um ihrem Publikum Ladenhüter zu verkaufen, soll nicht unerwähnt bleiben, dass die von Latif so geheimnisvoll genannten „Extremereignisse“, die derzeit eintreten und für die nächsten Jahre erwartet werden, für unsere Breiten nach einem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus, nichts ungewöhnliches sind, sondern Normalität. In seiner EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels, Teil 8“ hat der Autor bereits darauf hingewiesen. (http://www.eike-klima-energie.eu/lesezeichen-anzeige/teil-8-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/) Exemplarisch zeigt die Abb.3, dass in Mitteleuropa in den ersten Jahrzehnten nach einem Hauptsonnenzyklus die Temperaturen (und mit ihnen auch die Wetterereignisse) starken Schwankungen unterliegen. Der Hauptsonnenzyklus hatte übrigens in 2003 sein Maximum, als Europa unter einem Hitzesommer litt. Seither fällt die solare Aktivität stark ab.

Abb.3: Die Abbildung, Quelle: Prof. Ewert, EIKE, zeigt den Temperaturgang von München im Zeitraum von 1781 – 1991. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen am stärksten zwischen warm und kalt (rote Fläche). Bis zu dessen Minimum sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten. Vor einem Temperaturanstieg fallen die Temperaturen auf ein relatives Minimum und steigen dann kontinuierlich an (schwarze Linien). Der Grund für die starken Schwankungen nach einem Hauptsonnenzyklus sind nach Ansicht des Autors auf die unterschiedlichen Wärmekapazitäten von Wasser auf der einen und Land/Atmosphäre auf der anderen Seite zurückzuführen. Nach den Untersuchungen von Prof. Solanki (Direktor Max Planck Institut für Sonnenforschung) läuft das irdische Wettersystem der solaren Aktivität etwa 10 Jahre nach. D.h. die im Wasser gespeicherte Energie durch eine starke solare Aktivität, die bis ca. 2005 vorlag, wird verzögert wieder abgegeben – Wasser ist bekanntlich ein guter Wärmespeicher.

Wie dargelegt, bestimmt der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus, maßgeblich unser Klima. Er hatte zu Beginn des Jahrhunderts (2003) sein Maximum. Wie nach jedem Hauptsonnenzyklus gehen seither die Temperaturen deutlich zurück.

Fazit

Anhand der solaren Aktivitätsschwankungen und der Vergleiche der Temperaturentwicklung nach einem Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem spürbaren Rückgang der Temperaturen zu rechnen. Nach einem Hauptsonnenzyklus fallen die Temperaturen, dabei unterliegen sie hohen Schwankungen zwischen warm und kalt, wie dies derzeit wieder zu beobachten ist, so dass der Temperaturgang für die nächsten 10 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte. Das Klimasystem verhält sich dabei wie ein physikalisch, elektrisches System, welches in seiner Übergangsphase (Hysterese, beim Klima zwischen Warmzeit und Kaltzeit) empfindlich auf Veränderungen in seinen Eingangsgrößen reagiert. Im eingeschwungenen Zustand (z.B. kalt) ist es weitgehend stabil und nur geringen Schwankungen unterworfen. Ca. 40 – 50 Jahre nach einem Maximum im Hauptsonnenzyklus sind die Schwankungen zwischen warm und kalt weiterhin relativ hoch, allerdings auf insgesamt niedrigerem Niveau. Im „eingeschwungenen“ Zustand ist das System stabil auf niedrigem Niveau.

Obwohl die Untersuchung anhand eines, bzw. 2 Hauptsonnenzyklen sicherlich zu gering ist, um eine abschließende Aussage der Temperaturentwicklung treffen zu können, zeigt sie jedoch, dass starke Temperaturschwankungen zwischen warmen und kalten Jahren in den ersten Jahrzehnten nach einem Hauptsonnenzyklus, insbesondere in Mitteleuropa, nichts ungewöhnliches darstellen. Die heutigen Schwankungen passen somit in sehr guter Weise zu den historischen.

Was bleibt also von den Beschwörungen Schellnhubers, Latifs und Co., die wieder einmal von einer unwissenden Journalistenschar gedankenlos nachgeplappert wurden. Nichts, als natürliche Ereignisse, statistische Tricks und falsche Vergleiche. Im Comic “Asterix und der Seher“ lassen die Autoren Uderzo und Goscinny ihren Seher Vorsicht walten (dort auf S.13): „Ich muss vorsichtig sein. Aus dem anderen Dorf haben sie mich mit Fußtritten gejagt…die waren gar nicht so dumm da!“ Unsere spätgermanischen Seher brauchen in den Dörfern (Redaktionen) deutscher Journalisten vor Enttarnung keine Angst zu haben. Dort ist offenbar die Dummheit zu Hause und diese müssen sich, mitsamt den spätgermanischen Sehern, die Frage gefallen lassen, wo Realität aufhört und Comic anfängt. Die Grenzen sind dort offenbar zur Unkenntlichkeit verwischt. Lenin nannte Journalisten “Nützliche Idioten“. Eine große deutsche Journalistenschar hat in diesen Tagen wieder einmal diese Aussage grandios bestätigt.

Raimund Leistenschneider – EIKE




Klimawandel in Deutschland bedeutet Abkühlung – trotz deutlicher Zunahme von CO2, Teil 2

Mehr noch, wie wir zeigen konnten, uns in dieser, seit fast 30 Jahren, bereits befinden. Unser ausgewertetes Datenmaterial des DWD zeigt eindeutig, dass die Winter in Deutschland seit nunmehr fast 30 Jahren kälter werden. Die Jahrestemperaturen seit fast 15 Jahren nicht steigen, sondern teils deutlich sinken. Wird der Wärmeinseleffekt berücksichtigt, haben wir in Deutschland heute ein ähnliches Klima/Temperaturniveau, wie im Jahr 1881, dem Beginn der DWD-Temperaturdatenreihe. Auch wenn solche spätgermanischen Seher, wie Herr Dr. Tiersch, angesichts des Hochwassers im Süden und Osten unseres Landes, einmal mehr, einen menschengemachten Klimawandel dafür aus dem Hut zaubern.

Ödnis oder grüne Landschaften? Unser Bericht wird zeigen, dass ein CO2-Pegel von 400ppm für die Natur und damit auch für uns, kein Fluch, sondern ein Segen ist.

Die (leichte) globale Erderwärmung (sofern man sich auf die Diskussionsebene von Mittelwerten begeben möchte), die zum Anlass der Klimahype wurde, dauerte seit Ende der Kaltzeitepoche, gegen Ende der 1970-Jahre, bis gegen Ende des vorigen Jahrhunderts. Also maximal 20 Jahre. Je nach Betrachtungslage der verfügbaren Temperaturdaten und ohne WI-Bereinigung der Daten, bestand die Erwärmungsphase weitgehend aus dem El- Niño- bedingten Temperatursprung von 1997-1998. Bei linearer oder progressiver Trendberechnung, wie üblicherweise in Veröffentlichungen verwendet, zeigt sich dann, ausgehend vom Ende der Abkühlungsphase der 1960er und 70er Jahre der (politisch gewünschte) „beschleunigte“ Temperaturanstieg am Ende des 20. Jahrhunderts.

  

Abbildung 1: Die monatlichen von UAH beobachteten globalen Temperaturanomalien der unteren Troposphäre, Stand 10. Mai 2013 (http://www.climate4you.com/). Deutlich sind die beiden El-Niño-bedingten Temperaturmaxima von 1998 und 2010 zu sehen. Wie Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ zeigen konnte, werden El-Niño-Ereignisse durch drei unterschiedliche solare Ereignisse gesteuert und über die Hadley-Zellen und den Drehimpulserhaltungssatz, auf das irdische Klimasystem weitergegeben.

 Abbildung 2: Die gleiche Datenreihe mit beiden El Niño-Ereignissen und dem Temperaturverlauf vor und nach dem prägnanten El Niño-Ereignis 1998. Deutlich ist zu sehen, dass von 1979, dem Beginn der Satellitenaufzeichnungen bis 1998 der globale Temperaturverlauf flach, also ohne nennenswerte Erwärmung verläuft. Durch den El Niño wird die Temperaturkurve angehoben und stagniert seither auf höherem Niveau. Wird hingegen statistisch ein linearer Trend betrachtet, so ergibt dieser den bekannten, ansteigenden Temperaturtrend seit 1979, statistisch gesehen, obwohl dieser in der Realität längst vorbei ist und die Temperaturen seit ihrem Maximum von 1998, fallen.

In dieser Zeit ist die Kohlendioxidkonzentration weiter gestiegen. Dass jedoch „Treibhauseffekte“, wie sie vorrangig dem CO2 nachgesagt werden, keine erheblichen Erwärmungen bewirken können, wurde bereits vor 100 Jahren unter anderem mit dem sogenannten WOOD- Experiment bewiesen (Abbildung3):

Zum THE gab es bereits 1909 von dem Professor für Experimentalphysik, James W. Wood ein wegweisendes Experiment, welches das Prinzip des THE falsifiziert. 

 

Die Erwärmung eines Treibhauses (Gewächshauses) basiert also nicht auf eingesperrter Strahlung (einem sog. THE), sondern auf eingesperrter, warmer Luft (wird vom Boden erwärmt) und damit dem Ausbleiben der Konvektion. Wood beweist weiter, dass der Boden wenig Strahlung aussendet, und dessen Kühlung auf Wärmeleitung und Konvektion beruht.

Die folgende Abb.4 zeigt anhand von Satellitenmessungen, dass die weltweiten Temperaturanomalien praktisch gar nicht von den steigenden CO2- Konzentrationen beeinflusst werden:

 

Abbildung 4: Hansens Vorhersagen http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote6sym6 vor dem US-Kongress 1988, verglichen mit den nachfolgenden tatsächlichen Temperaturen, gemessen durch NASA-Satelliten. Auch hier erkennt man, dass 1998, El Niño- bedingt, weltweit das wärmste Jahr war, einen weiteren, El Niño- bedingten, schwächeren Peak, gab es 2010. Die farbigen Kurven sind die Temperaturanomalien, die sich nach Hansens Modellvorhersagen bei der reellen CO2- Entwicklung (Rot) sowie verminderten CO2-Emissionen (Orange) beziehungsweise ohne weitere Steigerungen des CO2-Gehalts (Grün) hätten ergeben sollen. Doch die reellen Anomalien (Schwarz) stagnieren und bleiben fast immer darunter- Prognosen und Realität laufen zunehmend auseinander! Quelle http://www.eike-klima-energie.eu/climategate-anzeige/the-skeptics-case/ vom 03. März 2012.

Übrigens: Nach neuen Angaben soll im Mai 2013 auf der Referenzstation Mauna Loa die 400 ppm- CO2-Konzentration = 0,04% erreicht worden sein. Aber von einer „katastrophalen Erderwärmung durch den Treibhauseffekt“ war bislang weder weltweit und schon gar nicht in Deutschland irgendetwas zu spüren. Eine kleine Anmerkung:

Wir hoffen doch sehr, dass die Gilde der Treibhausbefürworter, sich bei der Mauna Loa Station dafür bedankt, dass ausgerechnet im AR5-Jahr, dem Jahr also, in dem das IPCC den neuen Zustandsbericht vorlegt, der atmosphärische CO2-Pegel die „historische“ Marke von 400 ppm erreicht – ein Schelm, der Böses dabei denkt. Bei diesen CO2-Werten handelt es sich bekanntlich nicht um Messwerte, sondern um kompliziert ermittelte mathematische Werte, denen eine Vielzahl von Messwerten zu Grunde liegen.

Wie bereits im Teil 1 gezeigt, steigen die CO2-Konzentrationen, aber die Temperaturen fallen. Dass ist das genaue Gegenteil, der von den „Treibhäuslern“ behaupteten Korrelation. Da CO2 keine erkennbare Klimarelevanz (Klimasensitivität) hat, soll nicht unerwähnt bleiben, welchen positiven Einfluss CO2 auf die Biosphäre und somit auf das irdische Leben ausübt (siehe Abbildung 4).

Pflanzen wachsen mit mehr Kohlendioxid viel besser

– Wir haben zu wenig CO2 in der Atmosphäre und nicht zu  
   viel –

Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen dargestellt. 

Abbildung 5 (Quelle: www.nhteapartycoalition.org/pdf/LeonAshby.pdf):

In der Abbildung links wuchs der Baum in einem abgeschlossenen Gewächshaus bei einem CO2-Pegel von 385 ppm, wie er noch vor kurzem auf dem Mauna Loa gemessen wurde. Bereits bei einer Zunahme um 150 ppm auf 535 ppm ist ein deutlicher Zuwachs im Wachstum zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem heutigen Wert, was etwa dem Verbrennen sämtlicher, heute bekannter und förderbarer fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm. Solches Basiswissen kann in jedem Biologiebuch nachgeschlagen werden. Es deckt sich daher mit Untersuchungen der NASA, dass die CO2-Zunahme seit den 1980-Jahren zu einem deutlichen Ergrünen unserer Erde geführt und sich damit bereichernd auf das Artenreichtum ausgewirkt hat.

Kohlendioxid ist neben Sauerstoff, Wasser und Wärme einer der Hauptfaktoren für das Leben auf der Erde. Ohne CO2 wäre die Erde lebensfeindlich und kahl wie der Mond, da jede Fotosynthese unmöglich wäre. Die Erde bräuchte mehr und nicht weniger Kohlendioxid. (siehe Abbildung 5)

 

Abbildung 6: Mit der CO2-Zunahme wird das Ausbreiten der Wüsten verhindert.

Dass auch ein wärmeres Klima besser als ein kälteres ist, braucht angesichts der Eiszeiten, denen unser Kontinent mehrmals unterworfen war, nicht eigens betont zu werden. Was also bleibt von solchen Aufrufen “Kampf dem Klimawandel“? Nichts, als die Tatsache, uns ein schlechtes Gewissen einzureden, damit die Politik uns dann treffend abzocken kann.

Eigentlich wäre es die Aufgabe der Medien, die Bevölkerung vor öffentlichen Scharlatanen zu schützen. Doch dieser Aufgabe werden deutsche Journalisten nicht gerecht. Schlimmer noch, plappern gedankenlos nach und werden damit zu Handlangern. Von investigativem Journalismus keine Spur. Dass deren Kenntnisse in Naturwissenschaften meist bereits an der Oberfläche enden und als sehr überschaubar anzusehen sind, kann angesichts der bereits stattfindenden Abzocke (siehe Strompreise) keine Entschuldigung darstellen. Lenin nannte Journalisten “Nützliche Idioten“. Insbesondere bei ZDF und Die Zeit (EIKE berichtete mehrmals darüber) scheint man diese Aussage immer wieder aufs Neue belegen zu wollen. So, dass auch in diesem Jahr mit weiteren Einlagen zu rechnen ist und dem obigen Lenin-Zitat zu weiterer Gültigkeit verholfen wird. Insbesondere, da der neue Sachstandsbericht des IPCC (AR5) in diesem Jahr veröffentlicht wird und somit reichlich Spielraum für Wahrsager und "Wunderheiler" erwarten lässt.

Ausblick

Auch wir möchten Betrachtungen zum weiteren Klimaverlauf anstellen. Nein, keine Sorge, wir werden nicht in die Rolle des "Regenmachers" treten, wie sie unlängst bei der „Klimatagung“ in Potsdam zu sehen war oder wie sie jüngst der DWD mit seiner Klimaprognose bis zum Jahr 2100 abgab oder das PIK mit seiner Eisentwicklung gar bis zum Jahr 2500 (EIKE berichtete jeweils darüber). Auch nicht, wie der Sommer 2013 wird, was bei Wetterprognosen, die von den Anfangsbedingungen abhängen, gar nicht möglich ist. Nun hängen Klimaprognosen oder Klimaprojizierungen von den Randbedingungen ab. Da aber auch hier die Randbedingungen, wie die Flüsse von latenter oder sensibler Wärme, nur unzureichend bekannt sind und deren Fehlertoleranzen um den Faktor 10 größer als das Ergebnis sind, ist jedes Ergebnis und damit jede Klimaprognose, wie z.B. die vom DWD, sinnlos. Da hilft auch kein Supercomputer weiter, da dieser nur Algorithmen, die ihm vorher eingegeben wurden, abarbeitet und wenn die Algorithmen sinnlos (z.B. wegen der großen Fehlerbalken) sind, als Endergebnis nur ein sinnloses Endergebnis herauskommen kann.

Wir können zwar wegen der großen Unsicherheiten für den weiteren Verlauf der Temperaturen 2013 keine sichere Prognose wagen, unseren Lesern aber aufzeigen, was für die Wärme verantwortlich ist: Die Sonne und die im Meer gespeicherte Sonnenenergie (kennt jeder von Heizungsanlagen, dass Wasser ein guter Wärmespeicher ist).

Abbildung 7 (Quelle: NASA), zeigt die solare Entwicklung anhand der Sonnenflecken bis zum Juni 2013 (24. Zyklus) und den vorherigen 23. Sonnenzyklus. Solare Zyklen haben meist eine Doppelspitze in ihrer Aktivität (warum dem so ist, hat Leistenschneider in seiner EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ beschrieben). So wird aus den Reihen diverser Sonnenforscher (z.B.: Hathaway, NASA) für Mitte des Jahres das Maximum im 24. Zyklus prognostiziert. Wogegen die solare Aktivität im Dezember 2012 vergleichsweise gering war (vgl. mit kalten Temperaturen in Osteuropa). Derzeit sieht es so aus, dass auch der 24. solare Zyklus ein zweites Maximum ausprägt und wir für die Sommermonate 2013 aufgrund der höheren solaren Aktivität mit wärmeren Temperaturen rechnen können. Ob dies eintritt, wird die solare Aktivität, dem einzigen Energielieferanten der Erde, für die nächsten Monate zeigen – ob der Aufwärtstrend anhält und sich ein prägnantes zweites Maximum entwickelt.

Für Europa ist indes noch ein zweiter Parameter wichtig. Die im Wasser, hier im Atlantik, gespeicherte Sonnenenergie. Die AMO (Atlantic Multidecadal Oscillation) ist ein Maß dafür (siehe Abbildung 8).

 

Abbildung 8 (Quelle: http://www.climate4you.com) zeigt die AMO, die eine periodische Schwingung in den Nordatlantiktemperaturen wiedergibt. Diese lässt sich anhand von Messungen bis in die Mitte des 19. Jahrhunderts zurückverfolgen. Sie hatte in diesem Beobachtungszeitraum eine mittlere Zykluszeit von etwa 70Jahren und damit die doppelte Zykluszeit, wie der für die Erdtemperaturen wichtige Brückner-Landscheidt-Zyklus der Sonne. Weiter ist die AMO gegenwärtig in ihrem Maximum, das verursacht eine vermehrte Energieabgabe an die Atmosphäre, was aber nur bei beschleunigter Westwinddrift mildere Temperaturen für Mitteleuropa bedeutet, denn die Temperaturverhältnisse in Mitteleuropa können besonders im Winter bei ungünstigen Wetterlagen (übernormal häufige Nord- und Ostlagen beispielsweise im Winter 2012/13) nicht von dem wärmeren Atlantikwasser profitieren (schwache, bzw. negative NAO, Nordatlantik Oszillation – sie gibt die Druckverhältnisse zwischen Island und den Azoren wieder und ist somit ein Maß für Windbewegungen). Setzt man die Wassertemperaturen des Nordatlantiks in Relation zu den Temperaturmitteln der einzelnen Jahreszeiten in Deutschland (lineare Korrelation), so zeigt sich im Frühling, Sommer und Herbst ein allerdings nicht besonders straffer positiver Zusammenhang, der im Herbst mit bescheidenen 12% Bestimmtheitsmaß noch am deutlichsten ausfällt; während im Winter keinerlei Zusammenhang nachzuweisen ist.

Die positive, starke AMO- Phase war auch der Hauptverursacher für die in 08 und 09/2012 vergleichsweise große arktische Sommereisschmelze.

Aufgrund des prognostizierten solaren Maximums und des gegenwärtigen Maximums der AMO ist auch für 2013 eine Jahresmitteltemperatur etwas über dem Langfristmittel durchaus noch möglich. Voraussetzung wäre jedoch eine deutlich zu warme zweite Jahreshälfte, die aber nicht sicher prognostiziert werden kann (siehe oben). Nur so könnte das zwischen Februar und Mai entstandene Temperaturdefizit noch überkompensiert werden. Leider macht die (statistische) Bauernregel „Wie’s im April und Maien war, so wird das Wetter im Rest vom Jahr“ nicht viel Hoffnung auf dauerhafte Besserung- allerdings treffen derartige Regeln nicht immer zu. Pessimistisch stimmt leider ein Blick auf den Zusammenhang der Temperaturen des Zeitraumes Februar bis März zum folgenden August (Abbildung 9):

 

Abbildung 9: Wenn es in Erfurt im Zeitraum Februar und März zu kalt war, so folgte in den meisten Fällen auch ein kühler August. Weil die Zahl der Vergleichsfälle jedoch gering und der Zusammenhang mit knapp 25% nur mäßig ist, darf man allein aus dieser Tatsache aber noch nicht auf einen kühlen August 2013 schließen- Ausnahmen sind bei unserer wechselhaften Witterung immer möglich! Mit hoher Wahrscheinlichkeit lässt sich aber sagen, dass es in naher Zukunft und damit auch im Rest des Jahres 2013 zu extremen Temperaturschwankungen kommen wird, so dass neben längeren kälteren Witterungsphasen auch einzelne Hitzewellen möglich sind (Vergleichsfall 2010), weil das typisch für eine beginnende Abkühlungsphase ist (KÄMPFE/LEISTENSCHNEIDER/KOWATSCH, 2013).

Weiterhin muss bedacht werden, dass das Langfristmittel 1961 – 1990, auf das sich bei heutigen Vergleichen immer bezogen wird, in einer Kälteepoche liegt. Schon deshalb wäre es nicht ungewöhnlich, wenn das Jahr 2013 dessen Wert erreichte oder etwas überträfe. Wird sich hingegen auf die letzten 25 Jahre bezogen, so liegen die heutigen Jahresmittelwerte nicht über, sondern bereits leicht unter dem Durchschnitt. Das zeigt uns Abbildung 10:

Abbildung 10: Ausgerechnet, seitdem das IPCC und andere selbst ernannten Klimaschützer mit ihren Panikmeldungen über eine angeblich sich ständig fortsetzende Erwärmung begonnen haben, stagnieren die Temperaturen und sind gegen Ende der Betrachtungsphase auch noch fallend. Umso mehr, wenn die Kurve auch noch um den Wärmeinselfeffekt (WI) für die letzten 25 Jahre bereinigt wird.

Die Abkühlung der letzten Jahre ist indes nicht gleichmäßig auf alle Monate verteilt. Interessant ist, dass vor allem der Wonnemonat Mai in Deutschland besonders kälter wurde. Auch der diesjährige Mai hat den anhaltenden Abwärtstrend der letzten Jahre fortgesetzt. Auf dem Lande, wo der Wärmeinseleffekt der Städte weniger wirkt, war es um einiges kälter, als die Gesamtkurve für Deutschland angibt. So mussten viele Maifeste 2013 wegen der kalten und vor allem extrem nassen Witterung abgesagt werden. „Komm lieber Mai und mache die Bäume wieder grün“, sagt ein 250 Jahre altes Lied aus der Kleinen Eiszeit. Im Mai 2013 war bei den Eichen und den Eschen, je nach Region und Höhenlage, erst zwischen dem 15. und 31. des Monats der Laubaustrieb beendet.

 Abbildung 11: Vor allem der Wonnemonat Mai zeigt die momentane Abkühlungsphase besonders deutlich. Mit 11,7°C liegt der Mai 2013 deutlich unter dem Schnitt der letzten 16 Jahre. Dieser beträgt 13,3°C. Sobald die Blattknospen aufgesprungen sind und die Fotosynthese angelaufen ist, beschleunigt die zunehmende CO2-Konzentration der letzten Jahrzehnte grundsätzlich das weitere Blatt- und Pflanzenwachstum (siehe Abb.4, CO2 ist ein Pflanzendünger, was seit langen auch angewendet wird). Dem wirkt die gerade erst wieder erlebte Maikälte entgegen. Mit einem CO2-Wert von 300 ppm, wie er für die Zeit von vor 250 Jahren anhand von Eisbohrkernuntersuchungen vorgeherrscht haben soll*, wäre der Blattaustrieb der Bäume wohlweiter zurück.

*Es gibt wissenschaftliche Untersuchungen, die diesen niedrigen atmosphärischen CO2-Wert anhand von Stomata-Untersuchungen von Blättern widerlegen. Diese wurden bereits vor mehr als 10 Jahren veröffentlicht (Dr. Friederike Wagner, "Rapid atmospheric CO2 changes associated with the 8,200-years-B.P. cooling event", PNAS, Proceedings of the National Academy of Science of the USA). Aus einer weiteren Untersuchung ist die folgende Abbildung.

 

Abbildung12, Quelle: Kouvenberg et al, „Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis  of  Tsuga heterophylla needles” (Geology, Januar 2005) zeigt den atmosphärischen CO2-Gehalt für die letzten 1.200 Jahre (grün) zu Law Dome-Eisbohrkern (Rechtecke).

Die Stomata-Daten zeigen, dass der atmosphärische CO2-Gehalt weitaus variabler ist, als die Eisbohrkerndaten dies ergeben. Der Grund dafür zeigen die Untersuchungen von Prof. Alexander Wilson und Prof. Austin Long. Der CO2-Gehalt ergibt keinen Hockey-Stick, mit einem gleichbleibenden, vorindustriellen CO2-Pegel von 280 ppm, der zum ausgehenden 20.Jahrhunert steil ansteigt, sondern eine Fluktuationskurve, in der der CO2-Gehalt in den vorherigen Jahrhunderten, insbesondere vor 1.200 Jahren (um das Jahr 800), ähnlich hoch war wie heute.

Bei der sog. Eisbläschen-Methode zur CO2-Ermittelung wird üblicherweise Eis gemahlen oder geschabt, wobei die in Blasen gefangene Luft entweicht und für Analysezwecke gesammelt wird. Bereits 1997 berichteten Prof. Alexander Wilson und Prof. Austin Long von der University of Arizona (Geophys. Res., 1997, 102(C12), 26601), dass sich andere und höhere CO2-Konzentrationen ergeben, wenn man das Kohlendioxid durch Verdunstung aus dem Eis abtrennt. Am deutlichsten waren die Unterschiede bei Eis aus größeren Tiefen, also aus älterem Eis des Bohrkerns, der aus vergleichsweise warmen Perioden stammte. Die Erklärung hierfür ist, dass CO2 aus den Luftbläschen in das feste Eis übergetreten ist, von wo es nur durch Verdunstung wieder gewonnen werden könne. "Kohlendioxid ist in Eis löslich", sagte Wilson. "Je tiefer man in den Eiskern eindringt, nehmen Zeit und Druck zu, und dies führt zu einem deutlichen Übertritt von Kohlendioxid ins Eis."

So ist natürlich auch die aktuelle Hochwasser- Situation in weiten Teilen Mittel- und Süddeutschlands kein Beleg für eine „Klimaerwärmung“- im Gegenteil. In der Vergangenheit traten Unwetter, verbunden mit Hochwasser oder die Sturmfluten an den Küsten, bevorzugt am Beginn der Abkühlungsphasen auf (schwerstes Hochwasser des 2. Jahrtausends in Deutschland 1342, als bis zu 14 Meter tiefe Schluchten innerhalb weniger Tage gerissen wurden, siehe GLASER 2008; Marcellus- Sturmflut 1362, Thüringer Sintflut Ende Mai 1613, Ostsee-Sturmflut November 1872). Leider hat es also fast auf den Tag genau 400 Jahre nach der „Thüringer Sintflut“ dort wieder ein schweres Hochwasser gegeben, dessen Auswirkungen glücklicherweise aber nicht ganz so dramatisch waren. Mögliche Ursachen für die verstärkten Unwetter in Abkühlungsphasen sind sich verschärfende Temperaturgegensätze zwischen hohen und niederen Breiten (die Abkühlungen setzen meist im Norden ein und fallen dort stärker aus) sowie die Trägheit des Klimasystems- die von der vergangenen Erwärmungsphase gespeicherte Energie wird nun freigesetzt.

Wetter und Klimasind also so normal wie schon immer. Erfreuen wir uns am Wetter, wie es ist. Und für das bislang witterungsmäßig äußerst bescheidene Jahr 2013 halten wir es mit den Aussagen berühmter Persönlichkeiten vergangener Zeiten wie Heinrich Heine und Kurt Tucholsky: "Der Deutsche Sommer ist ein grün angestrichener Winter“, und "Wegen ungünstiger Witterung fand die Deutsche Revolution (bloß) in der Musik statt.“ Wie man sieht, hat sich beim Wetter nichts Gravierendes verändert. Wir können es nicht beeinflussen, genauso wenig, wie wir seine Integrationsgröße, das Klima, beeinflussen können und das sog. 2°-Ziel der Politik als Unsinn entlarvt oder besser ausgedrückt, als Abzocke Instrument.

Unser derzeitiges Wetter/Klima ist nichts Außergewöhnliches, sondern „normal“ und hüten wir uns vor Propheten, die uns anhand von Modellen erzählen wollen, wie denn das Klima im Jahr 2100 sein wird. Erstens ist solches mit Modellen gar nicht möglich und zweitens, wollen die meist nur unser Bestes, unser Geld nämlich. Die einen, um die Staatskassen zu sanieren und die anderen, um weiter Fördermittel zu erhalten. Insofern ist von staatlichen Institutionen, wie dem DWD, nicht viel Aufklärung zu erwarten. Von der Politik, die z.B. “grün“ als Daseinsberechtigung in ihrem Namen trägt, erst Recht nicht. Die Idee dahinter ist immer dieselbe: Wir sollen für die Beteiligung am lebensnotwendigen CO2-Kreislauf Abgaben bezahlen. Dafür versprechen uns dann „Wunderheiler“, das Weltklima zu schützen. Wunderheiler und Heilsprediger hat es in der Menschheitsgeschichte vielfach gegeben – fallen wir nicht darauf herein!

Der angebliche Klimaschutz ist ein Geschäftsmodell. Das hat eindrucksvoll Herr Hartmut Bachmann in mehreren Veröffentlichungen beschrieben. Schließlich war er mit dabei, als der selbsternannte Weltklimarat (IPCC) gegründet wurde:

http://www.klima-ueberraschung.de/

Bezeichnend für unser Land, dass sich die deutschen Medien wieder einmal "ihrer" deutschen Tradition widmen, die in Ostdeutschland bis 1989 zu bestaunen war. In Westdeutschland liegt diese "Tradition" etwas länger zurück. Wir bei EIKE werden das Unsrige tun, die von der deutschen Presse geschaffene Aufklärungslücke auszufüllen. Es wird endlich Zeit, dass solche Institutionen wie PIK = Potsdamer Institut für Klimafolgenforschung, keine öffentliche Unterstützung für ihre Zukunftsmärchen mehr erhalten und sich die dortigen "Wissenschaftler" im harten (wissenschaftlichen) Wettbewerb behaupten, anstatt sich vom Steuerzahler alimentieren zu lassen. Soll es sich im letzten Jahr um einen Betrag von über 20 Millionen Euro gehandelt haben.

Liebe Leser der EIKE-Homepage,

Wer direkt mit dem DWD Kontakt aufnehmen möchte, dem sei diese Adresse empfohlen

 

info@dwd.de

Wir schlagen folgendes Anschreiben vor:
Sehr geehrte Damen und Herren des DWD
DWD-Verlautbarungen der letzten Jahre (z.B. Presse-Mitteilungen) zum Klimawandel sind für uns nicht nachvollziehbar, wie z.B. diese hier:

„Der langfristige Trend zu steigenden Temperaturen ist in Deutschland und weltweit ungebrochen."

(Quelle DWD: http://www.dwd.de/bvbw/generator/DWDWWW/Content/Presse/Pressekonferenzen/2012/PK__03__05__12/ZundF__PK__20120503,templateId=raw,property=publicationFile.pdf/ZundF_PK_20120503.pdf )

Auf der einen Seite sprechen Sie von ungebremster Erwärmung (Zitat w.o.), auf der anderen Seite veröffentlichen Sie die realen Daten aus Deutschland, die offensichtlich das Gegenteil zeigen (www.dwd.deè "Klimawandel")

Als Bundesbehörde sind Sie gesetzlich zur Aufklärung und auch zu Auskunft verpflichtet. Wir bitten Sie daher um eine Antwort, welche diese Widersprüche aufklärt.
Mit freundlichen Grüßen

  

Raimund Leistenschneider – EIKE

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

…………………………………………

Literatur:

Viele Wärmeinseleffekte führen zur Klimaerwärmung.

http://www.wahrheiten.org/blog/2012/06/11/viele-waermeinseleffekte-fuehren-zur-klimaerwaermung/#more-27081

http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-als-massgeblicher-treiber-der-gemessenen-temperaturen/

http://www.eike-klima-energie.eu/news-cache/starker-temperaturanstieg-seit-1979-in-erfurt-warum-co2-dabei-nur-eine-unbedeutende-nebenrolle-spielt-teil-1/

Zukünftige Temperaturentwicklung in Deutschland – Wärmer oder Kälter? (Teile 1 und 2)

GLASER, R. (2008): Klimageschichte Mitteleuropas. 1200 Jahre Wetter, Klima, Katastrophen. 264 Seiten. Primus Verlag, 2. Auflage.

http://wattsupwiththat.com/2013/02/06/the-r-w-wood-experiment/#more-78966 (Anmerkungen von W. ESCHENBACH zum WOOD- Experiment).

Kouvenberg et al, „Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsugaheterophylla needles” (Geology, Januar 2005)

Dr. Friederike Wagner, "Rapid atmospheric CO2 changes associated with the 8,200-years-B.P. cooling event", PNAS, Proceedings of the National Academy of Science of the USA

http://www.eike-klima-energie.eu/climategate-anzeige/the-skeptics-case/Evans, D. M. W. (2012): The Skeptics Case

KE Research, "Rettung von den Klimarettern – Gibt es die "Gefahr für das Weltklima"?", Klaus Ermecke




Klimawandel in Deutschland bedeutet Abkühlung – trotz deutlicher Zunahme von CO2 (Teil 1)

Update 9.5.13:

In der Print-Ausgabe der Süddeutschen Zeitung vom 8/9.5 interviewt Christopher Schrader den Chef des Deutschen Wetterdienstes DWD Paul Becker zur stagnierenden Temperatur und in Deutschland. Anders als u.a. hier dargelegt behauptet Paul Becker:  

Wir sind der festen Überzeugung dass die von der Menschheit ausgestoßenen Treibhausgase für den Klimawandel (!) verantwortlich sind und dass er weitergeht. Aber für eine gewisse Zahl von Jahren kann der Temperaturanstieg durch natürliche Effekte maskiert werden…..Wenn wir annehmen, seit 15 Jahren dümpelt die Temperaturentwicklung vor sich hin, dann sollte sich in den nächsten 10 bis 15 Jahren deutlich etwas tun. Das passt auch zu den Klimaprojektionen die besagen, dass die Temperaturen gegen Mitte des Jahrhunderts steil ansteigen….Der physikalische Zusammenhang- erhöhte CO2 Werte erzeugen einen Temperaturanstieg – ist gesichert….Soweit das Interview.

Text

…So wenig wie Computerprogramme die nächsten Lottozahlen voraussagen können, so wenig können diese auch sonst wie in die Zukunft sehen. In den Erwärmungsprophezeiungen überschlagen sich die selbst ernannten Klimaschützer und  Alarmisten ein ums andere mal. Ende 2100 soll es mindestens um 3 Grad, bis um ein mehrfaches davon, wärmer werden, so ihre abenteuerlichen Vorhersagen, mit denen sie immer wieder in einem Pathos von Endzeitstimmung über uns herfallen. Was sehr stark an pseudoreligiöse Metapher erinnert, mit Wissenschaft aber rein gar nichts zu tun hat.

Während der DWD Zusehens den Boden der Realität unter seinen Füßen verliert und sich in immer abenteuerlichen Erwärmungsszenarien verstrickt, zeigen wir, anhand des gemessenen DWD-Datenmaterials, dass es (leider) kälter wird in Deutschland.

 

Abbildung 1: Für die letzte 15 Jahre wurde ein Temperaturanstieg von etwa 0,4 C vorhergesagt. Tatsächlich sind die Temperaturen um diesen Betrag gefallen und nicht angestiegen.

Temperatur-Vorhersagen in dem Klimamodellen der Warmisten gehen von zwei Grundannahmen aus, die anschließend miteinander in Verbindung gebracht werden, eine davon ist richtig, die andere falsch, so dass gemäß mathematischer Logikregeln, das Gesamtergebnis nur falsch sein kann.

1.te Behauptung: Die CO2-Konzentrationen in der Atmosphäre steigen.                    

Diese Behauptung ist richtig, wie die folgende Abbildung zeigt:

 

Abbildung2: Für diese Zunahme des Kohlendioxidgehaltes von  355 ppm vor 22 Jahren, auf nun 394 ppm, was etwa einer 10%igen Zunahme entspricht, ist der Mensch durch den anhaltend hohen „Energieverbrauch“, durch chemische Prozesse, mit verantwortlich. Wie hoch dieser Anteil im Vergleich natürlicher Prozesse, Vulkanismus und vor allen, die bei Erwärmung zusätzlich aus den Meeren und dem Boden ausgasenden CO2-Anteile, oder im Vergleich zu Brandrodungen ist, gehen die Untersuchungen weit auseinander. EIKE berichtete darüber

(http://www.eike-klima-energie.eu/climategate-anzeige/die-sahara-spitzenreiter-beim-co2-ausstoss/). Neue Forschungsergebnisse, unter anderem von M. SALBY (2011) zeigen aber, dass der weitaus größte Teil des freigesetzten CO2 aus natürlichen Quellen stammt. Die Menschheit emittiert 5 bis 6 Gt (Gigatonnen) pro Jahr, aber die Ozeane emittieren etwa 90 Gt und die Landpflanzen etwa 60 Gt. Es gehen also nur etwa 3 bis 4% der jährlich in die Atmosphäre entweichenden CO2- Menge auf das Konto der Menschheit. Der beobachtete CO2- Anstieg hat überwiegend natürliche Ursachen; er ist eine zeitverzögerte Folge vergangener Erwärmungen.

 

Abbildung 3 zeigt die globalen CO2-Emissionen (Quelle: Institut für Umweltphysik der Uni Bremen, die Meeresflächen wurden nicht betrachtet). Deutlich ist sichtbar, dass nicht die industriellen Gebiete, mit einem hohen Energieverbrauchsanteil, die Hauptemittenten sind, sondern dünn oder gar nicht besiedelte Wüstengebiete. Dies deckt sich übrigens mit den Messungen der CDIAC (Carbon Dioxide Information Analysis Center), die zeigen, dass aus der nicht oder nur dünn besiedelten Landfläche der weitaus größte CO2-Anteil stammt (Abbildung 4).

Die folgende Bildfolge zeigt den jahreszeitlichen C-Emissionsunterschied der Landfläche zwischen den Monaten Januar, April, Juli und Oktober.

 

Abbildung 4 zeigt die Veränderung der C-Emissionen im Januar, April, Juli und Oktober. Blaugrüne und olivgrüne Farbtöne bedeuten geringe, rötliche und gelbliche hohe Emissionen. Die Datenerfassung erfolgte in einem 0,5°-Raster, Quelle: (http://cdiac.ornl.gov/epubs/db/db1015/db1015.html). Sie deckt sich mit der satellitengestützen Abbildung 3.

Preisfrage: Was setzt mehr CO2 frei- Die Atmung der 7 Mrd. Menschen oder deren Emissionen durch den Autoverkehr? Es ist die Atmung! Wer nun immer noch auf einer Senkung der CO2- Emissionen beharrt, der halte also am besten den Mund.  

2.te Behauptung:

Kohlendioxid ist ein Treibhausgas und hat Einfluss auf die Temperaturen. Ein steigender CO2-Gehalt in der Atmosphäre führt zwangsläufig zu steigenden Temperaturen.

Diese Aussage ist aus mindestens 5 Gründen falsch: 

1)    Es gibt keinerlei Versuchsbeweise für diese Behauptung.

2)    Es gibt auch weltweit keine Beobachtungen, wonach ein höherer CO2-Gehalt, wie er etwa im Umkreis von Kohlekraftwerken herrscht, dort zu steigenden Temperaturen geführt hat.

3)    Es gibt auch keine technischen Erfindungen, die auf dem behaupteten CO2-Erwärmungseffekt aufbauen oder damit begründbar wären. Weder gibt es in der Heizindustrie Anlagen, die durch den CO2-THE ihren Wirkungsgrad steigern könnten, noch in der Bekleidungsindustrie Modeartikel, die dank einer CO2-Füllung schön warm halten. Die Liste ist beliebig fortführbar.

4)    In der geologischen Vergangenheit (Karbon und Mesozoikum) war die CO2- Konzentration um bis zu 10mal höher als heute, ohne dass das Klima kollabierte- im Gegenteil, damals herrschte ein sehr reiches Pflanzen- und Tierleben, und man muss davon ausgehen, dass die meisten Pflanzenarten an höhere CO2- Konzentrationen, als sie heute herrschen, angepasst sind. Laut W. KÖSTER (2009) liegt das Optimum der CO2- Konzentration für den Winterweizen bei 1.200ppm, dem dreifachen der heutigen CO2- Konzentration. Die folgende kleine Abbildung zeigt die in der Vergangenheit der Erde viel höhere CO2- Konzentration (schwarze Kurve) und auch, dass es meist keinen Gleichklang von CO2 und Temperaturen (blaue Kurve) gab, Abbildung 5:

 

Abbildung 5 zeigt Temperaturgang und CO2-Konzentration der Atmosphäre über die vergangenen 600 Mio. Jahre.

5)    Die gut bezahlten Erwärmungswissenschaftler haben aufgrund der CO2-Klimasensitivität um die Jahrtausendwende eine weitere Erwärmung auch für Deutschland vorhergesagt. Diese sollte mindestens 0,2 Grad im ersten Jahrzehnt betragen.

Auch diese 5. Aussage ist nicht eingetroffen und somit falsch: Die Temperaturen fallen in Deutschland und weltweit.

Am Ende des Jahres 2012 hat der Deutsche Wetterdienst die Mitteltemperatur des Jahres veröffentlicht  (http://www.dwd.de/presse ; 28.12.2012). Sie betrug 9,1 C. Es gab zwar dazu in den Medien diesmal keine Warnungen vor einer unmittelbar bevorstehenden Wärmekatastrophe, aber auch keine realistische Kommentierung. Alles wurde so dargestellt, dass  der Betrachter auf eine Fortsetzung der Erwärmung schließen konnte. Mit keinem Wort wurde erwähnt, dass wir seit 2001  auch in Deutschland einen fallenden Temperatur-Trend haben. Das bedeutet: Es wird kälter in Deutschland und nicht wärmer.

Mit dem Jahreswert für 2012 sieht die Trend-Kurve der Temperatur in Deutschlands für die letzten 15 Jahre so aus:

Abbildung 6: Die Grafik zeigt deutlich eine Abkühlung und keine Erwärmung. Die Temperatur-Grafik beginnt mit dem Jahr 1998 = Wert 1, und endet 2012 =  Wert 15, Quelle der Temperaturen: Archiv des Deutschen Wetterdienstes. Die schwarze Trendlinie zeigt einen deutlichen Temperaturrückgang. Die Daten sind noch nicht um den Wärmeinseleffekt (WI) bereinigt, denn dieser WI hat in Deutschland in den letzten 15 Jahren zugenommen. Sonst wäre der fallende Trend über die letzten 15 Jahre stärker. Der WI- Korrektur Faktor beträgt für 15 Jahre etwa 0,2 bis 0,3 Grad. (siehe Literaturangaben).

Verschleierung der Temperaturabnahme und Täuschung der Öffentlichkeit

Besonders in Deutschland wird seit ca. 20 Jahren Angst und Schrecken über die drohenden Gefahren eines sich angeblich anthropogen verstärkenden Klimawandels verbreitet, woran sich in den letzten Jahren zunehmend auch der Deutsche Wetterdienst in Offenbach (DWD) beteiligt. In internen Mails an die Autoren wird zwar zugegeben, dass 1998 weltweit das wärmste Jahr war und dass die „stagnierenden“ Temperaturen noch bis 2020 anhalten werden, aber danach rechnet der DWD mit dem verstärkten Einsetzen der Erwärmung. Wie man an der Abbildung 6 leicht erkennt, argumentiert der DWD damit gegen seine eigenen Temperaturerhebungen. Anstatt fallend, redet man in internen Mails von stagnierend und in der Öffentlichkeit von sogar von steigend.

Schreckensszenarien von teuer bezahlten Klimawissenschaftlern überschlagen sich von Jahr zu Jahr. Städte und Gemeinden werden aufgefordert, gegen die sich angeblich verstärkende Erderwärmung anzukämpfen, zumindest "Vorsorge" zu treffen, denn sonst würde in naher Zukunft der Klimakollaps drohen. "Kampf dem Klimawandel“ heißen die Parolen, unter denen dann gegen den vermeintlichen Feind, das vom Menschen erzeugte Kohlendioxid teilweise "kriegsmäßig" vorgegangen wird. Städte und Gemeinden nehmen dieses Ansinnen gerne auf, bietet es doch vielfältige Gelegenheiten, die stets kranke Staatskasse mit unseren Abgaben zu füllen.

Die Realität in der Natur ist indes aber eine ganz andere.

Es gibt keinen globalen Trend zu mehr Extrem-Wetter:

http://www.eike-klima-energie.eu/news-cache/extrem-wetter-hysterie-und-kein-ende-oder-neues-aus-der-anstalt/

Es gibt auch keinen Erwärmungs-Trend seit 15 Jahren, auch global nicht :

http://www.eike-klima-energie.eu/news-cache/g-l-o-b-a-l-c-o-o-l-i-n-g-wo-bleibt-die-erderwaermung/

http://www.kaltesonne.de/?p=1115

…und auch in Deutschland nicht : vgl. Abbildung 1

Dabei wird auch erkennbar, dass seit 15 Jahren – wie schon in früheren Phasen des 20. Jahrhunderts – keine Korrelation zwischen der Temperatur und CO2 existiert !

Wir halten als vorläufiges Ergebnis fest. Es gibt keinen Zusammenhang zwischen einem atmosphärischen CO2-Pegel und der Temperaturentwicklung. So ist denn die Wortschöpfung „Klimaschutz“ eine Erfindung  der Klimalobbyisten, deren oberste Institution der selbsternannte Weltklimarat ist. Klimaschutz ist ein Geschäftsmodell. Kohlendioxid ist kein Klimakiller, sondern ein lebenswichtiges Gas. (dazu mehr im Teil 2). Ohne CO2, den Grundnährstoff allen Lebens, wäre die Erde wüst und leer wie der Mond. Der Fokus muss demnach auf Natur- und Umweltschutz liegen und nicht auf Klimaschutz, damit z.B. endlich damit aufgehört wird, die schönsten Gegenden unseres Landes mit hässlichen und nutzlosen Windmühlen zuzupflastern – den modernen Massenvernichtungswaffen, denen jährlich hunderttausende Vögel qualvoll zum Opfer fallen. Ein Trauerspiel, was aus Organisationen wie BUND, NABU oder Greenpeace geworden ist, die tatenlos diesem organisierten Massensterben nicht nur zusehen, sondern ihm auch noch das Wort reden – dem massenhaften Todesurteil für hunderttausende Vögel. Jährlich! Und niemand dort kann sich herausreden, er hätte von allem nichts gewusst: (http://www.eike-klima-energie.eu/climategate-anzeige/windraeder-toeten-voegel-und-fledermaeuse-update/)

Dass es nach dem Ende einer Kaltzeit, der Kleinen Eiszeit, wieder wärmer wurde, ist nichts Ungewöhnliches, sondern ein natürlicher, immer dagewesener Klimawandel, von wärmeren zu kälteren und von kälteren zu wärmeren Temperaturen:

1)    Von 1850, dem Ende der kleinen Eiszeit bis heute messen die deutschen Stationen einen Temperaturanstieg. Dabei sind die Temperaturen  in Deutschland und weltweit in den letzten 15 Jahren aber wieder deutlich  gesunken, sie sind aber immer noch höher als 1850. (siehe rote Kurve der Abbildung 7).

2)    Anders sieht die Betrachtung aus, werden die Temperaturdaten um den Wärmeinseleffekt bereinigt. Dies muss man immer tun, wenn man Temperaturen  mit früher vergleicht, denn die Messstationen des DWD sind bei der Erfassung der Daten mehr oder weniger durch diese Zusatzwärme aus Bebauung, veränderter Oberflächennutzung und Abwärme von Industrie, Verkehr und Haushalten der letzten 130 Jahre zunehmend beeinflusst worden (siehe blaue Kurve der Abbildung 7). Da die Zeit bekanntlich den Raum ändert, muss der WI bei Vergleichsmessungen zu früheren Jahren berücksichtigt werden.

Dass es diese Wärmeinselzugabe gibt, zeigen am besten diese beiden Zeitungsmeldungen zum April 2012 in der Südwestpresse an praktischen Beispielen:

„Das Frühjahr 2012 war um 2,1 Grad zu warm und brach im April viele Temperaturrekorde“

„Die Spargelernte fiel wegen der Aprilkälte dieses Jahr geringer aus.“

Beide Aussagen sind für sich betrachtet richtig, denn der Spargel wächst ja nicht vor dem Rathaus oder neben der beheizten Schule.

3) In der freien Fläche Deutschlands ist in den letzten Jahren der eigentliche Wonnemonat Mai wieder so kalt wie zu Mozarts Zeiten, und der lebte bekanntlich in der kleinen Eiszeit. Alle Lieder und Naturbeschreibungen von damals, die den Mai als Thema haben, passen genau in unser Jahrzehnt und geben den Vegetationsstand in der freien Fläche Deutschlands, weitab aller flächenhaften Wärmeregionen exakt wider. Als Beispiel sei genannt: „Komm lieber Mai und mache, die Bäume wieder grün“.

http://www.youtube.com/watch?v=M_j1il65RY0

So verwundert es denn nicht, dass die WI-bereinigten Vergleichstemperaturen keinen Erwärmungstrend mehr aufweisen (Abbildung 7).

Abbildung 7 (Quelle: EIKE) zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2012. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass die heutigen Temperaturen im 120-Jahresvergleich zu kalt sind. Zum berechneten WI wurde, wie dies auch beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (gelb).

Für die freie Fläche Deutschlands, weitab aller vom Menschen geschaffenen Wärmeinseln, gilt die blaue Temperaturkurve der Abb. 7. Es wurde deutlich kälter. Das zeigen auch die Vegetationszustände in der freien Fläche. Unsere Aufnahme unten entstand im Frankenbachtal, einige Kilometer entfernt von den Wärmeinselstädten Aalen und Ellwangen. Der Standort liegt auf 450m Meereshöhe. Jedem aufmerksamen Naturbeobachter unter den Lesern ist aufgefallen, dass der Monat Mai in den letzten Jahren wieder kälter wurde. Auch 2013 startete der Mai, vom äußersten Süden Deutschlands abgesehen, deutlich unterkühlt- in Norddeutschland gab es sogar verbreitet Boden- und vereinzelt gar Luftfröste. Der Maikäfer braucht nicht in Aprilkäfer umbenannt zu werden, denn im April haben die Bäume in der freien Fläche noch keine Blätter, wie zur kleinen Eiszeit.

Abbildung 8a: Diese Aufnahme im Frankenbachtal in Süddeutschland stammt vom 19. Mai 2012.

Das Tal liegt weitab von städtischen Wärmeinseln. Deutlich ist der noch geringe Blattaustrieb auf den ersten Blick erkennbar.

Abbildung 8b) Derselbe Standort, Aufnahme vom 1.Mai 2013. Der April war 2012 und 2013 gleich warm mit 8,2 C. Am 1. Mai 2013 sind die Bäume noch fast kahl. Die Krötenwanderung setzte erst Ende April ein. „Komm lieber Mai und mache die Bäume wieder grün“, gilt uneingeschränkt in den letzten Jahren, die immer kälter wurden. Die angenehme kurze Erwärmungsperiode zu Ende des letzten Jahrtausends ist vorbei. Es geht langsam wieder abwärts mit den Temperaturen.

Aufgrund der geschilderten Tatsachen und der Messergebnisse, muss der Schluss gezogen werden, dass sog. Treibhausgase wie Kohlendioxid entweder gar nicht treibhauswirksam sind oder eine nur sehr unbedeutende Wirkung auf die irdischen Temperaturen hat, die in Korrelationen nur deshalb als allenfalls mäßiger Zusammenhang zur Temperatur (Bestimmtheitsmaße nur um 20%, siehe KÄMPFE/LEISTENSCHNEIDER/KOWATSCH 2012 Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teile 1 und 2) feststellbar ist, weil CO2 der Temperatur folgt (bei höheren Temperaturen wird mehr CO2 in der Biosphäre freigesetzt).

Bei der angeblichen Klimaerwärmung aufgrund von CO2 handelt es sich schlichtweg um ein neues deutsches Märchen.

Bereinigt man die deutschen Temperaturdaten um den Wärmeinselfaktor, wie wir es in Abb. 7 getan haben, dann kommt man leider zur bedauernswerten Feststellung: nach der globalen Abkühlungsphase seit 1998 haben wir fast wieder die Temperaturen wie zur Kleinen Eiszeit erreicht.

Vor allem die Jahreszeiten Winter und Frühling sind in der freien Fläche identisch mit denen der Kleinen Eiszeit.  Das beweisen uns gerade die Vegetationsbetrachtungen in der freien Fläche. Dort ist die Vegetation genauso weit wie dies unsere Dichter und Naturerzähler vor 250 Jahren schilderten. Unsere deutschen Winter- und Frühlingsgedichte und die Maienlieder aus dieser Zeit entsprechen exakt den Vegetationsbeobachtungen von heute.

Diese Naturbeobachtungen sind ein weiterer Beweis dafür, dass unsere Berechnungen zum flächenhaften Wärmeinseleffekt aus denen die Abbildung 7 hervorging, in dem angegebenen Streubereich richtig sind.

Stefan Kämpfe, Weimar,

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider, EIKE




Zukünftige Temperaturenentwicklung in Deutschland – Wärmer oder Kälter? (Teil 2)

…So konnten anhand historischer und aktueller Daten, nach einem Hauptsonnenzyklus starke Ausschläge zwischen warm und kalt nachgewiesen werden und sind in unseren Breiten als „normal“ anzusehen, was bedeutet, dass das Klima/Wetter in Deutschland für die nächsten Jahre starken Schwankungen zwischen warm und kalt unterliegt. So freut es uns natürlich, dass die Warmisten von PIK und Co. zu ähnlichen Aussagen, was die Schwankungen betrifft, gelangen. Dass deren Erklärungen hierzu, jedoch an der Wirklichkeit vorbeigehen und der Realität (wieder einmal) nicht standhalten, zeigt unser Teil 2.

Obwohl wir kälteren Zeiten entgegen gehen, werden Mammut und Wollnashorn in unseren Breiten nicht mehr erscheinen. Übertreibungen solcher Art, wenn auch in die andere Richtung, überlassen wir PIK, AWI, ZDF und Co. Wir wollen uns mehr an der Naturwischenschaft orientieren. Abbildung, Quelle: Wikimedia.commons

PIK und AWI behaupten: Es ist kälter, weil es wärmer wird

Dass für die nächsten Jahrzehnte mit hohen Schwankungen zwischen warm und kalt zu rechnen ist, hat Leistenschneider bereits in 09/2011 in seiner EIKE-Reihe, “Dynamisches Sonnensystem – Die tatsächlichen Hintergründer des Klimawandels“ festgehalten und dies anhand historisch gemessener Temperaturdaten, wie sie z.B. in den Abbildungen 15 bis 19 (Teil 1) zu sehen sind, festgehalten und mit der Sonnenphysik beschrieben. Umso erfreulicher, dass gegenwärtig die sog. Warmisten sich seine Feststellung zu Eigen machen. Abenteuerlich hingegen ist deren Begründung für die aktuelle Abkühlung. Aber dazu später mehr. Lassen Sie uns zuerst unser Ergebnis, dass die Wintertemperaturen den Jahrestemperaturen um ca. 10 Jahre vorlaufen und somit deren Trend vorweg nehmen, weiter prüfen.

Unsere eingangs gezeigte Auswertung ergab das Jahr 2070, bis die Temperaturen in unserem Land wieder zu steigen beginnen. Wird bei unserem Ergebnis weiter dem Fakt Rechnung getragen, dass bei inaktiver Sonne sich das Verhältnis Abstiegszeit (Abkühlung) zu Anstiegszeit (Erwärmung)  zugunsten der Abkühlung verschiebt, so trifft unser Ergebnis sehr exakt die Realität des letzten Hauptsonnenzyklus – so, wie sich seinerzeit die Temperaturen entwickelten. Keine gute Nachricht, denn eine Warmzeit ist eine gute Zeit. Nicht nur wegen der Heizkosten und dem Freizeitwert, sondern vor allem für die Biosphäre. Aber wissenschaftliche Erkenntnis richtet sich nun einmal nicht an menschlichen Wünschen.

Wie gesagt, möchten wir unsere Ergebnisse jedoch noch weiter absichern, bzw. prüfen. Besteht der von uns ermittelte jahreszeitliche Vorlauf der Temperaturen noch bei weiteren Datenreihen. Hierzu möchten wir Frühling und Herbstgang der Temperaturen vergleichen.

 

 

 

  

 

Abbildungen 20 – 24: Basis dieser Untersuchungen waren das „Wikipedia- Deutschlandmittel“ ab 1761 und das Rastermittel Deutschland ab 1881. Ganz oben Einzelwerte ab 1761 mit Linear- und Polynomtrends. Bei langfristiger Betrachtung sind die Lineartrends gleich, was auch zu erwarten war. Abbildungen 22 – 24 zeigen Gleitmittel 11-, 23- und 35- jährig mit Polynom- Trends. Die untere Abbildung 25 zeigt, dass sich auf der kurzfristigen Skala (1980 bis 2012) sogar ein gegenläufiges Verhalten zeigt- wenn Frühling warm, dann Herbst tendenziell eher kalt- und umgekehrt. Man erkennt außerdem bei allen Abbildungen, dass die Frühjahrsmittel die Herbstmittel gegen Ende des Betrachtungszeitraums eingeholt haben. Als mögliche Ursachen kommen eventuell unterschiedliche Auswirkungen der verschiedenen Wärmeinsel- Effekte in Betracht. Außerdem nahm die herbstliche Sonnenscheindauer während der vergangenen 30 Jahre weniger deutlich zu, als die des Frühjahres; und der Frühling, besonders der April, zeichnete sich durch eine wachsende Anzahl von Hochdruckwetterlagen aus (KÄMPFE/LEISTENSCHNEIDER/KOWATSCH 2013: „Erst zum Gipfel, dann wieder talwärts: Die Temperaturentwicklung in Deutschland seit 1980 und deren wesentliche Ursachen“, Teile 2 und 3) bei http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/

Inwieweit die Wintertemperaturen, einen Trend vorwegnehmen, haben wir auch am Vergleich zu den Frühlingstemperaturen geprüft (Abbildungen 25 und 26).

Abb. 25 und 26: Sowohl die Deutschland-Langzeitzeitmittel aus den Wikipedia-Daten, als auch die Deutschlandmittel der DWD-Daten zeigen das gleiche Verhalten der Temperaturen, insbesondere ihres Trends (Polynom 6): Die Wintertemperaturen eilen den Frühjahrtemperaturen voraus und zwar um gut 10 Jahre, wobei in einer Abkühlungsphase auch hier sich das Verhältnis verschiebt – größer wird. Eine mögliche Erklärung für diese Verschiebung sind die Strahlungsgesetze nach Planck und die Abkühlungsgesetze nach Newton, wie sie auch Leistenschneider in 2010 als Basis für die Berechnung seines WI-Temperaturwertes der Deutschlandtemperaturreihe des DWD heranzog, EIKE berichtete darüber (http://www.eike-klima-energie.eu/uploads/media/Waermeinseleffekt-k-L_I_und_II.pdf). Ein gleich starker Erwärmungsantrieb wirkt im niedrigen Temperaturniveau deutlicher, als bei höherem Ausgangsniveau der Temperaturen. Seine Überlegungen und seine ermittelten WI-Werte für Deutschland, wurden übrigens jüngst bei WUWT zu 100% bestätigt (http://wattsupwiththat.com/2013/04/16/revisiting-temperature-reconstructions-used-in-climate-change-modeling/).

Anhand weiterer Untersuchungen, wird dieses Verhalten, sowie die unterschiedliche Temperaturentwicklung der Jahreszeiten eingehender geprüft werden müssen; besonders zur Rolle der WI-Effekte.

Deutschland: Frühlingsmittel laufen den Herbstmitteln und die Wintermittel, den Frühlingsmitteln um 1 bis 1,5 Jahrzehnte voraus! Wie bereits der Wintervorlauf zu den Jahrestemperaturen.

Eine mögliche Erklärung, dass die Herbstmittel den Frühlingsmitteln nachlaufen, also eine Abkühlung später anzeigen, könnte in der Erwärmung der Speicherflächen Land und Wasser liegen. Diese geben die im Frühjahr und Sommer gespeicherte Sonnenwärme an die Atmosphäre ab und diese gespeicherte (Zusatz)Wärme wird zu der direkten solaren Strahlung über die vorherrschenden Luftströmungen (West, Südwest) zu uns getragen. Genauere Untersuchungen werden z.Z. durchgeführt.

Daraus kann der Schluss gezogen werden, dass in naher Zukunft die Frühlingstemperaturen zuerst und stärker sinken werden, während der Herbst tendenziell noch ein paar Jahre relativ warm bleiben könnte- das deutete sich in den vergangenen Jahren schon so an.

Und nun zu den abenteuerlichen Versuchen der sog. Warmisten, die Kälte, die wir seit mehreren Jahren vorfinden, der aus Computermodellen abgeleiteten postulierten Erderwärmung zuzuschreiben. So war am 28.03.2013 in der Südwestpresse folgendes zu vernehmen: Weil das Eis in der Arktis schmilzt, fließt kalte Polarluft nach Mitteleuropa. Im Nordosten Deutschlands geht laut Deutschem Wetterdienst der kälteste März seit 130 Jahren zu Ende. Klimaforscher rechnen für die Zukunft mit häufiger auftretenden extremen Wintereinbrüchen. Aha, “Klimaforscher rechnen für die Zukunft mit häufiger auftretenden extremen Wintereinbrüchen. Auf EIKE hat dies bereits Leistenschneider in der erwähnten Reihe zum Einfluss der Sonne auf unser Wetter/Klima in 09/2011 aufgezeigt und hergeleitet (ohne aufwendige Klimamodelle und Supercomputer, sondern anhand der Sonnenphysik und historischer Temperaturdaten).

Die Erklärung, die die sog. Warmisten anführen, klingt indes so: Mehrere Klimastudien hatten diese Kälteeinbrüche bereits vorhergesagt. Eine Ursache ist demnach das mit der Erderwärmung immer stärker schmelzende Arktiseis. PIK-Forscher Vladimir Petoukhov hatte 2010 in einer Modellrechnung eine Verdreifachung extremer Wintereinbrüche in Europa und Nordasien prognostiziert. Grund: Das dunkle, offene Meer in der Arktis heize untere Luftschichten weiter auf. Das führe zu einer Luftströmung, die in der Computersimulation kalte Winterwinde nach Europa brachte.“ Oder wie folgt:

“Wladimir Petoukow vom Potsdam-Institut für Klimafolgenforschung und Klaus Dethloff in der Forschungsstelle Potsdam des Alfred-Wegener-Instituts haben alles herausgefunden: Mithilfe von Computermodellen zeigen beide Forschergruppen, wie der Klimawandel Teile Europas in einen Eiskeller verwandeln könnte: Wenn die moderne Zivilisation viel Kohle, Öl und Gas verbrennt, steigen weltweit die Temperaturen und auf dem Nordpolarmeer schmilzt das Eis. Genau das registrieren Forschungssatelliten seit einigen Jahren. Mit dem Eis aber fehlt auch der Deckel, der die Energie im Wasser hält. Daher erwärmt sich auch die Luft über den eisfreien Wasserflächen. Dadurch aber verändert sich auch der Luftdruck über dem Atlantik in arktischen und in mittleren Breiten und es kann sich ein Hoch über Skandinavien bilden, das uns zurzeit eisige Temperaturen beschert.“

Nun zu den Fakten. Die Luftströmungen, die sich angeblich wegen den vielen Treibhausgasen geändert haben, werden von der NAO (North Atlantic Oscillation) bestimmt. Die NAO gibt das Druckgefälle zwischen Islandtief und Azorenhoch an und ist Hauptfaktor für das Wetter in Europa und für die dortigen Klimaschwankungen. Sie ist ein regionaler Teil der ringförmigen Arctic Oscillation (AO) und beschreibt den Druckunterschied zwischen dem Islandtief und dem Azorenhoch. Wie der Name sagt, ist dieser Druckunterschied nicht konstant, sondern Schwankungen unterworfen, die einen oszillierenden Charakter besitzen.

Die NAO bestimmt den Verlauf der Zugbahnen atlantischer Sturmsysteme und die daraus resultierende Beeinflussung der Niederschlags- und Temperaturmuster im Nordatlantik. Sie wird auch in Zusammenhang gebracht mit der arktischen Meereisausbreitung, dem Eisvolumen in der “Davis Strait“ und den Eisbergflussraten vor der Küste Labradors. Sie ist maßgeblich für unser Wettergeschehen und wird daher an dieser Stelle näher betrachtet.

Als Maß für die NAO wird ein Index der Luftdruckunterschiede an repräsentativen Stationen benutzt. In der Definition nach Hurrell sind dies “Stykkysholmur“ auf Island und “Ponta del Gada“ auf den Azoren. Der NAO-Index nach Jones verwendet anstelle der Station “Ponta del Gada“ die Station auf Gibraltar. Allgemein gilt, dass der NAO-Index die Differenz der Druckanomalie auf den Azoren minus der auf Island ist, d.h. ist der NAOI stark positiv, hat man ein ausgeprägtes Azorenhoch bzw. Islandtief, was mit einem starken westwärts gerichteten Grundstrom und dafür typischen wandernden Zyklonenfamilien im nord-west-atlantischen und west-europäischen Raum verbunden ist und Mitteleuropa milde Winter beschert. Im Gegensatz dazu, wenn der NAO-Index niedrig oder negativ ist, dann ist der Grundstrom schwach, was oft mit meridionalen, blockierten Wetterlagen einhergeht. Die NAO soll sich demnach wegen der vielen Treibhausgase verändert haben. Dazu schauen wir, inwieweit die NAO vom atmosphärischen CO2-Pegel abhängt.

 

Abbildung 27 zeigt sowohl den NAO-Verlauf, als auch den atmosphärischen CO2-Pegel nach NOAA. Es bedarf keiner weiteren Erläuterungen, dass beide Verläufe, nichts gemeinsam haben. Auch der Langfristtrend der NAO zeigt keine steigende, fallende, oder sonst wie geartete Tendenz, die einen Ansatz für die Behauptungen von PIK und Co. geben.

 

Abbildung 28: NAO von 1860 – 2011 (Quelle: Hamburger Bildungsserver). Während der atmosphärische CO2-Pegel steigt und steigt, fällt derzeit das Langfristmittel der NAO, wie z.B. auch in den 1950er Jahren. Dies lässt auf zyklische Muster schließen, die nicht auf das Freisetzen sog. Treibhausgase reagieren, sondern auf die Sonnenaktivität. Dies ist seit langem bekannt, siehe Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003.

Abbildung 29 zeigt den NOA-Index nach Hurrel. Sowohl in der linken und noch mehr in der rechten Abbildung ist deutlich der Schwabe-Zyklus der Sonne abgebildet. Die Schwankungen der NAO sind in Übereinstimmung mit den Sonnenzyklen.

 

Abbildung 29 links zeigt den NAO-Winterindex von 1865 – 2000 (Quelle: Deutscher Wetterdienst). Deutlich ist in der Wellenform ein 10-Jahres-Zyklus abgebildet, der zeitlich mit dem Schwabezyklus korreliert. Hohe Indexwerte sind mit einer intensiven nordatlantischen Westdrift und damit milderen Temperaturen verbunden. Rechts ist der NAO-Winterindex von 1982 – 1998 abgebildet (ergänzt nach Quelle: American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000). Die kleine Abbildung ist hineinkopiert und zeigt den Schwabezyklus der Sonne im selben Zeitraum. Er stimmt exakt mit dem NAO-Winterindex überein.

Unnötig zu erwärmen, dass ebenfalls kein Zusammenhang zwischen dem Einfluss der arktischen Meereisbedeckung und den Wintertemperaturen besteht (Abbildung 30).

 

Abbildung 30 (Quelle: Privatdozent Dr. Dr. Eckhard Schulze -EIKE): “Die Eisbedeckung der Arktis bewegt sich im Januar in engen Grenzen zwischen 14,5 und 15 Millionen Quadratkilometern. Die Monatsmitteltempertaturen in Deutschland (Quelle DWD) lassen, bezogen auf das jeweils selbe Jahr, keinerlei Abhängigkeiten zu den Eisbedeckungsflächen erkennen. Dies wird drastisch illustriert, wenn man die Jahre 2007 und 2010 betrachtet. In diesen beiden Jahren sind die Januarwerte der eisbedeckten Flächen nahezu gleich, die Monatsmitteltemperatur ist jedoch 2007 mit 4,8°C atypisch hoch und in 2010 mit -3,6°C recht tief für den Januar.“

Noch deutlicher wird dies, wird zu den Märztemperaturen verglichen (Abbildung 31).

 

Abbildung 31, Quelle, wie Abb 30 (Datenquelle der Temperaturen, DWD, Datenquelle Monatsmittel der Eisbedeckungsflächen http://www.woodfortrees.org/data/nsidc-seaice-n). Wie unschwer zu erkennen, gibt es keinen Zusammenhang zwischen der arktischen Eisbedeckung und den Temperaturen in Deutschland. Somit kann die o.g. Aussage von PIK und AWI als widerlegt angesehen werden.

Ausgangspunkt der erneut von PIK und AWI vorgebrachten These, dass es in Deutschland kälter wird, weil es wärmer wird, um es einmal bildhaft auszudrücken, ist die Untersuchung von Petoukhov, V., Semenov, V. A. (2010): A link between reduced Barents-Kara sea ice and cold winter extremes over northern continents. – Journal of Geophysical Research, 115, D21111 (Abbildung 32):

 

Abbildung 32 zeigt die Eisbedeckung in der Barentssee und Karasee nach Petoukhov et al. Von 2000 bis 2007 und dazu das Wintermittel für Deutschland nach DWD-Daten.

 

Abbildung 33, Quelle, Dr. Dr. Schulze – EIKE: Dazu in graphischer Darstellung, die Eisbeckungen Barentssee (blau) und Karasee (grün), sowie das Wintermittel der Temperaturen von Deutschland (rot). Wer daraus nun ableitet, die dortigen Eisbeckungen hätten etwas mit den Wintertemperaturen in Deutschland zu tun, der hat sehr viel Phantasie.

Zu gleichem Ergebnis kommt Herr Dr. Herold (EIKE). Die PIK-Aussage lautet: "Die vorliegenden Modellrechnungen zeigen, dass der Luftdruckgegensatz bei geringerer sommerlicher arktischer Meereisbedeckung im darauf folgenden Winter abgeschwächt wird, so dass arktische Kälte bis in die mittleren Breiten vordringen kann." Und was zeigen die Daten?

Abbildung 34 (Datenquelle: Dr. Herold – EIKE): die blaue Kurve zeigt die arktische Eisbedeckung im Zeitraum Ende August 2005 bis Ende August 2012. (8 Werte)

Laut PIK bestimmt diese Meereisausdehung vom Sommer die Wintertemperaturen ein halbes Jahr später in Mitteleuropa. Wenig Meereis soll kalte Winter bringen. Die entsprechenden 8 Winter haben diesen Verlauf:

Abb35a: (Datenquelle DWD). Die Wintertemperaturen Deutschlands zeigen keinerlei Zusammenhang mit der Größe der arktischen Meereisbedeckung vom Sommer davor. Die beiden Grafiken entlarven eindeutig die PIK-Aussagen als falsch.

Dieses Jahr war der März ein zusätzlicher Wintermonat in Asien, in Europa und in Deutschland. Deshalb soll dieser eigentlich erste Vorfrühlingsmonat auch in die Betrachtung mit einbezogen werden.

Abb 35b (Datenquelle DWD). Keinerlei Zusammenhang besteht auch für die Sommereisausdehnung Nordpol und den nachfolgenden Märztemperaturen. Der vom PIK behauptete Zusammenhang trifft nur zufällig für die letzte Betrachtung zu.

Außerdem sind extrem kalte Märzmonate auch in der Vergangenheit immer wieder vorgekommen. So wiesen die Märzen 1785, 1786, 1789, 1804, 1808, 1814, 1845, 1853 und 1883 an der Station Berlin- Tempelhof ein Monatsmittel unter 0°C auf, ohne dass es damals eine erhöhte CO2- Konzentration in der Atmosphäre gab!

Damit beweisen die zuvor vorgelegten Grafiken eindeutig, dass die von PIK verkündete neue Theorie, vollkommen falsch ist, denn die Grafiken von zuvor  beweisen keinerlei Zusammenhang. Die Ausdehnung des Sommereises am Nordpol hat noch niemals den darauffolgenden Winter in Deutschland maßgeblich vorbestimmt. Das ist blanker Unsinn. Die Winter wurden kälter, weil  seit 1998 die Temperaturen weltweit abnehmen.

Und schließlich lässt sich auch der kalte März 2013 nicht mit einer außergewöhnlich geringen Eisbedeckung im März erklären, wie die folgende Abbildung 36 beweist.

 

Abbildung 36 : Eisbedeckung der Arktis Anfang März 2013, Quelle: http://nsidc.org/arcticseaicenews/ (kleine Abbildung: EIKE)

Es zeigt sich, dass es gar keinen dramatischen Eisschwund im Spätwinter gibt! Wie übrigens generell nicht, was Abbildung rechts zeigt. Nach jeder noch so starken Sommerschmelze, kehrt das Wintereis auf volle Ausdehnung zurück. Es gibt demnach keine Nordpoleisschmelze. Zwar wird die orange Linie (große Abbildung, Langjähriges Median- Mittel der Eisbedeckung) vereinzelt leicht unter-, an einzelnen Stellen aber auch überschritten- für Europa (links ganz unten liegend) können diese geringen Änderungen der winterlichen Eisdecke keine wesentlichen Auswirkungen haben.

KÄMPFE/LEISTENSCHNEIDER/KOWATSCH (2013) fanden aber eine andere Ursache für die geänderten Häufigkeitsverhältnisse der Großwetterlagen, und zwar die Sonnenaktivität. Eine sehr aktive Sonne begünstigt mildernd wirkende Westlagen, die aktuell nachlassende Aktivität hingegen Extremlagen:

 

Abbildung 37: Man erkennt, dass mit fallender gelber Linie (Anzahl der Sonnenflecken, Gleitmittel) die Zahl der mildernd wirkenden Westwetterlagen (violette Linie) deutlich abnahm; gleichzeitig wurden Lagen mit nördlichen (blaugrün) und südlichen (rot) Strömungsanteilen häufiger, was Extremwetter begünstigt und vor allem insgesamt kältere Winter fördert (auch Südlagen können im Winter mitunter bitterkalt sein!). Man beachte, dass wegen des „11- jährigen Gleitmittels“ die Werte seit 1975 und bis 2012 mit eingeflossen sind.

Ergebnis 3

Die Abbildungen widerlegen eindeutig die von PIK und AWI vertretene These. Die Wintertemperaturen haben nichts mit einer arktischen Eisschmelze zu tun, sondern gehen, so wie von uns dargestellt, auf die rückläufige solare Aktivität zurück und das typische Verhaltensmuster der Temperaturen nach einem Hauptsonnenzyklus.

Soviel zu den Computermodellen von PIK, AWI und Co., über die angeblich durch „Treibhausgase“ ausgelöste „arktischen Eisschmelze“ und die dadurch bedingten niedrigen Temperaturen in Deutschland.

Dass dieser Unsinn, der wieder einmal von deutschen Journalisten, deren Kenntnisse meist bereits an der Oberfläche enden, ungeprüft nachgeredet wurde, vom PIK und AWI in die Welt gesetzt wurde, verwundert denn nicht wirklich. Auch nicht, dass das ZDF wieder einmal an vorderster Linie zu finden ist, da deren Journalisten und Nachrichtensprechern zuweilen der Durchblick fehlt (EIKE berichtete darüber, hier  und hier ). Auch nicht, dass deren Meteorologen, wie Frau Niedek, die für den Unsinn, der anthropogenen Klimaerwärmung bezahlt werden (EIKE berichtet ebenfalls darüber auf Seite 35), dass jedoch ebenso Herr Dr. Tiersch auf den PIK (Unsinns-)Zug aufgesprungen ist und dies in der Karwoche im Heute Journal gegenüber der bereits beschriebenen ZDF-Sprecherin, Frau Slomka, eine breite Öffentlichkeit damit überraschte, dass es kälter wird, weil es wärmer wird, überrascht uns nun doch ein wenig. Offensichtlich ist das ZDF bestrebt, seinen runden Geburtstag unter dem Motto zu begehen: 50 Jahre Unsinn (und kein Ende abzusehen).

Wie sich die Temperaturen in Deutschland kurzfristig entwickeln werden, wie also die Temperaturen der nächsten Monate oder des Sommers werden, hängt somit stark von der solaren Aktivität und der Sonnenscheindauer ab. Gegenwärtig steigt die solaren Aktivität wieder, was an der vermehrten Sonnenfleckenaktivität sichtbar ist. Inwieweit sich daraus in diesem Jahr ein 2. Aktivitätsmaximum im 11-jährigen Schwabe-Zyklus entwickelt, werden die nächsten Monate zeigen. Warum Aktivitätszyklen dort ein 2. Maximum ausbilden können, hat Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ beschrieben – wegen der Fließrichtungen des elektr. und magn. leitfähigen Sonnenplasmas im 200.000 km starken Sonnenmantel.

 

Abbildung 38 zeigt links die Sonnenzyklen 21 – 23 (Quelle: Max Planck Gesellschaft). Jeder Zyklus bildet teils deutlich ein 2. Maximum aus. Rechts daneben ist der aktuelle 24. Zyklus bis März 2013 zu sehen. Ein Erstes Maximum fand in der zweiten Hälfte 2011 statt. Inwieweit sich in 2013 ein zweites Maximum ausbildet, was dann Einfluss auf unser Wetter hat, werden die nächsten Monate zeigen. Anhand der Auswertung vergangener solarer Zyklus, liegen beide Maxima ca. 1 ½ Jahre auseinander, so dass ein zweites solares Maximum in 2013 eintreten sollte. Danach geht die Sonne in ihre inaktive Phase, wie bei jedem Schwabezyklus. Solange, bis der nächste, der 25. Sonnenzyklus beginnt. Der jedoch, wegen dem übergeordneten Gleissberg-Zyklus (stellt die Hüllkurve des Schwabezyklus dar und hat im 25. Sonnenzyklus sein Minimum), sehr schwach ausfallen dürfte.

Damit die deutsche Öffentlichkeit die tatsächlichen Gründe für die vergangenen kalten Temperaturen, den nicht enden wollenden Winter und die zu erwartende Temperaturentwicklung in unserem Land, erfährt, werden wir von EIKE diesen Part übernehmen, den eigentlich die deutsche Presse übernehmen sollte: Für Aufklärung zu sorgen. Wie es scheint, ist man dort zuweilen aus eigenem Interesse (Geld) und ideologischer Verblendung (der Mensch und seine Industrie ist an allem Schuld) dazu nicht mehr in der Lage.

  

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider – EIKE




Zukünftige Temperaturenentwicklung in Deutschland – Wärmer oder Kälter? (Teil 1)

Angesichts des nicht enden wollenden Winters scheinen die Nerven blank zu liegen. Da der Aufruf sicherlich nicht ernst gemeint und erst recht kein Argument gegen die Warmistenfraktion ist, sollen diese Argumente in unserem Zweiteiler, der darlegt, warum wir derzeit in Deutschland so frieren und wohin die grundlegende Entwicklung beim Wetter/Klima geht, vorgestellt werden.

In Deutschland ist keine Erwärmung, sondern eine bereits lang ansetzende Abkühlung zu verzeichnen, was folgende Abbildungen belegen.

Abbildung 1: Datensatz, Quelle DWD. Klimaerwärmung, das war einmal. Aber immer noch sind die Warmisten u.a. vom PIK Potsdam, mit den Posaunenträgern von ZDF, Zeit und Co. unterwegs und warnen vor einer sich fortsetzenden beschleunigten Erwärmung. Womöglich haben die kalten Temperaturen und der viele Schnee dort zu Sinnestäuschungen geführt.

Abbildung 2: Seit über 26 Jahren besteht bei den Wintertemperaturen ein abnehmender, linarer Trend zu kälteren Wintern, der sich in den letzten Jahren beschleunigte (Abb 1). Das mag bislang nicht aufgefallen sein, da alle Betrachtungen die Jahresmittel heranziehen.

Dass es sich hierbei nicht um ein auf Deutschland beschränktes Ereignis handelt, zeigt ein Blick auf die Wintertemperaturentwicklung in Großbritannien. Aufgrund seiner geographischen Lage, im Wärmespeicher Atlantik gelegen, wäre davon auszugehen, dass sich die Temperaturentwicklung dort anders verhält. Doch weit gefehlt. Unsere Charts belegen eindeutig, dass die Temperaturentwicklung Großbritanniens im Gleichklang mit Deutschland ist.

Abbildung 3 zeigt die Wintertemperaturen Großbritanniens für die letzten 16 Jahre.

Abbildung 4: Ebenso sinken bereits seit 25 Jahren in Großbritannien die Wintertemperaturen. Dort hat sich der Temperaturrückgang zu kälteren Wintern in den letzten Jahren beschleunigt. Die Grafik zeigt auch, dass für den Temperaturrückgang nicht ein nachlassender Golfstrom verantwortlich sein kann, denn sonst hätten die Wintertemperaturen in GB stärker sinken müssen als bei uns. Das ist jedoch nicht der Fall.

Nun gibt es in unseren Breiten nicht nur eine Jahreszeit, den Winter, sondern noch drei andere, die sich alle in den Jahrestemperaturen niederschlagen und die mittleren Jahrestemperaturen sollen bekanntlich nach dem Willen von PIK und Co. steigen. Inwieweit die Wintertemperaturen und speziell deren Trendverhalten, sich auf die mittleren Jahrestemperaturen auswirken, soll daher näher untersucht werden.

Abbildung 5 und 6 zeigen die Winter- und Jahrestemperaturen seit 1980 und jeweils der polynomische Trend. Dieser dreht im Jahr 2000 bei den Winter- und im Jahr 2005 bei den Jahrestemperaturen. Demnach laufen die Winter- den Jahrestemperaturen voraus.

Wie unschwer zu erkennen, laufen die Wintertemperaturen und deren Trend, den Jahrestemperaturen um Jahre voraus. Beide Abbildungen erwecken den Eindruck, dass der Verlauf der Wintertemperaturen, den Verlauf der Jahrestemperaturen vorweg nimmt. Da anhand einer Betrachtung, nicht auf ein grundsätzliches Verhalten geschlossen werden kann, sollen weitere Abkühlungsphasen betrachtet werden.

Da wir uns gegenwärtig im unmittelbaren Zeitraum nach dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus, befinden (zu seinen Auswirkungen auf das Wetter/Klima in Europa später mehr), soll zuerst die Abkühlungsphase nach dem letztmaligen Rückgang betrachtet werden. Dies ist die Zeit um 1800.

 

Abbildung 7: Da kein „DWD- Rastermittel“ für diesen weit zurückliegenden Zeitraum verfügbar war, wurden die Werte der Deutschland-Reihe von wikipedia verwendet, die hinsichtlich ihrer Datenqualität freilich geringer einzuschätzen sind. Zum Maximum des Hauptsonnenzyklus um 1790 bis 1799 traten gehäuft relativ hohe Wintermittel auf; dann fielen diese und erreichten um 1810 ihr Minimum. Den Jahresmitteln ist im Gesamtzeitraum ein deutlicherer Negativtrend überlagert; trotzdem zeigen auch diese in den 1790er Jahren ein undeutliches und nur sekundäres Maximum; darauf folgt das absolute Minimum etwa 1814. Zu beachten ist, dass nur die Polynome höheren Grades (hier ist das Polynom 4 dargestellt) diesen Sachverhalt zeigen; außerdem fällt der kühlend wirkende Tambora- Ausbruch 1815 (größter Vulkanausbruch der letzten 2.000 Jahre) und der ihm folgende Schneesommer 1816 in diese Zeitreihe. Zur besseren Darstellung in einer Abbildung wurden zu allen Wintermitteln 5°C addiert; in der unteren, 60- jährigen Gleitmittelreihe 6°C.

Folgend sind die Werte ab 1761 und bis 1830 in das 11- jährige Gleitmittel eingeflossen:

Abbildung 8: Auch hier sieht man, dass die Wintertemperaturen den Verlauf des Jahresmittels um einige Jahre vorwegnehmen. Man erkennt sehr schön das Maximum der Winterwerte etwa zum Maximum des Hauptsonnenzyklus in den 1790er Jahren; deutlich zeichnet sich auch der danach einsetzende Temperaturrückgang ab, der bei den Wintertemperaturen schon deutlich vor 1810 (Jahr 45), bei den Jahresmitteln aber erst kurz nach 1810, endet. Die kurze Erwärmungsphase um 1820 ist vermutlich auch eine Folge der nachlassenden Tambora- Wirkung; danach dauerte diese letzte Phase der „Kleinen Eiszeit“ noch bis mindestens zur Mitte des 19. Jahrhunderts fort und war eine der Ursachen für die 1848er Revolution und die Massenauswanderung nach Nordamerika.

Auch bei der Abkühlungsphase ab 1800: Wintermittel „laufen“ den Jahresmitteln um einige Jahre voraus; jedoch undeutlicher als bei der aktuellen Abkühlungsphase!

Wie wir erwartet haben, laufen also auch nach dem vorherigen Hauptsonnenzyklus, die Wintertemperaturen, den Jahrestemperaturen um Jahre voraus, mehr noch, die Zeitspanne, in der die Wintertemperaturen, den Trend der Jahrestemperaturen vorweg nehmen, ist nahezu identisch.

Wir wollen nun anhand des DWD-Datenmaterials, diese Untersuchung für den gesamten Zeitraum der aufgenommenen und vom DWD autorisierten Temperaturmessungen durchführen.

In Abbildung 9 ist oben der Jahresgang der Wintertemperaturen in Deutschland ab 1882 (Winter 1881/1882) bis heute dargestellt und dazu, der polynomische Trend. Darunter, der Temperaturjahresgang von Deutschland von 1881 bis heute und ebenfalls derselbe polynomische Trend, Datenquelle: DWD. Blaue, dünne Linien: Ausrichtung der Jahreszahlen beider Verläufe.

Auch bei flüchtiger Betrachtung erkennt man, dass beide polynomischen Trends ähnlich verlaufen und der Wintertrend dem Jahrestrend vorläuft. Dies gilt für beide Abkühlungsphasen, die im Datenmaterial ab 1881 vorhanden sind. Die Zeitspanne, in der der Wintertrend den Jahrestrend vorweg nimmt, beträgt zwischen 11 und 14 Jahren.

Zwischenbetrachtung: Aus der Abb9 oben ist bei den Wintertemperaturen in Deutschland ein leichter Anstieg der gestrichelten Trendlinie in den letzten 130 Jahren zu verzeichnen, bei der unteren Jahresgrafik etwas stärker als bei der Wintergrafik. Wir haben die Originalwerte vom DWD übernommen. Die sind nicht wärmeinselbereinigt. In diesen letzten 130 Jahren hat sich Deutschland vielerorts (EIKE berichtete darüber) zu einer Wärmeinsel entwickelt und die Thermometer der Messstationen messen die vom Menschen erzeugte Zusatzwärme mit, so dass der WI-bereinigte Verlauf eine flachere Trendlinie erwarten lässt. Bei den Jahrestemperaturen verläuft die tatsächliche Trendlinie fast parallel zur x-Achse. Siehe Literatur zum Wärmeinseleffekt. Auch ohne Berücksichtigung des Wärmeinseleffektes kommen wir zum vorläufigen Ergebnis:

1. Ergebnis

Anhand unserer Untersuchung laufen die Wintertemperaturen, den Jahrestemperaturen um ca. 10 Jahre voraus. Da der Trend (die Trendlinie) der Jahrestemperaturen erst seit 2005 kältere Temperaturen zeigt, ist für die nächsten Jahre von weiter zurückgehenden Temperaturen auszugehen. Von einer Erwärmung, also keine Spur.

Uns interessiert natürlich, wie lange dieser Abkühlungstrend in Deutschland anhalten wird. Anhand der zurückgehenden Sonnenaktivität, geht z.B. die NASA für die nächsten Jahrzehnte von zurückgehenden Temperaturen aus (“Die NASA warnt: Die Erde könnte in eine Periode „globaler Abkühlung“ eintreten“, EIKE vom 22.01.2013). Um sich der Antwort zu nähern, werten wir die Datenreihe in Abbildung 9 weiter aus, insbesondere den Gang der letzten Erwärmungs- und Abkühlungsphase der 1920/1930er Jahre, bzw. der 1950/1960er Jahre. Wir erinnern uns noch, zumindest die Älteren, dass bis in die Mitte der 1970er Jahre Politik, Medien und Mainstream-„Wissenschaftler“ vor einer bevorstehenden Eiszeit warnten (Abb. 10):

Abbildung 10: Die Medien und der „böse Klimawandel“ im „Zeitenwandel“ (Ansicht der Titelseite des Magazins „TIME“): 1977, noch warnten sie vor der großen Kälte, 2001 warnten sie vor der „Globalen Erwärmung“, 2010 behaupteten sie gar, die verheerenden Blizzards (Schneestürme) seien „weitere Anzeichen der globalen Erwärmung“.

Abbildung 11 zeigt anhand des polynomischen Trends (wie er übrigens auch vom DWD in seinen Trendanalysen/-darstellungen verwendet wird) das Ein-und Ausschwingverhalten der Warm-und Kaltphase im 20. Jahrhundert. Sie hat eine Länge von etwa 64 Jahren, wobei ihre Einschwingzeit (Erwärmung) mit 27 Jahren deutlich kürzer, als ihr Ausschwingverhalten (Abkühlung) ist. Das Verhältnis beträgt 40% zu 60% oder 4:6 und liegt damit sehr nahe am Verhalten von solaren Zyklen. Auch dort ist die Anstiegszeit kürzer, als die Zeit, in der die Sonnenaktivität abfällt und liegt bei etwa denselben Verhältniswerten (1/3 zu 2/3). Gleich wird sie nicht sein können, wegen der Puffer-und Wärmekapazität des Wassers. Bei generell zurückgehender solarer Aktivität verschiebt sich übrigens das Verhältnis zugunsten der Abstiegszeit, also der Abkühlungsphase.

Da die derzeitige Erwärmungs-und Abkühlungsphase dasselbe Verhalten (Form) wie die vorherige hat und diese den solaren Aktivitätsmustern entspricht, übertragen wir deren statistischen Werte auf die heutige Erwärmungs-und Abkühlungsphase. Wie in Abbildung 11 zu sehen, ist diese länger ausgeprägt. Deren Erwärmungsphase beträgt 42 Jahre, so dass sich für die Ausschwingzeit (Abkühlungsphase) eine Länge von ca. 68 Jahren ergibt (Abbildung 12).

Abbildung 12 zeigt die projizierte Abkühlungsphase der jetzigen Erwärmungs- und Abkühlungsphase. Diese hatte für die Wintertemperaturen 1998 ihr Maximum (Erwärmung). Seither fällt der polynomische Trend. Anhand der Projizierung dauert die Abkühlungsphase bis zum Jahr 2060, wobei das ermittelte Verhältnis Abkühlzeit zu Erwärmungszeit der 1. Erwärmungs-/Abkühlungsphase übernommen wurde.

Bei dem ermittelten Vorlauf der Wintertemperaturen zu den Jahrestemperaturen von ca. 10 Jahren, muss davon ausgegangen werden, dass die seit einem Jahrzehnt zu verzeichnende Abkühlungsphase in den Jahrestemperaturen, noch bis mindestens 2070 anhalten wird. Wird weiter berücksichtigt, dass bei geringer werdender solarer Aktivität, sich das Verhältnis Abstiegszeit zu Anstiegszeit, zugunsten der Abstiegszeit verschiebt, kann davon ausgegangen werden, dass das von uns ermittelte Jahr 2070, die Untergrenze darstellt und die Abkühlphase tendenziell länger ist. Von einer nur kurzzeitigen Abkühlung, wie sie von PIK und Co. anhand des kalten Winters bemüht wird oder gar von einer galoppierenden Erwärmung für die nächsten Jahre/Jahrzehnte (bis zum Jahr 2100), wie sie der DWD hinausposaunt, kann demnach keine Rede sein. Das Gegenteil ist anhand unserer Untersuchung zu erwarten. In einer Privatmail teilte der DWD übrigens einem der Autoren mit, dass die gegenwärtige „Stagnation“ – was immer der DWD unter Stagnation versteht – noch etwa fünf bis sieben Jahre andauern wird, dann aber werde sich die Erwärmung mit aller Deutlichkeit durchsetzen. Wäre für uns natürlich interessant, wie der DWD zu seiner Aussage gelangt. Wohl etwa aus Computerspielen oder im Fachchargon, Klimamodelle genannt?

Spiegeln wir nun unsere Daten an denen von NASA et al. Die NASA geht, wie bereits erwähnt, von einer zurückgehenden solaren Aktivität und damit Abkühlug für die nächsten Jahrzehnte aus. Der Ausnahmephysiker Landscheidt ging bereits in den 1990er Jahren von zurückgehenden Temperaturen bis in die 2040er Jahre aus. Vor annährend 5 Jahren veröffentlichte Prof. David C. Archibald in ”The past and future of climate” die folgende Abbildung:

Abbildung 13

Wir „gehen“ demnach keiner Warmzeit, sondern einer Kaltzeit entgegen. Zu einem noch weitreichenderen Ergebnis kommen russische Forscher (http://german.ruvr.ru/2013_03_03/Die-Welt-vor-einer-Eiszeit/). Sie gehen von einer Abkühlungsphase bis zur Mitte des 21. Jahrhunderts aus, was unserem Ergebnis recht nahe kommt. Doch wir wollen unser Ergebnis weiterer Prüfungen unterziehen.

Der russische Wissenschaftler Dr. Abdussamatov (Chef der Weltraumforschung der Abteilung für Sonne am Pulkovo Observatorium der Russischen Akademie der Wissenschaften) hat für die nächsten 100 Jahre eine Abkühlung ermittelt (Abbildung 13). EIKE berichtete darüber: “100 Jahre Kälte – Russische Wissenschaftler haben das zyklische Verhalten der Sonne analysiert und sie sagen nun 100 Jahre Abkühlung voraus. Die Wissenschaftler sind nicht irgendwer“ vom 21.11.2011.

Abbildung 14: TSI-Variationen und Sonnenflecken-Aktivität seit 1611 und die Vorhersage (gestrichelte Linien) (Abdussamatov H. I.: The Sun Dictates the Climate of the Earth. 2009, St. Petersburg, “Logos”, – 197 p.; The Sun Dictates the Climate. 4th International Conference on Climate Change in Chicago, May 2010.)

Unsere Aussage soll an den solaren Zyklen, die für unser Wetter/Klima bedeutsam sind, weiter geprüft werden:

– Hauptsonnenzyklus (im Mittel 208-jährige de Vries/Suess-Zyklus: Maximum in 2003)

– Brückner/Landscheidt-Zyklus (im Mittel 36 Jahre: Maximum in 2005)

– Gleissberg-Zyklus (Oberschwingung des Schwabe-Zyklus, 90 Jahre, Maximum 1968)

Der Hauptsonnenzyklus wird sein Minimum um 2090 erreichen.

Der Brückner/Landscheidt um 2025

Der Gleisberg-Zyklus um 2020 (also im 25. Sonnenzyklus)

Alles deutet also darauf hin, dass die Temperaturen noch weiter fallen werden. Die Frage ist “nur“, für wie lange? Da die Sonnenforschung noch weit davon entfernt ist, alle Geheimnisse unseres Zentralgestirns zu kennen, hilft eine Betrachtung vergangener, gemessener Temperaturen weiter. Insbesondere, wie sich die Temperaturen in Deutschland und seiner Umgebung nach dem letzten Rückgang im Hauptsonnenzyklus entwickelten. Leistenschneider ist bereits im Teil 8 seiner EIKE-Reihe “Dynamsches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ darauf eingegangen.

Abbildung 15, Quelle: Prof. Ewert, EIKE, zeigt den Temperaturgang von Kopenhagen im Zeitraum von 1768 – 2009. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Maximum des Hauptsonnenzyklus schwanken die Temperaturen am stärksten zwischen warm und kalt (rote Fläche). Bis zum Minimum des Hauptsonnenzyklus sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten. Vor einem Temperaturanstieg fallen die Temperaturen auf ein relatives Minimum und steigen dann kontinuierlich an (schwarze Linien).

Abbildung 16, Quelle: (http://www.lanuv.nrw.de/luft/wirkungen/klima_grundlagen.htm) zeigt den Temperaturgang am Hohenpeißenberg von 1781-1995 nach Fricke 1997. Die rote Linie kennzeichnet wieder das Maximum des Hauptsonnenzyklus. Auch hier sind bis ca. 30 Jahre nach dem Hauptsonnenzyklus die stärksten Jahresschwankungen der Temperatur zu sehen (rote Fläche), die dann geringer werden (grüne Fläche) und nach dem Minimum im Hauptsonnenzyklus die geringsten Werte einnehmen.

Abbildung 17: Zu sehen ist der Temperaturverlauf von Wien im Zeitraum von 1775 – 2008, Quelle: Prof. Ewert, EIKE. Der Temperaturverlauf verhält sich wie bei den vorherigen Datenreihen.

 

Abbildung 18: Ebenfalls das gleiche Bild bei der Temperaturgangreihe München im Zeitraum von 1781 – 1991.

Abbildung 19: Die Temperaturgangreihe von Berlin-Dahlem von 1701 – 2008, mit den gleichen Merkmalen.

2. Ergebnis

Anhand der solaren Aktivitätsschwankungen und der Vergleiche der Temperaturentwicklung nach dem vorherigen Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem deutlichen Rückgang der Temperaturen zu rechnen. Nach dem Hauptsonnenzyklus fallen die Temperaturen, dabei unterliegen sie hohen Schwankungen zwischen warm und kalt, wie dies die letzten Jahre wieder zu beobachten ist, so dass der Temperaturgang für die nächsten 10 bis 20 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte. Das Klimasystem verhält sich dabei wie ein physikalisch, elektrisches System, welches in seiner Übergangsphase (Hysterese, beim Klima zwischen Warmzeit und Kaltzeit) empfindlich auf Veränderungen in seinen Eingangsgrößen reagiert, wobei die Eingangsgröße die solare Aktivität ist. Im eingeschwungenen Zustand (z.B. kalt) ist es weitgehend stabil und nur geringen Schwankungen unterworfen. Ca. 40 – 50 Jahre nach einem Maximum im Hauptsonnenzyklus sind die Schwankungen zwischen warm und kalt weiterhin relativ hoch, allerdings auf insgesamt niedrigerem Niveau. Im „eingeschwungenen“ Zustand ist das System stabil auf niedrigem Niveau. Das Minimum wird etwa 70 Jahre nach dem Maximum im Hauptsonnenzyklus erreicht. Demnach in den 2070er Jahren.

Im Teil 2 werden wir unsere Ergebnisse einer weiteren Prüfung unterziehen, sowie die Aussage vom PIK und AWI unter die Lupe nehmen, die da heißt: Es ist deswegen so kalt, weil es wärmer wird…

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider – EIKE




„Klimafolgenforscher“ Schellnhuber ruft mal wieder zum Umdenken auf: Kassandrarufe statt fundierte Wissenschaft

Schlimmer noch, sich als Phantastereien herausstellten, werden sie an der Realität gespiegelt. Ein Beispiel hierzu, “Grenzen des Wachstums“. Aber dies hat Träumer, die einer verlorenen Ideologie nachlaufen, noch nie davon abgehalten, ihre Phantastereien weiter zu verbreiten und Rattenfänger-gleich, Generationen zu verführen versuchen. Fast hätte der Autor eine dritte Gemeinsamkeit vergessen. Die Visionen machten ihre Visionäre alle reich und bekannt. Aber womöglich ist dies die einzige Zielsetzung der Verfasser, die hinter solchen Visionen stehen. Schellnhuber möchte die kohlenstofffreie Weltwirtschaft. Dies deckt sich mit dem IPCC und dem in Kürze anstehenden neuen Zustandsbericht. Nein, nicht dem des IPCC, der ist spätestens seit Climategate hinlänglich bekannt, sondern dem des globalen Erdklimas. Dort möchte das IPCC wieder einmal, als selbsternannter oberster (Klima)Rat (Rat = russisch Sowjet), die weltweiten Vorgaben verankern, nach denen sich die Menschen, wie in „guten“ alten Sowjetzeiten, zu richten haben. Allerdings ist man beim IPCC, zumindest bei der Temperaturentwicklung, deutlich näher an der Wirklichkeit, als das PIK in den Visionen seines Direktors. Das IPCC geht mittlerweile von gleichbleibenden Temperaturen für die nächsten Jahre aus. Sozusagen nähert man sich dort in Raten der Wirklichkeit. Das PIK ist davon noch weit entfernt, wie sein Direktor einmal mehr zeigt.

“Kohlenstofffreie Weltwirtschaft“, dies erinnert den Autor etwas an den ersten Spielfilm der Reihe “Enterprise“ oder “Star treck“, in dem die Erde bedroht wurde, weil eine extraterrestrische Maschine die kohlenstoffreine Welt wollte. So wie im Film, will offensichtlich Schellnhuber die Weltwirtschaft und damit Weltgemeinschaft dadurch ruinieren, indem er eine kohlenstofffreie „Welt“ anstrebt. Allerdings sollten sich weder Arbeiten, die einen wissenschaftlichen Status beanspruchen, noch Vorlagen für politische Entscheidungsträger, an Science Fiction orientieren. Die Welt des Science Fiction ist ganz offensichtlich die Welt von Herrn Prof. Schellnhuber und seinem PIK. Hier sei beispielsweise an die diversen Arbeiten von Rahmstorf zum Meeresspiegelanstieg oder von Levermann zur 500-Jahresvorhersage der antarktischen Schneefälle erinnert (EIKE berichtete jeweils darüber). Da Herr Levermann auch einer der Leitautoren des nächsten IPCC-Berichts ist, ist daher zu erwarten, dass der Bericht erneut zum Science Fiction Roman verkommen ist.

Nun, da am deutschen Wesen noch nie die Welt genesen ist, hat der Autor wenig Bedenken, dass Schellnhuber und seine Mannen bei unseren Nachbarn viel Anklang mit ihren Visionen finden werden. Eher schon im eigenen Land, das mit seiner eingeschlagenen Energiepolitik, weg vom Kohlenstoff, den Lehren und den Errungenschaften Albert Einsteins, den Weg eingeschlagenen hat, den im Film Kirk und Co. verhindern konnten.

 

Abbildung 1: Einsteins Errungenschaften – In Deutschland nicht mehr gefragt. Auch eine Art, jemanden auszugrenzen und seine Ideen zu verbannen. Womit der Autor keineswegs einen Vergleich zu Einsteins Immigration in die USA anno 1932 andeuten möchte oder die im Jahr darauf auf dem Berliner Opernplatz (und diversen anderen Universitätsstädten) anberaumte „Kulturbereinigung“. Wohin all dies führte, ist bekannt.

Während das PIK, in guter Tradition historischer Orakel, in Form von Schellnhuber zu seinen Schilderungen zur Nachhaltigkeit, der vermeintlichen Umweltprobleme und dem Niedergang der Menschheit vage bleibt, hält er diesen Level auch konsequent bei seinen vermeintlichen Belegen, den Auswirkungen des Klimawandels auf Ostdeutschland, ein. Ostdeutschland sei demnach besonders von den Auswirkungen des Klimawandels bedroht. Genannt werden ““Ostdeutschland wird durch größere Hitzewellen im Sommer und mehr Niederschläge im Winter wahrscheinlich härter getroffen“, sagt Schellnhuber. Bei jetziger Gesetzeslage müssten sogar Kraftwerke an Flüssen zeitweise abgeschaltet werden, weil das Kühlwasser zu warm werde.“ Herr Schellnhuber hat allerdings übersehen, in Ostdeutschland gibt es nicht ein einziges Kraftwerk mit Flusswasser-Durchlaufkühlung! Zwar kennt Schellnhuber nicht einmal die gegenwärtige Energiewirtschaft, wie aber die Energiewirtschaft des 21. Jahrhunderts aussehen muss, weiß er ganz genau! – Donnerwetter, was kann Deutschland so froh mit seinen PIK-„Vordenkern“ sein, die zwar, wie es der Volksmund sagt “Von Tuten und Blasen keine Ahnung haben“, aber dem Bürger und der Politik erzählen wollen, wie die Zukunft aussehen muss. Aber womöglich hat Schellnhuber mit seinem Verweis zu Ostdeutschland, Erich und Margot und deren Zeit der Volksverdummung als Basis genommen und sich daran angelehnt.

So geht es im Bericht und den Ausführungen Schellnhubers weiter “Allein zwischen 2001 und 2010 wurde es den Angaben zufolge hier je nach Region (Anmerkung: In Ostdeutschland) zwischen 0,25 und zwei Grad wärmer.“ Aha, prüfen wir dies doch einmal an den Untersuchungen eines meteorologischen Praktikers, der durch seine vielfältigen Veröffentlichungen, z.B. in der „Wetterkarte des Deutschen Wetterdienstes“ oder der „Berliner Wetterkarte“, seine Kompetenz unter Beweis stellte, Herrn Kämpfe. Auf EIKE war sein zweiteiliger Bericht zu den Klimaveränderungen im Raum Erfurt erschienen (http://www.eike-klima-energie.eu/klima-anzeige/starker-temperaturanstieg-seit-1979-in-erfurt-warum-co2-dabei-nur-eine-unbedeutende-nebenrolle-spielt-teil-1/). Hier eine Abbildung daraus.

 

Abbildung 2 zeigt den Temperaturtrend in Erfurt im Zeitraum, in dem es nach den Untersuchungen des PIK (mit der Humboldt Universität Berlin) und der Aussage von Schellnhuber, wärmer wurde. Seltsamerweise stieg in Erfurt nicht die Temperatur, sondern sie fällt deutlich im besagten Zeitraum. Das PIK muss mit seinem Direktor offensichtlich in einer anderen Welt leben und Erfurt nicht in den neuen Bundesländern liegen. Insofern ist auch deren weitere Prognose bis zum Jahr 2100, die die beiden vorgenannten Einheiten PIK und Humboldt Universität angeben, zu bewerten und nicht das Papier wert, auf dem sie geschrieben steht.

Abbildung 2 deckt sich übrigens in bester Übereinstimmung mit den ausgewiesenen Deutschlandtemperaturen des DWD, die ebenfalls im genannten Zeitraum nicht gestiegen, sondern im Gleichklang zu den Temperaturen in Erfurt, deutlich gefallen sind (Abbildung 3).

 

Abbildung 3 zeigt den Temperaturverlauf in Deutschland, nach Daten des DWD, wie EIKE ihn jüngst veröffentlichte (http://www.eike-klima-energie.eu/news-cache/der-klimawandel-in-deutschland-heisst-abkuehlung-seit-15-jahren-gibt-es-keine-steigenden-temperaturen-mehr/).

In dem Bericht der LVZ, in dem Schellnhuber zu Wort kommt, tummeln sich nur so die „Kracher“ – unsere Leser mögen mir bitte den Ausdruck verzeihen. Dort steht weiter “Wenn es zum Beispiel gelingt, den Energieeinsatz pro Wertschöpfungseinheit zu mindern…“ Offensichtlich hat Herr Schellnhuber noch nie etwas Rechtes gearbeitet, dann wüsste er, dass solches bereits seit langem gelungen ist (wieso also das “Wenn“?). Dazu braucht er nur den berühmten “Mann von der Straße“ zu fragen, der täglich seiner Arbeit in der deutschen Industrie, im Handwerk oder schlicht der deutschen Wirtschaft nach geht. Die deutsche Presse ist für solches sicherlich der falsche Ansprechpartner, dort hat man von diesen Dingen ganz offensichtlich auch noch nie etwas gehört – was es heißt, etwas rechtes zu arbeiten. Was auch angesichts der dort vorliegenden technischen Kenntnisse oder schlicht des technisch/wissenschaftlichen Verständnisses zu viel der Erwartung wäre.

Von Beginn der industriellen Entwicklung ist die Effizienzsteigerung untrennbar mit der wirtschaftlichen und damit gesellschaftlichen Entwicklung nicht nur unseres Landes verbunden. Ohne diese Effizienzsteigerungen würde die Menschheit heute noch auf Bäumen leben und sich von Baum zu Baum bewegen. Mehr noch, sie ist eines der Grundprinzipien der Evolution. Wie es scheint, hat die Evolution auf ihrer „Reise“ das PIK vergessen mitzunehmen und daher lebt man dort heute noch auf Bäumen. Fernab der Wirklichkeit und abgehoben von der Realität. In diesem Rahmen sind auch deren Arbeiten und Verlautbarungen zu betrachten.

 

Raimund Leistenschneider – EIKE

 




Die Seher vom PIK-Potsdam und ihre Jünger in den Medien

In seiner Studie hat das PIK eine alte Vorstellung in neuem Gewand aufgegriffen, dass die Eisschilde ins Meer abdriften und somit zu einem verstärkten Meeresspiegelanstieg führen, Spektrum der Wissenschaft, 05/2008, “Rutschgefährdete Eisschilde“. Seinerzeit sollte Wasser unter den Eisschilden, dass wie ein Gleitfilm wirkt, für ein Abdriften sorgen, heute zusätzlicher Schnee. Da seinerzeit die Schreckensszenarien ausblieben, werden dem Schrecken einfach neue Kleider übergezogen.

Kernaussage der PIK-Studie, die von deutschen Journalisten, die wenig von Wissenschaft, dafür aber mehr von Schlagzeilen verstehen, wie “Die Welt“, begierig nachgeredet wurde, ist, Zitat aus Die Welt, “Schneefall lässt Meeresspiegel schneller steigen“:

Hintergrund der Studie ist, dass es aufgrund der globalen Erwärmung mehr schneit. Denn warme Luft kann mehr Feuchtigkeit aufnehmen als kalte…“

Hoppela – das menschliche Kurzzeitgedächtnis soll bekanntlich so seine Lücken haben – aber, wenn sich der Autor noch richtig erinnert, sollen doch Europa, Afrika, Asien, die USA,… aufgrund der anthropogenen Erwärmung austrocknen und von Dürren heimgesucht werden, z.B. Spektrum der Wissenschaft, 06/09, S. 83: “Der Klimawandel macht Wasser knapp“. Also auf einmal doch nicht, jetzt, bei der Antarktis-Betrachtung mehr Feuchtigkeit und mehr Regen/Schnee aufgrund der Erwärmung. Aber Astrid Lindgrün lässt ihre Heldin bekanntlich ausrufen: “Ich mach mir die Welt, widewidewie sie mir gefällt.” Das PIK hat sich diese Welt offenbar gut zu Recht gerückt. 

Dass die Schneefälle über den Landmassen in Relation zu den Schelfeis-und Küstengebieten nicht zunehmen und dadurch eine vermehrte Höhendifferenz das Eis schneller zu den Küsten abfließen lässt, sondern im Gegensatz dazu, geringer sind, wird durch Beobachtungen und damit der Realität, bestätigt, wie Abbildung 1 zeigt.

undefined

Abbildung 1 (Quelle: British Antarctic Survey) zeigt die Niederschlagsrate in der Fläche der Antarktis. Deutlich erkennbar, dass diese über der Landfläche geringer ausfallen, als an den Küsten- und Schelfeisgebieten. Womöglich haben die PIK-Seher etwas verwechselt, was bereits 1997 in der “Oxford University Press“ veröffentlicht wurde, dass ab einer Mächtigkeit von ca. 3.000 m die Eisdecke thermische Energie stauen kann, infolge dessen es zu einem basalem Auftauen kommt – das Eis ist nicht mehr mit dem Grund verzahnt, fließt und bricht. Dass das Eis der Antarktis fließt und nicht stationär ist, ist also allseits seit langem bekannt und war schon bei Christi Geburt so, um wieder zur Weihnachtszeit zu gelangen (Abbildung 2).

undefined

Abbildung 2 links zeigt schematisch die Ursachen des Eisflusses, wie ihn das PIK in seinen Modellen aufgegriffen hat. Durch Niederschläge wird das Eisschild vergrößert. Durch das zusätzliche Gewicht und dem daraus resultierenden Druck, wird das Eis darunter verdichtet und erhält, wenn der Druckimpuls am Boden ankommt, einen seitlichen Impuls, der wegen der Topographie des Bodens und der Schwerkraft, seitlich zu den Küsten abfließt – das Eis fließt. Verliert das Eis den Grund, bricht es. Abbildung rechts zeigt die unterschiedliche Fließgeschwindigkeit des antarktischen Eisschildes. Zu den Küsten hin wird diese größer, weil Newton sein Recht verlangt (http://www.stabilisation2005.com/day1/Chris_Rapley.pdf). Das PIK hat aus dem bekannten Eisflusssystem einen sich selbst verstärkenden Prozess gemacht und schlicht vergessen, dass ein Regelsystem nur so lange verstärkend zu einer Ausgangsgröße tendiert, solange die Eingangsgrößen die Ausgangsgrößen (hier Verluste) überdecken, will heißen, der Regelkreis stoppt sich selbst. In der Antarktis sind die Fließgeschwindigkeiten daher dynamisch um einen Mittelwert und nicht, dynamisch zu einem Maximalwert tendierend. Wenn dem so wäre, gäbe es in den 35 Millionen Jahren, in denen die Antarktis unter Eis ist, längst dort keine Eisbedeckung mehr, zumal es im Miozän bis zu 7°C wärmer war als heute. Bei den PIK´schen Modellen hat man offensichtlich diese „Stopp-Größe“ vergessen und geschwind ein Perpetuum mobile konstruiert. Aber dies kennen wir Naturforscher unter den Klimaforschern bereits von den IPCC-Modellen des Wasserdampf-Feedbacks oder des Temperatur-Albedo Feedbacks bei der Eisschmelze, die genauso unsinnig sind und durch keine Beobachtungen bestätigt wurden, im Gegenteil, wiederlegt wurden. Z.B. von der NASA für die angebliche Wasserdampfzunahme in der Atmosphäre (Wasserdampf-Feedback).

Im Gegensatz zur seriösen Wissenschaft, lässt das PIK also in guter Tradition der Klimabeschwörer von IPCC, wieder einmal ein Perpetuum mobile entstehen, indem sich ein Prozess nicht nur selbst erhält, sondern auch noch von selbst aufschaukelt. Dass sich wissenschaftlich fundierte Personen angesichts solcher Versuche dann verschaukelt fühlen, zeigen die vielen Leserbriefe auf den entsprechenden Artikel in “Die Welt“. In diesem Artikel ist zu lesen, dass 30% – 65% des gefallenen Schnees wieder in die Ozeane gelangen. Selbst ein Erstklässler wird sich die Frage stellen, wenn weniger (35% – 70%) als 100% dorthin gelangen, wo sie herkommen, dies schwerlich zu einer Steigerung an der Quelle (Erhöhung Meeresspiegel) kommen kann. Aber offensichtlich haben deutsche Journalisten heutzutage nicht einmal das intellektuelle Niveau eines Erstklässlers.

Folgend möchte der Autor unseren Lesern die Entwicklung des Schneefalls in der Antarktis an verschiedenen Stationen zeigen, damit Sie sich ein eigenes Bild machen können, was es mit dem PIK-Ansatz, vermehrter und zunehmender Schneefalle in der Antarktis, auf sich hat.

undefined

Abbildung 3 (SMD = Surface Mass Balance), Quelle: Lenaerts, J. T. M., M. R. van den Broeke, W. J. van de Berg, E. van Meijgaard, and P. Kuipers Munneke (2012), A new, high-resolution surface mass balance map of Antarctica (1979–2010) based on regional atmospheric climate modeling, Geophys. Res. Lett., 39

undefined

Abbildung 4, Quelle: Rapid change of snow surface properties at Vostok, East Antarctica, revealed by altimetry and radiometry, P. Lacroix, B. Legresy, F. Remy, F. Blarel, G. Picard, L. Brucker.

undefined

Abbildung 5, Quelle: Insignificant Change in Antarctic Snowfall, Scincemag.org

undefined

Abbilung 6, Quelle: Timeseries of snow accumulation in coastal East Antarctica (shaded region in inset), Boening et al., 2012.

Bei Betrachtung der Abbildungen drängt sich die Schlussfolgerung auf, das hier wieder einmal von der Fraktion der GW-Anhängern, Cherry-Picking betrieben wurde, um eine Ausgangsbasis für abstruse Klimamodelle zu schaffen. Wie bereits in Abbildung 1 zu sehen, sind fast ausschließlich um die antaktische Halbinsel vermehrte Schneefälle zu beobachten. Über dem gesamten Festland indes nicht, wie die Assage von Abbildung 5 bestätigt. Dass man beim PIK wieder einmal unwissenschaftlich und schlampig gearbeitet hat und eine Studie veröffentlichte, die, wie der Volksmund so treffend sagt, nicht das Papier wert ist, auf dem sie geschrieben steht, verdeutlicht Abbildung 7.

 

Abbildung 7 zeigt die Schneefallentwicklung in der Antarktis über die letzten 100 Jahre, Quelle: Is the Long-Awaited Snowfall Increase in Antarctica Now Underway? (Posted by Chip Knappenberger). Wer aus Abbildung 6, die eine Schneefallerhöhung auf der antarktischen Halbinsel ab dem Jahr 2009 zeigt, schlussfolgeren will, dass die Schneefälle aufgrund eine anthropogenen Klimawandels zunehmen würden, wird aus Abbildung 7 eines besseren belehrt. Die Antarktis hat in der Vergangenheit größere Schneefälle „gesehen“, als heute – alles schon mal dagewesen!

Solche Irr-und Scheinwelten sind uns ja von dem IPCC bekannt. Auch in deren Welten führt eine Nettoenergieabfuhr zu einer Erwärmung, was die folgende Abbildung verdeutlicht.

undefined

Abbildung 8 zeigt das von Trenberth geschaffene und vom  IPCC übernommene Energieflussbilanzmodell der Erde, das als Ausgangsbasis der Treibhauseffektbetrachtungen der Anhänger der anthropogenen Erwärmung gilt. Dort ist die sog. Gegenstrahlung (Back Radiation) auf skizziert, die, durch CO2-Antrieb, zu einer zusätzlichen Erwärmung der Erdoberfläche führen soll. Sie hat nach den IPCC-Vorstellungen einen Wert von 333 W/m2 und gibt die langwellige Infrarotstrahlung wieder, die durch die Treibhausgase zur Erde zurückgelenkt wird. Wie unschwer zu erkennen, ist jedoch der Nettostrahlungsfluss nicht abwärts, sondern aufwärts gerichtet. Er beträgt nach diesen Vorstellungen 63 W/m2. Surface Radiation, also die Energie, die die Erde im langwelligen IR abgibt minus Back Radiation, was nichts anderes heißt, als dass die Erde im langwelligen IR mehr Energie abgibt, als sie durch die sog. Gegenstrahlung bekommt. So etwas wird üblicherweise als Abkühlung bezeichnet. Offenbar nicht in der Scheinwelt des IPCC. Dort heißt so etwas Erwärmung der Erde.

Aber bald ist Weihnachten. Weihnachten ist die Zeit der Besinnung, der Träume, Wünsche und der Geschichten. Insofern hat das PIK eine Vorweihnachtsgeschichte unter falschem Etikett, einem Wissenschaftsetikett aufgetischt, anstatt unter einem Weihnachtsetikett. Dass solches von deutschen Journalisten nicht bemerkt wird, kann den Autor nicht verwundern. Hat er doch schon öfters auf die Qualitäten jener hingewiesen, deren naturwissenschaftliche Kenntnisse bereits an der Oberfläche enden. Die meisten von uns können indes die Weihnachtszeit von der übrigen Jahreszeit gut trennen, die PIK´schen Orakle und deren Sirenen in der deutschen Presse offenbar nicht. Insofern ist mit weiteren Artikeln in der gewohnten Qualität bei PIK und der deutschen Presse zu rechnen, die uns bei EIKE die Gelegenheit geben, herzlichst zu lachen und für Aufklärung zu sorgen.

Jedoch ist unter „Schnee“ noch etwas anderes bekannt, das einem die Sinne raubt und in Scheinwelten führt und damit eine mögliche Erklärung für den PIK-Bericht geben kann. Allerdings hat dieser Schnee nichts mit Weihnachten zu tun.

Raimund Leistenschneider – EIKE




Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 2

Teil 2: „Trittbrettfahrer“ CO2 – Das Phantom der  Klimawissenschaft

 

4. Bleibt noch etwas für CO2 „übrig“?

 

Wir versetzen uns einmal in die Lage der CO2-Anhänger und gehen von der Annahme aus, dass die gesamte Erwärmung Erfurts auf den behaupteten CO2-TE zurückzuführen wäre und suchen nach Korrelationen beider Verläufe seit 1979.

Setzt man die Jahresmittelwerte der CO2- Konzentration, ermittelt am Mauna Loa- Observatorium, zu den Jahresmitteltemperaturen für Erfurt seit 1979 in Beziehung, so kommt immerhin ein mäßiger Zusammenhang heraus:

 

 Abbildung 15

Der positive Zusammenhang überrascht schon deshalb nicht, weil der Langzeittrend (30 Jahre) der Jahresmittelwerte beider Größen angestiegen ist. Handelt es sich also nur um eine „Schein- Korrelation“, oder steckt mehr dahinter? Hierzu ist es notwendig, die Korrelation auch auf kleinen Skalen zu betrachten, da die Lehre von der CO2-basierten Erwärmung eine unmittelbare Ursache-Wirkung-Beziehung fordert und diese postuliert, was z.B. in den Berechnungen nach Stefan & Boltzmann zum Ausdruck kommt. Bereits ein Blick auf den Temperaturverlauf  Erfurts für dieses Jahrhundert (wir zeigten ihn eingangs des 1. Teils), lassen Zweifel aufkommen, da seither die Temperaturen fallen, der CO2-Pegel aber beschleunigt ansteigt. So verwundert es nicht, dass unter Physikern die Klimasensitivität von CO2 oder sonstigen sog. Treibhausgase kontrovers diskutiert wird. Sogar ein kühlender C02-TE ist in der Diskussion. Bisher gibt es jedoch keinen wissenschaftlichen Versuchsbeweis zur Bestätigung dieses „CO2-Treibhauseffektes“, so dass deutliche Temperaturveränderungen (Erwärmungseffekte) durch CO2 nicht sehr wahrscheinlich sind.    

Viertes Ergebnis: Anhand der obigen Korrelationsbeziehung, wären seit 1979 höchstens 0,25K, Temperaturanstieg in Erfurt durch die Zunahme der CO2- Konzentration verursacht worden- das würde bei (prinzipiell unzulässiger, aber hier mal beispielhaft angewandter) linearer Projektion einem Temperaturanstieg von 0,8K  (weniger als 1K!) in 100 Jahren entsprechen. Selbst dieses Ergebnis, das von einem existenten C02-TE ausgeht, der in der Wissenschaft kontrovers debattiert und bisher dort nicht nachgewiesen werden konnte, ist weit entfernt von den Panikvoraussagen mancher Treibhausforscher, deren Vorhersagen um fast das 10-fache höher sind.                                                                                    

Anmerkung: Häufig wird in Veröffentlichungen die folgende Grafik (Abbildung 15) gezeigt, welche einen erheblichen Einfluss der „Treibhausgase“ auf den Anstieg der globalen Temperatur belegen soll:

 

Abbildung 16

Simulation (WALTER) der beobachteten global gemittelten

Jahresanomalien 1860–2008 (Referenzperiode 1961–1990) der bodennahen

Lufttemperatur (Beob., dünne Kurve) durch ein neuronales

Treibhausgase (GHG, gestrichelt), Sulfatpartikel (SU, punktiert) und

kombiniert (GHG+SU, grau) sowie Markierung einiger explosiver Vulkanausbrüche

(maximaler Temperatureffekt i.a. ca. 1 Jahr nach Ausbruch)

und El-Niño-Ereignisse

Der entscheidende Mangel bei dieser Darstellung: Zwei ganz wichtige „Verursacher“ des Temperaturanstiegs wurden erst gar nicht in die Untersuchungen mit einbezogen- erstens die Urbanisierungs- und Flächenhaften Wärmeinseleffekte und zweitens solare Effekte, die über die Schwankungen der „Solarkonstante“, oft als „TSI“ (Total Solar Irradiance – Der TSI ist im Grunde eine Mogelpackung, da er „Total“ suggeriert, die Messgeräte in den Satelliten aber nur einen Teil der Sonnenstrahlung erfassen und zwar zwischen 200nm – 2.000 nm Wellenlänge. Gerade die hochvariablen Energiebestandteile der solaren Strahlung, werden gar nicht erfasst!) bezeichnet, weit hinausgehen und beispielsweise unter dem „SVENSMARK- EFFEKT“ zusammengefasst werden. Daher ist der abgeschätzte „GHG- Effekt“ in obiger Grafik deutlich zu groß.

Um die Temperaturen und Wetterlagen in Deutschland und damit auch in Erfurt zu verstehen, muss man sich auf die andere Seite des Globus, in den Pazifik begeben. Die Welt ist ein „Dorf“, nicht nur in unserem Zusammenleben. Seit langem ist bekannt, dass die bekannten El Niño/La Niña-Ereignisse Einfluss auf die Großwetterlagen in Europa haben. Hier sind z.B. die Untersuchungen von Prof. Brönnimann (ETH Zürich, “Pazifik lies Europa erfrieren“) und des MPI für Meteorologie und der University of Cambridge, “Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate“ genannt.

Weiter ist bekannt, wie die globale Mitteltemperatur im Gleichtakt zu El Niño/La Niña-Ereignissen schwankt (folgende Abbildung).

 

Abbildung 17 oben zeigt die globale Temperaturdatenreihe der letzten 30 Jahre. Die kleine Abbildung zeigt die atmosphärische CO2-Entwicklung nach Mauna Loa. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Jede globale Temperaturspitze in den letzten 30 Jahren fällt mit einem El- Niño- Ereignis exakt zusammen und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil). Die schwarzen Linien dienen zur zeitlichen Justierung der Datenreihen. Zur CO2-Entwicklung besteht keine erkennbare Korrelation.

Ebenso ist bekannt, dass El Niño/La Niña-Ereignisse mit der Aktivität der Passatwinde und damit der Ausprägung der Hadley- Zellen zusammen hängen.

 

Abbildung 18 zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung und dies ist der Ansatzpunkt, wie die Sonne neben ihrer Strahlungsleistung ihren Einfluss auf das irdische Wettersystem umsetzt. Seit Svensmark gibt es eine These, wie die solare Aktivität die Bewölkung beeinflusst. Den Einfluss des Polfeldes (Hale-Zyklus) auf die Wolkenbedeckung wurde bereits gezeigt.

Wie Untersuchungen zeigen, hat sich die Hadley- Zelle im Zeitraum der moderaten Erwärmung zwischen 1979 und 2005 (Anstieg des Hauptsonnenzyklus, des im Mittel 208-jährigen de Vries/Suess-Zyklus – dieser hatte in 2003 sein Maximum und damit die Sonne maximale Aktivität in den letzten 200 Jahren) um 5-8 Breitengrade ausgedehnt und sich dessen Volumen, da auch die Tropopause wegen der erhöhten Konvektion durch die Wärmeflüsse um einige Zehnmeter erhöhte, um ca. 5% vergrößert, D. J. Seidel et al. (2008), ”Widening of the tropical belt in a changing climate“, Nature Geoscience 1, 21-24.

Darüber hinaus fanden Xiao- Wei Quan et al. (“Change of the Tropical Hadley Cell Since 1950“) heraus, dass die Windgeschwindigkeiten in der Hadley- Zelle stark differieren. Werden deren Ergebnisse, mit den solaren Parametern in Verbindung gebracht, ergibt sich folgendes Bild.

 

Abbildung 19: Wie nicht anders zu erwarten, sind die El Niño- Ereignisse unmittelbar mit der Aktivität in der Hadley- Zelle gekoppelt. Die kleine Abbildung zeigt, wie die Auswirkungen von El Niño um den ganzen Globus zu verzeichnen sind, insbesondere in einem Band von ±30° nördlicher und südlicher Breite, was dem Gebiet der Hadley- Zellen entspricht (kleine Abbildung, oben). Wie die Gesamtabbildung zeigt, ist jeder El Niño einem Hadley- Ereignis direkt zugeordnet (rote gestrichelte Linien) und damit, der solaren Aktivität unmittelbar zuzuordnen. Dazu wird der gezeigte Hadley- Zirkulationsindex verwendet. Dieser wird aus der gemittelten Windgeschwindigkeit der 200 hpa- Höhe, minus der gemittelten Windgeschwindigkeit in der 850 hpa-Höhe gebildet und ist somit ein Maß für die Luftmassengeschwindigkeit und des Luftmassenstroms in der Hadley-Zelle. Die Abbildung zeigt ganz deutlich, dass mit Eintreten eines El Niño-Ereignisses und des entsprechenden solaren Parameters, die Windgeschwindigkeiten in der Höhe zunehmen. Dies ist auch der Schlüssel zu der Erkenntnis, dass die El-Niño-Auswirkungen nicht nur zonal (zwischen ±30° geographischer Breite), sondern global auftreten. Der Grund hierfür ist ein fundamentales physikalisches Gesetz: Der Drehimpulserhaltungssatz.

Drehimpuls

Der Drehimpuls (Einheit: Nms) wirkt bei einer Kreisbewegung in Richtung Zentrum und gibt die Drehachse der Bewegung an. Er steht damit senkrecht zur Ebene, in der sich die Masse bewegt. Der Drehimpuls ist abhängig von der Geschwindigkeit, der Masse, sowie dem Abstand zur Drehachse. Bei Zunahme einer der drei vorgenannten Parameter, wächst der Drehimpuls an. Der Drehimpulserhaltungssatz gibt an, dass der Gesamtdrehimpuls in abgeschlossenen Systemen konstant ist.

Die Wettersysteme der Erde werden in je drei Hauptbänder (jeweils Nord- und Südhalbkugel) eingeteilt:

Hadley- Zelle, links und rechts vom Äquator. Dieser schließt sich die

Ferrel- Zelle an, in der wir leben und der

Polarzelle

Hadley- und Polarzelle sind mit einem ostwärts gerichteten Luftmassenstrom verbunden, wogegen in der Ferrelzelle die Westwinddrift vorherrscht. Sowohl die Ostwinde der Subtropen/Tropen, als auch die Ostwinde der Polargebiete und der Westwind der mittleren Breiten sind mit einem Drehimpuls verbunden. Aus Gründen der Drehimpulserhaltung muss deren Summe Null ergeben.

Verändert sich der Drehimpuls z.B. auf Grund einer Geschwindigkeitszunahme der Luftmassenströmungen in der Hadley- Zelle (siehe vorheriges Chart), so muss dies wegen dem Drehimpulserhaltungssatz Auswirkungen auf die Luftströmungen in den beiden anderen Zellen (Ferrel- und/oder Polar-Zelle) haben. Wird die Geschwindigkeit der Luftströmungen durch ein solares Ereignis in der (oberen) Hadley- Zelle erhöht, so sind (müssen über den Drehimpulserhaltungsssatz) durch die Kopplung über den Drehimpuls auch die anderen Zelle(n) beeinflusst. In der Ferrelzelle sind geringere Drehimpulse, was zu einem ruhigen, kalten Winter führt und somit die Untersuchungen von Prof. Brönnimann und des MPI-M erklären kann.

 

Zusammenfassung:

 

Die Ergebnisse zeigen, dass der Einfluss auf unser Wetter/Klima, bis in die heutigen Tage, in erster Linie durch unser Zentralgestirn, die Sonne bestimmt wird. Menschengemachte Einflüsse sind indes vorhanden und treten stark in Erscheinung. Dies sind jedoch nicht die Auswirkungen durch das Ausbringen sog. Treibhausgase wie CO2, sondern die Platzierung der Messstellen an ungeeigneten Orten, sprich, in vom Menschen stark veränderten Landschaften, wie Städten, Großflughäfen oder land- und forstwirtschaftlicher Nutzflächen, also Trockengebieten, die jeglichen Langzeitvergleich der Temperaturen unsinnig machen, sofern sie unberücksichtigt bleiben. Diese Faktoren werden in der wissenschaftlichen Literatur allgemein als Wärmeinseleffekt (WI) oder Urban Heat Island (UHI) bezeichnet. Der immer noch in den Medien hochgehaltene Stab einer THG-basierten Erwärmung ist nicht grundsätzlich auszuschließen. Sofern dieser Einfluss vorhanden ist (Ursache-Wirkung fehlt), ist er mit weniger als 3%-Anteil (weniger als 4 hundertstel °C) an der Gesamterwärmung von 1,3°C vernachlässigbar.

 

Ausblick

 

Entgegen den Vorhersagen der auf CO2 basierenden „Klimamodellen“ hat es weder in Erfurt, noch in Deutschland, noch global während der vergangenen 10 bis 15 Jahre einen weiteren Temperaturanstieg gegeben. Diese Stagnation dauert zwar noch nicht lange genug an, um daraus allein mit Sicherheit auf ein generelles Ende des „neuzeitlichen Klimaoptimums“ zu schließen, aber zusammen mit neuen Erkenntnissen über den dominanten Einfluss der Sonne auf das Klima (MALBERG, SVENSMARK, VAHRENHOLT/LÜNING und andere) bringt sie die Vertreter der Theorie einer durch vom Menschen verursachten „CO2- Klimaerwärmung“ zunehmend in Erklärungsnöte.

Schon warnen Experten (z.B.: NASA) vor einer neuen „Kleinen Eiszeit“, infolge der deutlich nachlassenden Sonnenaktivität. Es bleibt nur die Hoffnung, dass auch diese Abkühlungsszenarien zu pessimistisch und übertrieben sind, und die Erkenntnis, dass Klima, trotz neuester wissenschaftlicher Erkenntnisse, nicht über längere Zeiträume vorhergesagt werden kann. Was gesagt werden kann ist, dass Klimawandel ein stetiger Begleiter in der Evolutionsgeschichte ist und wir Menschen nur über die Urbanisierungs- und Flächenhaften Wärmeinseleffekte wesentliche, auf die besiedelten und genutzten Landflächen beschränkte Klimaeinflüsse erzeugen. Die Schreckensszenarien, die zuweilen zu hören sind, entbehren jeder wissenschaftlichen Grundlage.

 

Abbildung 20: Ein Paar, das nicht so recht zusammenpassen will: Während die CO2- Konzentration seit 1995 fast linear gestiegen ist (blaue Säulen in oberer Abbildung), verhält sich die „globale“ Temperatur (physikalisch gibt es keine „Globaltemperatur“, sondern, diese ist ein rein statistischer Wert) gänzlich anders (rote Säulen, aus MALBERG 2012). Inwieweit diese, wie Eisbohrkernuntersuchungen zeigen (Abbildung 21), nach einem Hauptsonnenzyklus (208-jährige de Vriess-Suess-Zyklus, hatte in 2002/2003 sein Aktivitätsmaximum) wieder deutlich fällt, wie NASA und viele andere Forscher es erwarten, muss abgewartet werden, da die inneren Abläufe der Sonne, die ihre Aktivität steuern, zu wenig bekannt sind.

 

Abbildung 21 zeigt die Kälteperioden der letzten 1.100 (ergänzt nach Quelle: United States Geological Survey, C14-Daten von Reimer et al. (2004)). Die Maxima der Warmperioden korrelieren jeweils mit dem Maximum des de Vries/Suess-Zyklus. Nach jedem Hauptsonnenzyklus fallen die Temperaturen deutlich. Um die Jahrhundertwende im Jahr 2000 hatten gleich drei solare Sonnenzyklen ihr Maximum (deren Maxima fielen zusammen), welche jeweils zusätzlich stark ausgeprägt waren:

– Hauptsonnenzyklus (208-jährige de Vriess-Suess-Zyklus) in 2002/2003

– 36-jährige Brückner-Landscheidt-Zyklus in 2005 (Brückner hat ihn anhand von Klimauntersuchungen entdeckt und der Physiker Landscheidt den Nachweis erbracht, auf was er beruht)

– Magnetische Aktivität im 11-jährigen Schwabe-Zyklus in 2002

 

Verfasst und zusammengestellt (2012) von

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider, EIKE

 

Literatur- und Quellenangaben

Wehry, W. (2009): Mehr Sonnenschein, weniger Nebel und höhere Temperatur- anthropogene Klima- Änderung? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 47/09 (Sonderbeilage 23/09) vom 09.07.2009

Malberg, H. (2010): Über scheinbare und tatsächliche Klimaerwärmung seit 1850. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 58/10 (Sonderbeilage 26/10) vom 28.09.2010

Malberg, H. (2012): Über sprunghafte Anstiege von CO2 und globaler Temperatur. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 09/12 (Sonderbeilage 05/12) vom 31.01.2012

Kämpfe, S. (2012): Zu trockener, warmer, sonniger Herbst 2011 in Thüringen – ungewöhnlich oder einfach nur schön? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte als Beilage 03/12 (Sonderbeilage 01/12) vom 04.01.2012 und in leicht geänderter Fassung bei www.eike-klima-energie.eu 27.12.2011

Kämpfe, S. (1998): Pflanzen als Klimazeiger- ein Beitrag zur Vegetationsgeografie in Thüringen-. Beilage Nr. 196/1998 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor)

Koch, H. G. (1953): Wetterheimatkunde von Thüringen. Gustav Fischer Verlag Jena (nur analog vorliegend)

Berliner Wetterkarte e.V (2000 bis 2011): Beiträge zur Berliner Wetterkarte. Klimatologische Übersicht Europa, Monatsausgaben Januar 2000 bis Dezember 2011

Schönwiese, C.-D., Walter, A. (2009): Neue statistische Abschätzungen zur anthropogenen und natürlichen Steuerung des Globalklimas. Bericht in den Mitteilungen der DMG, 01/2009, S. 4-5

Kowatsch, J., Leistenschneider, R. (2010): Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen- eine Wertung der DWD- Temperaturmessstationen. www.eike-klima-energie.eu 04.10.2010

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen. www.eike-klima-energie.eu 20. Januar 2012

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der gemessenen Temperaturen. www.eike-klima-energie.eu 04.08.2012

Peter C. Werner, Friedrich-Wilhelm Gerstengarbe (2010): KATALOG DER GROSSWETTERLAGEN EUROPAS (1881-2009) NACH PAUL HESS UND HELMUT BREZOWSKY 7., VERBESSERTE UND ERGÄNZTE AUFLAGE. PIK Report No. 119

Deutscher Wetterdienst (2010, 2011): Großwetterlagen- Anzahl der Tage. www.dwd.de

Deutscher Wetterdienst (1991 bis 1999): Beilagen zur Wetterkarte des Deutschen Wetterdienstes. Klimatologische Werte für die Jahre und Monate 1991 bis 1999

Deutscher Wetterdienst (2000 bis 2006): WITTERUNGSREPORT und WITTERUNGSREPORT express. Monatshefte Januar 2000 bis Dezember 2006

Deutscher Wetterdienst (Herausgeber): Stadtklima. Hauptschriftleiter M. Schlegel. promet, Jahrgang 9, Heft 4, 1979

http://www.leif.org/research/cloud-cover.png

Meteorologischer Dienst der DDR, Hauptamt für Klimatologie in Potsdam (1979 bis 1990): Monatlicher Witterungsbericht für das Gebiet der Deutschen Demokratischen Republik. Beilage zum Täglichen Wetterbericht. Sonderhefte (Jahresberichte 1979 bis 1990)

Calder, N., Svensmark, H. (2007): The Chilling Stars – A New Theory of Climate Change, übersetzt ins Deutsche von Helmut Böttiger: Sterne steuern unser Klima: Eine neue Theorie zur Erderwärmung. Patmos Verlag, Düsseldorf 2008

Vahrenholt, F., Lüning, S.(2012): Die kalte Sonne. Warum die Klimakatastrophe nicht stattfindet. Hoffmann und Campe, Hamburg 2012

Xiao-Wei Quan et al. “Change of the Tropical Hadley Cell Since 1950“

Standardisierte beziehungsweise normalisierte NAO- Werte Januar 1950 bis Dezember 2011: www.cpc.noaa.gov/

Evan et al. “Arguments against a physical long-term trend in global ISCCP cloud Amounts”

Prof. Brönnimann , ETH Zürich, “Pazifik lies Europa erfrieren“

MPI für Meteorologie und der University of Cambridge, “Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate

(http://wattsupwiththat.com/2009/02/17/the-trade-winds-drive-the-enso/#more-5702)

American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000

Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003, European Geophysical Society

United States Geological Survey, C 14-Daten von Reimer et al. (2004)




Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 1

Abstract

Die hier durchgeführte Untersuchung zu den Erwärmungsursachen anhand amtlicher Messwerte der DWD- Station Erfurt- Bindersleben verdeutlicht die Schwierigkeiten bei der Abschätzung möglicher Erwärmungseffekte. Es konnte jedoch gezeigt werden, dass allein etwa die Hälfte des seit 1979 in Erfurt beobachteten Temperaturanstiegs auf eine bloße Zunahme der Sonnenscheindauer zurückführen lässt. Wegen der Kopplung der Wettersysteme (El Niño), muss davon ausgegangen werden, dass der solare Einfluss noch größer ist.

Einen wesentlichen, aber noch weiter zu untersuchenden Teil von etwa 0,6K, hat auch der „Urbanisierungs- und Flächenhafte Wärmeinseleffekt“ beigetragen. Weiterhin deuten sich zumindest leichte Erwärmungseffekte durch Zirkulationsänderungen an, besonders im Frühjahr. Auch hierzu sind noch tiefere Untersuchungen notwendig. Möglicherweise tritt der Zirkulationseffekt dann deutlicher hervor.

Anhand der gezeigten Korrelation am Langzeittrend, kann auch eine leichte Erwärmung durch „Treibhausgase“ nicht völlig ausgeschlossen werden. Deren Betrag fällt jedoch gegenüber den „Hauptakteuren“ Solar- und Wärmeinseleffekten sehr gering aus, sofern er überhaupt vorhanden ist, da keine Ursache-Wirkung besteht (Korrelation seit mehr als 10 Jahren divergierend, d.h. nicht vorhanden). So zeigt das folgende Diagramm die möglichen Einflüsse anhand der Korrelationsergebnisse. Es deutet grob an, wie sich die Erwärmung danach zusammensetzt. Außerdem sind weitere, hier nicht untersuchte scheinbare Erwärmungsursachen, wie etwa die Verfälschung der Tageswerte durch Umstellung auf stündliche Lufttemperaturmessungen seit 2001 und halbstündige seit 2009, nicht ausgeschlossen.

Teil 1: Vorstellung der Hauptakteure

Teil 2: „Trittbrettfahrer“ CO2 – Das Phantom der Klimawissenschaft

Teil 1 Vorstellung der Hauptakteure

 

Seit 1979 sind die Lufttemperaturen in Erfurt um etwa 1,3°C beziehungsweise 1,3 Kelvin (K) gestiegen- in nur 33 Jahren um fast das Doppelte der angeblich seit etwa 150 Jahren stattfindenden „Erderwärmung“ von etwa 0,8K. Da lohnt es sich, einmal genauer hinzuschauen- schließlich könnte sich ja die „globale Erwärmung, angeblich durch CO2 verursacht“, in Thüringen viel schlimmer auswirken, als bislang angenommen. Es könnte aber auch alles ganz anders sein. Die folgende Arbeit erhebt keinen Anspruch auf Vollständigkeit und soll vor allem zum unvoreingenommenen Nachdenken über mögliche Erwärmungsursachen anregen.  

Mehr Sonnenschein- Mehr Wärme!

Die folgenden zwei Abbildungen zeigen den Temperaturtrend (oben) und den Trend der Sonnenscheindauer (unten).

 

Abbildung 2. Die Ähnlichkeit beider Verläufe ist unverkennbar. Die höhere Sonnenscheindauer wirkt erwärmend. Eine Korrelationsberechnung zwischen jährlicher Sonnenscheindauer und den Jahresmitteltemperaturen bestätigt diesen Verdacht (folgende Abbildung).

Abbildung 3

Das Bestimmtheitsmaß von fast 47% sagt aus, dass knapp 47 Prozent der Variabilität der Lufttemperaturen im Betrachtungszeitraum von der Variabilität der Sonnenscheindauer verursacht wurden. Anmerkung: Eine positive Korrelation ist für sich allein zwar kein eindeutiger Beweis für den Zusammenhang zwischen beiden Faktoren. Dass jedoch eine längere Sonnenscheindauer mehr Energiezufuhr bedeutet, welche die Erdoberfläche und über diese dann auch die unteren Luftschichten stärker erwärmt, dürfte niemand anzweifeln.

Erstes Ergebnis: Mehr Sonnenstunden, mehr Wärme. Etwa zur Hälfte lässt sich der  Erwärmungstrend mit der seit 3 Jahrzehnten zunehmenden Sonnescheindauer erklären! Die Sonne scheint heute in Erfurt gut 200 Stunden länger pro Jahr, als noch Ende der 1970er Jahre, was in etwa der Sonnenscheindauer eines ganzen Sommermonats entspricht!

Untersuchungen anderer europäischer Stationen, unter anderem von Berlin- Dahlem, Potsdam, Horben (Schwarzwald), Observatorium Modena (Norditalien), sowie mehrerer Stationen aus der Schweiz, deuten in die gleiche Richtung. Seit etwa 2000 stagniert die Temperatur auf hohem Niveau.

Dieser Erwärmungseffekt durch längere und intensivere Besonnung ist wegen strenger Umweltauflagen (Luftreinhaltemaßnahmen) in Europa besonders deutlich ausgefallen und ist eine Erklärung, warum die Temperaturen hier so viel stärker als im „globalen Mittel“ angestiegen sind. Seit mehr als 10 Jahren stagnieren sie jedoch auf hohem Niveau oder sinken gar wieder leicht, zumal die „Luftreinhalteeffekte“ weitgehend ausgereizt sind. Außerdem lässt die Sonnenaktivität, welche ebenfalls wesentliche Einflüsse auf die Sonnenscheindauer und die Intensität der Einstrahlung hat (z.B. „Svensmark- und Aerosoleffekte“) aktuell stark nach.

Die folgende Abbildung zeigt, wie sich die globale Wolkenbedeckung, also nicht nur die von Städten, seit Beginn des Erwärmungstrends änderte.

Abbildung 4 links zeigt die globale Wolkenbedeckung von Juli 1983 – Juni 2005, nach Daten des ISCCP (International Satellite Cloud Climatology Project). Die Abbildung stammt aus der Arbeit von Evan et al. “Arguments against a physical long-term trend in global ISCCP cloud Amounts“. Bereits die linke Abbildung deutet auf eine periodische Schwingung von größer 18 Jahren (grüner Pfeil) hin. Dass Kurvenminimum liegt im Maximum des 23. Schwabe- Zyklus im Jahr 2000. Rechts ist der Kurvenverlauf an der gestrichelten Linie gespiegelt und ab 2005 (Datenende) angesetzt. Dabei wurde darauf geachtet, dass das Verhältnis zwischen Anstieg und Rückgang im Schwabe-Zyklus etwa 2 zu 3 beträgt (die Anstiegszeit eines solaren Zyklus ist nicht exakt fix, sondern davon abhängig, wie stark der kommende Zyklus ist – starker Zyklus = schnelle Anstiegszeit, schwacher Zyklus = langsame Anstiegszeit, insofern stellt das Verhältnis 2 zu 3 einen Mittelwert dar). Das Maximum der globalen Bewölkung folgt in eindeutiger Weise vom Hale-Zyklus (Polaritätszyklus der Sonne) und damit der Polarität des magnetischen Sonnenzyklusses. Weitere Untersuchungen sind notwendig, den komplexen Einfluss der Sonne auf unser Wetter/Klima, hier der Wolkenbildung, besser zu verstehen und die obigen Erkenntnisse abzusichern. Denn der Einfluss der Wolken auf die Wetter- und damit Temperaturverhältnisse sind elementar.

Nach Angaben des DLR (Deutsches Zentrum für Luft- und Raumfahrt) bedeutet eine Reduzierung des mittleren Wolkenbedeckungsgrades von wenigen Prozent, bereits eine globale Temperaturänderung, die einer Verdoppelung des CO2-Gehaltes nach den Modellvorstellungen des IPCC entspricht. Im obigen Chart beträgt die Reduzierung des Wolkenbedeckungsgrades ca. 6% bis zum Jahr 2000.

Anmerkungen: Es ist zu erwarten, dass durch die etwa 60%ige Abnahme der Luftschadstoffe seit 1980 („Aerosol- Effekt“) und die hohe Sonnenaktivität um 1990, eben auch die Intensität der Sonnenstrahlung deutlich zunahm, was zusätzlich erwärmend wirkt, da mehr direkte Sonnenstrahlung mit einem höheren (energiereicheren) Blauanteil die Erdoberfläche trifft, was aber hier nicht zum Ausdruck kommt, da ja nur der Einfluss der Sonnenscheindauer, nicht aber deren Intensität, untersucht wurde. So ist noch ein zusätzlicher Erwärmungseffekt durch die höhere Intensität der Sonnenstrahlung selbst (in der Literatur als „Solar brightening“ = Aufhellung der Sonnenstrahlung) zu erwarten, der sich ohne Strahlungsmessungen am Standort Erfurt aber nicht quantifizieren lässt. Mit sinkenden Luftschadstoffgehalten nahmen auch Dauer und Häufigkeit von Nebel (und womöglich auch der Bedeckungsgrad mit Tiefen Wolken) deutlich ab.

Weiterhin muss erwähnt werden, dass die monatliche Sonnenscheindauer im Sommerhalbjahr mit Bestimmtheitsmaßen von 35 bis über 70% die Monatsmitteltemperaturen wesentlich stärker beeinflusst als im Winterhalbjahr mit Bestimmtheitsmaßen von nur 6 bis kaum 14%. Kurzum- mehr als zwei Drittel der vergangenen Erwärmung in den Sommermonaten lassen sich aus der Sonnenscheindauer erklären, während besonders für das Winterhalbjahr nach weiteren Ursachen gesucht werden muss.

Bedingt durch die anthropogene (menschliche) Veränderung der Beschaffenheit der Erdoberfläche gibt es verschiedene Erwärmungseffekte; am bekanntesten ist der städtische („urbane“) „Wärmeinseleffekt“ (im Englischen mit UHI = Urban Heat Island Effect abgekürzt). Siedlungen und Städte sind aus folgenden Gründen wärmer als ihr Umland; hier sollen nur die wichtigsten aufgezählt werden:

Es gibt direkte Wärmequellen, und zwar

Verbrennungsmotoren (Verkehr im weitesten Sinne).

Heizungen, Klimaanlagen und Kühlschränke.

Beleuchtung (besonders Glühlampen) und Widerstandsverluste im Stromnetz.

Kanalisation und Müll (die darin enthaltenen Mikroorganismen erzeugen Wärme).

Viele Menschen und Haustiere auf engstem Raum (jeder Mensch erzeugt durch seinen Stoffwechsel in etwa soviel Wärme wie eine 100- Watt- Glühbirne).

Mindestens genauso wichtig, vielleicht sogar wichtiger, sind indirekte Erwärmungseffekte:

Einschränkung der stark kühlend wirkenden Verdunstung durch Bodenversiegelungen (Pflaster, Asphalt,  Beton) und Ableitung des Regenwassers aus der Stadt.

Fehlender oder geringerer Pflanzen- und Gehölzwuchs als im unbebauten Umland. Die Vegetation „kühlt“ durch Beschattung, durch Verdunstung sowie durch Aufnahme eines Teils der Sonnenenergie zur Photosynthese.

Die Stadt empfängt durch ihre höhere Rauhigkeit und besondere Bodenbeschaffenheit mehr Sonnenstrahlung als das Freiland (dunkler Asphalt, außerdem absorbieren Steildächer und senkrechte Hauswände besonders die Strahlung der tief stehenden Sonne, welche im Freiland kaum erwärmend wirkt). Besonders spätabends und nachts wirkt das deutlich erwärmend, weil die Baumaterialien dann die tagsüber gespeicherte Wärme an die Luft abgeben („Wärmespeicherkapazität der Straßen und Häuser).

Die Bebauung bremst den kühlend und belüftend wirkenden Wind. Ganz nebenbei: Wer Windräder aufstellt, um „das Klima zu schützen“ muss diesen Effekt ebenfalls in Kauf nehmen. Die Bremsung des Windes durch große „Windparks“ ist erheblich und trägt so ebenfalls zum Temperaturanstieg in Bodennähe auch außerhalb von Städten bei – willkommen in Absurdistan!

Horizonteinengungen und Mehrfachreflexionen behindern die nächtliche Ausstrahlung. Luftverschmutzungen (die berüchtigte „Dunstglocke“ aus Staub und Nebeltröpfchen) wirken nachts und daher besonders im Winterhalbjahr erwärmend, weil sie die Wärmeabstrahlung stärker zum Boden zurück reflektieren, als saubere Luft. Tagsüber mindern sie zwar die Intensität der Sonnenstrahlung und wirken dadurch kühlend, aber alle direkten, nur im urbanen Bereich konzentriert auftretenden Erwärmungsquellen können sie nicht überkompensieren.

Leider liegen zur genauen Entwicklung der Bebauung und Bodenversiegelung im Umfeld des Erfurter Flughafens keine genauen Angaben vor. Nach eigenen Beobachtungen nahmen diese besonders seit 1990 stark zu (mehr Flug- und Straßenverkehr, zahlreiche gewerbliche Neuansiedlungen und Wohnungsneubauten). Auch fehlen Messwerte einer vom Urbanisierungseffekt weniger beeinflussten Freilandstation, so dass man den Effekt der zunehmenden Verstädterung auf die Entwicklung der Temperaturen nur schwer ermitteln kann. Ein mögliches Verfahren zur Berechnung dieser Erwärmungseffekte hat einer der Autoren entwickelt und basiert auf dem Strahlungsgesetz nach Planck und dem Abkühlungsgesetz nach Newton.

Anhand dieser Berechnung beträgt der Urbanisierungs- und Flächenhafte Wärmeinseleffekt bei der vom DWD für Deutschland ausgewiesenen Erwärmung für die letzten 120 Jahre +1,1°C von +1,9°C, d.h. der größte Anteil der Erwärmung geht auf den WI zurück. Insbesondere in der ehemaligen DDR sind nach der Wende 1989/90 aus einstigen kleinen Wärmeinseln durch die Ausbreitung der Bebauung großflächige Wärmeregionen entstanden, und der Trend hält an. Das gilt auch für Erfurt. Die Wetterstation liegt heute am Flughafengelände Erfurt/Weimar, das nach der Wende erheblich erweitert wurde. Diese zusätzlichen erwärmenden Wirkungen der freien Fläche haben wir durch den Begriff flächenhafter Wärmeinseleffekt abgedeckt, den wir mit WI abkürzen.

Unsere Untersuchungen zeigen, dass im Schnitt der 2100 Stationen Deutschlands der Wärmeinseleffekt etwa 0,1 Grad pro Jahrzehnt über die letzten 120 Jahre beträgt. Jedoch betrug er anfangs weniger, in den letzten 30 Jahren aber das Doppelte. Das bedeutet, dass mindestens 0,6K des in Erfurt beobachteten Temperaturanstiegs seit 1979 auf das Konto der (noch immer andauernden) Urbanisierung (Verstädterung) und auf die Umgestaltung der einstigen freien Fläche gehen. Da Erfurt eine „Boomtown“, mit im Vergleich zu Gesamtdeutschland überdurchschnittlich zunehmender Bebauung ist, muss von einem noch etwas höheren Urbanisierungs- und Flächenhaften Wärmeinseleffekt als den 0,6K Temperaturzunahme ausgegangen werden, wobei der Urbanisierungseffekt dominant ist.

Die linearen, nach dem Jahr 2000 etwas fallenden Trendlinien von Deutschland und Bindersleben verhalten sich ähnlich (Abbildungen 5 und 6). Das Jahr 2000 war jeweils das wärmste Jahr. Der Temperaturrückgang der letzten 11 Jahre war in Bindersleben jedoch nicht so stark wie der Gesamtschnitt der deutschen Messstationen. In den letzten Jahren nähert sich Bindersleben langsam dem Deutschlandschnitt. Allerdings ist der betrachtete Zeitraum von 11 Jahren zu kurz für endgültige Schlussfolgerungen. Allgemein gilt jedoch: Urbanisierungs- und flächenhafte Wärmeinseleffekte wirken einer Abkühlung entgegen. Je mehr eine Station durch diese Effekte beeinflusst wird, desto weniger stark kühlt sie ab.

 

Abbildung 5

Abbildung 6

Weiter ist anzuführen, dass es in der verbleibenden freien Landschaft (beispielsweise durch Trockenlegung = Melioration, geänderte Anbaumethoden und die Umwandlung naturnaher Laubmischwälder in Fichten- oder Kiefernmonokulturen, aber auch durch Straßenneubau und Splittersiedlungen) weitere Erwärmungseffekte gibt, die ebenfalls unter den Begriff „Flächenhafter Wärmeinseleffekt“ fallen. Bei der Station Erfurt dürften allerdings Urbanisierungseffekte dominant sein, da hier vor allem Bebauung und Verkehr zunahmen. Außerdem ist zu beachten, dass die in den Städten erzeugte Wärme natürlich auch in die freie Landschaft „eingetragen“ wird und dort eine (mit wachsendem Abstand zur Stadt kleiner werdende) Erwärmung bewirkt.  

Zweites Ergebnis: Die Urbanisierungs- und Flächenhaften Wärmeinseleffekte bewirkten ebenfalls einen Teil des Temperaturanstiegs, der aber leider aufgrund des Fehlens vergleichbarer Zahlen für Erfurt nur geschätzt werden konnte und seit 1979 mindestens 0,6K, betragen dürfte. Unsere Untersuchungen legen jedoch den Schluss nahe, dass bei der Station Erfurt- Bindersleben die urbanen Erwärmungseffekte überwiegen.

Anmerkungen: Gerade bei der Quantifizierung der „Urbanisierungs- und Flächenhaften Wärmeinseleffekte“ ergibt sich ein weites Feld für die Forschung. Folgende Fragestellungen wären interessant:

  1. Wie stark tragen die verschiedenen Wärmequellen und Erwärmungseffekte im Einzelnen zur Erwärmung bei?
  2. Gibt es- ähnlich, wie bei der Sonnenscheindauer, jahreszeitliche Unterschiede? Zumindest bei den durch Insolation (Einstrahlung) und Verdunstungsminderung verursachten Effekten ist dies zu erwarten. Im Sommer dominieren die indirekten Erwärmungseffekte und im Winter die direkten Wärmequellen. Dadurch sind möglicherweise deren Beträge der Erwärmung im Sommer und Winter annähernd gleich. In Städten etwa vergleichbarer Größe und Struktur wächst außerdem der Erwärmungseffekt mit zunehmender geografischer Breite oder der Höhe über dem Meeresspiegel, weil aus dem Strahlungsgesetz nach PLANCK folgt, dass sich ein kühlerer Körper (damit auch eine kühlere Region) bei derselben Energiezufuhr pro Zeiteinheit stärker erwärmt, als ein wärmerer.
  3. Was passiert in Städten, die in den vergangenen Jahrzehnten eine gravierende Deindustrialisierung und einen massiven Bevölkerungsrückgang zu verzeichnen hatten (Ruhrgebiet, Eisenhüttenstadt, Suhl und andere)? Ist dort die Erwärmung durch den Wärmeinseleffekt geringer ausgefallen, vielleicht sogar ausgeblieben oder gar rückläufig? Dies dürfte auch von der Intensität und Qualität der Rückbaumaßnahmen abhängen (bei Konversion in intensive Grün- oder Wasserflächen ist der Kühleffekt am größten).

 

Abbildung 7 links entstammt einer Untersuchung aus den USA (Utah) und zeigt, wie sich die Erwärmungstrends mehrerer in Städten befindlicher Messstationen pro Jahrzehnt (linke, rotbraune Säule) von solchen in rein landwirtschaftlich genutzten Arealen (mittlere Säule) und von solchen in vom Menschen weitgehend unbeeinflussten („naturnahen) Arealen unterscheiden (rechte Säule).

Die Differenz der Höhen linke minus rechte Säule ist der Urbanisierungseffekt der Städte, hier in Fahrenheit dargestellt (0,4 Fahrenheit entsprechen etwa 0,22°C). Im Vergleich zu vom Menschen weitgehend unbeeinflussten Landschaften verlief die Erwärmung in den Städten also etwa doppelt so schnell (zusätzlich gut 0,1°C pro Jahrzehnt), was mit den erwähnten Wärmeeffekt- Berechnungen für Deutschland gut übereinstimmt. Die rechte Abbildung zeigt den Einfluss der Größe einer Siedlung auf deren bislang erfolgte zusätzliche Erwärmung in Kelvin (1K = 1°C). Allerdings hängt die Erwärmungsrate auch von der Besiedlungsdichte und der Art der Bebauung ab. Je dichter Bebauung und Besiedelung, desto höher ist die Erwärmungsrate. Gute Durchgrünung und Durchlüftungsschneisen mindern die Erwärmung.

3. Wirkten sich auch Änderungen in der Zirkulation aus?

     

Berühmt wurde der sogenannte „Klimasprung“ am Ende der 1980er Jahre, als es deutlich wärmer wurde. Auch in Erfurt ist dieser- wenngleich undeutlich- zu erkennen. Dem, mit Ausnahme der Jahre 1982 und 1983, recht kühlen Zeitraum von 1979 bis 1987 (7 Jahre mit weniger als 8°C Jahresmitteltemperatur), folgte ab 1988 eine regelrechte „Kleine Warmzeit“ mit einem ersten Höhepunkt 1989/90, den absoluten Höhepunkten 1994 und um 2000, danach gab es bei Stagnation weitere Höhepunkte 2007 und 2011, während die Einbrüche (1996, 2010) zwar sehr markant, aber nie von Dauer waren. Nun lohnt es sich, die 5 wärmsten und die 5 kältesten Jahre einmal etwas genauer unter die Lupe zu nehmen.

Die 5 wärmsten Jahre (2000, 1994, 2007, 2011, 1990) zeichneten sich durch eine Häufung kräftiger Westwetterlagen im Januar, Februar und im Dezember aus, während im Sommer ebenfalls wechselhaftes Westwetter überwog (lediglich im heißen Sommer 1994 dominierten Hochdruckwetterlagen). In den kältesten Jahren (1996, 1987, 1985, 1979 und 1980) gab es in den Wintermonaten markante Kälteeinbrüche aus Ost bis Nordost, die zumindest einige Wochen, mitunter gar über Monate (1996) dominierten, während alle Sommer dieser Jahre wechselhaft und mehr oder weniger zu kühl ausfielen. Es fällt auf, dass Jahre mit sehr warmen Sommern (1982, 1983, 1992, 1994, 2003, teilweise auch 1991, 1995, 2006 und 2010) nur einmal unter den „Extremjahren“ vertreten sind, was man so erklären kann, dass ihnen teilweise mäßig- kalte Winter oder Frühjahre vorausgingen, mitunter folgte auch ein zeitiger und kalter Herbst. Insgesamt scheinen sich „sommerwarme“ Jahre durch eine im Jahresmittel leicht geschwächte Westwindzirkulation auszuzeichnen. Nun ergibt sich die Frage, ob sich aus den Monats- und Jahresmittelwerten der standardisierten NAO (Nord- Atlantische Oszillation) eine Beziehung zur Jahresmitteltemperatur und zu den Mitteltemperaturen der Hauptjahreszeiten ableiten lässt? (Anmerkung: Hohe, positive NAO- Indizes drücken eine überdurchschnittlich kräftige westliche Strömung über dem Ostatlantik aus, während diese bei negativen Indizes abgeschwächt ist. Bei stark negativen Werten „tauschen“ Azorenhoch und Islandtief gar ihre Plätze. Die NAO wird maßgeblich durch die solare Aktivität moderiert, wie die folgenden Abbildungen belegen.

 

Abbildung 8 links zeigt den NAO-Winterindex von 1865 – 2000 (Quelle: Deutscher Wetterdienst). Deutlich ist in der Wellenform ein 10-Jahres-Zyklus abgebildet, der zeitlich exakt mit dem Schwabezyklus der Sonne korreliert. Hohe Indexwerte sind mit einer intensiven nordatlantischen Westdrift und damit milderen Temperaturen verbunden. Rechts ist der NAO-Winterindex von 1982 – 1998 abgebildet (ergänzt nach Quelle: American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000).

Die kleine Abbildung ist hineinkopiert und zeigt den Schwabezyklus der Sonne im selben Zeitraum. Er stimmt exakt mit dem NAO-Winterindex überein. Dass die Sonne maßgeblich die NAO bestimmt, zeigt bereits die Arbeit ”Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003, European Geophysical Society.

Der NAO- Index wird täglich mit Hilfe der 00- UTC- 500- Hektopascal- Anomalien über der Nordhemisphäre berechnet). Der Zusammenhang zwischen den NAO- Indizes (Jahresmittelwerte) und den Jahresmitteltemperaturen ist aber allenfalls mäßig (Abbildung 9):

 

Abbildung 9

Ein Jahreszeitenvergleich zeigt, dass die NAO- Indizes im Winter einen deutlichen, im Sommer aber praktisch keinen Einfluss auf die Temperaturen haben (Abbildungen 10):

 

Abbildung 10

Man könnte nun den voreiligen Schluss ziehen, dass vielleicht zunehmende NAO- Werte für einen Teil des Temperaturanstiegs seit 1979 verantwortlich sind, denn auch zurzeit des „Klimasprungs“ um 1990 herrschten positive NAO- Werte vor. Dem ist aber nicht so, denn die NAO- Indizes zeigen (wie dargelegt, von der Sonnenaktivität moderiert), eine leicht fallende Tendenz:

 

Abbildung 11

Allerdings war der Rückgang im Winter weniger deutlich als im Sommer:

  

Abbildung 12

Auswertungen lassen den Schluss zu, dass die Häufung trocken- warmer Hochdruckwetterlagen zwischen Anfang April und Ende Mai, welche sich jedoch in den NAO- Werten kaum ausdrückt, ganz wesentlich zum Temperaturanstieg beigetragen haben. Weil der April den stärksten Temperaturanstieg aller Monate in Erfurt aufwies, wurde für ihn die Anzahl der Tage mit Hochdruckwetterlagen (alle vom Deutschen Wetterdienst als „antizyklonal“ eingestuften Großwetterlagentage plus die Tage mit den Großwetterlagen „Hochdruckgebiet über Mitteleuropa“ und „Hochdruckbrücke über Mitteleuropa“) ermittelt. Es ergibt sich eine deutliche Zunahme der Tage mit Hochdruckwetter seit 1979:

 

Abbildung 13

Es gibt momentan etwa 7 Tage mehr Hochdruckwetterlagen im April, als Ende der 1970er Jahre. Die Monatsmitteltemperaturen stiegen im April in Erfurt ebenfalls deutlich an:

 

Abbildung 14

Obwohl beide Trendlinien ähnlich verlaufen, ist der berechnete Zusammenhang mit r = 0,32 und dem daraus resultierenden Bestimmtheitsmaß von 10% alles andere als gut. Man muss allerdings bedenken, dass nicht alle Hochdruckwetterlagen im April „erwärmend“ wirken, denn bei nördlicher bis nordöstlicher Luftströmung kann selbst anhaltender Sonnenschein die heranwehende Kaltluft nicht immer ausreichend aufheizen. Möglicherweise nahmen aber auch andere, „erwärmend“ wirkende Wetterlagen zu, was noch einer genaueren Untersuchung bedarf. So erhöhte sich seit den 1960er Jahren die Häufigkeit der Westwetterlagen im Winterhalbjahr deutlich, dafür treten diese im Sommerhalbjahr seltener auf, was insgesamt ebenfalls erwärmend wirkt („Westwetter“ geht im Winter mit deutlich positiven, im Sommer mit leicht negativen Temperaturanomalien in Mitteleuropa einher).

Die genaue Quantifizierung dieser Erwärmungseffekte durch die Veränderung der Häufigkeiten der Großwetterlagen ist jedoch schwierig. Wie noch gezeigt wird, werden diese Zirkulationsänderungen von der Sonnenaktivität wesentlich beeinflusst und über die Schwankungen der NAO (Nordatlantische Oszillation der Luftdruckverteilung) und der AMO (Atlantische Multidekaden- Oszillation der Wassertemperaturen) direkt gesteuert. Damit wird klar, dass auch hier eine „Trendumkehr“ möglich ist. In den Wintern 2008/09 bis 2011/12 kam es- zumindest monatsweise- schon zu einer deutlichen Abschwächung der Westwetterlagen, was auf eine beginnende Trendumkehr hindeuten könnte. 

Drittes Ergebnis: Aus Zirkulationsänderungen lässt sich der Temperaturanstieg zumindest für Erfurt nicht zweifelsfrei erklären. Die Westwind- Zirkulation, deren Maß der NAO- Index ist, beschleunigte sich bis in die 1990er Jahre hinein, was den „Klimasprung“ um 1990 mit erklären kann. Danach ging sie besonders nach Beginn der 2000er Jahre zurück, so dass im Gesamtzeitraum ein negativer Trend überwiegt, der im Gegensatz zum positiven Temperaturtrend steht. Im Winter beeinflussen steigende NAO- Werte die Lufttemperaturen relativ deutlich positiv (von Westlagen dominierte Winter sind tendenziell milder), während im Sommer fast kein Zusammenhang zur NAO erkennbar ist.

Der Rückgang der NAO- Indizes ging hauptsächlich auf Kosten der Sommermonate. Eine gewisse, nicht in allen Jahreszeiten vorhandene Erwärmung durch häufiger auftretende Hochdruckwetterlagen, besonders im Frühling und mehr Westwetterlagen im Winter, dafür weniger Westwetterlagen im Sommer, deutet sich jedoch an. Insgesamt kann der Betrag des Erwärmungseffekts durch Zirkulationsänderungen nur grob geschätzt und in der Größenordnung von 0,1 bis höchstens 0,3K seit 1979 für Erfurt angesetzt werden.

Verfasst und zusammengestellt (2012) von

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider, EIKE




Prognosen des Meeresspiegelanstiegs und was sie wert sind

 

Abbildung 1: BILD benutzte die Veröffentlichungen zum prognostizierten Meeresspiegelanstieg um 3 m und mehr, für einen wohl scherzhaften Aufmacher. Holland geht also wieder einmal unter, wie im bereits wiederlegten IPCC-Bericht, dass die Niederlande unter Wasser lägen.

Da Klimacomputerspiele in der Öffentlichkeit offensichtlich an Glanz verloren haben, ist das PIK dazu übergegangen, seiner Studie einen vermeintlichen Wahrheitscharakter dadurch mitzugeben, dass sich ihre Studie auf tatsächliche Beobachtungen der letzten tausend Jahre stützt: “Erstmals bietet diese Studie damit eine umfassende Projektion für einen derart langen Zeitraum. Sie stützt sich dabei auf den tatsächlich beobachteten Meeresspiegelanstieg im vergangenen Jahrtausend sowie auf Szenarien für künftige Treibhausgasemissionen“ und weiter “Die neue Studie verwendet einen so genannten semi-empirischen Ansatz, der auf dem Zusammenhang zwischen beobachteter Temperatur und Meeresspiegel während der vergangenen Jahrhunderte basiert, um daraus Schätzungen für einen Meeresspiegelanstieg in Szenarien künftiger globaler Erwärmung abzuleiten und zu berechnen.“

Donnerwetter! Wenn das nichts ist, tausend Jahre tatsächlicher Meeresspiegelanstieg als Datenbasis und „semi-empirischer Ansatz“. Klingt wirklich gut! Man beachte tausend Jahre und “tatsächlich“. Wie der Meeresspiegelanstieg seiner Meinung nach in den letzten tausend Jahren aussieht, hat das PIK bereits am 20.06.2011 veröffentlicht (Abbildung 2).

 

Abbildung 2 zeigt den Meeresspiegelanstieg nach PIK, Quelle: PIK, Sea levels rising at fastest rate in 2000 years“ vom 20.06.2011.

Man beachte in Abbildung 2:

·         von 1000 – 1380 = +0,6 mm/a

·         von 1380 – 1900 = -0,1 mm/a

·         von 1900 – 2010 = +2,1 mm/a

In Summe ergibt die PIK`sche Datenbasis einen mittleren Meeresspiegelanstieg von weniger als 0,4 mm/a über die letzten 1000 Jahre, die Rahmstorf und Co angeblich für ihre Prognose von 3 m Meeresspiegel bis zum Jahr 2300 als Basis herangezogen haben. Wird der prognostizierte Anstieg von 3 m, der nach Aussage von Rahmstorf auf tausend Jahre und “tatsächlich“ beruht, aufs Jahr umgerechnet, so ergibt sich ein Meeresspiegelanstieg von mehr als 10 mm/a und zwar ab sofort ! Ein wahrlich abenteuerlicher Prognosewert, anhand der gezeigten PIK´schen Datenbasis für die letzten 1000 Jahre.

Abbildung 3 zeigt den sich tatsächlich entwickelten Meeresspiegelanstieg über die letzten Jahre.

  

Abbildung 3: Entwicklung des Meeresspiegels über die letzten Jahre. Deutlich ist zu sehen, dass dieser nicht zusehends steigt, sondern, zusehends fällt, Quelle

Das gleiche Bild zeigt Abbildung 4

 

Abbildung 4 zeigt die Anstiegsraten pro Jahr über die letzten 20 Jahre. Der Anstieg des Meeresspiegels hat sich deutlich verlangsamt. Von einem beschleunigten Anstieg kann demnach keine Rede sein, Quelle: WUWT, “Sea Level Rise and Solar Activity“.

Wie auf einer Datenbasis von weniger als 0,4 mm/a für die letzten 1000 Jahre oder der gegenwärtigen Anstiegsrate von 1,5 mm/a ein Meeresspiegelanstieg von 3 m (10 mm/a ab sofort) erreicht werden soll, wissen wohl nur die Seher vom PIK. Obwohl, tausend Jahre, da war doch mal was. Haben die „Forscher“ etwa diese Datenbasis für ihre Studie genommen? Müsste man beim PIK einmal nachfragen.

Was bei der Verwendung von Modelrechnungen im Vergleich zur Realität herauskommt, kann z.B. in den ACIA-Berichten bestaunt werden, woraus die folgenden Abbildungen entnommen sind. Exemplarisch die Prognosemodelle zum Wolkenbedeckungsgrad, der essenziell für die Klimabewertung ist, der solaren Einstrahlung, die z.B. für die Kenntnisse der Energieflüsse (Trenberth) Voraussetzung ist und der Niederschlagsentwicklung.

 

Abbildung 5 zeigt nach diversen Modellberechnungen (alle mit Hochleistungsrechnern, sog. Supercomputern durchgeführt) der Wolkenbedeckung (links) und der solaren Einstrahlung (rechts) im Zeitraum von 1981 – 2000 von 70° – 90° nördlicher Breite. “TOVS“ zeigt die mittels Satellit aufgenommenen Vergleichsdaten beim Bedeckungsgrad und “Langley“ die Beobachtungsdaten der solaren Einstrahlung. „Bemerkenswert“ ist die Übereinstimmung der solaren Einstrahlung für die Monate November bis Februar. Diese kommt indes einzig dadurch zustande, dass die solare Einstrahlung im Winter in den Polargebieten bekanntermaßen gleich Null ist.

Gleiches Durcheinander der Modellbetrachtungen und Ergebnisse beim Niederschlag.

 

Abbildung 6 zeigt den gemessenen Niederschlag (Observed), zu dem berechneten nach Klimamodellen für die Kontrollperiode von 1921 – 1950 nach Hellström et al., 2001. Wie deutlicher nicht zu sehen, besteht zwischen Realität und Berechnung keine Übereinstimmung. Die Unterschiede sind erheblich. Die Differenz zur Realität beträgt teilweise über 100%.

Das Tohuwabohu der Ergebnisse, die unterschiedlicher nicht sein können, braucht daher nicht weiter betont zu werden. Erstaunliche Übereinkunft in den verschiedenen und übrigens anerkannten Klimacomputermodellen zueinander und zur Realität zeigt sich einzig in der solaren Einstrahlung im Zeitraum von Oktober – Februar (Abbildung 5 rechts). Die Polarnacht können die Klimamodelle und die Supercomputer demnach exakt vorher bestimmen. Ob hierzu allerdings Supercomputer und aufwendige Klimamodelle diverser Institute notwendig sind, wagt der Autor zu bezweifeln.

Prof. Marotzke, Direktor des Max Planck Instituts für Meteorologie sagte auf dem 4. ExtremWetterKonkress in Bremerhaven “Wenn die Erde zum Eisball wird“ zu den Klimamodellen:

“Unsere Arbeiten zeigen zum ersten Mal mit einem umfassenden gekoppelten Klimamodell, dass die Erde bei heutiger Sonneneinstrahlung und heutiger Konzentration von Kohlendioxid in der Atmosphäre sowohl den heutigen Klimazustand als auch den Eisballzustand annehmen kann.“ Der Volksmund kennt hierzu eine treffende Aussage: “Außer Spesen, nichts gewesen.“

Bereits in seinem letzten EIKE-Beitrag „Climate change is pseudoscience“ fügte der Autor an (da dies so wichtig ist, soll es an dieser Stelle wiederholt und ergänzt werden):

Die angesprochene Pseudowissenschaft mittels Klimamodellen wäre nicht so tragisch, würden durch die Spielzeuge (z.B. Computerspiele, dort Klimamodelle genannt) und Spielplätze (hier der Meeresspiegelanstieg) nicht Unsummen von Geldern, unsere Steuergelder verschleudert. Von den hunderten von Milliarden, die durch daran ansetzende Maßnahmen, Abgaben und falscher Wegrichtungen, buchstäblich in den Wind geschrieben, bzw. Solargöttern geopfert werden, ganz zu schweigen.

Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur und die diversen Klimaprognosen auf derselben Ebene wie die Vorhersagen der keltisch/germanischen Druiden oder der antiken Orakel. Unsere Vorfahren benutzten die Innereien von Tieren, um die Zukunft zu ergründen. Gänseleber und Krötenblasen waren sehr beliebt. Heute werden wieder Innereien benutzt, um in die Zukunft zu blicken. Es sind die BYTES und FLOPS der Supercomputer – mit demselben Ergebnis.

 

Raimund Leistenschneider – EIKE




Climate change is pseudoscience

 

Abbildung 1, Pseudowissenschaft im 19. Jahrhundert.

Wer kennt sie nicht, die Schreckens- und Horrorszenarien, die Medien, aber auch (vermeintlich) wissenschaftliche Institutionen nutzen, um sich am Klimarummel gütlich zu halten.

….

Abbildung 2 links zeigt einen Aufmacher von BILD, welche z.B. 2007 ihre Leser schockierte: “Felder, die aussehen wie Mondlandschaften. Flüsse, die sich in ihrem Bett zusammenkauern. Wälder, die verdursten … Wird es ZU WARM? Leben wir bald in Sahara-Deutschland?“ Na, immerhin haben die verantwortlichen Redakteure nicht vergessen, das Fragezeichen zu setzen. Auch der Wetterdienst (wir kennen alle den DWD und seine Aussagen, EIKE berichtete ausführlich darüber🙂 wurde nicht vergessen, als „Division“ aufzustellen. Dieser warnt schon mal vor einem Hitzetod. Fragt sich nur, was beim Wetterdienst zu Grabe getragen wurde.

Jedoch nicht nur Massenmedien, deren wissenschaftliche Tiefe oft genug an der Oberfläche endet, bedienen sich Wüstenszenarien, um darzulegen, was den Erdenbürgern bevorsteht, wenn sie vom rechten CO2-Glauben abfallen, sogar solch ehrwürdige Institutionen, wie National Geographic bedienen sich plakativer Darstellungsformen (Abbildung 2, rechts). Wie die Realität aussieht, zeigt sich, wenn sich der Betrachter auf den Sahara-Kontinent, also Afrika, begibt.

Im letzten IPCC-Bericht AR4 (2007) der medienwirksam verbreitet wurde, ist die folgende Abbildung zu sehen:

Abbildung 3 zeigt die weltweiten Auswirkungen des Klimawandels nach Ansicht des IPCC, wie sie im AR 4, April 2007, für politische Entscheidungsträger dargestellt sind. Für Afrika wird bis 2020 ein 50%-iger Rückgang der Agrarproduktion wegen des Klimawandels, der zur Austrocknung und damit Erntereduzierungen führen soll, angegeben. Afrika trocknet demnach aus und versteppt/verwüstet. Man beachte: Wegen Austrocknung.

Wie sieht nun die Realität aus, da EIKE-Leser wissen, dass bei Teilen des IPCC zuweilen Realitätsverlust vorliegt (siehe ClimateGate, HimalayaGate, AmazonGate, ArtensterbenGate,…).

Am 28. Juni 2012 erschien die folgende Veröffentlichung der LOEWE Biodiversität und Klima Forschungszentrum, Frankfurt (Goethe Universität), die auch in Nature veröffentlicht wurde:

“Machtwechsel in der Savanne – Bäume gewinnen die Oberhand über Gräser“

Dort ist zu entnehmen:

“Weite Teile der afrikanischen Savanne könnten bis 2100 zu Wäldern werden. Dies geht aus einer Studie des Biodiversität und Klima Forschungszentrums und der Goethe Universität Frankfurt hervor, die heute in “Nature” veröffentlicht wurde. Die Ergebnisse deuten darauf hin, dass die Düngung durch den steigenden Kohlendioxid‐ Gehalt in der Atmosphäre in ganz Afrika zu einer dichteren Bewaldung führt, wenn ein bestimmter CO2‐Wert überschritten wird. Da sich diese Schwelle jedoch von Gegend zu Gegend unterscheidet, verläuft der Wandel auf regionaler Ebene nicht synchron. Hierdurch sinkt das Risiko einer Erschütterung des Erdsystems durch einen abrupten Vegetationswandel.“

Donnerwetter, Afrika wird grüner! Mehr Wälder bedeuten auch mehr Wasserspeicher. Afrika wird fruchtbarer. Welch krasser Gegensatz zu den Horrorszenarien des IPCC. Dabei sagen die Frankfurter Forscher nichts anderes, als dass, was die NASA und die Naturforscher unter den Klimaforschern (einige sagen auch Klimarealisten) schon lange wissen, wie die folgenden Abbildungen belegen.

Abbildung 4: Der positive Einfluss der CO2-Erhöhung wird durch die Satellitenauswertung ersichtlich. Sie zeigt die Vegetationsveränderung über die letzten 20 Jahre vor 2003. Grüne Stellen zeigen Vegetationszuwachs, rote dagegen einen Rückgang. Quelle: NASA, erschienen in Science, 06. Juni 2003.

Dass CO2 Dünger für die Vegetation ist, wissen Gärtner ebenfalls schon lange. Nicht umsonst besteht Dünger zu großen Teilen aus gebundenem CO2. So ist es denn nicht verwunderlich, dass in den letzten 20 Jahren weltweit die Wüsten auf dem Rückzug sind und nicht, wie in diversen Schreckensszenarien bewusst falsch angegeben, auf dem Vormarsch. Die Wüste Sahara schrumpfte im Zeitraum der letzten 20 Jahre um 300.000 km2, ein Gebiet, fast so groß wie Deutschland (357.000 km2).

Abbildung 5 zeigt die Zunahme der Vegetation in der Sahelzone im Zeitraum von 1982 – 1999. Dem Zeitraum, in dem auf der Erde die Mitteltemperaturen leicht angestiegen sind, Quelle: Der Spiegel, 17/2009, S. 137. Die Gleichmäßigkeit der Vegetationsausbreitung lässt nur den Schluss zu, dass es sich um einen positiven Klimatrend handelt, so der schwedische Geograph von der Lundt-Universität, Lennart Olsson.

So zeigen seit langem Studien, den positiven Einfluss von CO2 auf die Nahrungsmittelproduktion (Abbildung 6).

Abbildung 6 (Quelle: http://www.oism.org/pproject/s33p36.htm) zeigt eindrucksvoll, dass sowohl eine Erhöhung von 295 ppm auf derzeit 383 ppm, sowie eine weitere Erhöhung des atmosphärischen CO2-Gehalts auf z.B. 600 ppm, für die Pflanzen- und somit für die Tierwelt nicht katastrophal, sondern segensreich ist! Dies bestätigt eine Studie von Prof. Hans-Joachim Weigel (Bundesforschungsinstitut für ländliche Räume).

Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen dargestellt. Quelle: http://www.nhteapartycoalition.org/pdf/LeonAshby.pdf

In der Abbildung 7 links wuchs der Baum in einem abgeschlossenen Gewächshaus bei einem CO2-Pegel von 385 ppm, wie er heute auf dem Mauna Loa gemessen wird. Bereits bei einer Zunahme um 150 ppm auf 535 ppm ist ein deutlicher Zuwachs im Wachstum zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem heutigen Wert, was dem Verbrennen sämtlicher, heute bekannter fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm. Eindrucksvoller kann nicht unter Beweis gestellt werden, dass CO2 Pflanzen und damit Mensch und Tier nicht schädigt, sondern, in den gezeigten Bandbreiten, nützlich ist. Demnach ist festzustellen, dass die derzeitige CO2-Konzentration für Pflanzen nicht optimal ist.

Die Bilderserie belegt eindrucksvoll, dass zum einen CO2 kein Schadstoff ist und zusätzliches CO2 in der Atmosphäre für Pflanzen und damit natürlich auch für Menschen von großem Nutzen ist.

Zu der Bilderserie oben aus derselben Quelle, die Darstellung, wie sich prozentual das Wachstum der Pflanzen steigern lässt, wenn sich die CO2-Konzentration der Atmosphäre ändert (Abbildung 8). Deutlich ist zu erkennen, dass die gegenwärtige CO2-Konzentartion in der Atmosphäre für Pflanzen alles andere als optimal ist. Es ist demnach weit gefehlt, in Panik zu verfallen, sowie Schreckensszenarien zu entwerfen, wenn der CO2-Pegel weiter ansteigt. Genau das Gegenteil ist für die Biosphäre zutreffend.

Untersuchungen, die zeigen, dass Afrika grüner und damit fruchtbarer wird, passen jedoch so gar nicht in die Schreckensszenarien des IPCC und dessen Anhänger und Nature ist nun nicht dafür bekannt, dem IPCC kritisch gegenüber zu stehen und so ist es den Autoren um Nature gelungen, die positive Nachricht (Afrika wird grüner) in eine negative zu wandeln. Am Schluss steht denn folgendes:

“Sollten Graslandschaften und offene Savannen durch Baumsavannen oder Wälder ersetzt werden, geht zudem eine einzigartige Flora und Fauna verloren, die in diesem Lebensraum heimisch ist. Der Anstieg des Kohlendioxidgehalts in der Atmosphäre ist daher ein weiterer Stressfaktor…“

Aha, die Artenvielfalt (“einzigartige Flora und Fauna“) geht dann also verloren. Nun, aus unseren Breiten wissen wir, dass offene, unbewirtschaftete Flächen eine hohe Artenvielfalt an Gräsern, Kräutern und damit an Insekten, Vögeln und Kleintieren hervorbringen, als dies gegenüber unseren Waldgebieten der Fall ist. Allerdings bestehen unsere Waldgebiete vorzugsweise aus Nutz- und damit Monokulturwäldern. Urwälder gibt es in Europa kaum noch. In der Studie befinden wir uns aber in Afrika. Sind dort nicht die tropischen Regenwälder, von denen wir wissen, dass sie die höchste Artenvielfalt überhaupt beherbergen?

Abbildung 9 (Quelle: Wikimedia Commons) zeigt die Savannengebiete (braun) der Erde (Wüstengebiete: gelb). In Afrika liegen diese demnach angrenzend zum tropischen Regenwald. Der Wald und damit auch der tropische Regenwald breiten sich also aus und dies soll die Artenvielfalt beeinträchtigen?

Es ist doch immer wieder erstaunlich, wie sich die Klimaforscher um das IPCC ihre Welt immer wieder aufs Neue basteln, so, wie sie ihnen gerade gefällt. Aber wie lässt bekanntlich Astrid Lindgren ihre Heldin ausrufen: “Ich mach mir die Welt, widewidewie sie mir gefällt.” Ganz offensichtlich haben die „Helden“ in der IPCC-nahen Klimaforschung, sich diese Parole allzu sehr zu Herzen genommen – völlig losgelöst von der Erde, wie in einem Schlager der 1980-Jahre zu vernehmen.

Nachfolgend sind einige dieser Kommandanten, die nach den Aussagen des Physik-Nobelpreisträger Ivar Giaever als Pseudowissenschaftler bezeichnet werden dürfen, aufgeführt. Die folgende Reihe hat weder den Anspruch auf Vollständigkeit, noch ist sie mit einer Klimaahnenreihe zu verwechseln.

 

BILD vom 05.11.2011 “Klimaforscher warnt vor Sahara-Sommern“ (Anmerkung des Autors: Wir erleben gerade einen. Der Autor wusste bis jetzt allerdings nicht, dass es in der Sahara so viel regnet.) Auch beachte man die Handbewegung und vergleiche sie mit Abbildung 1 (der dortigen rechten Hand), was natürlich rein zufällig ist.

 

Klimaforscher Hansen, diesmal nicht bei einer seiner Sightseeing-Touren in die Arktis/Antarktis.

http://wattsupwiththat.files.wordpress.com/2011/12/james-hansen-arrested.jpg

http://wonkroom.thinkprogress.org/wp-content/uploads/2010/09/hansen_arrest.png

 

Quelle: (http://de.academic.ru/dic.nsf/dewiki/577954)

Das letzte Bild in der Reihe zeigt einen weiteren, solchen Klima(folge)forscher, dem ganz offensichtlich die Arbeit über den Kopf gewachsen ist, zumindest lässt das Bild diesen Schluss zu. Daher kann es nicht weiter verwundern, wenn von dort solche Statements kommen: „„..dann würde die Erde explodieren“ (http://de.youtube.com/watch?v=kqGVNqiwu7w).  Hier wird Wissenschaft mit Science Fiction verwechselt und Pseudowissenschaft mit Damaturgie unterlegt, die einem Edgar Wallace (Die Bande des Schreckensoder „Neues vom Hexer“) gerecht werden kann.

Damit die vor genannten Forscher wieder den notwendigen Überblick und Bodenhaftung gewinnen, empfiehlt der Autor ihnen einen Besuch auf der EIKE-Webseite, dort können die Klimaforscher nachschauen, wie es in der Welt da draußen wirklich aussieht. Gerne nehmen wir uns bei EIKE auch die Zeit, in einem Seminar, die Herren mit den Abläufen in der Klimathematik vertraut zu machen.

Die angesprochene Pseudowissenschaft wäre nicht so tragisch, würden durch die Spielzeuge (z.B. Computerspiele, dort Computermodelle genannt) und Spielplätze nicht Unsummen von Geldern, unsere Steuergelder verschleudert. Von den hunderten von Milliarden, die durch daran ansetzende Maßnahmen, Abgaben und falscher Wegrichtungen, buchstäblich in den Wind geschrieben, bzw. Solargöttern geopfert werden, ganz zu schweigen. Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur, wie sie sich im rituellen Tzolkin-Kalender widerspiegelt.

Raimund Leistenschneider – EIKE