1

Teil 3: Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen

 

Teil 3 – Sonnenflecken und ihre Ursachen

 

Der magnetische Zyklus wird Hale-Zyklus (der Astronom George Hale maß Anfang des 20. Jahrhunderts erstmals Magnetfelder in den Sonnenflecken) genannt und beträgt 22,1 Jahre. Dies ist der eigentliche Zyklus der Sonnenfleckenaktivität. Fleckengruppen setzen sich aus nordmagnetischen und südmagnetischen Flecken zusammen, die bipolar angeordnet sind (Abbildung 27). 

 

Abbildung 27 zeigt, die bipolare Anordnung der Sonnenflecken.

Während eines 11-jährigen Zyklus (Schwabe-Zyklus: 8 – 15 Jahre) laufen bei der Rotation der Sonne entweder die Nordpole oder die Südpole ständig voraus. Das Hale Polaritätsgesetz besagt, dass Sonnenflecken in bipolaren Gruppen auftreten, in denen der führende Fleck die gleiche Polarität hat wie die Hemisphäre, in der er auf tritt. Nach 11 Jahren kehrt sich diese Polarität um. Es vergehen also zwei 11-jährige Zyklen, bis die gleiche Anordnung wieder erscheint. Wie aus Untersuchungen bekannt, zeichnet sich der Hale-Zyklus auf der Erde z.B. deutlich ab in der Lufttemperatur Mittelenglands und im Dürre-Index der U.S.A. ab (http://www.ldeo.columbia.edu/edu/dees/V1003/lectures/culture_climate/).

Der renommierte Astrophysiker H.W. Babcock (Gold Medal of the Royal Astronomical Society) hat 1961 die Dynamotheorie, zum Verständnis der Sonnenflecken und Magnetfelder erstellt.

 

Abbildung 28: Zu Beginn des Zyklus (Sonnenminimum) bipolares Magnetfeld und vertikale Feldlinien in großer Tiefe. Die differentielle Rotation (Äquator: 25 Tage, Pol: 36 Tage, Konvektionszone: 27 Tage) „wickelt“ die Feldlinien um die Sonne. Die Feldstärke wird dadurch verstärkt. Starke Flussröhren steigen auf und bilden dadurch die Sonnenflecken. Dass zu Beginn globale poloidale Feld wird toroidal. Am Ende des Zyklus neutralisieren sich die am Äquator entgegen gesetzten Felder.

Wie beim Magnetfeld der Erde, muss neben der Eigenrotation eine elektrisch leitende Schicht vorhanden sein. Diese ist das Sonnenplasma, welches eine hohe Leitfähigkeit aufweist. Die Magnetfelder entstehen in der Konvektionszone, in der die Energie nicht durch Strahlung, sondern durch Konvektion (daher der Name) transportiert wird. Diese Materieströmungen wirken wie ein natürlicher Dynamo, in dem ein Teil der Strahlung in magnetische Energie gewandelt wird.

 

Abbildung 29: Das Magnetfeld wird vom Sonnen-Dynamo durch einen kreisförmigen elektrischen Fluss, tief im Innern der Sonne angetrieben. Das Innere der Sonne, welches nicht direkt beobachtbar ist, lässt sich durch die ständigen Sonnenbeben ermitteln. Dabei zeigte sich, dass deren Inneres, also die Strahlungszone (15,6 Mio.°C) fast wie ein starrer Körper rotiert. Sie deckt ca. 70% des Sonnendurchmessers ab und rotiert mit einer Umlaufzeit von knapp 27 Tagen. Die äußere, sog. Konvektionszone (2 Mio.°C) ist viel turbulenter und rotiert nicht nur unterschiedlich zur inneren Zone, sondern auch über die Breitengrade. Am Äquator beträgt die Umlaufzeit 25,4 Tage, während sie an den Polen mit 36 Tagen deutlich länger ist. Hierdurch kommt es zu komplexen magnetischen Wechselbeziehungen, wobei die Grenzschicht für die Magnetfelder der Sonne, eine entscheidende Rolle spielt.

Die Grenzschicht der starren Rotation (Kern) zur dynamischen Rotation (Konvektionszone) wird Tachocline genannt. Sie liegt ca. 200.000 km unter der Sonnenoberfläche, hat eine Dicke von ca. 30.000 km (Abbildung 30) und gilt als Ursprung des variablen Sonnendynamos. In ihr werden durch die Anwesenheit des inneren Magnetfeldes Ströme in den tieferen Schichten der Konvektionszone erzeugt, deren Schichten mit unterschiedlichen Geschwindigkeiten rotieren. Durch diese Interaktion kommt es nach den Gesetzen der Magnetohydrodynamik (beschreibt das Verhalten von elektrisch leitenden Fluiden, die von magnetischen und elektrischen Feldern durchdrungen werden) teils zu Abschwächungen des resultierenden Magnetfeldes und teils zu deutlichen Verstärkungen. Es entsteht dabei ein komplexes Muster von auf und abwärtsgerichteten Feldern, wobei die abwärtsgerichteten Felder durch das starke innere Feld geblockt werden.

 

Abbildung 30: Die starre Strahlungszone der Sonne erzeugt bei Rotation im Plasma ein stabiles, gleichförmiges Magnetfeld (rote Linien), welches sich einzig durch die Variationen in der Eigenrotation (betragen bis zu 5%) ändert. Darüber befindet sich die Tachocline (grün, überhöht dargestellt). An dieser Grenzschicht werden aus dem Plasma wieder vollständige Atome mit Kern und Elektronen. Sie zeigt eine deutliche Scherrotation. Die Magnetfelder werden hier, je nach Fließgeschwindigkeit und Stoffzusammensetzung unterschiedlich abgelenkt, wobei die abwärts gerichteten Felder durch das starke innere Magnetfeld geblockt und umgelenkt werden. Die aufwärtsgerichteten Felder gelangen in die turbulente Konvektionszone, erlangen dort Abschwächung oder Verstärkung (je nach Höhe und Richtung des Stromflusses) und gelangen zur Sonnenoberfläche. Die kleine Abbildung zeigt toroidales und poloidales Feld. Die rechte Abbildung zeigt die Lage der Tachocline und die unterschiedlichen Fließgeschwindigkeiten in der Konvektionszone vom Äquator bis zum Pol.

Abbildung 31: Durch die vorherig gezeigten differentiellen Fließrichtungen bilden sich die beiden Hauptkomponenten des Sonnenmagnetfeldes, die sog. toroidalen (in Richtung des Torus, das durch die differentielle Rotation entsteht) und die poloidalen (in Richtung zum Pol, der sog. “Alpha-Effekt“) Magnetfeldkomponenten. Beide bestimmen die solare Variabilität. Letzterer entsteht aus Turbolenzen im toroidalen Magnetfeld. Links ist schematisch ein Torus gezeigt, mit einer toroidalen Komponete „t“ und einer poloidalen Komponente „P“.

Abbildung 32a: Fließgeschwindigkeiten der Sonne. Deutlich ist beim Vergleich der Abbildungen (zu unterschiedlichen Zeiten ermittelt) zu erkennen, dass sowohl in der Sonne, als auch auf der Sonnenoberfläche, die Fließgeschwindigkeiten ständig variieren, was zu unterschiedlichen Magnetfeldern führt. In der Abbildung sind langsam fließende Regionen blau und schnell fließende rot dargestellt, wogegen auf der Sonnenoberfläche rot für langsamere und grün für schnellere Regionen verwendet wurde. Quelle: (http://soi.stanford.edu/results/2001_MDI_sr_review/).

Die beschriebenen magnetischen Prozesse entstehen letztlich aus der Wechselwirkung des Magnetfeldes mit der Plasmaströmung in der Konvektionszone, wobei die Scherströmung in der Tachocline und unteren Kovektionszone eine wichtige Rolle spielt. Magnetfeldlinien werden durch die Scherströmung aufgewickelt und das Magnetfeld verstärkt. Der erhöhte magnetische Druck verringert den Gasdruck und die Dichte in der magnetischen Schicht. Aufgrund des Auftriebs steigt magnetischer Fluss in Form von Magnetfeldschläuchen durch die Konvektionszone nach oben. Bricht ein solcher Schlauch durch die Sonnenoberfläche, bilden die Durchstoßpunkte bipolare Magnetfeldkonzentrationen, die sich als Sonnenflecken zeigen. Konvektion, differenzielle Rotation und unterschiedliche Fließgeschwindigkeiten erzeugen dabei ein komplexes Fließmuster, sowohl in Rotations-, als auch in Nord-Süd-Richtung. Die letzteren Bewegungen gelten als Ursache für die 11-jährige Polaritätsumkehr im Schwabe-Zyklus.

Abbildung 32b: Wie in der Erde, erzeugt die gemeinsame Wirkung von Konvektion und differentieller Rotation komplexe Magnetfelder im Innern, die die Sonnenoberfläche an unterschiedlichen Stellen gebündelt durchdringen, wobei die Sonnenflecken entstehen. Der Sonnendynamo bildet dabei zwei Fleckenbänder mit unterschiedlicher magn. Polarität, gleichermaßen auf der Nord- und Südhalbkugel, parallel zum Äquator aus (oben links). Mit geeigneten Strömungsmodellen kann der Transport dieser Magnetfeldgürtel (Convoyer-Belt) erklärt und somit das Modell überprüft werden (unten links). Quelle: Astrophysikalisches Institut Potsdam

Der Astrophysiker Dr. Theodor Landscheidt (Schroeter Institute for Research in Cycles of Solar Activity Nova Scotia, Kanada) hat diese Theorie weiter entwickelt. Die Basistheorie geht davon aus, dass die Dynamik des magnetischen Sonnenfleckenzyklus von der Rotation der Sonne angetrieben wird. Dabei wird der Eigendrehimpuls berücksichtigt, der an die Rotation der Sonne um ihre Achse anknüpft. Ein weiterer Drehimpuls ist der Bahndrehimpuls, der mit der sehr unregelmäßigen Bahnbewegung der Sonne um das Massenzentrum des Planetensystems zusammen hängt.

Wäre z.B. Jupiter der einzige Planet im Sonnensystem, so befände sich der Massenschwerpunkt ständig außerhalb des Sonnenkörpers, und zwar durchschnittlich 46.000 km oberhalb der Sonnenoberfläche. Aber auch der Beitrag, den Saturn, Uranus und Neptun zur Lage des Massenzentrums relativ zum Sonnenzentrum leisten, ist ganz beträchtlich. Dabei wirkt sich merklich aus, ob die Planeten im sonnennächsten oder sonnenfernsten Punkt stehen. Je weiter der Planet dabei von der Sonne entfernt ist, desto stärker zieht er den Massenschwerpunkt zu sich heran.

Abbildung 33 zeigt, wie der Masseschwerpunkt des Sonnensystems im Lauf der Jahre wandert. Dies wird durch die räumliche Verteilung der Massen der Riesenplaneten Jupiter, Saturn, Uranus und Neptun gesteuert. Die kleinen Kreise zeigen den Masseschwerpunkt. Zu sehen sind die relativen ekliptikalen Positionen von Massenzentrum und Sonnenzentrum für die Jahre 1945 – 1995 in heliozentrischer Sicht. Die gelbe Scheibe stellt die Sonne dar. Es ist leicht verständlich, dass sich durch Verlagerung des Drehimpulses, der mit der Wanderung des Massenschwerpunktes einhergeht, die Sonne moduliert wird, was sich in einer veränderten Energieabgabe auswirkt. Die blauen und roten Zahlen stehen jeweils für einen engen Zyklusumlauf (siehe Abbildung 35). Ergänzt nach Quelle: Dr. Theodor Landscheidt, Schroeter Institute for Research in Cycles of Solar Activity Nova Scotia, Kanada (kleine Photos: NASA).

Die Grundschwingung der Sonne um das Massenzentrum des Sonnensystems ist daher neben dem Eigendrehimpuls der Sonne ein weiteres Hauptkriterium für die kurzfristigen Energieschwankungen der Sonne, die sich auf der Erde in Klimazyklen auswirken. Beide basieren, bzw. bauen auf der Dynamotheorie auf, die besagt, dass die Dynamik des magnetischen Sonnenfleckenzyklus von der Rotation der Sonne angetrieben wird.

Die Erweiterung zur klassischen Dynamotheorie besteht darin, dass dort zusätzlich der dynamische Bahndrehimpuls berücksichtigt ist, der mit der sehr unregelmäßigen Bahnbewegung der Sonne um das Massenzentrum des Planetensystems zusammenhängt, was vorrangig durch die vier großen Gasplaneten verursacht wird. Der Unterschied zwischen Massezentrum der Sonne selbst (ruhiger Pol) und Massezentrum des Sonnensystems beträgt zwischen 0,01 und 2,19 Sonnenradien.

Das Minimum liegt an, wenn Jupiter auf der einen Seite und Saturn, Uranus und Neptun ihm im Planetenorbit gegenüber stehen. Das Maximum, wenn alle Gasplaneten in Konjunktion stehen. Zwischen diesen Extremen entwickelt sich ein komplexes Schwingungsmuster, was durch die Gravitationskräfte und den Bahndrehimpuls moduliert wird. Der flüssige Sonnenmantel und die Sonnenoberfläche werden dadurch bildhaft durchgeknetet, wodurch das magnetische Feld, die magnetische Stärke und die Energieabgabe der Sonne beeinflusst werden. Der Betrag des Bahndrehimpulses zum Eigendrehimpuls der Sonne kann bis zu 25% betragen. Wogegen der Eigendrehimpuls der Sonne relativ stabil ist, kann sich der Bahndrehimpuls auf das 40-fache der Ausgangswerte verändern. Es bietet sich daher nach Landscheidt an, den hoch variablen Bahndrehimpuls mit veränderlichen Phänomenen auf der Sonne (z.B. Flecken, Fackeln, Änderung der Rotationsgeschwindigkeit) in Verbindung zu bringen, bzw. dies zu untersuchen.

In unregelmäßigen Zeitabständen werden Änderungen der äquatorialen Rotationsgeschwindigkeit der Sonne von mehr als 5% beobachtet (die Sonne rotiert nicht gleichmäßig um ihre Achse), die mit Änderungen der Sonnenaktivität einhergehen, da sich hierdurch durch den Dynamoeffekt das magnetische Feld der Sonne ändert.

 

Abbildung 34 zeigt den Verlauf des Masseschwerpunkts des Sonnensystems von 1900 – 2020, Quelle: Solar System Dynamics Group, Jet Propulsion Laboratory Pasadena (http://users.qld.chariot.net.au/~carls/ephemerides/SSB_1900-2019.htm). Deutlich ist eine 20-Jahres-Schwingung erkennbar, deren Extrema mit der Aktivität der Sonne im Schwabe-Zyklus korreliert. Auffallend ist weiter, dass 1970 die Schwingung gering ausfiel – der entsprechende Sonnenzyklus (20) war schwach und 2009 die Schwingung ebenfalls klein ist, was einen schwachen 24. Sonnenzyklus erwarten lässt, zumal beide aus dem Grundmuster herausfallen.

Da die großen Gasplaneten, welche die Schwingung der Sonne um das Massenzentrum steuern, über 99% des Gesamtdrehimpulses im Sonnensystem verfügen, ergibt sich daraus, dass die Spin-Bahn-Kopplung, die Kopplung zwischen Bahnbewegung und Rotation, für die Änderung in der Rotationsgeschwindigkeit zumindest mit verantwortlich ist. Die Sonne bewegt sich durch die von ihr ausgestoßene Materie und ihre eigenen magnetischen Felder, was zu Änderungen in der Rotationsgeschwindigkeit führt.

Die Dynamik der beschriebenen Sonnenschwingung um das Massenzentrum lässt sich quantitativ durch die zeitliche Änderung des Bahndrehimpulses ausdrücken. Bei seinen Untersuchungen stieß Dr. Landscheidt auf folgendes Muster, das den Fingern einer großen Hand gleicht.

 

Abbildung 35 gibt die 9-jährige (siehe Abbildung 33) laufende Varianz (Quadrat der Standardabweichung, also die quadratischen Abweichungen vom Mittelwert) des Bahndrehimpulses wieder. Auf der Ordinate ist die relative Änderung des Drehimpulses L und auf der Abszisse die Zeit aufgetragen. Das Bild zeigt deutlich, dass die Änderung des Bahndrehimpulses durch eine fünfzählige Symmetrie geprägt ist. Dieses Muster wird durch die relative Stellung der großen Gasplaneten moduliert und ist nach den Kepplerschen Planetengesetzen konstant. Die Zykluszeit eines großen Fingers beträgt im Mittel 35,8 Jahre.

Bereits im 16. Jahrhundert wies der Engländer Francis Bacon, einer der geistigen Gründervater der modernen Naturwissenschaften, der auf die eingehende Naturbeobachtung setzte, auf einen 35- bis 40jährigen Zyklus in Holland hin, in dem feucht-kühle und warm-trockene Abschnitte aufeinander folgten.

Der Physiker, Geograph und Meteorologe Prof. Eduard Brückner (“Klimaschwankungen seit 1700“, Geographische Abhandlungen 14 (1890), 325) entdeckte diesen Zyklus 1887 neu. Er wies nach, dass zahlreiche klimatische Phänomene, die in den verschiedensten Gebieten der Erde erscheinen, synchronisiert sind und einem Zyklus von im Mittel 35 Jahren folgen. Er ging schon damals von einem Zusammenhang mit der Sonnenaktivität aus. Die folgende Abbildung zeigt den Brückner-Zyklus.

 

Abbildung 36: Der Brückner-Zyklus stellt eine Oberschwingung in der solaren Aktivität dar. Die Anzahl der Sonnenflecken und damit die Aktivität der Sonne schwanken um einen Mittelwert. Stärkere Aktivitätsphasen wechseln sich im Rhythmus von ca. 35 Jahren ab. Die Abbildung zeigt die Abweichung in der Sonnenfleckenzahl im Zeitraum von 1750 – 2000, Quelle: (http:// garymorris93.cwahi.net/weather/solar_ variations.html).

Aus der Abbildung zeigt sich, dass im Betrachtungszeitraum von 1750 – 2000 die Zykluslänge zwischen 27 und 38 Jahren variiert. Die Schwankungen in der Energieabgabe der Sonne, die im 35-jährigen Brückner-Zyklus sichtbar werden, haben unmittelbare Auswirkungen auf das Klima der Erde, wie Abbildung 37 zeigt.

 

Abbildung 37: Quelle:  Fredrik Charpentier Ljungqvist, Stockholm University, “A regional approach to the medieval warm period and the little ice age“, zeigt Temperaturschwankungen aus Eisbohrkerndaten in Grönland (blau) und von Messungen an der Westküste Grönlands (rot) im Zeitraum von 800 – 2000 (grau: Standartabweichung). Man sieht ein heftig gezacktes Muster, in dem sich relative Minima und relative Maxima abwechseln. Werden z.B. die Maxima gekennzeichnet (blaue Linien), sind im Betrachtungszeitraum 31 volle Perioden von ca. 850 – 1935 abgebildet. Daraus ergibt sich eine mittlere Zykluslänge von exakt 35 Jahren, was der Länge des Brückner-Zyklusses entspricht. Temperaturspitzen wechseln sich im Mittel alle 35 Jahre ab.

Auch in den mit am wichtigsten Klimaparametern, wie der AMO (Atlantik Multidekaden Oszillation) und der PDO (Pazifische Dekaden Oszillation, beide zeigen die Abweichungen in der Meeresoberflächentemperatur) zeichnet sich deutlich der im Mittel 35-jährige Brückner-Zyklus ab. Mit der AMO bestimmt er unmittelbar die arktische Eisbedeckung, wie noch gezeigt wird und das Wetter und Klima in Mitteleuropa.

 

Abbildung 38 links, Quelle: Dr. Landsea, zeigt die AMO-Schwingung, mit einer positiven und negativen Phase von im Mittel 33,5 Jahren. Abbildung rechts (NOAA) zeigt die PDO mit der negativen Phase von 33 Jahren.

Dr. Landscheidt schreibt zu der in Abbildung 33 gezeigten 9-jährigen Varianz: “Die 9-jährige laufende Varianz habe ich deshalb gewählt, weil die stärker gekrümmten Umläufe der Sonne mit einer Zykluslänge von 9 Jahren sich als besonders interessant erwiesen haben.“ Mit anderen Worten heißt dies, dass andere, längere Umläufe nicht das markante Muster einer großen Hand ergeben, also die quadratische Abweichung vom Mittelwert anders, weniger zyklisch aussieht. Insgesamt stellt dies natürlich schon seine Ergebnisse etwas in Frage, weil sie nicht allgemeingültig sind oder, können sie gar nicht allgemeingültig sein?

Bei den Untersuchungen Dr. Landscheidts geht es darum, Veränderungen in der magnetischen Aktivität und damit der Leistungsabgabe der Sonne zu erkennen und diese zuordnen zu können. Für Untersuchungen gilt generell, je stärker ein System auf Eingabeänderungen reagiert, also seine Ausgangsgrößen von der Eingangsgröße abhängig sind, umso sensibler ist das System und umso exakter kann es als Ganzes auf Veränderungen beobachtet und damit bewertet werden. Sind die Ausgangsgrößen nur gering von den Eingangsgrößen abhängig, so nähert sich dieses System immer mehr seinem stabilen Zustand. Dies heißt, die Trägheit, die eine der Grundlagen des stabilen Zustands ist, verhindert eine exakte Zuordnung der Ausgangsgröße (hier der solaren Energieabgabe) zu der Eingangsgröße (hier die Änderung der inneren Aktivität der Sonne).

Da aber die Änderung in der Fließgeschwindigkeit der Plasmamassen im Sonnenmantel umso höher ist, je „enger“ die Umläufe des Massezentrums sind – beruht auf der Winkelbeschleunigung in einer Kreisrotation und des Induktionsgesetzes – umso stärker ist der Ausschlag in der Ausgangsgröße des Systems. Soll untersucht werden, wie Änderungen in der Massenströmung der Plasmaströme, die letztendlich die Magnetfeldänderungen hervorrufen, die Energieabgabe der Sonne steuern, so muss zwangsläufig die geringste laufende Varianz, also die 9-jährige Varianz betrachtet werden, weil nur sie in der Lage ist, das exakteste Bild in der Änderung der Ausgangsgröße von der Eingangsgröße abzubilden.

Dr. Landscheidt geht auf die Frage seiner Wahl zur Varianz nicht näher ein, sondern gibt nur allgemein an, dass diese “besonders interessant erwiesen haben“. Evtl. wusste er gar nicht, warum gerade diese so interessant sind und nur diese, so interessant sein können.

Die Länge des Zyklus der “Großen Hand“ in Landscheidts Untersuchungen beträgt 178,8 Jahre. Auffällig ist, dass der Gleißberg-Zyklus etwa halb so lang ist wie der Zyklus der “Großen Hand“. Die Zykluszeit fällt zusammen mit der Konstellation der Planeten Jupiter, Saturn, Uranus und Neptun zur Sonne. Die Zyklen der “Großen Finger“ weisen eine durchschnittliche Länge von 35,8 Jahren auf und sind mit der Sonnenaktivität verknüpft. So fallen sie mit den Maxima und Minima des Gleißberg-Zyklus zusammen und ermöglichen erstmals dessen langfristige Vorhersage.

 

Abbildung 39 aus den Untersuchungen Dr. Landscheidts zeigt die jährlichen Mitteltemperaturen von 1850 – 1987 an der Erdoberfläche der nördlichen Hemisphäre nach P. D. Jones. Die Nullphasen der Großen Finger (BFS) sind durch Pfeile angezeigt. Die Nullphase einer hierarchisch übergeordneten Großen Hand (BHS) ist durch ein Dreieck gekennzeichnet. Diese hat einen Phasensprung ausgelöst. Vor BHS fallen die BFS mit Maxima der geglätteten Temperaturkurve zusammen, danach mit Minima, was nicht anders sein kann, wird in Betracht gezogen, dass durch die Veränderungen im Massenschwerpunkt solare Zyklen mit zunehmender und abnehmender Aktivität verbunden sind. Während ansteigender Sonnenaktivität werden die Massen im Sonnenmantel mit jedem Nulldurchgang BFS beschleunigt. Nach jedem BHS wird der Einfluss der Planeten entgegengesetzt zur Fließrichtung der Massen im Sonnenmantel. Dies bewirkt, dass bei BFS die vorhandene Fließrichtung am stärksten abgebremst wird und damit die solare Aktivität am stärksten reduziert wird, was sich in einem Temperaturminimum auf der Erde auswirkt. Nach zwei Zyklen der großen Hand ist die Geschwindigkeit der inneren Massen Null (der erste beschleunigt und der zweite bremst ab) und das System wird erneut in Gang gesetzt. Ein neuer Sonnenzyklus beginnt. Der nächste Temperaturtiefpunkt ist nach Dr. Landscheidt um 2007 zu erwarten. Anmerkung: Dies ist zwischenzeitlich für 2008 eingetreten.

Die theoretische Erklärung, warum die Planeten und mit ihnen ihr Bahndrehimpulsmoment die solare Aktivität beeinflussen, liegt an der relativen Änderung des Massenschwerpunkts des Sonnensystems zur Sonne und deren Schwerpunkt, wodurch Relativkräfte zwischen den beiden Schwerpunkten und der Sonnenmassen entstehen, die die internen Fluidströme der Sonne beschleunigen, bzw. abbremsen. Dadurch entsteht eine Beschleunigung, bzw. Abbremsung der Sonnenrotation, die wiederum auf die internen Fluidströme rückwirkt. Es entsteht also ein hoch-dynamisches rückgekoppeltes System. Vergleichbar ist dies mit dem System Erde/Mond (entgegen dem Sonnensystem sind hier nur zwei Partner aktiv), wie der Mond über seine relative Position zur Erde, die Gezeitenkräfte auslöst und mit Ihnen die Erdrotation beeinflusst.

In Abbildung 40 (vergleichbar zum Zwei-System: Erde/Mond) ist das System Sonne/Jupiter (massereichster Planet) dargestellt und die Änderung der SSB (Solar System Barycenter).

 

Abbildung 40: Das Jet Propulsion Laboratory fand anhand von NASA-Messungen heraus, dass es eine Periodizität zwischen Jupiter und dessen Abstand zum Massezentrum des Sonnensystems (SSB) gibt. Diese liegt bei ca. 11,8 Jahren und stimmt somit sehr gut mit der mittleren Länge (11,1 Jahre) des Schwabe-Zyklus überein.

Beim Bahndrehimpuls müssen neben Jupiter, jedoch noch die anderen Planeten, insbesondere die (weiteren) großen Gasplaneten, Saturn, Neptun und Uranus betrachtet werden, deren Einflüsse, die des Jupiters entweder verstärken (Konjunktion) oder abschwächen (Opposition), so dass sich hieraus, nach den keplerschen Planetengesetzen, ein zeitliches Muster zwischen maximalem Einfluss und minimalem Einfluss der Planeten auf die Sonne einstellt. Nach Theodor Landscheidt hat dieses Muster, wie bereits dargelegt, eine Länge von ca. 180 Jahren.

Anhand der Beeinflussung auf das SSB und dessen Rückwirkung auf die Sonne, ergibt sich nach Landscheidt die folgende Abschätzung für die Intensität der nächsten Sonnenzyklen.

 

Abbildung 41 zeigt die nach den Modellen von Dr. Landscheidt ermittelten nächsten Sonnenzyklen (gelb). Es sieht gegenwärtig so aus, dass er mit dem 24. Sonnenzyklus Recht hat. Aus der Datenreihe geht hervor, dass es spürbar kälter wird und bis mindestens in die 2030-Jahre kalt bleibt. Quelle: http://landscheidt.auditblogs.com/

Wie bereits geschildert, führt die Sonne keine konstante Bewegung durch, sondern sie wackelt sozusagen im Orbit durch einen imaginären Schlauch, welcher einen Durchmesser von ca. 3,7 Mio. km aufweist.

 

Abbildung 42 zeigt die Jupiter- und Sonnenbahn im Orbit, Quelle: Alexander et al., Journal of the South African Institution of Civil Engineering, vol. 49, Page 41, June 2007. Die kleine Abbildung zeigt die unterschiedlichen Positionen der Sonne in diesem (imaginären) Schlauch.

Dr. Landscheidt untersuchte weiter, inwieweit sich mit seiner Methodik noch feinere Unterschiede in der Bahndrehimpulsänderung der Sonne zeigen, sich also deren Abweichungen vom Mittel noch feiner ausbilden lassen, als die bereits gesehenen großen Finger mit einer Zykluslänge von 35,8 Jahren. Hierzu wählte er 1/3 von 9, also eine dreijährige Varianz. Die folgende Abbildung zeigt das Ergebnis.

  

Abbildung 43 zeigt die 3-jährige laufende Varianz (Quadrat der Standardabweichung, also die quadratischen Abweichungen vom Mittelwert) des Bahndrehimpulses, wieder im Zeitraum von 1800 – 2000, Quelle: Dr. Landscheidt. Es bildet sich hier ebenfalls ein Fingermuster aus. Diese werden mit „Kleinen Fingern“ bezeichnet. Die kleinen Pfeile stellen Nulldurchgänge dar. Die großen Pfeile Nulldurchgänge eines "Großen Fingers", was bedeutet, dass eine "Kleine Hand" identisch mit der zeitlichen Länge eines "Großen Fingers" ist. Die gepunktete Linie zeigt den Sprung einer "Großen Hand" (BHS) und die Zahlen sind die Durchnummerierung der "Kleinen Hände", wobei die Zahlen in der Mittelposition angeordnet sind. Die Zykluslänge der "Kleinen Finger" beträgt im Mittel 7,2 Jahre.

In den die Nullphasen der Zyklen "Kleiner Finger" (wie der "großen Finger") wird die zeitliche Änderung des Bahndrehimpulses der Sonne Null. Da der Bahndrehimpuls Einfluss auf die Rotationsgeschwindigkeit der Sonne hat, muss sich dies auf die magnetische Aktivität der Sonne auswirken.

 

Abbildung 44 zeigt die Verteilung starker Röntgenstrahlungsflares (X≥6) zwischen den Nulldurchgängen "Kleiner Finger" (Pfeile) im Zeitraum von 1970 – 1992. Deutlich ist zu sehen, dass sich die energetischen Sonneneruptionen auf die Zeiten unmittelbar vor und nach dem Zyklus "Kleiner Finger" der Varianz Bahndrehimpuls konzentrieren, Quelle: Dr. Landscheidt. Dies sollte Einfluss auf das Wettergeschehen haben und sich der Zyklus dort wieder finden.

 

Abbildung 45 zeigt die globale Temperaturentwicklung im Zeitraum von 1979 – 2011. Der geglättete Kurvenverlauf zeigt eine Periode von im Mittel 7,5 Jahren (http://www.climate4you.com/GlobalTemperatures.htm). Dies ist exakt die Periodenlänge nach Dr. Landscheidt und bestätigt, dass seine Überlegungen richtig sind und sich die von ihm gefundenen Zusammenhänge zur Sonnenaktivität unmittelbar im Klimageschehen auf der Erde niederschlagen.

 

Raimund Leistenschneider – EIKE

 

Teil 4a in Kürze

Übersicht über alle Teile:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4a – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 4b – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen




Uni Leipzig verhängt Zensur über kritische Klimaveranstaltung*. Grundrecht Freiheit der Wissenschaft wird zur Leerformel.

Dem Vernehmen nach begründete Haase sein Verbot mit der Dissertation von Limburg, die dieser im März 2010 an der Fakultät eingereicht hatte. Zwei Gutachter hätten die Dissertation als ungenügend abgelehnt, u.a. deswegen sei Limburg, so der Kanzler in einem weiteren Schreiben, als Redner unerwünscht. Dass dieselbe Dissertation von vier weiteren renommierten Hochschullehrern zur Annahme empfohlen worden war, liess Haase – wie man hört – unerwähnt. Limburg hatte dieser Ablehnung auch sofort -verwaltungsrechtlich relevant- widersprochen.

Was war geschehen?

Limburg hatte – unter der fachlichen Betreuung von Prof. Dr. W. Kirstein –  eine Dissertation verfasst, die die Qualität der historischen globalen Temperatur- und Meeresspiegeldaten überprüft. Seine offensichtlich unbequemen Ergebnisse ergaben, dass die Qualität der betreffenden Messungen bei weitem nicht ausreicht, um nach den anerkannten Regeln der Wissenschaft und Messtechnik Änderungen der beiden Größen in globalem Maßstab über die letzten 120-150 Jahre innerhalb weniger Zehntel °C bzw. im Bereich von mm zu bestimmen. Das unvermeidbare Unsicherheitsband sei deutlich größer, als die gesamte vom IPCC angegebene Änderung der globalen Mittel-Temperatur bzw. des globalen mittleren Meeresspiegels. Jede Zuordnung von möglichen Ursachen dieser Änderungen seien damit wissenschaftlich fragwürdig.

Die Fakultät suchte – und fand – zur Beurteilung der Dissertation die „richtigen“ Gutachter. Nur deren- objektiv ungerechtfertigte und negative – Bewertung wurde von Haase zitiert. Dass vier weitere Hochschulprofessoren die Dissertation als annahmewürdig befanden, verschweigt Haase. Mit einer Reaktion auf den Widerspruch von Limburg gegen die Beurteilung der von der Leipziger Fakultät ausgewählten Gutachter ließ sich die Fakultät bis heute Zeit. Eine juristische Auseinandersetzung scheint programmiert. Die Wissenschaft bleibt auf der Strecke.

Den Höhepunkt stellt jetzt der „Maulkorb“ dar, den Limburg von der Leipziger Universität verpasst wurde, obwohl er von einem Ordinarius dieser Universität offiziell eingeladen wurde. Die Leipziger Fakultät scheint mit diesem unwürdigen Verhalten die Aufklärung komplett verschlafen zu haben. So ließ Voltaire, der bekannteste Philosoph dieser Epoche, gegenüber einem seiner schärfsten Meinungsgegner öffentlich verlauten „Sire, ich lehne Ihre Auffassung ab und bekämpfe sie, ich würde aber mein Leben dafür geben, dass Sie Ihre Meinung öffentlich äußern dürfen“. An der Universität Leipzig dürfte es Kollegen in der philosophischen Fakultät geben, die diese Aussage kennen, die Universitätsleitung gehört vermutlich nicht dazu.

Update 14. und 15.9.11

Auf der fakultätseigenen Website hier fühlt sich Dekan Prof. Dr. Haase bemüßigt die skandalösen Vorgänge an der UNI Leipzig zu relativieren:  Er schreibt dort:

Aktueller Hinweis des Dekans
13. September 2011
Die Fakultät vertritt die Meinung, dass während eines nicht abgeschlossenen, zudem kritischen Promotionsverfahrens, bei dem Rechtsmittel zum Einsatz kommen, keine öffentlichen Veranstaltungen an der Fakultät stattfinden sollen, die den Promovenden, den Betreuer oder die eingereichte Arbeit zum Gegenstand haben oder das Verfahren sonst beeinflussen können.

Ich habe mich entschlossen, nun an exponierter Stelle darauf hinzuweisen, da ich mich Angriffen ausgesetzt sehe, von Personen, die offensichtlich nicht wissen oder erkennen, dass obige Meinung unabhängig vom Thema der Doktorarbeit ist.

Prof. Dr. Jürgen Haase
 Dekan

In der LVZ vom 10.9.11  wird Dekan Prof. Dr. Haase hingegen wie folgt zitiert:

 

Daraus kann klar entnommen werden, dass sehr wohl die inhaltliche Ausrichtung des Seminars, als einseitig dargestellt, bzw. deren befürchtete „politische Überhöhung“ die maßgeblichen Gründe für die Absage des Dekans waren.

Ferner ist festzuhalten, dass seitens Limburg kein Vortrag geplant war- wie man auch der Einladung entnehmen konnte- der das Verfahren hätten beeinflussen könnten, sondern ein Schlusswort zu Ehren eines verdienten Lehrstuhlinhabers, der in den Ruhestand verabschiedet werden sollte. Es war auch kein einziges Mitglied einer der beiden Promotionskommissionen  anwesend. Auch nicht der Dekan. Keiner von ihnen konnte also beeinflusst werden. Ob der umgehend erfolgte Widerspruch gegen die Entscheidung des Fakultätsrates bereits ein Rechtsmittel darstellt, vermögen wir nicht zu entscheiden.

Erst nach dem Maulkorb hat sich Limburg entschlossen, die Faktenlage per Statement darzustellen. Insofern ist diese Begründung – wieder mal- reine Vernebelung.

Die Redaktion

Andere Links: No Tricks Zone

* 2. Klimaseminar – Klimawandel  in der nichtöffentlichen Wahrnehmung

Anlässlich der Verabschiedung von Prof. Dr. Werner Kirstein, findet das 2. Klimaseminar im Institut für Geographie der Universität Leipzig statt, zu dem wir (das Berlin Manhattan Institut), das Europäische Institut für Klima und Energie (EIKE) und Prof. Kirstein Sie herzlich einladen.

Donnerstag, 8. September 2011; 14.00: Dauer:  3 Stunden

Ort:  Universität Leipzig, Hörsaal Geographie, Talstraße 35

Related Files




USA beklagen die alarmierenden Kosten der Hysterie um die Klimaänderung

Ein Bericht vom 20. Mai stellte fest: während die jährliche Finanzierung mit öffentlichen Geldern für solche Maßnahmen substantiell gestiegen ist, fehlt es an einem gemeinsamen Verständnis der zahlreichen verantwortlichen Funktionäre. Diese Zustandsbeschreibung stimmt mit den Schlussfolgerungen eines Forschungsservices des Kongresses von 2008 überein, welche „kein allumfassendes politisches Ziel für die die Klimaänderung gefunden hat, das die unterstützten Programme steuert, und dass es keine Prioritäten in diesen Programmen gibt“.

Der GAO zufolge sind die jährlichen Ausgaben für das Klima gestiegen, und zwar von 4,6 Milliarden Dollar im Jahre 2003 auf 8,8 Milliarden 2010, was sich über die gesamte Periode zu einer Summe von 106,7 Milliarden summiert. Das Geld wurde in vier allgemeinen Kategorien ausgegeben: Technologien zur Reduktion von Treibhausgasemissionen, Wissenschaft zum Verständnis des Klimawandels, internationale Hilfe für Entwicklungsländer und Anpassungen, um auf aktuelle oder erwartete Änderungen zu reagieren. Die Ausgaben für Technologien, dem größten Teilbereich, stiegen von 2,56 Milliarden auf 5,5 Milliarden während dieser Zeitspanne, mit zunehmendem Anteil in den Gesamtausgaben. Daten, die von Joanne Nova am Science And Policy Institute zusammengestellt worden sind, deuten darauf hin, dass die US-Regierung zwischen 1989 und 2009 mehr als 32,5 Milliarden für Studien bzgl. des Klimas ausgegeben hat. Darin sind nicht enthalten die weiteren 79 Milliarden Dollar für Technologien zur Erforschung des Klimawandels, Hilfen für das Ausland und Steuernachlässe für „grüne Energie“.

Das OMB [Office of Management and Budget, eine Behörde in den USA] wies darauf hin, dass die zuvor bekannt gegebenen Zusammenstellungen zum Budget nicht die verloren gegangenen Erträge für die speziellen Abschreibungen und Steuernachlässe enthielten, die dazu gedacht waren, Reduktionen von Treibhausgasemissionen zu beflügeln. Sie wiesen diesen Subventionen einen Betrag in Höhe von 7,2 Milliarden Dollar zu, die der öffentlichen Verwaltung im Jahr 2010 allein verloren gegangen waren (16,1 Milliarden seit 1993), was die Summe [der Verluste] seit 2003 auf 122,8 Milliarden steigen lässt. Dann gibt es da noch weitere 26,1 Milliarden, die für Programme zur Klimaänderung und damit zusammenhängende Aktivitäten im Rahmen des American Recovery and Reinvestment Act (oder „Stimulus Bill“) eingeplant sind.

Die Ausgaben zur Klimaänderung werden sich so schnell nicht verringern… so lange nicht, wie die gegenwärtige Obama-Politik vorherrscht. Eine beantragte Summe von 1382 Millionen Dollar für das Budget im Finanzjahr 2012 für globale Initiativen zur Klimaänderung (Global Climate Change Initiative GCCI), dazu gedacht, Entwicklungsländern bei ihren Bemühungen gegen die menschengemachten Probleme der globalen Erwärmung zu helfen, bedeutet eine Steigerung um 557% seit dem Finanzjahr 2008 (damals 202 Millionen). Implementiert in Programme, die vom Department of State, Treasury sowie der U.S. Agency for International Development (USAID) gesponsert worden sind, werden diese Programme durch das Budget der Regierung finanziert. Es wird festgestellt: „Die Beantragung des Budgets für das Finanzjahr 2012 folgt dem Klimagipfel in Cancun im Dezember 2010, wo ein Paket von ‚national angemessenen’ Maßnahmen geschnürt wurde mit dem Ziel, eine gefährliche Klimaänderung zu verhindern“. Dies ist Teil zu einem „…Bekenntnis zur kurz- und langfristigen Finanzierung der entwickelten Länder, die sich auf eine Summe von fast 30 Milliarden Dollar für den Zeitraum 2010 bis 2012 sowie 100 Milliarden jährlich bis 2020 beläuft“.

Dann gibt es da noch jene klimabezogenen eskalierenden Kosten der Regulationen durch die EPA, die unter dem Deckmantel des Clean Air Act Industrien und Arbeitsplätze vernichten. Diese wild über das Ziel hinaus schießenden Kosten werden durch die Proklamation der EPA gerechtfertigt, dass CO2 ein Verschmutzer ist. Diese Feststellung ignorierte eine gegenteilige Schlussfolgerung in der eigenen Studie der EPA mit dem Titel „Internal Study on Climate“, wo es heißt: „Angesichts des rückläufigen Temperaturtrends seit 1998 (von dem manch einer annimmt, dass er sich bis zum Jahr 2030 fortsetzt) gibt es keinen speziellen Grund zu überstürzten Beschlüssen, die auf einer wissenschaftlichen Hypothese beruhen, die offensichtlich die meisten der verfügbaren Daten gar nicht erklären kann“.

Die Small Business Administration [?] schätzt, dass die Einhaltung solcher Regulierungen die US-Wirtschaft jährlich 1,75 Billionen (trillions) Dollar pro Jahr kosten – etwa 12% bis 14% des Bruttoinlandsproduktes (GDP) sowie die Hälfte der 3,456 Billionen Dollar, die Washington derzeit ausgibt. Das Competitive Enterprise Institute (CEI) nimmt an, dass die jährlichen Kosten näher bei 1,8 Billionen Dollar liegen, wenn geschätzte 55,4 Milliarden Dollar durch Regulierungen in das Budget eingeschlossen werden. CEI beobachtet weiterhin, dass die Kosten dieser Regulierungen die Umsätze vor Steuern des Jahres 2008 von 1,436 Billionen übersteigen; um 87% über der geschätzten individuellen Einkommenssteuer von 936 Milliarden liegen und eine Bundesregierung [der USA] zeigen, deren Beteiligung an der gesamten Wirtschaft 35,5% erreicht, wenn man sie mit den Ausgaben des Jahres 2010 vergleicht.

Ein Vorhersagemodell der U.S. Energy Information Administration deutet an, dass eine vorgeschlagene Reduktion der CO2-Emissionen um 70% dazu führen wird, dass die Benzinpreise um 77% steigen werden, 3 Millionen Arbeitsplätze vernichtet werden und das mittlere Einkommen eines Haushalts um mehr als 4000 Dollar pro Jahr verringert wird.

Die EPA reiht sich inzwischen in viele andere Kampagnen gegen fossile Treibstoffe ein, und zwar durch eine neue Gesetzgebung zur Reduktion von Quecksilberemissionen aus der Kohleverbrennung.

Paradoxerweise kommt dies zu einem Zeitpunkt, wenn die Amerikaner beinahe gezwungen werden, herkömmliche Glühbirnen zu verwerfen und durch kompakte Leuchtstofflampen zu ersetzen, die Quecksilber enthalten, von dem das meiste irgendwann auf Müllkippen in der Landschaft landen wird. Die EPA peitschte dieses Programm im März durch und ließ nur 60 Tage für öffentliche Einwendungen zu, obwohl in der Praxis 120 bis 180 Tage vorgesehen sind. Die Quecksilberemissionen der USA stiegen im Zuge dieses Prozesses um den Faktor 1000. Sogar die EPA gibt zu, dass diese Regelung pro Jahr 10,9 Milliarden Dollar kosten wird. Die International Brotherhood of Electrical Workers, normalerweise ein Verbündeter des Weißen Hauses, sagt, dass die Regelung direkt 50 000 jobs vernichten wird sowie weitere 200 000 im Zusammenhang damit. 

Die EPA hat kürzlich auch neue Umweltmaßnahmen angekündigt, die im Wesentlichen zu einem Ende des Kohletagebaus in einer Region von sechs [US-]Bundesstaaten um die Appalachen führen werden, wo 2008 mehr als 10% der US-Kohle gefördert wurde und wo 20000 Menschen arbeiten. Und wie viel Beachtung schenkt die EPA den ernsten ökonomischen und beschäftigungstechnischen Auswirkungen dieser Initiativen? Die eindeutige Antwort ist – gar keine!

Als die Politikerin Vicky Hartzler (Republikaner) aus Montana die Frage nach den Konsequenzen aufwarf, bekam sie von der Administratorin der EPA Gina McCarthy einen Brief mit einer sehr klaren Antwort: „Unter dem Clean Air Act müssen Entscheidungen hinsichtlich der nationalen Luftgütestandards (NAAQS) allein auf der Evaluation wissenschaftlicher Beweise beruhen, da sie Gesundheits- und Umweltaspekte betreffen. Folglich ist es der Agentur verboten, Kosten bei der Durchsetzung der NAAQS in Erwägung zu ziehen“. In einer Antwort auf eine Anfrage von Cory Gardner (Republikaner) aus Colorado, die er vor dem Environment und Energy Committee des Weißen Hauses im Hinblick auf Regulationen gestellt hatte, die die Industrien zum Recycling von Asche und anderen Nebenprodukte fossiler Treibstoffe für Beton und Dämmmaterialien betreffen, stellte der EPA-Administrator Mathy Stanislaus fest: „Wir haben noch keinen direkten Blick auf die Arbeitsplätze hinsichtlich dieses Vorschlags geworfen“.

Ist es nicht höchste zeit, dass alle für die Regulationen Verantwortlichen einen ernsten Blick auf diese Kosten und Auswirkungen werfen? Hat Präsident Obama schließlich nicht in der Anordnung Nummer 13563 im Januar speziell verlangt, dass alle neuen Regelungen durch Regierungsagenturen die Schaffung von Arbeitsplätzen berücksichtigen sollen?

Man bedenke, dass die gegenwärtige Politik Hunderte Milliarden kostet, die wir uns zusammen mit Millionen verloren gehender Arbeitsmöglichkeiten nicht leisten können; sie alle basieren extensiv auf einer schwindlerischen, politisch erzeugten Klimakrise ohne jeden wissenschaftlichen Beweis. Dies geschieht zu einer Zeit, in der unser nationales Defizit einer Anhebung der Schuldenobergrenze in Höhe unseres Bruttoinlandproduktes folgt und die Kreditwürdigkeit der USA zum ersten Mal in seiner Geschichte herab gestuft worden ist.

Vergessen Sie es, die natürliche Klimaänderung zu stoppen! Es ist das politische Klima für diese Umstände, das wir wirklich ändern müssen! Das ist die Bedrohung, die ein sehr gewichtiger Anlass für Alarm ist!

Link zum Original: hier

Übersetzt von Chris Frey für EIKE




Die wirklichen Zerstörer der Wissenschaft!

Nehmen wir die jüngsten wissenschaftlichen Forschungen, die zeigen, wieder einmal, dass die Wissenschaft der Klimaänderung zu komplex ist, um Vereinfachungen vorzunehmen oder einen „Konsens“ zu behaupten.

Die Ergebnisse kamen letzte Woche vom CERN, wo ein hochenergetischer Teilchenbeschleuniger im Labor gewisse atmosphärische Bedingungen simuliert, um die Geheimnisse der Wolken und, erweitert, deren Einfluss auf das Klima zu untersuchen. Das CLOUD-Experiment simuliert die Auswirkungen von kosmischer Strahlung – die geladenen Partikel, die fortwährend unseren Planeten aus dem Weltraum bombardieren – auf die Bildung von Aerosolen, kleine flüssige oder feste Partikel, die in die Atmosphäre eindringen und [in der Troposphäre*] ultimativ zur Wolkenbildung führen. Je mehr Aerosole, umso mehr Wolken; je mehr Wolken, umso mehr Sonnenlicht wird in das Weltall reflektiert; je weniger Sonnenlicht, umso kühler die Erde. Und umgekehrt.

Die Anfangsergebnisse des CERN-Experiments zeigen, dass vermehrt eindringende kosmische Strahlen die Bildung von Aerosolen in der mittleren und hohen Atmosphäre* „signifikant erhöht“, und zwar um das „Zehnfache oder mehr“. In der unteren Atmosphäre* ist die Rolle der kosmischen Strahlen weniger klar. Welcher Unterschied zur Bildung von Aerosolen in der unteren Atmosphäre* besteht, werden die nächsten Forschungen am CERN zeigen.

* Im Original verwendet Byrnes das Wort „atmosphere“. Es ist aber davon auszugehen, dass „Troposphäre“ gemeint ist. Im Folgenden wird „atmosphere“ immer mit „Troposphäre” übersetzt. A. d. Übers.]

Die Wissenschaftler am CERN vermeiden sorgfältig jede Festlegung in der Debatte, was die Variationen der Bildung von Aerosolen in der unteren Troposphäre auslöst. Sie wissen genau, dass die Wechselwirkung zwischen den normalerweise in der unteren Troposphäre vorhandenen Komponenten – Wasser, Schwefelsäure und Ammoniak – die dazu beitragen, Aerosole zu bilden, nicht ausreicht, um die tatsächliche Menge der Aerosole zu erklären, schon gar nicht, wenn diese Suppe noch mit kosmischen Strahlen gewürzt wird.

Einige sagen, dass das fehlende Element anthropogenen Ursprungs ist, namentlich die Emissionen von Treibhausgasen. Andere sinnieren, dass es andere Dinge sein könnten, natürliche Dinge, die einfach in die untere Troposphäre eindringen, wie Staubpartikel oder Meeresgischt.

Henrik Svensmark, Wissenschaftler am National Space Institute in Kopenhagen, hat eine kontroverse Theorie vorgeschlagen, wonach das Magnetfeld der Sonne eng mit der Aerosolbildung zusammenhängt: Je stärker das magnetische Feld, umso mehr kosmische Strahlen werden abgelenkt, bevor sie die Erde treffen, umso weniger Aerosole bilden sich also und damit weniger Wolken und eine wärmere Erde. Er kann recht haben oder auch nicht.

Das CERN-Experiment ist grundlegende, allerbeste Wissenschaft und selbst ohne den Zusammenhang mit der globalen Erwärmung erwähnenswert. (…) Ich habe dieses Beispiel nicht gebracht, um die Positionen der einen oder anderen Seite der Diskussion um die globale Erwärmung in die Tonne zu treten, sondern um die Ungewissheit der Wissenschaft zu zeigen, besonders wie eine Entdeckung lediglich noch mehr Fragen und weitere Ungewissheiten aufwirft sowie zu einer Intensivierung der Forschung führt. Das gilt vor allem auch für die Klimawissenschaft, deren Variablen so vielfältig und komplex sind, dass man einen Supercomputer brauchen würde, um das Klima zu modellieren.

Das CERN-Experiment weist nicht direkt in die Richtung der anthropogenen Treibhausgase als Grund für die globale Erwärmung, obwohl es vernünftig ist anzunehmen, dass es ein erster Schritt in einer Beweiskette ist. Andererseits, dass das Experiment ganz und gar kein Beweis für den anthropogenen Ursprung der globalen Erwärmung mittels Treibhausgase ist, macht jemanden, der darauf hinweist, natürlich nicht zu einem „Leugner“ und seine Tätigkeit zu einer „Antiwissenschaft“. Es ist einfach das Hin und Her in der Wissenschaft.

Die Bestimmtheit, mit der Einige den Beweis der anthropogen verursachten globalen Erwärmung als unbestreitbar hinstellen, vergewaltigt die Wissenschaft und deren Prinzipien. Fragen über die Forschung zu stellen ist genau das, was Wissenschaft erfordert, selbst wenn es einen Konsens der weltbesten Gehirne gibt, die die Erde für flach erklären. Forderungen, nach denen wir uns alle vor irgendeinem „Konsens“ zu verneigen haben, dass nämlich Treibhausgase die globale Erwärmung verursachen, sind ebenso sinnlos wie zu erklären, dass es keine Beweise für die Theorie der Evolution gibt.

Dennis Byrne, a Chicago-area writer, blogs at The Barbershop at chicagonow.com.

dennis@dennisbyrne.net

Link: hier

Übersetzt von Chris Frey für EIKE




Die Republikaner im Kongress streben Streichungen für das Klimaprogramm der UN an

WASHINGTON – Die Republikaner suchen nach Wegen, die Taktik internationaler Zuwendungen für die globale Erwärmung zu zerschlagen. Die Taktik geht so: man versehe alle Angelegenheiten mit dem Wort „Klimaänderung“.

Ihre primären Ziele sind eine Reihe entscheidender Initiativen der UN, die weltweite Erwärmung zu stoppen und politische Entscheidungsträger über die sich entwickelnde Klimawissenschaft zu informieren.

Auf der Streichliste für das Jahr 2012 stehen Millionen an Zuwendungen für das IPCC, der Welt größter Ratgeber zur globalen Erwärmung. Das IPCC teilte sich 2007 den Nobelpreis mit Vizepräsident Al Gore, und Regierungen ziehen dessen periodische Berichte über Klimarisiken oft als Begründung heran, Ziele zur Reduzierung von Kohlenstoffemissionen zu setzen.

Die von den Republikanern geführten Anstrengungen würden auch alle Beiträge der USA für das 19 Jahre alte Framework Convention on Climate Change (UNFCCC) streichen, dem Hauptforum für globale Bemühungen, die Emissionen Wärme zurückhaltender Gase zu begrenzen. Verhandlungen über Verträge innerhalb der UNFCCC werden überschattet durch erhebliche Gegensätze zwischen arm und reich sowie das Misstrauen gegen die USA, weil diese es abgelehnt hatten, das Kyoto-Protokoll von 1997 samt dessen bindenden Emissionsobergrenzen zu ratifizieren.

Jene, die die Kürzungen unterstützen, sagen, dass diese Kürzungen ein Zeichen für Zeiten seien, den Gürtel ernsthaft enger zu schnallen. Aber Kritiker sagen, dass die Republikaner die Haushaltskrise dazu nutzen, ihre Abscheu gegen Klimainitiativen aller Art zu verstecken.

Selbst wenn die Streichung der Zuwendungen für IPCC und UNFCCC kaum Chancen hat, im mehrheitlich demokratischen Senat durchzukommen, sorgen sich einige, dass die negativen Auswirkungen dieser Botschaft rund um den Globus Wellen schlagen und die Fähigkeit unserer Nation, die Klimafront zu führen,  neutralisieren.

„Wir können uns nicht aus der Welt zurückziehen”, sagte Jake Schmidt, der Direktor der internationalen Klimapolitik im Natural Resources Defense Council, einer Umweltorganisation. „Ja, es sind derzeit harte finanzielle Zeiten, aber das Streichen dieser Ausgaben führt uns nicht wieder zu schwarzen Zahlen“.

Nicolas Loris jedoch, ein umweltpolitischer Analyst an der Heritage Foundation, einer konservativen Denkfabrik, sagt, dass das Zurückfahren von Zuwendungen für die globale Erwärmung eine fiskalische Notwendigkeit ist.

 „Wenn wir Milliarden und Abermilliarden Dollar Schulden anhäufen, ist es notwendig, das zu konsolidieren und Prioritäten zu setzen, wo wir das Beste für den Dollar herausholen“, sagte Loris. „Wenn das IPCC die von den Leuten behauptete Durchsetzungskraft hat, könnte [es dafür sorgen, dass] vielleicht Länder in Europa oder anderswo die Zuwendungen leisten. Ich glaube nicht, dass das IPCC verschwinden wird.“

Er fügte hinzu, dass der finanzielle Engpass nicht den Status der USA als Führer bzgl. der Klimaänderung in Frage stellen sollte.

Jim DiPeso, politischer Leiter der nichtkommerziellen Organisation Republicans for Environmental Protection, sagte, es ist absurd, dass der Kongress in Erwägung zieht, Dollar von so wegweisenden Initiativen wie dem IPCC oder der UNFCCC abzuziehen. Eine schon jetzt angespannte Atmosphäre im Capitol Hill wird überspannt, wenn sich Politiker hinter angenommenen Berechtigungsnachweisen verstecken, um Kürzungen des Budgets zur Rechtfertigung ihrer Ideologie nutzen, fügte er hinzu.

 „Es ist klar, dass Haushalts- und Schuldenprobleme allen Wind aus den Segeln genommen haben”, sagte er. „Jede dieser Angelegenheiten, die überpolitisiert wurden, ist lediglich eine lahme Ente. Beide Parteien trachten danach, unpopuläre Programme zu beschneiden. Und für die Republikaner hat die Klimaänderung ein großes Ziel hinter sich […has a big target on ist back].“

Der Eins-Zwei-Schlag

Die Strategie, die internationalen Zuwendungen der USA zur globalen Erwärmung auszuhungern, entwickelte sich aus einem legislativen Eins-Zwei-Schlag [ein schwer übersetzbarer Begriff aus dem Boxsport. A. d. Übers.] im Juli, kurz bevor der Kongress sich in die Sommerpause verabschiedete.

Der erste Schlag, der sehr gut das ganze Haus passieren könnte, ist das Zuweisungsgesetz [appropriations bill], das vom Subkomitee zur Finanzierung des State Department und auswärtiger Operationen genehmigt worden ist. Der zweite Schlag kam von dem republikanischen Senator Connie Mack (Foto oben). Er fügte einem separaten Autorisationsgesetz des Kongresses einen Änderungsantrag hinzu, der Zuwendungen begrenzen würde, um den Einfluss der globalen Erwärmung in Übersee abzuschwächen. Mack arbeitet im Komitee für Auswärtige Angelegenheiten des Kongresses und ist Vorsitzender der Unterabteilung für die westliche Hemisphäre. Die Zustimmung zu seinem Änderungsantrag, mehr symbolisch als realistisch, wird für weniger wahrscheinlich gehalten.

Das Zuweisungsgesetz, das von einem Unterkomitee am 27. Juli abgesegnet worden ist, verbietet speziell jede Zuwendung an IPCC und UNFCCC. Präsident Obama hat 2011 und 2012 fast 13,5 Millionen Dollar für die beiden Organisationen beantragt. Die Zuwendungen für dieses Jahr wurden auf 10 Millionen Dollar heruntergefahren, und zwar nachdem der Kongress auf Hochtouren gekommen war, um die Staatspleite früher in diesem Jahr zu vermeiden.

Die Zuwendungen an Übersee, um die Verschmutzung durch Treibhausgase zu reduzieren und ärmeren Ländern zu helfen, sich an die Auswirkungen der Klimaänderung anzupassen, macht derzeit etwa 0,04% des Gesamthaushaltes der USA aus. In diesem Jahr beläuft sich das auf eine Summe zwischen 750 und 950 Millionen Dollar.

IPCC ‚ein sehr gutes Geschäft’

Das Umweltprogramm der UN sowie die Weltorganisation für Meteorologie haben das IPCC 1988 gegründet. Die über 2000 teilnehmenden Wissenschaftler und Begutachter stecken sehr viel Zeit in diese Sache, empfangen aber logistische Unterstützung von 15 in Vollzeit angestellten Mitarbeitern im IPCC-Hauptquartier in Genf. Weitere mehrere Dutzend bezahlte Zuarbeiter unterstützen die vier Arbeitsgruppen des IPCC.

Im vorigen Jahr betrug das Budget des IPCC 5,4 Millionen Schweizer Franken, was heute umgerechnet 6,8 Millionen Dollar ausmacht. Die Vereinigten Staaten trugen fast 40% davon, was in einen Vertrauensfonds [trust fund] fließt, der es Wissenschaftlern aus Entwicklungsländern ermöglicht, für direkte Gespräche mit Kollegen in der Welt umherzureisen.

Der jüngste Zustandsbericht des IPCC – der grundlegende Bericht aus dem Jahr 2007 – schloss zum ersten Mal, dass die Erde sich erwärmt und das menschliche Aktivitäten sehr wahrscheinlich der Grund dafür sind. Klimaskeptiker im Kongress hinterfragen diese Schlussfolgerung immer weiter. Der nächste Bericht soll planmäßig 2013 oder 2014 erscheinen.

„Das IPCC ist eine sehr gute Sache für die USA und die Welt”, sagt der IPCC-Wissenschaftler Christopher Field. Es würde dem IPCC sehr schwerfallen, in der bisherigen Art und Weise weiter zu arbeiten, „falls die Haushaltskürzungen durch den Kongress gepeitscht werden würden“.

„Ohne die Teilnahme dieser Wissenschaftler würde das IPCC keine weltweiten Bemühungen unternehmen können, echte Beurteilungen vorzunehmen“, sagte Field, der dem Department of Global Ecology an der Carnegie Institution for Science vorsteht. „Wir könnten kein IPCC unterhalten, wenn wir den Vertrauensfonds nicht hätten“.

Field, der kein Gehalt vom IPC coder der US-Regierung bezieht, ist Ko-Vorsitzender einer der vier Arbeitsgruppen innerhalb des IPCC. Seine Gruppe ist verantwortlich für die schwerpunktmäßige Beurteilung von Verwundbarkeit und Anpassung.

Energie- und Umweltexperten stimmen darin überein, dass die wissenschaftliche Expertise der USA, nicht nur die finanziellen Beiträge, für das gesamte Unternehmen IPCC entscheidend sind.

Elliot Diringer ist der geschäftsführende Vizepräsident für internationale Strategien am Pew Center on Global Climate Change, einer unabhängigen, nicht kommerziellen und unparteiischen Organisation.

 „Die USA sind der Führer in der Klimawissenschaft”, sagt er. „Die Zuwendungen für diese Bemühungen zu streichen ist ein weiterer Rückzug der USA aus der Führerschaft in einer Angelegenheit, nach der die restliche Welt so verzweifelt verlangt. Was immer es an Fehlern im IPCC-Prozess gegeben hat, man löst sie nicht, indem man wegläuft“.

Die entscheidende Rolle der USA

Die UNFCCC hat sich entwickelt, ist aber weiterhin der Dreh- und Angelpunkt in der globalen Reaktion auf den Klimawandel. Seit sie 1992 angegliedert wurde, haben 194 Nationen einen freiwilligen Pakt unterzeichnet, die den Planeten aufheizenden Gase zu stabilisieren.

Das vorgeschlagene Budget für die Jahre 2012 und 2013 beläuft sich auf etwa 35 Millionen Dollar jedes Jahr, und es wird erwartet, dass der Klimagipfel in Durban vom 28. November bis zum 9. Dezember diese Summe absegnet. Die USA haben anklingen lassen, dass sie dazu 4,8 Millionen Dollar oder 14 % der Gesamtsumme beisteuern würden.

 „Die Unterhändler der USA sind größtenteils verantwortlich für die Erstellung einer realistischeren und ausgewogeneren Balance in der Arena internationaler Klimaverhandlungen“, sagte Diringer. „Die Ablehnung, diese Anstrengungen zu fördern senden nicht nur ein unglückliches Signal, sondern könnte auch die zukünftige Außenpolitik der USA beeinträchtigen.“

 „Wenn andere Länder unser Engagement bei den Klimaverhandlungen in Frage stellen, wird es viel schwieriger, internationale Unterstützung für andere Anstrengungen zu bekommen, die wir als vital ansehen“, sagte er und fügte hinzu, dass durch die fehlende Kooperation „unsere Möglichkeiten, andere Nationen zur Zusammenarbeit zu überreden“ abnehmen werden.

Jennifer Morgan, Vorsitzende des Klima- und Energieprogramms am World Resources Institute, sagte, dass einige der ärmsten Länder der Welt durch den Rückzug der USA aus der Unterstützung von Klimaaktionen geklatscht sind. Sie erwarten von den USA Führerschaft, einer der größten Emittenten von Kohlenstoff, so dass die Diskussionen zu einem neuen Klimavertrag der UNFCCC vorankommen können, merkte sie an.

„Die Geschichte der Vereinigten Staaten ist gekennzeichnet durch beeindruckende wissenschaftliche und technologische Leistungen: Entwicklung von Heilungsmöglichkeiten schwerer Krankheiten, Bau von Weltklasse-Computern und die Erforschung des Weltalls“, sagte Morgan per e-mail. „Angesichts der wachsenden Bedrohungen durch die Klimaänderung und den Möglichkeiten sauberer Energie können wir es uns nicht leisten, außen vor zu bleiben oder Zuwendungen hierfür zu streichen“.

Im Inneren des Zuweisungsgesetzes

Nachdem sich der Kongress schließlich zu einem wackligen Kompromiss zur Schuldenobergrenze durchgerungen hatte, verschob das Zuweisungskomitee des Kongresses die für den 3. August geplante Erhöhung des Budgets für 2012, die den Staat, auswärtige Angelegenheiten und damit zusammen hängende Unterkomitees in der Vorwoche passiert hatte.

Umweltaktivisten finden es ironisch, dass ein Haus voller Klimaleugner beabsichtigt, eine Einrichtung von Geldzuflüssen abzuschneiden, deren Aufgabe es ist, penibel wissenschaftliche Literatur zu begutachten, um die jüngsten Realitäten der globalen Erwärmung einem Laienpublikum verständlich zu machen.

 „Wir nennen das das ‚den Kopf in den Sand stecken’-Gesetz“, erklärte Schmidt vom NRDC. „Es ist ein wenig merkwürdig, dass der Grund dafür, dass wir hinsichtlich des Klimas nicht vorankommen, darin besteht, dass Politiker sagen, wir brauchen  eine globale Lösung. Und hier beschneiden wir die Finanzierung einer Einrichtung, die genau das tut“.

Neben den Kürzungen für IPCC und UNFCCC würde das Zuweisungsgesetz auch den traditionellen Dollarfluss dieses Landes abwürgen, der dazu bestimmt war, den Menschen in weniger wohlhabenden Ländern zu helfen, sich auf die potentiell ernsten Folgen der globalen Erwärmung auf ihren Lebensstandard einzustellen. Diese beinhalten:

    • Klima-Investmend-Fonds: Das Gesetz würde Geld für diese „Familie“ von durch die Weltbank gemanagten Fonds eliminieren, welches es den Entwicklungsländern erlauben würde, in saubere Technologien zu investieren; Quellen erneuerbarer Energien zu erkunden (Wind, solar und andere); die Entwaldung stoppen und Widerstandsstrategien zu entwickeln.

Präsident George W. Bush hat dieses Programm ins Leben gerufen als eine langzeitliche Möglichkeit der USA, [insgesamt] 2 Milliarden Dollar zu einem globalen Projekt von 6,5 Milliarden Dollar beizutragen. Die Förderung in diesem Jahr steht bei 375 Millionen Dollar; für 2012 hat Präsident Obama 590 Millionen Dollar beantragt.

  • Economic Support Fund/Development Assistance Account: Auf Geheiß der Obama-Administration werden die Komponenten der Klimaänderung in den Geldtöpfen gebildet, die das State Department und die U.S. Agency for International Development nutzen, um arme Länder mit sauberer Energie, Anpassung, sauberem Wasser, Nahrungssicherheit, Bildung, Landwirtschaft, Mikrofinanzierungen und dem Schutz der Wälder zu helfen.

Zum Beispiel können Regierungsmitglieder in dürregeplagten Gebieten den Gemeinden helfen, Einrichtungen zur Wasserspeicherung zu bauen oder Saatgut zu wählen, das besonders gut unter trockenen Bedingungen wächst.

Insgesamt beantragte Obama mehr als 10 Milliarden Dollar für beide Töpfe für das Jahr 2012; der Kongress möchte das auf eine Summe von 2,7 Milliarden reduzieren.

  • Globale Umwelteinrichtung (Global Environmental Facility GEF): Industrialisierte Länder haben die GEF vor 20 Jahren gegründet – als George W. Bush Präsident war – um den armen Ländern bei einsparorientierten Projekten zu helfen. Das Gesetz würde Obamas Anforderung für 2012 von 143,7 Millionen auf 70 Millionen halbieren. GEF operiert mit Projekten zur globalen Erwärmung, und die USA sind jetzt schon im Verzug mit ihren jährlichen Zahlungen.

Bevor das Subkomitee dem Zuweisungsgesetz zugestimmt hatte, bezog sich die Vorsitzende Kay Granger (Republikanerin, Texas) hier darauf als eine erneute Konzentration, amerikanisches Geld weltweit zu investieren. Sie hat die Klimaänderung im Speziellen nicht erwähnt, aber sie sagte: „Dieses Gesetz wird unsere auswärtige Hilfe bewerten, basierend auf dem, was funktioniert und unserer Möglichkeit, unseren Erfolg zu messen.“

In einem Interview hat Grangers Sprecher, Matt Leffingwell, gesagt, dass sich das Komitee viele Feinde gemacht hat, weil es an einer vom Kongress geführten Direktive festgehalten hat, 18% der Förderung über Bord zu werfen.

„Unsere erste Priorität war die nationale Sicherheit”, sagte Leffingwell. „Mit wenigen Ausnahmen waren alle Anforderungen vom gegenwärtigen Umweltbudget betroffen. Der Etat zur Klimaänderung war von Kürzungen ebenso betroffen wie alle anderen Forderungen in dem Gesetz“.

Zukunft des Änderungsantrags von Mack unklar

Während Grangers Komitee die Förderung internationaler Klimaprojekte immer weiter kürzte, versuchte Mack, sogar noch stärkere Kürzungen durchzusetzen. Der Repräsentant Floridas wollte die gesamten 1,3 Milliarden Dollar Förderung einkassieren, die der Präsident für internationale Anstrengungen bzgl. des Klimawandels im Etat von 2012 beantrag hatte. Aber weil sein Komitee keine Rechtshoheit über den gesamten Betrag besaß, setzte er sich für eine Kürzung von 650 Millionen Dollar ein, die sein Komitee kontrollierte.

In Macks Änderungsantrag hieß es, dass jede Zuwendung für „Initiativen zur globalen Klimaänderung“ gekürzt werden sollten, obwohl in keiner Zeile im Bundesbudget davon die Rede war. Stattdessen sind diese Dollar eine Mischung von Förderungen des State Department, des Schatzministeriums, der GEF und der Weltbank für Klimaanpassungen, Programme für saubere Energie und den Schutz tropischer Wälder in Entwicklungsländern.

Das Komitee für auswärtige Angelegenheiten leitete den Änderungsantrag am 21. Juli an den Foreign Relations Authorization Act weiter mit einem Stimmenverhältnis von 23 zu 20. Die Republikaner unterstützen ihn, die Demokraten nicht.

Angesichts der Tatsache, dass Amerikas Geschäftsleben schon jetzt mit Umweltschutzmaßnahmen aller Art ausgelastet ist”, schrieb Mack in einer Pressemitteilung nach der Abstimmung, „sollten auch andere Länder ihren Teil dazu beitragen, das globale Klima zu verbessern, nicht nur die USA“.

Senatoren als Retter?

Die meisten dieser internationalen Klimakürzungen sind eine Neuauflage eines Gesetzes, dass viel früher in diesem Jahr durch das Haus flatterte, als der Kongress sich mühte, die Regierung durch den September zu finanzieren – dem Ende des Finanzjahres 2011 – und eine Pleite zu verhindern.

Der Senat lehnte die Vorschläge dann ab, und es wird erwartet, dass er sie wieder ablehnt. 

In einer e-mail an SolveClimate News schrieb der demokratische Senator Pat Leahy aus [dem US-Bundesstaat] Vermont, dass er sich weiterhin für internationale Klimainitiativen einsetzen wird.

 „Einige im Haus scheinen über die dramatischen Auswirkungen der Klimaänderung völlig unbesorgt zu sein“, schrieb Leahy, der dem Subkomitee zur Bereitstellung der Förderung für das State Department und auswärtige Operationen vorsteht. „Dies ist im Senat nicht so, und wir werden, beschränkt durch einen begrenzten Etat, unser Bestes tun, gegen diese Auswirkungen vorzugehen und unsere Verantwortung, der Klimaänderung entgegen zu treten, ernst nehmen.“

In einem Kommentar in der Washington Post vom 3. August empfahl Senator John Kerry aus Massachusetts, die Klimaänderung in die internationale Politik als Kern der US-Strategie zu integrieren.

 „Wir sind die Anführer im Kampf gegen globale Herausforderungen wie die Ausbreitung von Kernwaffen und die Klimaänderung“, schrieb Kerry, Vorsitzender des Senatskomitees für auswärtige Beziehungen in dem Kommentar unter der Überschrift ‚Mitten in einer Budgetkrise, eine Verteidigung auswärtiger Hilfe. „Und in zahlreichen Gemeinden rund um die Welt leisten wir essentielle humanitäre Hilfe.

Und warum tun wir das? Weil wir so sind. Es liegt in der DNA von Amerika“.

Während die unteren und die oberen Kammern des Kongresses all dies zerreden, erinnert DiPeso von der Bewegung Republikaner für Umweltschutz die Politiker daran, dass Kohlenstoffverschmutzungen immun gegen das Geschwätz sind.

 „Wir können unsere Augen abwenden, aber was immer im Zuge der Klimaänderung in der Atmosphäre passieren kann, passiert auch”, lamentierte er. „Die Gesetze der Physik nehmen nicht im Geringsten Notiz davon, was im Kongress vor sich geht. Sie sind nicht Gegenstand von Aufhebung oder Änderung“.

SolveClimate News Die Reporter Lisa Song und Stacy Feldman von SolveClimate News haben zu diesem Bericht beigetragen.

Siehe auch hier, hier und hier

Link zum Original: hier

Übersetzt von Chris Frey für EIKE

Kommentar des Übersetzers zu diesem Text: In erfrischend sachlicher Weise wird in diesem Artikel über die heftige Debatte in den USA zum Thema Klimaänderung berichtet. In Deutschland scheint so etwas derzeit undenkbar.

Und noch etwas fällt auf: Immer wieder berufen sich die Befürworter der Ausgaben (die Demokraten) auf die diffusen Zukunftsängste und argumentieren sehr emotional. Diese Emotionen fehlen bei den Republikanern völlig.

Für mich ist es schon ein starkes Stück, dass man es dieser „Tea Party Bewegung“ überlässt, klimarealistische Fakten anzusprechen.

Chris Frey




Teil II Globaltemperatur grob fehlerhaft! Neue begutachtete Studien enthüllen: Fehler deutlich größer als gesamte Änderung im letzten Jahrhundert.

Update:

Hier ein hoch interessantes (langes ) Telefonat mit dem ehemaligen DWD Meteorologen Dr. Hoffmann zur Qualität der Klimadaten. ".. Die Weltmitteltemperatur… jetzt haben wir aber gemittelt —ojeh, ojeh!" Mit Dank an R. Hoffmann

Weiter im Originaltext: In der Zusammenfassung steht:

Das statistische Fehler Modell, welches allgemein bei der Bestimmung der monatlichen terrestrischen Stations-Temperaturen angewendet wird, unterstellt eine physikalisch unvollständige Klimatologie, die dazu zwingt, dass deterministische Temperatur-Trends, als Messfehler interpretiert werden. Große verdeckte Unsicherheiten sind dabei den mittleren globalen bodennahe Lufttemperatur Messungen überlagert. Zur Veranschaulichung dieses Problems wurden repräsentative monatliche und jährliche Unsicherheiten anhand der Lufttemperatur Datensätze aus weltweit verteilten terrestrischen Klimastationen berechnet, was zu ± 2,7° C und ± 6,3 °C führt. Zudem wurde die vorhandene Unsicherheit in der von 1961-1990 erhobenen jährlichen Referenz Anomalie bis jetzt völlig vernachlässigt. Sie wird (hier) mit ±0,17 ° C bestimmt. Nach der Zusammenführung beider Unsicherheiten mit den zuvor berichteten ± 0,46 °C als unterer Grenze der Messfehler, bestimmt sich die von 1856 – 2004 errechnete globale bodennahe Lufttemperatur Anomalie bei einem 95%-Konfidenzintervall mit 0,8 ± 0,98 °C . Somit ist also der Trend der globalen durchschnittliche Oberflächentemperatur Lufttemperatur Anomalie statistisch ununterscheidbar von 0 °C. Ordnungspolitische Maßnahmen die auf die  Beeinflussung der globalen Lufttemperatur gerichtet werden,  sind daher empirisch nicht vertretbar.

Zitatende

Wieder bezieht sich Frank auf den schon öfter erwähnten Aufsatz von Brohan et al 2006[1] (er nennt in kurz B06) und ergänzt seinen ersten Ansatz um die Berechnung von Fehlern, die aus der örtlichen und zeitlichen Verteilung der Einzel-Messwerte selbst herrühren. Zusätzlich stellt er richtigerweise fest, dass auch die zur Anomalienbildung verwendete „Referenztemperatur“[2] (das „Station Normal“ im Sprachgebrauch) keinesfalls frei von Fehlern ist und diese sich deshalb – entsprechend der Fehlerfortpflanzung- im Ergebnis widerspiegeln müssen. Das ist bisher nirgends thematisiert worden, beeinflusst aber die erzielbare Genauigkeit erheblich.

Wie schon zuvor betrachtet er das bisherige, von Brohan et al 2006 verwendete, Fehlerbestimmungsmodell als unvollständig und starr und zu Scheingenauigkeiten führend. Diesmal,  und zusätzlich zur bisherigen Betrachtung, auch deshalb, weil darin Station Normals[3] als konstant angenommen werden, sowie die angenommenen Fehler rein zufällig sein sollen und sich deshalb durch Mittelung über die Zahl der Messungen minimieren lassen. Außerdem fällt ein zwangsläufig auftretender systematischer Fehler s,  der sich aus der Verschiedenheit der Messungen herleitet, völlig unter den Tisch. Der Ansatz von Brohan et al 2006 lässt sich damit nicht mehr halten. Auch deswegen, weil inhärente Trends, die regelmäßig in monatlichen Temperaturgängen auftreten und für den gleichen Monat aber in verschiedenen Jahren sehr verschieden sein können, zu einem weiteren systematischen Fehler bei den Monatswerten führen müssen.

Er nimmt deshalb das Standard-Fehler-Modell von B06 Stück für Stück auseinander. Es ist nicht immer leicht den dort vorgestellten Gedankengängen auch mathematisch zu folgen, aber da jeder neue Gedankengang sehr sorgfältig erklärt wird, kann der aufmerksame Leser dies trotzdem schaffen. Pat Frank schließt seinen Aufsatz mit der Schlussfolgerung:

Zitat:

Die Analyse des statistischen Protokolls welches üblicherweise verwendet wird, um die Unsicherheit in der globalen Durchschnittstemperatur des bodennahen Lufttemperatur Anomalie-Index abzuschätzen, ergibt, dass dieses verhängnisvoll fehlerhaft ist. Es sollte zu Gunsten eines Modells, dass explizit den Mangel an Wissen über die Fehler Varianzen in terrestrischen Klimastations- Temperaturmessungen zeigt, ausrangiert werden.

 

Abbildung 1 Die rote mittlere Trendlinie zeigt globale Mitteltemperatur wie sie vom amerikanischen Goddard Institute of Space Sciences (http://data.giss.nasa.gov/gistemp/graphs/) GISS von 1880 bis Ende 2008 im Internet zu Verfügung gestell wird. Ihr überlagert ist die minmale Unsicherheit nach Frank in Höhe von ± 0,46 K. Die Referenzzeit ist hier 1951-1980

Die Unsicherheit in der Referenz-Periode der globalen Mitteltemperatur der Luft der Temperaturanomalie wurde bisher selten betrachtet. Diese Temperatur-Unsicherheit stellt die minimale Variabilität dar, die man bei einer mittleren Jahrestemperatur eines bestimmten Klimaregimes erwartet werden kann, vorausgesetzt, dass dieser Referenz- Zeitraum repräsentativ ist. Unter der Annahme,  dass die Jahre 1961-1990 einen normalen Zeitraum repräsentieren, dann decken ± 0.51 °C 99,7% der Variabilität der globalen durchschnittliche Lufttemperatur im 20. Jahrhundert ab. Wenn das globale Klima in einer einzigen Phase über dem Intervall von 1856-2004 gewesen ist, dann decken ± 0,84 °C zu 99,7% die wirkliche klimatologischen Lufttemperatur-Variabilität des 20. Jahrhunderts ab. Aus diesen Überlegungen folgt, dass die meisten, oder alle, der beobachteten Variationen der mittleren globalen Temperatur im 20. Jahrhundert nur sparsam den meist spontanen Schwankungen des Klimas zugeordnet werden können, die auch die Pseudo-Trends reflektierende Persistenz zeigen[22-25]. Es scheint, dass es keine besonderen Anzeichen für eine alarmierende Ursache der Erwärmung des mittleren globale bodennahe Lufttemperatur Trends im 20. Jahrhundert gibt . Deshalb sind politische Maßnahmen diesen Trend zu beeinflussen, empirisch unerträglich.

Ergänzung

Dieser klare Befund muss noch um einige weitere Überlegungen ergänzt werden. Frank zeigt, dass die mittlere Globaltemperatur bzw. deren Trend (s. Abbildung) von einem Unsicherheitsband in der Größe von ± 0,98°C umhüllt wird. Nun könnte jemand auf die Idee kommen, um trotzdem daraus eine Erwärmung abzuleiten, die Hüllkurve des Bandes statt die Trendlinie selbst, für die Ermittlung des Trends der Erwärmung zu verwenden. Dies setzt voraus, dass die mittlere Trendlinie sich genau in der Mitte dieses Bandes befindet. Davon kann jedoch nicht ausgegangen werden. Wie eine weitere – noch nicht veröffentlichte- Forschungsarbeit von EIKE zeigt, kommen zu den genannten Grenzfehlern noch viele weitere hinzu, die sich aus den verwendeten Messmethoden, -Instrumenten und deren Unterbringung, -Algorithmen, etc. zweifelsfrei herleiten lassen. Diese sind systematische Fehler, die nicht über die ganze Zeit gleich sind, auch in sich nicht  gleich sein müssen, weder gleich groß, noch in ihrem Vorzeichen. Sie verschieben damit daher die wahre Trendlinie unsymmetrisch aber unbekannt innerhalb des Bandes. Zudem verbreitern sie das jetzt schon breite Unsicherheitsband nochmals um mindestens ± 0,5 eher um bis zu ± 1 °C. In den frühen Jahren ab 1850 sogar noch breiter, um dann im 20. Jahrhundert enger zu werden, mit einer weiteren Verengung ab Mitte der 70er Jahre .

Zu gegebener Zeit werden wir bei EIKE hierüber berichten. 

Update Kritik von Teil I:

Ein Kritiker bemängelte, (Hier der Link dort  Kommentare 32 und 37) dass bei Berechnung des Tagesmittels, Autor Frank und ich nicht berücksichtigt hätten, dass dieses Mittel

"…kein Erwartungswert  eines Ensembles von Messungen zu einem bestimmten Zeitpunkt des Tages zu interpretieren ist!" 

und fährt fort:…."Das Tagesmittel stellt ein Maß für das Integral über die Temperaturkurve des Tages geteilt durch die Tageslänge dar! "

Soweit der Einwand. 

Obwohl von diesem Kritiker in der ihm eigenen -der eigenen Wichtigkeit bewussten- Überheblichkeit vorgebracht, ist es interessant sich mit diesem Argument und seiner Begründung zu befassen. Der Kritiker meint also, die Behandlung der Messwerte unter Einbeziehung ihrer Fehler nach der Fehlertheorie, hinge von der späteren Interpretation ihrer beabsichtigten Verwendung ab. 

Dies ist aber hier nicht der Fall. Denn In jedem Falle bleiben es (hier 2 x 30) verschiedene Messwerte, die zuerst miteinander -nach bestimmten, zudem willkürlichen- Algorithmen, zu einem Einzelwert (Tagesmittel genannt) kombiniert werden, um dann zu einem Monatsmittel verdichtet zu werden. Dabei werden die nicht zu unterschreitenden Messfehler benannt, aber als zufällig im Sinne der Fehlertheorie angenommen.

Dies darf man aber nur dann machen, wenn anzunehmen ist, dass jede gemessene Tagestemperatur, bis auf einen zufälligen Anteil identisch mit allen anderen Temperaturen ist. Nur dann tendiert der zufällige Anteil, bei genügend großer Zahl von Messwerten gegen Null. Diese Annahme ist aber offensichtlich, wie sowohl Frank und ich wissen, und wie auch im Teil I ausgeführt, aber auch Brohan 06 wissen – kompletter physikalischer Unsinn!

Die einzelnen Messungen der Tagestemperaturen sind sehr verschieden. Vermeidet man also diesen Unsinn, dann muss man -wissenschaftlich korrekt- die Fehleraddition, wie sie Frank richtig beschrieben hat, einsetzen.  D.h. unabhängig davon, wie später das Ergebnis interpretiert werden soll, muss dies- wenn man es in weiteren späteren Rechnungen verwenden will- nach den anzuwendenden Regeln der Fehlertheorie erfolgen. 

In einem aber hat der Kritiker recht: das Ergebnis dieser Mitteilung der Tagestemperaturen wird als Ersatz für das Integral der Tagestemperatur (dem "wahren Mittel") über der Zeit interpretiert. Doch wenn man dies tur, kommt allein durch den (mühsamen) Vergleich  – anders als Hinweis des Kritikers vermuten lässt- ein weiterer systematischer Fehler hinzu. 

Jeder Algorithmus -und es wurden weltweit ca. 100 verschiedene eingesetzt, wie Griffith 1997 (Griffiths, JF (1997) Some problems of regionality in application of climate change.) herausfand- erzeugt ein anderes Tagesmittel, Monats- und Jahresmittel, als das gewünschte "wahre" Mittel über 24 Stunden.

Abbildung 2 zeigt eine Auswertung der Temperaturdaten der österreichischen Station Puchberg über 9 Jahre. (Quelle: Aguilar, EA,I. Brunet, M. Peterson, Thomas C. Wieringa,V. (2003) GUIDANCE ON METADATA AND HOMOGENIZATION. Aguilar, 2003) 

Dargestellt sind darin die Differenzen von Tagesmitteln verschiedener Algorithmen zum  "wahren" (24 h) Tages-und Monatsmittel (als Nulllinie dargestellt), aufgeschrieben über das ganze Jahr. Diese wurden wiederum über 9 Jahre gemittelt. Wohlgemerkt, es handelt sich immer um dieselbe Temperaturänderung über den Tag, den Monat und das Jahr.

Abbildung 3 zeigt die Abweichungen der verschiedenen Jahresmittel aus Abbildung 1, zum "wahren" Jahresmittel – das ist die Nulllinie), die nach diesen verschiedenen Algorithmen berechnet wurden. Die Differenz zwischen Max/Min und Mannheimer-Methode  über satte 9 Jahre liegt immerhin bei beträchtlichen 0,5 °C.

Unser Kritiker behauptet nun, dass dieser systematische Fehler nicht nur bekannt sei, sondern auch korrigiert würde. Das trifft jedoch nur ganz selten für wenige Zeiten und Klimazonen zu.

Jedoch gerade bei der Ermittlung der Globaltemperatur gilt stattdessen das komplette Gegenteil, denn in Brohan 06 stellen die Autoren unmissverständlich fest: Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. 

„..There will be a difference between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error.“

Die dort gemachte Annahme aber stimmt aber nur dann, wenn 

1…..der eingesetzte Algorithmus über den ganzen Zeitraum der einzelnen Zeitreihe unverändert geblieben ist – wovon aber nur selten, wie wir wissen, wenn überhaupt, ausgegangen werden kann.

2…..wenn man die daraus gebildeten Anomalien nicht miteinander vermischt. 

3…..wenn man sie auch nicht mit dem "wahren Mittelwert" – wie es Brohan oben erklärt, in irgendeine Beziehung setzt.

Dies alles jedoch ist erklärte und gängige Praxis bei der Berechnung der Anomalie der mittleren Globaltemperatur. Tut man dies, dann handelt man sich allein durch die verwendeten Algorithmen systematische Fehler des Endergebnisses von einigen Zehntel Grad ein.

Bekannt sind diese Fehler wohl, korrigiert werden sie aber nicht. In der der Literatur, die sich mit der Berechnung der globalen Mitteltemperatur, bzw. ihrer Anomalien über die Zeit beschäftigt, findet sich keinerlei Hinweis darauf. Weil man vermutet – siehe oben- dass er sich von selbst ausgleicht.

Auch der Kritiker nennt nur das Histalp-Projekt, das zwar vorbildlich ist, aber wegen seines hohen Aufwandes offensichtlich nicht für die ganze Erde oder große Teile von ihr, wiederholt wurde.

Michael Limburg EIKE


[1] Brohan, P., Kennedy, J.J., Harris, I., Tett, S.F.B. and Jones, P.D., Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850, J. Geophys. Res., 2006, 111 D12106 1-21; doi:10.1029/2005JD006548; see http://www.cru.uea.ac.uk/ cru/info/warming/.

[2] Das ist im physikalischen Sinne keine Temperatur mehr sondern eine Art Index

[3] Das ist der Mittelwert der Jahrestemperaturen diese Station über den WMO Zeitraum von 1961-1990

Related Files




Teil 2: Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels

Etwa 99,98% des gesamten Energiebetrags der Erde stammt von der Sonne. Der verschwindend kleine Rest kommt aus geothermalen Wärmequellen. CO2 spielt in der Energiebilanz überhaupt keine Rolle! Die von der Sonne abgegebene Strahlungsenergie stammt sämtlich aus ihrer Kernzone (ca. 25% des Sonnenradius), in der die Fusion abläuft. Sie entsteht aus dem Energieüberschuss, der bei der Fusion von Wasserstoff zu Helium entsteht, da bei der Fusion aus der Wasserstoffmasse knapp 1% weniger Helium entsteht. Die emittierte Energie besteht hauptsächlich aus Photonen, aber auch aus Neutrinos, wobei die Neutrinos die Kernzone unmittelbar verlassen, die Photonen durch Wechselwirkung mit dem Plasma hierzu im Mittel ca. 10 Mio. Jahre benötigen.

Die Sonne steigert als sog. Hauptreihenstern ihre Strahlung alle 100 Mio. Jahre um ca. 1%. Bei der Kernfusion entsteht aus 4 Wasserstoffatomen ein Heliumatom, welches etwa die Masse der 4 Wasserstoffatome hat (minus dem geringen Rest, der bei der Fusion nach der Einstein-Formel in Energie umgewandelt wird). Die Zahl der Atome nimmt dadurch im Kern langsam ab. Eine geringere Anzahldichte der Atome kann nicht genauso viel Gegendruck im Sonnenzentrum erzeugen wie die Wasserstoffatome zuvor, wodurch sich das Sonnezentrum weiter zusammenzieht und sich Druck und Dichte dadurch so lange erhöhen, bis der Druck gegen die Gravitation der darüber liegenden Schichten wieder im Gleichgewicht ist – die Schichten tragen kann. Die höhere Dichte und Temperatur im Sonnenzentrum bewirken eine schnellere Kernfusion. Die äußeren Schichten der Sonne werden dadurch vergrößert und die Sonnenleuchtkraft steigt an. Die energieabstrahlende Oberfläche vergrößert sich. Die folgenden Abbildungen und Erläuterungen geben einen Einblick in die Klassifizierung und den Lebenszyklus der Sonne.

Abbildung 14 zeigt, wie sich im Lebenszyklus der Sonne ihre Leuchtkraft ändert.

Sowohl Temperatur und Leuchtkraft der Sonne ändern sich ständig als Ergebnis der Kernfusion. Der sich daraus ergebene Verlauf zeigt Abbildung 14. Die Zahlen bedeuten das Alter der Sonne in Milliarden Jahren. Der heutige Wert ist durch ein diamantenes Symbol gekennzeichnet. Quelle: (hier). Die kleine Abbildung zeigt die Proton-Proton-Reaktion über Deuterium zu Helium, wie sie im Innern der Sonne abläuft.

Hauptreihenstern “Sonne“

Abbildung 15a zeigt die Einstufung der stellaren Objekte im Hertzsprung-Russell-Diagramm, nach ihrer Leuchtkraft und Spektralklasse. Die Spektralklasse ist in der Astronomie eine Klassifizierung der stellaren Objekte nach dem Aussehen ihres Spektrums. Mit dem obigenDiagramm lässt sich die Entwicklungsverteilung der stellaren Objekte aufzeigen. Die Sonne ist dabei der Hauptreihe und der Spektralklasse G zugeordnet. Exakt der Klasse G2.

Abbildung 15b zeigt den Größenvergleich der stellaren Objekte in den jeweiligen Spektralklassen nach “Morgan-Keenan“ (MK-System).

Entwicklungsphasen der Sonne

Die Sonne entwickelte sich vor ca. 4,6 Milliarden Jahren in einem Spiralarm am Rande unserer Galaxie aus einer Gas- und Staubwolke. Die Gas- und Staubwolke bestand zu etwa 82% aus Wasserstoff, zu 17% aus Helium und zu 1% aus anderen Elementen. Materieteilchen kamen sich so nahe, dass sie durch ihre gegenseitige Massenanziehung zu verklumpen begannen.

Abbildung 16 zeigt die Entwicklungsphasen (Lebenszyklus) der Sonne. Nachdem sie vor ca. 4,6 Milliarden Jahren mit der Zündung der Kernfusion in ihrem Innern entstanden ist, wirkte der Strahlungsdruck der Kontraktion der Sonne, hervorgerufen durch ihre Schwerkraft, entgegen, so dass sich ein Gleichgewicht einstellen konnte und die Sonne das Stadium eines Hauptreihensterns erreichte, in dessen Phase sie ca. 11 Milliarden Jahre verbleibt.

Die Supernovae eines Roten Überriesen (massereicher Stern mit 10 – 50 Sonnenmassen) am Rand der Galaxie, schleuderte vor ca. 4,6 Milliarden Jahren in diese Wolke große Mengen schwerer Elemente, wie Silizium und Eisen, wodurch die Gas- und Staubwolke kollabierte. Unter der Schwerkraft begann sie sich langsam zu verdichten und durch die Schockwellen (Impuls) der Supernovae zu drehen. In ihrem Zentrum wurde die Wolke immer dichter komprimiert, wodurch Druck und Temperatur immer weiter anstiegen. Dies bewirkte, dass große Energiemengen in Form von Strahlung abgegeben wurden. Ein Protostern war entstanden.

 

Die Abbildungen zeigen exemplarisch zwei galaktische Wolken, in denen derzeit Sterne entstehen. Abbildung 17a links zeigt den 1.500 Lichtjahre (LJ)  entfernten Pferdekopfnebel mit einem Durchmesser von 3 LJ. Abbildung 17b rechts, den 7.000 LJ entfernten Adlernebel mit einem Durchmesser von 20 LJ (NASA).

Durch weitere Verdichtung der Teilchen im Zentrum, wurde die elektro-magn. Abstoßung der Teilchen überwunden und die Protonen verschmelzten miteinander. Die Kernfusion hatte eingesetzt. Aus dem Protostern ist ein Stern entstanden – die Sonne. Bei der Entstehung des Sonnensystems wurden über 99% der Materie in der Sonne gebunden. Aus dem Rest bildete sich durch immer schnellere Drehung eine abgeflachte Scheibe, aus der sich zuerst Ringe, dann Protoplaneten und schließlich die Planeten mit ihren Monden bildeten.

 

Abbildung 18a links zeigt die Überreste der Supernovae LMC N 63A in der Großen Magellanschen Wolke, unserer Nachbargalaxie. Es ist deutlich zu sehen, dass Elemente weit im Universum verteilt werden. Abbildung 18b rechts zeigt in bildhafter Darstellung eine Planetenentstehungsscheibe, beides Quelle: NASA.

Die Strahlungsleistung der Sonne war in den ersten Milliarden Jahren deutlich geringer als heute. Vor zwei Milliarden Jahren betrug sie nur ca. 80% ihres heutigen Wertes, so dass im Erdzeitalter Archaikum und Proterozoikum weite Teile der Erde mit Eis überzogen waren (Abbildung 19, Quelle: Cornell University).

 

Abbildung 19

Im Alter von 5,5 Milliarden Jahren, das heißt in 900 Millionen Jahren ab heute, überschreitet die mittlere Temperatur auf der Erdoberfläche den für höhere Lebewesen kritischen Wert von 30°C (Bounama, 2004). 1 bis 2 Milliarden Jahre später, werden 100°C erreicht.

In ca. drei Milliarden Jahren werden Milchstraße und Andromeda (unsere etwas größere Nachbargalaxie in 2,2 Mil. LJ Entfernung) mit einer Geschwindigkeit von über 430.000 Stundenkilometern zusammen stoßen und schließlich miteinander verschmelzen. Als Ergebnis entsteht eine neue, ellipsenförmige Galaxie. Nach Berechnungen könnte die Sonne mit ihren Trabanten am Rand der neuen Supergalaxie ihr Dasein finden. Sie könnte jedoch auch durch den kosmischen Crash zerfetzt, oder das Planetensystem durch das galaktische Inferno auseinander gerissen werden.

 

Abbildung 20a links zeigt die 2,2 Millionen Lichtjahre entfernte Andromeda-Galaxie. Sie ist wie die Milchstraße, eine ausgedehnte Balkengalaxie, Quelle: NASA. Die Abbildung 20b rechts zeigt in künstlerischer Darstellung, wie sich von der Erde aus das Himmelsspektakel in ca. 3 Milliarden Jahren abzeichnet, Quelle: James Gitlin/STScI (Space Telescope Science Institute).

Galaktische Crashs ganzer Galaxien sind nichts Ungewöhnliches, sondern kommen im Weltall immer wieder vor. In der Frühzeit des Universums waren solche Crashs „an der Tagesordnung“.

 

Abbildung 21 zeigt die beiden kollidierenden Galaxien NGC 2207 und IC 2163 (Entfernung: 144 Mio. LJ), Quelle: NASA. NGC steht für ”New General Catalogue of Nebulae and Clusters of Stars” und IC für ”Index-Catalog”.

Überleben die Sonne und das Planetensystem diesen kosmischen Crash, werden sich in ca. 6,4 Milliarden Jahren die Leuchtkraft der Sonne verdoppelt und ihre Größe auf das 1,6-fache ihres heutigen Wertes gesteigert haben. Die Erde ist in ihrem Innern nicht mehr flüssig und dadurch gibt es kein irdisches Magnetfeld mehr, welches die starke Sonnenstrahlung abdämpfen könnte und als Filter für Röntgen- und UV-Strahlung, den Sonnenwind wirkt. Die Erde verliert dadurch schnell ihre mittlerweile heiße Atmosphäre.

Der Wasserstoff im Sonnenkern wird in etwa 5 Milliarden Jahren verbraucht sein. Das ausge-brannte Helium-Sonnenzentrum (der sog. Heliumkern) kontrahiert zunehmend und heizt sich so lange auf, bis um das Heliumzentrum herum die Kernfusion des dort noch reichlich vorhandenen Wasserstoffs zu Helium einsetzt. Dies wird als Wasserstoff-Schalenbrennen bezeichnet. Dabei erzeugt die Sonne immer mehr Energie, je mehr das Heliumzentrum kontrahiert und je weiter sich die Wasserstoff-Fusionsschale nach außen frisst. In 6,4 Milliarden Jahren ist die Leuchtkraft bereits doppelt so hoch wie heute, und der Sonnenradius ist um ca. 60% größer als heute. In den folgenden 1,3 Milliarden Jahren wachsen Leuchtkraft und Sonnenradius weiter massiv an. In etwa 7,4 Milliarden Jahren wird von der Erde aus folgendes Bild (rechts, nächste Seite) zu sehen sein.

 

Abbildung 22b rechts zeigt die Sonne als roter Riese in künstlerischer Darstellung über der Erdoberfläche und links im Vergleich, die heutige Sicht.

Nach weiteren 200 Millionen Jahren erreicht die Leuchtkraft den tausendfachen heutigen Wert und die äußeren Schichten blähen sich um das Hundertfache auf, so dass trotz der größeren Leuchtkraft die Temperatur der Sonnenoberfläche abnimmt und das Sonnenlicht rötlich wird. Die Sonne hat sich zu einem roten Riesen entwickelt. Alles Wasser auf der Erde wird längst verdampft sein. Die folgende Abbildung gibt einen Größenvergleich von der Ausdehnung der Sonne.

 

Abbildung 23 zeigt die Sonne heute (der kleine gelbe Punkt, links) im Vergleich zur Sonne als rotem Riesenstern rechts mit einem Durchmesser von 1 AE (Astronomische Einheit = Abstand Erde – Sonne). Die Sonne reicht damit fast bis zur heutigen Erdbahn.

Während der Entwicklung der Sonne zum roten Riesen, kontrahiert der ständig wachsende Heliumkern unter dem Einfluss der Schwerkraft immer mehr und wird dabei immer dichter und heißer. Schließlich bilden die Elektronen im Heliumkern bei großer Dichte ein sog. “entartetes Fermi-Gas“, das ähnlich einer Flüssigkeit zunächst nicht weiter zusammengedrückt werden kann.

Die Temperatur wird den sehr hohen Wert von 100 Millionen Kelvin im Heliumzentrum erreichen und noch überschreiten (das heutige Sonnenzentrum hat etwa 15 Millionen Kelvin). Bei dieser Temperatur (und Druck) zündet die Heliumfusion, bei der Helium zu Kohlenstoff fusioniert.

Das Helium im Sonnenzentrum wird im sog. Helium-Flash explosionsartig in Kohlenstoff umgewandelt. Innerhalb einiger Minuten wird dabei eine Energie von der Größenordnung einer kompletten Milchstraße erzeugt. Die Energie gelangt jedoch nicht das außen, sondern wird dazu benötigt, dass entartete Zentrum (Fermi-Gas) aufzuheben. Das Heliumzentrum dehnt sich dabei aus. Das übrige Helium im Sonnenzentrum fusioniert langsam zu weiterem Kohlenstoff und teilweise fusioniert auch Kohlenstoff mit weiterem Helium zu Sauerstoff.

Während dem Helium- und Wasserstoff-Schalenbrennen schrumpft die Sonne aufgrund des nachlassenden Gegendrucks zur Gravitation wieder auf ca. ihren 10-fachen heutigen Wert. Aus der roten Riesensonne wird eine kleinere weiße Riesensonne, ein sog. “Horizontalast-Stern“. Für eine gewisse Zeitspanne als Horizontalast-Stern pulsiert sie dabei sogar. Sie ist dann ein “RR-Lyrae-Stern“ (diese verändern ihre Leuchtkraft streng periodisch und sind nach dem Referenzstern “RR Lyrae“ im Sternbild Lyra benannt). Nach weiteren 100 Millionen Jahren ist auch das Helium im Zentrum verbraucht und in Kohlenstoff und Sauerstoff umgewandelt. Das Kohlenstoff-Sauerstoff-Zentrum kontrahiert bis auf Erd-Größe, wobei mehr als die Hälfte der gesamten Sonnenmasse sich in diesem sehr kompakten heißen Zentrum konzentriert.

In dem viel dünneren Gas darüber bildet sich eine Helium-Fusionsschale, über der weiterhin die Wasserstoff-Fusionsschale brennt. Die äußeren Schichten der Sonne blähen sich insgesamt wieder stark auf und kühlen ab. Es entsteht erneut für kurze Zeit (etwa 20 Millionen Jahre) ein roter Riese, der sogar noch größer ist als zuvor – etwa 200-mal größer als die heutige Sonne und mit der 5.000-fachen Leuchtkraft. Damit reicht die Sonne über die heutige Erdbahn. Aufgrund des Masseverlustes der Sonne durch den starken Sonnenwind und der damit verringerten Schwerkraft, könnte sich nach Modelrechnungen die Erde von der Sonne auf etwa den 1,7-fachen Abstand von heute entfernen.

Die Wanderung der Helium-Fusionsschale nach außen lässt die rote Riesensonne schließlich instabil werden. Über einen Zeitraum von etwa 500.000 Jahre bläst die Sonne in mehreren heftigen Zuckungen (sog. “Helium-Flashs“) große Teile der äußeren, nur noch schwach gravitativ gebundenen Sonnenschichten (sie befinden sich relativ weit vom Massekern entfernt) in den Weltraum hinaus und legt ihren inneren, erdgroßen Kern frei.

Durch diesen Prozess verliert sie praktisch das gesamte noch unverbrauchte Brennmaterial, insgesamt etwa 1/3 ihrer Masse. Die sich ausdehnende Gas- und Staubwolke wird als “planetarischer Nebel“ bezeichnet, der aber nichts mit Planeten zu tun hat. Die Bezeichnung hat ihren Ursprung, dass diese Nebel typischerweise in früheren Teleskopen ein ähnliches Aussehen wie Gasplaneten aufweisen. Im Vergleich zur Lebensspanne der Sonne existieren planetarische Nebel nur sehr kurz, meist nicht länger als einige 10.000-Jahre. In unserer Galaxie sind rund 1.500 planetarische Nebel bekannt. Abbildung 24 zeigt einige planetarische Nebel.

 

Abbildung 24 links zeigt den Katzenaugennebel (NGC 6543) im Sternbild Drache in einer Entfernung von ca. 3.300 Lichtjahren. Die mittlere Abbildung den wohl bekanntesten planetarischen Nebel, den Ringnebel im Sternbild Leier (NGC  6720, Entfernung 4.100 Lichtjahre) und die rechte Abbildung den Eskimo-Nebel (NGC 2392) im Sternbild Zwillinge, in einer Entfernung von 2.900 Lichtjahren.

Das übrig gebliebene sehr heiße nackte Sonnenzentrum aus Kohlenstoff und Sauerstoff nennt man einen “weißen Zwerg“. Obwohl er nur so groß wie die Erde ist, umfasst er etwa die Hälfte der ursprünglichen Sonnenmasse. Die Teilchendichte in einem weißen Zwerg ist so hoch, dass ein Kubikzentimeter seiner Masse im irdischen Gewichtssystem ca. 1 Tonne wiegt.

 

Abbildung 25: Der von der Sonne übrig gebliebene weiße Zwerg (künstlerische Darstellung), der nur noch die Größe der Erde aufweist, hüllt die Erdoberfläche in ein fahles Licht. Eine Fusion findet auf der übrig gebliebenen Sonne nicht mehr statt. Sie leuchtet, weil sie eine Oberflächentemperatur von über 100.000°C aufweist, die im Verlauf der kommenden Jahrmilliarden langsam abnimmt. Ihre übrig gebliebene Masse von ca. 50% der alten Sonnenmasse reicht aus, um die Erde an sich zu binden. Dass auf der Erde wieder Leben entstehen kann, ist ausgeschlossen.

Nach diesem Ausflug in die Zukunft (die Szenarien entstanden nach Erkenntnissen der Astrophysik und fassen den heutigen Wissensstand grob zusammen), zurück in die Gegenwart, wie die dynamische Sonne auf kleineren Zeitskalen, heute und in jüngster Vergangenheit, Wetter und Klima auf der Erde beeinflusst und weiterhin moderiert. Hierzu betrachten wir die Sonne in ihrem Innern.

Abbildung 26 zeigt akustisch gemessene Fluktuationen und Wirbel im Sonneninnern (links und Mitte), bzw. gemessene Temperatur-/Dichteänderungen in der Sonne (rechts), Quelle: SOHO. Die Sonne ist kein statisches Gebilde. Ihre Energieschwankungen und deren Auswirkungen auf die Erde auf kleinen Zeitskalen sind ganz beträchtlich, wie in den folgenden Teilen gezeigt wird.

Bisher wurde ausschließlich die Fusionsleistung der Sonne betrachtet. Darüber hinaus strahlt die Sonne magnetisch erzeugte Energie ins Weltall ab. Während die Fusionsleistung auf kurzen Zeitskalen relativ konstant ist, variiert die magnetische Aktivität der Sonne ganz erheblich und steuert damit unsere Wettersysteme, wie bereits im Teil 1 gesehen und damit unser Klima. Hierzu mehr im 3. Teil.

Raimund Leistenschneider – EIKE

Teil 3 in Kürze

Übersicht über alle Teile:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4a – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
interplanetares Magnetfeld

Teil 4b – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen




Merkwürdige DWD Temperaturkurven! Aus Absicht falsch, oder aus Versehen?

Von dort forscht der Blick, wie von Geisterhand gesteuert, nach rechts auf das Thermometer zu, weil es ebenso grellweiß hervorsticht, wie die Überschrift und der Blitz. Dort stößt er auf den dicken roten Balken – der unfassbare 74 Grad verheißt – und verweilt in ungläubigem Staunen: Das muss die Klimakatastrophe sein, schießt es unserem Leser durch den Kopf. Nur erfahrene Klimaforscher und Wetterfrösche erkennen rasch, daß die vordere Skala in Fahrenheit und die nach hinten gekehrte in Celsius ist. Das Auge des ungeübten Betrachters aber sucht spontan die vordere Skala. Unausweichliche Folge ist, daß ihm ein gehöriger Schreck in die Glieder fährt. Er nimmt – wie sollte er denn anders – die Horror-Zahl für bare Münze.

Wer nun glaubt, das Auge unseres verunsicherten Lesers erhielte bei der weiteren Wanderung durch das Bild Entwarnung, der irrt. Das Gegenteil tritt ein – der Schreck verfestigt sich. Denn gleich links neben dem Thermometer wächst aus der Kurvengraphik die schlimme rote Kurve raus und landet just in dem tödlichen Atom- und Sonnenblitz. Steil geht sie bergauf und wird gar immer steiler und schneller, je näher wir an das Jahr 2100 kommen, das Jahr der Prophezeiung. Nur noch ein paar Jahre weiter, und die Kurve wird uns ganz senkrecht in den Himmel schießen. Dem Hitzetod entgegen. Da kann uns auch die gelbe Kurve darunter nicht trösten, denn leider dauert es hier nur ein wenig länger, und nicht wir, die Kinder und die Enkel sind verbrannt, sondern erst unsere Urenkel. Das kommt so, weil auch die gelbe Kurve den perfiden progressiven Trend zeigt, der uns zu Todgeweihten macht. Oh sole mio – moribundi te salutant. Oh meine Sonne – wir Todgeweihten grüßen Dich.

ARD Wetterfrosch Sven Plöger – nicht beim DWD beschäftigt stellt die Meteorologenehre wieder her. Mit Dank an Spürnase R. Hoffmann

Ob diese Schreck-Effekte vom DWD beabsichtigt sind oder nur ein Versehen – was viele vermuten, verdient eine eingehende Analyse. Das Ergebnis fällt eindeutig aus, wie so manchem schon dämmert: Alles spricht dafür, daß der DWD mit dieser Graphik eine suggestive Absicht verfolgt! Sie fragen nach Belegen? Dann lesen Sie weiter!

Der DWD-Zeichner, der zur Illustration der Graphik eine Thermometerdarstellung sucht – z.B. im Internet – stößt zwangsläufig auf hunderte Celsius-Thermometer, neben einigen Celsius-Fahrenheit-Thermometern. Dass er nun nicht das nahe liegende Celsiusthermometer wählt, sondern schließlich das bei uns weniger verbreitete mit Doppelskala verwendet, mag Absicht oder Schusseligkeit sein. Nach 10 Sekunden des Nachdenkens klärt sich die Motivlage aber auf: Der DWD ist eine Deutsche Einrichtung, folglich muß der Zeichner ein Celsius-Thermometer gesucht haben. Wenn er dennoch dieses ungebräuchliche F-C-Thermometer wählte und dann noch die Fahrenheit-Skala nach vorn drehte, liegt unzweifelhaft ein Willensakt vor, kein Zufall. Ebenfalls für Absicht des DWD spricht, dass der Graphiker die Bezeichnung "F" und "C" oben abgeschnitten hat. Auch dies ist ein Willensakt und kein Versehen. Dem Betrachter wird dadurch das Verständnis der Zusammenhänge erschwert, und der Zeichner säet Angst in einem umso weiteren Feld der Öffentlichkeit. Hinzu kommt noch, daß der rote Temperaturbalken selbst auf der Celsiusskala auf sage und schreibe 24°C steigt, während selbst die pessimistische Prognose für 2100 nur bei schlappen 13 °C steht. Schließlich gibt es ja auch noch weitere DWD Mitarbeiter. Sie alle, bis hin zum Präsidenten müssen die Darstellung gesehen haben, bevor sie veröffentlicht wurde. Jeder von ihnen MUSSTE doch beim ersten Augenschein dieses ungebräuchliche und seiner Skalenbezeichnung beraubte und allemal zu hoch justierte Thermometer erkennen, monieren und dafür sorgen, daß es umgehend gegen ein vernünftiges ausgetauscht wird. da alle Beteiligten es passieren ließen, scheidet Schusseligkeit des Zeichners als Motiv für die Bildgestaltung eindeutig aus

Auch die Prognosekurven sind fraglich und suggestiv. Über die fraglichen Zahlenwerte der Prognose wurde bei EIKE schon kritisch geschrieben. Mir geht es hier um einen weiteren gelungenen Darstellungs-Trick der DWD-Leute. Er funktioniert über die Zeitskala der Kurve: der rechte Teil der Kurve, also ab 2010 bis 2100 ist im Maßstab um rund 40% gestaucht gegenüber dem linken Teil 1881 – 2010. Das erhöht optisch den Kurvenanstieg der roten und der gelben Kurve um fast das Doppelte. Welche Reaktion stellt sich beim unbedarften Zuschauer ein? Natürlich: die DWD Prognose gewinnt an Dramatik! Da die Kurven überdies mit dem Begriff "Prognose" beschriftet sind, gewinnen die Aussagen des DWD eine Aura des Unumstößlichen und Unangreifbaren. Die in der Graphik verwendeten Suggestionstricks sollen schlichtweg den Eindruck erwecken, als stimmten die Zahlen. Sie sollen den Leser von skeptischen Impulsen abhalten und dazu bewegen, das "Gelernte" zu akzeptieren und tunlichst weiter zu tragen.

Bei einer Aussage mit einer derartigen Häufung von suggestiven Graphik-Elementen drängt sich der Verdacht der Täuschung auf, und die gesamte Darstellung (Zahlen und Graphik ) ist – bevor man überhaupt sachlich an das Zahlenwerk herangeht – insgesamt unter Vorbehalt zu stellen.

Bei dieser Beweisführung bleibt nur festzustellen: bewußtes Handeln des DWD, man nennt es auch Manipulation, zeigt jetzt unverhüllt sein Gesicht. Wir dürfen gespannt sein, ob und wie sich der DWD, vielleicht in Gestalt des Präsidenten, zu diesen Analysen äußert.  

CommSens

Nachtrag der Redaktion:

Die oben abgebildete Grafik zeigt die offizielle mittlere Deutschlandtemperatur wie sie der DWD noch bis vor kurzem veröffentlichte. Sie zeigt eine deutliche Abkühlung seit 2000.  

Der Präsident des DWD Prof. Adrian hat die Mail-Adresse: gerhard.adrian@dwd.de

Die Klimaabteilung unter Leitung des DWD Vizepräsidenten Dr. Paul Becker finden Sie hier die Email ist: info@dwd.de




Wärmedämmung: Die so genannte Gebäudesanierung. Schilda lässt grüßen

Das Einpacken von Gebäuden mit Dezimeter dicken Dämmplatten soll an das Anziehen warmer Daunenjacken und Wollmützen im Winter erinnern. So suggeriert es ein von der Bundesregierung verbreitetes Plakat, das Häuser mit Wollmützen zeigt. Es soll Hausbesitzer auf die Möglichkeit hinweisen, durch den Einbau dreifach verglaster Fenster, durch das Auswechseln des Heizkessels und durch eine aufwändige Isolierung des Daches und der Mauern mit Dämmplatten Heizkosten zu sparen. Aber lohnt der Aufwand wirklich? Wer in Deutschland die Heizkosten benachbarter gedämmter und ungedämmter Gebäude gleicher Bauart vergleichen möchte, kommt nicht weit. Es gibt dazu keine Normalbürgern zugängliche Daten. Eine Studie des Instituts für Wirtschaftsforschung Halle (IWH) kam jedenfalls zum Schluss, dass eine energetische „Sanierung“ von Gründerzeithäusern den Heizenergiebedarf bestenfalls um 10,6 Prozent senkt. Der Gerichtssachverständige Prof. Dipl. Ing. Jens Fehrenberg (Hildesheim) kam an die Heizkostenabrechnung benachbarter gedämmter und ungedämmter Wohnblocks in Hannover und stellte sogar fest, dass die zuletzt genannten weniger Energie verbrauchten als die angeblich energetisch sanierten.

Wie ist das möglich? Ganz einfach: Die gedämmten Wände verhalten sich in der Praxis nicht so, wie es die rein theoretischen Rechenmodelle der Dämmstoff-Lobbyisten vorhersagen. Diese Modelle stützen sich allein auf den so genannten U-Wert (früher k-Wert) der Wärmedurchlässigkeit verschiedener Materialien. Dieser Zahlenwert vernachlässigt, dass der größte Teil der Wärme nicht durch Wärmeleitung in Festkörpern, sondern durch Abstrahlung verloren geht. Er vernachlässigt auch, dass der unter trockenen Laborbedingungen gemessene U-Wert nicht mehr gilt, wenn das Isoliermaterial feucht geworden ist. „Wärmedämmung auf der Außenwandfläche mindert zwar den Austrag von Wärme, verhindert aber ebenso den Eintrag“, erklärt Prof. Fehrenberg. Gerade im Winter, wenn die Sonne tief steht, nehmen vor allem Ziegelmauern tagsüber eine große Wärmemenge auf und geben sie nachts langsam sowohl an die Wohnräume als auch an die Umgebungsluft ab. Dadurch wird verhindert, dass die Mauer nachts so weit auskühlt, dass der Taupunkt unterschritten wird und sich Kondenswasser niederschlägt. Wird die Mauer jedoch isoliert und abgedichtet, verliert sie ihre Fähigkeit, die Feuchtigkeit zu regulieren. Gedämmte Fassaden erkalten abends viel schneller als ungedämmte. Das sich dann ansammelnde Kondenswasser ist ein idealer Lebensraum für Grünalgen, Schimmelpilze und Flechten. Schon nach wenigen Monaten werden deshalb nicht wenige der angeblich sanierten Häuserfassaden schmutzig grün. Um das zu verhindern, werden die Dämmplatten neuerdings mit hochgiftigen Algiziden und Fungiziden behandelt. Ein besonders schlauer Dämmstoff-Verkäufer bietet elektrische Fassadenheizungen an, um dem Problem beizukommen. Schilda lässt grüßen.

Deshalb rät Fehrenbergs Berufskollege Konrad Fischer aus Hochstadt am Obermain, ein auf die Sanierung denkmalgeschützter Gebäude spezialisierter Architekt, seinen Kunden: „Wer wirklich Energie und Geld sparen möchte, sollte sinnlose Energiespar-Aufwendungen unterlassen!“ Fischer weist übrigens die von den Dämmfanatikern als Verkaufsargument benutzten Bilder von Wärmebildkameras als groben Unfug zurück. Selbstverständlich zeigen diese, dass ungedämmte Häuser nachts auffällig viel Wärme abstrahlen. Aber es handelt sich dabei überwiegend um die Sonnenenergie, die die Mauern bei Tage aufgenommen haben. Die nächtliche Abstrahlung verhindert, dass sich Feuchtigkeit auf und in den Mauern niederschlägt. Gedämmte Mauern hingegen, werden nachts kalt und feucht, weil sie tagsüber von wärmenden Sonnenstrahlen nicht mehr erreicht werden. Nicht von ungefähr haben alle US-amerikanischen Bundesstaaten das Dämmen der dort üblichen Holzrahmenhäuser verboten, nachdem sich dort der Hausschwamm ausgebreitet hatte. Europäische Öko-Kommissare hingegen wollen ihren Untertanen befehlen, in verschimmelten und schlecht belüfteten Gebäuden zu vegetieren, um die angeblich drohende Klimakatastrophe aufzuhalten.

Bislang konnten sich deutsche Hausbesitzer den gesetzlichen Dämm-Verpflichtungen relativ leicht entziehen, wenn sie mithilfe von Gutachtern die Unwirtschaftlichkeit der von ihnen verlangten Energiespar-Investitionen darlegen konnten. Im Paragrafen 11 der Heizkostenverordnung zum deutschen Energieeinsparungsgesetz steht, dass Kosten dann als unverhältnismäßig hoch gelten, wenn diese nicht durch Einsparungen binnen zehn Jahren erwirtschaftet werden können. Bei der energetischen „Sanierung“ eines bescheidenen Einfamilienhauses gemäß den heute schon gültigen Vorschriften werden jedoch erfahrungsgemäß um die 600 Euro je Quadratmeter Wohnfläche, das heißt mindestens 60.000 Euro fällig. Diese erlauben eine Heizkosteneinsparung von maximal 1.000 Euro im Jahr. Das heißt, es braucht 60 Jahre, um die Investition abzubezahlen. Bis dahin liegt der in die Zukunft investierende Eigentümer wahrscheinlich längst im Grab und das Haus ist vielleicht schon abgerissen.

Die herrschende grün angestrichene Finanzoligarchie arbeitet jedoch bereits eifrig an der Ermächtigung für die Einführung eines gesetzlichen Dämmungszwangs ohne Beachtung der wirtschaftlichen Zumutbarkeit und des Eigentumsschutzes. Die Hausbesitzer sollen zum Einbau von Vorrichtungen gezwungen werden, die ihrer physischen und finanziellen Gesundheit abträglich sind. Sie sollen Hypotheken aufnehmen müssen und dadurch abhängig werden vom staatlichen Papiergeldsystem. Darum geht es wohl im Kern bei dem im Europa-Parlament zur Abstimmung anstehenden Energieeffizienzplan der EU-Kommission, der im Wesentlichen in Berlin ausgedacht wurde. Als Hebel für dessen Umsetzung kommt eine Verschärfung der Anforderungen für den beim Immobilien-Verkauf obligatorischen Energieausweis in Frage. Die Deutschen werden bald gewahr werden, dass „Klimaschutz“ dem Versuch einer Enteignung durch die Hintertür gleichkommt.

Edgar Gärtner; EIKE; zuerst erschienen bei eigentümlich frei

Links:

Prof. Dipl.Ing. Jens Fehrenberg (Hildesheim)

Konrad Fischer aus Hochstadt am Obermain

Die Welt: Mieter drohen durch EU-Plan hohe Mehrkosten

Der Spiegel: Gebäudesanierung: Gut fürs Klima, schlecht fürs Portemonnaie

FAZ: Gebäudesanierung: Klimaschutz mit Schlagseite

FAZ: Altbausanierung: Abstumpfung mit Styroporplatten

FAZ: Frankfurt dämmt sogar ein Krematorium

Die Welt: Sanierte Häuser massenhaft von Algen befallen

FOCUS: Energetische Sanierung: Der grüne Schrecken




Ruß, Staub und die Gletscher-Schmelze: Freispruch für CO2?

Neuerdings wird außerdem klar [3]: "Rußpartikel … verstärken auch deutlich die Klimaerwärmung. In der Arktis sind die Rußpartikel für fast die Hälfte der bedrohlichen Eisschmelze verantwortlich".

Das ist keine neue Erkenntnis, denn sowohl die Arktis- als auch die Gletscher-Schmelze ist ohne Ruß nicht zu erklären, wie Glaziologen [4] schon lange wissen: "Unsere Erklärung lautet: Die Luftverschmutzung war früher geringer … der Ruß ist für die Hälfte der Gletscher-Schmelze verantwortlich."

Physikalisch ist das so zu erklären: Schnee und Eis, folglich auch Gletscher haben ein hohes Reflektions-Vermögen für Sonnen-Strahlung. Werden die Oberflächen verschmutzt, z.B. durch Staub und Ruß, so verringert sich der Anteil der reflektierten Strahlung. Es wird dann mehr Strahlung absorbiert und in Wärme umgewandelt.

Gegenbeispiel: dort, wo die Luftverschmutzung geringer ist, dort wachsen auch heutzutage die Gletscher sogar weiter an [5], trotz Erderwärmung: "… auf Neuseeland wachsen die Gletscher sogar kräftig an… Die Entwicklung der Gletscher auf  Neuseeland zeigt eindrucksvoll, daß es kein "globales" Verhalten der Gletscher gibt…"!

Schon aus meteorologischen Gründen ist es völlig unsinnig, eine Klima-Erwärmung von 0,7°C als einzigen Grund für die Arktis-  und Gletscher-Schmelze verantwortlich zu machen: Durch eine solche Erwärmung steigt die mittlere Frostgrenze ("Null-Grad-Grenze") in der Atmosphäre um lediglich 100 Meter an. Für ein Schmelzen höher liegende Gletscher- und Pol-Regionen muß es also andere Gründe geben  – z.B. die Luftverschmutzung sowie natürliche Veränderungen der Sonnen-Einstrahlung.

Zum Abschmelzen der Alpen-Gletscher sagen die Glaziologen aus Österreich [6]: "Zu Beginn des Millenniums (9.-12. Jh.) waren die Alpengletscher ähnlich klein, evtl. noch kleiner als heute."

Die gleiche Meinung vertritt z.B. auch Prof. Jörg Negendank vom GFZ Potsdam  [7]: "In der Römerzeit muss zumindest im Alpenraum ein wärmeres Klima als heute geherrscht haben, da der große Aletsch-Gletscher weiter zurückgezogen war" . 

Folglich: Nachhaltiger menschlicher Einträge in die Atmosphäre wie z.B. von CO2 und Ruß bedarf es gar nicht, um solche Veränderungen herbei zu führen. Die Natur führt es auch alleine vor, früher wie heute. 

CO2 ist für die Klima-Erwärmung eine Marginalie, was neuere Berechnungen  [8]  mehr und mehr zeigen: "Die sog. Klima-Sensivität des CO2, also die Erhöhung der mittleren Globaltemperatur infolge Verdoppelung der CO2-Konzentration, beträgt grob 1°C. Da diese Verdoppelung ungefähr dem Verbrennen aller der Menschheit noch zugänglichen fossilen Brennstoffe gleichgesetzt werden kann, ist der Wert von 1°C unbedenklich und bietet keinen Anlaß zu Katastrophen-Warnungen." Die spektakulären Werte des Klimarates (IPCC) von 3…5 °C und mehr werden in den Computer-Szenarien durch so genannte "positive Rückkoppelungs-Effekte" erzielt. Diese sind hoch umstritten und durch nichts bewiesen. 

Unter Berücksichtigung all dieser Fakten sollten wir uns in unseren Maßnahmen folglich mehr auf den Umweltschutz konzentrieren, als Milliarden teuere Methoden für die Vermeidung oder gar die gefährliche Verpressung  von CO2 (CCS) zu entwickeln. Dazu sagt der frühere Direktor des Meteorologischen Instituts FU Berlin  [9]: "Es wird höchste Zeit, den Umweltschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes weltweit in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Wie ideologisch vermessen muss man sein, um der Natur ein "2-Grad-Ziel“ vorzugeben."

In dem Zusammenhang ist es interessant, daß die Arktis-Schmelze seit 2007 nicht mehr zugenommen hat, sondern daß es stattdessen in den  Jahren 2008-2010 zur Zeit des spätsommerlichen Minimums wieder mehr Eis gegeben hat (vgl. Abbildung). Da wirkt es schon sehr alarmistisch, wenn in den Jahren davor einige "Experten" stets von einem unumkehrbaren "Kipp-Punkt" der Arktis-Schmelze fabulierten. Neuerdings gibt es Hinweise, daß derartige Spekulationen über allerlei "mensch-gemachte Klima-Kipp-Punkte" dahin kommen, wo sie hingehören: In den Papierkorb der Wissenschaft. Denn –  das Max-Planck-Institut in Hamburg  [10] hat eine Studie zur Arktis publiziert: "Der starke Rückgang des Meereises in der Arktis ließ in den letzten Jahren die Sorge aufkommen, dass die Eisbedeckung sich einem sogenannten Kipp-Punkt nähern könnte…… Aktuelle Forschungsergebnisse …. deuten jetzt jedoch darauf hin, dass es keinen solchen Kipp-Punkt für den Verlust des Sommereises in der Arktis gibt. Stattdessen reagiert die Eisbedeckung relativ direkt auf die jeweiligen klimatischen Bedingungen…."

Dieses alles wird die Katastrophen-Auguren nicht hindern, beim nächsten sommerlichen Eis-Minimum erneut die Apokalypse zu verkünden.

Veröffentlichung hier:

Mit freundlicher Genehmigung der SUT Verlags GmbH, 53757 St. Augustin

Klaus-Eckart Puls; Dipl.-Meteorologe, (EIKE) 

Quellen:

[1] SCHIFFAHRT+HAFEN…, Nr. 8 (2008), S.13

[2] H. Malberg, Langfristiger Klimawandel, Beitr. Berliner Wetterkarte, SO 29/09, 15.09.2009

[3]   DVZ Brief-Express, 14. Juni 2011, Hamburg

[4]   DER SPIEGEL, 52/2009, S.125

[5]   S.Winkler, Univ. Würzburg, 02.05.2007,  http://idw-online.de/pages/de/news206835

[6]   Österreichisches Klima im letzten Millennium, http://www.pisch.at/ernst/wissen/Dorfbuch/node164.html

[7]  Die Geschichte des Klimas aus geobiowissenschaftlichen Archiven", in: Klima im Wandel,

        UWV/BTU Cottbus, Eigenverlag, 2001, S.32-38

[8] H.-J. Lüdecke, CO2 und Klimaschutz, BOUVIER (2010), S.101 ff

[9]  H. Malberg, Über scheinbare und tatsächliche Klima-Erwärmung seit 1850, Beitr. Berliner Wetterkarte,

       SO 26/10, 28.09.2010

[10]  MPI f. Meteorologie HH, Presse-Mitteilung, 4. Februar 2011, "Hoffnung für das Arktische Meereis";

         


Related Files