1

Teil 5: Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen

Teil 5 – Die variable Sonne

Wie bereits dargelegt, ist die magnetische Aktivität der Sonne proportional zur solaren Aktivität und damit zu der Leistungsabgabe, die die Sonne in das Weltall abgibt. So kann es nicht verwundern, dass die globalen Temperaturen auf der Erde, mit der magnetischen Sonnenaktivität einhergehen. Der übergeordnete magn. Sonnenzyklus, der sich direkten Beobachtungen, wie z.B. der Sonnenflecken entzieht, ist der bereits genannte de Vries/Suess-Zyklus, der sich anhand radioaktiver Isotope aus 14C rekonstruieren lässt.

 

Abbildung 113 (Quelle: Max-Planck-Institut für Aeronomie Katlenburg-Lindau) zeigt die aus Baumringen gewonnenen 14C-Daten. Je geringer die Sonnenaktivität, desto höher ist die kosmische Strahlung, die den Isotopengehalt bestimmt (Svensmark). Die kleine Abbildung zeigt die Sonnenfleckenzahlen der letzten 400 Jahre. Während diese keine direkten Übereinstimmungen mit den Min. und Max. des 14C zeigt, lässt sich darin eine eigene Periodizität von ca. 200 Jahren erkennen (blaue Linien). Diese Periodizität wird dem im Mittel 208-jährigen de Vries/Suess-Zyklus der Sonne zugeordnet, der zu Beginn des 21.Jahrhunderts, als die Erdtemperaturen ihr Maximum erreichten, sein Aktivitätsmaximum (in 2002/2003) hatte. Die Sonne also ungewöhnlich aktiv war.

 

Abbildung 114 (Quelle: http://bobtisdale.blogspot.com/…) zeigt die PMOD-TSI-Kurve von 1900 – 2007 (blau, vor 1980 rekonstruiert) und in rot die Satelliten-ACRIM-TSI-Kurve. Deutlich ist erkennbar, dass die solare Aktivität zum ausgehenden 20. Jahrhundert deutlich ansteigt und ihr Maximum erreicht. Dies wird noch mehr in der Abbildung rechts deutlich, wird jeweils der polynomische Trend angelegt. Anzumerken ist noch, dass der 23. Zyklus aufgrund der anderen Messcharakteristik von ACRIM III gegenüber ACRIM I im Vergleich zu seinen beiden Vorgängerzyklen gedämpft ist, also, würde auf ACRIM I normiert, nochmals höher ausfiele.

Die von Satelliten direkt gemessene solare Stärke im Schwabe-Zyklus zeigt, dass zu Beginn des 21. Jahrhunderts das solare Aktivitätsmaximum liegt. Da die magnetische Feldstärke nach folgender Formel in direkter Abhängigkeit zum Strom steht und damit das Interplanetarische Magnetfeld von der Stärke der HCS abhängt, liegt es nahe, die HCS als weiteren Beleg für das solare Maximum zu Beginn des 21. Jahrhunderts heran zu ziehen.

                                   

Die magnetische Feldstärke in Tesla (rechts für Vakuum, µr = 1) ist direkt proportional zu dem inneliegenden Strom (µ0 ist die magnetische Feldkonstante, eine Naturkonstante).

Die folgende Abbildung, die sehr den Sonnenaktivitätszyklen im Schwabe-Zyklus gleicht, zeigt das HCS im Zeitraum von 1976 – 2009. Berechnet wird die Kurve aus den Datenreihen:

des Sonnenpolarfeldes
des zonalen magnetischen Flusses über drei Sonnenzyklen und
der solaren Dipolkomponenten, Quelle: (http://wso.stanford.edu/)

Der daraus ermittelte zeitabhängige Wert trägt den Namen “HCS Tilt Angle“ (folgende Abbildung).

 

Abbildung 115 (Quelle: ”Analysis of the heliospheric current sheet at Earth’s orbit and model comparisons”, Lepping, R. P.; Szabo, A.; Peredo, M.; Hoeksema, T., NASA Goddard Space Flight Center, International Solar Wind 8 Conference, p. 95, http://wso.stanford.edu/gifs/Tilts.gif) zeigt die Lage der Heliosphärischen Stromschicht der Sonne (Heliospheric Current Sheet) während der Sonnenzyklen 21 – 23 anhand zweier Analysemethoden, wobei angegeben wird, dass die Radialdaten möglicherweise genauer sind. Dies ist möglicherweise eine falsche Einschätzung der Fachleute in Stanford, wie die folgenden Abschnitte zeigen.

Zeitgleich mit dem Maximum im de Vries/Suess-Zyklus ist im 23. Sonnenzyklus die Heliosphärische Stromschicht am stärksten – Flächenintegral ergibt den größten Wert, was mit einer andauernden starken Sonnenaktivität zusammenhängt, die einen entsprechend starken Stromfluss auslöst. Somit ist die o.g. Abbildung der Stanfort University ein unmittelbares Maß für die solare Aktivität, was sich auch bei der kosmischen Strahlung (CR) wieder findet.

 

Abbildung 116 ganz oben (Quelle: Watts up with that, 29. September 2009) zeigt den Verlauf der kosmischen Strahlung 1999 – September 2009 und als besonderes Merkmal, die Meldung der NASA, dass die kosmische Strahlung in 2009 um 19% zurückging. Die schwarz gepunktete Linie zeigt die aus den Neutronenmonitordaten von 1951 – 2005 vorhergesagte Kurve, die ganz offensichtlich falsch ist. Die Abbildung darunter ist die gespiegelte HCS im 23. Sonnenzyklus aus Abbildung 108. Beide Charts sind zeitlich zueinander ausgerichtet. Die zeitliche Breite des HCS passt sehr gut zur zeitlichen Breite der CR (Blockpfeile). Zu Beginn 2008 fällt die CR leicht ab (kleiner roter Pfeil), was sich ebenfalls bei der HCS wiederfindet und insbesondere ist der 19%-Anstieg der CR exakt im Classic PFSS Model der HCS wieder zu finden (grüne Rechtecke).

Ein weiterer Beleg für die starke Sonnenaktivität und die Richtigkeit des klassischen Models der HCS und damit der Sonnenaktivität, sind die Koronalen Massenauswürfe oder Coronal Mass Ejections (CME). Der stärkste bekannte CME ereignete sich am 01.09.1859 und wurde durch den britischen Astronom Richard Carrington beobachtet. CME´s können auf der Erde großen Schaden anrichten. Bis zu 10 Milliarden Tonnen Plasma werden ins All geschleudert und treffen mitunter die Erde. Ist die Polarisation einer solchen Plasmawolke umgekehrt zur Erdpolarisation, kommt es zur Rekonnektion (Verbindung) der Magnetfelder. Elektrische Teilchen dringen dann bis tief in die Erdatmosphäre vor und induzieren Ströme, z.B. in Leitungsnetzen.

 

Abbildung 117: CME´s (bis zu 100 Milliarden Tonnen schwere Plasmawolken) entstehen durch Rekonnektion von magnetischen Feldlinien (links). Oft geht ihnen ein Sonnenflair voraus, wie beim stärksten je beobachteten CME im Jahre 1859. Dabei werden große Mengen Plasma ins All geschleudert (Mitte). CME´s werden stets durch magnetische Wolken, die sich im interplanetarem Raum ausbreiten, begleitet (Abbildung rechts). Quelle: NASA. Die magnetische Struktur einer solchen Wolke ist kreisförmig, wie Untersuchungen des Instituts für Weltraumforschung (IWF) der Österreichischen Akademie der Wissenschaften in Graz ergaben.

Magnetische Rekonnektion

Eine magnetische Rekonnektion tritt ein, wenn verdrillte, antiparallele Magnetfeldlinien sich berühren, und sich Magnetfeldlinien mit gegensinniger Polung verbinden. Dabei entsteht in einer dünnen Grenzschicht ein elektrischer Strom, der einen Teil der im Magnetfeld gespeicherten Energie in Wärme umsetzt. In dieser Grenzschicht kommt es zu einer gegenseitigen Löschung der entgegen gerichteten Magnetfeldlinien, wobei sich die Magnetfeldlinien in der Stromschicht verbinden und neu ordnen. Dass in diesen Magnetfeldlinien gefangene elektrisch leitende Plasma entfernt sich schnell vom Ort der Rekonnektion und wird in beide Richtungen aus der Grenzschicht beschleunigt.

 

Abbildung 118: In einer Grenzschicht kommt es zwischen zwei antiparallelen Magnetfeldern zu einer gegenseitigen Löschung der Magnetfeldlinien. Magnetfeldlinien bilden sich dabei neu und vereinen die vorher getrennten Magnetfelder, wobei in die Grenzschicht benachbarte Magnetfeldlinien und Plasma nachdringen. Die abgetrennten Magnetfeldbündel, mit dem eingeschlossenen Plasma, dass sich spiralförmig um die Magnetfeldlinien bewegt (links oben), entfernen sich dabei schnell vom Ort der Rekonnektion (links). Die sich neu verbindenden Feldlinien bewirken eine Kraftkomponente entlang der Grenzschicht, die das Plasma beschleunigt (rechts). Die roten Pfeile geben die Plasmageschwindigkeit sowohl des ausgestoßenen Plasma, als auch des nachfließenden Plasma wieder. Die im Magnetfeld gespeicherte Energie wird dabei in thermische Energie des Plasma und Beschleunigung der Teilchen umgesetzt.

 

Abbildung 119: Auf der Sonne wird das ionisierte Plasma entlang der Magnetfeldlinien gefangen, wobei die Plasmateilchen auf Spiralbahnen relativ frei um die magnetischen Feldlinien kreisen (Abbildung Mitte). Durch die Hitze der Sonnenoberfläche sind die Fußpunkte der Magnetfelder, z.B. Sonnenflecken, in ständiger Bewegung. Bewegen sich nun Felder aufeinander zu, so wird das darin gebundene Plasma abgebremst, bis sich deren Bewegung an den Fußpunkten umkehrt. Die Teilchen werden hin und her reflektiert, wodurch sich das Plasma weiter erhitzt und es zu einer Eruption kommt, wenn sich die Magnetfelder neu ordnen.

 

Abbildung 119b: Werden Magnetfeldbögen durch konvergierende Magnetfeldlinien und nachfließendes Plasma zusammengedrückt, kann es zu einer großräumigen Rekonnektion und Eruption (z.B. Flare) kommen, wodurch anschließend schraubenförmige Magnetfeldlinien über den neu gebildeten Magnetfeldlinien schweben. Durch magnetische Kräfte kann sich dieses Plasma lösen und einen koronalen Massenauswurf auslösen. Die rechte Abbildung (NASA) zeigt, wie Bögen gerade abgeschnürt werden und sich eine Spitze ausbildet.

 

Abbildung 120: Eine magnetische Wolke kann man sich als Verdichtung des interplanetaren magnetischen Feldes vorstellen, die sich darin bewegt. Wie in der Abbildung links (Quelle: IWF Graz) zu sehen, breitet sie sich ellipsenförmig aus, wobei ihr Querschnitt kreisförmig ist. In der Wolke rotierenden die magnetischen und elektrischen Felder um die Längsachse des Torus. Die Polarität in der Wolke ist einem ständigen Wechsel unterzogen. Trifft sie auf das Magnetfeld der Erde, sind die Auswirkungen auf die Magnetos- und Atmosphäre am größten, wenn die Polarität der Wolke zur Erde negativ ist.

Magnetische Wolken sind die Kerne von CME´s, die sich im Sonnenwind ausbreiten, wobei die Elektronenfront der Ionenpartikel vorauseilt. Die CME-Ausbreitungsgeschwindigkeit kann Werte von bis zu 2.000 km/s erreichen (die der Elektronen, nahe Lichtgeschwindigkeit), wogegen der Sonnenwind, der aus aktiven Regionen stammt, lediglich Werte von 250 – 400 km/s erreicht.

 

Abbildung 121 links zeigt die Elektronenfront, die einem CME-Ereignis vorauseilt und die Abbildung rechts, das Eintreffen des ionisierten Plasmas auf die Erde, ca. 10 Minuten später, Quelle: NASA. Beide geladenen Teilchenarten folgen dem Verlauf der solaren Magnetfeldlinien. Solche Zusammenhänge werden zur besseren Vorhersage von Sonnenstürmen genutzt, um sensible, bzw. gefährdete elektrische Einrichtungen auf der Erde dann schützen, bzw. abschalten zu können, bevor das Ereignis diese direkt trifft.

Trifft ein CME auf das Magnetfeld der Erde, werden gewaltige Energiemengen feigesetzt, die sich optisch in Polarlichtern zeigen. Ein einziger Polarsturm setzt dabei bis zu 200 GW Leistung um, was der Leistung von etwa 80 Kernreaktoren entspricht. Aufgrund der erhöhten Elektronendichte in der Ionosphäre kommt es zu Störungen in der Rundfunkübertragung. Die durch die Ionenfront in der Atmosphäre ausgelösten Ströme sind so stark, dass die durch sie in Leitungsnetzen induzierten Ströme, Netze, wie Trafo- oder Relaisstationen zerstören. 1859 wurden durch die Ionenfront gar Brände in Schweden und den USA ausgelöst. In einigen europäischen Städten soll der Himmel die ganze Nacht über so hell gewesen sein, dass man auf der Straße Zeitung lesen konnte. Auf welchen solaren Ereignissen CME´s beruhen und welche physikalischen Gesetze hinter ihnen stehen, wusste die Wissenschaft indes 1859 noch nicht.

 

Abbildung 122: Ein koronaler Massenauswurf trifft auf das Magnetfeld der Erde (links). Das Erdmagnetfeld wird auf der sonnenzugewandten Seite stark zusammengedrückt und auf der Nachtseite stark gedehnt und aufgerissen. Durch die Rekonnektion des Erdmagnetfeldes und der magnetischen Wolke dringen geladene Partikel bis in tiefe Schichten der Erdatmosphäre und verursachen auch in tieferen Breiten Polarlichter (rechts).

Das Auftreten koronaler Massenauswürfe ist eng mit der Sonnenaktivität verbunden und an diese gekoppelt. Während im Minimum zum Anstieg des letzten Sonnenzyklus im Jahr 1996 lediglich 202 Ereignisse beobachtet wurden, stieg deren Anzahl im Maximum in den Jahren 2000, 2001 und 2002 auf 1547, 1417 und 1625 Ereignisse an. Während in den Jahren 2003 (1106 Ereignisse) und 2004 (1060 Ereignisse) ihr Auftreten zurückging, zog die Anzahl der CME in 2005 unverhofft wieder auf 1185 Ereignisse an, obwohl der Schwabe-Zyklus bereits fast sein Minimum erreicht hatte. Dies veranlasste den NASA-Sonnenforscher David Hathaway zu seiner Aussage „Das solare Minimum explodiert. Das solare Minimum sieht seltsamerweise aus, wie ein solares Maximum.“ Seitdem ging die Zahl der CME deutlich zurück. Der Rückgang wurde erst mit Beginn des 24. Sonnenzyklus in 2009 gestoppt. Datenquelle: Solar Cycle Variation of Real CME Latitudes, Wenbin Song et al., The Astrophysical Journal, 667: L101–L104, 20. September 2007.

 

Abbildung 123a: Da CME erst 1971 durch Wissenschaftler der Space Science Division (SSD) entdeckt wurden und sich in der Gesamtheit nur aus dem Weltraum beobachten lassen, liegen kontinuierliche Daten erst für den 23. Sonnenzyklus vor. Abbildung 117 zeigt die Stärke der CME (Total CME mass) von 1996 – 2010 (Quelle: Astrophysical Journal vom 16. November 2010) im Zeitraum von 1996 – 2010. Die Daten stammen von LASCO (Large Angle Spectrometric Coronagraph).

 

Abbildung 123b: Wird die schwarze Linie der HCS (Abbildung links oben) mit dem tatsächlichen Auftreten der CME verglichen, ist festzustellen, dass beide weitgehend übereinstimmen, so dass bewiesen ist, dass die Fachleute von Stanford in ihrer Einschätzung falsch liegen. Weiter zeigen beide Abbildungen, dass diese die tatsächliche Sonnenaktivität wahrheitsgetreuer wiedergeben, als dies die Anzahl der Sonnenflecken vermag (Abbildung links unten), die nicht mit der tatsächlichen Sonnenaktivität übereinstimmt.

Ein weiterer Parameter, der die Sonnenaktivität genauer abbildet, als es die Anzahl der Sonnenflecken vermag ist die Röntgenaktivität der Sonne.

 

Abbildung 124: zeigt die solare Röntgenaktivität im Messbereich von 1 – 8Å (0,1 – 0,8 nm) im Zeitraum von Januar 1994 – Jan 2010, Quelle: (http://prop.hfradio.org/). Sie stimmt sowohl mit der HCS, als auch mit der CME überein. Außerdem zeichnen sich Beginn und Ende eines Sonnenzyklus viel schärfer ab. Wie die Abbildung weiter zeigt, begann die Aktivität im 24. Sonnenzyklus erst gegen Ende 2009 (September).

Dass, was wir als dynamische Energieabgabe der Sonne erleben, stammt aus magnetischen Prozessen, die in der Konvektionszone der Sonne entstehen. Daher macht es wenig Sinn, Sonnenflecken, die lediglich einen optischen Eindruck vermitteln und aus der Frühzeit der Sonnenbeobachtung stammen, als Aussage der Sonnenaktivität heranzuziehen, wenn die solare magnetische Aktivität unmittelbar gemessen werden kann.

Das Gleiche gilt auch für die Helligkeit der Sonne. Solche Untersuchungen, wie sie von Henk Spruit vom Max Planck Institut für Astrophysik in Garching vorgenommen wurden und von Laien wie Prof. Rahmstorf als Argument für eine rückläufige solare Aktivität der letzten Jahrzehnte verwendet werden, sind denn auch lediglich als populärwissenschaftlich einzustufen, wie der bereits erwähnte Bericht des MPS (“SUNRISE enthüllt magnetische Grundbausteine der Sonne“) bestätigen.

Sonnenflecken als Aktivitätsparameter stammen denn auch aus einer Zeit, als keine anderen Beobachtungen möglich waren. Der TSI ist als Maßstab der solaren Aktivität ungeeignet, weil nur ein kleiner Energiebereich (200 – 2.000 nm) der Sonne aufgezeichnet wird. Insofern bilden HCS, CME und Röntgenaktivität die exakteren Parameter der solaren Aktivität. Dies belegt auch die folgende Abbildung.

 

Abbildung 125: (Quelle: “Relationship between Solar Wind and Coronal Heating: Scaling Laws from Solar X-Rays”, The Astrophysical Journal, 642:1173-1176, 10. Mai 2006) zeigt unten das variable Magnetfeld der Sonne, unterteilt aus sog. aktiven und ruhigen Regionen im Zeitraum von 1985 – 2004. Dabei fällt auf, dass das Minima zwischen 22. und 23. Sonnenzyklus gegenüber dem vorherigen angehoben ist, was darauf hindeutet, dass die Sonne zum ausgehenden 20. Jahrhundert besonders aktiv ist, der 23. Zyklus deutlich schneller ansteigt, ein breiteres Maximum aufweist und  die „ruhigen Regionen“ mehr Aktivität zeigen. All dies spricht bereits für einen stärkeren Zyklus 23, als dieser im TSI, z.B. von der PMOD wiedergegeben wird. In der Abbildung darüber ist zur gesamten solaren magnetischen Aktivität (schwarz), die Röntgenaktivität (blau) aufgetragen. Röntgenaktivität und magnetische Aktivität stimmen im Verlauf überein.

Das gleiche Bild der Sonnenaktivität zeichnen Wilson & Hathaway in ihrer Arbeit “On the Relationship Between Solar Wind Speed, Geomagnetic Activity, and the Solar Cycle Using Annual Values”, NASA (Marshall Space Flight Center). Dort ist die folgende Abbildung des geomagnetischen aa-Index abgebildet.

Der aa-Index ist der am längsten gemessene geomagnetische Index und wird aus Werten von zwei Stationen, je eine in England (Greenwich) und in Australien (Adelaide), gebildet. Durch das Zusammentreffen von Sonnen- und Erdmagnetfeld kommt es zu Neuverbindungen der Magnetfeldlinien, wodurch Energie und geladene Teilchen in die Geomagnetsphäre eindringen. Die eindringenden Partikel des Sonnenwindes führen zu Störungen im Geomagnetfeld, welche über den aa-Index erfasst werden. Die Störungen im Geomagnetfeld sind dabei äquivalent zur Stärke des interplanetaren Magnetfeldes, also dem Sonnenwind. Der aa-Index wurde zwischenzeitlich durch den IHV-Index (Inter-Hour Variability-Index) ersetzt.

 

Abbildung 126 oben zeigt den aa-Index von 1868 – 2006. Die blauen Balken geben das Sonnenminimum der Sonnenzyklen an. Deutlich ist zu sehen, dass die geomagnetische Aktivität ab 1900 zunimmt und ihr Maximum im 23. Schwabe-Zyklus um 2003 hat. Die Abbildung darunter zeigt den geomagnetischen aa-Index in Verbindung der Sonnenfleckenzahl R für die Jahre 1868 – 2006. Die blauen Balken zeigen das jeweilige solare Minimum und die roten Balken das jeweilige solare Maximum. Auch hier ist ab 1900 eine deutliche Steigerung der Sonnenaktivität zu verzeichnen und im 23. Schwabe-Zyklus um 2003 die Sonnenaktivität am höchsten.

Im ihrem Bericht weisen Wilson & Hathaway darauf hin, dass die magnetische Aktivität jeweils nach dem Zyklusmaximum, wie es anhand der Fleckentätigkeit ermittelt wird, ihr Maximum erreicht. Ausnahme Zyklus 11 – 13. Eine Erklärung dafür geben die Autoren nicht an, so dass diese hier gegeben wird. Bis 1900 (13. Zyklus) fiel der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus. Seit dem Jahr 1900 hatte er sein Minimum verlassen und stieg wieder an, bis er um das Jahr 2003 sein Maximum erreichte (in der Literatur wird teilweise auch das Jahr 2002 angegeben). D.h. im Anstieg des Hauptsonnenzyklus ist die magnetische Aktivität nach dem Fleckenmaximum und im Abstieg vorzugsweise vor dem Fleckenmaximum.

 

Abbildung 127: Nebenstehend noch die Relation des aa-Index zum Sonnenflecken-Index R, der die Beziehung aaR ergibt. Eine solche Korrektur (aa – aaR) wird gewählt, um beide Beziehungen in Relation zu bringen und dadurch eine reellere Aussage über die solare Aktivität zu erzielen.

Dass Stanford mit seiner Einschätzung zur HCS falsch liegt und die HCS und damit die solare Aktivität höher lag, als in den voran gegangenen Sonnenzyklen, bestätigen weiter die Messungen der Sonnensonde Ulysses, wie die folgende Abbildung zeigt.

 

Abbildung 128: (Quelle: Prof. Balogh, Prof. Lanzerotti, Dr. Suess, “The Heliosphere through the Solar Activity Cycle”) zeigt die HCS nach dem klassischen Modell (rot) und dazu die gemessenen Werte beim Durchgang von Ulysses durch die HCS (blaue Rechtecke). Nach der Jahrtausendwende war die gemessene solare Aktivität nochmals höher, wie sie im klassischen Modell ausgewiesen wird.

Zu der direkt gemessenen Sonnenaktivität durch Satelliten, die den 23. Sonnenzyklus als den stärksten im Betrachtungszeitraum ausweisen und damit die verstärkte solare Aktivität im Hauptsonnenzyklus in 2003 bestätigen, untermauert die folgende Abbildung.

 

Abbildung 129: (Quelle: “Die aktuelle Wärmeperiode endet“, Dr. Borchert) zeigt Anzahl und Stärke der Sonnenflares, die mit solaren Eruptionen einhergehen. Während die zeitliche Häufung gestreckt ist, nimmt der absolute Wert zu und erreicht in 2003, dem Maximum im de Vries/Suess-Zyklus, ebenfalls Maximum. Die schwarze Gerade zeigt deren Anstieg, wogegen die Sonnenfleckenzahl ein falsches Bild der solaren Aktivität wiedergibt. Die blauen Kreise zeigen besonders starke Flares, die sich überwiegend im 23. Zyklus häufen.

Alle gezeigten Untersuchungen und Messungen belegen, dass die solare Aktivität im 23. Sonnenzyklus die höchste der vergangenen Jahrzehnte war, bis 2002/2003 ihr Maximum erreichte und die Sonnenaktivität parallel, auch für die letzten 30 und mehr Jahre, zur Temperaturentwicklung verläuft und nicht von dieser abgekoppelt ist. Dass die Sonnenfleckenzahl mitunter ein falsches Bild der Sonnenaktivität, insbesondere für Vergleiche abgibt, zeigen ebenfalls die folgenden Abbildungen.

 

Abbildung 130 links zeigt die Sonnenfleckenzahl (gepunktete Linie) und im Vergleich der Temperaturverlauf vom 1856 – 2000. Während bis ca. 1980 Temperatur und Sonnenfleckenzahl parallel verlaufen, beginnen sich ab ca. 1980 die Temperaturen zu entkoppeln, was nach der Theorie des Treibhauseffektes dem vermehrten Eintrag von sog. Treibhausgasen zugeschrieben wird, was, wie gesehen, blanker Unsinn ist. Die Abbildung rechts zeigt dagegen den ak-Index der geomagnetischen Aktivität, der die Einflüsse der solaren magnetischen Aktivität wieder gibt. Temperatur und Sonnenaktivität laufen synchron, Quelle: Georgieva et al. “Once again about global warming and solar activity“, Journal of the Italian Astronomical Society, Vol. 76, 969.

Die starke Sonnenaktivität zum ausgehenden 20. Jahrhundert, zeigt die Arbeit von Russell und T. Mulligan (Institute of Geophysics and Planetary Physics, University of California) “The 22-year Variation of Geomagnetic Activity: Implications for the Polar Magnetic Field of the Sun”, Geophysical Research Letters, 22, 3287-3288, 1995. Dort ist die folgende Abbildung zu sehen.

 

Abbildung 131 zeigt den geomagnetischen aa-Index von 1850 – 1990. Zu Beginn des 20. Jahrhunderts beginnt die magnetische Aktivität der Sonne wieder anzusteigen (grüne Trendlinie) und erreicht zum ausgehenden 20. Jahrhundert ihren Höhepunkt. Dabei steigt der aa-Index um 100% (blaue waagerechte Linien), was Rückschlüsse auf den starken Anstieg der solaren Aktivität zulässt. Der Anstieg verläuft synchron zum Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus.

Zum Abschluss des Kapitels ein Vergleich, wie genau die unterschiedlichen solaren Parameter mit das Interplanetarische Magnetfeld und damit den Part, der die Erde trifft, wiedergeben.

 

Abbildung 132a) zeigt die reziproke kosmische Strahlung (CR) und dazu die Anzahl der Sonnenflecken für die Sonnenzyklen 21-23 und dazu den Korrelationsfaktor.

Abbildung 132b) zeigt die reziproke CR und die radiale Komponente der IMF. Wie zu erwarten, ist der Korrelations-faktor deutlich niedriger.

In der Abbildung 132c) ist dagegen die reziproke CR zum Nonaxi-symmetric Open Flux dargestellt. Wie bereits der Kurvenverlauf zeigt, stimmen beide sehr gut miteinander überein. Der Korrelationsfaktor liegt denn bei hohen 0,86, Quelle: Wang et al., “Role of the Sun’s Nonaxisymmetric Open Flux in Cosmic-Ray Modulation“, The Astrophysical Journal, 644:638-645, 10. Juni 2006.

Die reale Aktivität der Sonne zeichnet sich nicht in der Sonnenfleckenzahl, sondern in ihrer magnetischen Aktivität ab.

Die Untersuchungen zeigen, dass die unmittelbare magnetische Aktivität der solare Parameter ist, der die Sonnenaktivität am genauesten wieder gibt und damit für die Energieabgabe der Sonne und damit auf unser Wetter/Klima am geeignetsten. Weiter konnte gezeigt werden, dass entgegen diverser Aussagen wie dem PIK (Rahmstorf), die solare Aktivität hätte seit 60 Jahren nicht mehr zugenommen falsch sind. Vielmehr nahm diese bis zur Jahrtausendwende, parallel zum Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus zu. Seitdem fallen die Temperaturen und werden dies für die nächsten Jahrzehnte auch weiterhin tun, wovon nicht nur die NASA ausgeht.

Raimund Leistenschneider – EIKE

Teil 6 in Kürze

Übersicht über alle Teile:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4a – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 4b – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen




Der lange Weg zur grünen Sklaverei

Lassen Sie uns die Größenordnung der Merkel’schen Entscheidung klar machen! Die bewusste Verbannung der größten Quelle kosteneffizienter, verlässlicher und sauberer Energie in der größten Volkswirtschaft Europas ist nichts weniger als atemberaubend. Erst 2008 hat Merkel erklärt, dass der damals vorgeschlagene allmähliche Atomausstieg ‚absolut falsch’ war. Wie wurde sie nun in die Ecke bugsiert, um eine solche ökonomische und die Umwelt betreffende regressive Entscheidung zu treffen?

Die Antwort ist natürlich nicht eine Damaszener Konversion zu erneuerbarer Energie, sondern sie liegt in der modernen politischen Dynamik, die es kleinen Parteien erlaubt, einen unverhältnismäßigen Einfluss auf nationale politische Schlüsselmaßnahmen auszuüben. Merkel weiß sehr wohl, dass die Kernenergie das billigste Mittel zur Erzeugung verlässlicher, sauberer Energie ist, aber sie versteht auch, dass ihre Partei grüne Stimmen braucht, um an der Macht zu bleiben. Ihre Kapitulation vor der Kernenergie ist ein gefährlicher Schritt auf der Straße zur grünen Sklaverei.

Die der ausgesprochenen Irrationalität der Partei Die Grünen geschuldete Opferung reichlich vorhandener Energie mit niedrigen Kosten sollte eine Warnung sein. Ein Industrieunfall in Japan – am Kernkraftwerk Fukushima – ohne direkte Opfer resultiert nun in höheren Energiekosten für die deutsche Industrie und für die Verbraucher, die die zusätzlichen Ausgaben nur schwer verkraften. Der Versuch, dass durch die Verbannung der Kernenergie entstandene Loch zu stopfen, erfordert die Bepflasterung weiter Teile der Landschaft in Deutschland mit ressourcenhungrigen Windfarmen und, ironischerweise, einer ganzen Reihe neuer Kohlekraftwerke. Nur in der verdrehten Welt zeitweiligen grünen Mainstream-Denkens kann dies als ein Erfolg gesehen werden.

Umweltspezialisten wie Mark Lynas haben erst vor Kurzem entdeckt, dass grüne Politik wenig offen sein kann und oftmals voller Desinformationen steckt. Nach seinen eigenen Tatsachenfeststellungen haben sich Lynas und Andere schockiert darüber geäußert, dass schon lange erhobene Behauptungen der Grünen zur Kernenergie tatsächlich nachweislich falsch sind. In die gleiche Richtung geht der Umweltaktivist Stewart Brand, der sich Dinge wie die Genmanipulation (GM) in der Landwirtschaft genauer angesehen hat, um die Ernteerträge zu verbessern. Durch die gewaltsame Zerstörung von Versuchsfeldern haben Mainstream-Grüne die öffentlich geförderte Forschung hierzu gestoppt, die patentfreie GM-Technologie den Entwicklungsländern zur Verfügung gestellt hätte. In diesem Falle sind die grünen Sklaven ultimativ die Armen, noch mehr als die Deutschen Stromverbraucher.

Diese Umwelterleuchteten deuten auf eine weitergehende Erkenntnis hin, dass grün sein nicht unbedingt bedeutet, für die Umwelt zu sein, wie man in Deutschland sieht, oder die Armen dieser Welt aus einer für die Ernährung ausreichenden Landwirtschaft herausholt. Es scheint, dass Lynas und Andere erkannt haben, dass reiner Umweltaktivismus nicht ein größeres Publikum erreicht, und dass technische Innovation wohl der einzige und effektivste Weg ist, menschliche Bedürfnisse von der Umwelt abzukoppeln. Und wenn man das macht, können sowohl die Menschen als auch die natürliche Umwelt davon profitieren.

Diese Abkoppelung kann man in den sogenannten ökologischen Kuznet-Kurven erkennen, die der russisch-amerikanische Ökonom Simon Kuznets für Ungleichheiten bei der Entwicklung erdacht hat. Der Gedanke hinter diesen Kurven ist, dass Gesellschaften, die sich industrialisieren, auch verschmutzen. Aber dann, wenn der Wohlstand zunimmt, können sie es sich leisten, in die Entwicklung und Anwendung effizienterer und saubererer Energie zu investieren. Obwohl dies noch kontrovers ist, gibt es empirische Beweise, dass eine Anzahl dieser Verschmutzer diesem Trend folgen. Zum Beispiel folgen Daten zur Luftverschmutzung, hauptsächlich durch Auspuffgase von Fahrzeugen, einem umgekehrten U, wenn das nationale BIP pro Kopf zunimmt. Ineffiziente, technisch auf niedrigem Niveau liegende Transportmöglichkeiten werden letztendlich durch Fahrzeuge mit viel saubereren und treibstoffeffizienteren Motoren ersetzt.

Nun kann man sagen, dass die gegenwärtige Zunahme der globalen Kohlenstoffemissionen ein Zeichen dafür ist, dass wir die Spitze dieser speziellen Kuznet-Kurve noch erreichen müssen. Die Spitze zu erreichen und danach auf der anderen Seite wieder abzunehmen erfordert globalen Wohlstand, der in Energieinnovationen und Infrastruktur investiert werden kann. Gegenwärtig können wir uns die Entwicklung effizienter Technologien zur Erzeugung sauberer Energie im großen Maßstab schlicht nicht leisten, und daher verbrennen die meisten Länder eher Kohle, als Uran oder Thorium zu spalten. Das Anhalten oder gar Zurückfahren des Wachstums würde uns daran hindern, den Punkt zu erreichen, an dem wir von diesen neuen Technologien profitieren können.

Wachstum kann sowohl sozial als auch die Umwelt betreffend progressiv sein, weil es von Produktivität getrieben wird – mit weniger mehr machen. In manchen Bereichen hat dies zu einer effektiven Dematerialisation ökonomischer Aktivitäten geführt. Beispiel: während die entwickelten Länder mit endlosen Meilen Kupferdraht Kommunikations-Infrastrukturen gebildet haben, sind viele Entwicklungsländer gleich auf drahtlose Netzwerke zur Kommunikation gesprungen, wobei sie zugleich den Materialverbrauch reduziert, die Bandbreite verbessert und Kosten reduziert haben – ein Prozess, den der US-Wissenschaftler Buckminster Fuller ‚Ephemeralisation’ [?] nennt.

Im Gegensatz zu den erreichten Exzessen von Wachstum bieten viele Grüne ein Null-Wachstum an. Sie drücken es aus als eine markante Vision einer nachhaltigen Zukunft, in der die Sonne immer scheint und sich Windräder immer drehen. Für einige hat dieser Gleichgewichtszustand einen starken Anreiz, der kräftig nachhallt. Zum Beispiel, während die Wiederbelebung ökonomischer Aktivität durch Projekte wie Übergangsstädte (Transition Towns) als ein Schritt rückwärts auf der Straße hin zu einer agrarischen Lebensweise verworfen wird, glauben manche Leute, dass dadurch eine mächtige Vision einer gerechten und zufriedenen Zukunft geboten wird. Aber wie viele Aspekte grünen Denkens ist es hinsichtlich der Umwelt rückwärts gewandt, mit geringen Erträgen kleinräumiger organischer Landwirtschaft, die immer mehr naturnahe Landschaften und nicht zuletzt auch menschliche Arbeitskräfte verbraucht, die produktiver anderswo eingesetzt werden könnten.

Im Gegensatz zu dieser grünen Version einer nachhaltigen Zukunft verweisen Wachstumsoptimisten auf die Vergangenheit als Beweis für die Notwendigkeit fortgesetzten Wachstums; sie sprechen kaum einmal über die Zukunft. Starke Verbesserungen der Lebenserwartung und des Wissens seit der industriellen Revolution werden als grobe Proxies für Fortschritte bei Gesundheit und Bildung angeführt. Sie implizieren damit, dass die Fortsetzung dieser historischen Trends und deren Ausweitung auf Entwicklungsländer allein ausreichend sind, zukünftiges Wachstum zu rechtfertigen.

Aber Optimisten müssen eine schlüssige Vision einer besseren Zukunft anbieten und nicht nur auf die Vergangenheit als Indikator für Zukunftstrends verweisen. Sie müssen auch direkt einige der Beschränkungen zukünftigen Wachstums benennen. Der US-Ökonom Tyler Cowen führt aus, dass signifikante Zunahmen an Produktivität in der Vergangenheit das Ergebnis von, wie er es nannte, tief hängenden Früchten waren. Jetzt werden wir mit einer hi-tech ‚großen Stagnation‘ allein gelassen, in der das Produktivitätswachstum sich verlangsamt hat und das mittlere Einkommen gleich geblieben oder sich sogar verringert hat. Angry Birds auf dem iPhone sind, obwohl spaßig, keine Innovation, die vergleichbar sind mit Entwicklungen wie elektrisches Licht oder die Möglichkeiten der Kühlung. Beide haben die industrielle Produktivität verbessert und einen großen Einfluss auf den Lebensstandard.

Um reales Wachstum in den entwickelten Ländern wieder zu beleben, bedarf es einer signifikanten Steigerung der Produktivität, sowohl bei der Produktion als auch bei den Dienstleistungen. Dies erfordert erneuerte Investitionen in die Basiswissenschaft, mehr Risikobereitschaft und Experimentieren. Man muss die Ressourcen in die Produktion stecken und nicht nur den Verbrauch stimulieren. Zum Beispiel, das Investment der jetzigen UK-Regierung richtet sich direkt an die angewandte Forschung, welche existierendes Wissen in neue Produkte und Dienstleistungen überführen kann. Das ist gut und schön, aber es wird getan auf Kosten der Basiswissenschaft und nicht zusätzlich zu dieser Basiswissenschaft. Künftige Innovationen, die Auswirkungen ähnlich denen der Einführung des elektrischen Lichtes zeitigen, werden von glücklichen Zufallsentdeckungen kommen, einem Prozess, der weder beeinflusst noch vorhergesagt werden kann. Es ist viel besser als eine ‚große Stagnation‘, wenn man ernsthaft in Grundlagenforschung, ein steigendes Bildungsniveau und neue organisatorische Strukturen investiert, die einen Schritt zur langfristigen Änderung der Produktivität leisten können, also in eine künftige ‚große Beschleunigung‘.

Wenn die Auffassung von Wachstum und einer grünen Zukunft in den Städten eine mögliche Version der Zukunft ist, wird eine sich davon radikal unterscheidende Auffassung von dem Industriephysiker Cesare Marchetti angeboten. 1979 schrieb er in einer ironischen Niederschrift über die Misantrophie des Club of Rome einen Aufsatz mit dem Titel „Zehn vor 12: Ein Check der Kapazität der Erde für die Menschen“ (hier). Darin listet er detailliert eine Zukunft von 1000 Milliarden Seelen auf, die in gewaltigen Städten leben und weite Teile der Erde in einem unberührten Zustand belassen. Marchetti vertritt erneut die wachstumsoptimistische Ansicht, dass Ressourcen eine Funktion der menschlichen Innovationskraft sind und nicht irgendetwas von der Natur diktiertes Absolutes.

Vor noch kürzerer Zeit haben Technopropheten eine berauschende Mischung von immer und überall verfügbaren Robotern der nächsten Generation präsentiert, um die Menschen von Angst und Fron zu befreien, die für eine erhebliche Verlängerung des Lebens sorgen und sogar Transhumanismus als ein Programm anbieten, nicht nur die Produktionsmittel zu verändern, sondern klar machen, was es bedeutet Mensch zu sein. Andere, wie der Milliardär und Gründer von PayPal, Elon Musk, befinden sich auf einer Mission, eine wirkliche Wirtschaft im Weltall zum Laufen zu bringen und die unberührten Ressourcen des Sonnensystems zu erschließen. Durch solches künftige technische Können kann die Menschheit zum Retter des Planeten werden und nicht zu deren Zerstörer. Wie der Physiker Freeman Dyson anmerkt, denkende Menschen haben die inhärente Pflicht, die ‚Natur zu rekonstruieren‘, so dass ‚sowohl die Menschen als auch die Biosphäre überleben und wachsen‘.

Mit der Sicht auf eine Zukunft des Wachstums müssen wir uns in Erinnerung rufen, dass die industrielle Revolution eine Flucht aus Millenien einer malthusianischen [?] Stagnation, aus Aberglaube und Brutalität war, die den Weg der menschlichen Geschichte zum Besseren gewendet hat. Trotz all ihrer Fehler war der daraus resultierende Impuls wirtschaftlichen Wachstums nichts weniger als ein spektakulärer Erfolg. Aber wir müssen auch eine klare Vision einer Zukunft anbieten, die überzeugender ist als die grüne Nachhaltigkeit des Mainstreams, und die eine erneuerte Richtung des Weges durch die Geschichte bietet

Die größte Gefahr für die Zukunft liegt nicht in der von den Deutschen Grünen gefürchteten Kernenergie, beim Klimawandel oder anderen Kalamitäten, die das unheilvolle Bild grüner Eschatologie [?] prägen. Sondern es ist die Paralyse der Tatenlosigkeit zur Vermeidung von Risiken, gekoppelt mit einem größeren technischen Pessimismus, der uns einer kohärenten Vision einer besseren Zukunft beraubt hat. Es ist eine Sache für Optimisten, für diese bessere Zukunft zu werben, aber es muss deutlich und verständlich ausgedrückt werden in einer populären und progressiven Art und Weise. Die Alternative wäre entweder eine langfristige ökonomische Stagnation oder der lange Weg zur grünen Sklaverei. Deutschlands Beschluss zur Kernenergie sollte ein Weckruf sein!

Colin McInnes

ist Professor für Ingenieurwissenschaft an der University of Strathclyde. Man besuche seine Website, Perpetual Motion.

Den Originalartike finden Sie hier

Übersetzt von Chris Frey für EIKE




Der Charakter von Klimaänderung Teil 4 (von 4)

Die Art und Weise, wie sich der Planet erwärmt, ist überraschend. Wenn wir nur genau genug schauen, sagt er uns, wie und warum er sich erwärmt. Der Wert einer guten Theorie liegt darin, dass erklärbar wird, was wir beobachten. Es ist daher viel besser, auf die Art und Weise zu schauen, mit der der Planet sich erwärmt, wie ich es in den Teilen 1 und 2 getan habe, bevor ich ins Theoretische eingestiegen bin.

Was folgt, ist eine Analyse der Zusammenhänge von Höhepunkt zu Höhepunkt. Für die Daten verließ ich mich auf Kalnay, E. und Ko-Autoren, 1996: The NCEP/NCAR Reanalysis 40-year Project. Bull. Amer. Meteor. Soc., 77, 437-471. Link: hier.

In diesem Artikel wird Folgendes beschrieben:

  1. Die Wassertemperatur der Tropen variiert mit dem äquatorialen Luftdruck.
  2. Der äquatoriale Luftdruck variiert mit dem Sonnenwind.
  3. Hinsichtlich des anomalen Verhaltens, das sich dem jahreszeitlichen Zyklus überlagert, erwärmen sich die Hemisphären alternierend.
  4. Auf der Nordhemisphäre gibt es die größten Amplituden der Temperatur, aber zum größten Teil im Winter.
  5. Die Entwicklung der Temperatur hängt zum großen Teil davon ab, was in Antarktika passiert.
  6. Der Planet tendiert dazu, sich am stärksten zwischen den Monaten November und März zu erwärmen oder abzukühlen, wenn die Wolkenbedeckung maximal ist.
  7. Der hier beschriebene, für die Klimavariation verantwortliche Mechanismus kann die Vielfalt unserer Erfahrungen mit Klimaänderung erklären, und zwar während der letzten sechzig Jahre, und auch die kommende Abkühlung. Es ist ein Mechanismus, der es gestattet, dass sich die eine Hemisphäre erwärmt, während sich die andere abkühlt.

Die Sonne und der atmosphärische Luftdruck

Der Southern Oscillation Index (SOI) bestimmt den Verlauf des ENSO-Phänomens im Pazifik. Er basiert auf der Druckdifferenz zwischen dem Luftdruck in Darwin (Australien, 12° Süd, 131° Ost) und Tahiti (18° Süd, 150° West in Franz.-Polynesien).

Tägliche Daten des Luftdrucks für Darwin und Tahiti findet man hier.

Weil die Reihe nur kurz ist, ist das Mittel mit Vorsicht zu genießen. Es wird vermutet, dass dieses Mittel glatt wäre, wenn die Aufzeichnungen nur lang genug wären. Um eine geglättete Kurve zu erhalten, müssen die Daten von Hand angepasst werden. Diese geglättete Linie wird im Vergleich mit dem aktuellen 30-tägigen übergreifenden Mittel des Luftdrucks in Darwin dargestellt, und zwar für die Zeit von Januar 1999 bis Juli 2011. Das Ergebnis zeigt Abbildung 1.

Abbildung 1: Jahreszeitlicher Verlauf des täglichen Luftdrucks in hPa.

Eine Anomalie des Bodenluftdrucks ist eine Ableitung aus dem mittleren täglichen Wert in einem bestimmten Zeitraum. Dieser Zeitraum reicht in diesem Falle von Januar 1999 bis Juli 2011.

Abbildung 2 zeigt die Beziehung zwischen den täglichen Anomalien des Bodenluftdrucks in Darwin sowie den Dst-Index. Hierbei handelt es sich um einen Index der geomagnetischen Aktivität, der mit der Stärke des Ringstroms in der Ionosphäre korreliert.

Abbildung 2: Dst-Index und Luftdruckanomalie in Darwin

Linke Achse: Täglicher Dst-Index in Nanotesla. Quelle: hier. Man beachte, dass ein Rückgang des Dst-Index eine zunehmende geomagnetische Aktivität repräsentiert.

Rechte Achse: Anomalie des täglichen Bodenluftdrucks in Darwin in hPa.

Beachte: Die rechte Achse ist invertiert.

Es ist klar, dass der Luftdruck in Darwin von der geomagnetischen Aktivität beeinflusst wird.

Dem entsprechend wird auch der Bodenluftdruck in Antarktika durch geomagnetische Aktivität beeinflusst, wie man in Abbildung 3 erkennt. Es gibt keinen sofort verfügbaren Index des Luftdrucks in Antarktika, aber der Antarctic Oscillation Index (AAO) ist ein guter Ersatz. Er verändert sich invers zum Luftdruck am Pol.

Abbildung 3: DST-Index und -anomaly und der AAO-Index

Linke Achse: Täglicher Dst-Index in Nanotesla.

Rechte Achse: Täglicher AAO-Index. Diese Achse ist invertiert.

In Abbildung 3 erkennt man, dass der DST-Index ins Negative fällt, wenn der AAO-Index zunimmt, was auf fallenden Luftdruck in Antarktika hinweist.

Es ist offensichtlich, dass sich die Atmosphäre unter dem Einfluss geomagnetischer Aktivität von den Polen weg und hin zum Äquator bewegt [*].

[*Mir ist auch im Folgenden nicht klar geworden, was mit ‚Bewegung der Atmosphäre’ in diesem Zusammenhang gemeint ist. Der Autor ist Laie wie ich {siehe am Ende}, daher kann es sein, dass er etwas anderes meint. A. d. Übers.]

Das gleiche Phänomen wird mit dem Vergleich des AP-Index und der AAO in Abbildung 4 gezeigt.

Abbildung 4: AP-Index  geomagnetischer Aktivität und die AAO

Linke Achse: täglicher AP-Index in Nanotesla.

Rechte Achse: Täglicher AAO-Index.

Der AP-Index und der AAO-Index nehmen gemeinsam zu. Eine Zunahme des AAO-Index’ deutet auf fallenden Luftdruck am Pol hin. In manchen Zeiten scheint die Beziehung besser zu sein als in anderen. Andere Variablen, die unten beschrieben werden, beeinflussen die Reaktion der Atmosphäre auf den Sonnenwind. Insbesondere das Niveau der Solarstrahlung ist wichtig, da es die Plasmadichte innerhalb der neutralen Atmosphäre steuert. Die Plasmadichte legt die Auswirkungen auf neutrale Teilchen (ohne elektrische Ladung) fest, da das Plasma auf eine Änderung des elektromagnetischen Feldes reagiert.

Die Daten des Jahres 2008 zeigen die Beziehung während eines ausgedehnten solaren Minimums, als die Atmosphäre am geringsten ausgedehnt ist, weil die Solarstrahlung schwach ist. Man kann beobachten, dass die Beziehung zwischen diesen Variablen (obwohl immer noch nicht perfekt) in einem solaren Minimum besser ist. In einem solaren Minimum ist die Reaktion der Atmosphäre auf den Sonnenwind verstärkt. Die Solarstrahlung und die geomagnetische Aktivität variieren nicht zusammen. Bei starker Strahlung ist die Reaktion der Atmosphäre auf die geomagnetische Aktivität viel geringer und schwierig zu erkennen. Bei einem solaren Maximum kann die Atmosphäre unabhängig vom Niveau der geomagnetischen Aktivität zu den Polen zurückkehren [* siehe Anmerkung oben!]. Hoher Luftdruck am südlichen Pol ist mit einem sich abkühlenden Planeten verbunden, weil die Aktivität des Nachtjets direkt mit dem Luftdruck am Pol variiert. Der Nachtjet bringt Stickstoffoxide in die Stratosphäre, welche die Ozonbildung reduzieren. Dies schwächt die gekoppelte Zirkulation der Stratosphäre und der Troposphäre, was zu steigendem Luftdruck in 60° bis 70° Süd (und generell in Antarktika) führt, ebenso wie zu verstärkter Wolkenbildung und abgeschwächten westlichen Winden. Dies ist ein sich selbst erhaltender Prozess.

Aspekte der ENSO

Die Anomalie des täglichen Luftdrucks in Tahiti wurde auf die gleiche Weise ermittelt wie in Darwin. Abbildung 5 zeigt die Relation zwischen den Rändern zwischen diesen beiden Druckanomalien einerseits und dem Southern Oscillation Index andererseits.

Abbildung 5: Luftdruckdifferenz Tahiti minus Darwin im Vergleich zum SOI

Linke Achse: SOI.

Rechte Achse: Druckanomalie in Tahiti minus Druckanomalie in Darwin.

Die Differenz der Anomalien zwischen Tahiti und Darwin folgt dem SOI. Ein Rückgang des Index’ hängt mit einer Erwärmung durch El Nino zusammen. Dies ist verbunden mit einer Abschwächung der Passatwinde infolge eines verringerten Druckunterschieds zwischen Tahiti und Darwin.

Eine Abschwächung der Passatwinde ist verbunden mit einer sogar noch stärkeren Abschwächung der Westwinde in der südlichen Hemisphäre.

Die Abschwächung der Westwinde in der südlichen Hemisphäre wird durch Druckanstieg zwischen 60° und 70° Süd (sowie generell über Antarktika) hervorgerufen. Dies ist verbunden mit Druckfall in der Arktis (ein einfacher Austausch der Atmosphäre zwischen den Hemisphären, getrieben durch die gekoppelte Zirkulation über Antarktika).

Druckfall in der Arktis ist verbunden mit einer Zunahme der Temperatur in der polaren Stratosphäre, wenn die Aktivität des Nachtjets nachlässt, was zu einer Zunahme der Ozonbildung in der Stratosphäre führt. Unter dem Einfluss der gekoppelten Zirkulation in der Arktis beeinflusst dies die Temperatur in der gesamten Nordhemisphäre, hauptsächlich aber zwischen 50° und 60° Nord. Dies ist ein Phänomen im Winter.

Niedriger Luftdruck in der Arktis ist ein Kennzeichen der Warmphase der Arktischen Oszillation, wobei der Bereich der feuchtwarmen Südwestwinde bis zum Nordpol reicht und die kalten polaren Ostwinde verdrängt. Die Dominanz warmer über kühle Perioden zeigte sich von 1978 bis 2007. Die Kaltphase kehrte 2007 zurück, und in der Nordhemisphäre treten gegenwärtig Wintertemperaturen auf, wie sie seit der Kaltphase der fünfziger und sechziger Jahre nicht mehr vorgekommen waren.

Die Warmphase wird durch die Dominanz von El Nino im Pazifik markiert, wobei die Kaltphase mit einer Dominanz von La Nina zusammenhängt. Die Dominanz kann mit der zeitlichen Länge bestimmt werden, in der der Index ein bestimmtes Vorzeichen hat oder einfach durch Addieren der Indexwerte mit der Zeit. Weder die Arktische Oszillation noch der ENSO sind jemals klimaneutral.

Der auslösende Einfluss dieser Aktivität ist der Sonnenwind, aber die Auswirkung des Sonnenwindes wird beeinflusst durch die Aktivität einer verstärkten Koppelung der Stratosphäre mit der Troposphäre über Antarktika.

Wie unten gezeigt wird, bestimmt die Verteilung inverser Zusammenhänge des Druckes zwischen den Hemisphären, wie sich der Planet erwärmt. Zunächst wollen wir aber einen Blick auf den Zusammenhang zwischen Luftdruck und Temperatur am Äquator werfen.

Abbildung 6: Monatliche Anomalien des Bodenluftdrucks in Darwin und Tahiti

Obwohl es Zeiten gibt, in denen die Anomalien des Luftdrucks in Darwin und Tahiti zur gleichen Zeit in die gleiche Richtung gehen, zeigt Abbildung 6, dass eine Periode intensiver Erwärmung, wie sie Anfang 2010 aufgetreten war, mit positiven Druckanomalien in Darwin und negativen in Tahiti verbunden war (schwache Passatwinde). Umgekehrt ist die Periode starker Abkühlung Mitte 2010 verbunden mit negativen Druckanomalien in Darwin und positiven in Tahiti (starke Passatwinde).

Fazit: Die Temperatur am Äquator bewegt sich direkt mit dem Luftdruck in Darwin. Da die Reaktion der Temperatur mit geomagnetischer Aktivität zusammenhängt und ein globales Phänomen ist, würde man erwarten, dass sich der Luftdruck in Darwin zusammen mit dem äquatorialen Luftdruck um den ganzen Globus ändert. Dies ist tatsächlich der Fall, wie Abbildung 7 zeigt. Die Bandbreite der Variation in Darwin ist etwa doppelt so groß wie die Variation in äquatorialen Breiten. Der Pazifik ist eine Bühne für Extreme. Der Luftdruck in Darwin nimmt zu, wenn sich die Zone der Konvektion während Warmereignissen von Indonesien zum mittleren Pazifik verlagert.

Abbildung 7: Luftdruck in Darwin im Vergleich zum Luftdruck zwischen 15° Nord und 15° Süd

Linke Achse: Monatliche Anomalien des Luftdrucks zwischen 15° Nord und 15° Süd in hPa.

Rechte Achse: Monatliche Anomalien des Luftdrucks in Darwin, hPa

Wie viel von der Änderung der Temperatur am Äquator steht in Verbindung mit der Variation des Luftdrucks in äquatornahen Breiten?

Abbildung 8: Anomalien der Temperatur (10° N bis 10° S) und des Luftdrucks (15°N bis 15° S) hinsichtlich des Mittels der Periode 1948 bis Juli 2011.

Linke Achse: Luftdruck in hPa. Zwölf Monate gleitendes Mittel der Rohdaten sind im siebten Monat konzentriert.

Rechte Achse: Temperatur in °C. Zwölf Monate gleitendes Mittel der Rohdaten sind im siebten Monat konzentriert.

Die in Abbildung 8 erkennbare Stärke der Beziehung sowie die Tatsache, dass die Kurven zusammen beginnen und enden, legen nahe, dass die Phänomene, die für die Erwärmung zusammen mit Anstieg und Fall des Luftdrucks verantwortlich sind, mit der Änderung der Temperatur von 1948 bis heute konsistent sind. Dies ist jedoch nicht die ganze Geschichte. Kurzfristig können sich vulkanische Einflüsse bemerkbar machen. Man erkennt den Temperaturrückgang, der der Eruption des Mount Pinatubo 1991 folgte.

Die Beziehung zwischen dem Bodenluftdruck und geomagnetischer Aktivität

Die Beziehung zwischen dem Dst-Index (oder dem ap-Index) geomagnetischer Aktivität und dem Bodenluftdruck ist nicht linear. Von Zeit zu Zeit formen andere Umstände die Reaktion des Bodendrucks. Diese Einflüsse können einschließen:

Zwei Faktoren modifizieren den Bodendruck von Tag zu Tag, Monat zu Monat und Jahr zu Jahr, und diese wirken zusammen:

1.                  Druckänderungen auf täglicher Basis mit dem Durchzug von Hoch- und Tiefdruckgebieten rund um den Globus und der damit verbundenen Befeuchtung und Abtrocknung der Luft.

2.                  In äquatornahen Breiten im Pazifik wird der Bodendruck durch die Verlagerung der Konvektionszone zwischen Indonesien und dem zentralen Pazifik beeinflusst.

Bedingungen in der Stratosphäre und der Mesosphäre stellen den stärksten Einfluss auf den Bodenluftdruck dar. Die Bewegung der Atmosphäre von hohen zu mittleren und niedrigen Breiten, wie sie in der arktischen bzw. der antarktischen Oszillation zum Ausdruck kommen, hängt ab von:

1.                  Die Plasmadichte dort, wo das Plasma in Wechselwirkung mit neutralen atmosphärischen Molekülen unter dem Einfluss des sich ändernden elektromagnetischen Feldes steht.

2.                  Der Status der Ionisation der Atmosphäre, da er vom Auftreten sich verändernder sehr kurzwelliger Strahlung von der Sonne abhängig ist.

3.                  Das sich ändernde elektromagnetische Feld innerhalb der festen Erde.

4.                  Die sich ändernde zeitweilige Eigenschaft des Northern Annual Mode (NAM) bzw. des Southern Annual Mode (SAM). Die Modi ergeben sich aus der Koppelung der Stratosphäre und der Troposphäre, wobei Ozon aus der Stratosphäre in die Troposphäre eindringt, was in dieser zu einer Erwärmung führt. Dies wiederum verringert den Bodendruck in ringförmiger Weise zwischen 60° und 70° Süd sowie zwischen 50° und 60° Nord. Aber die Modi ändern sich mit der Zeit. Zum Beispiel beeinflusst eine Verlagerung der Gebiete mit dem Absinken von Ozon den Luftdruckunterschied zwischen Neuseeland und dem Pazifik westlich von Chile. Dies findet möglicherweise innerhalb des El Nino ‚Modoki’-Phänomens statt.

5.                  Die Rate, mit der Stickoxide aus der Mesosphäre über den Polen in die Stratosphäre eindringen, beeinflusst die Anzahl der Atome freien Sauerstoffs, die in der Lage sind, Ozon zu bilden und damit den Ozongehalt der polaren Stratosphäre. Dies wiederum wirkt auf die Konzentration von Ozon in der Luft, die mit der gekoppelten Zirkulation absinkt sowie der Höhe des Bodenluftdrucks und der Reaktion der Temperatur darauf.

Die Beziehung zwischen NAM und SAM und der Wassertemperatur

Die Northern und Southern Annual Modes der Klimavariabilität von Jahr zu Jahr beeinflussen die Wassertemperatur. Der Ozonfluss in Richtung Äquator durch die hochtroposphärischen Westwinde (siehe Teil 3) erwärmt und trocknet die Luft, so dass die Wolkenbildung verringert wird. Zusätzlich wird eine Verteilung positiver Anomalien der Wassertemperatur erzeugt, die sich von höheren Breiten der Südhemisphäre in Richtung Äquator in nordwestlicher Richtung erstreckt und von höheren nördlichen Breiten in südwestlicher Richtung. Man erkennt, dass diese Verteilung der Anomalien der Wassertemperatur ihren Ursprung in Zonen höheren Geopotentials im 200-hPa-Niveau hat, die die Gebiete mit absinkendem Ozon in der gekoppelten Zirkulation zwischen der Stratosphäre und der Troposphäre kennzeichnen. Dies ist der Fingerabdruck der Klimaänderung, wie er in der Wassertemperatur zum Ausdruck kommt.

Die jahreszeitliche Entwicklung der ENSO

Abbildung 9 zeigt die Entwicklung des Bodenluftdrucks in Darwin und Tahiti während eines Jahres.

Abbildung 9: Die jahreszeitliche Entwicklung des Druckunterschieds zwischen Tahiti und Darwin

Linke Achse: Bodendruck in hPa

Rechte Achse: Differenz zwischen blauer und roter Kurve in hPa

Die grüne Kurve repräsentiert den Unterschied zwischen der roten und der blauen Kurve. Sie zeigt das Druckdifferential, das die Passatwinde zwischen Tahiti und Darwin treibt, wenn sie sich in einem ‚mittleren Jahr’ ereignen. Es ist in allen Monaten positiv, am stärksten nach dem Juli. Der Unterschied ist am größten um die Jahreswende. Mitte des Jahres sind die Passatwinde am schwächsten.

Abbildung 10: Variabilität des Druckdifferentials aus den Rohdaten zwischen Tahiti und Darwin seit 1999 in hPa

Abbildung 10 zeigt, dass die Variabilität bei der ENSO während der vergangenen Dekade Mitte des Jahres am kleinsten war und zum Jahresende am größten.

Folglich ist die Bewölkung in der Mitte des Südsommers am größten, wenn der Globus am kühlsten ist. Es ist diese Zeit, bei der die globale Wolkenbedeckung ihren Höhepunkt erreicht mit 3% mehr Wolken als im Juli – August. Mitte des Jahres ist die Wolkendecke reduziert wegen der direkten Aufheizung der Landmassen der Nordhemisphäre. Aber zum Jahreswechsel werden die nördlichen Kontinente kaum bestrahlt, und dieser wolkenabschwächende Einfluss, ein Ergebnis der Verteilung von Land und Wasser, ist minimal.

Der Einfluss der gekoppelten Zirkulation der Stratosphäre und der Troposphäre in der Arktis zwischen November und März erklärt die starke Variation der Bewölkungsmenge und der Wassertemperatur zwischen November und März. Es ist diese Zeit, in der die Erde der Sonne am nächsten ist, die Strahlung ist dann am intensivsten, die globale Wolkenmenge am größten und am empfänglichsten für Änderungen.

Die Temperatur wird nicht durch (sehr kleine) Variationen der Solarstrahlung bestimmt, sondern durch die Variationen der Bewölkungsmenge (sehr groß). Die Bewölkung hängt direkt zusammen mit dem Einfluss der gekoppelten Zirkulation zwischen der Stratosphäre und der Troposphäre über den Polen. Der Haupttreiber einer langzeitlichen Änderung ist die gekoppelte Zirkulation über Antarktika, aber hinsichtlich kurzfristiger Änderungen ist die arktische Zirkulation von Bedeutung. Im Großen und Ganzen spiegelt sich hier aber die Zirkulation im Süden. Es ist der Druckanstieg und –fall in Antarktika, der über den Bodenluftdruck in der Arktis bestimmt. Die Arktis ist teilweise bedeutender hinsichtlich der Evolution der Bewölkung, weil die Bewölkung zur Zeit der größten Aktivität der gekoppelten Zirkulation maximal ist.

Aber der Einfluss der Arktis ist auch überbetont durch die relativ hohe Ozonkonzentration der nördlichen Stratosphäre. Der Ozongehalt ist genau deswegen so hoch, weil die gekoppelte Zirkulation dazwischen liegt und der Nachtjet weniger aktiv ist als über Antarktika. Ist der Luftdruck in der Arktis tatsächlich niedrig, eine Situation, die in dreißigjährigen Intervallen besteht (z. B. 1978 bis 1997), sieht man selten einen Ozonabbau via Aktivität des Nachtjets. Die Temperatur der nördlichen Stratosphäre liegt dann ungewöhnlich hoch.

Wenn die Bewölkung abnimmt, beginnt sich die Oberfläche zu erwärmen. Dann bilden die Landmassen beider Hemisphären ein Feedback durch die augenblickliche Erwärmung der Atmosphäre, was zu verstärkter Wolkenauflösung führt. Hinzu kommt noch die Tatsache, dass die Windgeschwindigkeit in der Nordhemisphäre generell viel schwächer ist und wir sehen können, warum Verschiebungen der Wassertemperatur im Nordpazifik und Nordatlantik eine zweimal so große Amplitude haben als in der südlichen Hemisphäre. Verstärkte Verdunstung durch hohe Windgeschwindigkeit dämpft die Reaktion der Temperatur in der Südhemisphäre.

Die südlichen Gewässer erwärmen sich, weil das in die Troposphäre eindringende Ozon zu einer Erniedrigung des Bodenluftdrucks führt und die Stärke der Westwinde zunehmen lässt. Aber die gekoppelte Zirkulation ist im Süden beständig, und folglich ist der Ozongehalt dort viel niedriger als in der nördlichen Hemisphäre.

Wenn der Bodenluftdruck in der südlichen Hemisphäre niedrig liegt, beschleunigt der hohe Luftdruck in der Arktis den Fluss der Ostwinde, die über die nördlichen Kontinente in Richtung tropischer Breiten wehen. Aber dies ist größtenteils ein Winterphänomen. Es ist die hohe Variabilität im Winter, die das Klima der Nordhemisphäre markiert. Am meisten gilt das in der Arktis, wie man hier sehen kann.

Die Entwicklung der Wassertemperatur in Abhängigkeit von der geogr. Breite

Abbildung 11: Die Entwicklung der Wassertemperatur zwischen 40° bis 55° N und 40° bis 55° S. Anomalien bezogen auf das Mittel von 1948 bis 2011 in °C.

So weit es die Mittleren Breiten betrifft, erkennt man, dass das Meer sich in der südlichen Hemisphäre abkühlt und gleichzeitig in der nördlichen Hemisphäre erwärmt. Kommen Sie nicht durcheinander durch die offensichtlich konsistente Verteilung der Erwärmung in der Südhemisphäre im Sommer. Sie ist überhaupt nicht konsistent. Man betrachte das Jahr 2001. Man erkennt eine ähnliche markante Erwärmung der nördlichen Ozeane im Winter in den Jahren 2002 und 2003. Die Hemisphären erwärmen sich und kühlen sich ab in alternierender Art und Weise, ein Umstand, der ganz und gar nicht dazu passt, dass ein Treibhauseffekt verantwortlich für Temperaturänderungen sein soll. Diese Verteilung von Anomalien ist ein Ausdruck für die atmosphärischen Bedingungen nach der Klimaverschiebung von 1976 bis 1978. Sie repräsentiert den gegenwärtigen Zustand der atmosphärischen Balance, der sich immer ändert. Es gibt nicht nur ein Klimasystem, sondern viele. Wenn man die Änderungen von deren Parametern nicht beachtet, kann man das Klimasystem nicht modellieren. Es sind die Annahmen hinter dem Modell, die es wertlos machen.

Es ist ein für äußere Einflüsse offenes System.

Abbildung 12: Die Entwicklung der Wassertemperatur zwischen 40° und 55° N sowie 40° bis 55° S. Anomalien bezogen auf das Mittel von 1948 bis 2011 in °C

Linke Achse: Nordhemisphäre

Rechte Achse: Südhemisphäre. Die rechte Achse ist invertiert.

In Abbildung 12 (eine Wiederaufbereitung der Daten aus Abbildung 11) sieht man, dass die Abkühlung der mittleren Breiten der Südhemisphäre (invertiert und mit anderer Skala) ziemlich symmetrisch mit der Erwärmung der mittleren Breiten der Nordhemisphäre ist. Man mache keinen Fehler, die Wassertemperatur reagiert auf ein globales Stimulans mit Spiegelbildeffekten zwischen der nördlichen und der südlichen Hemisphäre. Das muss auch so sein, weil die Verteilung der Luftdruckänderungen in allen Breiten durch die Entwicklung des Bodenluftdrucks über Antarktika bestimmt wird. Fällt der Luftdruck in Antarktika, wird er in der Arktis steigen, und umgekehrt. Die Variation des Luftdrucks ist direkt abhängig vom Eindringen von Ozon in die Troposphäre an den Rändern von Arktis und Antarktis über die gekoppelte Zirkulation von Troposphäre und Stratosphäre, die sich in hohen Breiten abspielt. Die Stärke der Koppelung verändert sich im Laufe eines Jahres. Jedoch, betrachtet man das Geopotential des 200-hPa-Niveaus, bewirkt die Zirkulation in gewisser Weise einen Einfluss auf den Bodenluftdruck und die Bewölkung in beiden Hemisphären, und zwar das ganze Jahr über.

Abbildung 13: Entwicklung der Wassertemperatur zwischen 25° und 40° Breite in °C

Zwischen 25° und 40° erkennt man den gleichen Spiegelbildeffekt der Anomalien der Wassertemperatur.

Abbildung 14: Entwicklung der Wassertemperatur nahe dem Äquator zwischen 10° und 25° geogr. Breite

In subtropischen Breiten ist die Tendenz zur alternierenden Erwärmung immer noch vorhanden, obwohl sich diese Breiten durch geringere Bewölkung auszeichnen als höhere Breiten. Diese Breiten sind weit entfernt von den Breiten, wo die gekoppelte Zirkulation Ozon in die Troposphäre bringt.

Abbildung 15: Der Einfluss der hohen nördlichen Breiten auf die Entwicklung der Wassertemperatur in °C

In Abbildung 15 erkennt man den Einfluss der mittleren Breiten der Nordhemisphäre in Gestalt der Spitzen der Wassertemperatur, die in der Entwicklung der Wassertemperatur zwischen 50°N und 50°S auftreten. Es sind nicht nur die Tropen oder tatsächlich der Pazifik, die für die Entwicklung der Temperatur dort verantwortlich sind, wo die Sonne am hellsten scheint.

Zusammenfassung für politische Entscheidungsträger

Das System Erde moduliert unter dem Einfluss solarer Vorgänge den Empfang solarer Strahlung an der Oberfläche durch die Veränderung reflektierender Wolken. Der Sonnenwind initiiert diesen Prozess durch seinen Einfluss auf die Verteilung der Atmosphäre zwischen niedrigen und hohen Breiten. Der Effekt der gekoppelten Zirkulation von Stratosphäre und Troposphäre über der Antarktis verstärkt diese Veränderungen.

Die Kreisläufe der Wolkenbedeckung von Tag zu Tag sowie von Jahr zu Jahr sind verbunden mit dem von ENSO genannten Phänomen. ENSO ist ein komplexer Vorgang, der teilweise durch die Dynamik im Pazifik einschließlich einer Verschiebung der Zone konvektiver Aktivität ausgelöst wird. Aber die Entwicklung eines ENSO-Ereignisses wird auch durch Veränderungen des Bodenluftdrucks angetrieben, die den Auftrieb von Tiefenwasser in den Ozeanen beeinflussen. Es hängt von Änderungen des Luftdrucks in hohen Breiten ab, wo die Stratosphäre sich wie eine erweiterte Troposphäre verhalten kann. Das tut sie, weil im Winter die Temperatur in der polaren Atmosphäre mit der Höhe bis hinauf zum 5-hPa-Niveau zurückgeht, also die Troposphäre und die Stratosphäre umfasst. In einer Konvektionszirkulation sinken die kältesten Teile der Stratosphäre bis in Höhen ab, die wir noch als Domäne der Troposphäre ansehen. Dies resultiert in etwas, das als die jährlichen Modi der zwischenjährlichen Klimavariation bekannt ist, Zonen mit niedrigem Luftdruck, die bei ihrem Entstehen die gekoppelte Zirkulation wieder verstärken. Diese ‚jährlichen Modi’ spielen auch eine Rolle bei der Entwicklung des Klimas im Zeitraum von Jahrzehnten und Jahrhunderten, und zwar in Verbindung mit Änderungen der Bewölkungsmenge. Es kann gezeigt werden, dass Änderungen der Wassertemperatur und des Bodenluftdrucks in höheren Breiten Änderungen in den Tropen einläuten können.

Wenn wir nur aufmerksamer wären, würden wir bemerken, dass solche zyklischen Bewegungen des Klimas eng mit einer starken Variation der Wintertemperaturen in der Nordhemisphäre zusammen hängen. Diese Variationen werden als Arktische Oszillation bezeichnet. Dieses Phänomen ist Teil der reichhaltigen Palette von Klimaänderungen und von gleicher Bedeutung wie die ENSO. Beide hängen von Prozessen in der Antarktis ab.

Die Rolle des Spurengases Ozon in der Troposphäre ist von entscheidender Bedeutung für das Verstehen der Dynamik von Wolken. Es ist die Änderung der Bewölkungsmenge, die zu sich ändernden Temperaturen führt.

Das gegenwärtige Verständnis darüber, was den Ozongehalt und die Temperatur in der Stratosphäre steuert, ist lückenhaft. Wir müssen die Rolle des Nachtjets verstehen lernen ebenso wie die gekoppelten Zirkulationen, um die Ozonkonzentration und die daraus resultierende Temperatur zu modulieren.

Variationen der geomagnetischen Aktivität und des Bodenluftdrucks entwickeln sich über lange Zeiträume mit der Dynamik des Plasmas, was selten beobachtet und wenig beachtet wird.

Die hier beschriebene Dynamik stellt eine plausible Erklärung für die beobachtete Temperaturänderung zur Verfügung. Die Verteilung der Temperaturänderungen ist komplex und ändert sich mit dem Breitengrad und von Hemisphäre zu Hemisphäre. Der Fingerabdruck der Änderung ist inkonsistent mit der Auffassung, dass die Zunahme der sog. Treibhausgase in der Troposphäre dafür verantwortlich ist.

Wichtig ist es zu beachten, dass die Änderung reversibel ist und dass der Mensch nichts dazu tun kann außer sich anzupassen. Die Temperatur ist auf der Südhemisphäre langsam, aber stetig seit 1978 zurück gegangen. Eine weniger aktive Sonne wird zu einer weiteren Abkühlung der antarktischen Stratosphäre führen. Dies wird allmählich den Abbau des atmosphärischen Drucks in hohen südlichen Breiten umkehren, der bei dem Erwärmungsprozess einflussreich war.

Wenn wir mit komplexen Systemen wie dem Klima umgehen, ist die Idee, dass wir ein Ergebnis projizieren und die Projektion mit einer Feststellung über unseren Grad an Gewissheit im Verhältnis zur Wahrscheinlichkeit quantifizieren, völlig ungeeignet. Wieder und immer wieder werden wir dann feststellen, dass unsere Hypothesen nicht die reale Welt wiedergeben.

Jene, die es ablehnen zuzugeben, dass ihre Projektionen ungenau sind und von einem Wahrsager zum nächsten sehr unterschiedlich ausfallen, praktizieren nicht die geringste Wissenschaft. Sie sollten in der Lage sein, die Veränderungen, die wir Tag für Tag und Jahr für Jahr erleben, zu erklären, und das schließt die ENSO und die Arktische Oszillation mit ein. Sie machen tatsächlich etwas ganz anderes als ‚Wissenschaft’. Unter keinen Umständen sollten sie behaupten, dass sie das System verstehen und dass ihre Modelle eine Quelle der Wahrheit sind.

Wir können nicht so tun, als verstünden wir das Klimasystem, solange wir die ENSO oder die Arktische Oszillation nicht erklären können; solange wir die Antarktische Oszillation nicht in Zusammenhang mit den sich entwickelnden Relationen des Luftdrucks  wie die Southern Annular Mode bringen können; solange wir PDO und NAO nicht erklären können. Wenn das einmal der Fall sein sollte, können wir uns mal umhören, ob die Leute immer noch glauben, dass die Wissenschaft eindeutig ist.

Wenn wir verstehen, was die Emanationen der Sonne bestimmt, könnten wir eine Vorhersage entwerfen, welches Wetter wir in sechs Monaten erwarten können.

Über Erl Happ:

Ich bin ein Winzer mit starkem Interesse am Klima. Ich war interessiert genug, um die allgemeinen thermischen Charakteristika zu entdecken, denen man in großen Weinbaugebieten begegnet. Ich habe viel Arbeit in stündliche Temperaturmessungen aus der ganzen Welt gesteckt. Das Klima setzt die Grenzen dafür, was wir im Weinbau erreichen können. Ich wurde auf die Klimaänderung aufmerksam, als ich die zurückgehenden Temperaturen während der Wachstumsphase bei uns im Südwesten von Australien bemerkte. Das brachte mich dazu, dies auf einer Art Entdeckungsreise zu ergründen. Schon bald wurde offensichtlich, dass sich Teile der Südhemisphäre wie Antarktika und Südchile seit fünfzig Jahren oder noch länger abgekühlt haben. Meine Erfahrung bei der Analyse in Weinbaugebieten und das Herausfinden, wie viel Wärme diese Pflanzen brauchen, um eine maximale Fruchtausbeute zu bringen, ließen mich die Datenquellen in den Mittelpunkt stellen und herauszufinden, was im regionalen Maßstab passierte, sowohl am Boden als auch in der höheren Atmosphäre. Ich glaube, dass Raum ist für etwas, das man historische Klimatologie nennt. Wir können eine Menge lernen, indem wir einfach nur schauen, was früher über lange Zeiträume geschehen ist. Gute Datensätze sind im Internet fix und fertig verfügbar. Alles, was man braucht, ist ein wenig Neugier, eine Gelegenheit, mit Tabellen zu arbeiten und eine Menge Entschlossenheit.

Link zum Original: hier

Übersetzt von Chris Frey für EIKE




Teil 4b: Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen

 

Teil 4 – Heliosphärische Stromschicht und interplanetares Magnetfeld

 

 

Abbildung 91 zeigt die Ausdehnung der Heliosphäre bis zu den Grenzen des Sonnensystems in ca. 22,5 Milliarden km Entfernung.

Heliospheric Current Sheet (HCS)

Da das Interplanetarische Magnetfeld auf der Erdbahn mit bis 1 – 10 nT, 100 bis 1000-fach stärker ist, als das Dipolfeld der Sonne dies erwarten lässt (magnetische Dipolfelder klingen mit der dritten Potenz des Abstandes ab), muss es einen Effekt geben, der es verstärkt. Dies ist die Heliosphärische Stromschicht, die bis an die Grenzen des Sonnenwindes reicht. Dabei hat sie eine Breite von ca. 60.000 km (http://wind.nasa.gov/mfi/hcs.html#table). Der elektrische Strom in der HCS ist radial einwärts gerichtet und liegt bei ca. 10^-4 A/km^2. Entgegen den Sonnenstrahlen wirkt er nicht in der Kreisfläche, sondern auf der Kugelfläche der Erde, wenn diese es passiert. Mit einem Durchmesser von 12.800 km (mit Atmosphäre) kann auf die Hälfte der Erdatmosphäre ein Flächenstrom von über 25.000 Ampere einwirken.

Die Sonne rotiert differentiell um ihre Achse, die 7,2° gegen die Ekliptik geneigt ist. Am Sonnenäquator beträgt die Umlaufzeit etwa 25 Tage, an den Polen 36 Tage (in der Konvektionszone der Sonne, beträgt die Umlaufzeit 27 Tage).

 

Abbildung 92, Quelle (http://www.sotere.uni-osnabrueck.de/spacebook/spacebook_files/lectures_d/space-kap6.pdf) zeigt die sog. Carrington-Rotation der Sonne von im Mittel 27 Tagen.

Durch die Sonnenrotation wird das Magnetfeld in Äquatornähe mehr aufgewickelt als in höheren Breiten, wodurch ein komplexes Muster entsteht, welches mit steigender Sonnenaktivität zunimmt.

 

 

Abbildung 93: Durch die differentielle Rotation wird das starke solare Magnetfeld zum Äquator hin zunehmend aufgewickelt, wobei an den Polen scharf abgegrenzte koronale Löcher entstehen (Quelle: ESA). Mit einem magnetischen Dipol (wie die Erde) kann das solare Magnetfeld lediglich in einem solaren Aktivitätsminimum verglichen werden, Abbildung rechts (Quelle: http://soi.stanford.edu/results/SolPhys200/Poletto/uvcs_spiral.jpg).

In der Abbildung von der Stanford University ist ein im Magnetfeld beschleunigtes Teilchen dargestellt. Diese Teilchen bilden den Sonnenwind und werden in radialer Richtung von der Sonne weg beschleunigt. Wegen der Lorentzkraft müssen die Teilchen dabei den Feldlinien des interplanetaren Magnetfeldes folgen

 

Abbildung 94: Der radial von der Sonne abströmende Sonnenwind trägt das Magnetfeld in den Orbit. Durch die Rotation entsteht eine archimedische Spirale (Kurve, die bei der Bewegung eines Punktes mit konstanter Geschwindigkeit auf einem Strahl entsteht, der mit konstanter Winkelgeschwindigkeit rotiert) in der die Magnetfeldlinien verlaufen.

Hieraus ergibt sich ein in der Ekliptik resultierendes Magnetfeld, dass nach seinem Entdecker, dem amerikanischen Astrophysiker Eugene N. Parker, Parker-Spiralfeld genannt wird.

 

Abbildung 95 zeigt die Parker-Spirale im Sonnenminimum, Quelle: Alfvén (1977), aus Schwenn (1991). Zu der Sonnenneigung von 7,2° gegen die Ekliptik, nimmt auch das magn. Feld eine Neigung zur Ekliptik ein. Zwischen der magn. Nord- und Südhälfte entsteht eine neutrale Grenzschicht, die Heliosphärische Stromschicht genannt wird. Der plötzliche Wechsel in der Richtung des Magnetfeldes induziert dort einen elektrischen Strom (HCS). Sie trennt die nördliche und südliche Hemisphäre magnetisch. Die HCS ist wie das IPF den solaren Zyklen unterworfen und passt sich diesen an.

Die HCS ist folglich ein Flächenstrom, der die Sonne mehr oder weniger scheibenförmig umgibt (solares Minimum) und in der eine Umkehr der horizontalen Magnetfeldrichtung stattfindet. Mit zunehmender solarer Aktivität wickelt sich die HCS mehr und mehr auf und nimmt die Form eines Ballerina-Röckchens an. Dabei verschiebt sich ihr relativer Winkel zur Ekliptik mehr und mehr.

 

Abbildung 96 nach Alvén, 1981, zeigt die Heliosphärische Stromschicht und das zugehörige Magnetfeld im Meridionalschnitt und in der Aufsicht von Norden (magn. Südpol). Die Ströme fließen dabei entlang logarithmischer Spiralen (archimedische Spiralen), die senkrecht der magnetischen Feldlinien verlaufen. Adaptiert von “Physik des erdnahen Weltraums“, Prof. Gerd W. Prölss, Universität Bonn.

Die Heliosphärische Stromschicht dreht sich mit der Sonne und braucht für einen Umlauf knapp 4 Wochen. In diesem Zeitfenster befindet sich die Erde einmal über und einmal unterhalb der HCS. Da sich die Erde in 365 Tagen einmal um die Sonne bewegt, gerät sie mehrfach abwechselnd in den Bereich von südlich, bzw. nördlich gerichteten Magnetfeldern der Sonne, wobei sie jedes Mal die Heliosphärische Stromschicht durchquert und die Erdatmosphäre Magnetströmen in der Summe von ca. 25.000 Ampere ausgesetzt ist.

  

Abbildungen 97 oben (Quelle: NASA) zeigen, wie sich die HCS mit der Sonnenrotation mit dreht und die Abbildung darunter (Quelle: Prof. Gerd W. Prölss) zeigt die Lage der HCS und des Sonnenäquators und dazu die Position der Erde einmal über und einmal unterhalb der HCS.

Da sich die Lage der HCS, wie bereits erwähnt, mit der solaren Aktivität ebenfalls ändert, entsteht ein komplexes Bild der Polaritäten und Potentialdurchgängen der Erde zur HCS und IPF.

 

Abbildung 98: Links ist die Parker-Spirale zu sehen, die die HCS wiedergibt. Gut zu sehen, dass die HCS keine Ebene, sondern einem fliegenden Ballerina-Rock gleicht. Rechts ist die HCS während des Sonnenmaximum im März 2000 zu sehen, als sich auf Grund der starken magnetischen Aktivität ein zweiter Nordpol ausbildete. Die HCS hat sich immer mehr verdreht und die Form eines Schneckenhauses angenommen (Abbildungen, Quelle: NASA). In der Mitte ist die Verbiegung der Azimutkomponente der HCS auf der Höhe der Erdbahn abgebildet, wobei zusätzliche Magnetfeldsektoren entstehen, Quelle: Prof. Gerd W. Prölss.

Die Erde durchläuft demnach die HCS unregelmäßig, in Abhängigkeit zur Sonnenrotation und der magnetischen Aktivität der Sonne und des Sonnenwindes, der die HCS in den Raum treibt.

Die folgende Abbildung gibt einen räumlichen Eindruck über die sich ändernde Form der HCS bei einer Sonnenrotation. Sie zeigt die HCS auf die Sonnenoberfläche projiziert und damit im Schnitt.

 

Abbildung 99 zeigt die Heliosphärische Stromschicht im Schnitt während einer Sonnenumdrehung nach Hoeksema & Scherrer, 1996 (Quelle: http://wso.stanford.edu/synsource.html). Gut ist ihr räumlicher Wellencharakter zu erkennen, der sich entsprechend im Sonnensystem ausbreitet und den die Erde bei ihrem Umlauf um die Sonne durchquert.

Anhand von Raumsondenmessungen entsteht ein ungeordnetes zeitliches Polaritäts-, bzw. Begegnungsmuster der Erde zum Interplanetarischen Feld und zur Heliosphärischen Stromschicht.

 

Abbildung 100 zeigt die Polaritäten des Interplanetarischen Feldes für die Venus (jeweils obere Datenreihe) und die Erde während der Sonnenrotation 1703 und 1704 (CR steht für Carrington Rotation). Die Daten für die Venus stammen vom Pioneer Venus Observer (PVO-Daten), Quelle: Ma et al., “Heliospheric current sheet inclinations at Venus and Earth“, Ann. Geophysicae 17, 642-649 (1999). Als Bezugspunkt dient der Winkel zum Sonnenbreitengrad, also zur Lage der Sonne (θH = heliographic latitude). Anhand solcher Vergleichsmessungen lässt sich das räumliche Aussehen der Heliosphärischen Stromschicht bestimmen. Sie zeigen aber auch, wann die Erde (oder Venus) die HCS passierte. Dies ist bei jedem Poldurchgang der Fall, da die HCS beide Polhälften voneinander trennt.

Aus der Datenreihe oben ist ersichtlich, dass die Erde binnen weniger Tage mehrmals die Heliosphärische Stromschicht passierte, bzw. auf dieser verweilte. Bei einem Wirkstrom auf die Erdatmosphäre von ca. 25.000 Ampere pro Erdhälfte ist davon auszugehen, dass diese Vorgänge nicht ohne Einfluss auf unser unmittelbares Wettergeschehen bleiben. Sowie es eine Kopplung zwischen der Magnetosphäre und der Ionosphäre der Erde gibt, so gibt es genauso eine Kopplung zwischen der Magnetosphäre und den geladenen Teilchen in der Stratos- und Troposphäre.

 

Abbildung 101: Die Feldlinien des Interplanetarischen Magnetfeldes weisen in ihrem Verlauf einmal von der Sonne weg (away, positive Polarität) und einmal zur Sonne hin (toward, negative Polarität, oben). Entsprechend richtet sich die Polarität des Interplanetarischen Magnetfeldes in eine Nord- und Südpolkomponente aus, rechts. Dazwischen verläuft die HCS. Abbildung 101 links zeigt schematisch das spiralförmige Magnetfeld in vier Sektoren unterteilt.

Abbildung 101 verdeutlicht, dass die Erde binnen kurzer Zeit mehrmals die Grenzschichten und somit die HCS passiert. Die HCS ist einem ständigen Wechsel unterzogen, wobei es während einer Sonnenrotation nur zwei Sektoren geben kann (ruhige Sonne). Ein Wechsel von Plus (die beiden oberen Sektoren im Bild) nach Minus (die beiden unteren Sektoren) und dann wieder zurück. Oder 4 Sektoren, wie im Bild zu sehen. Ein Wechsel von 1Plus nach 1Minus, wieder zurück aber nach 2Plus, dann nach 2Minus und schließlich zurück zum ersten Sektor.

In den ACE-Diagrammen (ACE = Advanced Composition Explorer-Satellit) wird dies in den phi-Diagrammen gemessen. Magnetstürme auf der Erde fallen während einem HCS-Durchgang besonders stark aus. Dies lässt Rückschlüsse zu, dass es starke Wechselbeziehungen zwischen der HCS und der Magnetosphäre der Erde gibt. Durch deren Kopplung zu den geladenen Teilchen in den darunter liegenden Atmosphärenschichten wiederum unmittelbare Einflüsse der HCS auf die Stratos-und Troposphäre, was wiederum nicht ohne Einfluss auf das Wetter sein kann.

 

Abbildung 102: Die grüne Kurve phi zeigt die HCS für einen Tag am 22. August 2004 (23. Sonnenzyklus) und im Zeitraum vom 14.11. – 16.11.2010 (24. Sonnenzyklus). Ein Wechsel der Polarität (Winkel phi) findet dann statt, wenn ein Wechsel zwischen 180° und 360°, bzw. 0° oder umgekehrt stattfindet. Zur Interpretation der Messkurve ist zu beachten, dass die Kurve vor und nach einem Wechsel einige Tage konstant sein muss. Die Stanfort University (http://wso.stanford.edu/SB/SB2.html) gibt hierzu die folgende Bedingung an (++++ : – – – – ). Ein Durchgang durch die HCS dauert teilweise einen ganzen Tag. Kurz vor, während und nach einem HCS-Durchgang verursachen solare Ereignisse besonders starke Wechselwirkungen mit dem Erdmagnetfeld!

Seit Svensmark ist bekannt und durch CERN bestätigt, dass geladene Aerosolpartikel, die verstärkt durch kosmische Strahlung entstehen, bis zu 10-mal so effektiv in der Bindung von Regentropfen sind als ungeladene. Bei jedem Durchgang durch die HCS wirkt auf die geladenen Partikel in der Tropos- und Stratosphäre (Kopplung Magnetosphäre zu den geladenen Teilchen in der Stratos- und Troposphäre) durch den Stromfluss eine Kraftkomponente, die die Verteilung der geladenen Aerosolpartikel verändert. Es ist davon auszugehen, dass es zu örtlichen Konzentration, sowie zu Verdünnungen kommt, was nicht ohne unmittelbaren Einfluss auf das Wettergeschehen in der Atmosphäre bleiben kann.

 

Abbildung 103: Atmosphäreneffekte wie die Polarlichter (Alaska Knik Valley während des starken geomagnetischen Sturms am 08. April 2003, NASA) sind lediglich die sichtbaren Auswirkungen solarer Einflüsse auf die Erdatmosphäre. Diese Einflüsse sind, wie geschildert, weitaus komplexer und bedeutender. Der Sonnenwind regt in der Ionosphäre O2-Moleküle an, die diese Energie im Wellenbereich des grünen Lichts wieder abgeben.

Bei den bisherigen Betrachtungen wurde davon ausgegangen, dass die HCS im Querschnitt, also in ihrer Dicke homogen ist – gleiche Stärke, wie gleichbleibende Richtung. Hiervon kann aber nicht ausgegangen werden, da sowohl der Sonnenwind, der die HCS mit sich führt, als auch die magnetische Aktivität der Sonne, die ihre Stärke bestimmt, nicht homogen sind. Die magnetische Aktivität der Sonne prägt denn auch ihr Muster in die HCS. Deren Strukturen formen das interplanetare Medium und tragen zu ihrer Dynamik bei.

 

Abbildung 104 oben zeigt Total und Open Flux der IPF während der Sonnenzyklen 21 – 23, sowie das Polarfeld der Sonne. Darunter die Feldstärke des solaren Magnetfeldes als Momentaufnahme im Jahr 1984 (gestrichelte Linie in der Abbildung darüber). Der Open Flux ist das Interplanetarische Magnetfeld (seine Feldstärke), der Total Flux, dass Magnetfeld der Sonne und das Polar Field, dass Polare Magnetfeld der Sonne, Quelle: (http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Die zeitlichen und örtlichen Inhomogenitäten des solaren Magnetfeldes bewirken, dass deren Fortsetzung im interplanetarischen Raum, das IPF, sowie deren Grenzschicht, die HCS ebenfalls inhomogen sind. Die Abbildung rechts zeigt das Magnetogramm der Sonne für einen bestimmten Zeitpunkt (15.11.2010, 19:42 UT), Quelle: WSO, Stanford University. Das dort zu sehende und sich fortwährend ändernde Magnetfeldmuster der Sonne wird über den Sonnenwind in den interplanetaren Raum und somit in die Heliosphärische Stromschicht getragen.

Des Weiteren besteht der Sonnenwind und das mit ihm verbundene IPF nicht nur aus einer polarisierten Teilchenart, sondern aus beiden. Aus positiv geladenen Protonen (Wasserstoffatome ohne Elektron), bzw. α-Teilchen (Helium-Kerne, 5%) und aus negativ geladenen Elektronen. Beide Teilchenklassen bewirken Stromflüsse, die sich mit dem Sonnenwind, entsprechend ihrer Verteilung überlagern und die HCS entsprechend ihrem Verteilungsmuster beeinflussen. Hinzu kommt, dass sich der Sonnenwind mit Überschallgeschwindigkeit (der im Plasma vorherrschenden Schallgeschwindigkeit) ausbreitet, was zu Turbolenzen in der Schicht führt.

 

Abbildung 105 links zeigt die unterschiedliche Ablenkung positiv und negativ geladener Teilchen an Magnetfeldlinien. Die Abbildung in der Mitte zeigt einen Schnitt durch die HCS. Die Farben geben die möglichen Variationen der magnetischen Stromstärke an. Die Dicke beträgt mehrere 10.000 km. Die Abbildung rechts soll als Vergleich zeigen, wie auf kleinen Skalen sich die magnetischen Turbolenzen in der HCS widerspiegeln und ein komplexes Muster des magnetischen Stromflusses in der HCS bewirken.

Bei jedem Durchgang der Erdatmosphäre durch die HCS ist die Atmosphäre ungleichen Kraftkomponenten ausgesetzt, die der inhomogene magnetische Strom der HCS auf die Magnetosphäre und deren Kopplung mit den geladenen Teilchen in der Atmosphäre ausübt. Es ist davon auszugehen, dass es örtlich zu Ansammlungen, sowie Ausdünnungen von elektr. geladenen Aerosolpartikeln kommt, was nicht ohne Auswirkungen auf die Kondensation, damit Wolkenbedeckung und auf das Wetter bleiben kann. Es ist bekannt, dass kurz vor, während und kurz nach einem HCS-Durchgang solare Ereignisse besonders stark mit dem Erdmagnetfeld wechsel wirken.

 

Interplanetares Magnetfeld (IPF)

Das Interplanetarische Magnetfeld, welches bei Messungen auch als Open Flux bezeichnet und in Nanotesla angegeben wird, ist das von der Sonne stammende Magnetfeld, welches sich im interplanetaren Raum, also dem Raum, der nicht von den Planeten bestimmt wird, ausbreitet. Es wirkt in der gesamten Heliosphäre und reicht bis an die Grenzen des Sonnensystems, zur Heliopause, welche ca. 22,5 Milliarden km von der Sonne entfernt ist.

Im Bereich des Interplanetarischen Magnetfeldes wird ein Großteil der geladenen Partikel der kosmischen Strahlung abgelenkt. Das Interplanetarische Magnetfeld ist somit ein Schutz der Planeten vor dem Bombardement der hochenergetischen kosmischen Strahlung.

 

Abbildung 106 links zeigt die Auswirkungen der IPF auf das irdische Magnetfeld. Das IPF lässt sich im Raum in drei Koordinaten zerlegen, wobei zwei in der Ekliptik liegen und eine (Bz) senkrecht dazu. Die Änderung dieser Komponente ist besonders interessant, weil sie parallel zum Erdmagnetfeld verläuft und daher mit diesem besonders wechselwirkt. Abbildung 106 rechts zeigt, wie sich die Feldlinien des IPF im Raum ausbreiten.

Wie bereits bei der HCS festgehalten, ist das IPF ein fester Bestandteil des Sonnenwindes und wird durch diesen in Form von Parker-Spiralen (ruhige Sonne) in den Raum ausgebreitet.

Sonnenwind und IPF stehen in direktem Zusammenhang mit der Sonnenaktivität, wobei der Sonnenwind in zwei Komponenten aufgeteilt wird, den schnellen Sonnenwind mit Teilchengeschwindigkeiten von 500 – 800 km/s, aus den koronalen Löchern und der daher eine große Beschleunigung erhält und dem langsamen Sonnenwind mit Teilchengeschwindigkeiten von 250 – 400 km/s, der hauptsächlich aus dem Streamer Belt (benannt nach Aufnahmen während einer Sonnenfinsternis) der Korona stammt. Die Sonnenwinddichte in Erdnähe beträgt 3 x 10^6 – 1 x 10^7 Teilchen/m3. Während die Stärke des IPF (Open Flux) in Nanotesla angegeben wird, wird der Sonnenwindfluss in Teilchen/m^3 und die Stärke des Sonnenwindes in Nanopascal angegeben. Das magnetische Feld aus den aktiven Regionen der Sonne wird Nichtachsen-symmetrischer offener Fluss (Nonaxisymmetric Open Flux) und das magnetische Feld aus den Polarregionen, Achsensymmetrischer offener Fluss (Axisymmetric Open Flux) genannt, weil dieses Feld zur Achse der Sonne symmetrisch verläuft (folgende Abbildung).

 

Nun kann die Frage aufkommen, warum das solare Magnetfeld überhaupt in Komponenten aufgeteilt werden muss, weil doch auf die Erde das gesamte Magnetfeld der Sonne wirkt. Die besondere Stellung der Bz-Komponente des IPF wurde bereits genannt. Für die Wirkung der kosmischen Strahlung auf die Erde ist dagegen, dass sich in Bahnebene, in der sich die Planeten bewegen, ausbreitende Magnetfeld der Sonne maßgeblich. Dies ist der Nonaxisymmetric Open Flux. Die Sonnenwindstärke wiederum hängt von beiden (polar und toroidal) ab, wobei die Teilchen mit höherer Geschwindigkeit aus dem Polarfeld, den koronalen Löchern kommen. Die Aktivität des Polarfeldes zum Total und Open Flux ist genau umgekehrt und verschwindet im Sonnenmaximum. Aus der Sonnenwindgeschwindigkeit lässt sich daher nur teilweise auf die Aktivität der Sonne schließen.

 

Abbildung 107 (Quelle: http://www.leif.org/research/files.htm) zeigt den 27-Tage-Durchschnitt der Sonnenwindgeschwindigkeit in 100 km/s von 1880 – 2009, nach Leif Svalgaard. Blau, aus IHV (Inter-Hour Variability-Index) und IDV (Inter Diurnal Variability) rekonstruiert; rot sind direkt gemessene Werte. In der Sonnenwindgeschwindigkeit sind zwar die solaren Grundzyklen erkennbar, jedoch lassen sich daraus allein keine Rückschlüsse auf die globalen Temperaturen schließen. Hierzu bedarf es weiterer Parameter.

Nach Daten der NASA hat der Sonnenwind in der ersten Dekade des 21. Jahrhunderts stark abgenommen, was, wie bereits mehrfach gezeigt, auf die derzeit schwache solare Aktivität zurück zu führen ist. So zeigt Abbildung 108 links die Stärke des Sonnenwindes und Abbildung 108 rechts, wie sich mit ihm oder genauer, der solaren Aktivität (mit ihr hängt bekanntlich der Sonnenwind zusammen), die globalen Temperaturen variieren.

 

Abbildung 108: Links ist anhand der Ulysses-Daten die Stärke des Sonnenwindes (Produkt aus Teilchengeschwindigkeit und Koronatemperatur) im Zeitraum von 02/92 – 02/98 (grün) und von 02/04 – 08/08 (blau) als Raumdiagramm dargestellt. Da die Koronatemperatur in direktem Maße die magnetische Aktivität der Sonne wiedergibt – die Korona wird von dieser aufgeheizt (siehe Rekonnektion und Korona) ist die Sonnenwindstärke ein Maß für die solare Aktivität. In Abbildung links, zeichnen sich scharf die beiden koronalen Löcher in Nord und Süd ab, Quelle: NASA, “Solar Wind Loses Power, Hits 50-Year Low“, 23.09.2008. Deutlich ist erkennbar, dass die Sonne zwischen 2004 und 2008 ruhig ist. Rechts ist als Histogramm dargestellt, die Stärke und Verteilung des Sonnenwindes, getrennt für die nördliche und südliche Hemisphäre der Erde und daneben, ebenfalls als Histogramm, die globalen Erdtemperaturen. Globale Temperatur und Sonnenaktivität sind nach den Untersuchungen der NASA deckungsgleich.

Auch diese Abbildungen zeigen, dass die stark zurück gehenden Temperaturen, wie wir sie übrigens wahrgenommen haben (nicht wie die WMO uns diese verkaufen will) der letzten Jahre auf die verringerte Sonnenaktivität zurückzuführen sind. Die Ulysses-Daten belegen, dass der mittlere Sonnenwinddruck um 20% zurückging, was in erster Linie auf die geringere Temperatur der Korona und auf die verringerte Sonnenwindstärke (Teilchen/m^3) zurückzuführen ist. So wurde der Sonnenwind im Vergleichszeitraum 13% kühler und 20% geringer. Nach Messungen der NASA schwächte sich das Magnetfeld der Sonne in dem betrachteten Zeitraum um 30% ab.

Es wurde bereits genannt, dass der Bz-Komponente des IPF eine besondere Bedeutung zukommt, da diese Komponente mit dem Erdmagnetfeld am stärksten wechselwirkt. So sind Polarlichter, die ein direkt beobachtbares Zeichen starker Sonnenaktivität sind, umso wahrscheinlicher, je stärker das IPF und je negativer deren Komponente, die Bz ist. Dies hängt damit zusammen, dass südlich (negativ) gerichtete Magnetfelder des IPF, die antiparallel zu den Magnetfeldlinien des Erdmagnetfeldes verlaufen, das Magnetfeld der Erde schwächen, so dass es dabei zu einem magnetischen Kurzschluss kommt (bei „verschmelzen“ der Feldlinien). Das magn. Schutzschild der Erde ist dann durchlöchert und geladene Teilchen können bis in niedere Breiten in tiefere Schichten der Erdatmosphäre gelangen. Nach Untersuchungen der NASA gelangen bis zu 20-mal mehr geladene Teilchen dann in die unteren Atmosphärenschichten!!

Bekanntlich sind die Auswirkungen der Teilchenströme in den Polregionen am größten, weil dort die magnetischen Feldlinien ausfließen. Daher liegt es nahe, zu untersuchen, inwieweit dies Auswirkungen auf die dortigen Klimaparameter hat, wenn postuliert wird, dass geladene Atmosphärenteilchen Einfluss auf das Wetter und damit auf die Temperaturen haben.

 

Abbildung 109: Zu sehen (Quelle: http://www.appinsys.com/GlobalWarming/EarthMagneticField.htm) sind jeweils die vertikale (Z) Komponente des Erdmagnetfeldes. Diese steht in unmittelbarem Zusammenhang mit dem Interplanetarischen Magnetfeld (GMF = Geo-Magnetc Field). Gewählt wurden zwei Punkte, die sich gegenüberstehen (rotes und grünes Kreuz) und deren Resultierende nahe dem magnetischen Nordpol liegt (rote Kurve). Der Temperaturgang der arktischen Temperaturen stimmt exakt mit der magnetischen Aktivität und damit mit der Sonnenaktivität überein.

 

Abbildung 110a: Für aktuelle Temperaturtrends werden meist 30-Jahres Vergleiche herangezogen, da dieses Zeitfenster per Definition als Klima definiert ist. Werden dazu die vergangen 30 Jahre verwendet, so fällt dieser Zeitraum mit der obigen magnetischen Polarität des Sonnenmagnetfeldes zusammen. In diesem Zeitraum (bis 2009) befand sich am geographischen Nordpol der Sonne, zweimal der magnetische Nordpol. Dies bedeutet im solaren Minimum, dass die Feldlinien antiparallel zum Erdmagnetfeld ausgerichtet sind.

Antiparallele Ausrichtung der IPV-Feldlinien führt bekanntlich zu einer Schwächung des Erdmagnetfeldes, wodurch mehr geladene Teilchen in die unteren Atmosphärenschichten gelangen. Nun ist das solare Magnetfeld kein Dipol, wie bei der HCS gesehen und die Erde nicht permanent im Bereich einer Polarität, insbesondere nicht, wenn sich die Aktivität der Sonne erhöht, bei ruhiger Sonne gilt indes das obige Polarisationsmuster und es wurde auch nur für die Zeiträume im Sonnenminimum blau hinterlegt.

 

Abbildung 110b, Quelle:  (http://www.appinsys.com/GlobalWarming/EarthMagneticField.htm) zeigt vereinfacht die Wechselwirkung des IPV mit dem Erdmagnetfeld (weiße Pfeile) und den Verlauf der Feldlinien im solaren Minimum, wenn magnetischer und geographischer Nordpol räumlich zusammen liegen. Darunter sind die globalen Temperaturanomalien in der Fläche für den Zeitraum 12/1978 – 11/2006 zu sehen. Am magnetischen Nordpol (Kreis), wo die Feldlinien und somit die geladenen Partikel einfließen, kommt es zu einer Temperaturerhöhung und am Südpol, wo die Feldlinien heraustreten, also keine Partikel einfließen, kommt es zu einer deutlichen Temperaturabnahme. Klimaschaukel Arktis-Antarktis!

Die polare Temperaturverteilung auf der vorherigen Seite ist ein Hinweis, dass geladene Aerosolpartikel unmittelbar auf Wetter und damit auf die Temperaturen Einfluss nehmen. Dort, wo die magnetischen Feldlinien und mit ihnen der ionisierte Partikelstrom einfließt, kommt es laut NASA (http://www.nasa.gov/mission_pages/themis/news/themis_leaky_shield.html) zu einer 20-fachen Erhöhung der ionisierten Sonnenpartikel und dort kommt es auch zu der deutlichsten Temperaturzunahme. Im Gegenpol stattdessen zu der deutlichsten Temperaturabnahme. Die Erkenntnis aus der Abbildung, gibt auch einen Ansatzpunkt, für die Klimaschaukel zwischen der Arktis und der Antarktis auf kurzen Zeitskalen theoretisch zu begründen.

Dass es an den Polen zu einer Verdichtung, also Ansammlung von geladenen Partikeln kommt, liegt zum einen, am Verlauf der magnetischen Feldlinien und zum anderen, dass das Polarlichtgebiet zwischen 1.000 und 4.000 km Höhe auf geladene Teilchen wie ein elektrostatischer Beschleuniger wirkt.

Elektronen und Ionen werden aufgrund ihrer unterschiedlichen elektrischen Ladung dabei entlang der Feldlinien in entgegen gesetzte Richtungen beschleunigt. Messungen haben ergeben, dass die Beschleunigung in stationären horizontalen Schichten von 10-20 km vertikaler Dicke erfolgt (Quelle: MPG). Dabei werden Elektronen abwärts beschleunigt und können dabei Moleküle ionisieren, wobei diese dann eine negative Ladung tragen.

Es gibt weitere Belege, die zeigen, dass die Wolkenbedeckung und damit die Kondensationskeime, bzw. die Aerosole, die als Vorraussetzung für die Entstehung von Wasserpartikeln in der Atmosphäre notwendig sind, von der Polarität des solaren Feldes abhängen. Dies sind die Daten über die globale Wolkenbedeckung von dem ISCCP (International Satellite Cloud Climatology Project). Nach Svensmark ist bereits bekannt, dass die Wolkenbedeckung mit der kosmischen Strahlung variiert (Abbildung 111). Die kosmische Strahlung wiederum ist gegenläufig zur solaren Aktivität und der 11-jährige Schwabe-Zyklus zeichnet sich darin eindeutig ab.

 

Abbildung 111 (http://www.climate4you.com/Sun.htm) zeigt die Sonnenfleckenzahl und die kosmische Strahlung (Neutronen-Monitor) von Januar 1958 – 06. November 2009. Deutlich ist zu sehen, dass eine erhöhte Sonnenaktivität die Erde vor kosmischer Strahlung abschirmt. Während eines solaren Aktivitätsminimas gelangt vermehrt kosmische Strahlung zur Erde.

Die physikalische Erklärung für diesen Zusammenhang ist in der folgenden Abbildung rechts bildhaft dargelegt.

 

Abbildung 112 ganz links zeigt das Magnetfeld der Sonne als Dipolfeld im solaren Minimum, aufgenommen von der Sonnensonde Ulysses (SWOOPS = Solar Wind Observations Over the Poles of the Sun). Daneben das Magnetfeld während dem Aktivitätsmaximum. Rechts ist der Verlauf der geladenen Partikel der kosmischen Strahlung an den Magnetfeldlinien der Sonne gezeigt. An aufgewickelten Magnetfeldlinien während aktiver Sonne, werden die Partikel abgelenkt und nach außen aus dem Planetensystem gestreut.

Dass die kosmische Strahlung im Gegentakt zur Sonnenaktivität verläuft, liegt in erster Linie am höheren Betrag der solaren Aktivität und weiter, dass das solare Magnetfeld nur im Aktivitätsminimum ein Dipolfeld darstellt, wogegen mit zunehmender Sonnenaktivität die Polaritäten (die ein- und ausfließenden Magnetfeldlinien, award, bzw. toward-IMF, siehe HCS) mehr und mehr vermischt werden und sich die magnetischen Feldlinien mehr und mehr aufwickeln.

Die folgenden Teile zeigen, wie sich das bisher theoretisch gezeigte, auf das Wetter- und Klimageschehen auswirkt.

 

Raimund Leistenschneider – EIKE

 

Teil 5 in Kürze

Übersicht über alle Teile:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4a – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
interplanetares Magnetfeld

Teil 4b – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen




Der Charakter der Klimaänderung – Teil 3 (von 4)

Nehmen wir weiter an, dass es eine undurchlässige Schicht über der Oberfläche gibt, die den Austausch von Feuchtigkeit mit der Atmosphäre verhindert. Kein Niederschlag aus der Atmosphäre erreicht die Oberfläche.

Jetzt versetze man diesen Planeten in eine Drehbewegung um die Sonne in einer Art und Weise, dass in den Polargebieten für einen Teil des Jahres ewige Nacht herrscht, so dass sich die gesamte Höhe der Atmosphäre (beide Schichten) innerhalb der Region der Polarnacht abkühlt und sich ein Gradient mit immer weiter abnehmender Temperatur einstellt, und zwar von der Oberfläche bis zur Obergrenze der Atmosphäre, also die gesamten 50 Kilometer.

In einigen Teilen des Planeten wäre es warm, in anderen kalt. Hebung und Absinken der Atmosphäre wird durch diese thermischen Unterschiede bewirkt, aber die Hebung ist normalerweise nur auf wenige Kilometer in der Höhe beschränkt.

Stellen wir uns jetzt vor, dass das Treibhausgas wasserlöslich ist. Der Teil der Atmosphäre mit dem geringsten Wassergehalt befindet sich in der Polarnacht, weil es dort am kältesten ist und das Treibhausgas hier eine höhere Konzentration erreicht.

Dieses Treibhausgas absorbiert langwellige Strahlung von dem Planeten. Dadurch kommt eine konvektive Zirkulation im Bereich der Polarnacht  in Gang, die die mit Treibhausgas angereicherte Luft von den Polen weg in die Randgebiete der Polarnacht führt. Man erinnere sich, dass die Temperatur im Bereich der Polarnacht von unten nach oben in der Atmosphäre abnimmt, so dass die Konvektion im gesamten [vertikalen] Profil vorherrscht. Tatsächlich agieren die beiden Schichten als eine gekoppelte Zirkulation.

Das Treibhausgas sinkt also an den Rändern der Polarnacht ab bis zur Bodenschicht, die bis dahin völlig frei von Treibhausgasen war. Dies führt dazu, dass sich die Luft an den Rändern der Polarnacht durch das Absinken erwärmt. Der Bodendruck fällt in dieser Region weg.

Wenn diese Zirkulation kommt und geht, würden wir an den Rändern der Polarnacht Wolken kommen und gehen sehen, so wie sich die Luft erwärmt und abkühlt.

Stellen wir uns jetzt vor, dass Wind aufkommt, der aus der Polarnacht zum Äquator weht und die Treibhausgase dorthin transportiert, wo sich die Luft erwärmt und die Wolken verschwinden.

Lassen Sie uns nun eine Verteilung von Land und Wasser in der Winterhemisphäre einführen und annehmen, dass die Luft bevorzugt über Meeresgebieten an den Rändern der Polarnacht absinkt. Dann würde man erwarten, dass sich die Treibhausgase in der Atmosphäre über dem Ozean konzentrieren würden. Dies würde zu einer Verteilung von warmer und kalter Luft, Wolken in der kühlen Zone und Wolkenfreiheit in der warmen Zone führen. Eine wolkenfreie Spur würde entstehen, die von den wärmeren Gebieten in der Randzone zum Äquator reicht. Die Wolken würden entstehen und vergehen im Zuge der gekoppelten Zirkulation, die zu- und abnimmt.

Die untere der beiden Schichten würde Zonen mit erwärmter Luft zeigen, wie in der Karte unten dargestellt.

 

Abbildung 1

Und unter dem Einfluss von Wind, der in Richtung Äquator weht, könnten wir eine Verteilung der Wassertemperatur sehen, etwa so:

 

Abbildung 2

Jetzt wollen wir uns vorstellen, dass es eine heimtückische Chemikalie gibt, die in der verdünnten Atmosphäre oberhalb der beiden Schichten erzeugt wurde, die eine Affinität für die Treibhausgase hat, und diese Chemikalie sickert zwischenzeitlich an der Obergrenze der Schicht in die Atmosphäre, nimmt dort die Treibhausgase auf, und dies passiere an den Polen. Dies wird durch ein Phänomen, das wir ‚Nachtjet’ nennen wollen, bewerkstelligt. Folglich würde der Gehalt an Treibhausgasen der Nachtzone wachsen und schrumpfen mit der Folge einer Fluktuation der Bewölkung und der Wassertemperatur.

Wenn wir wissen wollen, was das Wetter und das Klima verändert hat, müssten wir schauen, was zu einer Veränderung der Rate des Einsickerns geführt hat und was dafür sorgt, dass der Polarwirbel wächst und schrumpft.

Wir schauen genau und finden heraus, dass der ‚Nachtjet’ aktiv ist, wenn der Bodenluftdruck hoch ist.

Wir entdecken, dass der Luftdruck hoch ist, wenn die Sonne weniger aktiv ist.

Ist die Sonne aktiv, ist der Druck niedrig und der Nachtjet weniger aktiv, der Gehalt an Treibhausgasen wächst, die Temperatur der Luftsäule steigt und die konvektive Zirkulation neigt zum übersteuern. Und die Wolken verschwinden.

Und die Temperatur der polaren Stratosphäre könnte etwa so aussehen:

Abbildung 3

Also, unter diesen Umständen erwärmt sich der Planet. Erkennt jemand den Ursprung der Großen Pazifischen Klimaverschiebung von 1976 bis 1978?

Link zum Original: hier

Übersetzt von Chris Frey für EIKE




ARD Sender rbb verweigert Dialog über einseitige Klimaberichterstattung!

Herr Dr. Fahrbach widersprach ihm auch nicht, sondern führte wie gewünscht aus, dass diese 6/100 °C (Deren Bestimmung wäre ein physikalisch technisches Wunder, das kann Ihnen jeder Messtechniker bestätigen) seit 2008 (wo man noch eine Abkühlung von ähnlicher Größe gefunden hätte) wohl nicht sicher, aber doch recht wahrscheinlich auf den fortschreitenden Klimawandel zurückzuführen wäre. Insgesamt wäre im Tiefenwasser seit 26 Jahren eine Erwärmung um diese 6/100 °C festzustellen. So die Pressemitteilung.

Dass diese auf den vom Menschen gemachten Klimawandel zurückzuführen ist, versteht sich inzwischen von selbst. Ich wies das Team vom RBB Inforadio mit 2 Mails über deren Kontaktseite auf diesen Unfug, bzw. Wunderglauben hin und bat um Aufklärung. Diese ist auch zugesagt – zumindest eine Antwort- wenn man seine Emailadresse eingibt. Das hatte ich getan.

Leider hat dann niemand  geantwortet. Daraufhin wendeten Ich mich an die Intendantin Frau Reim, mit der Bitte die Damen und Herren der Redaktion zu veranlassen mir zu antworten, und zu begründen, warum sie diesen Unsinn verbreiten.

Als Folge dieser Bitte entspann sich ein merkwürdiger Mailwechsel mit dem Chefredakteur des rbb Herrn Singelnstein.

Um es kurz zu machen, meine Bitte um ein klärendes Gespräch, lehnte er unter wechselnden Vorwänden stets brüsk ab. Zuletzt mit seinem Schreiben vom 2. September 2011 (s. Anlagen). Wir entschlossen uns daher Herrn Singelnstein nunmehr einen offenen Brief zu schreiben, um ihn an seine Pflichten als Redakteur eines öffentlich-rechtlichen Senders zu erinnern: Lesen Sie selbst:

Betrifft: Offener Brief – Ihre Schreiben vom 2.9.11 und 11.7.11 und div. Mails

Sehr geehrter Herr Singelnstein,
mit Schreiben vom 2.9.11 lehnen Sie erneut ein Gespräch mit EIKE Vertretern zur Frage nach einer ausgewogenen, neutralen, objektiven und umfassenden Berichterstattung zum Klimawandel ab. Diesmal nicht unter dem zuvor genannten Vorwand, dass Sie zuviel zu tun hätten und sich schließlich nicht mit jedem Ihrer hunderttausende von Hörern sprechen könnten (Ihr Schreiben vom 11.7.11), sondern ganz spezifisch unter dem neuen Vorwand, dass EIKE Ihrer Meinung nach unfachlich auf vorhandene oder nicht vorhandene (Ihre Worte!) Klimaveränderungen reagiere, wie Sie nach eigenem Bekunden herausgefunden zu haben glauben. Besonders stoßen Sie sich an unserem offenen Brief an Kanzlerin Merkel bzw. an unseren Satz darin über "…die Pseudoreligion vom menschengemachten Klimawandel.." und schieben gleich noch Ihre  Entrüstung nach, dass eines unserer Beiratsmitglieder -der ehem. Harvardphysiker und Tscheche Dr. Lubos Motl- die Aktivitäten der Hauptverantwortlichen des Projektes "Große Transformation" (in Ursprungsentwurf noch "Große Kulturrevolution" genannt), nämlich Herrn Prof. Schellnhuber, mit den Aktivitäten von weiland Reinhard Heydrich unseligen Angedenkens verglichen hat. Abgesehen davon, dass wir diesen Vergleich missbilligen und Sie ihn auch nirgendwo auf unserer Website finden werden und auch abgesehen davon, dass Sie damit die anderen 21 hochangesehenen Wissenschaftler unseres Fach-Beirates mal so eben mit in diesen Topf werfen, hat auch ein Staatsbürger Tschechiens das Recht auf freie Meinungsäußerung, insbesondere dann, wenn mehr als Besorgnis erregende Vorgänge, wie das Streben nach großer Transformation (Gutachten WBGU), im großen Nachbarland zu beobachten sind.
Nun gehört das Surfen auf Klimawebsites vermutlich nicht zu Ihren Hobbys, welche wir dem Kress Report zu Ihrer Person entnehmen konnten. Vielmehr sind das so harmlose Tätigkeiten wie segeln, tanzen und kochen, wie dort steht.
Als studiertem Theater- und Rundfunkmann aus der Ex-DDR  damals wie heute in gehobener Position, sind Ihnen Klimawebsites bestimmt nicht tägliche Lektüre. Wir vermuten daher, dass Sie sich – bevor Sie den letzten Brief an den Unterzeichner verfassten – im Umfeld von Prof. Schellnhuber sachkundig gemacht haben. Wenn das so war, dann hätten Sie aber auch bemerken müssen, dass wir durchaus in fachwissenschaftlicher Auseinandersetzung mit z.B. dem PIK stehen, wie im April des Jahres, bei einem gemeinsamen, wissenschaftlichen Kolloquium in Potsdam. Von EIKE Mitgliedern und aus dem Fachbeirat liegen ferner viele Klima-Fachveröffentlichungen in international bekannten Fachjournalen vor, die, in die zur Zeit heftige, fachwissenschaftliche Diskussion eingreifen. Im Gegensatz zu Ihrer Auffassung ist daher die Frage, ob wir zur Zeit einen ungewöhnlichen oder nur einen natur-normalen Klimawandel erleben, keineswegs fachlich gesichert. Und im Übrigen: Klimawandel gab es immer und ihn wird es auch in Zukunft immer geben, mal mehr mal weniger heftig. Klimakonstanz gab es noch nie, solange die Erde existiert.
Doch lassen Sie uns ein Missverständnis ausräumen. Wir hatten keineswegs vor, mit Ihnen über Glauben oder Aberglauben in Klimafragen zu reden, das wäre unergiebig und zu einseitig. Ferner muss uns als betroffene Hörer oder Zuschauer Ihrer Sendungen Ihre Meinung zum Klimawandel auch überhaupt nicht interessieren. Sie hat aber – anders als Sie vielleicht Ihren journalistischen Auftrag auffassen – auch in Ihren Sendungen nichts zu suchen. Sie dürfen – und an dieser Stelle bitten wir die Intendantin einzugreifen – weder Ihre Meinung zur einzigen Richtlinie Ihrer Berichterstattung machen, noch ihre Mitarbeiter veranlassen, dies zu tun. 
Ihre Berichterstattung zum Klimawandel ist nämlich weit entfernt davon, den Minimal-Anforderungen des Rundfunkgesetzes nach Ausgewogenheit, Neutralität und Objektivität zu genügen. Es herrscht bei diesem Thema – auch Ihrer Aktivität wegen – ein Zustand im rbb, den wir seit dem Fall der DDR überwunden glaubten. Nur darüber wollten wir mit Ihnen sprechen, um evtl Ansätze auszuloten, ob diesem untragbaren Zustand von unsachgemäßer Indokrination ggf. abzuhelfen wäre. Vielleicht haben sich ja Missverständnisse in Ihrem Hause ergeben. Ihre Mitarbeiter und Sie scheinen fehlinformiert. Z.B. haben Sie bzw. Ihre Mitarbeiter nicht über unsere bisher drei großen wissenschaftlichen Fachkongresse in Berlin, parallel zu den IPCC Klimaveranstaltungen in Posen, Kopenhagen und Cancun, berichtet, obwohl der rbb jedes Mal und rechtzeitig darüber informiert war. Leider auch nicht über viele andere Kongresse dieser Art im Ausland. Ein bekannter Kollege von Ihnen hat einmal gesagt ".. ein Journalist der sich nicht informiert (recherchiert), ist ein Propagandist“. Da hat er wohl Recht.

Bei Ihnen hingegen kommen –auch nach eigenem Bekunden- nur Vertreter der vermeintlichen Konsenslinie, wie des PIK oder, noch ärger, die sog. Experten des Medienkonzerns Greenpeace zu Wort. Da stört es Sie überhaupt nicht, wenn z.B. der Greenpeace Aktivist („Experte“) Hashmi ganz offen Meinungsgegnern mit Gewalt droht: "»Wir wissen, wer Sie sind. Wir wissen, wo Sie wohnen. Wir wissen, wo Sie arbeiten. Und wir sind viele, Sie sind wenige.« Und Hashmi schäumt dann weiter über das »Desaster von Kopenhagen. »Die Politiker haben versagt. Nun ist es an uns. Wir müssen das Gesetz brechen, um die Gesetze zu machen, die wir brauchen. Gesetze, die geeignet sind, die Gesellschaft und unsere Zukunft zu schützen«, zitiert Hashmi zustimmend einen anderen Umweltaktivisten. »Bis unsere Gesetze dies tun, vergesst es, Klima-Lobbyisten zu sein.  Vergesst es, Klima-Aktivisten zu sein. Es funktioniert nicht. Wir brauchen eine Armee aus Klima-Outlaws.«
Er meint Gesetzesbruch! Haben Sie oder Ihre Mitarbeiter jemals daran gedacht, was es bedeutet, solche "Experten" oder deren Gesinnungsfreunde zu Wort kommen zu lassen? Lässt sich dies mit dem Rundfunkgesetz vereinbaren, dem Sie verpflichtet sind?
Oder nehmen wir als ein weiteres Beispiel das Bekenntnis des Chefökonomen Ihrer Stichwortgeber beim PIK, dem IPCC Vize und Leitautor Prof. Edenhofer, dass der anthropogene Klimawandel nur ein Vorwand ist, die Umverteilung von reich nach arm in der Welt zu organisieren: Otmar Edenhofer in einem NZZ Interview vom 14.11.10. .. Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“ Klarer geht es nicht mehr, wozu das Schreckgespenst Klimawandel gebraucht wird. Aber auch dazu sah und hörte man weder beim rbb noch insgesamt in der ARD oder dem ZDF nichts kritisches. Rein gar nichts.
Es ist deshalb nicht sehr verwunderlich, dass Sie einem Gespräch mit Hörern ausweichen, die Erfahrung und Wissen zu dieser Thematik haben, aber dazu noch wissen wie Diktaturen anfangen können. Bekanntlich haben alle militanten Welt- und die Seelenretter stets und ausnahmslos die Hölle auf Erden geschaffen, – natürlich immer mit den besten Absichten und immer zum vermeintlichen Wohl der Opfer.  Prof. Hans von Storch, Klimaforscher am renommierten GKSS(1) meinte unlängst: “Das PIK will wirklich die Welt retten. Und die glauben, die können das auch.“
Vielleicht wollen auch Sie -sehr geehrter Herr Singelnstein-  ja auch im besten Glauben und mit den besten Absichten, die Welt retten. Anders können wir uns ihre ablehnende Reaktion nicht erklären. Aber wenn das so sein sollte, dann bitte nicht per Desinformation Ihrer Hörer. Z.B.  durch Weglassen von kritischen Stimmen. Gegen Ideologen hilft nur Rationalität, Sachlichkeit und unsere (noch) freiheitliche deutsche Verfassung. Dazu gehört auch vorurteilsfreie umfassende Information. Diese müssen wir eigentlich von den öffentlich bestallten Rundfunkanstalten erwarten dürfen.
Eine Kopie dieses Schreibens geht an Frau Reim und wird in 2 Tagen im Internet veröffentlicht.

Dr. Holger Thuss        Michael Limburg        Prof. Dr. Horst-Joachim Lüdecke
Präsident            Vizepräsident        Pressesprecher

cc- Frau Intendantin Reim als pdf per Mail

1     In: DIE ZEIT, 20.08.2009, S.30

Michael Limburg EIKE

Alle Briefe siehe Anlage

Related Files




Radioaktivität, Aberglaube und Wissenschaft!

In einem medialen Trommelfeuer über Jahrzehnte wurde den Deutschen die Gefährlichkeit von Kernkraft und Radioaktivität eingebläut.

Das hat Wirkung gezeigt, heute wird jeder diesbezügliche Unsinn geglaubt: Böse ist die Technik schlechthin, gut ist die Natur und alles das, was mit dem Zusatz „bio“ versehen worden ist.

Wir haben es dem Physiker und Fachmann in Sachen Radioaktivität Dr. Hermann Hinsch zu verdanken, dass er in seinem Buch

„Radioaktivität, Aberglaube und Wissenschaft“, ISBN 978-3-8423-3785-5, Verlag BOD, 18,90 EURO

mit vielen dieser Vorurteile aufräumt. Es ist Radioaktivität nichts Besonderes von Menschenhand geschaffenes, sondern Radioaktivität und die damit verbundene Strahlung ist ein Teil der Natur. Überall ist Radioaktivität, überall ist Strahlung, mal mehr, mal weniger – auf die Dosis kommt es an, wie schon Paracelsus wusste. So wie die Natur gut oder auch böse sein kann, so ist es auch mit der Radioaktivität und seiner Strahlung. Allerdings ist das Ausmaß des Risikos bei Radioaktivität und Strahlung im Vergleich zu anderen Risiken gering, wie Dr. Hermann Hinsch in seinem ersten Sachbuch „Das Märchen von der ASSE“ bereits begründet hat.

Das neue Buch von Dr. Hinsch ist natürlich wieder in einer humorvollen und für jedermann verständlichen Art geschrieben. Und es ist vor allen Dingen korrekt, im Gegensatz zu vielen anderen zum gleichen Thema verfassten Büchern oder Broschüren, die hier in Deutschland eher einen politischen Zweck als der sachlichen Information dienen sollen.

Die Kernkraft wird weltweit eine zunehmende Rolle in der Energieversorgung spielen, auch wenn Deutschland nach den Ereignissen in Japan den endgültigen Ausstieg unseres Landes aus der zuverlässigen, billigen Stromversorgung mittels Kernkraft beschlossen hat. Es ist eben nicht vorbei mit der Kernkraft, auch nicht in Deutschland, denn es fließt als Ersatz heute Kernkraftstrom aus Frankreich zu uns (siehe www.bdew.de „Energie-Info-Auswirkungen des Moratoriums auf die Stromwirtschaft“). Die politische Meinung, ein Industrieland wie Deutschland mit dem Strom von den „ERNEUERBAREN“ versorgen zu können, ist eine Fata Morgana aus dem Märchenbuch. Es geht nicht ohne die Kernenergie, der Kernkraft gehört die Zukunft trotz andersartig klingender Werbetrommeln.

Wer in Sachen Radioaktivität Aberglaube und Wissenschaft voneinander unterscheiden möchte, dem sei dringend empfohlen, sich heute die erforderliche Grundkenntnisse anzueignen, und nicht bis zum beginnenden wirtschaftlichen Niedergang in Deutschland zu warten. Dr. Hermann Hinsch gibt uns durch sein Buch die beste Gelegenheit dazu.

geschrieben von Dr. Lutz Niemann für EIKE




Nobelpreisträger tritt aus der Amerikanischen Physikalischen Gesellschaft aus, um gegen deren Haltung zum Klimawandel zu protestieren

Foto rechts: Ivar Giaever, Physics Department, Rensselaer Polytechnic Institute

Dr. Ivar Giaever schrieb an Frau Kirby Direktorin von der APS (Amerikanischen Physikalischen Gesellschaft):

„Vielen Dank für Ihren Brief, in dem Sie mich zu meiner Mitgliedschaft befragten. Ich habe diese nicht erneuert, weil ich nicht mit der (APS)-Feststellung zur globalen Erwärmung leben kann. APS: Die Beweise sind unwiderlegbar: Die Globale Erwärmung ist im Gange. Wenn keine Aktionen, diese abzuschwächen, unternommen werden, wird es wahrscheinlich zu signifikanten Störungen in den physikalischen und ökologischen Systemen der Erde, in den sozialen Systemen, Sicherheit und menschliche Gesundheit kommen. Wir müssen ab sofort die Emissionen von Treibhausgasen reduzieren’.

Giaver erklärte, sein Austritt aus der APS sei wegen des Glaubens der Gruppe in die Ängste vor der anthropogenen globalen Erwärmung erfolgt. Giaver erklärte in seiner e-mail an die APS: „In der APS ist es in Ordnung, darüber zu diskutieren, ob sich die Masse eines Protons mit der Zeit ändert, oder wie sich ein Multi-Universum verhält, aber der Beweis der globalen Erwärmung ist unwiderlegbar? Die Behauptung (wie können Sie die mittlere Temperatur der ganzen Welt über ein ganzes Jahr messen?) lautet, dass sich die Temperatur von etwa 288,0 K auf 288,8 K während der letzten 150 Jahre erhöht hat. Das würde bedeuten (falls es stimmt), dass die Temperatur erstaunlich stabil geblieben ist, und dass sich sowohl die menschliche Gesundheit als auch das Wohlergehen definitiv in dieser ‚Erwärmungs’-Periode verbessert hat“.

Die ganze Geschichte steht bei Climate Depot

Hier folgt der Brief im Wortlaut:

From: Ivar Giaever [ mailto:giaever@XXXX.com]

Sent: Tuesday, September 13, 2011 3:42 PM
To: kirby@xxx.xxx
Cc: Robert H. Austin; ‘William Happer’; ‘Larry Gould’; ‘S. Fred Singer’; Roger Cohen
Subject: I resign from APS

Liebe Frau Kirby,

vielen Dank für Ihren Brief, in dem Sie sich über meine Mitgliedschaft erkundigen. Diese habe ich nicht erneuert, weil ich mit der folgenden Behauptung nicht leben kann:

Emissionen von Treibhausgasen aufgrund menschlicher Aktivitäten verändern die Atmosphäre auf eine Art und Weise, dass das Erdklima davon beeinflusst wird. Treibhausgase schließen Kohlendioxid ebenso wie Methan Stickoxide und andere Gase ein. Sie stammen von der Verbrennung fossiler Treibstoffe und einer ganzen Reihe industrieller und landwirtschaftlicher Prozesse.

Der Beweis ist unwiderlegbar: Die Globale Erwärmung ist im Gange. Wenn keine Aktionen, diese abzuschwächen, unternommen werden, wird es wahrscheinlich zu signifikanten Störungen in den physikalischen und ökologischen Systemen der Erde, in den sozialen Systemen, Sicherheit und menschliche Gesundheit kommen. Wir müssen ab sofort die Emissionen von Treibhausgasen reduzieren’.

In der APS ist es in Ordnung, darüber zu diskutieren, ob sich die Masse eines Protons mit der Zeit ändert, oder wie sich ein Multi-Universum verhält, aber der Beweis der globalen Erwärmung ist unwiderlegbar? Die Behauptung (wie können Sie die mittlere Temperatur der ganzen Welt über ein ganzes Jahr messen?) lautet, dass sich die Temperatur von etwa 288,0 K auf 288,8 K während der letzten 150 Jahre erhöht hat. Das würde bedeuten (falls es stimmt), dass die Temperatur erstaunlich stabil geblieben ist, und dass sich sowohl die menschliche Gesundheit als auch das Wohlergehen definitiv in dieser ‚Erwärmungs’-Periode verbessert hat

Best regards,

Ivar Giaever

Nobel Laureate 1973

PS. I included a copy to a few people in case they feel like using the information.
Ivar Giaever

Link zum Rückzug von Hal Lewis: hier, auf Deutsch bei EIKE hier und hier und  hier.

Link zum Original dieses Artikels auf Wattsup: hier

Übersetzt von Chris Frey für EIKE




Der Charakter der Klimaänderung Teil 2 (von vier)

Die wärmeren Breiten der Nordhemisphäre

Abbildung 1: Die Nordhemisphäre zwischen Äquator und 60° nördlicher Breite

Quelle: hier

Abbildung 1 bezieht auf den Teil des Globus’ zwischen Äquator und 60° nördlicher Breite, in dem die menschliche Besiedelung am dichtesten ist.

  1. Sowohl die sommerlichen Maxima als auch die winterlichen Minima gingen zwischen 1948 und 1976 zurück.
  2. Sommerliche Maxima und winterliche Minima stiegen danach bis 1998.
  3. Seit der Jahrhundertwende haben sich die sommerlichen Maxima und die winterlichen Minima kaum noch verändert.
  4. Die winterlichen Minima der Jahre 2008 und 2011 liegen fast genauso niedrig wie während der Abkühlungsperiode zwischen 1948 und 1976.
  5. Das Minimum im Januar variiert viel stärker [von Jahr zu Jahr] als das sommerliche Maximum im Juli.
  6. Die sommerlichen Maxima liegen unter der optimalen Temperatur von 25°C für das Pflanzenwachstum.
  7. Die Abkühlung nach dem Ausbruch des Pinatubo 1991 ist offensichtlich.

Der bewohnbare Teil der Nordhemisphäre ist im Juli drei Grad wärmer als die südliche Hemisphäre im Januar. Dies liegt an der Aufheizung der Atmosphäre und dem Verlust an Bewölkung in Zusammenhang mit dem unterschiedlichen Verhältnis zwischen Land und Wasser auf der Nordhalbkugel. Die See ist transparent und absorbiert solare Strahlung. Die Landoberflächen heizen sich schnell auf und geben die Energie an die Atmosphäre ab, erwärmen sie und reduzieren die Wolkenbedeckung. Folglich haben wir das Paradoxon, dass es auf der Erde als Ganzes wärmer ist, wenn sie am weitesten von der Sonne entfernt ist. Eine bessere Illustration, wie wichtig die Bewölkung bei der Temperatur ist, kann es nicht geben. Die Erde erklärt uns ihre Feedbacks, wenn die Atmosphäre mit Energie geladen ist. Das Feedback ist wegen des Fehlens von Wolken positiv.

Hypothetischerweise müsste die Bewölkung in einer mit der Zeit trockener werdenden Atmosphäre ab- und die Temperatur zunehmen. Im Gegenzug würde die Temperatur in einer feuchter werdenden Atmosphäre abnehmen. Das Austrocknen der Atmosphäre (reduzierte niederschlagbare Feuchtigkeit) war eine mächtige Quelle natürlicher Klimavariationen und widerspricht direkt der postulierten zunehmenden Feuchtigkeit, die in den beim IPCC so beliebten Klimamodellen Eingang findet. Aber die Leute, die die IPCC-Berichte verfassen, lassen Fakten nicht im Wege für eine gute Geschichte stehen. Sehen Sie selbst hier, wie die Atmosphäre zwischen 1948 und 2005 trockener geworden ist! Also sagt uns die Erde selbst, dass der Effekt des Wasserdampf-Feedbacks negativ ist, wenn sich die Atmosphäre erwärmt. Die Atmosphäre wird transparenter für langwellige Ausstrahlung, und nicht weniger transparent.

Die wärmeren Breiten der südlichen Hemisphäre

 

Abbildung 2: die südliche Hemisphäre zwischen Äquator und 50° südlicher Breite

Dazu folgende Bemerkungen:

  1. Sowohl die Maxima als auch die Minima der Temperatur stiegen zwischen 1948 und 1977 und sprangen 1978 auf ein neues Plateau. Diese Breiten der südlichen Hemisphäre erwärmten sich zu genau der gleichen Zeit, als sich die gleichen Breiten der nördlichen Hemisphäre abkühlten.
  2. Ein Plateau zeichnet sich zwischen den Jahren 1978 und 2011 ab, während die Temperatur der Nordhemisphäre in diesem Zeitraum stark gestiegen war.
  3. Es gibt einen markanten Pinatubo-effekt nach 1991, mehr als in der Nordhemisphäre.
  4. Die sommerlichen Maxima (Januar) sind variabler als die winterlichen Minima.
  5. Die winterlichen Minima steigen und werden in gewisser Weise stabilisiert durch die Wärmestrahlung von der Nordhemisphäre, was die Wolken zur Jahresmitte vertreibt. Die Atmosphäre wurde nach 1978 trockener und hätte als Konsequenz zu einer sich erwärmenden Erdoberfläche führen müssen. Die Tatsache, dass die Temperatur nach 1978 stabil war, legt nahe, dass es andere Einflüsse gegeben haben muss, die für die kompensatorische Abkühlung verantwortlich waren.

Die Jahre 1973, 1983, 1978 und 2010 waren Ausnahmejahre mit viel wärmeren Sommern mit einem Maximum von 20,25°C. Halten wir fest, dass selbst die Maximumtemperaturen der wärmsten Sommer noch deutlich unter denen der Nordhemisphäre liegen und deutlich unter der für das Pflanzenwachstum günstigsten Marke. Es ist Unsinn zu sagen, dass es auf dem Globus zu warm wird, wenn das globale Mittel in manchen Gebieten steigt, die nicht warm genug sind. Dieser Teil der Welt ist nicht warm genug.

Dieser Teil der Südhemisphäre zeigt eine viel größere Variabilität von Jahr zu Jahr als die Nordhemisphäre, und am größten ist die Variabilität, wenn die südlichen Ozeane der Sonne von Dezember bis März der Sonne ausgesetzt sind. Da erheben sich Fragen:

1) Warum ist es in der Südhemisphäre zwischen 1948 und 1978 wärmer geworden und in der Nordhemisphäre gleichzeitig kälter? Ist dies konsistent mit der Annahme, dass Änderungen in der Atmosphäre für die Temperaturzunahme verantwortlich sind?

2) Warum ist die Variabilität sowohl der sommerlichen Maxima als auch der winterlichen Minima auf der Südhemisphäre größer als auf der Nordhemisphäre, zumal die Südhemisphäre durch Wasser dominiert wird, von welchem man einen ausgleichenden Einfluss auf das Klima annimmt? Ist dies nicht ein Indikator für ein Phänomen, dass das Klima in einer Hemisphäre ändert und nicht auf den Planeten als Ganzes einwirkt?

3) Warum hat sich das sommerliche Maximum nach 1978 stabilisiert, als die Temperatur der Nordhemisphäre zunahm?

4) Sollten wir uns wirklich wegen dieses Anstiegs der Temperatur in der Südhemisphäre Sorgen machen, wenn das gegenwärtige Temperaturregime noch nicht einmal optimal für das Pflanzenwachstum ist?

5) Welche Gültigkeit hat das globale Mittel als Maß für das Wohlergehen des Planeten, wenn sie durch einen Temperaturanstieg in einem Gebiet angehoben wird, in dem es nicht warm genug ist?

6) Sollten wir uns nicht zu unserem Glück gratulieren, dass die südliche Hemisphäre heute etwas wärmer ist als sie es in der jüngeren Vergangenheit war, anstatt uns in Qual selbst auf die Brust zu schlagen?

Seit den späten siebziger Jahren leisteten die bewohnten Breiten der Südhalbkugel nur einen geringen Beitrag zum Anstieg der globalen Temperatur. Es erhebt sich die Frage: Wenn Treibhausgase anthropogenen Ursprungs für die Zunahme der globalen Mitteltemperatur verantwortlich waren, die nach 1978 offensichtlich ist, wie kommt es dann, dass wir in den weitaus meisten Gebieten der Südhalbkugel wenig oder gar keinen Anstieg sowohl der Maxima als auch der Minima sehen? Können wir die Treibhausgastheorie auf der Basis dieser Information als irrelevant betrachten?

Warum fragt man sich, ob der Globus in Gefahr ist, zu warm zu werden? Unser Interesse ist es doch sicherzustellen, dass die Kapazität des Planeten, das Leben in all seiner Vielfalt zu erhalten, zunimmt. In den wärmsten Gebieten der Erde, die Gebiete, die wir bis hier betrachtet haben, ist die Temperatur für das Pflanzenwachstum suboptimal, vor allem in der Südhemisphäre. Alles Leben hängt von den Pflanzen ab. Es würde uns besser gehen, wenn der Planet wärmer wäre. Es ist die weitere Abkühlung, die eine Bedrohung des menschlichen Wohlergehens darstellt. Wir haben nach oben noch viel Platz!

Wir wollen diese grundlegenden Fragen mal einen Moment beiseite schieben und uns das Klima in den restlichen Gebieten der Erde ansehen.

In hohen Breiten ist das Temperaturregime entweder jahreszeitlich oder dauerhaft kalt. Ich bin sicher, dass mir die meisten zustimmen, wenn ich sage, dass das Klima jenseits von 60° Breite auf beiden Hemisphären keine Lebensgrundlage bietet. Diese Gebiete tragen zur globalen Mitteltemperatur bei. Aber es ist jetzt schon offensichtlich, dass das ‚globale Mittel’ statistisch besser geeignet ist, Propaganda zu betreiben als darauf praktische Entscheidungen zu treffen. Ich denke nicht, dass wir die Bewohner von Skandinavien, Sibirien oder Alaska dazu überreden können, dass die Winterkälte eine gute Sache ist.

Man muss den Befürwortern von AGW gratulieren zu ihrer Taktik, wenn nicht sogar zu ihrer Wissenschaft. Das Konzentrieren auf das globale Mittel ist eine gute Technik zum diskutieren.  Sie haben die Oberhand über die alles nachplappernden Medien und die ‚Kaffeebar-Intelligenz’ errungen. Sie haben die Universitäten mit Ökologen und Umweltaktivisten vollgestopft. Sie haben gut bezahlte und ausgerüstete Bürokratien, die als Umweltpolizisten agieren. Lokale Regierungen sind besessen von steigenden Meeresspiegeln, der Verfügbarkeit und dem Einsparen von Energie. Aber kann die Umweltbewegung es mit ihrem Gewissen vereinbaren, wenn das große Thema der anthropogenen Klimaänderung so grandios gescheitert ist? Hat sie überhaupt ein Gewissen?

Die Arktis

Abbildung 3: Die nördliche Hemisphäre nördlich von 60° Nord

Nördlich von 60° Nord, in einer gemeinhin als ‚Arktis’ bekannten Region, sehen wir relativ große Temperaturschwankungen mit der Zeit, wie dieser Graph zeigt. Der Maßstab wurde wegen der großen Amplitude des Jahresgangs ausgeweitet. Allerdings zeigt sich das sommerliche Maximum bemerkenswert invariabel. Die winterliche Minima sind dagegen hoch variabel und während der ganzen Aufzeichnungsperiode gestiegen. Effekte der Klimaänderung beeinflussen ganz einfach die Minimumtemperatur, nicht jedoch das Maximum. Aber anthropogene Einflüsse können nicht im Sommer und Winter unterschiedlich wirken. Also muss irgendein anderer Faktor diese Änderungen bewirken.

Trotz der Zunahme der Temperatur im Winter gibt es nur wenig Aussicht, dass dieses Gebiet in nächster Zukunft für die Besiedlung geeignet sein wird. Eine Temperaturspanne zwischen 10°C und minus 20°C ist bei Weitem zu kalt. Die wenigen Menschen, die in diesem Teil der Welt leben, werden die verminderte Winterkälte zweifellos begrüßen, und auch die etwas länger günstigen Temperaturen für das Pflanzenwachstum in den südlichen Bereichen dieser Zone, die verminderte Eisbildung und weniger Schnee auf den Dächern.

Hinsichtlich Produktivität und Nachhaltigkeit ist die Variabilität der Temperatur nördlich von 60° Nord nur von geringem Interesse für uns, vor allem, wenn das Minimum einfach das winterliche Minimum spiegelt, wenn die Nächte lang sind, die Bären ihren Winterschlaf halten und Inuit, die etwas auf sich halten, in ihren Iglus hocken. Aber vielleicht ist all das ja nur die Perspektive eines schlecht informierten Australiers. Vielleicht freuen sich ja die Finnen über ihre langen Winternächte, ihre warmen Saunen, und das nackt herumrennen im Schnee, während sie sich mit dem stimulierenden Einfluss von Wodka zuprosten? Das kann Spaß machen, aber höchstens für kurze Zeit und nicht den ganzen Winter über.

Die Antarktis

Abbildung 4: Die Südhemisphäre südlich von 60° Süd

Südlich von 60° Süd verbleiben auch die sommerlichen Maxima deutlich unter dem Gefrierpunkt und sind während der gesamten Periode zurückgegangen. So war sichergestellt, dass das Eis niemals in Gefahr war zu schmelzen. Aber es gab eine starke Zunahme der winterlichen Minima seit 1970, was die männlichen Pinguine wohl dazu gebracht hat zusammen zu stehen, um ihre Brut warm zu halten. Der Windchillfaktor ist aggressiv. Drei Millionen Quadratmeilen [ca. 7,8 Millionen km²] Ozean frieren an den Rändern Antarktikas zu, und trotz des Anstiegs der winterlichen Minima wächst das eisbedeckte Gebiet.

Die mittlere Temperatur der Antarktis hat trotz des starken Rückgangs der sommerlichen Maxima zugenommen. Mit sommerlichen Maxima derzeit um -5°C und winterlichen Minima um -25°C ist dieser Teil der Welt für harte Entdecker mit zu vielen Fingern und Zehen geeignet. Es ist ein Platz für Forschungen, aber nicht zum Besiedeln.

Die starke Zunahme der ‚mittleren’ Temperatur in der Antarktis trägt zum Anstieg des globalen Mittels bei. Aber wieder müssen wir uns fragen, wie angebracht dieses ‚globale Mittel’ wirklich ist. Wenn wir uns wirklich um das planetarische Wohlergehen Sorgen machen, um die bewohnbaren Gebiete des Planeten für Menschen und andere Spezies, um den persönlichen Komfort und die Versorgung mit Wodka, sollte es uns wenig kümmern, was in diesem Teil der Welt passiert, es sei denn, das Eis würde schmelzen, doch gibt es dafür nicht die geringste Chance. Trotz der Abschwächung der winterlichen Minima ist das antarktische Packeis immer noch so groß wie die Antarktis selbst, und es wächst.

Zusammenknüpfen der Fäden

Zunächst wollen wir festhalten, dass der Gedanke, die Erde ist in Gefahr sich zu überhitzen, Unsinn ist. Unser Planet wäre besser bewohnbar, wenn es noch ein paar Grad wärmer wäre.

Zweitens müssen wir fragen, ob die Verteilung der Temperaturänderungen, die wir beobachten, mit der Treibhaushypothese erklärt werden kann. Diese Frage muss verneint werden! Wenn wir danach trachten, Erklärungen für die Änderung der Temperatur zu finden, müssen wir nach Mechanismen suchen, die die Temperatur zwischen November und März beeinflussen, um der Variabilität in diesem Zeitraum gerecht zu werden. Außerdem müssen wir die starke Variabilität der winterlichen Minima in hohen Breiten erklären.

Wir müssen nicht sehr weit nach Gründen für die Variation der Temperatur zwischen November und März suchen. Es ist die El Nino Southern Oscillation. Gibt es irgendeine Übereinstimmung über die Ursachen dieses Phänomens? Nein! Können wir dieses Phänomen als einen möglichen Grund für eine Klimaänderung ausschließen? Offensichtlich nicht!

Kein ‚Antrieb’ wie Spurengaskonzentrationen, die für den Globus als Ganzes gelten und die immer gleichmäßig zunehmen, unabhängig von der Jahreszeit, kann die beobachtete Verteilung der Temperaturänderungen erklären. Einfach gesagt: etwas gänzlich unterschiedliches, etwas, dass eher hemisphärisch und jahreszeitlich als global wirkt, ist für diese Änderungen verantwortlich. Ich glaube, dass wir bis in alle Ewigkeit darauf warten können, bis das IPCC den Grund für die beobachteten Veränderungen entdeckt. Diese Herrschaften leiten ihre Sichtweise von Lord Nelson ab. Schau in die andere Richtung! Seien Sie blind gegenüber dem, was Sie nicht sehen wollen!

Aber Kohlenstoffsteuern und Zertifikatehandel sollten von der Tagesordnung abgesetzt werden. Und wir sollten unseren ‚Kohlenstoff-Fußabdruck’ und die Auffassung von Kohlenstoff als ‚Verschmutzer’ vergessen. Das ist Unsinn! Es ist genauso relevant wie die Idee im Mittelalter, dass klimatische Misshelligkeiten das Ergebnis von Hexenkraft und Sünden ist.

Link: hier

Übersetzt von Chris Frey für EIKE




Teil 4a: Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels

Teil 4 – Die Sonnenatmosphäre: Die Korona

Die Korona ist die äußere Atmosphäre der Sonne. Sie ist die Ursprungsregion des Sonnenwindes und reicht weit in den interplanetaren Raum. Sie ist die äußere Schicht der Sonne. Die Sonnenatmosphäre besteht aus mehreren Sektionen.

 

An der ca. 5.800 K heißen Sonnenoberfläche, der Photosphäre, schließt sich die etwa 10.000 km-dünne Chromosphäre an (Abbildung 46), die ihren Namen vom haarfeinen farbigen Kranz um die Sonne während einer Sonnenfinsternis hat (Abbildung links). Die rote Farbe kommt vom Ly-α Übergang des Wasserstoffs. Die Farbe verrät, dass es sich um eine kühle Region der Atmosphäre handelt. Nach Wedemeyer et al, 2004, liegt die Temperatur zwischen 3.000 K und 1.800 K und wird durch akustische Wellen, deren Energie durch Dissipation in thermische Energie gewandelt wird, erzeugt.

Über der Chromosphäre schließt sich die Übergangsregion an, die die Korona von der Chromosphäre trennt.

 

Abbildung 47 zeigt eine Aufnahme des Satelliten TRACE (Transition Region and Coronal Explorer) von der Übergangsregion im UV-Bereich. Aufgrund ihrer hohen Temperatur geben Beobachtungen im sichtbaren Bereich keinen Aufschluss über ihre Vorgänge. Die Übergangsregion stellt den Übergang (daher der Name) dar, von gravitations-gebundenen und durch Gasdruck und Fluiddynamik bestimmten Prozessen, hin zu überwiegend durch magnetisch, dynamische Kräfte (Magnetohydrodynamik) bestimmten Vorgänge dar. Ihre Höhe lässt sich daher nicht eindeutig bestimmen und variiert. Sie stellt die Grenzschicht der Helium-Ionisation dar.

Der Übergangsregion schließt sich die Korona an. Sie besteht aus einem magnetischen Plasma, dass durch das starke Magnetfeld der Sonne in weiten Teilen beeinflusst wird. Die Korona ist stark strukturiert und ist bei einer Sonnenfinsternis als weiß strahlender Kranz (daher der Name) gut sichtbar. Je nach Aktivität der Sonne erstreckt sie sich mehrere Millionen km weit ins All.

Durch ihr elektro-magnetisch leitendes Plasma ist in der Korona viel magnetische Energie gespeichert. Über den Gebieten mit starker Aktivität bilden sich schleifen- und röhrenartige Magnetstrukturen zu Magnetfeldbögen, mit in sich geschlossenen Feldlinien aus, in denen das Plasma konzentriert ist. Dazu im Gegensatz, die koronalen Löcher über den Polen, die offene Magnetregionen darstellen und deren Feldlinien bis an die Grenzen der Heliosphäre reichen.

Abbildung 48 zeigt Photosphäre, Chromosphäre, Übergangsregion (Transition region) und Korona. Dazu im Röntgenlicht strahlende Magnetfeldbögen mit eingeschlossenem Plasma und ein koronales Loch (Open flux tube), aus dem das Plasma ungehindert entweicht. Abbildung 49 zeigt, warum in der Korona magnetische Effekte dominieren und ihre Heizung auf magnetische Ursachen zurückzuführen ist.

Abbildung 49: Die Eigenschaft eines Plasma wird durch das “Plasma-Beta“ (β) ausgedrückt. β ist das Verhältnis von thermischem Druck und magnetischen Druck. Die Photosphäre, sowie der Sonnenwind werden durch das Plasma bestimmt, wogegen in der Korona der Einfluss des Plasmas abnimmt und magnetische Effekte an Einfluss gewinnen. Dies ist z.B. ein Grund, warum die magnetische Aktivität und die Sonnenfleckenaktivität nicht synchron laufen. Die Koronaaktivität wird durch mehr bestimmt, als nur durch Sonnenflecken.

Wie noch gezeigt wird, spielen koronale Löcher eine wichtige Rolle beim Verstehen der solaren Auswirkungen auf die Erdatmosphäre, die Wolkenbildung und damit auf unser Wetter.

Koronale Löcher werden sichtbar, wenn die Sonne mit Filtern betrachtet wird, die ausschließlich Röntgen und extremes UV-Licht (UVC) der Sonne durchlassen. Dann werden dunklere Gebiete in der Korona sichtbar. Dabei handelt es sich um Gebiete, mit einer um bis zu dem Faktor hundert reduzierten Teilchendichte in der Korona, die auf Grund der geringeren Teilchendichte kälter sind und damit auf den Aufnahmen dunkler erscheinen. Im sichtbaren Spektrum der Sonne sind sie unsichtbar, daher musste die Wissenschaft bis zum Beginn des Satellitenzeitalters zu Beginn der 1960-Jahre (Venussonde Mariner 2, 1962) warten, um sie zu dokumentieren. Der Astronom Julius Bartels hatte sie bereits 1932 aus Beobachtungen von wiederkehrenden magnetischen Regionen, sog. M-Regionen (Stärke-Klassifizierung, M=magnetisch), nach einer Sonnenrotation von 27 Tagen (Carrington-Rotation) abgeleitet.

Abbildung 50: Auf koronalen Löchern stehen die Magnetfeldlinien nahezu senkrecht und weichen über die Planetenbahnen hinaus bis an die Grenze der Heliosphäre. Entlang dieser Magnetlinien bewegen sich Protonen und Elektronen schraubenförmig aufwärts. Aufgrund ihrer unterschiedlichen Polarität entgegen gesetzt zueinander. Da die Partikel wegen der geringen Dichte und der senkrecht stehenden Magnetfeldlinien ungehindert die Sonne in Richtung Weltall verlassen, ist die Teilchengeschwindigkeit aus den koronalen Löchern mit mehr als 800 km/s weitaus höher, als der Sonnenwind aus den aktiven Zonen der Sonne. Während aus der Sonnenoberfläche austretende Magnetfeldlinien aus aktiven Gebieten, z.B. Sonnenflecken, auf kurzen Strecken wieder auf die Sonne treffen und die Teilchen dadurch wieder zur Sonne zurück beschleunigt werden, treten die Teilchen aus einem koronalen Loch sämtlich ins Weltall.

Koronale Löcher sind sehr stabil und können mehrere Sonnenrotationen anhalten. Während im Sonnenminimum koronale Löcher sich meist in Polnähe befinden, befinden sie sich mit zunehmender Sonnenaktivität im Äquatorbereich der Sonne. Diese entstehen dort immer dann, wenn Bereiche gleicher magnetischer Polarität nahe zusammen liegen. Dadurch werden die Magnetfeldlinien in den Grenzbereichen gestreckt und stehen nicht mehr in einem Bogen über der Sonnenoberfläche, sondern senkrecht, wodurch das Plasma als schneller Sonnenwind entweicht.

 

In der Abbildung 51 links zeichnen sich während des Sonnenminimums (NASA, 12.09.1997) deutlich die beiden koronalen Löcher über den Polen der Sonne ab. In der Abbildung Mitte ist ein ausgeprägtes transäquatoriales koronales Loch während dem solaren Maximum zu sehen (SOHO, 08.01.2002) und in der Abbildung rechts der Feldlinienverlauf aus einem koronalen Loch.

Wegen der Dipolcharakteristik des solaren Magnetfeldes im Sonnenminimum, befinden sich koronale Löcher (CH) während des Abklingens des solaren Zyklus und während dem Minimum in Polnähe und ihr Auftreten ist deswegen (Dipol) insgesamt stärker ausgeprägt. So entstehen CH-getriggerte CME im solaren Minimum. Während dieser Zykluszeiten stellen koronale Löcher den Hauptfaktor für die Beeinflussung des irdischen Magnetfeldes, der Ionosphäre und der geladenen Teilchen in den unteren Atmosphärenschichten, bis in die Troposphäre. Sie erreichen dort dieselben Auswirkungen, wie hochenergetische Sonnenflares. Dies hängt damit zusammen, dass sehr viele Teilchen die koronalen Löcher verlassen können, wodurch es am Ort des Geschehens zu einer starken Verringerung der Teilchendichte kommt und am Ort der Wirkung (z.B. Erdatmosphäre), wegen dem erhöhten Teilchenfluss, zu entsprechend großen Auswirkungen.

Abbildung 52 zeigt die Auswirkungen des schnellen Sonnenwindes aus koronalen Löchern und im Vergleich, die des langsamen Sonnenwind aus aktiven Zonen auf den geomagnetischen Ap-Index der Erde im Sonnenminimum, Quelle: Bothmer (Institut für Astrophysik, Uni Göttingen) und Büchner (MPS), “Physikalische Grundlagen des Weltraumwetters – Der Sonnenwind“. Deutlich ist erkennbar, dass der schnelle Sonnenwind die Hauptursache für die Änderungen im Ap-Index darstellt und damit die Hauptursache für elektro-magnetisch bedingte Einflüsse in der Erdatmosphäre ist. Während der langsame Sonnenwind kaum Spuren hinterlässt, sind diese beim schnellen Sonnenwind nicht zu übersehen.

Die Korona wirkt also wie ein riesiger Teilchenbeschleuniger, der unablässig geladenes Plasma ins Weltall und damit in Richtung Erde ausstößt. Wegen der hohen Koronatemperatur gibt es kein Druckgleichgewicht zwischen ihrem Plasma und dem Weltall, wodurch ständig Materie in Form von Sonnenwind abströmt und auf der Erde Auswirkungen verursacht.

Man könnte nun davon ausgehen, dass mit zunehmender Höhe in der Sonnenatmosphäre die Temperatur abnimmt. Dies ist jedoch nicht der Fall. Das ionisierte Gas wird sprungartig auf fast 2 Mil. Kelvin erhitzt. Es muss demnach einen separaten Heizmechanismus geben, der die Korona auf die hohen Temperaturen aufheizt. Hierauf wird auf den nächsten Abschnitten eingegangen.

Abbildung 53 links (Yang et al., 2009, “Response of the solar atmosphere to magnetic field evolution in a coronal hole region”) zeigt den Temperaturgradienten von der Sonnenoberfläche und ihrer Atmosphäre. Dazu die beobachteten Wellenlängen in Angström und das zugehörige Isotop. Mitte das koronale Magnetfeld im solarem Minimum und rechts im solarem Maximum, Quelle: (http://rst.gsfc.nasa.gov/Sect20/A5a.html).

 

Abbildung 54 links zeigt die Korona im Minimum des Schwabe-Zyklus und die Abbildung rechts im Maximum. Sehr gut zeichnen sich im Strahlenkranz der Korona die magnetischen Feldlinien ab, in denen das Plasma gefangen ist und deren Bahnen es folgt. In der linken Abbildung ist das Dipolfeld der Sonne stark ausgeprägt, während es im Maximum nahezu vollständig verschwunden ist.

Wie Abbildung 54 bereits zeigt, wird die Korona sehr stark von der Sonnenaktivität beeinflusst. Abbildung 55, Quelle: (http://soi.stanford.edu/ results/SolPhys200/Poletto/index.html), zeigt die Korona zwischen solarem Minimum und solarem Maximum von 1996 – 2001 und dazu die Sonnenfleckenzahl. Mit zunehmender Sonnenaktivität nimmt die Strahlungsleistung der Korona beständig zu, was am Strahlenkranz um die Sonne gut zu sehen ist. Die kinetische Gastemperatur des Plasmas steigt sprunghaft von 1 Mil. Kelvin im Sonnenminimum auf nahezu 2 Mio. Kelvin, nachdem ein neuer solarer Zyklus beginnt. In aktiven Regionen können die Korona-Temperaturen auf über 10 Mio. Kelvin ansteigen. Es liegt daher nahe, die Korona unmittelbar in Relation zu Klimaereignissen auf der Erde zu setzen.

Auf Grund ihrer hohen Temperatur erreicht das Plasma einen Energieinhalt, der nicht durch die Gravitation der Sonne ausgeglichen werden kann. Da es auch keinen Druckausgleich zu dem interstellaren Medium gibt, expandiert die Korona in den Weltraum, wodurch der Sonnenwind entsteht. Da die Koronatemperaturen mit mehreren Millionen Kelvin nur im Röntgen- und extremen UV-Bereich strahlen, sind deren direkte Beobachtungen nur aus dem Weltall möglich, so dass Datenreihen nur für die letzten Jahrzehnte bestehen. Abbildung 56 zeigt die Schwankungen  der Koronatemperatur über die Sonnenzyklen 22 und 23.

Abbildung 56, Quelle: (http://rst.gsfc.nasa.gov/Sect20/A5a.html), zeigt die Koronatemperatur im Zeitraum 1991 – 2007, aufgenommen mit SWICS (Solar Wind Ion Composition Experiment) der Sonnensonde Ulysses. Auffällig ist im Minimum in 1995 ein plötzlicher Temperaturanstieg nach oben. Der Autor geht davon aus, dass es sich dabei um das exakte Ende des 22. Sonnenzyklus handelt. Dieser Peak findet sich erstaunlicherweise in invertierter Form im Maximum des darauffolgenden Zyklus gegen Ende 2002. Er fällt zusammen mit dem Maximum der magnetischen Aktivität (siehe Untersuchungen von Wilson & Hathaway in der Fortsetzung) und dem Maximum des Hauptsonnenzyklus, dem im Mittel 208 jährigen de Vries-Suess-Zyklus (rote Pfeile). Der Autor geht weiter davon aus, dass zwischen den beiden Zeitblöcken (rot und blau hinterlegte Flächen) und der plötzlichen Max/Min, ein exakter Zusammenhang besteht, der Prognosen über die zukünftige Sonnenaktivität deutlich präziser ermöglicht, als dies gegenwärtig durch die Modelle von Hathaway (NASA) der Fall ist.

Was könnte nun der Grund für dieses sonderbare Verhalten der Sonne sein, einmal die Koronaheizung im Minimum kurz anzuschalten und einmal, im Maximum genauso plötzlich wieder kurz auszuschalten? Der Grund auf kleinen Skalen (Tage/Wochen) liegt in der Sonnenheizung, auf die in den nächsten Abschnitten noch näher eingegangen wird. Keine der gängigen Sonnenparameter, weder die Sonnenfleckenzahl, noch der TSI, ebenfalls nicht die Zeitreihe der koronalen Massenauswürfe CME, weder die IMF, auch keine ihrer Komponenten, auch nicht der Non-axixymmetric Open Flux, noch der Sonnenwinddruck zeigen zu besagten Zeitpunkten Anfang 1995 und Ende 2002 Auffälligkeiten.

Einen Hinweis könnte jedoch die Zeitreihe der Sonnenwindgeschwindigkeit geben.

Abbildung 57 zeigt die Sonnenwindgeschwindigkeit (Ausschnitt aus Quelle: http://www.leif.org/research/files.htm). Deutlich ist erkennbar, dass zu beiden Zeitpunkten ein deutlicher Anstieg (Peak) zu verzeichnen ist.

Verbunden mit der Kenntnis, dass der schnelle Sonnenwind aus den koronalen Löchern kommt, zeichnet sich ab, dass die Ursache und die Lösung auf großen Skalen in den polaren Löchern in der Korona zu suchen ist.

Abbildung 58 zeigt die magnetischen Aktivitätszyklen (http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Grün ist das Polare Magnetfeld der Sonne abgebildet. Zum Jahreswechsel 1994/1995 liegt das Maximum und zu Beginn 2002 ihr Minimum (blaue Linien). Zu beiden Zeitpunkten dreht also das polare Feld.

Eine theoretische Erklärung für die plötzlichen Spitzen im Verlauf der Koronatemperatur sind Flussänderungen und dadurch ausgelöste Induktionsvorgänge in der Konvektionszone der Sonne. Kommt eine elektrisch leitfähige Masse zum Stillstand und wechselt anschließend ihre Fließgeschwindigkeit, so wird nach der Lenzschen Regel ein Induktionsvorgang ausgelöst, der einen magnetischen Strom erzeugt, der sich letztendlich in einer Energieabgabe äußert. Bei Elektromotoren wirkt sich der Effekt durch einen starken Stromanstieg aus, wenn der Rotor blockiert. Der Peak markiert aus Sicht des Autors den exakten Zeitpunkt der Flussumkehr und damit den Beginn des neuen Sonnenzyklus. Der plötzliche Peak in der Mitte des solaren Zyklus ist der umgekehrte Fall.

Solange sich elektrisch leitfähige Massen in einem rotierenden Magnetfeld in Relativgeschwindigkeiten zueinander bewegen, so lange wird durch Induktionsvorgänge (im Innern der Sonne zirkulieren Ströme von 1.000 Milliarden Ampere) die magnetische Aktivität, die durch das innere Magnetfeld der Sonne vorgegeben ist, verstärkt. Haben die Massen nun relativ zueinander gleiche Geschwindigkeiten, so bricht exakt in diesem Moment die Induktion zusammen, was zur plötzlichen Abschwächung der magnetischen Ströme und damit des Magnetflusses führt und die Koronazusatzheizung sozusagen abstellt. Als Zusatzheizung ist der Mechanismus zu verstehen, der die Koronatemperatur nach einem Sonnenminimum auf ihren doppelten Wert anhebt. Dabei handelt es sich um magnetische Wechselströme, die magnetische Wellen verursachen, sog. Alvén-Wellen, sowie Nano-Flares (später im Text).

Wie sich die Strahlungsleistung und damit Energieabgabe der Korona im 20. Jahrhundert änderte, zeigt die folgende Abbildung.

Abbildung 59 links (Quelle: http://www.ngdc.noaa.gov/stp/SOLAR/solarda3.html) zeigt die gesamte Strahlungsleistung der Korona von 1938 – 1995 in W/sr, mit r = 2.800 MHz Radio flux. Deutlich ist zu sehen, dass parallel zum (leichten) Temperaturanstieg auf der Erde, die Strahlungsleistung der Korona stark (25%) ansteigt. Hierbei handelt es sich um die tatsächliche Strahlungsleistung und nicht, wie beim TSI, um die Strahlungsleistung eines kleinen Wellenlängenbereiches (TSI = 200 nm – 2.000 nm). Die NASA beweist damit, dass die Sonne bis zum ausgehenden 20. Jahrhundert immer aktiver wurde. Die rechte Abbildung zeigt die globale Temperaturentwicklung nach Jones.

Koronaheizung

Wie wird nun die Korona so viel heißer wie die Photosphäre? Ein Grund ist natürlich deren geringere Dichte. Bei gleicher Dichte wie in der Photosphäre wäre die Korona keine 2 Millionen Kelvin heiß. Bei der Koronaheizung wirken im Wesentlichen zwei Mechanismen, die beide auf magnetischen Ursachen beruhen, die, die in die Korona reichenden Magnetfelder auslösen, die ständig im leitfähigen Plasma elektrische Ströme induzieren.

Einigkeit in Fachkreisen besteht darüber, dass die heiße Korona nur durch eine zusätzliche Heizung bestehen kann. Eine aussichtsreiche Erklärung ist die Heizung an elektrischen Stromschichten. Diese bilden sich im unteren Bereich der Korona, wo sich das äußerst komplexe Magnetfeld der Sonne sprunghaft ändert. Gemäß den Gesetzen des Elektromagnetismus wird in solchen Stromschichten Energie freigesetzt, mit der die Korona geheizt wird.

Die Energie muss aber letztendlich in Wärme umgewandelt werden. Hierfür kommen zwei Prozesse in Frage, Alfvén Wellen und Nanoflares. Der Beweis gelang 1998 durch TRACE, das beobachtete, wie ein starker Flare in benachbarten Bögen Wellen auslöste, worauf die Bögen hin und her schwangen. Die Dämpfung erfolgte dabei Millionen-mal schneller, als von der Theorie vorhersagt. Waleri M. Nakariakow et al. (St. Andrews-Universität, Schottland) konnten damit zeigen, das magneto-hydrodynamische Wellen ihre Energie an die Korona übertragen können.

Alfvén Wellen

Seit langem ist durch Beobachtungen bekannt, dass sich in der Sonnenatmosphäre magneto-akustische Wellen ausbreiten. Jedoch ist deren Energie zu gering, um die Koronaheizung zu erklären, zumal deren Energie bereits in der Chromosphäre abgegeben wird.

In den magnetischen Flussröhren, die aus der Sonnenoberfläche austreten, entstehen oszillierende Torsionsschwingungen. Dabei handelt es sich um Ionen-Zyklotronwellen, die eine spezielle Form von magnetischen Schwingungen, Alfvén Wellen (schwedischer Physiker und Astronom Hannes Olof Gösta Alfvén, der sie 1938 theoretisch begründete) auslösen. Alfvén Wellen sind niederfrequente Oszillationen von Ionen in einem magnetischen Feld. Die Bewegung der Ionen führt dabei zu einer Störung des Magnetfelds und erzeugt auf diese Weise eine Rückstellkraft, die für die Aufrechterhaltung der Schwingungen sorgt. Alfvén-Wellen breiten sich dispersionslos (Wellenlänge ohne Einfluss auf Ausbreitungsgeschwindigkeit) in Richtung des Magnetfelds aus.

Abbildung 60: Alfvén-Wellen sind sich schnell bewegende Störungen entlang der Magnetfeldlinien in der Sonnenkorona, die Energie nach außen transportieren. Ihre Existenz in der Heliosphäre war seit längerem bekannt, doch noch nicht beobachtet worden, weil Alfvén-Wellen sehr schwer zu entdecken sind, da sie keine großen Fluktuationen in der Sonnenkorona auslösen, wie z.B. bei anderen Wellen üblich. Des Weiteren sieht es so aus, dass sich die Wellen immer mit derselben Geschwindigkeit fortzubewegen, weswegen sie schwer zu detektieren sind. Üblicherweise werden Wellen durch eine Geschwindigkeitsänderung entdeckt. Die Abbildung links (Quelle: National Center for Atmospheric Research) zeigt sich ausbreitende Alfvén Wellen entlang magnetischer Feldlinien in der Korona. Mit einer Ausbreitungsgeschwindigkeit (Phasengeschwindigkeit) von 4.032 km/s sind sie sehr schnell und transportieren ihre Energie entsprechend in die Korona, was z.B. die schnellen Zykluswechsel in der Korona-Temperatur von SWICS erklären würde.

Einem Team um den Sonnenphysiker David B. Jess (University of Belfast), „Alfvén Waves in the Lower Solar Atmosphere“, Science 323, 1582 (2009) gelang es, die Existenz von Alfvén Wellen anhand von Phasenverschiebungen nachzuweisen.

Abbildung 61 links zeigt anschaulich, wie durch die Oszillation von Plasma in einer magnetischen Flussröhre Alfvén Wellen entstehen. In den hellen Flächen der Abbildung rechts gelang es Jess et al. 2009, Alfvén Wellen direkt nachzuweisen. Die Messungen zeigten in der Wasserstoff-Alpha-Linie (oder Lyman-alpha-Linie) periodische Oszillationen der Linienbreite, die nach der Theorie Alfvén Wellen verursachen, weil Alfvén Wellen Torsionsschwingungen in magnetischen Flussröhren erzeugen, die simultan Blau- und Rotverschiebungen erzeugen, was in den hellen Gebieten beobachtet wurde.

Abbildung 62 zeigt die Lyman-Serie. Sie ist eine Abfolge von Spektrallinien des Wasserstoffatoms im Ultraviolettbereich zwischen ca. 91-121 nm. Die Alpha-Linie hat mit 121,6 nm die größte Wellenlänge. Die Lyman-Spektrallinien werden von Astronomen für die Untersuchung von Sternen verwendet und gehen auf den amerikanischen Physiker Theodore Lyman zurück, der sie 1906 entdeckte.

Anhand ihrer Berechnungen kommen die Forscher zu dem Ergebnis, dass die so transportierte Energie ausreichend ist, die Koronatemperatur zu begründen. Dass Magnetfelder für die Koronaheizung eine Schlüsselrolle spielen, liegt nahe, denn dort, wo sie am stärksten sind, ist die Korona am heißesten. Wie bereits geschildert, zeigt die Korona eine starke thermische Struktur.

 

Abbildung 63 (NASA) zeigt die Korona im extremen Ultraviolett (EUV). Die rote Farbe (über den aktiven Regionen) entsprechen Temperaturen von 2 Mio. Kelvin und mehr, grün ca. 1,5 Mio. Kelvin und blau ca. 1 Mio. Kelvin. Die hellen weißen Flecken weisen ein Gemisch aller Temperaturen auf, was auf die Newtonsche Farbmischung zurückgeht. Am Nordpol ist ein koronales Loch sichtbar, das in blau strahlt, also relativ kühl ist. Die Abbildung zeigt die Sonne im Jahr 1999, während ihrer aktiven Phase im 23. Sonnenzyklus. In den aktiven Regionen, in denen das Magnetfeld mit 100 Gauss ca. 10-mal höher wie in der übrigen Korona ist, sind die Temperaturen am höchsten, was den Zusammenhang zwischen Temperatur und Magnetfeld offenkundig werden lässt.

Nano-Flares

In den eingangs geschilderten Stromschichten liegen Magnetfeldlinien unterschiedlicher Polarität sehr eng zusammen. Komplexe plasmaphysikalische Prozesse können zur Neuverbindung (Rekonnexion) dieser Magnetfeldlinien führen, wobei große Energiemengen explosionsartig freigesetzt werden, die geladenen Teilchen beschleunigt und aufheizen. Doch auch diese Theorie konnte nicht durch Beobachtungen bestätigt werden, da die Genauigkeit der benutzten Messmethoden nicht ausreicht, um das Magnetfeld in der unteren Korona zu messen.

Abbildung 64: Magnetfelder der Sonne werden bereits seit gut 100 Jahren mit Magnetographen, die den Zeeman-Effekt benutzen, gemessen. Dieser Effekt besagt, dass sich in Anwesenheit eines Magnetfeldes die Spektrallinien in zwei oder mehr Linien mit etwas unterschiedlichen Wellenlängen aufspalten, was gleichzeitig mit Polarisation verbunden ist. Die Abbildung 64 zeigt einen Sonnenfleck mit zugehörigem Spektrum und Linienaufspaltung. Die senkrechte dünne Linie stammt vom Spektrographenspalt des Messgerätes.

Aus deren Aufspaltung kann das magnetische Feld gemessen werden. Beobachtungen der Korona (Magnetfeldstärke mit ca. 10 Gauss ist dafür zu gering) sind damit noch nicht gelungen, da die Aufspaltung der Spektrallinien, die sie ausstrahlt, für die heutige Messtechnik zu gering ist.

Durch die eingangs geschilderte Rekonnektion, was etwa so viel wie Kurzschluss bedeutet, kommt es, genau wie bei einem elektrischen Kurzschluss, zu einer explosionsartigen Entladung und damit zu einer explosionsartigen Freisetzung von Energie, wodurch Sonnenflares ausgelöst werden. Deren Energieinhalt liegt bei ca. 6 x 1025 Joule. Zu den bekannten, weil direkt beobachteten Flares kommt es auf kleinen Einheiten zu Mikro- bzw. zu noch kleineren Nanoflares, die wiederum magnetische Wellen aussenden. Deren Energie liegt bei ca. 1017 – 1019 Joule, was  der Energie von 1.600 – 160.000 Hiroschimabomben entspricht.

Abbildung 65 (Wedemeyer-Böhm et al., 2008, “Coupling from the Photosphere to the Chromosphere and the Corona“) zeigt aus der Sonne austretende Magnetfeldlinien (network), in denen es durch Rekonnektion zu Nanoflares kommt, die wiederum Alfvén Wellen auslösen, die bis in die Korona reichen. Durch die Granulation der Sonnenoberfläche, das auf-und Absinken von Materie durch Konvektion um einige Kilometer, werden akustische Wellen (shock waves mit einer Periode von 5 Minuten) ausgelöst, die die Chromosphäre heizen. Zwischen den Magnetfeldern unterschiedlicher Polarität bilden sich Stromschichten (current sheets) aus, die zeitlich stark fluktuieren.

Durch die Freisetzung hochenergetischer Energie in Form von Röntgenstrahlung und UV-Strahlung wird das Koronaplasma mit Energie versorgt und die Temperatur der Korona dadurch erhöht. Wogegen Flares vorwiegend in aktiven Regionen der Sonne auftreten, sind Nano- und Microflares auch in ruhigeren Gebieten der Sonne vorhanden.

Diese Mikroflares verursachen seismische Wellen, die die Sonnenoberfläche durchziehen (Abbildung 66, Quelle: NASA). Ein Forscherteam um Robert Lin (University of California in Berkeley) werteten dafür über 10.000 Mikroflares aus und konnten dabei zeigen, dass aufgrund ihrer hohen Anzahl, diese einen starken Einfluss auf das Sonnenwetter haben, Quelle: (http://www.sciencedaily.com/releases/2003/07/030721084713.htm).

Abbildung 66: Die Bildsequenz zeigt den Ausbruch eines Mikroflares und dadurch verursacht, die Ausbreitung seismischer Wellen auf der Sonnenoberfläche und wie ein Materiejet aus der Sonne herausschießt.

Dass Nano- und Mikroflares die entscheidende Ursache (weitere Forschungsarbeiten sind notwendig, dies zu erhärten) für die Koronaheizung sind, hat ein Team um den Astrophysiker James Klimchuk, vom Laboratorium für solare Physik des Goddard Space Flight Center der NASA, erhärtet “Nanoflares heizen Sonnenkorona auf“ (scinexx vom 19.08.2009).

Abbildung 67: Das Falschfarbenphoto eines Nanoflares (Quelle: NASA/ Goddard Space Flight Center) zeigt dessen Temperaturprofil. In den blauen Regionen steigt die Temperatur auf 10 Millionen Kelvin. Durch die Messungen der japanischen Sonnensonde Hinode konnte nachgewiesen werden, dass Nanoflares Strahlungsausbrüche mit Temperaturen von bis zu 10 Millionen Kelvin erzeugen.

Wodurch werden Micro- und Nanoflares ausgelöst? Die Erklärung sind die sog. “Bright Points“. Dabei handelt es sich um zahlreiche, nur 100 km große helle Punkte, die durch kleine Magnetfeldkonzentrationen hervorgerufen werden. Es wird angenommen, dass sie Überreste von Flecken darstellen oder lokal durch magnetokonvektive Vorgängen entstehen. Das letztere dürfte nach Ansicht des Autors die Ursache sein, sonst wären im Fleckenminimum nicht noch hunderttausende zu erkennen.

Abbildung 68: Bei den gegen Ende des 20. Jahrhunderts entdeckten “Bright Points“ (Pfeile) handelt es sich um Magnetfeldröhren. Dass diese im Gegensatz von z.B. Sonnenflecken heller, also heißer als ihre Umgebung sind, liegt zum einen daran, dass bei Sonnenflecken die unterdrückte Konvektion überwiegt, weil die zu heizende Fläche mit dem Quadrat, die Fläche der heißen Wände aber nur linear mit dem Durchmesser zunimmt.

Bright Points weisen eine erheblich geringere Massendichte als ihre Umgebung aus. Dadurch blickt man durch die Röhre in tiefere, heißere Schichten der Sonne. In den Magnetfeldröhren wird der magnetische Druck stark verstärkt. Dieser muss durch einen verringerten Druck im Plasma ausgeglichen werden, damit die Region im Druckgleichgewicht bleibt und nicht zusammenfällt. Wegen der hervorragenden Wärmeleitfähigkeit des Materials kann dies nicht durch Abkühlung, sondern nur durch eine Verringerung der Plasmadichte erreicht werden. Dadurch wird das Plasmapaket leichter und erhält eine Auftriebskraft. Die folgende Abbildung gibt einen Größenvergleich der Bright Points wieder.

Abbildung 69 links zeigt drei Bright Points auf der Sonnenoberfläche und dazu ihre Helligkeitsintensität. Rechts ist das magnetische Profil desselben Raumabschnittes abgebildet. Deutlich ist zu sehen, dass in den Bright Points die magnetische Feldstärke sehr stark erhöht ist, wodurch der Beweis erbracht ist, dass es sich um magnetische Flussröhren handelt. In beiden Abbildungen sind als Größenvergleich die Umrisse Deutschlands zum Vergleich eingezeichnet, Quelle: MPG, 05.11.2010,

Aufgeheizt werden die Magnetfeldröhren neben der induktiven, magnetischen Erwärmung durch die umliegenden heißen Wände. Die stetige Energiezufuhr und die dadurch gespeicherte Energie könnten beim Zerfall der Magnetfeldröhren, wenn kein Druckgleichgewicht mehr aufrechterhalten werden kann, zu Ausbrüchen und damit zu Mikroflares, bzw. zu Nanoflares führen. Ähnlich beim Zusammenbruch eines Sternes, der durch magnetische Prozesse getrieben wird. Die folgende Abbildung zeigt, wie durch Rekonnektion in zeitlich kurzer Abfolge ein Mikroflare ausgelöst wird.

Abbildung 70: Die Bildsequenz, Quelle: ”X-ray Imaging & Spectral Statistics of Small Solar Flares Observed with RHESSI”, Iain G. Hannah et al. Space Sciences Laboratory, University of California, Berkeley (http://www.mssl.ucl.ac.uk/www_solar/seminars_files/Presentations/Hannah_20070425.pdf) zeigt, wie durch magnetische Rekonnektion (links und Mitte) ein Mikroflare (rechts) ausgelöst wird. Dabei geht die Rekonnektion der höheren Energie, der der niederen Energie voraus (Mitte).

Durch die kleinsten bekannten solaren Einheiten (Gebilde), die Bright Points, wird die Temperatur der Korona maßgeblich bestimmt. Zu diesem Ergebnis kommt das Forscherteam um Prof. Solanki (MPS), das dies anhand von Daten der Sonde “Sunrise“ beweisen konnte “SUNRISE enthüllt magnetische Grundbausteine der Sonne“, Max Planck Gesellschaft, 05. November 2010. Sie sollten darüber hinaus auch für die in Abbildung 56 gezeigte Regelung der Korona-Temperatur verantwortlich sein. Also das Zuschalten der „Koronaturboheizung“, wenn die Koronatemperatur von 1 Mil. Kelvin im solaren Minimum, auf annähernd ihren doppelten Wert ansteigt.

Wo entstehen die Bright Points? Die Antwort gibt die folgende Abbildung.

Abbildung 71 links zeigt die Granulation der Sonnenoberfläche als netzartige Struktur. Diese Granulen haben eine Ausdehnung von einigen tausend Kilometern. Man erkennt zwischen den Granulen kleine helle Punkte. Abbildung rechts zeigt als Vergrößerung einige Granulen und dazwischen, gut erkennbar (Pfeile), die Bright Points. Beide Photos, Quelle: (http://www.physorg.com/news161972205.html).

Warum entstehen die Bright Points nur zwischen den Granulen? Die Antwort wurde bereits auf den vorherigen Seiten (indirekt) gegeben. Sie liegt in der bewegten Sonnenoberfläche.

In den Granulen steigt heißes Plasma nach oben. In den vorigen Abbildungen gut an der helleren Farbe in der Granulenmitte zu erkennen. Dieses Plasma erfährt an der Sonnenoberfläche eine Abkühlung, wodurch es schwerer wird und absinkt. Dies kann es aber nicht in den Granulen, weil dort das heiße Plasma von unten aufsteigt, sondern nur an ihren Rändern. Zu erkennen an der dunkleren Farbe an den Granulenrändern. Durch diesen Effekt kommt es zu einem beständigen brodeln der Sonnenoberfläche. Durch die Relativbewegung von elektrisch leitfähigen Materialien (Plasma) an den Granulenrändern werden Induktionsvorgänge ausgelöst, die zu örtlichen magnetischen Strömen, bzw. zu Magnetfeldern führen. Die Bewegungsenergie des Plasmas wird in magnetische Energie gewandelt.

Durch den magnetischen Fluss ist der magnetische Widerstand in diesen Zonen gemäß dem Hopkinsonschen Gesetz (Um = Rm . Ф, Ф = magnetischer Fluss) reduziert und dadurch die magnetische Leitfähigkeit erhöht. Die Magnetfelder aus der Konvektionszone der Sonne suchen sich aus dem Sonnenmantel (Konvektionszone) den Weg des geringsten Widerstandes, genau wie elektrische Ströme. Dies ist zwischen den Granulen. Sind nun die, auf Grund der Relativbewegung entstehenden magnetischen Felder zwischen den Granulen phasengleich, also richtungsgleich zu den aus der Sonne austretenden Magnetfeldern, findet eine Verstärkung statt, wodurch der magnetische Widerstand weiter reduziert wird. Dies sollten die Bereiche sein, in denen die Bright Points entstehen. Es sind die Bereiche des geringsten magnetischen Widerstands. In ihnen tritt das Magnetfeld der Sonne verstärkt an die Oberfläche.

Das MPS ermittelte die Feldstärke in den Bright Points mit bis zu 1.800 Gauss, was der 3.000-fachen Stärke des Erdmagnetfeldes entspricht. Ihre Temperatur liegt um ca. 1.000°C höher als in ihrer nichtmagnetischen Umgebung (The Astrophysical Journal Letters, 723, L127 – L189). Weiter konnten die Wissenschaftler erstmals die Helligkeit der Bright Points im UV-Bereich bestimmen. Diese ist etwa fünf Mal stärker als in der Umgebung. Tino Riethmüller vom MPS: „Nur so ist es möglich, den Beitrag der hellen Flecken zu den Helligkeitsschwankungen der Sonne abzuschät-zen“. Ein Seitenhieb an die Adresse der tendenziösen Arbeit von Spruit et al., die anhand von Helligkeitsuntersuchungen herausgefunden haben wollen, dass die Sonne seit 50 Jahren nicht aktiver geworden sei. Nun, zu der Aussage war Henk Spruit bei seinen Untersuchungen in 2006 noch gar nicht in der Lage und sein Endergebnis ist somit in die berühmte Tonne zu werfen.

Da die Erdatmosphäre die UV-Strahlung in der Stratos- und oberen Troposphäre fast vollständig absorbiert, spielt dieser Teil des Sonnenlichts eine wesentliche Rolle bei der Erwärmung der oberen Luftschichten und somit auf das Klima- und Wettergeschehen der Erde.

Diese magnetischen Flussröhren, die sich optisch als Bright Points abbilden, sind mit knapp 100km Durchmesser die kleinsten bekannten Einheiten des solaren Magnetfeldes. Sie sind auf Grund der sich über die gesamte Sonnenoberfläche erstreckenden netzartigen Struktur der Granulen auch in den ruhigen Gebieten der Sonne zu finden. Wie noch gezeigt wird, ist das Polare Feld der Schalter, der die Koronaturboheizung ein, bzw. abschaltet.

Abbildung 72: Die Bilderserie (Quelle: ”Microflare Activity Driven by Forced Magnetic Reconnection” D.B. Jess et al.) zeigt, wie aus zwei Bright Points (weiße Kreise) ein Mikroflare (Abbildung rechts) ausgelöst wird. Grün ist die neutrale Linie zwischen den entgegen gesetzten magnetischen Polen.

Wie steuern die Vorgänge in der Konvektionszone der Sonne die Bright Points? Letztendlich wird Bewegungsenergie im Plasma in magnetische Energie gewandelt, wobei es keine einheitliche Bewegungsrichtung, sondern überlagerte Bewegungen gibt. Den Hinweis zur Antwort geben die folgenden Abbildungen, Quelle: NASA.

Abbildung 73: Nach den Vorstellungen und Beobachtungen der NASA wird im Conveyor Belt das Plasma an der oberen Konvektionszone zu den Polen transportiert. Die Plasmaflüsse bestehen aus einem nördlichen und einem südlichen Teil. An den Polen sinkt Plasma in die Tiefe und wird zum Äquator transportiert. Entgegen der vereinfachten Darstellung der NASA (Hathaway) handelt es sich nicht um ein zusammenhängendes Gebilde, sondern es besteht wegen der unterschiedlichen Temperaturen und damit unterschiedlichen Dichte in der 200.000 km-starken Konvektionszone aus mehreren Schichten (kleine Abbildung). Links ist der Magnetfeldfluss und dessen Verstärkung an den Polen, durch sinkendes Plasma dargestellt.

Laut NASA benötigt das Plasma im Convoyer Belt für einen Umlauf ca. 40 Jahre. Wegen der größeren Dichte und dem geringeren Radius sind die Radialbeschleunigungen an der unteren Konvektionszone, also an der Unterseite des Conveyor Belt geringer als in den oberen Zonen, so dass im Plasma unterschiedliche Driftströmungen entstehen, an deren Grenzschichten turbulente Reibung auftritt.

Nach der Potentialtheorie von Gauß kann ein flüssiges Medium nur dann eine Gleichgewichts-figur (beschreibt in der Astronomie einen flüssigen, stabilen Aufbau von Sternen, bei denen die inneren Grenzflächen, die jeweiligen Niveauflächen und die Oberfläche im Gleichgewicht aller Kräfte sind) ausbilden, wenn alle seine Niveauflächen jeweils die gleiche Dichte aufweisen. Eine Störung dieses Gleichgewichts, z.B. durch die Temperatur, Gravitation oder Magnetfelddichte hat seitliche oder vertikale Plasmabewegungen zur Folge, weil Plasmateilchen verschiedener Dichte nicht nebeneinander bleiben können. Dies bewirkt eine Korkenzieherströmung, ähnlich wie in einer Ekman-Spirale und dadurch, eine Auftriebskomponente im Plasma. Das schnellere Plasma in den höheren Schichten zieht das darunter liegende, langsamere Plasma durch Reibung mit. Im Gegensatz zur Ekman-Spirale treibt nicht der Wind die Korkenzieherströmung (dort ist es das Meerwasser), sondern auf der Sonne, die zur Oberfläche zunehmenden Plasmageschwindigkeiten.

Abbildung 74: Ähnlich einer Ekman-Spirale kommt es im Sonnenplasma auf Grund der höheren Oberflächenströmung zu einer Korkenzieherströmung, die eine aufwärts gerichtete Komponente aufweist. Während auf dem Meer der Wind das Wasser durch Reibung hinter sich herzieht (was sich in den jeweiligen Grenzschichten im Wasser fort setzt), zieht die oberste (schnellere) Plasmaschicht die unteren durch Reibung hinter sich her. Die Corioliskraft lenkt das Plasma auf der Nordhalbkugel nach rechts und auf der Südhalbkugel nach links ab, wodurch die in der vorherigen Abbildung gezeigten unterschiedlichen Fließrichtungen des nördlichen- und südlichen Convoyer-Belt entstehen. Aufgrund der Corioliskraft dreht dabei die Richtung des Geschwindigkeitsvektors immer mehr nach rechts (nördliche Halbkugel).

An den Grenzschichten der “Korkenzieherströmung“ kommt es durch die Bewegungen im elektrisch leitfähigen Plasma zu örtlich stark ausgebildeten Magnetfeldern, die die Keime für Sonnenflecken sind. Da nördliches und südliches Convoyor-Belt über die Corioliskraft miteinander gekoppelt sind, kommt es zu der paarweise Ausbildung von Sonnenflecken mit einmal südlicher und einmal nördlicher Polarität. Je stärker die Korkenzieherströmung (mitziehen) ist, desto stärker die magnetische Aktivität und damit die Ausbildung von Sonnenflecken.

Da nach Dr. Landscheidt die Planeten und die Änderung des solaren Baryzentrums den Aktivitätszyklus der Sonne (mit) triggern, wäre dies eine Erklärung, warum es bei bestimmten Planetenkonstellationen zu solaren Aktivitätszyklen kommt. Durch den Antrieb der äußeren Plasmaschichten durch die Planeten kommt es zu einer Verstärkung der solaren Strömung, vorzugsweise in den oberen Sonnenschichten, was wiederum eine Verstärkung der Driftströmungen, damit der turbulenten Reibung und letztendlich der Korkenzieherströmung bewirkt und damit zu verstärkten Sonnenflecken führt.

Wegen der Viskosität sind in zähen Flüssigkeiten (tiefere Sonnenschichten) die Plasmateilchen stärker aneinander gebunden und damit unbeweglicher. Die innere Reibung ist dort stärker. Daher sollten Sonnenflecken vorzugsweise in den oberen Schichten der Sonne entstehen, weil hier die Plasmateilchen beweglicher und daher die Induktionsvorgänge größer sind.

Sollten die Angaben der NASA hinsichtlich der Umlaufzeit von ca. 40 Jahren zutreffen, käme es in der halben Zeit, also ca. alle 20 Jahre zu einem Richtungswechsel der Flussgeschwindigkeit, was nichts anderes darstellt als eine Polumkehr des Magnetfeldes. Die Polumkehr steht für den Hale-Zyklus der Sonne, dessen Länge beträgt im Mittel 22 Jahre, was mit den Beobachtungen der NASA am Convoyer-Belt im Einklang steht.

Abbildung 75: (Y. B. Du and P. Tong, J. Fluid Mech., 2000) zeigt Turbulenzen in konvektiven Strömungen, wie sie auch auf der Sonne durch aufsteigendes heißes Material entstehen (in der Abbildung sind wärmere Bereich grün/blau codiert). Zu diesen konvektiven Turbulenzen kommen auf der Sonne die Turbulenzen*) aufgrund der unterschiedlichen Umlaufgeschwindigkeiten im Plasma.

*)   Zur mathematischen Beschreibung der Strömung in Fluiden dient die Eulersche Bewegungsgleichung, die Kontinuitätsgleichung und die Navier-Stokes-Gleichung für die Berücksichtigung der Reibung.

Abbildung 76, Quelle: UCAR, “Extended solar minimum linked to changes in Sun’s conveyor belt”, Mausumi Dikpati et al. vom 12.08.2010 (http://www2.ucar.edu/news/2354/extended-solar-minimum-linked-changes-sun-s-conveyor-belt) zeigt rechts die analysierte Fließrichtung, Fließgeschwindigkeit und Ausdehnung der Plasmaflüsse (Hauptrichtung) im Convoyer-Belt während dem 23. Sonnenzyklus. Dazu links zum Vergleich, die Plasmaflüsse während eines (vergleichsweise) kurzen solaren Zyklus. Da der Rücktransport des Plasma im 23. Zyklus länger war (rechts), ist davon auszugehen, dass der Hinflus auch länger ist, weil die Teilbereiche in der Konvektionszone noch miteinander verbunden sind, so dass der 24. Zyklus (jetzt längerer Weg für Hinflus zum Pol) lang und aktivitätsschwach ausfällt. Erst wenn sich die Teilbereiche wieder trennen, erhöht sich die magnetische solare Aktivität, d.h. es gibt dann immer zwei sehr schwache Zyklen. Dies würde z.B. die zwei schwachen Zyklen im Dalton-Minimum erklären. Bleiben hingegen die Bereiche länger miteinander verbunden, fallen die weiteren Sonnenzyklen aus, wie zuletzt im Maunder-Minimum.

Anhand dieser Theorie hat das Convoyer-Belt in einem langen Sonnenzyklus eine ausgedehntere Form, als in einem kurzen Sonnenzyklus und braucht dadurch länger für einen Umlauf und die Polumkehr, die einen neuen Sonnenzyklus einläutet, findet später statt. Da sich dadurch auch die innere Reibung erhöht, weil die Massen deutlich größer sind, wird der nächste Sonnenzyklus entsprechend der niederen Umlaufgeschwindigkeit des Plasmas schwächer ausfallen.

Insbesondere die Aufteilung des Convoyer-Belt in zwei Haupteinheiten während eines kurzen Sonnenzyklus erklärt auch, warum kurze Sonnenzyklen stärker als lange Zyklen sind. Die Umlaufgeschwindigkeit ist wegen der geringeren Masse größer und der Drehimpuls ist größer, ähnlich einem Eiskunstläufer, der seine Geschwindigkeit dadurch erhöht, indem er seine Arme an den Körper heranzieht. Hier sind die „Arme“, die Weite des Convoyer-Belts.

Die Aufteilung des Convoyer-Belts in 2 (in Abbildung 76 links sind zwei dargestellt) oder gar mehr Einheiten bestimmt die Stärke und Dauer des Sonnenzyklus, wobei die magnetische Aktivität zu beiden Seiten des Sonnenäquators umso stärker ist, je schneller die Plasmafließgeschwindigkeit ist. Sie steuert die Induktionsvorgänge im elektrisch leitfähigen Plasma, sowie den Magnetfluss. Über die Corioliskraft sind beide Felder (nördliche und südliche Sonnenflecken) direkt miteinander gekoppelt.

Die folgende Abbildung zeigt, wie die Aktivität der Mikroflares (Anzahl), die durch Umwandlung von Bewegungsenergie in magnetische Energie und anschließender Rekonnektion der Magnetfelder ausgelöst werden, synchron zum Sonnenzyklus verläuft.

Abbildung 77 zeigt die Anzahl der Mikroflares von 2002 – 2007, Quelle: ”X-ray Imaging & Spectral Statistics of Small Solar Flares Observed with RHESSI”, Iain G. Hannah et al. Space Sciences Laboratory, University of California, Berkeley. Das Maximum lag zum Jahreswechsel 2002/2003 und fällt mit der magnetischen Aktivität der Sonne zusammen und läuft der Sonnenfleckenaktivität ca. 2 Jahre nach. Deutlich ist zu sehen, dass mit abnehmender solarer Aktivität auch die Mikroflares abnehmen. Allerdings ist die Koronatemperatur Schwellwert-gesteuert. Was ist der Schalter für dieses Verhalten?

Zur Beantwortung der Frage muss zuerst geklärt werden, inwieweit der maßgebliche Heizmechanismus, die Nanoflares ebenfalls von der solaren Aktivität abhängen und, inwieweit, entgegen gesetzt zu den Mikroflares, diese über die gesamte Sonnenoberfläche auftreten.

Abbildung 78 (Quelle, siehe oben) zeigt die Verteilung der beobachteten Mikroflare über die Breiten- und Längengeraden. Während diese über die Längengeraden gleichmäßig verteilt sind, sind sie, wie die Sonnenflecken, vorzugsweise auf beiden Seiten des Äquators anzutreffen. Die Temperatur der Mikroflares lag dabei zwischen 10 und 16 Millionen Kelvin.

Zur Beantwortung wird ein Sonnenphänomen herangezogen, welches auf den vorherigen Seiten schon oft zu sehen war, aber noch nicht explizit angesprochen wurde. Es sind die Protuberanzen der Sonne. Dabei handelt es sich um kühle Materiewolken in der Sonnenatmosphäre, die Magnetfeldlinien folgen und oft eine bogenförmige Form ausweisen.

Sie sich vor der Sonnenoberfläche als mattes Gebilde ab, welches Filament genannt wird. Protuberanzen sind die größten Gebilde auf der Sonne. Die meisten sind jedoch klein.

 

Abbildung 79 zeigt die Sonne im ultravioletten Bereich am 30. März 2010. Links oben ist eine große, bogenförmige Protuberanz zu sehen. Über den ganzen Sonnenball sind kleine Protuberanzen verteilt, die wie zerzauste Watte in die Korona reichen. Die roten Bereiche sind mit bis zu 60.000 Kelvin vergleichsweise kühl, wogegen die grünen und blauen Bereiche Temperaturen größer 1 Million Kelvin aufweisen, Quelle: SDO/AIA. SDO (Solar Dynamics Observatory) ist die im Februar 2010 gestartete NASA-Sonnensonde und AIA (Atmospheric Imaging Assembly) ist das Messinstrument, welches die Vorgänge in der Sonnenatmosphäre aufzeichnet. Darüber hinaus trägt die Sonde das Messsystem HMI (Helioseismic and Magnetic Imager), mit dem Vorgänge im Sonneninnern aufgezeichnet werden und das Messsystem EVE (Extreme Ultraviolet Variability Instrument) zur Beobachtung der sehr kurzwelligen (<150 nm) UV-Strahlung.

Was haben nun kühle Protuberanzen, mit heißen Nanoflares zu tun, die als Koronaheizung gelten? Beide folgen Magnetfeldlinien der Sonne und in beiden wird Materie entlang der Magnetfeldlinien durch ein magnetisches Feld beschleunigt. Bei Nanoflares muss es darüber hinaus zu einer magnetischen Rekonnektion, mit explosionsartig freigesetzter Energie kommen. Eine Rekonnektion kann grundsätzlich überall dort auftreten, wo die magnetischen Feldlinien konzentriert werden und nicht unmittelbar ins Weltall entweichen. Also alle Stellen auf der Sonne, mit Ausnahme von solaren Löchern, da dort die Feldlinien ungehindert ins Weltall entweichen.

Wie das MPS ermittelte, sind die Ausgangszellen für Nanoflares die Bright Points auf der Sonne, die überall dort entstehen, wo die Sonnenoberfläche eine netzartige Struktur aufweist. Dies ist die gesamte Sonnenoberfläche. In ihr kommt es durch Konvektion und der größeren Umlaufgeschwindigkeit der oberen Konvektionszone zu einem ständigen Auftrieb von Plasma, welches bei Abkühlung an der Oberfläche, wieder absinkt.

Sollen Nanoflares die Hauptursache der Koronaheizung sein, müssen Bright Points mit der solaren Aktivität variieren, d.h. bei aktiver Sonne muss die Anzahl von Bright Points auf der Sonnenoberfläche stark zunehmen und zwar, setzt die Koronaturboheizung ein, sprunghaft zunehmen. Die folgende Abbildung zeigt die Anzahl von Bright Points bei ruhiger Sonne.

Abbildung 80 zeigt magnetische Bright Points auf der ruhigen Sonne vom September 2007, Quelle: (http://apod.nasa.gov/apod/ap100416.html). Der weiße Balken kennzeichnet eine Länge von 5.000 km.

Da MBPs erst 1999 entdeckt wurden, gibt es derzeit noch keine Zeitreihe über ihr Auftreten im Schwabe-Zyklus (dem Autor sind keine bekannt), so dass sich anhand von Einzelaufnahmen, an die Antwort, inwieweit sie direkt proportional zur solaren Aktivität auftreten, herangetastet wird. Hier wird die Arbeit von R. Ishikawa et al., 2007 “Relationship between magnetic foot points and G-band bright structures“ herangezogen. Aus der Arbeit stammen die folgenden Abbildungen.

Abbildung 81 zeigt den Bereich zwischen zwei Sonnenflecken am 09. Juli 2005 bei aktiver Sonne. Der Rechteckbereich wird in der Arbeit auf MBPs untersucht.

Abbildung 82 links zeigt den markierten Ausschnitt aus der vorherigen Abbildung zwischen zwei Sonnenflecken, also einer aktiven Region. In der Abbildung rechts wurden die MBPs eingetragen. Es zeigt sich, dass deren Anzahl gegenüber der Abbildung auf der vorherigen Seite (ruhige Sonne) stark erhöht ist. Nach vorsichtiger Schätzung um den Faktor 2. Arcsec ist die Winkeleinheit (1/3600°) des beobachteten Radius der Sonnenoberfläche. Bei einem Sonnendurchmesser von 1.391.400 km sind 1 arcsec ≈ 1.200 km.

Die Datenvergleiche deuten darauf hin, dass in aktiven Regionen der Sonne und dann auch allgemein bei aktiver Sonne, die Anzahl der MBPs deutlich ansteigt. Der Autor geht davon aus, dass mit Beginn eines solaren Zyklus, wenn die Koronaturboheizung sozusagen einschaltet und die Koronatemperatur nahezu verdoppelt wird, MBPs und damit Nanoflares sprunghaft ansteigen.

Wissenschaftler der Universität Göttingen um Prof. Eberhard Wiehr und Prof. Burkart Bovelet ist es gelungen, die Anzahl der kleinräumigen magnetischen Gebilde auf der gesamten Sonnenoberfläche zu bestimmen, “The quiet Sun’s magnetic flux estimated from Ca II H bright inter-granular G-band structures“, Astronomy & Astrophysics, DOI: 10.1051/0004-6361:200809717. Die Forscher nutzten für ihre Untersuchungen das blaue Licht des Kohlen-wasserstoff-Moleküls (CH) und das violette Licht des einfach ionisierten Kalziums (Ca+). In deren Spektralbereichen leuchten die kleinen Magnetfeldgebiete heller als ihre Umgebung.

Abbildung 83 links zeigt das Magnetogramm der Sonne während dem Aktivitätsmaximum im 23. Zyklus und daneben während dem Minimum im November 2007. Die magnetische Aktivität ist als hell (Nordpol)/dunkel (Südpol)-Schema abgebildet. Während dem Minimum zeigt sich eine feinkörnige Struktur. Das Rechteck zeigt das Beobachtungsgebiet, Quelle: scinexx vom 05.09.2008.

Abbildung 84 stammt von der frei zugänglichen Homepage von Prof. Wiehr und wurde während des Sonnenminimums in 2007 aufgenommen, Text: “Der 108000 km mal 85000 km grosser Ausschnitt der Sonnenscheibenmitte im im Lichte der H-alpha Linie; mit den rund 3000 identifizierten kleinräumigen Magnetgebieten, die im G-band hellen (‚bright points‘) sind blau, die schwachleuchtenden, bisher kaum zu identifizierenden gelb markiert. Die blauen finden sich an den Fusspunkten der dunklen H-alpha-Fibrillen, die die Netzwerkraumränder markieren, die gelben auch im Inter-Netzwerk.“

Die Forscher kommen anhand der Hochrechnung des beobachteten Gebiets auf die gesamte Sonnenoberfläche auf mindestens 660.000 magnetische Objekte im solaren Minimum, wobei die Anzahl deutlich höher sein kann. Liegen Regionen unterschiedlicher magnetischer Polarität sehr nahe beieinander, so löschen sie sich gegenseitig aus, bzw. liegen unter der Nachweisgrenze des MDI-Messsystem (Michelson Doppler Imager).

Noch nicht beantwortet ist die Frage, warum bei einem Wechsel des polaren Feldes, zum einen, der neue Sonnenzyklus beginnt, die Koronaturboheizung eingeschaltet wird und zum anderen, das Maximum im solaren Zyklus erreicht ist und dann die Sonnenaktivität zurückgeht?

Abbildung 85 zeigt das Polarfeld (grün) und den Total Flux (schwarz) der Sonne von 1976 – 2009, Quelle: MPG. An den blau gestrichelten Linien dreht jeweils das Polarfeld. Dazu hat der Autor die Zeitabstände markiert, nach denen der solare Zyklus dreht. Wie zu sehen, dreht der solare Zyklus jeweils nach exakten Zeiten und zwar nach ca. 1 ½ Jahr. Dreht beispielsweise das Polarfeld in Max, so beginnt im Betrachtungszeitraum immer nach 1 ½ Jahren der neue Sonnenzyklus. Wechselt dagegen das Polarfeld im Minimum, so erreicht der solaren Zyklus jeweils nach ca. 1 ½ Jahren sein Maximum und beginnt dann zu fallen.

Inwieweit hat das Polarfeld Einfluss auf die Koronaturboheizung und damit letztendlich auf die solare Aktivität schlecht hin? Ist sie auch zeitgesteuert, wie beim Total Flux des Schwabe-Zyklus? Aus rein theoretischen Gründen sollte sie, da die Koronaheizung von den kleinsten magnetischen Einheiten, den MBPs und Nanoflares abhängt, nicht zeitgesteuert, sondern, über die Fließgeschwindigkeit im Plasma, schwellengesteuert sein. Diese theoretische Betrachtung soll anhand der obigen Abbildung des Polarfeldes überprüft werden.

Abbildung 86 oben, Polarfeld nach MPG. Mitte, der TSI nach PMOD mit den Trennlinien zwischen den Zyklen und darunter die Koronatemperatur. Da diese Zeitreihe erst 1991 beginnt, wurde sie über den Zeitraum rekonstruiert, wobei die Zeitblöcke (grüne Rechtecke) in denen die Koronaturboheizung auf low ist, gleich gehalten wurden. Die roten Linien geben den Zeitpunkt an, an denen jeweils die Koronaturboheizung einschaltet. Die schwarzen Linien den Zeitpunkt, an denen das Polarfeld im Maximum dreht.

Aus Abbildung 86 wird ersichtlich, dass es keinen zeitlichen Zusammenhang (rote Rechtecke) zwischen Polarfeld (überschreiten Maximum) und dem einschalten der Koronaturboheizung gibt. Die Zeitspanne variiert im Betrachtungszeitraum zwischen 1 ¼  und 3 Jahren. Wird dagegen der Schwellwert betrachtet, wann die Datenreihe des Polarfeldes jeweils die rote Linie, die für den Zeitpunkt des Einschaltens der Koronaturboheizung steht, schneidet, so ist festzustellen, dass jeweils nach demselben Hub (Höhe – weiße, schmale Rechtecke) die Koronaturboheizung einschaltet. Wie sind diese Erkenntnisse in die Vorgänge in der Konvektionszone einzuordnen?

 

Abbildung 87 links zeigt die Sonne im solaren Minimum und gut sichtbar, das magnetische Dipolfeld und Polarfeld der Sonne. Abbildung Mitte zeigt Stärke (farbcodiert) des Toroidalfeldes und Feldlinienverlauf des Polarfelds der Sonne (Quelle: “Understanding the Space Environment with GOES-R Solar and Space Environment Data”, Hill/Singer et al.) und rechts ist das solare Magnetfeld im Sonnenmaximum zu sehen und wie dort das Polarfeld verschwunden ist, was mit der Datenreihe des Polarfeldes von der MPG übereinstimmt.

Die Abbildungen auf der vorherigen Seite zeigen deutlich, dass das Polarfeld sozusagen der Schalter ist, mit der die solaren Aktivität im Schwabe-Zyklus ein- bzw. ausgeschaltet wird, sowie die Koronaturboheizung ein- und ausgeschaltet wird. Aus was besteht dieser Schalter? Hierzu ist es notwendig, nochmals die Abbildung 76 zu betrachten.

Ist das Polarfeld im Maximum (ruhige Sonne), so ist die Dynamik im Conoyer-Belt (Konvektionszone), die für die variable magnetische Sonnenaktivität verantwortlich ist, am geringsten, so dass sich das Dipolfeld und Polarfeld der Sonne entfalten kann, da es nur wenig aus der magnetischen Aktivität des Toroidalfeldes überlagert ist. Beginnen sich die Plasmamassen im Convoyer-Belt zu  beschleunigen, nimmt  das  Toroidalfeld der Sonne wieder zu, was zur Schwächung des Polarfeldes führt. Durch die Bewegung elektrisch leitfähiger Massen, werden Ströme induziert, die in der Sonne bis zu 1.000 Milliarden Ampere betragen.

Diese Ströme tragen große Magnetfelder mit sich, wobei die Stromstärke direkt proportional zur Geschwindigkeit ist. Ab einem bestimmten Bewegungswert kommt es zu einem Lawineneffekt – die Ströme lösen schlagartig magnetische Induktionsvorgänge aus, die dazu führen, dass der im Convoyer-Belt gespeicherte Magnetfluss über die MBPs aus der Sonnenoberfläche austritt. Da die MBPs die Regionen sind, in denen durch Relativbewegungen zwischen den Granulen, der magnetische Fluss erhöht und der magnetische Widerstand bereits reduziert ist, tritt an diesen Stelle das Magnetfeld aus, wodurch sich schlagartig die MBPs und damit die Aktivität der Nanoflares erhöht und die Korona ihre Temperatur verdoppelt. Die magnetische Energie kann nicht weiter im Plasma der Konvektionszone gespeichert werden und sucht sich den Weg über den geringsten magnetischen Widerstand an die Oberfläche.

Bei den in der Zeitreihe der Koronatemperatur zu sehenden gegenläufigen Spitzen könnte es sich um Mitzieheffekte in der unteren Zone des Convoyer-Belts handeln (folgende Abbildung).

In der Abbildung 88 der Koronatemperaturdatenreihe sind die beiden entgegen gesetzten Phasen mit einem Pfeil gekennzeichnet. Hier verhält sich die Koronatemperatur genau entgegen gesetzt zu ihrem Zyklus. Dies ist jeweils nach Max und Min (rote und blaue Linie) im Polarfeld und zwar in exakten Zeitabständen dazu. Da die beiden darauf folgenden Zeitabschnitte exakt identisch sind (graue Rechtecke) geht der Autor davon aus, dass es sich dabei um Mitzieh- und Bremseffekte der oberen und unteren Konvektionszone handelt.

Wie bereits behandelt, haben obere und untere Zone im Convoyer-Belt unterschiedliche Geschwindigkeiten, wobei die untere Schicht langsamer ist, wodurch die obere, der unteren vorauseilt. Dadurch entstehen Turbolenzen und ein uneinheitliches Fließbild im Plasma, ähnlich der folgenden Abbildung.

Abbildung 89 zeigt eine Kármán-Wirbelstraße. An einem Hindernis (links) wird die laminare Strömung gebrochen, dadurch kommt es zu links und rechtsdrehenden Wirbeln, die immer mehr Turbolenzen nach sich ziehen (S.d.W. 04/09, S. 79). In der Konvektionszone handelt es sich nicht um feste Hindernisse, sondern um Plasmamassen unterschiedlicher Geschwindigkeit, ähnlich wie auf dem Gasplaneten Jupiter.

Abbildung 90: Der große rote Fleck des Jupiters, bei dem es sich um einen gewaltigen atmosphärischen Wirbelsturm handelt, wirkt auf die umfließenden Luftmassen wie ein Hindernis, an dem sich eine Kármán-Wirbelstraße ausbildet. Zu diesen in der Fließmasse befindlichen Turbolenzen, mit ihren unterschiedlichen Richtungsvektoren, kommt es an den Umkehrpunkten der Hauptfließrichtungen (Polen) unweigerlich dazu, dass die Bewegungsvektoren der beiden  Schichten  entgegen  stehen. Dies ist  immer  kurz nach einem Wechsel im polaren Feld der Fall. Als Folge kommt es zu einem „Kurzschluss“ in den Induktionsvorgängen (schlagartige Änderung der Stromrichtung). Eine schlagartige Flussänder-ung, die dies als Folge hat, führt immer zu einem Induktionsvorgang in entgegen gesetzter Richtung (Lenz´sche Regel), was die Ausschläge kennzeichnen. Sind danach die elektrischen Hauptstromflüsse wieder gleich, wird der vorherige Zustand wieder eingenommen.

Einen wesentlichen Faktor zum Verstehen der solaren Aktivität und damit des Erdklimas stellt also die Korona, die äußere Sonnenatmosphäre dar. Das Verständnis der Sonne ist somit die Voraussetzung zum Verständnis des irdischen Klimas, wie noch gezeigt werden wird. Der Einblick in die Grundlagen dient dazu, die Aktivitätsschwankungen der Sonne verstehen zu können und damit den alleinigen Einfluss der Sonne auf unser Klima.

Die Sonne ist ein komplexes, hoch dynamisches Gebilde, so dass die im Vorwort erwähnte IPCC-Einstufung, ihre Aktivität wäre in den letzten Jahrzehnten, gar den letzten beiden Jahrhunderten (fast) statisch, absurd ist. Zu der hohen Dynamik in der Sonnenkorona, kommen weitere dynamische Prozesse, die in der Fortsetzung behandelt werden.

Raimund Leistenschneider – EIKE

Fortsetzung Teil 4b in Kürze

Übersicht über alle Teile:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4a – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
interplanetares Magnetfeld

Teil 4b – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen




Der Charakter der Klimaänderung – 1. Teil (von 4)

Die Abbildung rechts stellt die globale Temperatur dar zwischen dem Minimum im Januar und dem Maximum im Juli. Wichtige Informationen gehen verloren, wenn wir den Datenfluss auf ein berechnetes Mittel reduzieren (Maximum + Minimum/2). Aber diese Informationen werden in der Abbildung gespeichert.

Abbildung rechts: Entwicklung der globalen Temperatur von 1948 bis Anfang 2011

Beobachtungen im Zusammenhang mit dieser Abbildung:

  • Die globalen Maxima und Minima bewegten sich 30 Jahre lang auf und ab, nämlich zwischen 1950 und 1980, ohne jedoch einen klaren steigenden oder fallenden Trend zu zeigen, trotz der Zunahme der sog. Treibhausgase während dieses Zeitraumes.
  • Nach 1978 begann das Minimum zu steigen, aber nicht so rasch wie das Maximum.
  • Das Minimum ist viel unstetiger als das Maximum.

Die Erde befindet sich im Januar der Sonne am nächsten, und dies ist die Zeit, in der die Ozeane, die meisten auf der Südhalbkugel, am besten bestrahlt werden. Die Variabilität von Jahr zu Jahr beim Minimum im Januar steht offensichtlich in keinem Zusammenhang mit „Treibhaus-Faktoren“, die mit der Zeit einen monotonen Anstieg zeigen. Ein wahrscheinlicher Kandidat ist der unterschiedliche Grad der Bestrahlung der südlichen Ozeane im Zuge sich verändernder Bewölkung. Die Bewölkung variiert auf täglicher, jahreszeitlicher, mehrjähriger und dekadischer Basis. Sie variiert im Maßstab eines menschlichen Lebens und länger.

Offensichtlich müssen wir die Kräfte hinter den Änderungen der Bewölkung besser verstehen. Derzeit tun wir das nicht. Wir können Änderungen der Bewölkung als ein Grund globaler Temperaturänderungen einfach nicht ausschließen.

Wie entscheiden wir, was ‚gut’ ist?

Das Mittel zwischen dem täglichen Maximum und dem Minimum wird gemeinhin als das ‚Mittel’* bezeichnet. Die Mitteltemperatur wird gebildet, um eine mittlere Temperatur für den ganzen Globus abzuleiten. Eine Änderung des Mittels kann durch Änderungen entweder der Minima oder der Maxima erfolgen. Wie man in Abbildung 1 sieht, kann sich das Maximum unabhängig vom Minimum ändern.

*[Die englischen Begriffe ‚average’ und ‚mean’ haben eine etwas unterschiedliche Bedeutung, können aber auch als Synonyme aufgefasst werden. Im Deutschen können beide Wörter nur mit ‚Mittel’ oder ‚Mittelwert’ übersetzt werden. A. d. Übers.]

In der Praxis ist es der Wechsel zwischen den Extremen, der für Landwirtschaft, Handel, Geschäftsleben und Bewohnbarkeit so bedeutsam ist. Wir finden die Extreme ‚bemerkenswert’. Allerdings bestimmt die zeitliche Länge der Perioden mit günstigem Wetter zwischen den Extremen, ob Pflanzen gut oder schlecht wachsen und sich entwickeln. Die Sonnenscheindauer innerhalb eines Tages beeinflusst Photosynthese und Atmung der Pflanzen. Aber wenn die Luft nicht warm ist, werden die Pflanzen nicht wachsen. Die gleiche Überlegung gilt, wenn wir die Wachstumsphase als Ganzes betrachten. Die mittlere Temperatur sagt uns wenig über die Bewohnbarkeit des Planeten.

Das IPCC wurde ins Leben gerufen, um zu ermitteln, ob menschliche Aktivitäten das Klima des Globus’ beeinflusst haben. Es hat nicht die Aufgabe, die natürlichen Kräfte zu beschreiben, die die Temperatur der Erde auf die eine oder andere Weise beeinflussen. Die Quelle natürlicher Variationen oder jahreszeitlicher, dekadischer oder noch längerer Zeitspannen ist immer noch verborgen. Wenn das IPCC berichtet, dass es sich nicht vorstellen kann, was die Klimavariationen hervorruft, die wir erleben (außer der Mensch), dann sagt es, wie es ist. Aber ist das IPCC wirklich ehrlich, wenn es den Menschen als Schuldigen vermutet, wenn es die Quelle natürlicher Variationen nicht beschreiben kann, die es einfach gibt? Wenn jene Quelle natürlicher Variation Temperaturanstiege und –rückgänge über ein oder zwei Jahre hervorrufen kann, warum nicht auch eine Dekade oder ein Jahrhundert lang?

Wir müssen die Quellen natürlicher Variationen finden, um die Palette von Erklärungen für die Änderungen, die wir beobachten, zu erweitern. Es ist wünschenswert, dass wir nicht die eine mit der anderen verwechseln und wie Don Quichotte gegen Windmühlenflügel kämpfen.

Aber es gibt ein noch fundamentaleres Problem, das mit den Bemühungen des IPCC zusammenhängt: Die UN sprechen nicht die Frage an, ob die gegenwärtige Klimaänderung vorteilhaft oder nachteilig für uns ist. Es ist das Scheitern in dieser Hinsicht, das die Irrelevanz der IPCC-Beratungen repräsentiert. Die UN scheinen nicht an der Frage interessiert zu sein, die man so ausdrücken kann: OK, die Dinge ändern sich, aber spielt das wirklich eine Rolle? Geht es uns dabei besser oder schlechter?

Bevor wir die Abbildung verlassen, wollen wir noch anmerken, dass die Erniedrigung der Maximum- und Minimumtemperatur von 1992 bis 1995 möglicherweise auf den Ausbruch des Mount Pinatubo zurückzuführen ist. Dies ist ein klares Beispiel einer ‚natürlichen’ und nicht einer menschlichen oder ‚anthropogenen’ Ursache einer Klimavariation.

Welches Klima würden wir bevorzugen?

Bei welcher Temperatur wäre die Erde am produktivsten? Eine Temperatur von mindestens 15°C ist erforderlich, um das Pflanzenwachstum zu fördern, und eine Temperatur von 25°C wäre optimal. Aber die Abbildung deutet darauf hin, dass die Lufttemperatur an der Oberfläche des Planeten von 1948 bis 2000 zwischen lediglich 12°C (das kälteste mittlere Minimum) und 16°C (das wärmste mittlere Maximum) variierte.

Wäre die Temperatur in allen Breiten der Erde die Gleiche und würde es keine Variationen irgendwelcher Art (keine Jahreszeiten) geben, wäre es auf der Erde für die menschliche Zivilisation ziemlich ungemütlich. Ein Temperaturregime zwischen 12°C und 16°C würde das Wachstum vieler Pflanzen sehr hemmen. Es ist der Temperaturgegensatz zwischen warm am Äquator und kalt an den Polen sowie die jahreszeitliche Variation zwischen Sommer und Winter, die das Fenster für Landwirtschaft und Viehzucht öffnet. Vögel wandern zwischen den Hemisphären hin und her, weil sie täglich Nahrung brauchen, und die ist häufig nicht ein ganzes Jahr lang auf nur einer Hemisphäre verfügbar. Die Menschen bauen sich Unterkünfte und legen Nahrungsvorräte an, so dass man auch in mageren Zeiten genug zu essen hat. Außerhalb der Tropen herrschen diese mageren Zeiten im Winter. Es sind Speise- und Vorratskammer, Kühl- und Gefriertruhe, die wir hegen und pflegen, ein Punkt, der gut in Kenneth Grahams klassischer Novelle „The Wind in the Willows“ begründet wurde. Es muss eine Zeit im Jahr geben, in der es wirklich möglich ist, Nahrungsmittel wachsen zu lassen, und es muss effektive Methoden geben, diese Nahrung zu speichern. Diese Zeit des Jahres beginnt im ‚Frühling’, wenn die Tiere ihre Schutzbauten nach ihrem Winterschlaf verlassen und auf Nahrungssuche gehen.

Also sollten wir mit folgenden offensichtlichen Fragen beginnen: wie sieht ein ‚wünschenswertes Klima’ aus, wo kann es gefunden werden, ändert es sich mit der Zeit und verbessert oder verschlechtert sich dieses Klima? Sind wir glücklich, dass es ‚Winter’ gibt, oder würden wir Sommer bevorzugen? Für die Kategorie von Klimazonen, die das ganze Jahr über ungeeignet für menschliche Besiedlung sind, können wir die Frage, ob die Temperatur zu- oder abnimmt als einfach bedeutungslos beiseite schieben.

Das ‚globale Mittel’ ist ein statistischer, wenig praktischer Wert, vor allem, wenn er auf die eine oder andere Weise durch Veränderungen der Stationen an Orten zustande gekommen ist, die unbewohnbar sind. Genauso sagt uns die tägliche Mitteltemperatur wenig darüber, wie kalt die Nächte sind und wie warm die Tage; und auch nichts über die Anzahl der Stunden mit Tageslicht im Winter. Wir müssen mehr wissen. In Madrid ist die jährliche Temperaturspanne viel größer als auf Capri. Was ist günstiger für unsere Zwecke? Wenn wir uns zurückziehen wollen und im Schatten eines Baumes Prosa schreiben wollen, wird die Anforderung an die Temperatur eine andere sein, als wenn wir Kirschen anbauen wollen, die starke Winterkälte brauchen, um Frucht anzusetzen.

Natürlich wird durch eine solche Vorgehensweise die Komplexität der Analyse immer größer, wenn wir diese Fragen nicht beantworten, und wir wären mehr hysterisch als praktisch. Hysterisches Verhalten sollte man nicht übernehmen. Früher hätte es dabei einen Schlag auf den Kopf gegeben. Heute sollte es einen freundlichen Arm geben, der sich um die Schulter legt, zusammen mit der höflichen Frage: Was ist los? Aber manchmal frage ich mich, ob das frühere Vorgehen angebrachter wäre, falls jemand mit evangelikale Fundamentalisten umgeht, die sich vollständig von der Realität verabschiedet haben. Leuten dieses Schlages sage ich, vergiss das Mittel, gib mir die Rohdaten nach Breiten- und Längengrad, und ich werde versuchen, etwas Vernünftiges daraus zu machen.

Wo wollen die Leute leben?

Als Australier weiß ich, dass die ersten Besucher in Australien nicht beeindruckt waren. Weite Gebiete Australiens sind Wüste, und bis auf den heutigen Tag wird die Größe der bewohnbaren Gebiete als ‚marginal’ bezeichnet. Australien bietet nur wenig für die Ansiedlung von Menschen und wird dies wahrscheinlich auch niemals tun. Dies ist ein Land mit extremen Ausschlägen bei Wetter und Klima. Wenn es regnet, blüht die Wüste und die inländischen Flüsse fließen, und es gibt einen enormen Schub von Nachwuchs. Aber lange Zeiträume regnet es überhaupt nicht. In einigen küstennahen Gebieten fallen verlässliche Regenmengen, die das Wachsen von Wäldern erlauben, aber im größten Teil reicht die Wüste fast oder ganz bis an die Küste. Die Vegetation ist hart, und die Australier nennen es ‚the scrub’ [etwa: Gestrüpp]. Das Gestrüpp kann eine ganze Serie schlechter Zeiten überleben. In den frühen Jahren gab es in Südaustralien den Spruch ‚der Regen folgt dem Pflug’, und eine Weile schien das auch gut zu gehen. Aber das Verschwinden des Gestrüpps begann am Anfang einer langen Periode mit immer weniger Regen. Heute scheint es keinen Weg zurück zu geben.

Ein intergalaktischer Aufklärer würde auf der Suche nach grünerem Weideland keinen zweiten Blick auf die Erde werfen.  Die Menschen sind stolz auf ihren blauen Planeten, aber wenn es etwas wärmer wäre, würde er auch produktiver sein. Wenn Australier in den Ruhestand gehen, ziehen sie nach Norden, weil sie den Winter nicht mögen, obwohl sie in einem Kontinent mit warmen Sommern leben. Das Gras mag grün sein, aber es wächst nicht viel. Es ist einfach zu kalt. Also müssen wir das Umfeld menschlicher Besiedlung als Indikator dessen sehen, was die menschliche Spezies bevorzugt. Anders als Bären mögen es die Menschen, viele Mahlzeiten pro Tag einzunehmen, jeden Tag im Jahr; also ist die landwirtschaftliche Produktivität wichtig. In vorindustriellen Gesellschaften waren Gärtnern und Nahrungssuche von eminenter Bedeutung. Im Großen und Ganzen ist der Globus immer noch vorindustriell, und Transportmittel können primitiv sein. Daher wohnen die Leute am liebsten dort, wo Nahrungsmittel einfach zu bekommen sind.

Bis zu einem gewissen Grad kann Klima eingestellt werden, sicherlich innerhalb von von Menschen gebildeten Strukturen, sicherlich in wohlhabenden, anspruchsvollen Industriegesellschaften. Weniger günstige Klimate können wir tolerieren, falls wir uns vor den Extremen schützen können. Klimaanlagen sind in China zahlreicher als irgendwo sonst. Die Menschheit lebt zum größten Teil in Indien und China, wo die Wachstumszeit lang ist, wo viel Feuchtigkeit das Pflanzenwachstum im Frühling, Sommer und Herbst begünstigt, oftmals in einer Umgebung, die bemerkenswert warm und feucht ist, jedenfalls aus dem Blickwinkel von Westeuropa. Es ist was dran an dem Text des Liedes „Mad dogs and Englishmen go out in the midday sun” [etwa: Verrückte Hunde und Engländer gehen hinaus in die Mittagssonne], weil die wirklich produktiven Gebiete des British Empire in Klimaten liegen, in denen es um Einiges wärmer ist als auf den Britischen Inseln. Diese Wärme sorgt für eine lange Wachstumsphase und hohe Bevölkerungsdichte.

Karte: Verteilung der Menschheit auf der Erde

Die Karte oben zeigt, dass die Bevölkerungsdichte in feuchten, warmen Umgebungen am größten ist, jeweils an den Ostküsten der großen Kontinente. Süd- und Ostasien bieten mit reichlich Regen und einer langen Wachstumsphase sehr günstige Bedingungen für die Landwirtschaft. Westeuropa bildet die Ausnahme von der Regel. Aber dieser Teil der Welt ist hinsichtlich seiner geographischen Breite unnatürlich warm, vor allem im Sommer, teilweise hervorgerufen durch den Einfluss des Golfstromes und auch einem fortgesetzten Zustrom feuchter subtropischer Luft von Südwesten her. Das Wachstum von Bergbau, Handel und Wirtschaft sowie die Entwicklung von Städten und Infrastruktur begünstigen eine Verteilung der Besiedlung, die sich sehr von der landwirtschaftlich geprägten Vergangenheit unterscheidet. Heutzutage wird eine Menge an Nahrungsmitteln transportiert und für lange Zeit gespeichert. Dies führt zu einer Zunahme der Bandbreite von Klimaten, die eine hohe Bevölkerungsdichte unterstützt, so lange die Leute es im Winter nur warm haben.

Aus der Karte wird klar ersichtlich, dass sich die am dichtesten besiedelten Gebiete zwischen 10° Süd und 60° Nord befinden. Aber sehen Sie: die Karte lässt einen großen Teil der Südhemisphäre aus. Warum? Weil die Temperatur in den fehlenden Gebieten während der meisten Zeit des Jahres unter dem Gefrierpunkt liegt. Die Südhemisphäre weist südlich von 45° nur wenige Landgebiete auf, die sich für menschliche Besiedelung eignen, und südlich von 60° liegt der riesige, immer größer werdende Eisberg der Antarktis.

Warum findet sich die Hauptmasse der Menschheit zwischen 10° Süd und 60° Nord? Weil das Land hier produktiver ist. Das Leben ist einfacher. Dies ist die Botschaft von Abbildung 3.

Abbildung 3: Der Jahresgang der Temperatur in Grad Celsius in den am besten bewohnbaren Breiten. Das bewohnbare Gebiet der nördlichen und südlichen Hemisphäre weist sehr unterschiedliche thermische Bedingungen auf. Welche sind zu bevorzugen?

Landwirtschaft hängt von den Jahreszeiten ab. Wenn sich die Temperatur lange genug im günstigen Bereich bewegt, ist Ackerbau möglich, und solange die Nahrung ausreicht, kann eine größere Bevölkerung gestützt werden. Die besser bewohnbaren Gebiete der Nordhemisphäre haben in dieser Hinsicht einen Vorteil. Die Sommer sind wärmer als in der südlichen Hemisphäre. Zum Höhepunkt des Nordsommers erreicht die mittlere Temperatur die 25-Grad-Marke. Im wärmsten Monat ist es fast warm genug, um die Pflanzen zu schnellstem Wachstum anzuregen. Dies ist eine Überkompensation des Nachteils, dass die Nordwinter kälter sind als die Südwinter. Der Sommer stellt das Umfeld zur Verfügung, dass das Leben ermöglicht, und ein relativ unwirtlicher Winter ist kein zu hoher Preis, wenn man es warm hat, bequem wohnt und ausreichend ernährt ist.

In den produktivsten und am dichtesten besiedelten Gebieten in Süd- und Ostasiens herrscht ein sommerliches Temperaturregime, das sogar noch wärmer ist als das globale Mittel.  (Delhi India June Av Min 26.6, Av Max 39.3, Shanghai, China 24.9-31.3, Chongqing 25-34, Hanoi July 26.1-32.9). Es ist offensichtlich, dass es in den wärmsten Monaten dieser Gebiete fast wärmer ist als für die Photosynthese optimal. Aber die Wachstumsphase ist sehr lang, und das macht die Landschaft so ungewöhnlich produktiv. Wenn es in allen bewohnbaren Gebieten der Nordhemisphäre so warm wäre wie in Ostasien, würde die Produktivität mit der Länge der Wachstumsphase zunehmen. Also können wir in dieser Hinsicht schließen, dass der wärmste Teil des Globus’, die Nordhemisphäre im Sommer, noch produktiver wäre, wenn es noch ein wenig wärmer wäre. Nicht die Erwärmung müssen wir fürchten, sondern die Abkühlung!

Eine Lektion in Klimadynamik für das IPCC

Sieht man sich noch einmal Abbildung 3 an, erkennt man, dass die Verteilung der jahreszeitlichen Änderung der ‚globalen Temperatur’ stärker vom Jahresgang in der Nordhemisphäre als in der Südhemisphäre beeinflusst wird. Der stärker ausgeprägte Jahresgang im Norden wird durch die Erwärmung und Abkühlung der kontinentalen Landmassen in Eurasien und Amerika im Nordsommer bestimmt.

Dabei gibt es ein interessantes Paradoxon. Im Juli und August ist es auf der Erde als Ganzes am wärmsten. Paradoxerweise ist die Erde im Juli etwa 3% weiter von der Sonne entfernt als im März und September. Die Solarstrahlung ist im Juli 7% weniger intensiv als im Januar. Aber die jahreszeitlich bedingte Erwärmung der Landmassen wegen der längeren Einstrahlung am Tage führt zu einem Verlust der globalen Bewölkung in der Jahresmitte. Entsprechend erreicht die mittlere globale Temperatur eine scharfe Spitze im Juli und August. Der starke Temperaturanstieg auf der Nordhalbkugel überkompensiert die Abkühlung der Südhalbkugel im Winter.

Daher ist es auf der Erde also am wärmsten, wenn die Erde am weitesten von der Sonne entfernt ist, also im Juni, Juli und August. Die Lektion ist einfach und eindeutig. Das Strahlungsniveau von der Sonne ist nicht der Haupttreiber der Temperatur. Es ist die relative Gegenwart der Wolken, die die Temperatur regelt. Klimawissenschaftler, die den IPCC-Bericht schreiben, bestehen darauf, dass die Wolken die Wärme zurückhalten und damit den vermeintlichen Effekt des Kohlendioxids verstärken. Es gibt aber nicht die Spur eines Zweifels, dass die Wolken abkühlend und nicht erwärmend wirken.

Allerdings sorgt die Tatsache, dass die südlichen Ozeane im Januar der Sonne näher sind und die Strahlung 7% stärker ist als im Juni, dafür, dass der Globus wärmer wird, weil der Ozean Wärme eher absorbiert und speichert als sie in die Atmosphäre abstrahlt, von wo sie rasch innerhalb des 24-Stunden-Zyklus im Weltraum verschwinden würde.

Auf der Erde wäre es ein ganzes Stück kälter, wenn die riesigen Ozeane der Südhalbkugel der Sonne dann zugewandt wären, wenn diese am weitesten von der Erde entfernt ist. Dann würde die Sonnenenergie, wenn sie am stärksten ausgeprägt ist, direkt auf die Landmassen der Nordhemisphäre treffen und sofort wieder in den Weltraum abgestrahlt werden. Aus der gegenwärtig vorteilhaften Neigung der Erdachse, dem orbitalen Einfluss und der gegenwärtigen Verteilung von Land und Wasser kann man schließen, dass sich das Weltklima derzeit in einer Warmphase befindet. Die verfügbare Energie wird sicher in den südlichen Ozeanen gespeichert, wenn sie am stärksten ist. Die Sonnenwärme wird länger konserviert, und die kälteren Gebiete unseres Globus’ profitieren davon, weil die Meeresströmungen (z. B. der Golfstrom) wärmer sind. Daraus folgt, dass das bewohnbare Gebiet auf der Erde größer ist als es wäre, wenn uns die Sonne im Juni am nächsten wäre. Wir leben in menschenfreundlichen Zeiten auf einem Globus, der eigentlich etwas zu kalt für maximalen Komfort ist. Aber wir sollten beachten, dass sich der Globus abkühlen wird, wenn der Sonnenorbit weniger günstig wird.

Es ist offensichtlich, dass die Temperatur stark von der Verteilung von Land und Wasser, orbitalen Überlegungen und am meisten von der Menge der Bewölkung beeinflusst wird.

Wäre der Orbit der Erde um die Sonne elliptischer als er ist, würde der Strahlungsunterschied zwischen Januar und Juli noch größer sein. Wäre die Neigung der Erdachse geringer, würde der Kontrast zwischen Sommer und Winter geringer, und in höheren Breiten wären die Sommer kälter.

Wenn es irgendeinen Faktor gäbe, der die Variation der Wolkenmenge steuert, wenn der größte Teil der Ozeane von Dezember bis März der Sonne ausgesetzt ist, würde es das Minimum im Januar und das Klima global verändern. Mit weniger Wolken könnte sich der Globus erwärmen.  Mit mehr Wolken würde er sich abkühlen.

Natürlich gibt es in der Verteilung der Landmassen der Nordhemisphäre keinerlei Variationen, und dies führt zu lediglich kleinen Variationen der globalen Höchsttemperatur im Juni und Juli. Aber es gibt offensichtlich eine große Variation bei der Wolkenbedeckung, was zu starken Änderungen der Minimumtemperatur im Januar von Jahr zu Jahr führt.

Bietet uns die ‚Klimawissenschaft’ eine Erklärung für die großen Schwingungen des globalen Minimums im Januar?  Leider nein! Die Klimawissenschaft scheint sich sehr eng auf die globale mittlere Temperatur zu konzentrieren, und Feinheiten dieser Art bleiben unkommentiert weil unbemerkt. Das ist, als ob man ein Auto besitzt und nicht weiß, ob sich der Motor vorne oder hinten befindet.

Wenn Sie zu Ihrem Arzt gehen und dieser darauf bestehen würde, dass die Hühneraugen an Ihrer Fußsohle abhängig sind von der Temperatur in Ihrem Innenohr, würden Sie vermutlich nach alternativen Hilfestellungen suchen. Würde er aber sagen, dass die Hühneraugen von der Passform Ihrer Schuhe abhängen, wären sie wahrscheinlich eher bereit, ihm zuzuhören. Ähnlich geht es einem Klimawissenschaftler, der beobachtet hat, dass die Temperatur die stärksten Variationen im Januar zeigt und auf die Wolken als Ursache dafür zeigt, was viel mehr Sinn macht als jemand, der auf das globale Mittel schaut und mit dem Finger auf Sie zeigt mit der Bemerkung, dass die Menschen zu viel Kohlendioxid ausatmen, kostbares Öl verschwenderisch verbrauchen und einfach zu lange leben.

Wer sind die Leute, die damit hausieren gehen, dass die Erde Gefahr läuft, sich zu stark zu erwärmen? Warum tun sie das?

Earl Happ

Link: hier

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE




Erstaunliche Entdeckung: Arktisches Eis so gering wie 1940 ? Und jetzige Eisbedeckung größer als 2007

Wie das? Fragt sich das verwirrte Publikum. Gab es damals schon einen Klimawandel? Durchaus, weiß der Fachmann, und erklärt die offensichtlich neue schockierende Erkenntnis, das der Klimawandel auch noch zyklisch abläuft. Wirklich bahnbrechend, was neuere Forschung so zu Tage fördert.

Update 17.9.11

Arktisches Eis friert wieder nach Minimum Rekord von 2007

Die Temperaturen in der Arktis sind in der Tat in den letzten Jahren gestiegen und das Eis ist zurückgegangen, die Talsohle im Jahr 2007 ist es aber weder beispiellos noch unerwartet. Die arktischen Temperaturen und arktischen Eisbedeckung variieren in einem sehr vorhersehbar 60-70 Jahres-Zyklus, der Ozean-Zyklen, die wahrscheinlich durch Sonnenenergie angetrieben werden Veränderungen betrifft. Es hat nichts mit CO2 zu tun und zeigt eine schwache Korrelation. Zudem ist kaltes, offenes arktisches Eiswasser eine wichtige Senke für atmosphärisches CO2, wie warmes tropisches Wasser eine wichtigste Quelle sind.

Joe Dáleo

Weitere Details hier

Update 1 14.9.11

1940: The Northeast Passage reported ice free from late August to late September Leser Hildebrand nennt diese Quelle für die eisfreie Passage vom August bis späten September 1940. Danke für diesen Hinweis.

und hier wird über das Auftauchen des Atom-U-Bootes Skate 1959 direkt am Nordpol berichtet:

1958 Newsreel: USS Skate, Nuclear Sub, Is First to Surface at North Pole

For example, one crew member aboard the USS Skate which surfaced at the North Pole in 1959 and numerous other locations during Arctic cruises in 1958 and 1959 said:

…“the Skate found open water both in the summer and following winter. We surfaced near the North Pole in the winter through thin ice less than 2 feet thick. The ice moves from Alaska to Iceland and the wind and tides causes open water as the ice breaks up…."

mit Dank an Leser H.P. Schwarz; Mehr Details hier

Update 2 14.9.11

Derzeit wird wieder durch alle Medien hindurch spekuliert und behauptet (vgl. Bild 1) : "Neues Eis-Minimum in der Arktis" !?


Dabei wird übersehen:
Das ist weder der aktuelle Meß-Befund, noch ist das in den nächsten Wochen überhaupt noch möglich, denn  die Eisfläche hat in 2011 ihr Herbst-Minimum hinter sich, und nimmt bereits wieder zu (rote Kurve) ! 
Damit  liegt das Minimum 2011  über   den Jahren 2007 und 2008  –
vgl. Graphik;
Man fragt sich, wer immer wieder Interesse an solcherart erfundenen Klima-Alarm-Meldungen hat

M.Limburg & K. Puls EIKE

Mit Dank an Spürnase Steve Goddard in Real Science




Batterien aus dem Karbon! Die (nicht ganz) perfekte Batterie der Natur

Allerdings hat die Natur das Problem für uns schon vor sehr langer Zeit gelöst. Sie entwickelte ein System mit dem sie Solarenergie einfangen und unterirdisch als Gas, in flüssig oder in fester Form zur zukünftigen Nutzung speichern kann – jederzeit und überall verwendbar, ob Regen oder Sonnenschein, ob Wind oder Windstille.

Wir nennen dieses Energiespeichersystem „Photosynthese“ und die Batterie „fossile Brennstoffe“.

Die Natur hätte nicht gedacht, dass es Leute geben wird die diesem Geschenk der Natur kritisch ins Maul schauen werden. Dass – auch wenn sie damit die Nacht zum Tag machen können und ihre Arbeit produktiver, dass sie ihre wachen Stunden erfüllenden Aktivitäten widmen können als bloß dem ständigen Streben nach Essen und Nahrung – sie würden sich beklagen bei einer Umkehr zu alternativer Energieversorgung, CO2 , zurück in die Atmosphäre woher es kam, besonders, da dieser Baustein einen Großteil der lebendigen Welt erhält, einschließlich der Menschheit selber.

Manche Menschen sind so weit gegangen die neuen Energiequellen wie (AKA Biomasse) gegenüber fossilen Brennstoffen zu bevorzugen. Aber auch die Biomasse selber gibt ihren Kohlenstoff wieder in die Atmosphäre ab. Solange man Kohlenstoff basierende Verbrennungen nutzt sind die Chancen zur Reduzierung der CO2-Emissionen gleich Null, egal ob Biomasse oder  fossile Brennstoffe verwendet werden. Tatsächlich, weil Biomasse basierende Kraftstoffe einen höheren Feuchtigkeitsgehalt aufweisen führt deren Verbrennung zu mehr CO2  pro Einheit nutzbarer Energie.

Aber die Batterie der Natur ist nicht perfekt, sie entlässt Schadstoffe in die Luft. Allerdings ist CO2 kein Schadstoff. Die Schadstoffe die sie freisetzt können heute jedoch relativ einfach gereinigt werden – ohne großen Energieaufwand oder wirtschaftliche Nachteile. 

Sollten wir die (nicht ganz perfekte) Batterie der Natur nicht feiern – auch wenn sie nicht ganz perfekt ist?

Indur Goklany

Zuerst hier erschienen

Die Übersetzung besorgte C. Ohle für EIKE




Eine traurige und verdrehte Geschichte: Von wirklichen Problemen in der wirklichen Welt wird die Aufmerksamkeit abgelenkt

Wieder und immer wieder habe ich versucht zu zeigen (Mörner 2007, 2010, 2011), dass der Meeresspiegel um Tuvalu in keiner Weise im Anstieg begriffen ist, und zwar abgeleitet aus der einzigen verfügbaren Beobachtungsmöglichkeit, den Aufzeichnungen der Tide. Das wurde auch von Anderen untersucht, vor allem Gray (2010). Dies zeigen die Abbildungen 1 und 2, in denen kein Anzeichen eines Anstiegs des Meeresspiegels erkennbar ist.



Abbildung 1: Die Gesamtaufzeichnung der Tidenhöhe seit 1978 in Tuvalu (aus Mörner 2010). Seit 1985 gibt es keinerlei Anzeichen für irgendeine Art von Meeresspiegelanstieg. Drei markante ENSO-Ereignisse mit jeweils signifikantem Rückgang der Höhe des Meeresspiegels zeigen sich 1983, 1992 und 1998.


Abbildung 2: Die SEAFRAME-Tidenmessung in Tuvalu ohne jedes Zeichen eines Anstiegs (nach Gray 2010).

Also, wenn die Fakten eindeutig sagen: kein Anstieg des Meeresspiegels, warum treiben dann manche Individuen die Illusion eines Meeresspiegelanstiegs immer weiter? Das wird auch nicht besser (eher im Gegenteil), falls man Generalsekretär der UN oder des Pazifik-Forums ist. Es ist einfach falsch! Aber was noch schlimmer ist: es lenkt die Aufmerksamkeit von den realen Problemen in der realen Welt ab!

Das gilt auch für Kiribati. Die Insel liegt in einem Gebiet des südwestlichen Pazifik, in dem Satellitenmessungen einen Anstieg um 5 mm/Jahr nahelegen. Gray (2010) hat gezeigt, dass dies wirklich nicht mit der jüngsten SEAFRAME-Aufzeichnung in Kiribati konkurriert (Abbildung 3). Die Aufzeichnung umfasst 17 Jahre. Auch hier kein irgendwie gearteter langzeitlicher Anstieg; lediglich Stabilität.

Abbildung 3 (vergrößert): Die SEAFRAME-Aufzeichnung von Kiribati (nach Gray 2010) zeigt keinen irgendwie gearteten langzeitlichen Anstieg, sondern lediglich Stabilität während der letzten 17 Jahre.

Vanuatu ist eine andere berühmte Stelle in der Debatte um den Meeresspiegel. Hier fehlt ebenfalls jeder Hinweis auf einen Anstieg während der letzten 17 oder 18 Jahre (Mörner 2007, 2011; Gray 2010). Die Liste kann erweitert (um den Indischen Ozean mit Orten wie den Malediven und Bangladesh) und wieder erweitert werden (auf Stellen auf der ganzen Welt, nicht zuletzt Nordwesteuropa, wo dieser Sachverhalt überall getestet werden kann, ebenso wie in Venedig).

Offensichtlich gibt es einen fundamentalen Gegensatz zwischen den auf Computersimulationen basierenden Szenarien und der Wirklichkeit in Form von beobachteten Fakten und Beobachtungen in der Natur selbst. Folglich sprechen alle logischen Gründe dafür, sich von der Propagandainformation abzuwenden und alle Aufmerksamkeit sowie jedes Interesse auf die beobachteten Fakten zu richten. In diesem Falle geben die Fakten eine sehr klare und unwiderlegbare Botschaft: es gibt keinen alarmierenden Anstieg des Meeresspiegels, weder in Tuvalu noch in Kiribati.

Ban Ki Moon und sein Freund vom Pazifik-Forum sollten sich beide schämen wegen ihrer Behauptungen und Feststellungen bzgl. Tuvalu und Kiribati!

Nils-Axel Mörner, Paleogeophysics & Geodynamics, Stockholm, Sweden, morner@pog.nu

References

Gray, V., 2010. The South Pacific Sea Level: A reassessment. SPPI Original Paper, p. 1-24.

Morner, N.-A., 2007. The Greatest Lie Ever Told. 1st Edition, 2007, P&G print, Stockholm.Also: What Sea Level Rise? 21st Century Science & Technology, Fall 2007, Front, p. 25-29, 30-34.

Morner, N.-A., 2010. Some problems in the reconstruction of mean sea level and its changes with time. Quaternary International, 221, 3-8, doi.org/10.1016/j.quaint.2009.10.044

Morner, N.-A., 2011. The great sea level humbug. There is no alarming sea level rise. 21st Century Science & Technology, Winter 2010/11 issue, p. 7-17.

See also this sea level piece in SPPI and Master Resource by Chip Knappenberger.

Link: http://icecap.us/index.php/go/political-climate vom 7. September 2011

Übersetzt von Chris Frey für EIKE

Kommentar des Übersetzers: Man könnte sogar noch einen Schritt weitergehen! Entweder diese Herrschaften wissen es nicht besser, dann gehören sie sofort abgesetzt, wegen Dummheit. Oder sie wissen es doch besser, sagen es aber nicht. Dann gehören sie ebenfalls abgesetzt wegen Volksverdummung (um nicht zu sagen Volksverhetzung).

Dies gilt natürlich auch für unsere werten Politiker hier in Deutschland!

C. F.

Related Files




Die deutsche Energie- & Klimapolitik im Spannungsfeld von Realität und Illusion!

Grundlagen der deutschen Klimapolitik

Die Klimapolitik in Deutschland und in anderen europäischen Ländern geht von der Annahme des Weltklimarates der UNO  (Intergovernmental Panel on Climate Change/IPCC) und der ihm zuarbeitenden Wissenschaftler aus, wonach der Anstieg der Erwärmung der Erdatmosphäre durch die Menschheit verursacht würde; hervor- ge­rufen durch eine mit Beginn des Industriezeitalters einsetzende vermehrte Abgabe von Treibhausgasen wie Kohlendioxid (CO2), Methan  (CH4) oder Lachgas (N2O). Nach Auffassung dieser Wissenschaftler absorbieren diese Treibhausgase einen Teil des auf die Erde fallenden Sonnenlichts, das als infrarote Wärmestrahlung ins Weltall reflektiert wird, und dabei die Atmosphäre aufheizt,  wie in einem mit Glas isolierten Treibhaus.  Dabei sollen die Kohlendioxydmolekühle mit einem Anteil von nur 0,04% am Gesamtvolumen der Luft einen überproportional großen Beitrag ­leisten.  In der Klimaforschung und der öffentlichen Diskussion nehmen sie deshalb eine hervor- ragende Rolle ein. Ausgangspunkt der Diskussion ist, dass die  durch­schnittliche Tem­peratur, die nach der Annahme des Weltklimarates im vorindustriel­len Zeitalter bei 13,5°C lag, auf heute etwa 14,5°C gestiegen ist. Es handelt sich hier­bei um einen Mittelwert, der Polkappen und Tropen, Winter und Sommer, Tag und Nacht ein-schließt. Die derzeit diskutierte Frage ist, wie stark der  Temperaturanstieg künftig ausfallen und welche Konsequenzen das für das Leben auf der Erde haben wird. Die britische Regierung hat vor einigen Jahren eine Kommission unter der Lei­tung des ehemaligen Chefökonomen der Weltbank, Nikolaus Stern, mit dem Ziel einge­setzt, diese Frage zu beantworten. Da der Anstieg der Treibhausgase in Zu­kunft von ver­schiedenen Bedingungen, etwa der Bevölkerungsentwicklung und dem Wirtschafts­wachstum abhängt, hat die Stern-Kommission alternative Szenarien für die weitere Entwicklung des Weltklimas  berechnet. Nach dem günstigsten Szena­rium wird die Erderwärmung in diesem Jahrhundert gegenüber der vorindustriellen Zeit um etwa 3°C. steigen, nach dem ungünstigsten Szenarium wird sie 6°C betra­gen.

Die Folgen dieser Entwicklung beschreiben die vom menschlichen Einfluss auf das Klima überzeugten Wissenschaftler wie folgt: Savannen und Wüsten würden sich ausbreiten und der gesamte Mittelmeerraum, Westafrika, Länder wie Mexiko, Austra­lien und Kalifornien von Dürre heimgesucht. Der Meeresspiegel soll  erheblich stei­gen, weil Gletscher über den Landmassen schmelzen. Dieser Anstieg bedrohe Teile von Bangladesch, aber auch Küstenge­biete in Norddeutschland, Frankreich und insbe­sondere Holland, das schon heute unter dem Meeresspiegel liegt und nur durch seine Deiche geschützt wird. Mit dem Temperaturanstieg zwischen den Regionen, insbesondere zwischen Land und Meer, vergrößerten sich die Temperaturunter­schiede mit der Folge, dass die Luftbewegun­gen  heftiger würden und Hurrikans zu­nehmend schwere Schäden anrichteten. Die rasant steigende Zahl der Erdbevölke­rung verschärfe diese Folgen des Klimawan­dels. Nach dem letzten Weltbevölke­rungsbericht der UNO sei damit zu rechnen, dass die Zahl der Menschen auf unserm Planeten von 6,75 Mrd. im Jahr 2008 auf 9,2 Mrd in 2050 steige. Die von Dürre und Hochwasser bedrohten Menschen müssten ihre Heimat verlassen und sich neue Le­bensräume suchen, die bei der wachsenden Erdbe­völkerung nur noch in begrenzter Zahl zur Verfügung stünden. Kriege und ethni­sche Konflikte könnten die Folgen einer solchen Entwicklung sein  (2).

Zielvorgaben zum Schutz des Klimas

Die internationale Politik hat zwischen 1988 und 1997 auf einer Vielzahl von Konfe­renzen diese Folgen des Klimawandels und mögliche Maßnahmen zu ihrer Abwen­dung diskutiert, ohne dabei verbindlich festzulegen, in welchem Ausmaß die Emissio­nen verringert werden sollten. Das änderte sich mit dem 1997 in der japanischen Stadt Kioto geschlossenen Vertrag. Von den 181 den Kioto-Vertrag unterzeichnen­den Staaten wurden allerdings nur für 52 und damit für 30% des weltweiten CO2-Aus­stoßes bindende Reduktionsziele vereinbart. Zu diesen zählten u.a. 15 Staaten, die zum damaligen Zeitpunkt der EU angehörten, außerdem Russland, Kanada, Ja­pan, die Ukraine, Norwegen und Neuseeland.

Länder wie China und Indien mit einem Anteil von über 30% am weltweiten CO2-Aus­stoß unterzeichneten und ratifizierten zwar den Vertrag, sind aber von einem Emissi­onsabbau vorerst mit der Begründung freigestellt worden,  ihnen nicht die Chance einer raschen wirtschaftlichen Entwicklung zu nehmen. Die USA mit 22% der CO2-Emissionen unterschrieben den Vertrag, das Repräsentantenhaus setzte jedoch die Ratifikation aus.

Der Kioto-Vertrag sieht vor, dass die Treibhausemissionen in der Zeit von 2008 bis 2012 gegenüber dem Basisjahr 1990 um durchschnittlich 5,2% gesenkt werden sol­len. Dieses Reduktionsziel bezieht sich auf alle Wirtschafts- und Lebensbereiche, die Treibhausgase emittieren, wie z. B. Industrie, Verkehr, Landwirtschaft oder Privathaus­halte.

Der Kioto-Vertrag legt spezifische prozentuale Reduktionsziele für die einzelnen Länder fest. Die EU verpflichtete sich mit ihren damaligen 15 Mitgliedern auf ein kollek­tives Reduktionsziel von 8%. Die einzelnen Staaten wurden zu Erreichung die­ses Gesamtziels bei ihren Verpflichtungen zum Emissionsabbau unterschiedlich be­lastet. Deutschland und Dänemark müssen ihre CO2-Emissionen um 21% senken. Frankreich braucht dagegen nichts an CO2-Emissionen abzubauen.  Das ist deshalb nicht so ungerecht, wie es auf den ersten Blick aussieht, weil Frankreich wegen sei­nes Stroms aus Kernkraftwerken einen wesentlich geringeren CO2Ausstoß als Deutschland hat. 2006 lagen die französischen CO2-Emissionen bei 6,4 Tonnen und die deutschen bei 10,7 Tonnen pro Einwohner. Bei Verminderung der deutschen CO2-Emissionen gegenüber 1990 um 21% liegt der deutsche Wert mit 9,9 Tonnen pro Einwohner immer noch deutlich über dem der Franzosen. Deutschland hat die­ses Reduktionsziel  2009/2010 erreicht. Der Grund hierfür war und ist u. a. die Stillle­gung maroder, stark emittierender Betriebe in der ehemaligen DDR (3).

2007 empfahl die EU-Kommission dem Rat der EU, Maßnahmen zu ergreifen, die den Temperaturanstieg weltweit auf 2°C gegenüber dem vorindustriellen Niveau be­schränken. Daraufhin beschloss der Europäische Rat, den CO2-Ausstoß bis zum Jahr 2020 im Vergleich zu 1990 um 20% zu reduzieren und den Einsatz der regene­rativen Energien auf 20% des gesamten Energieverbrauchs zu erhöhen. Diese Ziele wurden unter der Kurzformel 20-20-20 bekannt. Das System umfasst den Kohlendi­oxydausstoß  von 12000 Anlagen in 30 europäischen Ländern (27 Staaten, die zu diesem Zeitpunkt der EU angehörten, plus Liechtenstein, Island und Norwegen). Deutschland hatte sich zu diesem Zeitpunkt das Ziel gesetzt, die CO2-Emissionen bis 2020 um 40% zu senken und den Anteil der erneuerbaren Energien an der Strom­produktion auf 30% zu erhöhen. Die völkerrechtlich verbindlichen  Regelungen für den Klimaschutz in der Kioto-Vereinbarung gelten bis 2012. Für die Zeit danach soll­ten weitere verbindliche Klimaschutzziele auf Nachfolgekonferenzen beschlossen werden. Dies war auch der wesentliche Inhalt der Empfehlungen der Konferenz von Bali 2007 für die Klimakonferenz in Kopenhagen 2009. Dazu kam es jedoch nicht. In Kopenhagen gelang es weder eine völkerrechtlich verbindliche Nachfolgereglung für die Kioto-Vereinbarung zu verabschieden noch das oft im Vorfeld der Konferenz ge­nannte Ziel einer Selbstverpflichtung der Staaten zur Halbierung des globalen Koh­lendioxidausstoßes bis zum Jahr 2050 zu vereinbaren. Das zentrale Abschlussdoku­ment ist rechtlich nicht bindend. Es enthält als Minimalkonsens zwar erstmals das Ziel, den Anstieg der Erderwärmung auf 2°C im Vergleich zum vorindustriellen Ni­veau zu begrenzen, lässt aber offen, wie dieses Ziel erreicht werden soll. Auf dem Klimagipfel im mexikanischen Cancun, der im Dezember 2010 stattfand, wurden eben­falls keine Nachfolgeabkommen für die im Jahr 2012 endende Kioto-Vereinba­rung mit verbindlichen Einsparzielen verabschiedet. Es wurden lediglich Grundlagen für eine Kioto-Nachfolge vereinbart. Diese richten sich im Wesentlichen an die Indust­riestaaten, die sich schon in der Kioto-Vereinbarung zur Rückführung von Treib­hausgasen verpflichtet hatten. Ausgenommen bleiben nach wie vor die USA sowie China und Indien mit einem weltweiten Anteil von ca. 50% am gesamten CO2-Ausstoß.  Verbindliche Absichtserklärungen gibt es also nur in dem Kioto-Abkommen und auch nur für einen Teil der Industriestaaten. In diesem Zusammenhang interes-siert natürlich die Frage, ob diese Zielvorgaben umgesetzt wurden?

Umsetzung der Zielvorgaben

Während Deutschland und die osteuropäischen Staaten ihre Reduktionsziele er­reichten bzw. sich ihnen nähern, bleiben andere Industriestaaten in der EU weit hin­ter diesen zurück. Spanien, das nach der innerhalb der EU vereinbarten Lastenver-tei­lung für die  Umsetzung der in Kioto beschlossenen Zielvorgaben seine Emissio-nen noch um 15% steigern kann, erhöhte diese um 57%. In Portugal beträgt der An­stieg 48,3%. Österreich verzeichnet statt einer nach der Kioto- Vereinbarung vorgese­hen Rückführung um 13% eine Zunahme von 24,5%. Island erhöhte seine Emissionen um 45,4% und Italien um 12,2%,  statt sie um 6,5% zu senken (4).  Zwar gibt es in der EU ein Komitee zur Überwachung der einzelnen Staaten bei ihren Be­mühungen zur Reduktion der Treibhausgase. Dieses Komitee kann auch Verstöße mit Sanktionen ahnden. Es muss jedoch bezweifelt werden, dass die Drohung hiermit im Hinblick auf die nach 2012 zu erstellende Kioto-Bilanz  die gegen die Zielvorga­ben verstoßenden Staaten besonders beeindruckt,  denn auch sie entsenden ihre Vertreter in das Komitee , und mit deren Hilfe lassen sich Strafmaßnahmen verhin­dern. Der Grund für diese negative Entwicklung liegt in dem Umstand, dass noch kein umfassendes System der Kontrolle in Europa zur  Einhaltung der Reduktions­ziele z. B. in den Bereichen Privathaushalte, Industrie, Verkehr und Landwirtschaft existiert.

Der Handel mit Zertifikaten

Die EU hat mit der Ausgabe und dem Handel von und mit Zertifikaten, die zur Luftver­schmutzung berechtigen, einen Weg beschritten,  der zur wirksamen Begren­zung und Kontrolle der Treibhausgase führen soll. Diesem Konzept liegt die Idee zu Grunde, knappe Umweltgüter mit einem Preis zu versehen und damit den Unterneh­men einen Anreiz zu geben, sparsam mit ihnen umzugehen. Die EU legt diesem Kon­zept folgend für ihre Mitgliedsstaaten eine Obergrenze für Luftverschmutzungen fest, bis zu der die Atmosphäre kostenlos belastet werden darf. Wird diese Grenze überschritten, muss das Unternehmen Zertifikate für die zusätzliche Belastung der Atmosphäre erwerben. Damit werden die Treibhausemissionen zu einem Produkt, das an speziellen Börsen wie z. B. in Leipzig, Amsterdam und London gekauft wer­den muss. Diese Ausgaben belasten die Produktionskosten und der Wettbewerb zwingt – so  die weitere Überlegung – die Unternehmen durch emissionsmindernde Maßnahmen den Ausstoß von Treibhausgasen zu reduzieren. Die europäische Rechts­grundlage für diesen Emissionshandel ist die Emissionshandelsrichtlinie, die am 13. 10. 2003 in Kraft trat und von den Mitgliedsstaaten in nationales Recht umge­setzt wurde (2003/87 EG  / Amtsblatt der Europäischen Union  vom 25.10.2003). In Deutschland geschah das durch das Treibhaus- und Emissionshandelsgesetz vom 8.7.2004 (Bundesgesetzblatt  S. 1578). Das derzeitige Handelssystem erfasst aber nicht alle emittierende Lebens- und Wirtschaftsbereiche, sondern zunächst nur die Energieversorger wie Stromproduzenten und die energieintensiven Industriebran­chen. Zu letzteren zählen im wesentlichen Erdölraffinerien, Kokereien, Eisen- und Stahlwerke sowie Anlagen der Zement-, Glas-, Kalk-, Ziegel-, Keramik-, Zellstoff-  und Papierindustrie. Das Handelssystem bindet 50% des gesamten CO2-Ausstoßes und 40% der gesamten Treibhausgase der EU, wenn man andere Treibhausgase hinzurechnet. Methan und Lachgas sind hierbei allerdings noch nicht erfasst. Sie sol­len in Zukunft in das System eingebunden werden.

In Deutschland werden etwa 51% der CO2-Emissionen vom Zertifikathandel erfasst, davon entfällt der Hauptanteil mit 36%  auf die stromproduzierenden  Kraftwerke. Die Emissionen der anderen Bereiche wie Privathaushalte, Landwirtschaft und Verkehr wurden noch nicht in das Handelssystem integriert, obwohl sie Bestandteil des Kioto-Vertrages sind. Mit dem Luftverkehr soll das ab 2012  geschehen.     

Das derzeit praktizierte Handelssystem sieht vor, dass in den einzelnen Mitglieds-staa­ten nationale Pläne (Allokationspläne) erarbeitet werden. In diesen wird der EU mitgeteilt, wie viel Zertifikate die einzelnen dem Zertifikathandel unterliegen­den Berei­che erhalten sollen. Die Pläne werden von der EU geprüft und ggf. korri­giert. Auf der Basis der geprüften Pläne erhalten die Staaten die entsprechenden Zerti-fikatmengen zugeteilt. Die nationalen Regierungen verteilen  dann die Zertifikate an die beteiligten Firmen in ihrem Hoheitsgebiet. Die Verteilung erfolgte bisher weitge­hend kostenlos. Die beteiligten Unternehmen dürfen Treibhausgase nur in der Höhe emittieren, die in den ihnen zugeteilten Zertifikaten festgeschrieben ist. Erhöht sich der Ausstoß, müssen sie zusätzliche Zertifikate von anderen Unternehmen erwer­ben, emittieren sie weniger, können sie die überschüssigen Zertifikate verkau­fen. Der Wert der Zertifikate richtet sich nach Angebot und Nachfrage. Bei Überschrei­tung des durch die Zertifikate gedeckten Limits drohen empfindliche Geld­strafen.

Bisher wurden von der EU zwei Handelsperioden für den Austausch der Zertifikate verbindlich  spezifiziert: die erste reichte von 2005 bis 2007, die zweite von 2008  bis 2012, und die dritte wird 2013 beginnen und 2020 enden. Die Zertifikate verfallen mit dem Ende einer Handelsperiode. In jeder Handelsperiode werden neue Zertifikate ausgegeben und die Gesamtmenge der Zertifikate neu festgelegt. Um Druck auf die Emissionsverursacher auszuüben, muss die Zahl der Zertifikate geringer sein als die prognostizierten Emissionen. Für die erste Handelsperiode wurde europaweit ein Gesamtausstoß von 2,19 Gigatonnen CO2 erlaubt. Eine Gigatonne beträgt 1 Mrd. Tonnen. Das waren 11,7% weniger als 1990 emittiert wurden. Für die zweite Handels­periode (2008 bis 2012) ließ man 2,081 Gigatonnen, also 5% weniger als in der ersten Handelsperiode zu. Innerhalb der einzelnen Handelsperioden sind die Zertifi­kate europaweit frei handelbar. In der dritten Handelsperiode kommt es bei der Vergabe der Zertifikate zu massiven Veränderungen.

Es wird keine von den Mitgliedsstaaten der EU erarbeitenden  Pläne  mehr geben, in denen der EU mitgeteilt wird, wie viel Zertifikate die einzelnen dem Zertifikathandel unterliegenden Bereiche  erhalten sollen; es gilt dann nur noch eine EU-weite Ober­grenze für CO2-Emissionen, die durch die Europäische Kommission vorgeschrieben wird. Die Obergrenze soll im Jahr 2013 nur noch 1,97 Gigatonnen CO2  betragen und bis 2020 auf 1,72 Gigatonnen oder 79%  der Emissionen des Jahres 2005 gesenkt werden. Zudem gilt ab 2013 der Zertifikathandel grundsätzlich für alle Industrieunter­nehmen mit einem jährlichem Kohlendioxidausstoß von mehr als 10.000 Tonnen und damit für 95% der EU-Mitgliedsstaaten.  Während in der ersten und zweiten Handels-pe­riode die Emissionszertifikate größtenteils gratis von der  EU-Kommission verteilt wurden, erfolgt ihre Verteilung in Zukunft verstärkt durch Kauf und Versteige­rung. Dabei kommt es zu einer Neuregelung. Die Zertifikate werden in Zukunft nicht nach den tatsächlichen Emissionen vergeben, sondern nach dem Prinzip der am bes­ten verfügbaren Technik. Das heißt: Einem Kohlekraftwerk werden die Zertifikate nicht mehr danach zugeteilt, wie viel CO2  es bisher ausgestoßen und was es danach einzu­sparen hat, sondern die kostenlose Emissionsobergrenze wird gemessen an dem Maßstab, wie hoch der CO2-Ausstoß eines effizient arbeitenden Kohlekraft­werks gleicher Größenordnung ist.

Bei anderen Handelsgütern ist Maßstab nicht wie bisher der bei der Herstellung des jeweiligen Produkts festgestellte Emissionswert und eine davon abgeleitete Ober­grenze, bis zu der kostenfrei Treibhausgase abgegeben werden können, sondern entscheidend ist jetzt der Durchschnitt des Energieverbrauchs und der Emissionen, den die effizientesten zehn Prozent der Produktionsanlagen in Europa erreichen. Danach dürfen z. B. bei der Herstellung von Zement für jedes Kilogramm nur 766 Gramm CO2  in die Atmosphäre entweichen. Bei der Produktion von Stahl liegt die­ser Wert bei 1328 Gramm, bei Aluminium bei 1514 Gramm und bei Dachziegeln bei 144 Gramm. Werden diese Werte überschritten, müssen zusätzliche Zertifikate ge­kauft oder ersteigert werden. Während es die aus Kohle und Gas elektrische Energie erzeugenden Versorgungsunternehmen am empfindlichsten trifft, kommen andere wie Kalkhersteller oder Raffineriebetreiber etwas günstiger weg. Sie erhalten einen Teil der Zertifikate gratis und müssen den Rest ersteigern (5). Ab 2020 sollen alle Zertifikate versteigert werden. Die Versteigerungserlöse fließen dem Fiskus des Lan­des zu, in dem die jeweiligen die Zertifikate ersteigernden Firmen ihren Geschäftssitz haben. Die Bundesregierung rechnet ab 2013 mit einem jährlichen Versteigerungs-ge­winn von 3  Mrd. Euro, eine Summe, die kontinuierlich steigen wird. Da die Energie­versorgung der deutschen Wirtschaft überwiegend durch Kohlekraft­werke und nicht wie in Frankreich durch Kernkraftwerken erfolgt, werden die mit der Versteige­rung der Zertifikate eintretenden Strompreiserhöhungen zu erheblichen Wettbewerbsnachteilen für die deutsche  Industrie  gegenüber ihren europäischen, amerikanischen und asiatischen Konkurrenten führen.

Die Nutzung regenerativer Energien

Parallel zur Ausgabe von Zertifikaten bemühen sich Deutschland und die europäi­schen Länder  um weitere Emissionssenkungen durch die Nutzung regenerativer Energien. In Deutschland gibt es nach dem Stand von 2010 ungefähr 300.000 Solar -und 21.600 Windkraftanlagen  (6). Die Solaranlagen erzeugen etwa 5,6 Terawatt-stun­den  Strom jährlich und decken damit 1,1% der gesamten deutschen Strompro­duktion ab, die bei ca. 580 bis 620  Terawattstunden, also 580  bis  620 Mrd. Kilowatt­stunden liegt. Die Windkraftanlagen erzeugen mit 40  Terawattstunden unge­fähr 6,6% der Gesamtmenge an Strom in Deutschland. Insgesamt lieferten 2010 alle regenerativen Energieträger 90 Terawattstunden  oder 16,6% der in Deutschland produzierten Elektrizität (7). Diesen Anteil gäbe es nicht ohne die im Erneuerbare -Energie -Gesetz (EGG) festgeschriebene massive Förderung. Das EGG zwingt die Energieversorgungsunternehmen (EVU) Strom aus erneuerbaren Energiequellen zu weit höheren als den für konventionell erzeugten Strom üblichen Preisen in ihr Stromnetz aufzunehmen und an die Stromkunden weiterzuleiten. Während der Groß­handelspreis für konventionell erzeugten Strom zwischen 3 und 5 Cent pro Kilowatt­stunde (kWh) liegt, müssen die Netzbetreiber nach dem letzten vom Bundestag be­schlossenen Tarif für Strom aus Biomasse zwischen 10,23 und 7,8 Cent,  für Wind­energie an Land zur Zeit ca. 9,02 Cent und  für Windenergie auf See (Off-Shore) 13  Cent pro kWh zahlen, die demnächst auf 15 Cent aufgestockt werden sollen. Die Preise für die Einspeisung von Solarstrom betrugen zu Beginn der Förderung 50,62 Cent  (8). Sie sind im Zuge der  im EEG vorgesehenen Degression auf zur Zeit 28,74 Cent für die kWh abgesenkt worden. Die verminderten Preise für die Einspeisung gelten jedoch nur für die künftig zu errichtenden Anlagen. Die höhere Einspeise-vergü­tung der in der Vergangenheit an das Netz  angeschlossenen Anla­gen bleibt unverändert und ist für 20 Jahre garantiert. Diese Preise geben die EVU `s an ihre Stromkunden weiter.

 

Ziele und bisherige Ergebnisse

Mit dem europaweiten Zertifikathandel und der parallel dazu erfolgenden Förderung der regenerativen Energien versucht man zum einen die Menge der Emissionen zu begrenzen und zum anderen Treibhausgase erzeugende  Anlagen, wie z. B. Kohle­kraftwerke, durch erneuerbare Energiequellen  zu verdrängen. Die deutschen und europäischen Umweltpolitiker versuchen uns damit einzureden, dass das gut für das Klima sei. Ist es aber nicht. Denn diese Politiker verschweigen, dass die Nutzung regenerativer Energien nicht zur Verminderung der den europäischen Ländern in einer Handelsperiode zugeteilten Zertifikate, sondern nur zu ihrer Freisetzung und dem europaweiten Handel mit ihnen führt. Mit anderen Worten: Schließt in Deutsch­land ein Kohlekraftwerk, weil seine bisherigen Leistungen durch Windenergie ersetzt werden, dann verschwinden die für das Kohlekraftwerk erteilten Zertifikate nicht vom Markt, sondern werden verkauft, z. B. an Kohlekraftwerke oder Stahlwerke in ande­ren europäischen Ländern. Da die vermehrte Nutzung erneuerbarer Energien in Deutschland aber auch in anderen europäischen Ländern wie Dänemark eine erheb­liche Anzahl von Verschmutzungszertifikaten freisetzt, gibt es  bisher ein Überange­bot von diesen, das ihren Preis senkt. Das wiederum hat zur Folge, dass andere CO2-emittierende europäische Unternehmen diese Zertifikate kaufen und damit ihren CO2-Ausstoß erhöhen. Das heißt, die deutsche Wirtschaft erlaubt anderen  europäi­schen Unternehmen so viel zusätzliches CO2  in die Luft zu blasen wie sie selbst einspart. Sie kurbelt mit ihren Einsparungen bei den Treibhausgasen den Ausstoß der selben Menge im Rest Europas an. Warum sollen die Polen ihre Kohlekraftwerke modernisieren und mit diesen Investitionen ihren Strom verteuern, wenn sie deren erhöhten CO2-Ausstoß durch den Kauf zusätzlicher wesentlich billigerer Zertifikate legitimieren können?  Dieses in der EU im Rahmen des Kioto- Abkommens einge­führte System des Zertifikathandels neutralisiert jeden Versuch, durch veränderte Produktionsstrukturen im Bereich der erneuerbaren Energien den  CO2-Ausstoß in Europa wesentlich zu verändern.

Ziele und Ergebnisse des künftigen Zertifikathandels

Während der bisherige Zertifikathandel die deutschen  Unternehmen durch die viel­fach kostenlose Verteilung der Zertifikate nicht so stark belastete,  wird die ab 2013 geplante Verminderung der Zertifikate sowie ihre Versteigerung zu erheblichen finan­ziellen Nachteilen für die Wirtschaft und die Stromkunden in Deutschland führen. Die deutsche Kraftwerkindustrie mit ihren vielen Kohlekraftwerken wird die steigenden Zertifikatpreise an die Stromkunden weitergeben müssen mit der Folge, dass die deut­sche Wirtschaft, insbesondere die stark energieabhängigen Betriebe in massive Schwierigkeiten geraten. So müssen die Stromversorger ab 2013 sämtliche Ver-schmut­zungsrechte erwerben. Ca. 338 von 428 Millionen Tonnen CO2 wurden 2009 in Deutschland durch Kraftwerke emittiert. Allein der Essener Stromkonzern RWE gibt jährlich etwa 144 Millionen Tonnen CO2 ab und müsste nach dem derzeiti­gen Preis von etwa 15 Cent pro Tonne CO2-Zertifikate für etwa 2 Milliarden Euro erwer­ben (10). Energieintensive Industrien wie Stahl– oder Aluminiumwerke werden durch die Tatsache, dass der preistreibende  Emissionshandel nur auf Europa be­schränkt ist, gegenüber Wettbewerbern aus China oder den USA, also Ländern, die für über 40% aller weltweiten CO2–Emissionen verantwortlich sind, erheblich benachtei­ligt, was die in Deutschland vorhandenen Arbeitsplätze durch die Abwan­derung der vom Zertifikathandel besonders betroffenen Unternehmen bedroht. Die Wettbewerbs-situa­tion dieser und anderer energieabhängiger Unternehmen wird sich weiter ver­schlechtern, nachdem die derzeitige Bundesregierung und die sie tragen­den Par­teien CDU, CSU, und FDP ihre Absicht, die Laufzeit der 17 deutschen Kern­kraft­werke um durchschnittlich 12 Jahre bis 2035 zu verlängern, aufgab und unter dem Eindruck der Reaktorkatastrophe im japanischen Kernkraftwerk Fukushima 8 ältere Kernkraftwerke sofort stilllegte und der Bundestag beschloss, ab 2015 die verbleiben­den 9 Kernkraftwerke schrittweise bis 2022 abzuschalten. Das gleichzeitig verkündete Ziel, den Anteil der Erneuerbaren-Energien-Träger  an der Stromversor­gung von 16,6%, insbesondere durch den  Ausbau von Windenergieanlagen, auf 35% zu erhöhen, wird den Preis für CO2-Zertifikate und damit die Kosten für den elekt­rischen Strom aus folgendem Grund in die Höhe treiben:

Deutschland verfügt über eine gesicherte installierte Kraftwerksleistung von 90 Gi­gawatt, der Kernkraft-Anteil daran beträgt ca. 20 GW.  Der höchste Leistungsbedarf etwa an kalten Wintertagen liegt bei 80 GW.  Nach der sofort erfolgten Abschaltung von 8 Kernkraftwerken fehlen 8,5 GW. Mit der weiteren Abschaltung der restlichen 9  Kernkraftwerke zwischen 2015 und 2022 geht der derzeit noch vorhandene Sicher­heitspuffer von 10 GW verloren. Da Wind und Sonne nicht in der Lage sind, Elektrizi­tät bedarfsgerecht zu liefern, benötigt Deutschland neben der alternativen Energie-ver­sorgung zusätzlich Kraftwerke zur Abdeckung der Grundlast. Außer den Kern-kraftwerken sind dazu zur Zeit nur Kohle- und Gaskraftwerke in der Lage. Des­halb befinden sich gegenwärtig konventionelle Kraftwerke mit einer Kapazität von insge­samt 10 GW im Bau, von denen 3 Kraftwerke mit Braunkohle  und 7 mit Steinkohle betrieben werden sollen. Die Leistung von weiteren 10 GW soll nach dem Willen der Politik bis 2020 durch den Bau und Betrieb zusätzlicher  Kohle- und Gas­kraftwerke sichergestellt werden (10). Diese Entwicklung wird zu vermehrten CO2-Emissionen und demzufolge zu einer steigenden Nachfrage nach CO2-Zertifikaten führen. Daraus ergeben sich zusätzliche finanzielle Belastungen der Strom­kunden in Deutschland. Ein im Auftrag des Bundesverbandes der Deutschen Industrie e. V. (BDI) vom Kölner Energieforschungsinstitut r2b energy consulting er­stelltes Gutachten kommt zu dem Ergebnis, dass die dauerhafte Abschaltung von 8 Kernkraftwerken die Strompreise bis 2018 um fast ein Drittel steigen lässt und der vorgezogene Kernenergieausstieg die Stromkunden bis 2020 mit insgesamt 33 Mrd. Euro Mehrkosten im Jahr durch höhere Preise für CO2-Zertifikate sowie teure alterna­tive Energien  belasten wird und zwar ohne die mit dem Ausbau dieser Ener­gien einhergehenden Ausgaben für neue Stromtrassen und zusätzliche Speicherka­pazitäten. Zwar plant die Bundesregierung, ab 2013 Zuschüsse in Höhe von  jährlich 500 Millionen Euro an stromintensive Unter-nehmen zur Abfederung dieser Folgen zu zahlen, angesichts der vorgenannten Belas­tungshöhe muss jedoch bezweifelt wer­den, dass eine solche Summe ausrei­chen wird, die energieintensiven Betriebe in Deutschland damit konkurrenzfähig zu erhalten und ihre Abwanderung ins Ausland zu verhindern.

Mit dem Bau neuer Kohle – und Gaskraftwerke wird das Ziel der Bundesregierung, die Kohlendioxydemissionen bis 2020 um 40% im Vergleich zu 1990 zu senken, zur Illusion. Wieweit die Bundesregierung schon jetzt von ihren Klimaschutzzielen ent­fernt ist, wird  durch den Belastungsanstieg zwischen 2009 und 2010 deutlich: die CO2-Emssionen stiegen von 920  Millionen auf 958 Millionen Tonnen. Diese Ent­wicklung wurde allein durch die boomende Konjunktur und den  dadurch bedingten erhöhten Energiebedarf verursacht (11). Die Abschaltung von 8 Kernkraftwerken und der dadurch bedingte zusätzliche Einsatz von Kohle und Gas wird die CO2-Emissio­nen zusätzlich steigern, nämlich bei den Steinkohlekraftwerken um 36 Millionen Ton­nen Kohlendioxyd und bei den Gaskraftwerken um von 18 Millionen Tonnen.

Der Zertifikathandel benachteiligt die deutsche und europäische Wirtschaft nicht nur gegenüber ihren Konkurrenten auf dem Weltmarkt, sondern ist auch völlig klima-neut­ral:  was nützt es, wenn jede Tonne CO2, die in Europa gespart wird dort in die Luft geblasen wird, wo der CO2–Ausstoß nichts kostet. In China geht zur Zeit jede Woche ein neues Kohlekraftwerk in Betrieb. 2010 erreichten die weltweiten Kohlendi­oxydemissionen mit 30,6 Mrd. Tonnen einen neuen Höchststand (12). 

Regenerative Energien als Jobmotor

An dieser Stelle hört man von den Befürwortern der Erneuerbaren  Energien, dass die Produktion der Anlagen, die Strom aus Erneuerbaren Energien erzeugen, neue Arbeitsplätze schafft. Das ist richtig. Bundesumweltminister Norbert Röttgen (CDU) nannte 300.000 Arbeitsplätze, die in diesem Bereich  einschließlich ihrer Zuliefer-indust­rie entstanden sind. Diese Argumentation verschweigt,  dass es sich bei diesen Anlagen um eine zur Zeit noch ineffektive, nicht marktfähige Technik han­delt, die nur durch die Subvention überteuerter Einspeisevergütungen eine künstliche Nachfrage erzeugt. Ohne diese Subvention gäbe es allenfalls Arbeitsplätze in Forschungsein­richtungen. Unser Wohlstand beruht aber darauf, dass seit Jahrhunderten ineffiziente Technologien durch effiziente im Wettbewerb verdrängt werden. Wenn unsere Volks­wirtschaft heute 40 mal produktiver als die vor 200 Jahren ist, ohne dass die Zahl der Arbeitsplätze in unserer Zeit auf 1/40 der um 1800 vorhandenen Arbeitsplätze ge­sunken ist, dann liegt das an dem Mechanismus unserer Marktwirt­schaft, der bekannt­lich folgendermaßen funktioniert: In der Marktwirtschaft werden Güter herge­stellt und von Kunden gekauft. Wird eine neue Technologie eingeführt, die eine Produk­tion der gleichen Menge an Gütern jedoch mit der Hälfte der Arbeits­kräfte er­möglicht, dann gehen an dem Produktionsstandort mit der neuen Technik Arbeits­plätze verloren. Die mit der halben Anzahl an Arbeitsplätzen produzierten Gü­ter sind jedoch um die Hälfte billiger. Der Wettbewerb sorgt dafür, dass die geringe­ren Kos­ten ganz oder zu einem erheblichen Teil an die Kunden weitergegeben wer­den. Die dadurch freiwerdende Kaufkraft wird von den Kunden zum Kauf anderer Produkte verwendet, deren Produktion neue Arbeitsplätze erfordert und schafft. Als Beispiele sind Computer oder Fernsehapparate zu nennen. Hier sank der Kaufpreis, weil der Wettbewerb die Hersteller zwang, die Rationalisierungsvorteile an die Kun­den weiter­zugeben. Dieser Effekt fällt weg, wenn die Politik die Stromkunden nötigt, durch die Zahlung von Einspeisevergütungen, eine ineffiziente Technik zu fördern. Hier wird nicht durch Rationalisierungserfolge Kaufkraft frei, sondern durch die Erhö­hung des Strompreises Kaufkraft gebunden. Der Verbraucher wird ärmer und gibt weniger für andere Güter aus. In den Branchen, die diese Güter produzieren, gehen Arbeits­plätze verloren. Das heißt: Werden mehr Sonnenkollektoren statt Möbel ge­kauft, dann sind zwar mehr Menschen bei der Produktion von Sonnenkollektoren beschäf­tigt, aber dafür weniger in der Möbelindustrie (13). Prof. Dr. Carl Christian von Weizsä­cker, Ökonom am Max- Planck-Institut in Bonn, zählt die Abschöpfung von Kaufkraft zur Förderung der ineffizienten regenerativen Energieanlagen zum un­pro­duktiven Luxus einer Wohlstandsgesellschaft (14).

Das Ausmaß dieses Luxus wird deutlich, wenn man sich vor Augen hält, dass allein der Solarstrom, der nur einen Anteil von 1,1% an der gesamten Stromversorgung in Deutschland hält, den Verbrauchern vom Inkrafttreten des EGG im Jahr 2000 bis 2010   85,4 Mrd. Euro mehr gekostet hat als konventionell erzeugter (15). Der Bundes­tag hat zwar angesichts dieser Kostenexplosion den Einspeisetarif für Son­nenenergie  gesenkt, aber die Höhe der Einspeisevergütung für die bisher installier­ten Sonnenkollektoren ist 20 Jahre garantiert und dieser Bestandsschutz führt zu dem vorgenannten Ergebnis.  Bei weiterem Zubau  von Sonnenkollektoren kann nach Schätzungen von Ökonomen  die 100 Milliarden-Grenze erreicht werden. Zur Zeit wird jeder Solararbeitsplatz  mit ca. 150. 000 Euro pro Jahr subventioniert. Dabei darf nicht übersehen werden, dass hiermit auch viele Arbeitsplätze im Ausland unter­stützt und neu geschaffen werden. 48% aller in Deutschland installierten Photo-voltai­k­anlagen werden importiert, überwiegend aus China (16).

Die hohen Kosten der Sonnen- und Windenergie sind neben der Einspeisevergütung auch auf ihren zeitweise geringen Marktwert zurückzuführen. Denn es gibt einen Strommarkt, auf dem Energie wie andere Waren gehandelt wird. Der Wert richtet sich wie bei anderen Handelsgütern nach Angebot und Nachfrage. Mit erhöhter Nach­frage steigt der Preis. Besonders nachgefragt ist der Grundlaststrom, d.h. die elektrische Energie, die permanent zur Verfügung stehen muss und derzeit aus Kohle-, Gas- und Kernkraftwerken geliefert wird. Besonders teuer ist der Spitzen­strom, der an Wochentagen morgens und abends zu bestimmten Zeiten benötigt wird, wenn alle Leute gleichzeitig ihre Mahlzeiten zubereiten oder elektrische Geräte wie Rasierapparate  und Haartrockner benutzen oder mit elektrisch betriebenen Bahnen zur Arbeit fahren oder von dort kommen. Wenig nachgefragt und minder-wer­tig ist der Strom der nachts oder an Sonn- und Feiertagen früh morgens, wenn alle schlafen, angeboten wird. Strom hat keinen feststehenden Wert, denn er wird von der stark schwankenden Nachfrage und der jeweils vorhandenen Verfügbar­keit bestimmt. Die Streuung liegt im Regelfall  zwischen 1 Cent und 18 Cent pro kWh. Wenn an einem Werktag früh  um 7 Uhr Windstille herrscht, ist die Nachfrage nach elektrischer Energie aus Kohle- oder Kernkraft-, Gas-  aber auch Windkraftwerken höher und damit teuer. Umgekehrt wissen die EVU oft nicht wohin mit dem Wind­strom, wenn alle schlafen und eine steife Brise weht. Sie müssen den Strom nach dem EGG in ihre Leitungen aufnehmen und versuchen,  ihn bei schwacher Nach­frage zu verkaufen oder bei fehlendem Bedarf anderweitig loszuwerden.

 Deshalb kommt es immer wieder vor, dass die Netzbetreiber den wertlosen Strom ganz billig anbieten, verschenken oder sogar noch Geld dafür bezahlen, um  ihn

„entsorgen“  zu können.  Nach einem Bericht des Nachrichtenmagazins „Der Spiegel“ (17)   zahlen in solchen Fällen die Netzbetreiber den Kunden bei Abnahme des Stroms zwischen 199 und 230 Euro für die Megawattstunde. Rund 14 Millionen Euro erhielten danach bei den orkanartigen Böen am ersten Weihnachtstag des vorletzten Jahres professionelle Käufer und den dazu gehörenden Strom. Dieser temporäre Preisverfall ist nicht selten. Genau an 29 Tagen vom September 2009 bis 1. März 2010 mussten deutsche Netzbetreiber für die Abnahme ihrer anderweitig nicht ab­setzbaren Strommengen draufzahlen. Nachbarländer wie Österreich, die über genü­gend Pumpspeicherkraftwerke verfügen, stellen sich auf die wirren Marktverhältnisse in Deutschland ein, indem sie überschüssigen Strom von dort zu niedrigen Preisen kaufen oder sich seine Abnahme zusätzlich bezahlen lassen. Mit diesem Strom wer­den  gewaltige  Wassermengen von den Pumpspeicherkraftwerken in höher gele­gene Seen  gepumpt. Wird der  Strom bei  gestiegener Nachfrage teurer, lässt man Wasser ab und erzeugt Spitzenlaststrom, den man mit hohem Gewinn an deutsche Stromlieferanten verkauft. Von diesem marktwirtschaftlichen Irrsinn merken die Anbie­ter von Wind- und Solarstrom nichts, denn sie erhalten unabhängig von dem tatsächlichen Wert ihres Stroms die feststehenden Einspeisevergütungen. Die Mehr­kosten zwischen dem Marktwert des überflüssigen Stroms und der Einspeisevergü­tung  findet man auf den Rechnungen deutscher Stromkunden. Hierzu folgendes Bei­spiel: 2007 lag das Volumen der Einspeisevergütung  für die Windkraft, Sonnenener­gie, Biomasse, Strom aus Wasserkraft, Deponie-, Klär- und Grubengas bei insge­samt 5,763 Mrd. Euro. Die Mehrkosten, die sich aus der Differenz zwischen dem Groß­handelspreis für Strom von 5,07 Cent pro kWh und den Einspeisevergütungen ergab, betrugen etwa 3 Mrd. Euro. Dieser Betrag erhöhte sich durch die Verluste, die dadurch entstanden, dass Wind- und Sonnenenergie bei geringer Nachfrage minder­wertigen Strom lieferten. Diese Sonderkosten lagen 2007 bei 2,5 Mrd. Euro. Im Ver­gleich zu dem konventionell erzeugten Strom wurden die deutschen Stromkunden 2007 durch die regenerativen Energien mit zusätzlichen Kosten von 5,5 Mrd. Euro belastet (18). Im Jahr 2011 betrugen die zusätzlichen Kosten für die gesamte Ökoener­gie 13 Mrd. Euro (19).

Mit der Zunahme der Anlagen zur Erzeugung regenerativer Energien werden die jährlichen Mehrkosten steigen. Nach dem Konzept der Bundesregierung soll der An­teil der Erneuerbaren-Energie-Träger in Deutschland bis zum Jahr 2020 von 16,6% auf 35% steigen, bis 2050 sogar auf 80%.  Die Grünen wollen nicht nur auf Kernkraft, sondern auch auf Kohlekraftwerke verzichten und die künftige Energieversorgung zu 100% aus Erneuerbaren Energien  sicherstellen. Sie berufen sich dabei auf ein  Gut­achten, das der Sachverständigenrat für Umweltfragen der Bundesregierung im Mai 2010 vorlegte. Die Gutachter gehen hierin davon aus, dass der Strom aus Erneuer-ba­ren Energiequellen zu wettbewerbsfähigen Preisen geliefert werden könne – aller-dings unter der Voraussetzung, dass die Preise für Kohle, Gas, Uran und Öl erheb­lich steigen. Abgesehen davon, dass diese  Aussage auf einer spekulativen An­nahme beruht, werden sowohl die Kosten als auch der Flächenbedarf  für Wind – und Sonnenkraftanlagen die Ziele der Bundesregierung und der Grünen als unrea-lisier­bare Illusion entlarven, wie folgende Fakten zeigen:

Eine durchschnittliche Windanlage mit einer Nennleistung von einem Megawatt  er­zeugt unter unseren  Wetterbedingungen 1,75 Millionen kWh im Jahr. Um 130 Milliar­den kWh aus der Kernenergie zu ersetzen müssten über 70.000 dieser Windanlagen gebaut werden (20). Die für die Windausbeute günstige Standorte an Land lassen sich jedoch nicht vermehren. Aus diesem Grund versuchen die Betreiber ältere Anla­gen durch neue, leistungsstärkere zu ersetzen, die teilweise doppelt so hoch wie die alten sind, was zu Widerständen der Bevölkerung in den betroffenen Regionen und Schwierigkeiten bei den Genehmigungsverfahren führt. Deshalb weicht man auch zunehmend auf Meeresstandorte aus. Das Umweltbundesamt, das unter Berufung auf das Gutachten des Sachverständigenrates für Umweltfragen von einer 100%igen Versorgung künftig durch Erneuerbare Energie ausgeht, meint, dass Offshore-Wind-an­lagen mit einer installierten Leistung von 45000 MW gebaut werden könnten. Da­für wären jedoch 7500 Quadratkilometer Fläche nötig. Zieht man von der Nordsee die Flächen für das Wattenmeer, den Naturschutz, die Schifffahrtswege und andere Nutzungen ab, bleiben lediglich 3500 Quadratkilometer übrig, die bestenfalls für den Bau von Anlagen mit 20000 MW ausreichen (21).

Die Bundesregierung veranschlagt für den Ausbau der Offshore-Windanlagen bis zum Jahr 2030 Kosten von 75 Milliarden Euro, ohne allerdings die schwer kalku-lierba­ren Investitionsrisiken durch technische Probleme angemessen zu berücksich­tigen. Kostenträchtige Risiken können bei der Installation auf offener See selbstver­ständlich ein wirksamer Faktor sein. Hinzu kommen die Kosten für die Überland-leitun­gen, um den vorwiegend in Norddeutschland produzierten Windstrom  in den Süden Deutschlands zu transportieren, wo er wegen der dort stärker vertretenen Indust­rie und größeren Bevölkerungsdichte benötigt wird.

Bis 2020 müssen nach Angaben einer Studie der Deutschen-Energieagentur (Dena) 3600 km. Hochspannungstrassen zu geschätzten Kosten von 20 bis 40 Mrd. Euro gebaut werden. Da der durch Sonnen- und Windenergie erzeugte Strom unregelmä­ßig anfällt, und es häufig bei starkem Wind oder hoher Sonneneinstrahlung zu einem plötzlichen Spannungsanstieg kommt, müssen   ausgedehnte  Stromleitungsanla­gen gebaut werden, um zu verhindern, dass die Netze kollabieren. Die neuen Fernlei­tungen werden voraussichtlich das Prinzip der Hochspannungsgleichstrom-übertragung  (HGÜ) nutzen. Es  erlaubt, hohe Spannungen von über 1000 KV mit Leitungsverlusten unter 10%  über weite Strecken zu transportieren. Dazu wer­den sehr hohe Masten sowie riesige Transformatoren benötigt, und außerdem Wechsel-richter, die den Gleichstrom in den vom Verbraucher benötigten Wechsel­strom umfor­men. Zur Zeit formiert sich jedoch überall Widerstand, wo die erforderli­chen breiten Schneisen für die neuen Leitungen geschlagen werden. Er führt zu erheb­lichen Bauverzögerungen mit der Folge, dass von den 850 km. Leitungsnetzen, die die Dena in ihrer ersten Studie vor fünf Jahren als vordringlich einstufte, erst 90 km. fertiggestellt wurden.  Die Bundesregierung will zwar die Bau- und Planungszei­ten von 10 auf 4  Jahre verkürzen und die Kompetenzen der Länder in diesem Ent­schei­dungsbereich an sich ziehen, aber es bleibt aufgrund der bisherigen Erfahrun­gen mit dem Widerstandswillen der betroffenen Bevölkerung und der Abneigung der Länder, Zuständigkeiten abzugeben, sehr zweifelhaft, ob sich diese Absicht verwirkli­chen lässt. Legt man die neuen Trassen unter die Erde steigen die Kosten um ein Vielfa­ches. Hält jedoch der Netzausbau mit der Errichtung neuer Windkraftanlagen nicht Schritt, dann werden diese Investitionen in die Windenergie sinnlos, weil die Strom­netze diesen zusätzlichen Energiezufluss nicht aufnehmen können.

Anlagen zur Erzeugung regenerativer Energie aus Wind und Sonnenkraft sind nicht in der Lage, Strom kontinuierlich zu liefern. Abhilfe sollen Pumpspeicherwerke schaf­fen, die bei Stromüberschuss Wasser in viele hundert Meter hochgelegene Becken pumpen und bei Strombedarf wieder ablassen, um Strom zu erzeugen. Zur Zeit ste­hen bundesweit Pumpspeicherwerke mit einer installierten Gesamtleistung von 6400 Megawatt zur Verfügung. Grundsätzlich sind die in Deutschland noch vorhandenen Potentiale für den Bau neuer Pumpspeicherkraftwerke wegen seiner Topographie und der dichten Besiedlung äußerst begrenzt. Derzeit wird ein Pumpspeicherkraft­werk in Atdorf im Südschwarzwald konkret geplant.  Das Schluchseewerk hat Kosten von 700 Millionen Euro eingeplant. Die Anlage erfordert den Bau eines ‚Oberbe­ckens’ im Hochschwarzwald, wogegen die Bevölkerung massiven Widerstand leistet.

Im Hinblick auf die unzureichenden Speicherkapazitäten in Deutschland besteht u.a. die Absicht, die  in Norwegen vorhandenen Möglichkeiten zu nutzen, wozu für die Verbindung Norwegens mit Deutschland durch Unterseekabel 1,4 Mrd. Euro inves­tiert werden sollen. Insgesamt veranschlagt die EU-Kommission für den Ausbau der Leitungsnetze zur europaweiten Versorgung durch die Nutzung Erneuerbarer Ener­gien für die nächsten 20 Jahre Investitionen in Höhe von 400 Mrd. Euro, also 20 Mrd. Euro pro Jahr. Davon sollen 30 Mrd. Euro auf 6000 km Unterseekabel in der Nordsee und 50 Mrd. Euro auf Transportleitungen für Sonnenstrom aus den Wüsten Nordafri­kas entfallen.   

Auch durch die wachsende Energiegewinnung aus Biomasse, z.B. aus Mais und Raps etc., wird den Anstieg der Energiepreise zusätzlich verstärken. Die Bundes-regie­rung will den Anteil der Stromversorgung aus Biomasse von 4,4% auf 12% anheben. Die Verwirklichung dieses Zieles führt zu Monokulturen von Mais und Raps und beschädigt die Ökobilanz der Böden und der Landschaft durch den massiven Einsatz von Pestiziden und Düngemitteln. In besondere diese zweckentfrem­dete Nutzung der Böden wird auch zu einer Verteuerung der Nahrungs­mittel führen.  Von den 12 Millionen Hektar Ackerfläche, die für die Produk­tion von Nahrungsmittel in Deutschland zur Verfügung stehen, werden heute schon 2 Millionen Hektar für den Anbau von Energiepflanzen genutzt  (22). Die weitere Vermin­derung dieser Flächen wird das Nahrungsmittelangebot am Markt weiter redu­zieren und die Preise für die Ernährung der Bevölkerung in die Höhe treiben. Dar­über hinaus ist die Umwandlung von Nahrungsmittel in Energie zumindest in dem geplanten Umfang moralisch  unvertretbar, weil schon heute etwa 1 Milliarde Men­schen auf der Welt sich nicht ausreichend ernähren können und ihre Anzahl bei dem prognostizierten Wachstum auf über 9 Milliarden steigt.

Abschließend ist festzustellen

  

1.    Die Diskussion über die Klimapolitik in Deutschland wird einseitig geführt, denn die  Politik und Medien ignorieren Wissenschaftler, die die Auffassung des Weltklimarates  ( IPCC ) von einem durch die Menschheit verursachten Klimawandel u.a. mit der Begründung bezweifeln , sich der Nachweis für die  IPCC-Thesen nur den Temperaturaufzeichnungen stütze, die 1860 beginnen. Dagegen bewiesen  ältere Aufzeichnungen, dass es auch im vorindustriellen Zeitalter stärkere und schnellere Wechsel von kälteren und wärmeren Klima­perioden gegeben habe. Im Hinblick auf die hohen Kosten der neuen Ener­giepolitik ist eine offene Diskussion über alle relevanten Fakten und kritischen Anmerkungen erforderlich , wenn man den Verdacht einer einseitigen Beein­flussung der Bevölkerung vermeiden will .

           

2.    Das Thema Klimapolitik sollte ehrlich diskutiert werden. Dazu gehört das Ein­geständnis, dass die Ausgabe und der Handel mit Zertifikaten in Europa kein wirksames Mittel zur Eindämmung der Treibhausemissionen ist, solange diese nicht weltweit zertifiziert und umfassend kontrolliert werden. Die Ergebnisse der letzten Weltklimakonferenzen lassen erkennen, dass dieses Ziel kaum zu erreichen ist. Steigen die Kohlendioxydemissionen aber weiter, ist ein auf Eu­ropa beschränkter Zertifikathandel nicht sinnvoll, denn  er führt nur zu Wett­bewerbsnachteilen für die hiervon betroffenen Länder.

3.    Vor dem Hintergrund steigender Treibhausgasemissionen und den erfolglosen     Bemühungen, sie zu stoppen, verlieren die alternativen Energieanlagen ihre Bedeutung für den Klimaschutz. Sie behalten diese nur als Ersatz für die Energiegewinnung aus solchen fossilen Ressourcen, die irgendwann er­schöpft sein werden. Dazu müssen sie in der Lage sein, Energie kontinuierlich und zu marktfähigen Preisen zu liefern. Von dieser Fähigkeit sind sie noch weit entfernt. Um dieses Ziel zu erreichen, braucht man Zeit, die durch den überstürzten Ausstieg aus der Kernenergie verloren geht.

Dannenberg,  2011

Gastautor Klaus Poggendorf 

 Klaus Poggendorf war von 1978 bis 1996 Oberkreisdirektor des Landkreises Lü­chow-Dannenberg In diesem Landkreis liegt der Ort Gorleben,  der zum Symbol für die Auseinandersetzungen um die Kernenergie geworden ist. Als Chef der Kreisver­waltung hat K. Poggendorf diese Auseinandersetzungen  von Anfang an nicht nur hautnah erlebt, sondern war auch durch eine Vielzahl der von ihm zu treffenden Ent­scheidungen wie z. B. der Genehmigung oder dem Verbot von Demonstrationen in diesen Streit involviert. Er hat hierüber das Buch „Gorleben – Der Streit um die nuk­leare Entsorgung und die Zukunft einer Region“  geschrieben, das unter der ISBN- Nr. 978 – 3 – 922639 13 – 8  vom Verlag nordlanddruck GmbH Stadtkoppel 13, 21337 Lüneburg, herausgegeben wurde und zum Preis von 19,50 Euro plus Ver­sandkosten über den Autor in 29451 Dannenberg, Leipziger Straße 2 , oder über den Verlag, Telefon: 04131/8705-0, Telefax: 04131/8705–45 oder den Buchhandel er­hältlich ist .  

Literaturhinweise

(1) Prof. Dr. Friedrich- Karl Ewert: „Temperaturmessungen ab 1701 widerlegen anthropogen verursachten Klimawandel“, 25. 7. 2009 veröffentlicht in EIKE (http// www. eike-klima-energie. eu), Europäisches Institut für Klima und Energie

(2) Prof. Dr. Hans-Werner Sinn: „Das Grüne Paradoxon“. Econ-Verlag, Berlin. S 52 (3) Prof. Dr. H. W. Sinn: „Das Grüne Paradoxon“. Econ-Verlag, Berlin. S 80 / 81

(4) Prof. Dr. H. W. Sinn: „Das Grüne Paradoxon“. Econ-Verlag, Berlin. S79

(5) DER SPIEGEL vom 27. 12. 2010, Seite 62 .

(6) FOCUS vom 6. 6. 2011, Seite 90

(7) FOCUS vom 22. 6. 2011, Seite 12

(8) Prof. Dr. Manuel Frondel, Prof. Dr. Christoph M. Schmidt, Nils aus dem Moore :

„ Explodierende Kosten „ in BWK – Das Energie – Fachmagazin, herausgegeben vom Verein Deutscher Ingenieure (VDI), Springer – Verlag, Bd. 63 (2011), Nr. 3 S. 63 .

(9) Der Spiegel vom 27. 12. 2010, Seite 62 .

(10) FOCUS vom 22. 6. 2011, Seite 12

(11) DER SPIEGEL vom 11. 6. 2011, Seite 46

(12) FOCUS vom 6. 6. 2011, Seite 90 .

(13) Prof. Dr. H. W. Sinn: „Das Grüne Paradoxon“. Econ-Verlag, Berlin. S 187

(14) Prof. Dr. Carl Christian von Weizsäcker, Interview in der Zeitschrift „ novoargumente „, Heft 99, Seite 27 .

(15) Prof. Dr. M. Frondel, Prof. Dr. C. Schmidt, Nils aus dem Moore,a. a. O.

(16) DER SPIEGEL vom 19. 4. 2010, S 86

(17) Der Spiegel vom 8. 3. 2010, S 84 .

(18) Prof. Dr. H. W. Sinn: „Das Grüne Paradoxon“. Econ-Verlag, Berlin. S 141

(19) FOCUS vom 6.6.2011S90

(20) Prof. Dr. U. Schindewolf und Dr. J. Honke „ Kernenergie „ in Bunsen – Magazin, 12 Jahrgang 1 / 2010. S 29 .

(21) Interview mit Prof. Dr. Fritz Vahrenholt veröffentlicht in der Landeszeitung für die Lüneburger Heide vom 9. 10. 2010

(22) DER SPIEGEL vom 20. 9. 2010, S 88

Related Files