1

Investitionsrisiko Solarstrom

Investitionsrisiko Solarstrom

Ausgaben und Risiken die in keinem Werbeprospekt erscheinen.

Sie meinen mit PV-Anlagen kann man risikolos Geld verdienen? Na klar! Ein ganzer Wirtschaftszweig, inklusive Politik und Medien verteidigen hartnäckig dieses Gerücht. Sind die Module erst einmal auf dem Dach montiert, geht’s mit dem Geldverdienen so richtig los. Risiken? Die sind doch wegen der Zwangsvergütung nahezu ausgeschlossen, und die rechtlichen Randbedingungen kann man wohl vernachlässigen. Zudem sind die Anlagen nahezu wartungsfrei. Ergo: Eine Option zum Gelddrucken?

Begründete Zweifel sind angebracht! Zur Berechnung der EA-Bilanz empfehle ich mal das kostenlose Excel-Tool der Stiftung Warentest. Bei der Finanzierung der PV-Anlage mit Eigenkapital ist kaum mehr als ein Inflationsausgleich möglich. Deshalb finanzieren die Banken so etwas auch nur bei entsprechender Bonität des „Investors“ plus Hypothekeneintrag auf das Eigenheim.

Es geht aber auch noch schlimmer! Unvorhersehbare Zusatzausgaben und Risiken finden sich in keiner Renditeberechnung. Der Mensch lässt sich seine Ideale schon mal etwas kosten. Aber bei möglichem zusätzlichen Ärger mit dem Netzbetreiber und dessen Abrechnungsmodi geht der Idealismus dann doch gewaltig in den Keller. Besonders dann, wenn es eventuell sogar mit einem Gerichtsverfahren ungewissen Ausgangs verbunden ist.

Folgende Auflistung von möglichen Problemen ist sicherlich nicht vollständig und sollte Sie nicht von Ihrem „Investitionsvorhaben“ abschrecken: Anschlussverzögerungen, Reparatur- oder Wartungsstillstand, verzögerte oder unvollständige Abrechnungen des Netzbetreibers, falsch berechnete Ertragswerte, fehlerbehaftete Montage – alles Nebensächlichkeiten, die ein Unternehmer üblicherweise in seine Berechnungen mit einfließen lässt.

Renditekiller Nr.1: Die Planung

Neben der technischen Machbarkeit muss zuerst die baurechtliche Seite geklärt werden. Man kann nicht einfach am Bauamt vorbei sein Dach mit PV-Modulen bepflastern. Zu den anfallenden Verwaltungskosten (Baugenehmigung, Statik) kommt möglicherweise noch die Auflage eines bestimmten prozentualen Anteils an rechnerischem Eigenverbrauch.

Anmeldung beim Netzbetreiber: Zur Bestimmung des Netzanschlusspunktes muss der geplante und genehmigte Standort, sowie die Peak-Leistung der Anlage angemeldet werden. Der Netzbetreiber prüft die Unterlagen und bestätigt, wo und wann die Solaranlage angeschlossen werden kann. Leider vergisst er dabei oftmals nicht, eine charmante Bearbeitungsgebühr zu kassieren. Laut §5 EEG 2009 ist natürlich auch der Netzanschluss selbst nicht kostenlos und besitzt auch noch eine unkalkulierbare Komponente, wenn das Kabel durch ein fremdes Grundstück verlegt werden muss.

Der Netzanschluss am festgelegten Verknüpfungspunkt geht nach §13 EEG 2009 zu Lasten des Stromproduzenten, sprich zu Ihren Lasten! Und da gibt es schon den nächsten Knackpunkt. Der Anschluss muss am nächstgelegenen, geeigneten Punkt der Spannungsebene durchgeführt werden. Und den bestimmt ….. na wer wohl? Der Netzbetreiber!

Ebenfalls in § 13 EEG 2009 steht, dass der Anlagenbetreiber die notwendigen Kosten für eine Messeinrichtung tragen muss. Also was braucht man da? Einen Zähler, wenn Sie Ihre gesamte Produktion ins Netz einspeisen? Oder zwei getrennte Zähleinrichtungen zwecks Abrechnung des Eigenverbrauchs? Dann noch die Entscheidung, ob mieten oder kaufen. Hoppla… ganz vergessen, der Zählerschrank. Entspricht er den aktuellen DIN-Vorschriften und vor allen Dingen, passt da überhaupt noch etwasZusätzliches rein?

Und schon gibt es eine neue Überraschung, die EEG-Novelle 2012 vom 28.Juli 2011. Sie ermächtigt den Netzbetreiber einen Messtellenbetreiber zu fordern. Was ist denn das? Also §7 „Für Messtellenbetrieb und Messung gelten die Vorschriften der §§ 21b bis 21h des Energiewirtschaftsgesetzes und der auf Grund von § 21i des Energiewirtschaftsgesetzes erlassenen Rechtsverordnungen.“ Dies bedeutet, dass der Messtellenbetreiber die Messdaten so übermitteln muss, wie dies der Netzbetreiber einheitlich für sein Netzgebiet bezüglich technischer und qualitativer Mindestanforderungen ausweist. Eigene, kostengünstige Zähleinrichtungen sind also passé.

Renditekiller Nr.2: Die Installation und "gleich danach"

Das Thema der Kaufentscheidung über Leistungsberechnung, Angebote und Finanzierung wurde ja im Vorfeld bereits ordentlich abgearbeitet. Ob man sich für billig, oder eher preiswert entschieden hat, stellt sich eh erst später heraus. Das Zeuch muss jetzt nur noch installiert werden, dann geht’s auch endlich los mit dem Geldverdienen! An dieser Stelle könnte der Fachmann erstmals feststellen, in welche Kategorie Ihre Kaufentscheidung einzuordnen ist. Preis „pur“ oder Preis „plus Qualität“. Wobei die Installateursleistung noch den geringsten Kostenanteil darstellt. Und nicht zu vergessen: Gute Handwerksleistung gibt es nicht zum Nulltarif. Wenn die Leistung dann auch noch unter Termindruck (irgendeines Stichtages wegen) erbracht werden muss, sollte man sich über ein mehr oder weniger maues Ergebnis nicht wundern.  

Ist die brandschutztechnische Absicherung von Solarstromanlagen jetzt bundeseinheitliche Vorschrift?

Falls in Ihrem Bundesland noch nicht, gibt’s den Kostennachschlag etwas später.

Der Netzanschluss wurde ja im vorherigen Abschnitt bereits behandelt und sollte keine weiteren Kosten verursachen. Oder etwa doch? Haben Sie Ihre Nachbarin nicht davon überzeugen können, dass Sie mit Ihrem Strom die Welt retten wollen und deshalb ein Kabel mitten durch ihren Gemüsegarten verlegt werden muss? Gegen einen entsprechenden Obolus wird sie natürlich 1 Jahr auf die Erträge ihrer Mini-Landwirtschaft verzichten und Ihre hehren Ziele freudig unterstützen.

Ferngesteuerte Abschalteinrichtungen mit ununterbrochener Datenübermittlung der Ist-Einspeisung ist zwar erst ab 2012 und für Anlagen über 30 kW (peak) Pflicht, könnte aber durchaus später auch für kleinere Anlagen angeordnet werden. Dann wird’s heiter. Denn diese Zusatzkosten werden ebenfalls dem Anlagenbetreiber aufgebürdet.

Derzeit gilt noch: Kleine Solaranlagen bis 30 kW (peak), die ab 1.1.2012 in Betrieb gesetzt werden, müssen die maximale Wirkleistungseinspeisung am Verknüpfungspunkt auf 70 Prozent der installierten Leistung begrenzen. Gottseidank wirkt sich diese Regel in unseren Breiten eher selten aus, und die Einnahmeverluste werden wohl selten die 10%-Marke erreichen

Ein Schmankerl ist auch der neue § 12 EEG 2012. Der Anlagenbetreiber muss nur einmal im Jahr darüber informiert werden, ob eine Anlage abgeschaltet werden musste, wenn die Abschaltzeit weniger als 15 Stunden betrug. Wohl dem, der die Anlage mit Eigenmitteln finanziert hat. Dem knapst die kleine Zwangspause nur den letzten Rest der spärlichen Rendite weg.

Renditekiller Nr.3: Die Ernte kann eingefahren werden

Alle bisherigen Hürden wurden erfolgreich (?) überwunden, und Sie können nun vielleicht auf einen kleinen Gewinn hoffen? Na hoffentlich bleibt‘s nicht nur beim Hoffen! Eine Solarstromanlage beschert nur dann Einnahmen, wenn die Sonne ausreichend scheint. Ich weiss, das ist eine Binsenweisheit. Aber bei Kreditfinanzierung wird die Bank auf derlei Natürlichkeit keine Rücksicht nehmen. Also merke: Es gibt ertragreiche und ertragsärmere Jahre!

Und was, wenn sich der Netzbetreiber bei den Vergütungszahlungen ungebührlich viel Zeit lässt? Und möglicherweise Abrechnungsgebühren fordert / einbehält? Der Rechtsstreit wäre in diesem Fall wohl vorprogrammiert, und ohne ausreichendes Kapitalpolster sitzt man schnell in der Schuldenfalle. Kann Ihnen aber nicht passieren, weil Sie Ihr gutes Klimagewissen aus der Portokasse bezahlen. Leider fehlte bisher im EEG der eindeutige Hinweis, dass Abschlagszahlungen verpflichtend zu leisten sind. Erst in der Novelle 2012 findet man nun in § 16  den Hinweis, dass Abschläge zu zahlen sind. Ob mit dieser Verpflichtung jedoch Gebühren verknüpft werden dürfen? Darüber schweigt das Gesetz. Im Streitfall geht wohl nichts ohne einen versierten Rechtsanwalt. In meiner Rechtsschutzversicherung ist diesbezüglich nichts vorgesehen. Und in Ihrer?

Ob die Einnahmen aus Ihrem Stromgeschäft steuerlich irrelevant sind, entscheidet einzig und allein das Finanzamt. Sie werden nicht um eine saubere Buchführung über Einnahmen und Ausgaben herumkommen. Ausserdem ist dieses Thema so komplex und teilweise widersprüchlich, dass auch ein Steuerberater seine liebe Mühe haben wird. Siehe hierzu auch § 33 EEG 2009 „Eigenverbrauch und dessen nachträgliche steuerliche Bearbeitung“.

Zur Problematik, wenn’s mal am falschen Ende funkt, oder nicht mehr richtig zieht: Bei Totalausfall innerhalb der ersten 2 Jahre macht man üblicherweise Gewährleistungsansprüche geltend. Danach wird’s etwas schwieriger. Meist bleiben einem die Reparaturkosten an der Backe kleben. Den durchaus möglichen schleichenden Tod der Anlage frühzeitig festzustellen, ist annähernd unmöglich – ausser man kann seine Ertragswerte mit denen eines lieben Nachbarn vergleichen. Hoffentlich verbessert der die Welt mit einer vergleichbaren Anlage. Hat man saubere Soll-Leistungswerte, kann man einen eventuellen Leistungsausfall während der Reparaturarbeiten versichern. Setzt allerdings einen lückenlosen Wartungsplan voraus. Rechtsanwälte empfehlen, vor Ablauf der gesetzlichen Gewährleistung (2 Jahre) eine umfassende Überprüfung der Anlage durch einen Solarsachverständigen. Nur so könne man ausschließen, dass Installationsfehler und Defekte unentdeckt bleiben. So ein Sachverständiger kostet allerdings auch eine Stange Geld.

Apropos Wartung: Bei der regelmäßigen Wartung sollte das Reinigen der Module nicht vergessen werden. Hartnäckiger Schmutz wird vom Regen eher nicht ausreichend weggespült. Für Wartungs- und Reparaturarbeiten inklusive Austausch von Verschleißteilen (z.B. Wechselrichter) sollten Rücklagen gebildet werden. Ein guter Installateur wird Ihnen auch einen seriösen Betrag nennen. Ich denke da so an mindestens 1,5% der Investitionssumme pro Jahr. Allein der Tausch eines  Wechselrichters schlägt schon mit mehr als 1000 Euro zu Buche.

Renditekiller Nr. 4: Risiken und Nebenwirkungen

So eine PV-Anlage birgt natürlich auch nicht unerhebliche Risiken. Deshalb dürfen die erforderlichen Versicherungen in der Kostenabteilung nicht fehlen. Also da wären die:

Sachschäden

Elementarschäden, Diebstahl, Vandalismus usw. an der PV-Anlage kann man relativ einfach versichern. Der mögliche Schaden ist kalkulierbar, weil er höchstens den Wert der Anlage ausmacht. Anders sieht es bei Folgeschäden am eigenen Gebäude aus (z.B. Dacheindeckung und Unterbau). Hier ist eine Rücksprache  (schriftliche Bestätigung) mit der Gebäudeversicherung unumgänglich.

Haftungsschäden

Laut Gesetz muss der Besitz gefahrenfrei und verkehrssicher sein. Ist er es nicht, haften Eigentümer von Wohnungen, Häusern und Grundstücken, wenn jemand zu Schaden kommt, unabhängig davon, ob ein Verschulden vorliegt oder nicht. Solaranlagen die ausschließlich für den Eigenverbrauch produzieren, können in die Privat-Haftpflicht-Versicherung aufgenommen werden. Vorausgesetzt die Anlage befindet sich auf eigenem Grund. Wer seinen Strom ins Netz einspeist, betreibt ein Gewerbe und benötigt deshalb eine Betreiber-Haftpflicht-Versicherung. Dies gilt sowohl für den Betrieb einer Anlage auf dem eigenen Grundstück und Gebäude als auch auf fremden Grundstücken und Gebäuden.

Ertragsausfall (freiwillig)

Wird die PV-Anlage wegen eines versicherten Schadenfalles vorübergehend stillgelegt, kann der durchschnittlich für die Jahreszeit übliche Ertragsausfall versichert werden. Die Versicherung zahlt nicht für Systemausfälle durch mangelhafte Wartung.

Was passiert in einem Hausbrandfall?

Zur Frage der Brandfallabschaltung (BFA): Einige Hersteller von PV-Anlagen bieten DC-Schalter für die Umrichterheiten an. Nachrüstsätze für ältere Anlage sollen ebenfalls bereits im Handel sein. Allerdings ist man von einer einheitlichen Lösung noch weit entfernt.

a) Viele Bauämter (nicht alle) fordern für Neuanlagen eine Notabschaltung (Kosten 3-5% des Anlagenpreises)

b) Eine allgemeine Vorschrift auch für alte Anlagen wird es wohl nach den ersten Versicherungsstreitereien geben.

c) Irgendwann folgt dann natürlich auch eine Norm mit Umrüstzwang.

Also bisher hat es offensichtlich noch keinen versicherungstechnischen Fall gegeben. Zumindest ist noch keiner in der Öffentlichkeit breitgetreten worden.

Renditekiller Nr.5: Nach der Ernte die Entsorgung der Altanlage

Derzeit gibt es in Deutschland 69 zertifizierte Sammelstellen (PV-CYCLE), die defekte Module und komplette Altanlagen kostenfrei entgegennehmen. Dies betrifft alle Altanlagen, die vor dem 01.01.2010 installiert wurden. Anlagen die danach installiert wurden, werden nur von Herstellern / Vertreibern entgegengenommen, die dem freiwilligen Sammelpool PV-CYCLE angehören.

SOLARWORLD und SOLAR-FABRIK AG sind Anfang Juli 2011 aus diesem Sammelpool ausgestiegen. Die Kosten für Demontage und Transport gehen prinzipiell zu Lasten des Anlagenbetreibers. Diese Kosten kann man sich allerdings sparen, wenn man vorher noch schnell das Haus verkauft.

Fazit

Wenn’s nicht die Rendite ist, kann’s eigentlich nur Idealismus sein.

PS:

1. Kreditfinanzierung = monatliche Kosten

Ein günstiges KfW-Darlehen mit maximal 10 Jahren Zinsfestschreibung wird bei guter Bonität und diversen weiteren Beleihungskriterien zwischen 3,8% und 4,6% gewährt. Wie die Zinsbelastung danach aussieht, kann heute beim besten Willen keiner voraussagen. Nicht zu vergessen die Tilgungsleistung, da die Anlage nach 20 Jahren bezahlt sein muss.

2. Warum haben SOLARWORLD und SOLAR-FABRIK den Sammelpool verlassen? Ich erlaube mir zu raten: Die wollen mit den Cadmiumverseuchten… äh… –beschichteten Lasten aus dem fernen Osten nix zu tun haben.

Markus Estermeier

Im Nov. 2011




Zwei Wissenschaftspublikationen der EIKE Autoren Lüdecke, Link und Ewert auf dem Blog der bekannten US Klimaprofessorin Judith Curry

Frau Curry, der die beiden EIKE paper bekannt wurden, schlug daraufhin den Autoren einen Gast-Beitrag auf ihrem Blog von etwa 1000 bis 2000 Worten und mit Abbildungen vor. Dieser Beitrag mit dem Titel „Two new papers vs. BEST“ wurde am 7. Nov. veröffentlicht und bis heute mit 526 Leserkommentaren bedacht. Frau Curry wurde allerdings dieser Veröffentlichung wegen von der AGW-Fraktion – viele Kommentarautoren sprechen hier nur vom „team“ – heftig angegriffen, worauf sie einen eigenen Artikel „Disinformation and pseudo critical thinking“ einstellte, der 734 Leserkommentare nach sich zog. Der Aktivist und Ökonom/Soziologe Prof. Richard S. Tol sah sich daraufhin veranlasst die Replik „Tol’s Kritik of the Ludecke et al. Papers“ auf die beiden Arbeiten von Lüdecke, Link und Ewert zu verfassen, Ergebnis: weitere 612 Leserkommentare.

Da die Replik von R.S. Tol, um es höflich auszudrücken, erhebliche sachliche Mängel aufwies – entschuldbar, denn ein Ökonom/Soziologe sollte gemäß dem Sprichwort "Schuster bleib bei deinen Leisten" mit der technischen Kritik einer physikalisch-statistischen Arbeit vorsichtiger umgehen als erfolgt, überließ Frau Curry konsequenterweise auch den EIKE Autoren Platz für eine Richtigstellung von Tol’s Kritik, die unter dem Titel „Ludecke et al. Respond“ dann auch auf ihrem Blog erschien– weitere 295 Kommentare.

Schlussendlich sah sich Frau Curry angesichts der ungewöhnlich zahlreichen Leserkommentare sowie der Vermengung von sachlichen mit emotionalen und politischen Leserzuschriften noch einmal veranlasst zu schreiben. „Disinformation vs. fraud in the climate debate“ lautet dieser Beitrag, dem weitere 523 Leserkommentare folgten.

Damit und, falls richtig addiert, mit insgesamt nunmehr knapp 2700 Leserkommentaren ist das Thema "BEST vs. Lüdecke, Link, Ewert" auf dem Blog von Judith Curry noch nicht beendet. Die EIKE Autoren haben aus Zeitgründen darauf verzichtet, auf einzelne Kommentare zu antworten. Dies insbesondere auch deswegen, weil die Diskussion meist von Unkenntnis über die Details der vorgestellten Arbeiten geprägt ist – wobei den Kommentatoren der mathematischen Komplexität der beiden EIKE-Publikationen wegen kein Vorwurf zu machen ist. Auf solche Kommentare zu antworten, ist dann wenig zielstellend. Dennoch bleiben einge sehr interessante Einwände übrig, die in wenigen Tagen – von Frau J. Curry bereits zugesagt – von den EIKE Autoren in einem zusammengefassten „follow-up“ besprochen werden.

Es erscheint bemerkenswert, dass die großen deutschen Medien die Vorgänge um die BEST Kurve, die EIKE-Veröffentlichungen von Lüdecke, Link und Ewert und den sich daraus auf den US-Blogspären ergebenden Auseinandersetzungen bis heute komplett verschlafen haben. Nur das Internet ist voll davon.

Michael Limburg

Ergänzung:

Inzwischen ist das abschließende follow-up von Lüdecke, Link und Ewert auf Judith Curry’s Blog erschienen.

M.L.




Endlager für atomare Abfälle am Beispiel des Salzstocks Gorleben

1. Vorwort

Vor einiger Zeit wurde ich angefragt, ob ich bereit wäre, die unten aufgeführten Artikel von Bräuer (2009) [12] und Bornemann et al. (2008) [10] zu kommentieren bzw. für eine breitere Leserschaft aufzuarbeiten. Mit meiner Antwort zögerte ich etwas bezüglich einer Zusage, weil mir bewusst war, wie verantwortungsvoll eine solche Aufgabe ist. Letztendlich sagte ich zu, weil mich schon allein der Sachverhalt dazu bewog, dass bei allen öffentlichen Debatten über das Für und Wider von Endlagern wie z. B. jenes von Gorleben das Wort von allen möglichen Personen geführt wird, jedoch sehr selten von den dafür prädestinierten Spezialisten. Für meine Zusage sprach also weiter, dass die genannten Spezialisten größtenteils meine Berufskollegen sind, so dass eine Stellungnahme meinerseits unter der Bedingung der Wahrung des Respekts gegenüber geleisteter Arbeit Dritter nur recht und billig ist, was immerhin besser wäre, als wenn dies von von Hause aus fachlich inkompetenten Journalisten, Philosophen, Schriftstellern o. ä. Personen bewerkstelligt werden würde. Schnell wurde mir klar, dass die Auseinandersetzung mit den o. g. Arbeiten natürlich bei weitem nicht ausreichend ist, um sich einen umfassenden Überblick über die Problematik der Endlagerung zu verschaffen. Insofern stellen die beiden Arbeiten nur die Spitze des Eisberges dar.

Das Ansinnen des vorliegenden Artikels besteht vor allem darin, anhand des bestehenden riesigen Informationsfundus hinreichend kurz und verständlich relevante Sachverhalte der Endlagerung im tiefen geologischen Untergrund einem erweiterten Kreis von Interessenten zugänglich zu machen. Das ist keineswegs eine leichte Aufgabe. Es erweist sich als äußerst schwierig, sich hierfür in kurzer Zeit ein objektives Bild zu machen und sich dementsprechend ein kompetentes Urteilsvermögen zu erarbeiten. In wie weit mir die Bewältigung dieser Aufgabe gelang, mag u. a. auch der Leser beurteilen.

Im Zuge der fachlichen Auseinandersetzung mit dem Thema stößt man zwangsläufig auf die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR), welche von Beginn an federführend für die Untersuchungsarbeiten u. a. am Salzstock Gorleben verantwortlich zeichnet. Die aktuellen Kenntnisse über die Salzstruktur von Gorleben basieren auf einer weit über 30 Jahre währenden Geschichte, die mit hochkomplexen Projekten vieler Untersuchungsetappen, entsprechenden Untersuchungsarbeiten und Phasen der Berichterstattung und mit anderen zahlreichen Nebenprojekten im Zusammenhang stehen. Dabei zeigt sich, dass die Bearbeitung vorliegender Problematik ein Werk vieler Fachleute hauptsächlich geowissenschaftlicher Disziplinen ist wie der Geophysik (komplexe Oberflächenmessungen, Messungen in Bohrungen und bergbaulichen Hohlräumen u. a.), Ingenieurgeologie (Standsichherheitsfragen, mechanisches Langzeitverhalten, thermische Eigenschaften u. a.), Hydrogeologie (Einfluss von Grundwässern, Langzeitbetrachtung der Grundwasserdynamik u. a.), allgemeine Geologie (geologische Struktur, Stratigraphie, Genese u. a.), um hier nur die wichtigsten zu nennen. Selbstredend basieren die Arbeiten auf den modernsten naturwissenschaftlichen Herangehensweisen  und auch gesellschaftswissenschaftlichen Erkenntnissen. Als selbstverständlich ist dabei der Einsatz modernster Laboranalytik, Bohrtechnik, Rechentechnik (Hard- und Software) anzusehen. Ganz deutlich tritt zu Tage, dass die Aufgaben im Zusammenhang mit der Untersuchung von potentiellen Endlagerstandorten keinesfalls von einer kleineren Gruppe von Bearbeitern weder fachlich noch physisch zu bewältigen sind.

Bei der Erarbeitung des Artikels wurden natürlich die Möglichkeiten des Internets genutzt so auch die Internetenzyklopädie Wikipedia. Dies erwies sich auch als sehr hilfreich, so dass sich somit Informationen sowie deren Vollständigkeit beispielsweise über die potentiellen Möglichkeiten der Endlagerung atomarer Abfälle erlangen bzw. gewährleisten ließen. Hinsichtlich Fragen der Endlagerung von Atommüll, der Kernkraft usw. zog sich jedoch durch jeden Artikel wie ein roter Faden die Handschrift der strikten Gegnerschaft gegen Kernkraft und die ins Auge gefassten Varianten der Endlagerung atomaren Abfalls, trotz des ersten Anscheins von Ausgewogenheit so, als wenn die objektive Wahrheit per se auf der Seite der kritischen Verfasser läge.

Was die Möglichkeit dessen betrifft, dass sich die übernommene Aufgabe als undankbar erweisen könne, spreche ich hier aus ureigener Erfahrung. Sehr oft zeigte sich diesbezüglich das Phänomen, dass Menschen mit ganz zweifellos hohen moralischen und intellektuellen Ansprüchen sich selbst und ihrer Umgebung gegenüber besonders aus der nicht naturwissenschaftlichen Sphäre nicht mehr in ihrer weiteren Meinungsbildung beeinflussbar sind und dabei äußerste Resistenz gegenüber naturwissenschaftlich basierten Argumenten zeigen.

2. Über die Notwendigkeit der Einrichtung von Endlagern

Im Zeitraum von 1957 bis 2004 wurden auf dem heutigen Territorium der Bundesrepublik insgesamt ca. 110 kerntechnische Anlagen errichtet und in Betrieb genommen. Zu diesen Anlagen zählen Kraftwerke wie auch Forschungsreaktoren , welche nicht der Energiegewinnung dienen. Zum jetzigen Zeitpunkt sind davon in Deutschland noch 17 Anlagen in Betrieb (9 Kernkraftwerke, 8 Forschungsreaktoren) [5]. Durch diesen Betrieb fallen zwangsläufig radioaktive Abfälle an. Diese Abfälle stuft man vorrangig nach ihrem Gehalt an radioaktiven Stoffen und der damit verbundenen Wärmeentwicklung ein. International werden radioaktive Abfälle in schwach-, mittel- und hochradioaktive Abfälle klassifiziert. Wärmeentwickelnd sind vor allem Abfälle aus der Wiederaufarbeitung, in denen hohe Konzentrationen hochaktiver Spaltprodukte enthalten sind. In Atomkraftwerken der Bundesrepublik Deutschland wurden bisher jährlich ca. 450 Tonnen Abfall in Form abgebrannter Brennelemente (stark radioaktiv) erzeugt [1].

Ganz unabhängig davon, wie man sich zur Rolle der Kernkraft bei der Energiegewinnung verhalten mag, müssen alle Seiten letztendlich den Fakt anerkennen, dass im Lande einerseits beträchtliche Mengen radioaktiver Abfälle angefallen sind, auch künftig noch anfallen werden und andererseits ihre dauerhafte sichere Endlagerung der bisher praktizierten Alternative ihrer Zwischenlagerung auf unbestimmte Zeit vorzuziehen ist.

3. Anforderungen an Endlager

Die Kriterien für die Einrichtung und Nutzung von Endlagern für radioaktive Abfälle beruhen auf ihren für die Biosphäre schädlichen Eigenschaften, die hauptsächlich mit den langen Halbwertzeiten einiger radioaktiver Elemente bzw. ihrer Isotope in Zusammenhang stehen. Deshalb muss bei der Endlagerung dieser Abfälle ein direkter oder indirekter Kontakt mit der Biosphäre weitgehend bzw. am besten gänzlich verhindert werden. Nach neuerlichen Äußerungen von politischer Seite [2] wird die Gewährleistung einer effektiven Abschirmung über die Dauer von einer Million Jahren gefordert.

Die gesetzlichen Anforderungen an Endlager für radioaktive Abfälle aus kerntechnischen Anlagen basieren auf dem Atomgesetz (AtG) [3]. In einem Dokument des BMU sind die „Sicherheitsanforderungen an die Endlagerung wärmeentwickelnder radioaktiver Abfälle“ (Stand 30. September 2010) [4] dargelegt. Darin sind u. a. die Sicherheitsprinzipien für die Einrichtung und den Betrieb entsprechender Endlager formuliert:

                  „Der dauerhafte Schutz von Mensch und Umwelt ist unter Beachtung folgender Sicherheitsprinzipien zu erreichen:

4.1        Die radioaktiven und sonstigen Schadstoffe in den Abfällen müssen im         einschlusswirksamen Gebirgsbereich konzentriert und eingeschlossen und damit möglichst lange von der Biosphäre ferngehalten werden.

4.2        Die Endlagerung muss sicherstellen, dass Freisetzungen radioaktiver Stoffe aus dem Endlager langfristig die aus der natürlichen Strahlenexposition resultieren den Risiken nur sehr wenig erhöhen.

4.3        Die Endlagerung darf die Artenvielfalt nicht gefährden. Dabei wird davon ausgegangen, dass auch terrestrische Ökosysteme sowie andere Spezies in ihrer Art geschützt werden, wenn der Mensch als Individuum vor ionisierender Strahlung geschützt ist.

4.4        Die anderweitige Nutzung der natürlichen Ressourcen darf nicht unnötig eingeschränkt werden.

4.5        Die Auswirkungen der Endlagerung auf Mensch und Umwelt dürfen außerhalb der Grenzen Deutschlands nicht größer sein als innerhalb Deutschlands zulässig. Zur Vermeidung unzumutbarer Lasten und Verpflichtungen für zukünftige Generationen sind folgende Sicherheitsprinzipien zu beachten:

4.6        Das Endlager ist so zu errichten und so zu betreiben, dass für den zuverlässigen langfristigen Einschluss der radioaktiven Abfälle im einschlusswirksamen Gebirgsbereich in der Nachverschlussphase keine Eingriffe oder Wartungsarbeiten erforderlich werden.

4.7        Es ist eine möglichst zügige Errichtung des Endlagers zu realisieren.

4.8        Für Errichtung und Betrieb einschließlich Stilllegung des Endlagers müssen die erforderlich werdenden finanziellen Mittel zeitgerecht zur Verfügung stehen.“

4. Praktiken und Möglichkeiten der Entsorgung und Endlagerung radioaktiver Abfälle

 An dieser Stelle seien kurz die Praktiken und Möglichkeiten der Entsorgung und Endlagerung radioaktiver bzw. anderer schädlichen Abfälle [5] aufgeführt. Eine Kommentierung dieser Möglichkeiten erübrigt sich z. T. von selbst.

Endlagerung im Eisschild der Antarktis

Bei dieser Idee wird davon ausgegangen, dass durch den mächtigen Eispanzer der Antarktis dort verbrachte radioaktive Stoffe wirksam von der Biosphäre isoliert gelagert werden können. Dem widerspricht jedoch die Wärmeentwicklung der Abfälle sowie die nach international verbindlichen Verträgen hohen Umweltauflagen für diese Region.

Entsorgung in den Weltmeeren

Bis 1994 konnten feste radioaktive Abfälle legal in den Meeren verklappt werden. Bisher ist es nach internationalem Recht noch legal, radioaktiv belastete Wässer in die Meere einzuleiten (Wiederaufbereitungsanlage La Hague, Nuklearkomplex Sellafield).

Lagerung unter freiem Himmel

Diese Variante der Lagerung radioaktiver Stoffe wird in großen Flächenländern wie Russland und in einigen GUS-Staaten bis heute praktiziert, weil man dort über relativ große unbesiedelte Territorien verfügt. Diese Herangehensweise birgt ganz ohne Zweifel ein hohes Gefahrenpotential für die Biosphäre.

Entsorgung im Weltraum

Entsprechend dieser Idee wird vorgeschlagen, atomaren Abfall mit Hilfe von Raketen auf andere Himmelskörper (Planeten, Asteroiden) und auch in Richtung Sonne zu transportieren. Dieser Lösungsvorschlag ist jedoch mit hohen Risiken (Gefahren in der Startphase im Bereich des Einflusses des Gravitationsfeldes der Erde) und extrem hohen Kosten verbunden.

Wiederverwertung

Im Falle der weiteren Energiegewinnung mittels Kernspaltung kann als atomarer Abfall angesehenes Material nach entsprechender Aufarbeitung einer industriellen Kernenergiegewinnung wieder zugeführt werden. Den atomaren Müll kann man insofern auch als wertvollen künftigen Rohstoff für die Gewinnung von Kernbrennstoffen ansehen.

Dieser Kategorie ist auch die Nutzungsart zuzuordnen, bei der Anreicherung und Energiegewinnung angefallenes abgereichertes Material (Uran) zur Herstellung von Uranmunition mit militärisch gewollter erhöhter Durchschlagskraft, erhöhter Toxizität und negativen Spätfolgen der Radioaktivität zu verwenden.

Transmutation

Bei diesem Verfahren sollen aus hochaktiven langlebigen Nukliden durch Neutronenbeschuss kurzlebige Nuklide hergestellt werden, womit die notwendige Dauer ihrer Abschirmung von der Biosphäre erheblich verkürzt werden würde. Forschungen dazu sind jedoch noch in ihren Anfängen, so dass derzeit auf der Basis der Transmutation noch keine industriell betriebenen Anlagen existieren.

Endlagerung im tiefen geologischen Untergrund

Entsprechend dieser Variante der Endlagerung wird die Deponierung radioaktiver Abfälle in geologisch stabilen Gesteinsschichten vorgesehen. In Deutschland wird in fachlich kompetenten Kreisen die Endlagerung radioaktiver Abfälle im tiefen geologischen Untergrund unter dem Vorzug von Salzstöcken als beste Entsorgungsvariante favorisiert. Neben der Endlagerung in Salzstöcken fasst man diese auch in Graniten, tonigen Gesteinen u. a. als so genannte Wirtsgesteine ins Auge. Beispielsweise konzentriert man sich in Frankreich auf die Suche von für die Endlagerung geeigneten Strukturen mit tonigen Gesteinen. Dies ist vor allem der Tatsache geschuldet, dass auf dem Territorium von Frankreich nur wenige, anders genutzte oder für eine Endlagerung ungeeignete Salzstöcke existieren!

Konditionierung

An dieser Stelle soll kurz auf die so genannte Konditionierung von radioaktiven Abfällen eingegangen werden. Mit der Konditionierung werden die Abfälle so behandelt, dass sie in einen chemisch inerten Zustand versetzt werden und beispielsweise in Wasser unlöslich sind. Zum Beispiel werden hochradioaktive Abfälle dazu in Glas eingeschmolzen und wasserdicht in Edelstahlbehältern verpackt.

……………….

11. Fazit

Wahrlich, es hat den Anschein, dass der Standort Gorleben vorrangig aus politischen Gründen zur Auswahl kam. Man sehe sich nur die geografische Lage von Gorleben an! In den 1970-er Jahren „tobte“ noch der kalte Krieg…In diesem Zusammenhang wäre vorstellbar, dass der Standort Gorleben nicht die erste Wahl hätte darstellen können. Dem ist jedoch nicht so (s. Tab. 2). Dies ist außerdem keinesfalls ein ernsthaftes Kriterium für eine generelle Nichteignung des Standorts als atomares Endlager. Andererseits wurden immerhin für die Erkundung des Standorts Milliardenausgaben aus Rücklagen der Atomenergieerzeuger getätigt. Auch das Moratorium hatte über 10 Jahre lang seinen jährlichen Preis von ca. 22 Millionen Euro.

Selbst wenn sich erwiese, dass der Standort Gorleben als atomares Endlager nicht optimal wäre (was keineswegs heißen sollte, dass er generell nicht geeignet sei), so scheint m. E. das Prinzip, dass es für alle sachlichen Probleme eine optimale ingenieurtechnische Lösung gibt, im Fall Gorleben wenig bzw. nicht erschöpfende Anwendung zu finden. Hiermit sind vor allem die Möglichkeiten der Herstellung verschiedenster technischer Barrieren gemeint, wie es beispielsweise in der bundesdeutschen Abfallwirtschaft z. B. bei der Errichtung von Sondermülldeponien bisher geübte Praxis war und auch im internationalen Maßstab als äußerst vorbildlich gilt.

Bei intensiverer Beschäftigung mit der vorliegenden Materie unter ständigen Bemühungen Neutralität zu wahren, eigene Voreingenommenheit zu unterdrücken, gelang es mir jedoch nicht, mich des Eindrucks zu erwehren, dass bestimmte Personen, bestimmte Kreise wahrscheinlich aus persönlichem Profilierungsdruck heraus sowie auf jeden Fall aus Gründen politischen Kalküls mit dem Ziel politischer Machtausübung und Einflussnahme, objektiv betrachtet, auf meist unkonstruktive Weise permanent bestrebt sind, ganz fadenscheinig und häufig fachlich absurde „Haare in der Suppe“ aufzuzeigen. Das Fatale besteht hier darin, dass mit dieser demagogischen Art und Weise auf gesellschaftlicher Basis ganz offensichtlich erfolgreich politische Mehrheiten zu erringen sind.

Das letzte Wort über die Eignung oder Nichteignung des Standorts Gorleben sollte hierzu jedoch den Spezialisten – den Projektanten, den Erkundern, den Auswertern der Untersuchungsergebnisse usw. gehören unter der Bedingung, dass dazu eine sachliche Aufklärung der Öffentlichkeit erfolgte und auch sachlich möglich wäre, infolge derer ein weitgehender gesellschaftlicher Konsens erzielt werden könnte. Aber dies scheint in Deutschland gegenwärtig eine utopische Idealvorstellung zu sein…

Mit der Erarbeitung des vorliegenden Aufsatzes innerhalb der gegeben Zeit tat ich mich vor allem deshalb schwer, weil sich die Materie als sehr vielschichtig und umfangreich erwies. Außerdem hatte ich ständig das Gefühl im Nacken, einer Verantwortung, einem quasi Versprechen nicht gerecht werden zu können, ohnmächtig zu sein, einerseits angesichts der von anderen über einige Jahrzehnte geleisteten Detailarbeiten, den dabei angehäuften immensen Datenmengen, die mühevoll zu einem plausiblen Großen und Ganzen zusammengesetzt werden müssen. Andererseits dachte ich ständig an die sich in der Mehrheit befindenden Opponenten, wie schwer man sich dort wohl erfahrungsgemäß ernsthaften Argumenten gegenüber täte..?

Der gesellschaftliche Hintergrund ist besonders in Deutschland von politischen Weichenstellungen der nationalen Energiepolitik und einer paradoxerweise damit im Einklang stehenden vorherrschenden öffentlichen Meinung geprägt, die fast hoffnungslos von einer absurden, eigentlich perfiden Ideologie der Dekarbonisierung sowie einer aktionistisch betriebenen Politik physikalisch unsinnig so genannter erneuerbarer Energien indoktriniert scheint. Gleichzeitig grassiert weltweit eine Finanz- und Wirtschaftskrise. Das ist die Ausgangssituation, in der weitere Untersuchungsarbeiten am Salzstock Gorleben und damit zusammenhängende grundlegende Entscheidungen in naher Zukunft bevorstehen. Wie werden die Würfel fallen? Es ist abzuwarten! Bleibt zu hoffen übrig, dass in der Zukunft, was in der Menschheitsgeschichte schon vorgekommen sein soll, die Nüchternheit über die Benommenheit, die Sachlichkeit über die Verbohrtheit, die Offenheit über die Beschränktheit, die Vernunft über die Dummheit, Wissen über Glauben letztendlich die Oberhand gewinnt.

Glück Auf!

Dr. Bernd Hartmann für EIKE

Lesen Sie den ganzen Beitrag 

als pdf im Anhang

Related Files




Langzeit-Temperaturreihen, Stalagmiten und Baumringe widersprechen einer maßgebenden anthropogenen Erwärmung

Die von uns als pdf beigefügte Version des Artikels, inzwischen auch in ArXiv veröffentlicht, ist gegenüber der E & E Originalversion geringfügig erweitert und um neuere Literatur ergänzt, denn zwischen dem Einreichen der Arbeit und der Veröffentlichung durch E & E lag etwa ein halbes Jahr. Der Aufsatz ist, wie praktisch alle naturwissenschaftlichen Fachaufsätze, in Englisch. Wir geben hier nur eine kurze deutsche Zusammenfassung an. Englisch ist heute bekanntlich die „lingua franca“ der Wissenschaft, es gibt so gut wie keine wissenschaftlichen Fachaufsätze mit weiterer Verbreitung mehr in individuellen Landessprachen. Da die fachlichen Inhalte des Aufsatzes vorwiegend Physiker ansprechen, denen ohnehin Fachenglisch geläufig ist, verzichten wir auf eine Übersetzung ins Deutsche und bitten weiter interessierte Leser den Aufsatz im Original heranzuziehen. 

Übersicht und Inhaltszusammenfassung

Politik und Medien, gestützt durch das IPCC, betonen eine ungewöhnliche, rezente Temperatursteigerung der Erde, die maßgeblich durch anthropogenes CO2 verursacht sein soll. Zur Abhilfe weiterer Temperatursteigerungen, es wird sogar ein nur politisch als relevant anzusehendes Ziel von max. 2 °C angegeben, werden volkswirtschaftlich einschneidende CO2-Reduktionen propagiert (Energiewende). Treffen die Verlautbarungen vom gefährlichen Temperaturanstieg aber überhaupt zu? Können uns ferner Vergangenheitstemperaturen etwas über den gegenwärtigen Trend aussagen?

Bis höchstens 250 Jahre zurück gibt es nur fünf verlässliche lokale Monatsreihen der Nordhemisphäre, d.s. Hohenpeissenberg, Prag, München, Wien und Paris. Noch weiter in die Vergangenheit zurück stehen rekonstruierte Temperaturen zur Verfügung, vorwiegend aus Stalagmiten und Baumringen, meist als „Proxies“ bezeichnet. Die fünf Langzeit-Thermometerreihen zeigen im 19. Jahrhundert einen etwa gleich starken Temperaturabfall wie den sehr viel bekannteren Anstieg im 20. Jahrhundert. Nimmt man anthropogenes CO2 als Ursache des Anstiegs im 20. Jahrhundert an, entsteht ein Ursachenproblem für das 19. Jahrhundert. Tatsächlich sind die Ursachen beider Jahrhundert-Fluktuationen bis heute ungeklärt.

Die Arbeit unternimmt die Trendanalyse der fünf Langzeit-Thermometerreihen und ferner einer hochqualitativen Stalagmiten- sowie Baumring-Temperaturkurve. Ein Trend wird in üblicher Weise an Hand linearer Regression definiert. Die Größe ∆ [°C] (in dieser Arbeit, von einer Ausnahme abgesehen, stets über den Zeitraum von 100 Jahren) ist dabei der Temperatur-Anstieg bzw. -Abfall der Regressionsgeraden. Die relative Temperatur­änderung ∆/s, mit s als der Standardabweichung um die Regressionsgerade herum, ermöglicht schließlich den sinnvollen Vergleich unterschiedlicher Reihen und die Trendanalyse.

Der Vergleich der Thermometer- mit den rekonstruierten Reihen zeigt, dass letztere über rund 2000 Jahre lang oft weit stärkere ∆/s Maxima- bzw. Minima als die Thermometerreihen aufweisen. Die relativen 100-Jahres-Trends des 19. und 20. Jahrhunderts sind daher im langzeitlichen Vergleich völlig normal. Dieses Teilergebnis widerspricht bereits der Behauptung, die Erwärmung im 20. Jahrhundert sei ungewöhnlich.

Die allen Temperaturreihen innewohnende Autokorrelation (Persistenz) bewirkt, dass größere ∆/s Werte mit entsprechend höherer Wahrscheinlichkeit auf ganz natürliche Weise auftreten können. Damit sind sie aber nicht mehr von einem externen Trend zu unterscheiden, wie er z.B. durch UHI oder anthropogenes CO2 verursacht sein könnte. Mit der Detrended Fluctuation Analysis (DFA), mit Monte-Carlo-Simulation und mit Hilfe synthetischer Reihen ist es jüngst gelungen, aus dem ∆/s und dem sog. HURST-Exponenten einer Temperaturreihe quantitativ anzugeben, wie natürlich (zufällig) der gemessene ∆/s Wert der Reihe ist. Liegt die Wahrscheinlichkeit für Zufälligkeit unter einer definierten Vertrauensschwelle, wird ein externer Trend angenommen. Damit liegt erstmals ein quantifizierbares Unterscheidungskriterium zwischen „Zufall“ und „Trend“ vor. Es ist zu betonen, dass über Ursache und Art des evtl. vorhandenen Trends das Verfahren, das auch in der vorliegenden Arbeit verwendet wird, nichts aussagt.

Die Analyse zeigt, dass alle 5 Thermometerreihen einen externen Trend beinhalten. Im Gegensatz dazu enthalten die beiden Proxy-Reihen keinen Trend und sind zudem wesentlich stärker autokorreliert. Damit liegt ein Widerspruch zwischen den Thermometer- und den Proxy-Daten vor, der nicht ohne weiteres zu beseitigen ist. Die viel stärkere Autokorrelation der Stalagmiten- und Baumring-Reihen, die hier bis zu 600 Jahren Dauer nachgewiesen wurde, kann nicht durch Artefakte bei der Gewinnung dieser Temperaturdaten erklärt werden.

In der Arbeit wurde erstmals die Hypothese aufgestellt, dass die vorbeschriebene Diskrepanz durch einen niederfrequenten Klimaeinfluss der Sonne verursacht wird (sich änderndes Sonnenmagnetfeld). Die DFA-Analyse von Monatsreihen bis etwa 230 Jahren Länge kann grundsätzlich nur Autokorrelation bis höchstens 50 Jahre nachweisen. Ein langsamer Sonneneinfluss mit Änderungen, die sich erst über mehrere Jahrzehnte bemerkbar machen, wird daher automatisch von der DFA als „linearer Trend“ aus der Reihe entfernt. Dies ändert sich grundlegend mit der DFA-Analyse der 2000 Jahre langen rekonstruierten Temperatur-Reihen (Jahresmittelwerte im Gegensatz zu Monatswerten), in denen kein Trend aufgefunden wird. Die Analyse führt hier zu wesentlich höheren Wahrscheinlichkeiten starker ∆/s Fluktuationen, die in den beiden Proxies tatsächlich beobachtet werden. Mit anderen Worten: Der Sonneneinfluss ist in den Monats-Thermometerdaten ein (relativ langsamer) linearer externer Trend, der von der DFA bei der Analyse automatisch entfernt wird. Die Sonnenfluktuationen in den rekonstruierten Jahres-Daten sind dagegen jetzt Fluktuationen mit 12 mal so hoher Frequenz und werden daher von der DFA nicht mehr als langsamer Trend erkannt. Sie gehören zum Gesamt-Ensemble aller naturgegebenen Einflüsse, die die stärkere Autokorrelation (höheren HURST-Exponent) der rekonstruierten Reihen ausmachen. 

Um die Hypothese vom Sonneneinfluss zu überprüfen, wurde eine ca. 1500 Jahre lange synthetische Temperatur-Monatsreihe erzeugt, die die Autokorrelationseigenschaft der Thermometerreihen aufweist und dann mit der Sonnenfleckenreihe überlagert wurde. Die DFA-Analyse der synthetischen Reihe stützt die hier vorgestellte Hypothese. Sie zeigt ein Cross-Over der Autokorrelation bei etwa 60 Jahren und enthält damit sowohl das Autokorrelationsmerkmal der Thermometerreihen als auch der beiden rekonstruierten Reihen. Es darf daher vermutet werden, dass 100-Jahres-Temperaturanstiege oder -Abfälle vorwiegend auf den Einfluss des sich ändernden Sonnemagnetfelds zurückgehen und kaum mit anthropogenen Einflüssen zusammenhängen.

Das Ergebnis der Arbeit wird von jüngsten Veröffentlichungen gestützt, die keine Trendverstärkung zwischen der ersten und zweiten Hälfte des 20. Jahrhunderts auffinden. So heißt es beispielsweise in der Conclusion der Publikation „S. Lennartz, and A. Bunde, Trend evaluation in records with long-term memory: Application to global warming, Geophys. Res. Lett., Vol. 36, L16706 (2009)”:

Our result yields only weak support for the thesis that the trend in the last 50 years changed its character compared with the first 50 years, since only 1/3 of the records show a remarkable change.

Oder anders gesagt: Stimmt die Hypothese von einer maßgebenden Temperaturwirkung des anthropogenen CO2 (ein kleiner, im wes. unmaßgeblicher Erwärmungseffekt wird von niemandem bestritten), müsste der Erwärmungstrend in der zweiten Hälfte des 20. Jahrhunderts wesentlich stärker ausfallen als in der ersten Hälfte, denn da stiegen die CO2 Emissionen besonders stark an. Dies wurde von Lennartz/Bunde nicht aufgefunden.

In ihrer jüngsten Veröffentlichung „S. Lennartz, and A. Bunde, Distribution of natural trends in long-term correlated records: A scaling approach, Phys. Rev. E 84, 021129 (2011)” bestätigen die Autoren auf S. 7

We consider it as a surprise that the measured temperature increase in the records considered still does not show a significant trend on the 500-month scale

Michael Limburg EIKE

Related Files




Der PIK-EIKE Workshop – worüber die Medien nicht berichten

Das PIK wollte sich dagegen nicht zu einem gemeinsamen Protokoll bewegen lassen und wünschte zudem auch keine journalistische Öffentlichkeit beim PIK/EIKE-Workshop. Es zog vielmehr vor, jüngst seinerseits die Schrift „EIKE-Besuch am PIK – Sammlung von Sachargumenten.pdf“ ins Internet zu stellen, die erhebliche Unrichtigkeiten und Fehler aufweist. EIKE widerspricht daher diesen „Sachargumenten“ und beantwortet sie hier mit der „Widerlegung_Teil1_der_PIK_Sachargumente.pdf“, die ebenfalls beiliegt. Jeder Leser kann sich nun selber informieren.

Die AGW-Lobby und die AGW-Skeptiker vermögen zumindest in sehr bescheidenem Maße auch einmal fachlich miteinander und nicht immer übereinander zu reden. Zur Vermeidung von Missverständnissen beim Begriff AGW: Unter AGW verstehen wir bei EIKE die IPCC-Hypothese von einer schädlichen und gefährlichen anthropogenen globalen Erwärmung. Eine unbedenkliche, geringfügige und sogar erwünschte anthropogene Erwärmung der Erde wird selbstredend auch von uns anerkannt, allein schon der Erwärmungseffekt durch große Städte (UHI = Urban Heat Island effect) gehört dazu.

Die großen deutschen Medien haben vom Workshop PIK/EIKE keine Notiz genommen, obwohl ihnen das hier beigefügte Protokoll des Treffens zur Verfügung gestellt wurde. Insbesondere Presseorgane wie die Süddeutsche Zeitung (SD) oder DIE ZEIT ziehen es vor, an Stelle ordentlich recherchierter Berichterstattung Häme gepaart mit Verleumdungen über die AGW-Skeptiker und insbesondere über EIKE auszuschütten. Die SD war sich beispielsweise nicht zu schade, ihren Artikel vom 31.3.2010 mit dem von ihr frei erfundenen und EIKE-Pressesprecher Lüdecke in den Mund gelegten Satz „Wir brauchen keine Klimaforscher“ zu titeln. Die ZEIT ist dagegen etwas subtiler. Die Überschrift „Die Gehilfen des Zweifels“ (Ausgabe 48, 26. Nov. 2010) belegt es. Den verantwortlichen ZEIT-Redakteuren fiel indes nicht einmal auf, dass „Zweifel“ von jeher der Motor allen Fortschritts war und ist. Nur Ideologen und religiöse Fanatiker zweifeln niemals.

Tatsächlich gilt inzwischen – bedingt durch jahrelange, erfolgreiche, grün-mediale Gehirnwäsche – jeder Zweifel an der Klimaschädlichkeit des anthropogenen CO2 als politisch inkorrekt, ja geradezu anstößig. Man wird beim medialen Durchdrücken der AGW-Hypothese und der Verächtlichmachung jeden Zweifels daran fatal an den Stil des „Neuen Deutschland“ der ehemaligen DDR erinnert. Die Opferrolle spielen heute die sog. „Klimaleugner“, eine Bezeichnung, deren Assoziation mit dem Begriff „Holocaustleugner“ wohlbeabsichtigt ist. 

Beteuerungen von AGW-Zweiflern, sich auf dem Boden der Wissenschaft zu bewegen, werden nicht überprüft, sondern ungesehen verworfen. Immerhin gibt es bereits um die 1000 Peer-Review-Fachveröffentlichungen, die eine ganz andere Auffassung als die des IPCC äußern. Man nimmt sie erst gar nicht zur Kenntnis. Aber auch ein Blick auf die Mitglieder des Fachbeirats von EIKE (hier) dürfte klarstellen, dass es sich hier nicht um esoterische Abweichler mit Sondermeinungen zur Klimaphysik handeln kann.

Journalisten, die es nicht wahrhaben wollen, oder es (besser wissend) aus ideologischen Gründen zurückhalten, dass die faktische Sinnhaftigkeit von „Klimaschutz“ und „Energiewende“ aus guten Gründen bezweifelbar ist, richten mit unehrlicher Berichterstattung volkswirtschaftlichen Schaden an. Sie verstoßen gegen die Pflicht einer objektiven, gründlich recherchierten Berichterstattung. Wir betonen, dass insbesondere im PIK-EIKE-Workshop und den sich hier weiter ergebenden Diskursen im Internet zwischen diesen beiden Instituten (s. die her beigefügten pdf-Dokumente) auf fachlicher Ebene die wichtigsten Argumente für oder gegen die AGW-Hypothese ausgetauscht werden. Wir meinen daher, das dieser Diskurs für Redakteure eine gute Gelegenheit ist, sich kundig zu machen und zu berichten.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

Related Files




Teil 8: Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen

Da die Temperaturentwicklung ausschließlich von der solaren Aktivität abhängt, werden die Temperaturen mit der derzeit zurückgehenden Sonnenaktivität ebenfalls zurückgehen, so wie wir dies seit etwa 10 Jahren auch beobachten. Zu dieser Erkenntnis kommen NASA, wie auch das Space and Science Research Center (SSRC) in Orlando.

Wie dargelegt, bestimmt der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus maßgeblich unser Klima. Er hatte zu Beginn des Jahrhunderts (2002/2003) sein Maximum. Wie nach jedem Hauptsonnenzyklus, gehen seither die Temperaturen deutlich zurück.

 

Abbildung 183 zeigt die Kälteperioden der letzten 1.100 Jahre (ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden korrelieren jeweils mit dem Maximum des de Vries/Suess-Zyklus. Nach jedem Maximum fallen die Temperaturen deutlich.

Daher werden der Temperaturverlauf ausgewählter Stationen nach dem davor liegenden Maximum des de Vries/Suess-Zyklus betrachtet. Dieses lag in den 1790-Jahren. Nur solche Stationen wurden betrachtet, in denen eine natürliche Schwingung zu sehen ist, um auszuschließen, dass menschliche Effekte, hier vor allen der Wärmeinseleffekt, auf den Temperaturverlauf störend wirken.

 

Abbildung 184, Quelle: Prof. Ewert, EIKE, zeigt den Temperaturgang von Kopenhagen im Zeitraum von 1768 – 2009. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen noch stark zwischen warm und kalt (rote Fläche). Bis zum Erreichen seines Minimums, sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten (blaue Fläche). Vor einem erneuten Temperaturanstieg (steigender Sonnenzyklus), fallen die Temperaturen auf ein Minumum und steigen dann kontinuierlich an (schwarze Linien).

Abbildung 185, Quelle: (http://www.lanuv.nrw.de/luft/wirkungen/klima_grundlagen.htm) zeigt den Temperaturgang des Hohenpeißenberg von 1781-1995 nach Fricke 1997. Die rote Linie kennzeichnet wieder das Maximum des Hauptsonnenzyklus. Auch hier sind bis 30 Jahre nach dem Hauptsonnenzyklus starke Jahresschwankungen der Temperatur zu sehen (rote Fläche), die dann geringer werden (grüne Fläche) und nach dem Minimum im Hauptsonnenzyklus die geringsten Werte einnehmen (blaue Fläche).

 

Abbildung 186: Zu sehen ist der Temperaturverlauf von Wien im Zeitraum von 1775 – 2008, Quelle: Prof. Ewert, EIKE. Der Temperaturverlauf verhält sich wie bei den vorherigen Datenreihen.

 

Abbildung 187: Ebenfalls das gleiche Bild bei der Temperaturgangreihe München im Zeitraum von 1781 – 1991.

 

Abbildung 188: Temperaturgangreihe von Berlin-Dahlem von 1701 – 2008 mit den gleichen Merkmalen.

 

Abbildung 189: Temperaturgangreihe Zentralenglands von 1659 – 2000 (alle nicht eigens angegebene Quellen: Prof. Ewert, EIKE). Mit seinem ausgeglichenen Seeklima zwischen Atlantik und Nordsee nimmt England sicherlich eine Sonderstellung ein. Dies zeigt sich, dass hier die „grüne“ Phase von der „roten“ Phase nicht so stark differiert wie in Mitteleuropa. Aber auch hier ist das Muster, trotz der Moderation durch den Ozean, vorhanden. Die Temperaturgangreihe ist deshalb besonders interessant, weil sie bis 1659 zurückreicht und damit an einem weiteren Hauptsonnenzyklus gespiegelt werden kann (Maximum um 1590). Während der Epoche der "Kleinen Eiszeit" zeigt sich auch hier deutlich das typische Temperaturgangmuster. Auch beim davor liegenden Hauptsonnenzyklus, fallen zuerst die Temperaturen stark, bevor sie dann wieder ansteigen (schwarze Linien).

 

Abbildung 190: Eine weitere Region, neben Mitteleuropa und Großbritannien, St. Petersburg, zeigt ebenfalls das typische Muster des Temperaturganges nach einem Maximum im Hauptsonnenzyklus.

 

Abbildung 191: In Vilnius ein ähnliches Bild.

 

Abbildung 192: Nicht nur in Europa, sondern auch in Amerika ergibt sich das gleiche Muster des Temperaturganges nach einem Hauptsonnenzyklus, wenn auch hier sozusagen der mittlere Teil fehlt, weil keine Messungen vorhanden sind.

Fazit

Anhand der solaren Aktivitätsschwankungen, dem derzeitigen und weiteren Rückgang der solaren Aktivität, sowie der Vergleiche der Temperaturentwicklung nach einem Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem spürbaren Rückgang der Temperaturen zu rechnen. Nach einem Hauptsonnenzyklus fallen die Temperaturen deutlich, dabei unterliegen sie hohen Schwankungen zwischen warm und kalt, wie wir es übrigens auch gegenwärtig wieder erleben, so dass der Temperaturgang für die nächsten 10 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte. Das Klimasystem verhält sich dabei wie ein physikalisch, elektrisches System, welches in seiner Übergangphase (Hystherese, beim Klima zwischen Warmzeit und Kaltzeit) empfindlich auf Veränderungen in seinen Eingangsgrößen reagiert. Im eingeschwungenen Zustand (z.B. kalt) ist es weitgehend stabil und nur geringen Schwankungen unterworfen. Ca. 40 – 50 Jahre nach einem Maximum im Hauptsonnenzyklus, sind die Schwankungen zwischen warm und kalt weiterhin relativ hoch, allerdings auf insgesamt niedrigerem Niveau. Im „eingeschwungenen“ Zustand ist das System stabil auf niedrigem Niveau.

Obwohl die Untersuchungen anhand eines, bzw. 2 Hauptsonnenzyklen sicherlich zu gering sind, um eine abschließende Aussage treffen zu können, zeigt sie, dass starke Temperaturschwankungen zwischen warmen und kalten Jahren in den ersten Jahrzehnten nach einem Hauptsonnenzyklus, insbesondere in Mitteleuropa, nichts ungewöhnliches darstellen. Die heutigen Schwankungen passen somit in sehr guter Weise zu den historischen.

Lässt sich darüber hinaus eine weiter gehende Prognose für die Temperaturentwicklung herleiten. Der Autor hält dies nicht grundsätzlich für unmöglich, wenn dazu weitere solare Zyklen, wie der Hallstatt-Zyklus, der die Hüllkurve des de Vries-Suess-Zykluss darstellt zu Grunde gelegt werden. Sonnenzyklen bestimmen nicht nur auf kurzen Zeitskalen, sondern auch auf langen Zeitskalen das Klima auf der Erde, wie die folgenden Abschnitte zeigen.

 

Abbildung 193 zeigt den im Mittel 2.300 Jahre dauernden Hallstatt-Zyklus (geglättete Kurve), gewonnen aus 14C-Werten aus Baumringen (schwarze Kurve: de Vries-Suess-Zyklus), Quelle: United States Geological Survey, “The Sun and Climate“, August 2000. Der Autor hat hierzu die Zyklenzeiten, bzw. Halbzyklenzeiten, (zwischen zwei Extrema) eingefügt. Deutlich ist zu sehen, dass die Länge des Hallstatt-Zyklus zur Gegenwart hin zunimmt. Zwischen letztem Maximum (roter, senkrechter Pfeil) und Minimum (blauer, senkrechter Pfeil) liegt eine Zeitspanne von 1.500 Jahren (grünes Rechteck). Sein letztes Minimum hatte er um 650 nChr. Seinerzeit herrschten übrigens besonders kühle Temperaturen. Wird dieses grüne Rechteck gespiegelt, so zeigt sich, dass der Hallstatt-Zyklus nach dieser 14C-Auswertung sein Maximum um das Jahr 2150 haben wird (in der Abbildung ist die Skalierung der letzten 500 Jahre nicht maßstabsgerecht zu den übrigen, deshalb scheint es, dass das Maximum um das Jahr 2000 liegt). In der Zeit des Holozän-Klimaoptimums (roter Balken) war die Zykluszeit wesentlich kürzer.

Anhand dieser Untersuchung (längere Zykluszeiten) ist davon auszugehen, dass der Trend des Temperaturrückgangs im Holozän, wie es die Arbeit von Schönwiese zeigt, fortgeführt wird.

 

Abbildung 194, Temperaturgang im Holozän nach Schönwiese und dazu vom Autor, der linearen Trend (rot).

Die Analogie, dass mit kurzen Zyklenzeiten, höhere Temperaturen verbunden sind, wird durch die Untersuchungen erhärtet, dass auch beim Schwabe-Zyklus (kleine Skalen), die Zeiträume mit kurzen Zyklenzeiten, zu der aktiven Sonne und damit zu den Warmzeiten gehören! Erreicht der Hallstatt-Zyklus sein nächstes relatives Maximum, ist davon auszugehen, dass für mindestens die nächsten 1.500 Jahre der Temperaturtrend nicht nach oben, sondern im Gegenteil, nach unten, zu kälteren Temperaturen geht.

 

Abbildung 195 dient zum Vergleich der Ergebnisse aus der Abbildung 193. Sie stammt von Solanki, S.K., et al. 2005 (geglättete rote Kurve: Ray Tomes, “Cycles in Sunspot Number Reconstruction for 11,000 Years” – anhand von Berechnungen der Ausgleichskurve gibt Tomas das Maximum der Ausgleichskurve – Hallstatt-Zyklus – im Jahr 2.293 an). Auch diese Arbeit zeigt deutlich den Hallstatt-Zyklus. Wie in der Darstellung der USGS, war dessen Zykluszeit während des Holozän-Optimums kurz. Bei Solanki et al. auch der ansteigende Zyklus während des römischen Klimaoptimums (rechter rote Balken). Auch bei Solanki et al. werden die Zykluszeiten des Hallstatt-Zyklus zur Gegenwart hin länger, was dafür spricht, dass es einen, dem Hallstatt-Zyklus übergeordneten Sonnenzyklus gibt, der dessen Zykluslänge bestimmt. Nach der Untersuchung von Solanki et al., steigt der Hallstatt-Zyklus noch bis ca. zum Jahr 2.200 an, was in etwa der Untersuchung der USGS entspricht. Erst danach geht die solare Aktivität für längere Zeit (mindestens 1.500 Jahre, bis zum nächsten relativen Minimum im Hallstatt-Zyklus) wieder zurück. Nach M. A. Xapsos und E. A. Burke, ”Evidence of 6000-Year Periodicity in Reconstructed Sunspot Numbers” (Solar Physics, Volume 257, Number 2, 363-369) gibt es diesen, dem Hallstatt-Zyklus, zeitlich übergeordneten Sonnenzyklus.

Die folgende Abbildung bestätigt ebenfalls den Temperaturtrend nach dem Hallstatt-Zyklus bis zum Jahr 2.200.

 

Abbildung 196 zeigt die gemittelten Temperaturen (rot) in 50-Jahresintervallen Quelle: (http://www.abd.org.uk/pr/274.htm). Deutlich ist eine Schwingung zu erkennen, die nur auf natürliche Ursprünge zurückzuführen ist. Wird die ansteigende Zykluslänge gleich der absteigenden gesetzt (komplette Schwingung), so ergibt sich das erweiterte Bild (grau) bis zum Jahr 2.200. Auch hier steigen bis um das Jahr 2150 die Temperaturen noch an. Der Temperaturrückgang nach C, also bis zum Jahr 2050, gibt zum einen, den bisherigen 10-jährigen Temperaturrückgang wieder, die bevorstehende zurückgehende Sonnenaktivität, sowie die Temperaturentwicklung nach dem davor liegenden Maximum des Hauptsonnenzyklus, nach dem die Temperaturen ebenfalls zurückgingen (rote Säule bei 1800).

Diese, auf langen Zeitskalen wirkenden solaren Aktivitäten geben den Langfristtrend an. Sie geben keine Auskunft über kurzfristige Schwankungen. Hierzu sind, wie gezeigt, die solaren Zyklen, wie Schwabe- und de Vries/Suess-Zyklus notwendig. Diese zeigen die klimatischen Veränderungen auf Zeitskalen von Jahren, bzw. Jahrzehnten. Anhand derer, in den nächsten 30-40 Jahren eine deutliche Abkühlung eintritt, wie wir sie seit einigen Jahren bereits beobachten.

 

Die beiden Charts in Abbildung 197, Quelle: (http://garymorris93.cwahi.net/weather/solar_variations.html), zeigen Periodendauer (links) und Phasenverzögerung (rechts) des Hallstatt-Zyklus. Deutlich zu sehen, dass während des Klima-Optimums im Holozän, Zykluszeit und Phasenverzögerung sehr gering, bzw. stark negativ waren, was für eine starke solare Aktivität typisch ist! Dessen Periodendauer hat wiederum einen Zyklus von ca. 7.800 Jahren.

 

Abbildung 198 zeigt den Temperaturgang in der Antarktis der letzten 5.000 Jahre (http://www.c3headlines.com/). Deutlich zeichnen sich die Warmperioden der mittelalterlichen Warmzeit, des römischen Klimaoptimums und dem Holozänoptimum ab. Das gegenwärtige Temperaturniveau ist als mäßig einzustufen. Allein in 13 Zeitabschnitten war es in den letzten 5.000 Jahren wärmer als heute. Seit Beginn dieses Jahrhunderts ist wieder ein deutlicher Temperaturrückgang zu verzeichnen. Die derzeitigen Temperaturen (2010) sind als moderat einzustufen. Der Trend ist negativ (türkisfarbener Pfeil)

Im Betrachtungszeitraum ist deutlich ein Schwingverhalten (grün) zu sehen, mit Extrema vor ca. 1.000 Jahren und vor ca. 4.500 Jahren, was nur auf natürliche Ursachen zurückzuführen ist. Anhand der halben Periodenlänge, die auf der Abbildung zu sehen ist, beträgt die gesamte Schwingungsdauer für einen Zyklus ca. 7.800 Jahre. Dies ist dieselbe Schwingungszeit, wie sie die Sonne bei ihren Langzeitaktivitätsschwankungen in Abbildung 197 aufweist. Auch die Extrema in Abbildung 197 stimmen recht gut überein mit Abbildung 198 überein – vor ca. 1.100 Jahren und vor ca. 4.300 Jahren.

 

Abbildung 199, Quelle: United States Geological Survey, “The Sun and Climate“, August 2000, zeigt das Energiespektrum der 14C-Daten. Deutlich sind Maxima zu erkennen, die Sonnenzyklen zuzuordnen sind.

 

Abbildung 200, Quelle: K.E. Behre, “Probleme der Küstenforschung“, Band 28, Isensee-Verlag, 2003,  zeigt die Meeresspiegelschwankungen an der deutschen Nordseeküste. Deutlich sind Schwingungen, mit einer mittleren Länge von ca. 510 Jahren zu sehen. Diese passen zu der vorherigen Abbildung, die zeigt, dass Anhand der Spektralanalyse eine Periode in der solaren Aktivität mit einer Länge von 504 Jahren vorhanden ist.

Über die direkte Sonnenaktivität hinaus, sind auch die Bahnparameter der Erde variabel. Langanhaltende periodische Änderungen in der solaren Einstrahlung, verbunden mit den Bahnparametern der Erde, sind die Milanković-Zyklen, die Änderungen in der Erdbahn, Neigung Erdachse, Änderung der Jahreszeiten auf der Erdbahn und Erdumlaufbahn um die Sonne beinhalten.

 

Milanković-Zyklen:

a)  Exzentrizität: Form des elliptischen Orbits um die Sonne

     Es findet eine Verschiebung der Sonneneinstrahlung zwischen den Erdhalbkugeln statt. Die Halbachsen können zwischen 0,005 und 0,058 variieren. Der Unterschied in der Sonneneinstrahlung variiert dabei zwischen 27 W/m2 und 314 W/m2 (Prof. Weber). Bei 0,0 sind beide elliptischen Halbachsen gleich (Kreisbahn). Mit zunehmender Exzentrizität wird die Erdbahn zunehmend zur Ellipse, wodurch sich im Laufe einer Umlaufbahn (Jahr) ständig der Abstand Erde zur Sonne und damit der Leistungseintrag ändert, was zu Temperaturschwankungen führen kann, aber nicht zwangsläufig führen muss, da Obligität und Präzession den Effekt entweder abschwächen, aber auch verstärken können. Es findet also eine Überlagerung statt.

     Gegenwärtig beträgt die Exzentrizität 0,0174, was 6,7% mehr Einstrahlung auf der Südhalbkugel bedeutet. Bei 0,058 beträgt der Unterschied ca. 28%. Die Periodendauer schwankt aus Gründen des Gravitationseinflusses der großen Planeten von 90.000 – 100.000 Jahre.

   Obligität: Neigung der Erdachse

     Bei starker Neigung gibt es ausgeprägtere Jahreszeiten und starke Schwankungen der absorbierten Sonnenenergie in den hohen Breiten. Die Schwankungsbreite beträgt 21,30° – 24,36°. Der heutige Wert liegt bei 23,47°. Auf der Nordhalbkugel (große Landmassen) wird die Abkühlung verstärkt, wenn die Neigung am geringsten ist. Schnee kann im Sommer wegen mangelnder Wärme nicht mehr ausreichend geschmolzen werden. Die Periodizität beträgt 40.000 – 41.000 Jahre. Die Sonneneinstrahlung variiert dabei um 30 W/m2 (Prof. Weber).

Durch die Neigung der Erdachse ändert sich der Einstrahlwinkel der Sonnenstrahlung auf die Erde. Der Bereich, in dem diese senkrecht auf die Erde fallen, wird subsolare Zone genannt.

Mit zunehmender Neigung der Erdachse verschiebt sich die subsolare Zone (der Begriff wird überwiegend im englischen verwendet) mehr und mehr in die gemäßigten Zonen und damit in Richtung Nord- oder Südpol (folgende Abbildung). Dies hat zur Folge, dass die Sonneneinstrahlung zwischen Sommer und Winter in diesen Breiten mehr und mehr schwankt, was zu heißen Sommern und kalten Wintern führt. Es herrscht dann ein Klima, mit großen Temperaturschwankungen. Eine geringere Neigung der Erdachse führt demnach zu einem ausgeglicheneren Klima.

 

Abbildung 201 (Quelle: www.Biosphaere.info) zeigt die Lage der subsolaren Zone (Sonne steht senkrecht am Firmament) zur Obligität und die Abbildung rechts die ihre tatsächliche Wanderung über das Jahr, Quelle: (http://joseph-bartlo.net/supp/sungeo.htm).

c) Präzession: der Erdachse und des Orbits – Wanderung des Frühlingspunktes

Die Präzession (vom lateinischen prae­cedere = voranschreiten) moderiert das Timing der Jahreszeiten. Nach jeder Sonnenumrundung kehrt die Erde nicht mehr genau an ihre Ausgangsposition zurück, sondern „wandert“ dabei in ihrem Orbit geringfügig vorwärts durch die Tierkreiszeichen. Derzeit erreicht die Erde z.B. ihre größte Nähe zur Sonne am 03. Januar. Der Zyklus dauert 25.780 Jahre. Dabei ändert sich nicht der Einstrahlungsbetrag, sondern der Zeitpunkt.

Mit Änderungen in der solaren Aktivität selbst, befassen sich die Milanković-Zyklen nicht. Daher soll an dieser Stelle nach langperiodischen Schwingungen gesucht werden, die den Milanković-Zyklen entsprechen.

 

Abbildung 202: Periodenlänge (links) und Phasenverschiebung (rechts) des 5.800 Jahres-Zyklus, der Einfluss auf den 200- und den 2.300-Zyklus hat, Quelle: (http://garymorris93.cwahi.net/weather/solar_variations.html). Auffallend ist, dass während dem Höhepunkt der letzten Eiszeit, vor 20.000 Jahren, die Zykluszeit sehr lang und damit die solare Aktivität entsprechend gering war. Zum Ende der letzten Eiszeit vor ca. 12.500 Jahren erreichte die solare Aktivität hohe Werte (geringste Periodenlänge).

Es liegt der Schluss nahe, dass neben den Milanković-Zyklen, die die Abhängigkeit der solaren Einstrahlung zu den Bahnparametern der Erde wieder geben, zusätzlich die solare Aktivität in großen Zeitskalen stark schwankt und die Milanković-Zyklen, die die Änderung in der Erdbahn und damit verbunden, eine Änderung in der solaren Einstrahlung, die die Erdoberfläche erreicht beschreiben, die Einflüsse, die zu den Milanković-Zyklen führen, auch direkt die Sonnenaktivität ändern. Da die Milanković-Zyklen durch die Planeten des Sonnensystems verursacht werden und nach Landscheidt die Planeten die Sonnenaktivität auf kurzen und mittleren Zeitskalen moderieren, liegt der Schluss nahe, dass die Planeten nicht nur die Zeitintervalle der Erdbahnparameter, sondern auch die Sonne selbst auf langen Zeitskalen beeinflussen.

Die spannende Frage, wann oder ob sich die seit etwa 3 Millionen Jahre beobachteten Eiszeitintervalle fortsetzen, lässt sich anhand der derzeit vorliegenden Erkenntnisse über die solare Aktivität nicht beantworten. Sie lässt sich derzeit in erster Linie statistisch bewerten.

  

Abbildung 203, Quelle: NZZ vom 11. Juli 2007, “Genauere Informationen über die abrupten Klimaänderungen der Eiszeiten“ (Original: Matrat et al.) zeigt oben die Bahnparameter der Erde, Mitte, die Temperatur im Mittelmeerraum und unten, in der Antarktis. Im Betrachtungszeitraum sind drei ganze Eiszeitperioden zu sehen. Nach jedem Temperaturmaximum (rote gestrichelte Linie) kommt es zu einem typischen Temperaturrückgang nach gleichem Muster (blaue gestrichelte Linie). Die Zeitspanne dazwischen ist relativ konstant und beträgt ca. 18.000 Jahre. Die grüne gestrichelte Linie markiert den Zeitpunkt (ca. 13.700 Jahre nach Max), in dem die Temperatur dort ihren Mittelwert erreicht, also den Übergang zu kälteren Temperaturen im Betrachtungszeitraum durchschreitet.

Wie die Abbildung weiter zeigt, lag in den vergangenen drei Eiszeiten die großräumige Vereisung (blaue, durchgezogene Linie) in einem deutlichen Zeitabstand zum Temperaturmaximum. Die Zeitabstände sind wieder relativ konstant und legen den Beginn 55 – 60 tsd. Jahre nach Beginn des Temperaturmaximums. Inwieweit diese Temperaturmuster auf den jetzigen Zyklus, dessen Warmzeit vor ca. 12.500 Jahren begann, übertragen werden können, ist, wie eingangs genannt, derzeit wissenschaftlich nicht zu beantworten. Nach der statistischen Fortschreibung, stünde das Unterschreiten des Mittelwertes, also der Begin zu dauerhaft kühleren Jahren (blaue gestrichelte Linie) in ca. 1.200 Jahren an. Anhand der bekannten solaren Zyklen, beginnt zu diesem Zeitpunkt das solare Minimum im nächsten Hallstatt-Zyklus. Nach weiteren 5.000 Jahren beginnt der erste Kältezyklus. Dessen Dauer beträgt anhand der vorherigen Zyklen 2 – 3 tsd. Jahre.

Eine großräumige Vereisung, was allgemein mit dem Begriff “Eiszeit“ assoziiert wird, steht nach dieser statistischen Betrachtung erst in ca. 42 tsd. Jahren an. Wissenschaftsberichte, wie “Verhinderte der Mensch eine Eiszeit“ aus S.d.W. 02/06, der folgenden Untertitel trägt: “Anscheinend haben schon die Bauern der Jungsteinzeit einen bedeutenden Treibhauseffekt ausgelöst, als sie bei der Rodung von Wäldern und dem Anbau von Nassreis große Mengen Kohlendioxid und Methan freisetzten“ sind denn vor dem Hintergrund der realen Temperaturer-eignisse der letzten Eiszeiten, in denen die erste Warmepoche im Durchschnitt 18.000 Jahre andauert, blühender Unsinn und als solcher nicht zu überbieten. Es ist der tragische, zum scheitern verurteilte Versuch, einen nicht existierenden Effekt, den Treibhauseffekt herleiten zu wollen. Im vorliegenden Fall aus der Geschichte der Menschheit, um ihm damit eine vermeintliche Realität geben zu wollen. Aber auch hier hält der Wunsch der Wirklichkeit nicht stand. Anstatt weiter den Fokus in Richtung sog. THG zu lenken, sollten die Mittel besser in die Sonnenforschung investiert werden, um ihr die Geheimnisse zu entreißen, die uns die Frage beantworten, wann sich die klimatischen Bedingungen auf der Erde wirklich ändern.

Für Langfristbetrachtungen der Temperaturentwicklung werden, wie bereits geschildert, die Milanković-Zyklen herangezogen. Dies ist darauf begründet, dass das Klima der letzten 3 Millionen Jahre, als die Erde wieder größere Vereisungen aufweist, zwischen zwei Zeitzyklen, die den Milanković-Zyklen entsprechen, pendelt (folgende Abbildung)

 

Abbildung 204, Quelle: (http://www.moraymo.us/current_projects.php) zeigt die aus dem Sauerstoffisotopenverhältnis ermittelten Temperaturschwankungen der letzten 3 Millionen Jahre. Von 3 Mio. Jahren bis vor ca. 700.000 Jahren schwankte die Temperatur zyklisch in Zeiträumen von 41.000 Jahren. Danach wechselte der Zyklus zu 100.000 Jahren. Der 41 ky-Zyklus steht allgemein für die Obligität und der 100 ky-Zyklus für die Exzentrizität. Der Grund für diesen Wechsel ist in der Wissenschaft nicht verstanden. Rot gepunktet = Obligität, B/M = Brunhes–Matuyama-Event, J = Jaramillo-Event,  Told = Top of Olduvai-Event, G/M = Gauss/Matuyama – Event (jeweils Wechsel im Magnetfeld der Erde). An der Gauss/Matuyama-Grenze beginnt das Quartär, also die jüngste Erdepoche, die auch als Eiszeit bekannt ist.

Da in der Abbildung 203 zu dem Temperaturgang, sowohl alle drei maßgeblichen Milanković-Zyklen (Präzession, Obligität und Exzentrizität), sowie die daraus berechnete solare Einstrahlung für 65° Nord aufgezeigt sind, sollen ihre Extrema an der Temperaturentwicklung gespiegelt werden. In der ersten Abbildung, die Extrema von Präzession, Obligität und Exzentrizität.

 

Abbildung 205: Die Erdbahnparameter (Präzession und Exzentrizität), sowie die Neigung der Erdachse (Obligität), die die Einwirkung der Solarstrahlung auf der Nord-/Südhalbkugel moderiert, sind ganz oben, bzw. direkt darunter zu sehen. Die längste Periode hat die Obligität. Deren Maxima (Erdbahn besonders elliptisch) fallen jeweils mit Warmperioden der Eiszeitepochen zusammen (grüne gestrichelte Linien). Dies passt nicht zur These, da eine Kreisbahn die Erde am nächsten zur Sonne bringt. Extrema der Obligität (rote gestrichelte Linien) und Präzession (schwarze gestrichelte Linien) haben überhaupt keine Übereinstimmung zu Temperaturereignissen auf der Erde. Beide fallen sowohl mit Warm- als auch mit Kaltzeiten zusammen. Ganz oben sind noch die Pegel von CO2 und CH4 zu sehen die zu gar nichts passen.

Matrat et al. haben in Ihrer Datenreihe anhand der Milanković-Zyklen auch den berechneten Wert für die solare Einstrahlung für 65° nördlicher Breite angegeben. Dieser geographische Bereich ist besonders von Eiszeiten betroffen und dementsprechend dynamisch.

 

Abbildung 206: Die gestrichelte schwarze Datenreihe zeigt die Dynamik der solaren Einstrahlung für die letzten 420.000 Jahre für 65° Nord. Sie schwankt etwa zwischen 440 W/m2 und 550 W/m2. Der Autor hat die Bereich über dem Mittelwert rot (wärmer) und die Bereiche unter dem Mittelwert blau (kälter) gekennzeichnet. Manche Maxima/Minima in der berechneten solaren Einstrahlung stimmen mit dem Temperaturgang überein, andere wiederum nicht. Teilweise müsste es wärmer werden, wird aber kälter und teilweise kälter, wird aber wärmer (rote Blockpfeile). Zwei Beispiele: Am ersten Blockpfeil fällt die solare Einstrahlung stark ab, die Temperaturen bleiben aber konstant warm. Am dritten Blockpfeil steigt die solare Einstrahlung stark an, die Temperatur fällt jedoch auf ein absolutes Minimum. Rote Pfeile geben die Maxima und blaue Pfeile der Minima wieder.

Die Milanković-Zyklen geben kein einheitliches Bild zum Temperaturgang wieder, was auch in der folgenden Abbildung sichtbar wird.

 

Abbildung 207, Quelle: ”Pleistocene glacial variability as a chaotic response to obliquity forcing”, P. Huybers, Department of Earth and Planetary Sciences, Harvard University (2009), zeigt unten die Obligität und oben die aus 18O rekonstruierte Temperatur. Die Ganglinien sind uneinheitlich zueinander.

Wenn die Milanković-Zyklen die Temperaturentwicklung nicht eindeutig genug wiedergeben, sog. THG keine Rolle spielen, schon allein deswegen nicht, weil z.B. CO2 der Temperatur nachläuft und nicht vorläuft, bliebe noch die variable Sonne, die die Temperaturzyklen steuert.

 

Abbildung 208 zeigt das Frequenzspektrum der Temperaturdaten im Pleistozän. In beiden Arbeiten bilden sich Maxima bei 23 ky, 41, ky und 100 ky aus, die den Milanković-Zyklen zugeordnet werden, Quelle: (http://www.moraymo.us/current_projects.php).

Gibt es Sonnenaktivitätszyklen, die in ihrer Länge den Milanković-Zyklen entsprechen – Ja!

 

Abbildung 209 (http://garymorris93.cwahi.net/weather/solar_variations.html): Der 6.000-jährige Sonnenzyklus, der den Hallstatt-Zyklus moderiert zeigt, dass ihm ein Zyklus mit einer Länge von ca. 22.000 Jahren übergeordnet ist. Darüber hinaus gibt es einen 100.000 Jahres-Zyklus in der Sonnenaktivität, der damit dem Milanković-Zyklus der Exzentrizität entspricht, Abbildung 210.

 

Abbildung 210 ist ein Auszug aus der Arbeit von Prof. Dr. Mukul Sharma und zeigt den 100.000 jährigen Sonnenzyklus und dazu als Kalibrierung, den 18O-Gahalt aus Proxys. Sauerstoff kommt in drei Isotopen vor, 16O, 17O und 18O. Bei Warmperioden verdunstet zuerst das leichtere 16O, so dass die Menge des in den Proxys (z.B. Sedimenten) eingelagerten 18O, Aufschlüsse über die seinerzeit vorherrschenden klimatischen Verhältnisse wiedergibt. In “astronews.com“ vom 11. Juni 2002 ist hierzu folgendes festgehalten:

“Die magnetische Aktivität der Sonne zeigt einen 100.000 Jahre langen Zyklus, der offenbar mit einem gleichlangen Zyklus des irdischen Klimas in Einklang steht. Das zeigen Untersuchungen des Geochemikers Mukul Sharma vom Dartmouth College in Hanover im US-Bundesstaat New Hampshire. Der Forscher veröffentlichte seine Analyse jetzt im Fachblatt Earth and Planetary Science Letters. Sharma vergleicht darin die Produktionsrate des radioaktiven Isotops Beryllium-10 mit den Variationen des irdischen Magnetfelds. "Überraschenderweise zeigt sich in den Daten eine Variation der Sonnenaktivität über wesentlich längere Zeitspannen als bislang vermutet", so Sharma. "Noch überraschender ist, dass diese Variationen offenbar eng mit den Eiszeiten und Zwischeneiszeiten der vergangenen 200.000 Jahre verknüpft sind."

“Beryllium-10 wird durch hochenergetische Teilchen erzeugt, die aus dem Weltall in die Erdatmosphäre eindringen. Die Stärke dieser "kosmischen Höhenstrahlung", und damit die Erzeugungsrate von Beryllium-10, werden sowohl durch die Sonnenaktivität, als auch durch die Stärke des Erdmagnetfelds gesteuert. Da die Stärke des Erdmagnetfelds in den letzten 200.000 Jahren gut bekannt ist, konnte Sharma aus den Beryllium-Daten auf die Schwankungen der Sonnenaktivität schließen.“

“Für die Entstehung der Eiszeiten hatten die Klimaforscher bislang geringfügige Schwankungen der Erdbahn verantwortlich gemacht. Allerdings führen diese Variationen nur zu minimalen Änderungen der Sonneneinstrahlung. Wie diese kleinen Änderungen zu den großen Unterschieden zwischen Eiszeiten und Zwischeneiszeiten führen können, ist bislang ungeklärt. Sharma betont allerdings, dass auch seine These der weiteren Überprüfung bedarf: "Ich habe nur auf die vergangenen 200.000 Jahre geschaut – meine Berechnungen müssen nun für die letzte Million Jahre verifiziert werden."

Der Grund, warum die Milanković-Zyklen, also die Veränderung der Erdbahnparameter und der daraus berechneten solaren Einstrahlung den Temperaturgang, sowie Eiszeiten nicht eindeutig wiedergeben, liegt denn daran, dass die „Akteure“, die die Erdbahnparameter beeinflussen, die Planeten des Sonnensystems, hier die großen Gasplaneten, auch die Sonne direkt beeinflussen und hiermit deren magnetische Aktivität und damit ihre Energieabgabe (siehe auch Dr. Landscheidt). Dies ist bei den Milanković-Zyklen nicht berücksichtigt. Dies ist das fehlende Glied, die Sonne selbst, den Temperaturgang im Pleistozän zu erklären und damit den Beginn und das Ende von Eiszeiten. Der Wechsel zwischen dem 41 ky-Zyklus und dem 100 ky-Zyklus sollte auf Veränderungen der dynamischen Plasmamassen in der Tachocline und der Konvektionszone der Sonne zurückzuführen sein.

Von besonderem Interesse ist dabei, wie bereits gezeigt, die Tachocline, die als Ursprungszone für den Sonnendynamo gilt. Inwieweit deren Lage und Dicke, die beide die Magnetfelder in der Konvektionszone beeinflussen und damit die Energieabgabe der Sonne, über die Zeit konstant sind, ist nicht bekannt. Ist Dicke und/oder Lage der Tachocline variabel, hat dies natürlich Einfluss auf die magnetische Aktivität der Sonne. Bis vor ca. 10 Jahren wurde noch angenommen, dass die Tachocline konstant ist. Untersuchungen mittels Helioseismologie ergaben jedoch, dass sie in einem 16-Monatsrythmus oszilliert und in starker Wechselbeziehung mit der Strahlungszone steht.

Tachocline

Die Tachocline bildet die Grenzschicht zwischen starrer innerer Rotation der Sonne (obere Grenzschicht der Strahlungszone) und dynamischer Rotation in der Konvektionszone, deren Rotationsgeschwindigkeit erheblich von der der Strahlungszone abweicht. An der Grenzschicht kommt es wegen der stark unterschiedlichen Rotation zu einer starken Scherung. Diese Grenz-schicht wird Tachocline genannt (folgende Abbildung). Die in der Konvektionszone entstehenden Magnetfelder dringen bis zur Tachocline vor und werden durch die Scherung dort aufgewickelt, wodurch toroidale Felder entstehen, deren Feldlinien in Richtung der Rotationsgeschwindigkeit zeigen. Ab bestimmten Schwellwerten (“Instabilities in the Magnetic Tachocline“, R. Arlt, Astro-physikalisches Institut Potsdam) in der Feldstärke, kommt es zu Instabilitäten in der Tachocline.

 

Abbildung 211 links (http://lcd-www.colorado.edu/SPTP/sptp_global.html)  zeigt die Lage der Tachocline zum Sonnenradius und farbig die Rotationszeit. Die Abbildung rechts zeigt die Änderungen der Rotation zum Sonnenradius und zur geographischen Breite. Schwarzer Pfeil kennzeichnet die Tachocline, Quelle: (http://irfu.cea.fr/Sap/Phys/Sap/Activites/Projets/GOLF/science/page.shtml). Deutlich ist zu sehen, dass die differenzielle Rotationen im Bereich der Tachocline beginnt und diese damit ein wesentlicher Faktor für den Sonnenmagnetismus darstellt.

Die Tachocline bestimmt die Helizität (Drehrichtung, kann nur dort geändert werden, da sie die Basis für den Sonnenmagnetismus bildet) der Megnetfeldlinien, d.h. in welcher Form (rechtshändig = positiv / linkshändig= negativ) die Magnetfelder aufsteigen, bzw. abfallen. Dies ist mit entscheidend für eine Verstärkung oder Abschwächung der magnetischen Felder in der Konvektionszone. Die Lage der Tachocline liegt derzeit in Äquatornähe bei rt = 0,693 Sonnenradien und bei 60° bei rt = 0,717 Sonnenradien. Sie hat also eine prolate Form, womit sie der Rotationsformgebung, nach der rotierende Körper am Äquator am größten sind, wie auch alle Planeten entgegen läuft. Die Sonne selbst ist über Äquator und Pol etwa gleich. Da die Grenzfläche zwischen der Strahlungszone und Konvektionszone bei 0,713 Sonnenradien liegt, durchschneidet die Tachocline diese Grenzfläche. Die Tachocline hat eine Dicke von ca. 30.000 km.

 

Abbildung 212 links: Durch Drehung abgeplattetes Rotationsellipsoid (oblate)Abbildung 212 rechts: Durch Drehung verlängertes Rotationsellipsoid (prolat)

Wie eingangs geschildert, wurde nach Entdeckung der Tachocline vor gut 20 Jahren allgemein angenommen, dass es sich bei der Tachocline um ein weitgehend stabiles Gebilde handelt. Seit Ende der 1990-Jahre ist jedoch bekannt, dass die Tachocline hoch dynamisch ist und auf kurzen Zeitskalen mit einer Periodendauer von 16 Monaten pulsiert (folgende Abbildung).

 

Abbildung 213, Quelle: (http://soi.stanford.edu/press/GONG_MDI_03-00/pressbase.gif) zeigt die Oszillation im Sonneninneren (0,72 Sonnenradius oben und 0,63 Sonnenradius unten). Deutlich die die 16-Monatsschwingung zu sehen und dies in Gebieten, über die Tachocline hinaus. Das darin enthaltene Gas rotiert mal schneller und mal langsamer. Rot sind nach MDI (Michelson Doppler Imager, SOHO) und schwarz nach GONG-Daten (Global Oscillation Network Group). “Entdeckt wurden die von niemand vorausgesagten Strömungen in vierjährigen Meßreihen des MDI-Instruments auf dem Satelliten SOHO und des GONG-Netzes von Sonnenteleskopen rund um die Erde.“ (http://www.astro.uni-bonn.de/~dfischer/news/SuW-L-1-10.html)

Nach der gängigen Theorie von Rüdiger und Kitchatinov (1997) wird angenommen, dass während der Entstehung der Tachocline ein schwaches Magnetfeld in der Sonne eingeschlossen wurde, welches die differenzielle Rotation in den äußeren Randbereich der Strahlungszone drängt und so die Tachocline erzeugt wird. Weiter geht die Theorie davon aus, dass die Tachocline aktiv mit der Strahlungszone verbunden ist und starke Wechselbeziehungen bestehen, was auf Grund ihrer Lage auch naheliegend ist.

Inwieweit die Tachocline über ihre von niemanden vermutete Oszillation auf großen Zeitskalen konstant oder variabel ist, lässt sich aus heutiger Sicht nicht beantworten, bzw., ob die Tachocline ihre prolate Form beibehält, oder zwischen prolat und oblat wechselt, was erheblichen Einfluss auf die magnetische Aktivität der Sonne haben sollte. Weiter muss davon ausgegangen werden, dass Einflüsse, die z.B. die Erdachse kippen lassen, ihre Obligität ändern, auch Einfluss auch die Tachocline haben und deren Lage in der Sonne ändern. Insbesondere bei einem möglichen Wechsel in der Form und Lage der Tachocline wäre mit erheblichen Einflüssen auf das Magnetfeld der Sonne zu rechnen, wobei in einer Übergangszeit das Magnetfeld in der Konvektionszone ganz verschwinden kann und dadurch lang anhaltende Kälteperioden auf der Erde ausgelöst werden. Ob weiter, die Tachocline zwischen prolat (derzeit) und oblat wechselt, ist ebenfalls ein interessanter Aspekt, um den Sonnendynamo besser verstehen zu können. Ausgeschlossen sollte ein solcher Wechsel nicht. Interessant ist in dem Zusammenhang, dass die letzte Eiszeitepoche exakt an der Gauss-Matuyama-Grenze vor 2,588 Mio. Jahren liegt, als sich das Magnetfeld der Erde umpolte. Zufall ist dies sicherlich nicht. Inwieweit die „Akteure“, die die Erdbahnparameter ändern, die Sonne im Raum wobbeln/wackeln lassen, nach Landscheidt das Barryzentrum ändern, auch auf die Konvektionszone und Tachocline der Sonne und auf die dynamischen Massen im Erdmantel*), die letztendlich die Magnetfeldpolarität bestimmen, parallel Einfluss nehmen und somit z.B. Eiszeiten auslösen, lässt sich wissenschaftlich derzeit noch nicht beantworten, sollte aber Inhalt weiterer Forschungsarbeiten sein, da der Autor davon ausgeht, dass darin der Schlüssel für das Verstehen des Erdklimas auf allen Zeitskalen liegt.

*) In seinem EIKE-Artikel „Gibt es einen Zusammenhang zwischen Sonnenfleckenaktivität und Erdbeben-/Vulkantätigkeit?“ (http://www.eike-klima-energie.eu/news-anzeige/gibt-es-einen-zusammenhang-zwischen-sonnenfleckenaktivitaet-und-erdbeben-vulkantaetigkeit/) hatte der Autor gezeigt, wie sowohl die Erdbebenaktivität, als auch die Vulkanaktivität mit der Aktivität synchron laufen. Dass Gravitationseinflüsse anderer Planeten auf den Vulkanismus Einfluss nehmen, lässt sich übrigens am Beispiel des Jupitermonds „Jo“ sehr gut beobachten. Er hat den stärksten Vulkanismus im gesamten Sonnensystem. Grund dafür ist die Gravitationskraft des Jupiters auf Jo, der eine elliptische Bahn um seinen Planeten vollführt, aufgrund dessen seine innere Form konstant „durchgeknetet“ wird.

Da die Wissenschaft die Sonne erst seit ein paar hundert Jahren mit technischen Mitteln beobachtet und dieser Zeitraum im Lebenslauf der Sonne verschwindend klein ist, kann anhand der heutigen Beobachtungen nicht festgestellt werden, inwieweit die derzeitigen solaren Aktivitätsschwankungen auch für die Zeiträume davor galten, bzw. weiter gelten werden. Hier ist es hilfreich, andere Sterne, die etwa der Sonne entsprechen, zur Beantwortung heran zu ziehen.

Durch immer bessere Messsysteme gelang es Astrophysikern in den letzten Jahren, eine Vielzahl von Sternen mit magnetischer Aktivität zu erforschen. Beispielsweise befasst sich die Emmy Noether Research Group am Institut für Astrophysik der Uni Göttingen in einem groß angelegten Forschungsprogramm (“Magnetische Aktivität sonnenähnlicher Sterne und ultrakalter "Brauner Zwerge“) mit der Thematik. Deren Ergebnisse liegen derzeit noch nicht vor, da das auf 5 Jahre angelegte Projekt noch am laufen ist. Einzelbeobachtungen zeigten bereits einige Überraschungen, die darauf hindeuten, dass auch unsere Sonne Aktivitätsschwankungen unterliegt, die sich auf mehr als nur 0,1% im TSI-Strahlungsbereich, wie es die einschlägigen Veröffentlichungen des TSI zeigen und darüber hinaus, die Aktivitätsschwankungen ganz zum erliegen kommen.

Wissenschaftler vom Smithsonian Center für Astrophysics und das Dartmouth College in Hanover (US-Bundesstaat New Hampshire, “Evidence for long-term brightness changes of solar-type stars“) untersuchten 74 Sterne auf ihre magnetische Aktivität. Die Messreihen gingen dabei teilweise über 23 Jahre. Anhand ihrer Untersuchungen stellten die Forscher fest, dass ca. 2/3 der Sterne ähnliche Aktivitätsschwankungen unterliegen, wie die Sonne, wogegen ca. 1/3 überhaupt keine Aktivitätsschwankungen aufweisen. Unter der Annahme, dass sich die Sterne gleich verhalten, schlossen Sie daraus, dass stellare Objekte wie die Sonne grundsätzlich zwischen zwei Aktivitätsschema pendeln, einer aktiven Phase und einer passiven Phase, ohne jegliche Aktivitätsschwankungen, wie die Sonne während dem Maunder Minimum. In einer Ruhephase strahlt (Helligkeitsbereich) ein Stern ca. 0,4% weniger als in einer aktiven Phase. Bei dem Stern HD 3651 (“Piscium“ im Sternbild Fische, HD steht für Henry-Draper-Katalog) konnte dieser Übergang, von der Phase ausgeprägter zyklischer Aktivität, in die Maunder-Minimum-Phase mit sehr geringer magnetischer Aktivität beobachtet werden (Nesme-Ribes, E., Baliunas, S. L. und Sokoloff, D.: “The stellar dynamo“, Scient. American, August 1996, 51-52).

Die bisherige Datenlage zeigt, dass der Übergang von der Aktivitätsphase in die passive Phase zum einen, nach starker magnetischer Aktivität und zum anderen, der Wechsel abrupt erfolgt. Dies spricht dafür, dass die Prozesse in der Konvektionszone, die einen starken solaren Zyklus antreiben, bei ihrer Umkehrung, neue magnetische Aktivität, umso länger und stärker dämpfen, je stärker die vorangegangene magnetische Aktivität im Hauptsonnenzyklus ist. Bei der Sonne ist dies der de Vries/Suess-Zyklus. Dies würde auch erklären, warum nach jedem Maximum im de Vries/Suess-Zyklus die Temperaturen auf der Erde stark abfallen.

 

Abbildung 214, Quelle: (http://solar.physics.montana.edu/reu/2004/awilmot/introduction.html), zeigt am Beispiel von 11 Sternen, dass diese ähnliche Muster in ihren Aktivitätsschwankungen wie die Sonne (oben Mitte) aufweisen, was auf magnetische Aktivitätszyklen zurückzuführen ist und die Ausgangsthese vom Smithsonian Center für Astrophysics, dass sich die Sterne gleich verhalten, zu bestätigen scheint. Ausgewertet wurde die Ca II H and K-Linien.

Die Ca II H and K-Linien dienen zur Helligkeitsbestimmung von Sternen und gehen auf Joseph Fraunhofer zurück, der mit dieser Methodik die Sterne klassifizierte und die hellsten mit Großbuchstaben nummerierte. Die Nummerierung beginnt im roten Teil des Spektrums und endet im blauen. Die Calzium II-Linien liegen bei 397 nm (H-Linie) und 393nm (K-Linie) Wellenlänge. Die römische Ziffer kennzeichnet den Ionisationsgrad (I = neutral, II = einfach ionisiert, III = zweifach ionisiert, u.s.w.).

Die Datenreihen in Abbildung 214 zeigen weiter, dass die Aktivitätsschwankungen zeitlich sehr ähnlich sind und in der Amplitude meist deutlich stärker ausfallen als bei der Sonne. Bei HD 152391 (folgende Abbildung) fallen die Schwankungen gar fast 5-mal so stark aus wie auf der Sonne, was natürlich in erster Linie auf seine im Vergleich zur Sonne erhöhte Rotationsrate zurückzuführen ist.

 

Abbildung 215 links zeigt die Aktivitätsschwankungen des Sterns HD 152391, der mit 0,92 Sonnenmassen und einer Oberflächentemperatur von 5.500 Kelvin der Sonne sehr ähnlich ist. Rechts der Stern HD 143761, der nahezu keine Aktivitätsschwankungen aufweist, sich also in einer ruhigen Phase befindet, Quelle, wie oben.

 

Abbildung 216, Quelle: (http://e-collection.ethbib.ethz.ch/eserv/eth:24899/eth-24899-01.pdf) zeigt das Hertzfeld-Russel-Diagramm für 34 sonnenähnliche Sterne nach Radick et al., 1998. Sonne und HD 152391 gelb, orange: Sterne aus der Abbildung 214.

Selbst bei stellaren Objekten, bei denen die Astrophysiker bisher davon ausgingen, dass sie keine oder nur wenig magnetische Aktivität aufweisen würden, wie z.B. sog. Zwergsterne, ergaben Untersuchungen (roter Zwerg TVLM513-46546, 0,09 Sonnenmasse, Oberflächentemperatur: 2.400 Kelvin), dass sie entgegen der gängigen Lehrmeinung, nicht nur keine, sondern sogar eine komplexe magnetische Aktivität aufweisen (Carnegie Institution, 06.12.2007). Dies zeigt, dass in diesem Forschungsfeld noch mit einigen „Überraschungen“ zu rechnen ist.

Das Max Planck Institut für Sonnenforschung (MPS) gibt an, dass die Sonne gegenwärtig geringere Schwankungen der Helligkeit aufweist, als vergleichbar aktive Sterne (http://www.mps.mpg.de/homes/schuessler/klima.pdf) und stellt die Frage: “Wird das so bleiben?“ Insgesamt ist festzuhalten, dass stellare Objekte eine ausgeprägte magnetische Aktivität ausweisen und diese zwischen einer aktiven Phase, die teils deutlich über den jetzigen Sonnenaktivitätsschwankungen liegen und einer inaktiven Phase, vergleichbar dem Maunderminimum pendelt. Die derzeitigen Aktivitätsschwankungen der Sonne im Vergleich zu ihren „Schwestern“ sind als vergleichsweise gering einzustufen.

Man braucht kein Prophet zu sein, dass die Sonne noch viele Geheimnisse verborgen hält, die auf eine Entdeckung warten und die zum Verständnis den Klimas auf der Erde essenziell sind. Anstatt Unsummen an Gelder dafür zu verwenden, Exorzisten-gleich einem Teufel (CO2) nachzujagen, den es nicht gibt, sollten diese Gelder besser in die Sonnenforschung investiert werden. Ertrag und Ernte werden fruchtbarer ausfallen, als die bisherige Trockenernte bei den Treibhausgasen, die nach 20 Jahren nicht einmal den Beweis erbringen konnten, dass es einen Treibhauseffekt gibt – gibt keine wissenschaftlichen Beweise dafür, sondern einzig, zusammengebastelte Computermodelle, die mit manipulierten Daten (Climate Gate) und falschen Annahmen (siehe jüngstes Beispiel der NASA, die herausgefunden hat, dass die Erde fünfmal mehr Wärme in Weltall abstrahlt, als in den Modellen eingesetzt und daher in den Modellen viel zu viel Energie in der Atmosphäre verbleibt, was zur Folge hat, dass sämtliche Klimasimulationen grund-falsch, mit viel zu hohen Temperaturen sind) gefüttert werden und IPCC, PIK und Co. das Ergebnis anschließend als „Stein der Weisen“ verkaufen. Deren Absicht ist klar, wie die Karikatur in Abbildung 217 zeigt. Uns sollte das alles nicht gleichgültig sein, da IPCC, PIK und Co. ihr (bisher) sorgenfreies Leben mit unseren Steuergeldern betreiben.

 

Abbildung 217

Teufel, wie am Beispiel CO2, Horrorszenarien und Exorzisten sollten Hollywood vorbehalten bleiben, in der Realität und der Wissenschaft haben sie nichts zu suchen. Den Rückschritt ins Mittelalter gilt es zu verhindern. Die Artikelserie “Dynamisches Sonnensystem – die wahren Hintergründe des Klimawandels“ ist als Beitrag dazu zu verstehen. Weitere Aufklärung wird auf EIKE folgen.

 

Raimund Leistenschneider – EIKE

 

Übersicht über alle Teile:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4a – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 4b – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht, 
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen




Der Charakter der Klimaänderung – Teil 3 (von 4)

Nehmen wir weiter an, dass es eine undurchlässige Schicht über der Oberfläche gibt, die den Austausch von Feuchtigkeit mit der Atmosphäre verhindert. Kein Niederschlag aus der Atmosphäre erreicht die Oberfläche.

Jetzt versetze man diesen Planeten in eine Drehbewegung um die Sonne in einer Art und Weise, dass in den Polargebieten für einen Teil des Jahres ewige Nacht herrscht, so dass sich die gesamte Höhe der Atmosphäre (beide Schichten) innerhalb der Region der Polarnacht abkühlt und sich ein Gradient mit immer weiter abnehmender Temperatur einstellt, und zwar von der Oberfläche bis zur Obergrenze der Atmosphäre, also die gesamten 50 Kilometer.

In einigen Teilen des Planeten wäre es warm, in anderen kalt. Hebung und Absinken der Atmosphäre wird durch diese thermischen Unterschiede bewirkt, aber die Hebung ist normalerweise nur auf wenige Kilometer in der Höhe beschränkt.

Stellen wir uns jetzt vor, dass das Treibhausgas wasserlöslich ist. Der Teil der Atmosphäre mit dem geringsten Wassergehalt befindet sich in der Polarnacht, weil es dort am kältesten ist und das Treibhausgas hier eine höhere Konzentration erreicht.

Dieses Treibhausgas absorbiert langwellige Strahlung von dem Planeten. Dadurch kommt eine konvektive Zirkulation im Bereich der Polarnacht  in Gang, die die mit Treibhausgas angereicherte Luft von den Polen weg in die Randgebiete der Polarnacht führt. Man erinnere sich, dass die Temperatur im Bereich der Polarnacht von unten nach oben in der Atmosphäre abnimmt, so dass die Konvektion im gesamten [vertikalen] Profil vorherrscht. Tatsächlich agieren die beiden Schichten als eine gekoppelte Zirkulation.

Das Treibhausgas sinkt also an den Rändern der Polarnacht ab bis zur Bodenschicht, die bis dahin völlig frei von Treibhausgasen war. Dies führt dazu, dass sich die Luft an den Rändern der Polarnacht durch das Absinken erwärmt. Der Bodendruck fällt in dieser Region weg.

Wenn diese Zirkulation kommt und geht, würden wir an den Rändern der Polarnacht Wolken kommen und gehen sehen, so wie sich die Luft erwärmt und abkühlt.

Stellen wir uns jetzt vor, dass Wind aufkommt, der aus der Polarnacht zum Äquator weht und die Treibhausgase dorthin transportiert, wo sich die Luft erwärmt und die Wolken verschwinden.

Lassen Sie uns nun eine Verteilung von Land und Wasser in der Winterhemisphäre einführen und annehmen, dass die Luft bevorzugt über Meeresgebieten an den Rändern der Polarnacht absinkt. Dann würde man erwarten, dass sich die Treibhausgase in der Atmosphäre über dem Ozean konzentrieren würden. Dies würde zu einer Verteilung von warmer und kalter Luft, Wolken in der kühlen Zone und Wolkenfreiheit in der warmen Zone führen. Eine wolkenfreie Spur würde entstehen, die von den wärmeren Gebieten in der Randzone zum Äquator reicht. Die Wolken würden entstehen und vergehen im Zuge der gekoppelten Zirkulation, die zu- und abnimmt.

Die untere der beiden Schichten würde Zonen mit erwärmter Luft zeigen, wie in der Karte unten dargestellt.

 

Abbildung 1

Und unter dem Einfluss von Wind, der in Richtung Äquator weht, könnten wir eine Verteilung der Wassertemperatur sehen, etwa so:

 

Abbildung 2

Jetzt wollen wir uns vorstellen, dass es eine heimtückische Chemikalie gibt, die in der verdünnten Atmosphäre oberhalb der beiden Schichten erzeugt wurde, die eine Affinität für die Treibhausgase hat, und diese Chemikalie sickert zwischenzeitlich an der Obergrenze der Schicht in die Atmosphäre, nimmt dort die Treibhausgase auf, und dies passiere an den Polen. Dies wird durch ein Phänomen, das wir ‚Nachtjet’ nennen wollen, bewerkstelligt. Folglich würde der Gehalt an Treibhausgasen der Nachtzone wachsen und schrumpfen mit der Folge einer Fluktuation der Bewölkung und der Wassertemperatur.

Wenn wir wissen wollen, was das Wetter und das Klima verändert hat, müssten wir schauen, was zu einer Veränderung der Rate des Einsickerns geführt hat und was dafür sorgt, dass der Polarwirbel wächst und schrumpft.

Wir schauen genau und finden heraus, dass der ‚Nachtjet’ aktiv ist, wenn der Bodenluftdruck hoch ist.

Wir entdecken, dass der Luftdruck hoch ist, wenn die Sonne weniger aktiv ist.

Ist die Sonne aktiv, ist der Druck niedrig und der Nachtjet weniger aktiv, der Gehalt an Treibhausgasen wächst, die Temperatur der Luftsäule steigt und die konvektive Zirkulation neigt zum übersteuern. Und die Wolken verschwinden.

Und die Temperatur der polaren Stratosphäre könnte etwa so aussehen:

Abbildung 3

Also, unter diesen Umständen erwärmt sich der Planet. Erkennt jemand den Ursprung der Großen Pazifischen Klimaverschiebung von 1976 bis 1978?

Link zum Original: hier

Übersetzt von Chris Frey für EIKE




Der Charakter der Klimaänderung Teil 2 (von vier)

Die wärmeren Breiten der Nordhemisphäre

Abbildung 1: Die Nordhemisphäre zwischen Äquator und 60° nördlicher Breite

Quelle: hier

Abbildung 1 bezieht auf den Teil des Globus’ zwischen Äquator und 60° nördlicher Breite, in dem die menschliche Besiedelung am dichtesten ist.

  1. Sowohl die sommerlichen Maxima als auch die winterlichen Minima gingen zwischen 1948 und 1976 zurück.
  2. Sommerliche Maxima und winterliche Minima stiegen danach bis 1998.
  3. Seit der Jahrhundertwende haben sich die sommerlichen Maxima und die winterlichen Minima kaum noch verändert.
  4. Die winterlichen Minima der Jahre 2008 und 2011 liegen fast genauso niedrig wie während der Abkühlungsperiode zwischen 1948 und 1976.
  5. Das Minimum im Januar variiert viel stärker [von Jahr zu Jahr] als das sommerliche Maximum im Juli.
  6. Die sommerlichen Maxima liegen unter der optimalen Temperatur von 25°C für das Pflanzenwachstum.
  7. Die Abkühlung nach dem Ausbruch des Pinatubo 1991 ist offensichtlich.

Der bewohnbare Teil der Nordhemisphäre ist im Juli drei Grad wärmer als die südliche Hemisphäre im Januar. Dies liegt an der Aufheizung der Atmosphäre und dem Verlust an Bewölkung in Zusammenhang mit dem unterschiedlichen Verhältnis zwischen Land und Wasser auf der Nordhalbkugel. Die See ist transparent und absorbiert solare Strahlung. Die Landoberflächen heizen sich schnell auf und geben die Energie an die Atmosphäre ab, erwärmen sie und reduzieren die Wolkenbedeckung. Folglich haben wir das Paradoxon, dass es auf der Erde als Ganzes wärmer ist, wenn sie am weitesten von der Sonne entfernt ist. Eine bessere Illustration, wie wichtig die Bewölkung bei der Temperatur ist, kann es nicht geben. Die Erde erklärt uns ihre Feedbacks, wenn die Atmosphäre mit Energie geladen ist. Das Feedback ist wegen des Fehlens von Wolken positiv.

Hypothetischerweise müsste die Bewölkung in einer mit der Zeit trockener werdenden Atmosphäre ab- und die Temperatur zunehmen. Im Gegenzug würde die Temperatur in einer feuchter werdenden Atmosphäre abnehmen. Das Austrocknen der Atmosphäre (reduzierte niederschlagbare Feuchtigkeit) war eine mächtige Quelle natürlicher Klimavariationen und widerspricht direkt der postulierten zunehmenden Feuchtigkeit, die in den beim IPCC so beliebten Klimamodellen Eingang findet. Aber die Leute, die die IPCC-Berichte verfassen, lassen Fakten nicht im Wege für eine gute Geschichte stehen. Sehen Sie selbst hier, wie die Atmosphäre zwischen 1948 und 2005 trockener geworden ist! Also sagt uns die Erde selbst, dass der Effekt des Wasserdampf-Feedbacks negativ ist, wenn sich die Atmosphäre erwärmt. Die Atmosphäre wird transparenter für langwellige Ausstrahlung, und nicht weniger transparent.

Die wärmeren Breiten der südlichen Hemisphäre

 

Abbildung 2: die südliche Hemisphäre zwischen Äquator und 50° südlicher Breite

Dazu folgende Bemerkungen:

  1. Sowohl die Maxima als auch die Minima der Temperatur stiegen zwischen 1948 und 1977 und sprangen 1978 auf ein neues Plateau. Diese Breiten der südlichen Hemisphäre erwärmten sich zu genau der gleichen Zeit, als sich die gleichen Breiten der nördlichen Hemisphäre abkühlten.
  2. Ein Plateau zeichnet sich zwischen den Jahren 1978 und 2011 ab, während die Temperatur der Nordhemisphäre in diesem Zeitraum stark gestiegen war.
  3. Es gibt einen markanten Pinatubo-effekt nach 1991, mehr als in der Nordhemisphäre.
  4. Die sommerlichen Maxima (Januar) sind variabler als die winterlichen Minima.
  5. Die winterlichen Minima steigen und werden in gewisser Weise stabilisiert durch die Wärmestrahlung von der Nordhemisphäre, was die Wolken zur Jahresmitte vertreibt. Die Atmosphäre wurde nach 1978 trockener und hätte als Konsequenz zu einer sich erwärmenden Erdoberfläche führen müssen. Die Tatsache, dass die Temperatur nach 1978 stabil war, legt nahe, dass es andere Einflüsse gegeben haben muss, die für die kompensatorische Abkühlung verantwortlich waren.

Die Jahre 1973, 1983, 1978 und 2010 waren Ausnahmejahre mit viel wärmeren Sommern mit einem Maximum von 20,25°C. Halten wir fest, dass selbst die Maximumtemperaturen der wärmsten Sommer noch deutlich unter denen der Nordhemisphäre liegen und deutlich unter der für das Pflanzenwachstum günstigsten Marke. Es ist Unsinn zu sagen, dass es auf dem Globus zu warm wird, wenn das globale Mittel in manchen Gebieten steigt, die nicht warm genug sind. Dieser Teil der Welt ist nicht warm genug.

Dieser Teil der Südhemisphäre zeigt eine viel größere Variabilität von Jahr zu Jahr als die Nordhemisphäre, und am größten ist die Variabilität, wenn die südlichen Ozeane der Sonne von Dezember bis März der Sonne ausgesetzt sind. Da erheben sich Fragen:

1) Warum ist es in der Südhemisphäre zwischen 1948 und 1978 wärmer geworden und in der Nordhemisphäre gleichzeitig kälter? Ist dies konsistent mit der Annahme, dass Änderungen in der Atmosphäre für die Temperaturzunahme verantwortlich sind?

2) Warum ist die Variabilität sowohl der sommerlichen Maxima als auch der winterlichen Minima auf der Südhemisphäre größer als auf der Nordhemisphäre, zumal die Südhemisphäre durch Wasser dominiert wird, von welchem man einen ausgleichenden Einfluss auf das Klima annimmt? Ist dies nicht ein Indikator für ein Phänomen, dass das Klima in einer Hemisphäre ändert und nicht auf den Planeten als Ganzes einwirkt?

3) Warum hat sich das sommerliche Maximum nach 1978 stabilisiert, als die Temperatur der Nordhemisphäre zunahm?

4) Sollten wir uns wirklich wegen dieses Anstiegs der Temperatur in der Südhemisphäre Sorgen machen, wenn das gegenwärtige Temperaturregime noch nicht einmal optimal für das Pflanzenwachstum ist?

5) Welche Gültigkeit hat das globale Mittel als Maß für das Wohlergehen des Planeten, wenn sie durch einen Temperaturanstieg in einem Gebiet angehoben wird, in dem es nicht warm genug ist?

6) Sollten wir uns nicht zu unserem Glück gratulieren, dass die südliche Hemisphäre heute etwas wärmer ist als sie es in der jüngeren Vergangenheit war, anstatt uns in Qual selbst auf die Brust zu schlagen?

Seit den späten siebziger Jahren leisteten die bewohnten Breiten der Südhalbkugel nur einen geringen Beitrag zum Anstieg der globalen Temperatur. Es erhebt sich die Frage: Wenn Treibhausgase anthropogenen Ursprungs für die Zunahme der globalen Mitteltemperatur verantwortlich waren, die nach 1978 offensichtlich ist, wie kommt es dann, dass wir in den weitaus meisten Gebieten der Südhalbkugel wenig oder gar keinen Anstieg sowohl der Maxima als auch der Minima sehen? Können wir die Treibhausgastheorie auf der Basis dieser Information als irrelevant betrachten?

Warum fragt man sich, ob der Globus in Gefahr ist, zu warm zu werden? Unser Interesse ist es doch sicherzustellen, dass die Kapazität des Planeten, das Leben in all seiner Vielfalt zu erhalten, zunimmt. In den wärmsten Gebieten der Erde, die Gebiete, die wir bis hier betrachtet haben, ist die Temperatur für das Pflanzenwachstum suboptimal, vor allem in der Südhemisphäre. Alles Leben hängt von den Pflanzen ab. Es würde uns besser gehen, wenn der Planet wärmer wäre. Es ist die weitere Abkühlung, die eine Bedrohung des menschlichen Wohlergehens darstellt. Wir haben nach oben noch viel Platz!

Wir wollen diese grundlegenden Fragen mal einen Moment beiseite schieben und uns das Klima in den restlichen Gebieten der Erde ansehen.

In hohen Breiten ist das Temperaturregime entweder jahreszeitlich oder dauerhaft kalt. Ich bin sicher, dass mir die meisten zustimmen, wenn ich sage, dass das Klima jenseits von 60° Breite auf beiden Hemisphären keine Lebensgrundlage bietet. Diese Gebiete tragen zur globalen Mitteltemperatur bei. Aber es ist jetzt schon offensichtlich, dass das ‚globale Mittel’ statistisch besser geeignet ist, Propaganda zu betreiben als darauf praktische Entscheidungen zu treffen. Ich denke nicht, dass wir die Bewohner von Skandinavien, Sibirien oder Alaska dazu überreden können, dass die Winterkälte eine gute Sache ist.

Man muss den Befürwortern von AGW gratulieren zu ihrer Taktik, wenn nicht sogar zu ihrer Wissenschaft. Das Konzentrieren auf das globale Mittel ist eine gute Technik zum diskutieren.  Sie haben die Oberhand über die alles nachplappernden Medien und die ‚Kaffeebar-Intelligenz’ errungen. Sie haben die Universitäten mit Ökologen und Umweltaktivisten vollgestopft. Sie haben gut bezahlte und ausgerüstete Bürokratien, die als Umweltpolizisten agieren. Lokale Regierungen sind besessen von steigenden Meeresspiegeln, der Verfügbarkeit und dem Einsparen von Energie. Aber kann die Umweltbewegung es mit ihrem Gewissen vereinbaren, wenn das große Thema der anthropogenen Klimaänderung so grandios gescheitert ist? Hat sie überhaupt ein Gewissen?

Die Arktis

Abbildung 3: Die nördliche Hemisphäre nördlich von 60° Nord

Nördlich von 60° Nord, in einer gemeinhin als ‚Arktis’ bekannten Region, sehen wir relativ große Temperaturschwankungen mit der Zeit, wie dieser Graph zeigt. Der Maßstab wurde wegen der großen Amplitude des Jahresgangs ausgeweitet. Allerdings zeigt sich das sommerliche Maximum bemerkenswert invariabel. Die winterliche Minima sind dagegen hoch variabel und während der ganzen Aufzeichnungsperiode gestiegen. Effekte der Klimaänderung beeinflussen ganz einfach die Minimumtemperatur, nicht jedoch das Maximum. Aber anthropogene Einflüsse können nicht im Sommer und Winter unterschiedlich wirken. Also muss irgendein anderer Faktor diese Änderungen bewirken.

Trotz der Zunahme der Temperatur im Winter gibt es nur wenig Aussicht, dass dieses Gebiet in nächster Zukunft für die Besiedlung geeignet sein wird. Eine Temperaturspanne zwischen 10°C und minus 20°C ist bei Weitem zu kalt. Die wenigen Menschen, die in diesem Teil der Welt leben, werden die verminderte Winterkälte zweifellos begrüßen, und auch die etwas länger günstigen Temperaturen für das Pflanzenwachstum in den südlichen Bereichen dieser Zone, die verminderte Eisbildung und weniger Schnee auf den Dächern.

Hinsichtlich Produktivität und Nachhaltigkeit ist die Variabilität der Temperatur nördlich von 60° Nord nur von geringem Interesse für uns, vor allem, wenn das Minimum einfach das winterliche Minimum spiegelt, wenn die Nächte lang sind, die Bären ihren Winterschlaf halten und Inuit, die etwas auf sich halten, in ihren Iglus hocken. Aber vielleicht ist all das ja nur die Perspektive eines schlecht informierten Australiers. Vielleicht freuen sich ja die Finnen über ihre langen Winternächte, ihre warmen Saunen, und das nackt herumrennen im Schnee, während sie sich mit dem stimulierenden Einfluss von Wodka zuprosten? Das kann Spaß machen, aber höchstens für kurze Zeit und nicht den ganzen Winter über.

Die Antarktis

Abbildung 4: Die Südhemisphäre südlich von 60° Süd

Südlich von 60° Süd verbleiben auch die sommerlichen Maxima deutlich unter dem Gefrierpunkt und sind während der gesamten Periode zurückgegangen. So war sichergestellt, dass das Eis niemals in Gefahr war zu schmelzen. Aber es gab eine starke Zunahme der winterlichen Minima seit 1970, was die männlichen Pinguine wohl dazu gebracht hat zusammen zu stehen, um ihre Brut warm zu halten. Der Windchillfaktor ist aggressiv. Drei Millionen Quadratmeilen [ca. 7,8 Millionen km²] Ozean frieren an den Rändern Antarktikas zu, und trotz des Anstiegs der winterlichen Minima wächst das eisbedeckte Gebiet.

Die mittlere Temperatur der Antarktis hat trotz des starken Rückgangs der sommerlichen Maxima zugenommen. Mit sommerlichen Maxima derzeit um -5°C und winterlichen Minima um -25°C ist dieser Teil der Welt für harte Entdecker mit zu vielen Fingern und Zehen geeignet. Es ist ein Platz für Forschungen, aber nicht zum Besiedeln.

Die starke Zunahme der ‚mittleren’ Temperatur in der Antarktis trägt zum Anstieg des globalen Mittels bei. Aber wieder müssen wir uns fragen, wie angebracht dieses ‚globale Mittel’ wirklich ist. Wenn wir uns wirklich um das planetarische Wohlergehen Sorgen machen, um die bewohnbaren Gebiete des Planeten für Menschen und andere Spezies, um den persönlichen Komfort und die Versorgung mit Wodka, sollte es uns wenig kümmern, was in diesem Teil der Welt passiert, es sei denn, das Eis würde schmelzen, doch gibt es dafür nicht die geringste Chance. Trotz der Abschwächung der winterlichen Minima ist das antarktische Packeis immer noch so groß wie die Antarktis selbst, und es wächst.

Zusammenknüpfen der Fäden

Zunächst wollen wir festhalten, dass der Gedanke, die Erde ist in Gefahr sich zu überhitzen, Unsinn ist. Unser Planet wäre besser bewohnbar, wenn es noch ein paar Grad wärmer wäre.

Zweitens müssen wir fragen, ob die Verteilung der Temperaturänderungen, die wir beobachten, mit der Treibhaushypothese erklärt werden kann. Diese Frage muss verneint werden! Wenn wir danach trachten, Erklärungen für die Änderung der Temperatur zu finden, müssen wir nach Mechanismen suchen, die die Temperatur zwischen November und März beeinflussen, um der Variabilität in diesem Zeitraum gerecht zu werden. Außerdem müssen wir die starke Variabilität der winterlichen Minima in hohen Breiten erklären.

Wir müssen nicht sehr weit nach Gründen für die Variation der Temperatur zwischen November und März suchen. Es ist die El Nino Southern Oscillation. Gibt es irgendeine Übereinstimmung über die Ursachen dieses Phänomens? Nein! Können wir dieses Phänomen als einen möglichen Grund für eine Klimaänderung ausschließen? Offensichtlich nicht!

Kein ‚Antrieb’ wie Spurengaskonzentrationen, die für den Globus als Ganzes gelten und die immer gleichmäßig zunehmen, unabhängig von der Jahreszeit, kann die beobachtete Verteilung der Temperaturänderungen erklären. Einfach gesagt: etwas gänzlich unterschiedliches, etwas, dass eher hemisphärisch und jahreszeitlich als global wirkt, ist für diese Änderungen verantwortlich. Ich glaube, dass wir bis in alle Ewigkeit darauf warten können, bis das IPCC den Grund für die beobachteten Veränderungen entdeckt. Diese Herrschaften leiten ihre Sichtweise von Lord Nelson ab. Schau in die andere Richtung! Seien Sie blind gegenüber dem, was Sie nicht sehen wollen!

Aber Kohlenstoffsteuern und Zertifikatehandel sollten von der Tagesordnung abgesetzt werden. Und wir sollten unseren ‚Kohlenstoff-Fußabdruck’ und die Auffassung von Kohlenstoff als ‚Verschmutzer’ vergessen. Das ist Unsinn! Es ist genauso relevant wie die Idee im Mittelalter, dass klimatische Misshelligkeiten das Ergebnis von Hexenkraft und Sünden ist.

Link: hier

Übersetzt von Chris Frey für EIKE




Der Charakter der Klimaänderung – 1. Teil (von 4)

Die Abbildung rechts stellt die globale Temperatur dar zwischen dem Minimum im Januar und dem Maximum im Juli. Wichtige Informationen gehen verloren, wenn wir den Datenfluss auf ein berechnetes Mittel reduzieren (Maximum + Minimum/2). Aber diese Informationen werden in der Abbildung gespeichert.

Abbildung rechts: Entwicklung der globalen Temperatur von 1948 bis Anfang 2011

Beobachtungen im Zusammenhang mit dieser Abbildung:

  • Die globalen Maxima und Minima bewegten sich 30 Jahre lang auf und ab, nämlich zwischen 1950 und 1980, ohne jedoch einen klaren steigenden oder fallenden Trend zu zeigen, trotz der Zunahme der sog. Treibhausgase während dieses Zeitraumes.
  • Nach 1978 begann das Minimum zu steigen, aber nicht so rasch wie das Maximum.
  • Das Minimum ist viel unstetiger als das Maximum.

Die Erde befindet sich im Januar der Sonne am nächsten, und dies ist die Zeit, in der die Ozeane, die meisten auf der Südhalbkugel, am besten bestrahlt werden. Die Variabilität von Jahr zu Jahr beim Minimum im Januar steht offensichtlich in keinem Zusammenhang mit „Treibhaus-Faktoren“, die mit der Zeit einen monotonen Anstieg zeigen. Ein wahrscheinlicher Kandidat ist der unterschiedliche Grad der Bestrahlung der südlichen Ozeane im Zuge sich verändernder Bewölkung. Die Bewölkung variiert auf täglicher, jahreszeitlicher, mehrjähriger und dekadischer Basis. Sie variiert im Maßstab eines menschlichen Lebens und länger.

Offensichtlich müssen wir die Kräfte hinter den Änderungen der Bewölkung besser verstehen. Derzeit tun wir das nicht. Wir können Änderungen der Bewölkung als ein Grund globaler Temperaturänderungen einfach nicht ausschließen.

Wie entscheiden wir, was ‚gut’ ist?

Das Mittel zwischen dem täglichen Maximum und dem Minimum wird gemeinhin als das ‚Mittel’* bezeichnet. Die Mitteltemperatur wird gebildet, um eine mittlere Temperatur für den ganzen Globus abzuleiten. Eine Änderung des Mittels kann durch Änderungen entweder der Minima oder der Maxima erfolgen. Wie man in Abbildung 1 sieht, kann sich das Maximum unabhängig vom Minimum ändern.

*[Die englischen Begriffe ‚average’ und ‚mean’ haben eine etwas unterschiedliche Bedeutung, können aber auch als Synonyme aufgefasst werden. Im Deutschen können beide Wörter nur mit ‚Mittel’ oder ‚Mittelwert’ übersetzt werden. A. d. Übers.]

In der Praxis ist es der Wechsel zwischen den Extremen, der für Landwirtschaft, Handel, Geschäftsleben und Bewohnbarkeit so bedeutsam ist. Wir finden die Extreme ‚bemerkenswert’. Allerdings bestimmt die zeitliche Länge der Perioden mit günstigem Wetter zwischen den Extremen, ob Pflanzen gut oder schlecht wachsen und sich entwickeln. Die Sonnenscheindauer innerhalb eines Tages beeinflusst Photosynthese und Atmung der Pflanzen. Aber wenn die Luft nicht warm ist, werden die Pflanzen nicht wachsen. Die gleiche Überlegung gilt, wenn wir die Wachstumsphase als Ganzes betrachten. Die mittlere Temperatur sagt uns wenig über die Bewohnbarkeit des Planeten.

Das IPCC wurde ins Leben gerufen, um zu ermitteln, ob menschliche Aktivitäten das Klima des Globus’ beeinflusst haben. Es hat nicht die Aufgabe, die natürlichen Kräfte zu beschreiben, die die Temperatur der Erde auf die eine oder andere Weise beeinflussen. Die Quelle natürlicher Variationen oder jahreszeitlicher, dekadischer oder noch längerer Zeitspannen ist immer noch verborgen. Wenn das IPCC berichtet, dass es sich nicht vorstellen kann, was die Klimavariationen hervorruft, die wir erleben (außer der Mensch), dann sagt es, wie es ist. Aber ist das IPCC wirklich ehrlich, wenn es den Menschen als Schuldigen vermutet, wenn es die Quelle natürlicher Variationen nicht beschreiben kann, die es einfach gibt? Wenn jene Quelle natürlicher Variation Temperaturanstiege und –rückgänge über ein oder zwei Jahre hervorrufen kann, warum nicht auch eine Dekade oder ein Jahrhundert lang?

Wir müssen die Quellen natürlicher Variationen finden, um die Palette von Erklärungen für die Änderungen, die wir beobachten, zu erweitern. Es ist wünschenswert, dass wir nicht die eine mit der anderen verwechseln und wie Don Quichotte gegen Windmühlenflügel kämpfen.

Aber es gibt ein noch fundamentaleres Problem, das mit den Bemühungen des IPCC zusammenhängt: Die UN sprechen nicht die Frage an, ob die gegenwärtige Klimaänderung vorteilhaft oder nachteilig für uns ist. Es ist das Scheitern in dieser Hinsicht, das die Irrelevanz der IPCC-Beratungen repräsentiert. Die UN scheinen nicht an der Frage interessiert zu sein, die man so ausdrücken kann: OK, die Dinge ändern sich, aber spielt das wirklich eine Rolle? Geht es uns dabei besser oder schlechter?

Bevor wir die Abbildung verlassen, wollen wir noch anmerken, dass die Erniedrigung der Maximum- und Minimumtemperatur von 1992 bis 1995 möglicherweise auf den Ausbruch des Mount Pinatubo zurückzuführen ist. Dies ist ein klares Beispiel einer ‚natürlichen’ und nicht einer menschlichen oder ‚anthropogenen’ Ursache einer Klimavariation.

Welches Klima würden wir bevorzugen?

Bei welcher Temperatur wäre die Erde am produktivsten? Eine Temperatur von mindestens 15°C ist erforderlich, um das Pflanzenwachstum zu fördern, und eine Temperatur von 25°C wäre optimal. Aber die Abbildung deutet darauf hin, dass die Lufttemperatur an der Oberfläche des Planeten von 1948 bis 2000 zwischen lediglich 12°C (das kälteste mittlere Minimum) und 16°C (das wärmste mittlere Maximum) variierte.

Wäre die Temperatur in allen Breiten der Erde die Gleiche und würde es keine Variationen irgendwelcher Art (keine Jahreszeiten) geben, wäre es auf der Erde für die menschliche Zivilisation ziemlich ungemütlich. Ein Temperaturregime zwischen 12°C und 16°C würde das Wachstum vieler Pflanzen sehr hemmen. Es ist der Temperaturgegensatz zwischen warm am Äquator und kalt an den Polen sowie die jahreszeitliche Variation zwischen Sommer und Winter, die das Fenster für Landwirtschaft und Viehzucht öffnet. Vögel wandern zwischen den Hemisphären hin und her, weil sie täglich Nahrung brauchen, und die ist häufig nicht ein ganzes Jahr lang auf nur einer Hemisphäre verfügbar. Die Menschen bauen sich Unterkünfte und legen Nahrungsvorräte an, so dass man auch in mageren Zeiten genug zu essen hat. Außerhalb der Tropen herrschen diese mageren Zeiten im Winter. Es sind Speise- und Vorratskammer, Kühl- und Gefriertruhe, die wir hegen und pflegen, ein Punkt, der gut in Kenneth Grahams klassischer Novelle „The Wind in the Willows“ begründet wurde. Es muss eine Zeit im Jahr geben, in der es wirklich möglich ist, Nahrungsmittel wachsen zu lassen, und es muss effektive Methoden geben, diese Nahrung zu speichern. Diese Zeit des Jahres beginnt im ‚Frühling’, wenn die Tiere ihre Schutzbauten nach ihrem Winterschlaf verlassen und auf Nahrungssuche gehen.

Also sollten wir mit folgenden offensichtlichen Fragen beginnen: wie sieht ein ‚wünschenswertes Klima’ aus, wo kann es gefunden werden, ändert es sich mit der Zeit und verbessert oder verschlechtert sich dieses Klima? Sind wir glücklich, dass es ‚Winter’ gibt, oder würden wir Sommer bevorzugen? Für die Kategorie von Klimazonen, die das ganze Jahr über ungeeignet für menschliche Besiedlung sind, können wir die Frage, ob die Temperatur zu- oder abnimmt als einfach bedeutungslos beiseite schieben.

Das ‚globale Mittel’ ist ein statistischer, wenig praktischer Wert, vor allem, wenn er auf die eine oder andere Weise durch Veränderungen der Stationen an Orten zustande gekommen ist, die unbewohnbar sind. Genauso sagt uns die tägliche Mitteltemperatur wenig darüber, wie kalt die Nächte sind und wie warm die Tage; und auch nichts über die Anzahl der Stunden mit Tageslicht im Winter. Wir müssen mehr wissen. In Madrid ist die jährliche Temperaturspanne viel größer als auf Capri. Was ist günstiger für unsere Zwecke? Wenn wir uns zurückziehen wollen und im Schatten eines Baumes Prosa schreiben wollen, wird die Anforderung an die Temperatur eine andere sein, als wenn wir Kirschen anbauen wollen, die starke Winterkälte brauchen, um Frucht anzusetzen.

Natürlich wird durch eine solche Vorgehensweise die Komplexität der Analyse immer größer, wenn wir diese Fragen nicht beantworten, und wir wären mehr hysterisch als praktisch. Hysterisches Verhalten sollte man nicht übernehmen. Früher hätte es dabei einen Schlag auf den Kopf gegeben. Heute sollte es einen freundlichen Arm geben, der sich um die Schulter legt, zusammen mit der höflichen Frage: Was ist los? Aber manchmal frage ich mich, ob das frühere Vorgehen angebrachter wäre, falls jemand mit evangelikale Fundamentalisten umgeht, die sich vollständig von der Realität verabschiedet haben. Leuten dieses Schlages sage ich, vergiss das Mittel, gib mir die Rohdaten nach Breiten- und Längengrad, und ich werde versuchen, etwas Vernünftiges daraus zu machen.

Wo wollen die Leute leben?

Als Australier weiß ich, dass die ersten Besucher in Australien nicht beeindruckt waren. Weite Gebiete Australiens sind Wüste, und bis auf den heutigen Tag wird die Größe der bewohnbaren Gebiete als ‚marginal’ bezeichnet. Australien bietet nur wenig für die Ansiedlung von Menschen und wird dies wahrscheinlich auch niemals tun. Dies ist ein Land mit extremen Ausschlägen bei Wetter und Klima. Wenn es regnet, blüht die Wüste und die inländischen Flüsse fließen, und es gibt einen enormen Schub von Nachwuchs. Aber lange Zeiträume regnet es überhaupt nicht. In einigen küstennahen Gebieten fallen verlässliche Regenmengen, die das Wachsen von Wäldern erlauben, aber im größten Teil reicht die Wüste fast oder ganz bis an die Küste. Die Vegetation ist hart, und die Australier nennen es ‚the scrub’ [etwa: Gestrüpp]. Das Gestrüpp kann eine ganze Serie schlechter Zeiten überleben. In den frühen Jahren gab es in Südaustralien den Spruch ‚der Regen folgt dem Pflug’, und eine Weile schien das auch gut zu gehen. Aber das Verschwinden des Gestrüpps begann am Anfang einer langen Periode mit immer weniger Regen. Heute scheint es keinen Weg zurück zu geben.

Ein intergalaktischer Aufklärer würde auf der Suche nach grünerem Weideland keinen zweiten Blick auf die Erde werfen.  Die Menschen sind stolz auf ihren blauen Planeten, aber wenn es etwas wärmer wäre, würde er auch produktiver sein. Wenn Australier in den Ruhestand gehen, ziehen sie nach Norden, weil sie den Winter nicht mögen, obwohl sie in einem Kontinent mit warmen Sommern leben. Das Gras mag grün sein, aber es wächst nicht viel. Es ist einfach zu kalt. Also müssen wir das Umfeld menschlicher Besiedlung als Indikator dessen sehen, was die menschliche Spezies bevorzugt. Anders als Bären mögen es die Menschen, viele Mahlzeiten pro Tag einzunehmen, jeden Tag im Jahr; also ist die landwirtschaftliche Produktivität wichtig. In vorindustriellen Gesellschaften waren Gärtnern und Nahrungssuche von eminenter Bedeutung. Im Großen und Ganzen ist der Globus immer noch vorindustriell, und Transportmittel können primitiv sein. Daher wohnen die Leute am liebsten dort, wo Nahrungsmittel einfach zu bekommen sind.

Bis zu einem gewissen Grad kann Klima eingestellt werden, sicherlich innerhalb von von Menschen gebildeten Strukturen, sicherlich in wohlhabenden, anspruchsvollen Industriegesellschaften. Weniger günstige Klimate können wir tolerieren, falls wir uns vor den Extremen schützen können. Klimaanlagen sind in China zahlreicher als irgendwo sonst. Die Menschheit lebt zum größten Teil in Indien und China, wo die Wachstumszeit lang ist, wo viel Feuchtigkeit das Pflanzenwachstum im Frühling, Sommer und Herbst begünstigt, oftmals in einer Umgebung, die bemerkenswert warm und feucht ist, jedenfalls aus dem Blickwinkel von Westeuropa. Es ist was dran an dem Text des Liedes „Mad dogs and Englishmen go out in the midday sun” [etwa: Verrückte Hunde und Engländer gehen hinaus in die Mittagssonne], weil die wirklich produktiven Gebiete des British Empire in Klimaten liegen, in denen es um Einiges wärmer ist als auf den Britischen Inseln. Diese Wärme sorgt für eine lange Wachstumsphase und hohe Bevölkerungsdichte.

Karte: Verteilung der Menschheit auf der Erde

Die Karte oben zeigt, dass die Bevölkerungsdichte in feuchten, warmen Umgebungen am größten ist, jeweils an den Ostküsten der großen Kontinente. Süd- und Ostasien bieten mit reichlich Regen und einer langen Wachstumsphase sehr günstige Bedingungen für die Landwirtschaft. Westeuropa bildet die Ausnahme von der Regel. Aber dieser Teil der Welt ist hinsichtlich seiner geographischen Breite unnatürlich warm, vor allem im Sommer, teilweise hervorgerufen durch den Einfluss des Golfstromes und auch einem fortgesetzten Zustrom feuchter subtropischer Luft von Südwesten her. Das Wachstum von Bergbau, Handel und Wirtschaft sowie die Entwicklung von Städten und Infrastruktur begünstigen eine Verteilung der Besiedlung, die sich sehr von der landwirtschaftlich geprägten Vergangenheit unterscheidet. Heutzutage wird eine Menge an Nahrungsmitteln transportiert und für lange Zeit gespeichert. Dies führt zu einer Zunahme der Bandbreite von Klimaten, die eine hohe Bevölkerungsdichte unterstützt, so lange die Leute es im Winter nur warm haben.

Aus der Karte wird klar ersichtlich, dass sich die am dichtesten besiedelten Gebiete zwischen 10° Süd und 60° Nord befinden. Aber sehen Sie: die Karte lässt einen großen Teil der Südhemisphäre aus. Warum? Weil die Temperatur in den fehlenden Gebieten während der meisten Zeit des Jahres unter dem Gefrierpunkt liegt. Die Südhemisphäre weist südlich von 45° nur wenige Landgebiete auf, die sich für menschliche Besiedelung eignen, und südlich von 60° liegt der riesige, immer größer werdende Eisberg der Antarktis.

Warum findet sich die Hauptmasse der Menschheit zwischen 10° Süd und 60° Nord? Weil das Land hier produktiver ist. Das Leben ist einfacher. Dies ist die Botschaft von Abbildung 3.

Abbildung 3: Der Jahresgang der Temperatur in Grad Celsius in den am besten bewohnbaren Breiten. Das bewohnbare Gebiet der nördlichen und südlichen Hemisphäre weist sehr unterschiedliche thermische Bedingungen auf. Welche sind zu bevorzugen?

Landwirtschaft hängt von den Jahreszeiten ab. Wenn sich die Temperatur lange genug im günstigen Bereich bewegt, ist Ackerbau möglich, und solange die Nahrung ausreicht, kann eine größere Bevölkerung gestützt werden. Die besser bewohnbaren Gebiete der Nordhemisphäre haben in dieser Hinsicht einen Vorteil. Die Sommer sind wärmer als in der südlichen Hemisphäre. Zum Höhepunkt des Nordsommers erreicht die mittlere Temperatur die 25-Grad-Marke. Im wärmsten Monat ist es fast warm genug, um die Pflanzen zu schnellstem Wachstum anzuregen. Dies ist eine Überkompensation des Nachteils, dass die Nordwinter kälter sind als die Südwinter. Der Sommer stellt das Umfeld zur Verfügung, dass das Leben ermöglicht, und ein relativ unwirtlicher Winter ist kein zu hoher Preis, wenn man es warm hat, bequem wohnt und ausreichend ernährt ist.

In den produktivsten und am dichtesten besiedelten Gebieten in Süd- und Ostasiens herrscht ein sommerliches Temperaturregime, das sogar noch wärmer ist als das globale Mittel.  (Delhi India June Av Min 26.6, Av Max 39.3, Shanghai, China 24.9-31.3, Chongqing 25-34, Hanoi July 26.1-32.9). Es ist offensichtlich, dass es in den wärmsten Monaten dieser Gebiete fast wärmer ist als für die Photosynthese optimal. Aber die Wachstumsphase ist sehr lang, und das macht die Landschaft so ungewöhnlich produktiv. Wenn es in allen bewohnbaren Gebieten der Nordhemisphäre so warm wäre wie in Ostasien, würde die Produktivität mit der Länge der Wachstumsphase zunehmen. Also können wir in dieser Hinsicht schließen, dass der wärmste Teil des Globus’, die Nordhemisphäre im Sommer, noch produktiver wäre, wenn es noch ein wenig wärmer wäre. Nicht die Erwärmung müssen wir fürchten, sondern die Abkühlung!

Eine Lektion in Klimadynamik für das IPCC

Sieht man sich noch einmal Abbildung 3 an, erkennt man, dass die Verteilung der jahreszeitlichen Änderung der ‚globalen Temperatur’ stärker vom Jahresgang in der Nordhemisphäre als in der Südhemisphäre beeinflusst wird. Der stärker ausgeprägte Jahresgang im Norden wird durch die Erwärmung und Abkühlung der kontinentalen Landmassen in Eurasien und Amerika im Nordsommer bestimmt.

Dabei gibt es ein interessantes Paradoxon. Im Juli und August ist es auf der Erde als Ganzes am wärmsten. Paradoxerweise ist die Erde im Juli etwa 3% weiter von der Sonne entfernt als im März und September. Die Solarstrahlung ist im Juli 7% weniger intensiv als im Januar. Aber die jahreszeitlich bedingte Erwärmung der Landmassen wegen der längeren Einstrahlung am Tage führt zu einem Verlust der globalen Bewölkung in der Jahresmitte. Entsprechend erreicht die mittlere globale Temperatur eine scharfe Spitze im Juli und August. Der starke Temperaturanstieg auf der Nordhalbkugel überkompensiert die Abkühlung der Südhalbkugel im Winter.

Daher ist es auf der Erde also am wärmsten, wenn die Erde am weitesten von der Sonne entfernt ist, also im Juni, Juli und August. Die Lektion ist einfach und eindeutig. Das Strahlungsniveau von der Sonne ist nicht der Haupttreiber der Temperatur. Es ist die relative Gegenwart der Wolken, die die Temperatur regelt. Klimawissenschaftler, die den IPCC-Bericht schreiben, bestehen darauf, dass die Wolken die Wärme zurückhalten und damit den vermeintlichen Effekt des Kohlendioxids verstärken. Es gibt aber nicht die Spur eines Zweifels, dass die Wolken abkühlend und nicht erwärmend wirken.

Allerdings sorgt die Tatsache, dass die südlichen Ozeane im Januar der Sonne näher sind und die Strahlung 7% stärker ist als im Juni, dafür, dass der Globus wärmer wird, weil der Ozean Wärme eher absorbiert und speichert als sie in die Atmosphäre abstrahlt, von wo sie rasch innerhalb des 24-Stunden-Zyklus im Weltraum verschwinden würde.

Auf der Erde wäre es ein ganzes Stück kälter, wenn die riesigen Ozeane der Südhalbkugel der Sonne dann zugewandt wären, wenn diese am weitesten von der Erde entfernt ist. Dann würde die Sonnenenergie, wenn sie am stärksten ausgeprägt ist, direkt auf die Landmassen der Nordhemisphäre treffen und sofort wieder in den Weltraum abgestrahlt werden. Aus der gegenwärtig vorteilhaften Neigung der Erdachse, dem orbitalen Einfluss und der gegenwärtigen Verteilung von Land und Wasser kann man schließen, dass sich das Weltklima derzeit in einer Warmphase befindet. Die verfügbare Energie wird sicher in den südlichen Ozeanen gespeichert, wenn sie am stärksten ist. Die Sonnenwärme wird länger konserviert, und die kälteren Gebiete unseres Globus’ profitieren davon, weil die Meeresströmungen (z. B. der Golfstrom) wärmer sind. Daraus folgt, dass das bewohnbare Gebiet auf der Erde größer ist als es wäre, wenn uns die Sonne im Juni am nächsten wäre. Wir leben in menschenfreundlichen Zeiten auf einem Globus, der eigentlich etwas zu kalt für maximalen Komfort ist. Aber wir sollten beachten, dass sich der Globus abkühlen wird, wenn der Sonnenorbit weniger günstig wird.

Es ist offensichtlich, dass die Temperatur stark von der Verteilung von Land und Wasser, orbitalen Überlegungen und am meisten von der Menge der Bewölkung beeinflusst wird.

Wäre der Orbit der Erde um die Sonne elliptischer als er ist, würde der Strahlungsunterschied zwischen Januar und Juli noch größer sein. Wäre die Neigung der Erdachse geringer, würde der Kontrast zwischen Sommer und Winter geringer, und in höheren Breiten wären die Sommer kälter.

Wenn es irgendeinen Faktor gäbe, der die Variation der Wolkenmenge steuert, wenn der größte Teil der Ozeane von Dezember bis März der Sonne ausgesetzt ist, würde es das Minimum im Januar und das Klima global verändern. Mit weniger Wolken könnte sich der Globus erwärmen.  Mit mehr Wolken würde er sich abkühlen.

Natürlich gibt es in der Verteilung der Landmassen der Nordhemisphäre keinerlei Variationen, und dies führt zu lediglich kleinen Variationen der globalen Höchsttemperatur im Juni und Juli. Aber es gibt offensichtlich eine große Variation bei der Wolkenbedeckung, was zu starken Änderungen der Minimumtemperatur im Januar von Jahr zu Jahr führt.

Bietet uns die ‚Klimawissenschaft’ eine Erklärung für die großen Schwingungen des globalen Minimums im Januar?  Leider nein! Die Klimawissenschaft scheint sich sehr eng auf die globale mittlere Temperatur zu konzentrieren, und Feinheiten dieser Art bleiben unkommentiert weil unbemerkt. Das ist, als ob man ein Auto besitzt und nicht weiß, ob sich der Motor vorne oder hinten befindet.

Wenn Sie zu Ihrem Arzt gehen und dieser darauf bestehen würde, dass die Hühneraugen an Ihrer Fußsohle abhängig sind von der Temperatur in Ihrem Innenohr, würden Sie vermutlich nach alternativen Hilfestellungen suchen. Würde er aber sagen, dass die Hühneraugen von der Passform Ihrer Schuhe abhängen, wären sie wahrscheinlich eher bereit, ihm zuzuhören. Ähnlich geht es einem Klimawissenschaftler, der beobachtet hat, dass die Temperatur die stärksten Variationen im Januar zeigt und auf die Wolken als Ursache dafür zeigt, was viel mehr Sinn macht als jemand, der auf das globale Mittel schaut und mit dem Finger auf Sie zeigt mit der Bemerkung, dass die Menschen zu viel Kohlendioxid ausatmen, kostbares Öl verschwenderisch verbrauchen und einfach zu lange leben.

Wer sind die Leute, die damit hausieren gehen, dass die Erde Gefahr läuft, sich zu stark zu erwärmen? Warum tun sie das?

Earl Happ

Link: hier

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE




Wärmedämmung: Die so genannte Gebäudesanierung. Schilda lässt grüßen

Das Einpacken von Gebäuden mit Dezimeter dicken Dämmplatten soll an das Anziehen warmer Daunenjacken und Wollmützen im Winter erinnern. So suggeriert es ein von der Bundesregierung verbreitetes Plakat, das Häuser mit Wollmützen zeigt. Es soll Hausbesitzer auf die Möglichkeit hinweisen, durch den Einbau dreifach verglaster Fenster, durch das Auswechseln des Heizkessels und durch eine aufwändige Isolierung des Daches und der Mauern mit Dämmplatten Heizkosten zu sparen. Aber lohnt der Aufwand wirklich? Wer in Deutschland die Heizkosten benachbarter gedämmter und ungedämmter Gebäude gleicher Bauart vergleichen möchte, kommt nicht weit. Es gibt dazu keine Normalbürgern zugängliche Daten. Eine Studie des Instituts für Wirtschaftsforschung Halle (IWH) kam jedenfalls zum Schluss, dass eine energetische „Sanierung“ von Gründerzeithäusern den Heizenergiebedarf bestenfalls um 10,6 Prozent senkt. Der Gerichtssachverständige Prof. Dipl. Ing. Jens Fehrenberg (Hildesheim) kam an die Heizkostenabrechnung benachbarter gedämmter und ungedämmter Wohnblocks in Hannover und stellte sogar fest, dass die zuletzt genannten weniger Energie verbrauchten als die angeblich energetisch sanierten.

Wie ist das möglich? Ganz einfach: Die gedämmten Wände verhalten sich in der Praxis nicht so, wie es die rein theoretischen Rechenmodelle der Dämmstoff-Lobbyisten vorhersagen. Diese Modelle stützen sich allein auf den so genannten U-Wert (früher k-Wert) der Wärmedurchlässigkeit verschiedener Materialien. Dieser Zahlenwert vernachlässigt, dass der größte Teil der Wärme nicht durch Wärmeleitung in Festkörpern, sondern durch Abstrahlung verloren geht. Er vernachlässigt auch, dass der unter trockenen Laborbedingungen gemessene U-Wert nicht mehr gilt, wenn das Isoliermaterial feucht geworden ist. „Wärmedämmung auf der Außenwandfläche mindert zwar den Austrag von Wärme, verhindert aber ebenso den Eintrag“, erklärt Prof. Fehrenberg. Gerade im Winter, wenn die Sonne tief steht, nehmen vor allem Ziegelmauern tagsüber eine große Wärmemenge auf und geben sie nachts langsam sowohl an die Wohnräume als auch an die Umgebungsluft ab. Dadurch wird verhindert, dass die Mauer nachts so weit auskühlt, dass der Taupunkt unterschritten wird und sich Kondenswasser niederschlägt. Wird die Mauer jedoch isoliert und abgedichtet, verliert sie ihre Fähigkeit, die Feuchtigkeit zu regulieren. Gedämmte Fassaden erkalten abends viel schneller als ungedämmte. Das sich dann ansammelnde Kondenswasser ist ein idealer Lebensraum für Grünalgen, Schimmelpilze und Flechten. Schon nach wenigen Monaten werden deshalb nicht wenige der angeblich sanierten Häuserfassaden schmutzig grün. Um das zu verhindern, werden die Dämmplatten neuerdings mit hochgiftigen Algiziden und Fungiziden behandelt. Ein besonders schlauer Dämmstoff-Verkäufer bietet elektrische Fassadenheizungen an, um dem Problem beizukommen. Schilda lässt grüßen.

Deshalb rät Fehrenbergs Berufskollege Konrad Fischer aus Hochstadt am Obermain, ein auf die Sanierung denkmalgeschützter Gebäude spezialisierter Architekt, seinen Kunden: „Wer wirklich Energie und Geld sparen möchte, sollte sinnlose Energiespar-Aufwendungen unterlassen!“ Fischer weist übrigens die von den Dämmfanatikern als Verkaufsargument benutzten Bilder von Wärmebildkameras als groben Unfug zurück. Selbstverständlich zeigen diese, dass ungedämmte Häuser nachts auffällig viel Wärme abstrahlen. Aber es handelt sich dabei überwiegend um die Sonnenenergie, die die Mauern bei Tage aufgenommen haben. Die nächtliche Abstrahlung verhindert, dass sich Feuchtigkeit auf und in den Mauern niederschlägt. Gedämmte Mauern hingegen, werden nachts kalt und feucht, weil sie tagsüber von wärmenden Sonnenstrahlen nicht mehr erreicht werden. Nicht von ungefähr haben alle US-amerikanischen Bundesstaaten das Dämmen der dort üblichen Holzrahmenhäuser verboten, nachdem sich dort der Hausschwamm ausgebreitet hatte. Europäische Öko-Kommissare hingegen wollen ihren Untertanen befehlen, in verschimmelten und schlecht belüfteten Gebäuden zu vegetieren, um die angeblich drohende Klimakatastrophe aufzuhalten.

Bislang konnten sich deutsche Hausbesitzer den gesetzlichen Dämm-Verpflichtungen relativ leicht entziehen, wenn sie mithilfe von Gutachtern die Unwirtschaftlichkeit der von ihnen verlangten Energiespar-Investitionen darlegen konnten. Im Paragrafen 11 der Heizkostenverordnung zum deutschen Energieeinsparungsgesetz steht, dass Kosten dann als unverhältnismäßig hoch gelten, wenn diese nicht durch Einsparungen binnen zehn Jahren erwirtschaftet werden können. Bei der energetischen „Sanierung“ eines bescheidenen Einfamilienhauses gemäß den heute schon gültigen Vorschriften werden jedoch erfahrungsgemäß um die 600 Euro je Quadratmeter Wohnfläche, das heißt mindestens 60.000 Euro fällig. Diese erlauben eine Heizkosteneinsparung von maximal 1.000 Euro im Jahr. Das heißt, es braucht 60 Jahre, um die Investition abzubezahlen. Bis dahin liegt der in die Zukunft investierende Eigentümer wahrscheinlich längst im Grab und das Haus ist vielleicht schon abgerissen.

Die herrschende grün angestrichene Finanzoligarchie arbeitet jedoch bereits eifrig an der Ermächtigung für die Einführung eines gesetzlichen Dämmungszwangs ohne Beachtung der wirtschaftlichen Zumutbarkeit und des Eigentumsschutzes. Die Hausbesitzer sollen zum Einbau von Vorrichtungen gezwungen werden, die ihrer physischen und finanziellen Gesundheit abträglich sind. Sie sollen Hypotheken aufnehmen müssen und dadurch abhängig werden vom staatlichen Papiergeldsystem. Darum geht es wohl im Kern bei dem im Europa-Parlament zur Abstimmung anstehenden Energieeffizienzplan der EU-Kommission, der im Wesentlichen in Berlin ausgedacht wurde. Als Hebel für dessen Umsetzung kommt eine Verschärfung der Anforderungen für den beim Immobilien-Verkauf obligatorischen Energieausweis in Frage. Die Deutschen werden bald gewahr werden, dass „Klimaschutz“ dem Versuch einer Enteignung durch die Hintertür gleichkommt.

Edgar Gärtner; EIKE; zuerst erschienen bei eigentümlich frei

Links:

Prof. Dipl.Ing. Jens Fehrenberg (Hildesheim)

Konrad Fischer aus Hochstadt am Obermain

Die Welt: Mieter drohen durch EU-Plan hohe Mehrkosten

Der Spiegel: Gebäudesanierung: Gut fürs Klima, schlecht fürs Portemonnaie

FAZ: Gebäudesanierung: Klimaschutz mit Schlagseite

FAZ: Altbausanierung: Abstumpfung mit Styroporplatten

FAZ: Frankfurt dämmt sogar ein Krematorium

Die Welt: Sanierte Häuser massenhaft von Algen befallen

FOCUS: Energetische Sanierung: Der grüne Schrecken




Vereinfachtes Atmosphärenmodell beweist eine Klimasensitivität des CO2 von 1,1 °C auf der Basis beobachteter Strahlungsflüsse

Eine rein qualitative Beschreibung des Treibhauseffekts wurde von den Autoren bereits in EIKE publiziert. Ferner wurden von uns die Veröffentlichungen von Gerlich/Tscheuschner sowie von Kramm/Dlugi, die beide den erwärmenden Einfluss des anthropogenen CO2 in Frage stellen, einer Fachkritik unterzogen. In den Erwiderungen dieser Autoren auf unsere Kritik konnten wir keine Fehler unserer physikalischen Argumentation feststellen, jeder Leser sollte bei Bedarf selber nachprüfen.

Die Erwiderungen enthielten aber auch den zutreffenden Hinweis, wir hätten nicht selber zum Thema in Peer-Review-Fachzeitschriften publiziert. Dies ist zwar kein Sachargument gegen eine physikalisch einwandfrei belegte Kritik, war uns aber dennoch Ansporn. Unser Bemühen in der nun vorliegenden eigenen Publikation folgte im wesentlichen den Pfaden von Schneider/Mass und von Liou. Der maßgebende Unterschied zu deren Veröffentlichungen bestand indes darin, jedwede substantiellen Vernachlässigungen zu vermeiden. Um keine Missverständnissen aufkommen zu lassen, weisen wir in diesem Zusammenhang darauf hin, dass weder Gerlich/Tscheuschner noch Kramm/Dlugi eigene vollständige Modelle vorstellen, wie wir es in unserer Arbeit tun. Insbesondere Kramm/Dlugi gingen den Weg, über eigene „Berichtigungen“ des  Modells von (vorwiegend) Schneider/Mass zu belegen, dass mit ihren „Berichtigungen“ kein substantieller Nachweis für den Treibhauseffekt des CO2 mehr vorliege. Die „Berichtigungen“ enthielten gravierende Vernachlässigungen, so dass damit die, unserer Auffassung nach zwangsläufig falschen, Schlussfolgerung von Kramm/Dlugi bestens erklärt sind.

Unsere Publikation liegt als pdf bei. Als ein Ergebnis ermittelten wir die Klimasensitivität des CO2, also die mittlere globale Erwärmung bei hypothetischer Verdoppelung der CO2-Konzentration, zu 1,1 °C bei vorgegebener Änderung des Strahlungsgleichgewichtes (Radiative Forcing) ohne Rückkoppelungen. Unser Modell bestätigt, dass der Einfluss des anthropogenen CO2 sich als eine prinzipiell messbare Größe den weiteren Einflüssen von langfristigen globalen Temperaturänderungen zugesellt. Dieser Einfluss ist aber unbedenklich (im Gegenteil, CO2-Zunahme und eine leichte globale Erwärmung sind für die Menschheit günstig und wünschenswert) und erweist sich daher zu alarmistischen Prognosen zukünftiger Klimaentwicklungen als völlig ungeeignet. Unser Aufsatz belegt, dass die gelegentlich zu vernehmenden Auffassungen, anthropogenes CO2 übe überhaupt keinen erwärmenden, oder umgekehrt sogar einen abkühlenden Einfluss auf mittlere Globaltemperaturen aus, keine physikalische Basis aufweisen.

Wir bitten nun an dieser Stelle alle eventuellen Kommentare-Schreiber um Nachsicht, wenn wir aus Zeitgründen nur auf Kommentare antworten, die physikalisch einwandfrei begründet sind, sich ausschließlich und im Detail auf unseren Aufsatz beziehen und keine Anmerkungen darstellen, die auf offensichtlichen Missverständnissen beruhen. Das Journal IJMPC (International Journal of modern Physics C), in dem unser Aufsatz erschien, ist wie die meisten ordentlichen Fachzeitschriften absolut offen, was die Diskussion gegensätzlicher Ansichten zu einem in ihm veröffentlichten Aufsatz angeht. Jeder, der meint, gute physikalische Kritikpunkte gegen unsere Veröffentlichung anführen zu können und bereit ist, sich dem Peer-Review-Prozess von IJMPC zu unterziehen, ist daher im gegebenen Falle herzlich eingeladen, ein „debate paper“ bei IJMPC einzureichen.

Dr. Rainer Link

Prof. Dr. Horst-Joachim Lüdecke

(EIKE-Pressesprecher)

Related Files




Zur Radioaktivität und Strahlen– einige Fakten!

Erhellendes hat auch die Bundestagsabgeordnete und atompolitische Sprecherin der Grünen, Sylvia Kotting-Uhl, beizutragen.

In einem Interview sagte sie:

„Wir haben außerhalb der Schutzzone gemessen, weil es dort eine breite Schneise von Fukushima-Daiichi aus Richtung Nord-Westen gibt, die stark kontaminiert ist. Wir waren an einem Ort, an dem noch ungefähr zehn Prozent der Menschen leben. Es sieht aber nicht so aus, als wären die Verbliebenen schon am Packen, sondern sie verrichten ganz normal ihren Alltag. Wir haben dort elf Mikrosievert gemessen, unter einem Abflussrohr sogar 500. Wenn ein Mensch ein Jahr lang dort leben würde (unter einem Abflussrohr?), käme er auf eine Jahresdosis von 89 mSv. Das ist mehr als das Vierfache der Grenzwertdosis, der ein Arbeiter in Atomkraftwerken ausgesetzt sein darf.“

Nach ihrer Meinung beträgt der Grenzwert wohl 20 mSv.

Auf den Punkt bringt es infamerweise der Umweltminister:

„Das war eine Gelegenheit, und wir haben zugegriffen“, sagte Röttgen. (2)

Ziehen wir ein kurzes Zwischenfazit.

Frau Merkel hat neue fundamentale physikalische Erkenntnisse gewonnen. Deren Wert betrachten wir gleich.

Für den Grünen Untersteller sind Tschernobyl und Fukushima gleich, Dies beweist entweder völlige Unkenntnis oder totale Volksverdummung. Seine Parteifreundin hat revolutionäre Messungen durch- und wundersame Rechnungen ausgeführt, denn weder 11 µSv, 500 µSv noch 511/2 µSv ergibt pro Jahr 89 mSv.

Der Tod von 25.000-27.000 Opfern, primär durch den Tsunami verursacht, war für Röttgen die herbeigesehnte Gelegenheit. Man liest förmlich zwischen den Zeilen, mit ein paar Nukleartoten wäre dies noch besser gewesen.

Bevor wir uns den physikalischen Aspekten zuwenden, sei zum Anfang an eine Aussage von Paracelsus erinnert.

Nach Paracelsus ist jeder Stoff ein Gift für den Körper, es kommt nur auf die Dosis an.

Auf den folgenden Seiten bis zum Kasten auf Seite 6 werden physikalische Grundlagen betrachtet. Wer will kann diese erst einmal überspringen und sie später lesen.

Die wenigen englischen Passagen stammen aus dem Buch „Radiation and Reason“ von Prof. Wade Allison. Er lehrt seit mehr als 40 Jahren medizinische und Strahlenphysik an der Universität von Oxford in England.

Eindringtiefe und Wechselwirkung von α-Strahlung mit Materie

Ein α-Teilchen ist ein zweifach ionisiertes He-Atom, welches auf seinem Weg eine Ionisierung von anderen Atomen bewirkt. Die Reichweite ist ziemlich gering, wie der nachstehenden Tabelle entnommen werden kann, deshalb ist es leicht abzuschirmen, aber mögliche Sekundärstrahlung muss beachtet werden.

Eindringtiefe und Wechselwirkung von β-Strahlung mit Materie

Ein β-Strahler emittiert Elektronen, die bei einer Kernspaltung freigesetzt wer-den. Deren Wechselwirkung mit Materie ist kleiner als die von  α-Strahlung und folglich ist die Anzahl der erzeugten Ionenpaare pro Länge geringer und die Rechweite größer.

Eindringtiefe und Wechselwirkung von  γ-Strahlung mit Materie

Die γ-Strahlung besteht aus hochenergetischen Photonen, die durch Absorption ein oder mehrere Elektronen aus einem Atomverband lösen können (Photoeffekt). Auf Grund der Energie geschieht dies bevorzugt für die inneren Niveaus. Dieser Prozess dominiert bei relativ geringen Energien. Bei mittleren Energien überwiegt die Comptonstreuung, bei der das Photon ein Elektron entfernt und seine Richtung ändert.Bei hohen Energien (E > 1.022 MeV) tritt Paarbildung auf, bei der ein Elektron-Positronpaar gebildet wird. Hierzu ist minimal eine Energie von 1.022MeV notwendig. Die restliche Energie geht in die kinetische Energie der Teilchen ü-ber. Die Eindringtiefe ist material- und energieabhängig, wie die folgende Ta-belle der Halbwertsschichten, die Hälfte der Strahlung wird absorbiert, zeigt.

Eindringtiefe und Wechselwirkung von Neutronen mit Materie

Die Wechselwirkung von Neutronen mit Materie erfolgt entweder durch elastische und inelastische Stöße oder durch das Einfangen eines Neutrons im Kern. Beim elastischen Stoß bleibt für die Stoßpartner die Gesamtenergie erhalten. Der „ruhende“ Atomkern kann dabei aber soviel Energie erhalten, dass er den Atomverband verlässt und dabei andere Atome ionisiert. Beim inelastischen Stoß erfolgt eine Anregung des Kerns und eine Abbremsung des Neutrons. Durch Relaxation geht der Kern später wieder in den Grundzustand, wobei ein gamma-Quant ausgestrahlt wird. Die Abbremsung ist dann am größten, wenn die Stoßpartner gleiche Massen haben. Deshalb wird in den meisten AKW Wasser als Moderator verwendet. Als elektrisch neutrale Teilchen dringen Neutronen tief in Materie ein – viele Zentimeter in den typischen technischen Strukturmaterialien. Als freie Teilchen sind Neutronen allerdings aufgrund der schwachen Wechsel-wirkung nicht stabil und zerfallen in ein Proton, ein Elektron und ein Antineutrino mit einer Halbwertszeit von ca. 890 s.

Kernspaltung

Wir beschränken uns hier auf die Kernspaltung von 235U, weil dies das wichtigste Reaktormaterial ist. Bei der Kernspaltung von Uran-235 wird durch Einfan-gen eines Neutrons der Urankern zur Spaltung angeregt. Dabei entstehen im Allgemeinen zwei – seltener drei – Spaltprodukte, zwei bis drei Neutronen und Energie. Dies ist schematisch in der folgenden Graphik dargestellt.

235U hat eine natürliche Halbwertszeit von 703,8 Mio. Jahre. Es steht am Beginn der Uran-Actinium-Reihe und tritt mit einem Anteil von etwa 0,7 % in natürlichem Uranvorkommen.

Die Spaltung erfolgt, weil die Bindungsenergie für die Nukleonen in den Spalt-produkten größer als im Uran ist.

Energie wird bei dem Prozess freigesetzt, weil es einen Massendefekt gibt (Delta E=  Delta m· c2). Je größer der Massendefekt ist, desto stabiler ist der Atomkern, da mehr Energie zu seiner Zerlegung aufgewendet werden muss. Die dabei frei werdende Energie ist gegenüber chemischen Prozessen, die durch Elektronen-austausch erfolgen, um Größenordnungen höher.

Bei der Spaltung von einem Kilogramm 235U wird somit eine nutzbare (abzüglich der Neutrinos, die extremst selten eine Wechselwirkung mit Materie zeigen) Energie von rund 21 Millionen kWh freigesetzt. Dies entspricht einer Verbrennungsenergie von 2600 Tonnen kg Steinkohle (1 Steinkohleeinheit = 7000 kcal pro kg). Eine Tonne Steinkohle kostete im 4. Quartal 2010 rund 93€, was für 2600 t rund eine viertel Million ergibt. Der Preis pro kg Uran betrug ungefähr 120 $, was annähernd den Preis einer Tonne Steinkohle entspricht. Nach einer amerikanischen Studie gibt ein 1GW Kohlekraftwerk pro Jahr bis zu 5.2t Uran und 12.8t Thorium an die Umwelt ab. (3) In Ungarn zeigten Messungen in der Umgebung von KKW eine bis zu fünfmal über den natürlichen Anteil liegende Konzentration von den Radionukliden 238U, 226Rn, 232Th, 137Cs und 40K. 4 Dies übersteigt die Belastungen in der Nähe von Kernkraftwerken um ein Vielfaches, wie durch die nächste Abbildung für die Schweiz demonstriert wird.

Trotzdem demonstrieren die Grünen gegen AKW wegen der Radioaktivität aber nicht gegen KKW, obwohl sie doch generell gegen Radioaktivität sind. Die KKW werden von ihnen verteufelt wegen des Ausstoßes des lebenswichtigen CO2, aber nicht wegen der radioaktiven Materialien. Logik ist offensichtlich kein Bestandteil grüner Politik. Obwohl die Kernenergie billig und zuverlässig ist, steigt Deutschland komplett und unumkehrbar, die Welt wundert sich und die Zukunft wird darüber lachen, aus. Begründet wird dies stets mit Tschernobyl und als Anlass dient Fukushima. In Japan gab es bis heute keinen Strahlentoten und vermutlich auch keinen bedrohlich Verstrahlten.

Der letzte UN-Bericht („The Chernobyl Forum“) zu Tschernobyl stammt vom Februar 2011. In ihm steht:

„Some of the reactor staff and emergency workers received, on 26 April 1986, high doses of external gamma radiation estimated to vary from 2 to 20 Gy, and as a result 28 of them died within first four months from radiation and thermal burns, and another 19 died over the years up to 2004.”

GREENPEACE macht aus 47 Opfern 90.000 Tote.

Soviel zu deren Glaubwürdigkeit. Die Dosis und die Mortalität der in Tschernobyl eingesetzten Arbeiter sind in der folgenden Graphik abgebildet. Man beachte, dass ein nichtlinearer Zusam-menhang besteht und dass ganz klar ein Schwellwertverhalten vorliegt. Von den 140 Verstrahlten mit einer Dosis kleiner 2000 mSv starb keiner und von den 55, die eine Dosis zwischen 2.000 und 4.000 mSv erhalten haben, überlebten 54.

Wir erinnern uns an die grüne atompolitische Sprecherin, die von dramatischen 11 µSv (5 Größenordnungen kleiner!) bzw. 500 µSv unter einem Rohr berichtet. Wie sie allerdings daraus 89 mSv pro Jahr errechnet, bleibt ihr Geheimnis. Ohne Angabe, was die Strahlung verursacht (Jod hat eine Halbwertszeit von 8 Tagen, was bedeutet, dass es relativ viel Energie (Sv) in kurzer Zeit von sich gibt, während Cs mit 30 Jahren wenig über lange Zeiten emittiert), ist die Aussage Null und Nichtig.

Dies wird auch deutlich, wenn man sich die Strahlendosis für die Ukraine und Weißrussland ansieht.

Im UN-Bericht steht dazu:

„Doses that could only be estimated some time after they occurred by careful evaluation of all available information were 17mSv on average to Ukrainian evacuees, with doses to individuals ranging from 0.1 to 380mSv. The average dose to Belarusian evacuees was 31mSv, with the highest average dose in two villages being about 300mSv.”

Es sei hier erwähnt, dass die Dosen niedriger sind, als die natürliche in vielen bekannten Gebieten in der Welt (China, Indien Iran, Brasilien). In Bad Gastein (Österreich), z.B., beträgt die natürliche in der Ortsmitte 20-80 mSv. Für das Personal der Badebetriebe ist der Wert noch deutlich höher. Ob den grünen Kur- und Badegästen dies schon einmal aufgefallen ist?

Weiterhin wird festgehalten:

“Because of the generally low doses received, however, there of any measurable effect of Chernobyl radiation exposures general population except for childhood thyroid cancer, since gland were received by children in contaminated areas.”“For the 1152 thyroid cancer cases diagnosed among children in Belarus during1986–2002 and treated, the survival rate was 98.8%. Eight patients (0.7%) died due to progression of the thyroid cancer, and 6 children (0.5%) died from other causes.”

Es ist zu vermuten, dass auch diese Kinder hätten gerettet werden können, wenn erstens die Russen ihre Nachbarn informiert und diese den Betroffenen rechtzeitig Jodtabletten gegeben hätten.

Die Tabletten hätten die Inkorporation des radioaktiven Jods in die Schilddrüse verhindert. Da sie aber zu spät verabreicht wurden, bewirkten sie das Gegenteil, denn nun wurde das Ausscheiden vermindert.

Die Zahl der möglichen zukünftigen Strahlentoten durch Tschernobyl wird durch die UN auf 4.000 beziffert. Da aber in den betroffenen Gebieten (gesamte betroffene nördliche Hemisphäre) in den nächsten 70 Jahren rund 650 Millionen an natürlichen Krebs sterben werden (5) , können nur grüne Rechenkünstler diese statistisch herausfiltern.

Aber selbst diese relativ kleine Zahl von potentiellen Opfern, einer auf 162.500 (0.006‰) natürlichen Krebsopfern, könnte noch zu groß sein, wenn man die Erfahrungen, die durch Hiroshima und Nagasaki gesammelt wurden, ins Kalkül zieht.

Die folgende Tabelle zeigt die Krebstoten durch die Bombenabwürfe verglichen mit einer Bevölkerungsgruppe, die den Einwohnern der beiden Städte entspricht, aber nicht von der Strahlung betroffen wurde. Die erste Spalte gibt die Dosis wieder, die die einzelnen Gruppen der Überlebenden der Abwürfe erhalten haben. Die dritte Spalte beinhaltet die an Krebs gestorben in Hiroshima und Nagasaki, während die 4., die an Krebs gestorbenen in der nicht betroffenen Region enthält. Der gesamte Unterschied beträgt 480 oder rund 0.5% der Überlebenden von Hiroshima und Nagasaki starben infolge der Strahlung an Krebs. 6

Im vergangenen Jahrhundert waren Uhren deren Ziffern nachts leuchteten in Mode. Die Luminosität wurde hierbei durch alpha-Strahlung emittierendes Radium erzeugt. Gefährlich wurde dies für die Ziffernblattmaler deshalb, weil sie den Pinsel mit dem Mund anspitzten. Dadurch gelang das Radium in den Körper, wo es sich in den Knochen ablagerte und in dem die komplette Energie absorbiert wurde.

Untersuchungen zeigten nun, dass von den 191 Arbeitern, die mehr als 10 Gy (100Sv, D=10) im Laufe ihres Arbeitslebens akkumulierten 46 an Knochenkrebs starben. Jedoch unter den 1339 Arbeitern, die weniger als 10 Gy erhielten, gab es keinen Fall von Knochenkrebs. Ein vielleicht noch erstaunlicheres Ergebnis fand man für eine große Anzahl von Beschäftigten (174.541), die in diversen Berufen einer erhöhten Strahlendosis von 24.9 mSv im Mittel über der normalen pro Jahr, ausgesetzt waren.

Die Sterblichkeitsrate an Krebs betrug unter diesen 81-84% (!) gegenüber der vergleichbaren Bevölkerung. Also, Strahlung kann sogar gesund sein. Viele Heilbäder beruhen auf den Effekt, siehe Bad Gastein, Bad Karlsbad (Karoly Vary) etc.

Wie kann man dies verstehen? Es kommt eben immer auf die Dosis an. Strahlung an sich führt nicht zu irreparablen Schäden. Leben hat sich in einer strahlenden Umgebung entwickelt und daran angepasst. Die Natur hat Reparaturmethoden entwickelt, welche ganz effektiv sind, falls nicht kritische Schwellwerte überschritten werden und genügend Reparaturzeit zur Verfügung steht. Deshalb kann ein „Training“ durch unterkritische Bestrahlung zu einer Erhöhung des Schwellwertes führen.

So ein Mechanismus ist in der Physik wohlbekannt und firmiert dort unter den Namen optisches Härten. Dabei wird der Zerstörschwellwert von optischen Materialien gegenüber Laserstrahlung durch gezieltes, vielfaches Bestrahlen mit unterkritischer Laserstrahlung gegenüber unbehandelten Proben erhöht.

So wie der Schwellwert für optische Strahlung stark zwischen den verschiedenen Materialien variiert, gibt es in der Natur auch keinen einheitlichen Wert bezüglich der radioaktiven Strahlung. Die Dosis, bei der nach kurzzeitiger Ganzkörperbestrahlung 50% der Individuen innerhalb von 30 Tagen sterben beträgt für den Mensch 7 Sv, für den Hamster 9 Gy, für die Schnecke 200 Gy und für die Amöbe 1000 Gy. 7Selbst diese hohen Dosen sind keine Absolutwerte. In der Chemotherapie werden häufig viel höhere Dosen eingesetzt um das Leben der Patienten zu retten und nicht um sie umzubringen.

Herr W. (ich habe seinen Bericht vorliegen, möchte aber seine Anonymität wahren) erhielt z.B. vor 2 Jahren 44 Gy ins Gesicht und erfreut sich inzwischen bester Gesundheit. 44 Gy, dieser Wert ist 4 Millionen Mal höher als die von der grünen Expertin gemessene und als dramatisch empfundene Dosis von Fukushima.

Es wäre sicher hilfreicher gewesen, wenn sie statt auf Steuerkosten nach Fukushima zu jetten, man denke nur an den CO2-Ausstoß, eine Strahlenklinik in Deutschland besucht hätte.

Ziehen wir ein Fazit: Der Mensch hat kein Organ zur Wahrnehmung von radioaktiver Strahlung.

Deshalb hat er Jahrtausende furchtlos mit ihr Leben können. Nach deren Entdeckung durch die Curies, den Bau und Einsatz von Atombomben und der poli-tisch gewollten Verknüpfung von atomaren Waffen und AKW hat sich dies grundlegend geändert. Dies ist aber ein politisches und kein physikalisches Problem.

Fukushima hat keine neuen physikalischen Erkenntnisse gebracht. Es hat aber bewiesen, dass ein AKW unbeschädigt ein Erdbeben der Stärke 9 überstehen kann, obwohl es „nur“ für eine Stärke von 8.2 konzipiert war. Das Problem war der Tsunami, der zu dem Ausfall der elektrischen Versorgung führte, und die Knallgasexplosion, welche durch den Einsatz elektrischer Rekombinatoren ver-ursacht wurde. In deutschen AKW werden autarke Rekombinatoren eingesetzt.

Übrigens hat die Bundesregierung gerade eine Gefährdung der unteririschen CO2-Speicherung durch Erdbeben in Deutschland ausgeschlossen. (8)

Aber für oberirdische AKW besteht sie. Frau Merkels Logik wird wohl immer grüner. Eine Verteufelung der Radioaktivität per se ist wider die Natur. Radioaktivität gibt es überall und zwar mit einer ganz großen Bandbreite. Mehr noch, Radioaktivität kann in milden Dosen, die aber ein Vielfaches der angeblichen grünen Grenzwerte betragen, gesundheitsfördernd sein, wie Heilbäder seit Jahrhunderten bezeugen.

Aber auch in sehr hohen Dosen, wie sie in der Krebsbekämpfung verwendet werden, kann sie lebensrettend eingesetzt werden.Der unmotivierte Ausstieg aus der Kernenergie ist wissenschaftlich nicht begründbar und volkswirtschaftlich ein Desaster.

Dr. rer. nat. Bernd Hüttner für EIKE

Ergänzung: Leser Dr. Hinsch – des Japanischen mächtig schreibt uns zu den Berichten über die Strahlenopfer in Fukushima folgendes:

An alle Ungläubigen gegenüber der heutigen Öko-Staatsreligion!  

Am 24. März 2011 ging durch alle Medien ein Bericht, drei AkW-Arbeiter in Fukushima wären schwer verstrahlt worden. Aber was hatte das für Folgen? Nach meiner Kenntnis wurde das von den deutschen Medien unterschlagen. Falls es doch Berichte gibt, die mir entgangen sind, wäre ich für einen Hinweis dankbar.

Da ich aus dem Japanischen übersetzen kann, habe ich die Ereignisse von Fukushima auch anhand der Internetausgabe der "Asahi Shimbun" verfolgt, Japans zweitgrößter Tageszeitung. Da wurde folgendermaßen berichtet:

"Im Block 3 des Kernkraftwerks Fukushima 1 wurden die Arbeiten zur Wiederherstellung der Stromversorgung fortgeführt. 3 mutige Arbeiter setzten sich bei der Verlegung von Kabeln erheblichen Strahlenbelastungen aus"

Und weiter:

"Die Strahlendosen in der oberen Körperhälfte lagen im Bereich von 173 bis 180  mSv (Als Maximalwert hatte man 250 mSv festgesetzt). Bei zwei Arbeitern zeigten sich jeweils an beiden Füßen Symptome, welche auf eine Strahleneinwirkung hindeuteten. Man brachte alle drei in ein Krankenhaus der Stadt Fukushima."

Soweit die Zeitung. 2 Arbeiter waren ohne Gummistiefel in 30 cm hohem Wasser herumgewatet.

Drei Tage später, am 27. März 2011, konnte "Asahi Shimbun" berichten:

"Die 3 Arbeiter, welche mit radioaktivem Wasser in Berührung gekommen waren, werden aus dem Krankenhaus entlassen. Sie hatten Dosen von 2 – 3 Sievert abbekommen.

Das auf Strahlenmedizin spezialisierte Krankenhaus Hoiyaken gab heute bekannt: Die 3 Arbeiter, welche eingeliefert wurden, nachdem sie bei Wiederherstellungsarbeiten im Kernkraftwerk Fukushima 1 mit stark radioaktivem Wasser in Berührung gekommen waren, werden am 28. März 2011 entlassen. Ihre Körper sind gänzlich ohne medizinischen Befund. Zunächst angenommene verbrennungsähnliche Symptome, über die man sich Sorgen gemacht hatte, existieren nicht.

2 von den 3 Arbeitern waren mit ihren Füßen in radioaktivem Wasser gewesen. Die Dosis, welche ihre Füße dabei erhalten hatten, wurde so genau wie möglich ermittelt. Sie lag wahrscheinlich im Bereich von 2 bis 3 Sievert. In den Richtlinien für Arbeitssicherheit ist der obere Grenzwert bei Katastrophen auf 1 Sievert festgesetzt (Anmerkung: Für Hände und Füße); dieser Grenzwert wurde hier um das zwei- bis dreifache überschritten. Bei der Einlieferung ins Krankenhaus hatte man zunächst eine Dosis von 2 bis 6 Sievert angenommen. Durch das Herumlaufen in radioaktivem Wasser könnte auch Radioaktivität in die Körper der betreffenden Arbeiter gelangt sein. Im Krankenhaus wurde berechnet, wie viel das sein kann. Für einen merklichen Einfluss auf die Gesundheit ist es zu wenig."

Wer kann dazu etwas sagen?

Dr. Hermann Hinsch 

Quellen zum Beitrag von Dr. Hüttner:

1 http://www.bundesregierung.de/nn_1264/Content/DE/Rede/2011/06/2011-06-20-bkin-jahreskonferenz-rat-nachhaltige-entwicklung.html

2 http://www.tagesspiegel.de/politik/merkel-einsichten-die-ich-heute-teile/4306078.html

3 A Gabbard ORNL Review 26 (1993) 3 and 4

4 Papp et al. – J. of environmental radioactivity 59 (2002) 191

5 PSI Energiespiegel Nr. 13 (2005)

6 D L Preston et al. –Radiation Research 162 (2004) 377-389

7 http://www-user.tu-chemnitz.de/~mhie/Kerne_Elementarteilchen/KP_ET_10.pdf

8 Deutscher Bundestag Drucksache 17/6149

Der Beitrag kann als pdf im Anhang heruntergeladen werden

Related Files




Klimageld – Zusammenfassung für politische Entscheidungsträger

Trotz der Milliarden: „Audits“ der Wissenschaft werden unbezahlten Freiwilligen überlassen.

Eine bestimmte, aber weitgehend unkoordinierte Basisbewegung von Wissenschaftlern ist um den Globus gejettet, um die Integrität der Theorie zu prüfen und sich mit einem gut finanzierten und wohlorganisierten Klimamonopol anzulegen. Sie haben erhebliche Irrtümer bloßgestellt.

Der Kohlenstoffhandel weltweit erreichte 2008 126 Milliarden Dollar. Banken rufen nach noch mehr Kohlenstoffhandel. Und Experten erwarten, dass der Kohlenstoffmarkt noch 2 bis 10 Billionen Dollar [trillions] erreicht, was den Kohlenstoff zum größten gehandelten Einzelposten macht.*

*Siehe Bemerkung weiter unten vor dem entsprechenden Abschnitt. A. d. Übers.

Auf einem ablenkenden Nebenschauplatz wird inzwischen die Exxon-Mobil-Corp. wiederholt angegriffen, weil sie insgesamt 23 Millionen Dollar an Skeptiker gezahlt haben sollweniger als ein Tausendstel dessen, was die US-Regierung gezahlt hat, und weniger als fünf Tausendstel des Wertes des Kohlenstoffhandels allein im Jahre 2008.

Der riesige Aufwand, der bei der Suche nach einem Zusammenhang zwischen Kohlenstoff und Klima betrieben wird, erzeugt eine enorme Eigendynamik und ein mächtiges Kartell fest begründeter Interessen.

Indem wir so viel Geld in  eine Frage gepumpt haben – haben wir da nicht aus Versehen eine sich selbst erfüllende Prophezeiung geschaffen anstatt einer unvoreingenommenen Untersuchung?

Kann die Wissenschaft eine solche schraubstockartige Umklammerung von Politik und Finanzwelt überleben?

Milliarden im Namen des „Klimas“

Insgesamt wird die US-Regierung während der letzten 20 Jahre bis zum Ende des Finanzjahres 2009 32 Milliarden Dollar [1,2] für die Klimaforschung ausgegeben haben – und weitere 36 Milliarden [3,4,5] für die Entwicklung von Technologien in Bezug auf das Klima. Dies sind aktuelle Zahlen, entnommen den Berichten der Regierung und nicht inflationsbereinigt. Zuwendungen anderer Regierungen oder der globalen Industrie sind darin nicht enthalten.

1989 wurde die erste US-Agentur gegründet, die sich speziell mit dem Thema Klima befassen sollte, mit einem jährlichen Budget in Höhe von 134 Millionen Dollar. Heute hat die Finanzierung die 7000 Millionen-Dollar-Grenze pro Jahr übersprungen, also 50 mal mehr. Steuerkonzessionen kommen dabei noch hinzu (siehe Anhang 1 für Details und Quellen).

Die Ausgaben zeigen also einen sehr steilen Anstieg. Mit enormen Steuererleichterungen und Rettungsfonds, die jetzt im Spiel sind, ist es schwierig herauszufinden, um wie viel wir über der 7-Milliarden-Marke im Finanzjahr 2009 insgesamt liegen. Zum Beispiel beliefen sich die Kosten für Experimente zur Abscheidung von Kohlenstoff allein auf bis zu 3,4 Milliarden [6] im American Recovery and Reinvestment Act aus dem Jahr 2009. (Diese sind bei den 7 Milliarden noch nicht enthalten).

Der bedeutendste Punkt ist, dass nach einer Ausgabe von 30 Milliarden für reine wissenschaftliche Forschung noch niemand in der Lage ist, auch nur einen einzigen Beweis dafür vorzulegen, dass das anthropogene CO2 einen signifikanten Einfluss auf das Klima hat [7]

Falls Kohlenstoff nur ein geringer Mitspieler beim globalen Klima ist, wie es das Fehlen von Beweisen nahe legt, würden die Programme „Climate Change Science Program (CCSP)“ und das „Climate Change Technology Program(CCTP)“ sowie einige Anreize für grüne Belange und Steuererleichterungen wenige, geringe oder gar keine Grundlagen für ihre Existenz haben. Während die Vorhersage von Wetter und Klima kritisch ist und es andere gute Gründe gibt, alternative Energiequellen zu entwickeln – niemand kann behaupten, dass die Tausende Mitspieler, die diese Dollarmilliarden erhalten haben, irgendeinen realen Trieb verspüren zu „verkünden“, die Nichtsignifikanz der Rolle des Kohlenstoffs gefunden zu haben.

Ausgaben der US-Regierung von 1989 bis 2009

(Millionen Dollar)

Wissenschaft

Technologie

Hilfe für Ausland

Steuererleichterungen*

Insgesamt

32 508

36 136

  3 506

  6 919

79 069

*2003 bis 2008, ohne die Multimilliarden Dollar Finanzzuschüsse [financial recovery packages] vom Oktober 2008 und Februar 2009

 

Durch das Errichten von Handelsnetzwerken, Steuerkonzessionen und internationalen Bürokratien, bevor Beweise vorgelegt werden konnten, haben wir damit nicht sichergestellt, dass unser Verständnis von der Rolle des Kohlenstoffs in der Klimawissenschaft vorankommt, aber dass sich unser Verständnis jedes anderen Aspektes der Klimawissenschaft nicht in gleichem Maße verringert?

Die monopolistische Förderung erzeugt einen Sperrriegeleffekt, bei dem selbst über die unbedeutendsten Ergebnisse der AGW-Ergebnisse berichtet wird, und zwar wiederholt, mit Triumphgeschrei und mit absoluter Sicherheit, während jedwedes Ergebnis, das gegen AGW spricht, eine Lüge ist, von unqualifizierten Leuten stammt, ignoriert und verzögert wird. Die Begutachtung von AGW ist so unterfinanziert, dass es zum größten Teil unbezahlten Bloggern vorbehalten ist, die online Spenden von besorgten Bürgern sammeln. Diese Auditoren, oftmals Wissenschaftler im Ruhestand, stellen der Gesellschaft kostenlos einen wertvollen Service zur Verfügung, und doch werden sie im Gegenzug angegriffen, missbraucht und beleidigt.

Am Ende wird die Wahrheit herauskommen, aber wie viel Schaden wird angerichtet sein, während wir auf Freiwillige warten, um die Behauptungen der finanziell Überfütterten einer Begutachtung zu unterziehen?

Der verstohlene Masseneintritt von Bankiers und Händlern in den Hintergrund der wissenschaftlichen „Debatte“ stellen schwere Bedrohungen des wissenschaftlichen Prozesses dar.

Das „Milliarden-Dollar“-Versprechen für die Rohstoffmärkte – mit allem finanziellen Potential dafür, dass die menschlichen Emissionen von Kohlendioxid eine signifikante Rolle beim Klima spielen – kann man sicher mit einer Schlammdecke vergleichen, die über einer offenen leidenschaftslosen Analyse liegt.

All das bedeutet, dass wir große Extrasorgfalt aufwenden müssen, um uns nur auf die Beweise zu konzentrieren, die Wissenschaft, die empirischen Daten. Unlogik und Unvernunft umwölken eine Debatte, die ohnehin schon vollgeladen mit Verzerrungen ist. Wenn es so viele Anreize gibt, die Unklarheiten und Überkomplexitäten ermutigen, braucht die einfache Wahrheit viel Hilfe, um an die Spitze zu rücken. Aber wer fördert die Gegen-PR-Kampagne – wenn jetzt selbst Exxon aus dem Theater der Wissenschaft hinaus gebrüllt wurde? Es gibt kaum irgendwelche Gelder, um die natürlichen Gründe der Klimaänderungen zu erforschen, während für die Erforschung unnatürlicher Kräfte Milliarden über Billionen ausgegeben werden.

In dieser wissenschaftlichen Diskussion ist die eine Seite geknebelt, während die andere Seite über eine von der Regierung geförderte Medienkampagne verfügt.

 

30 Milliarden Dollar für eine monopolistische Wissenschaft

Ein Prozess ohne Verteidigung ist Betrug

Wirtschaft ohne Wettbewerb ist ein Monopol

Wissenschaft ohne Diskussion ist Propaganda

 

Der wissenschaftliche Prozess wurde deformiert. Eine Seite der Theorie erhielt Milliarden, während die andere Seite so ärmlich finanziert ist, dass die Überwachung dieser Forschung als Gemeinschaftsservice übrig bleibt, und zwar für Leute mit der Erfahrung von Experten, einer dicken Haut und Leidenschaft aus Passion. Eine Art von „sich eines Irrtums annehmen“.

Kann die Wissenschaft diesen Klammergriff von Politik und Großfinanz überleben?

Trotz der Milliarden schweren Dollarunterstützung wurden himmelschreiende Fehler gemacht. Besonders einer der Heuler [howler] schrieb die Geschichte um und kam damit jahrelang durch, bis ein engagierter, ohne Bezahlung arbeitender Untersucher den Betrug um den Hockeyschläger aufgedeckt hatte. Mittlerweile sind Agenturen wie das Goddard Institute of Space Studies GISS nicht in der Lage, Temperaturfühler zu installieren, die ihren eigenen Vorschriften genügen, weil die Arbeiter kaum ausgebildet und lediglich mit Gartenschippen und Spaten ausgerüstet sind. NOAA „adjustiert“ die Daten nach der Messung – offensichtlich, um die [Werte der] Sensoren zu kompensieren, die zu dicht an den Austrittsöffnungen von Lüftungsanlagen oder Parkplätzen liegen, und doch erhebt sich die Frage: Wenn das Klima das größte Problem ist, dem wir derzeit gegenüber stehen; und falls die Milliarden von Dollar gebraucht werden, warum können wir die Thermometer nicht ordnungsgemäß installieren?

Wie ernst ist es ihnen, ordentliche Daten zu erhalten? Oder sind sie nur darauf aus, die „richtigen“ Daten zu bekommen?

Die Gesamtzahl von Interessengruppen in der Klimawissenschaft ist viel größer als nur die Wissenschaftler, die echte Forschung betreiben. In der Unterstützung in Höhe von 30 Milliarden Dollar (Abbildung oben) für die CCSP sind noch nicht Arbeiten für grüne Technologien wie Verbesserung von Solarzellen oder das Verpressen eines harmlosen Gases in den Untergrund enthalten. Die Zuwendungen für Klimatechnologien liegen buchstäblich doppelt so hoch wie die involvierten Gelder und füttern einen viel größeren Pool von ehrbar aussehenden Leuten mit einem eindrucksvollen wissenschaftlichen Gehabe, die noch mehr Presseverlautbarungen ausgeben – wovon die meisten wenig mit grundlegender atmosphärischer Physik zu tun haben, sondern immer nur die Hypothese wiederholen, dass sich das Klima wegen der menschlichen Emissionen erwärmen wird. Mit anderen Worten: eine 30 Milliarden Dollar teure Jubeleinheit.

Eine große Menge einseitiger Forschung sorgt nicht für eine faire Diskussion

Die von der Regierung bezahlten Wissenschaftler müssen nicht unehrlich gegenüber der Wissenschaft sein, um verzerrte Ergebnisse zu liefern. Sie müssen einfach nur ihre Arbeit machen. Wenn wir 100 Leute beauftragen, nach Eidechsen im Dschungel zu suchen, würde es da jemanden überraschen, wenn er einen Elefanten auf der Ebene sieht? Wenige Leute werden bezahlt oder belohnt, um das IPCC oder damit verbundene Organisationen zu überwachen. Wo befindet sich die Abteilung für solare Einflüsse oder das Institut für natürliche Klimaänderungen?

Tausende Wissenschaftler erhielten Zuwendungen, um eine Verbindung zu finden zwischen menschlichen Kohlenstoffemissionen und dem Klima. Kaum jemand wurde dafür bezahlt, das Gegenteil zu finden. Man wende 30 Milliarden Dollar zur Beantwortung einer Frage auf, wie kann es dann sein, das brilliante, überzeugte Leute 800 Seiten von Verbindungen, Links, Vorhersagen, Projektionen und Szenarien nicht finden konnten? (Wobei wirklich erstaunlich ist, was sie noch nicht gefunden haben: empirische Beweise!)

Und Wissenschaftler sind menschlich, sie haben Hypotheken und Kinder. Falls das Geld von Exxon irgendeine Anziehungskraft hat, muss das Geld von der Regierung auch „ziehen“.

Ich kann es nicht besser ausdrücken als Al Gore in einem Film Eine unbequeme Wahrheit:

Es ist schwierig, einen Menschen dazu zu bringen, etwas zu verstehen, wenn sein Gehalt davon abhängt, dass er es nicht versteht. – Upton Sinclair, 1935

Ironischerweise war es Al Gore selbst, der sicher stellte, dass das US Global Change Research Program (USGCRP) von 1993 bis 2000 so umfangreich gefördert worden ist. Wir haben Milliarden dafür aufgewendet, herausragende Gehirne auf einen Blickwinkel, ein Thema, einen Grund zu konzentrieren. Das ist eine Menge Holz!

 

Milliarden für „das Klima“, aber die Überwachung wird unbezahlten Freiwilligen überlassen

Die besten Beispiele für unbezahlte Begutachtungen sind die Arbeiten von unabhängigen Wissenschaftlern wie Steve McIntyre [8] und Anthony Watts. Hier haben wir die ironische Situation, in der erfahrene Arbeiter einen kostenlosen Beratungsservice zur Verfügung stellen, um der größten Einzelinstanz des Planeten zu „assistieren“.

Steve McIntyre hatte eine mathematische Ausbildung und arbeitete 30 Jahre lang in der Erkundung von Mineralien [9] (und hat niemals trotz gegenteiliger Behauptungen für die Ölindustrie gearbeitet). Hier folgt die Hockeyschlägerkurve aus dem Zustandsbericht des IPCC 2001:

Die in die Irre führende „Hockeyschläger“- kurve

McIntyre kam die Hockeyschlägerkurve verdächtig vor, weil sie ihn an einen Bre-X–Schwindel [?] erinnerte. Er ist im Ruhestand und arbeitete mit großem eigenen personellen Aufwand ohne jede Bezahlung [10].

McIntyre fand empörende Fehler [11] in der Hockeyschlägerkurve, einer Kurve, die jahrhundertelange historische Aufzeichnungen, archäologische Tatsachenbefunde und Daten von fast allen anderen Quellen außer unzuverlässigen „Baumringen“ einfach auslöschte. (Baumringe werden auch durch die Regenmenge und das Angebot an Nährstoffen beeinflusst). McIntyre fand, dass der von Michael Mann erzeugte und wiederholt im IPCC-Bericht 2001 zitierte Graph so schlecht konstruiert war, dass es möglich war, beliebige Daten als „Rauschen einzugeben und immer wieder ein Hockeyschläger herauskam. Eine wirkliche wissenschaftliche Begutachtung hätte darauf hinweisen müssen! Statt dessen stand der Graph drei oder vier Jahre lang im Mittelpunkt, bis ein entschlossenes skeptisches Individuum die Daten in Frage stellte (welche erst unangebracht, dann ungenau, dann inkonsistent waren) und die Statistiken genau unter die Lupe nahm.

McIntyre und Ross McKitrick fuhren fort, wissenschaftlich begutachtete Studien zu veröffentlichen [12, 13, 14]. Wegman und andere unabhängige Statistikexperten unterstützten McIntyre und McKitrick [15]. Craig Loehl untersuchte den gleichen Zeitraum mit anderen Proxies als Baumringen, und die Tatsache der Mittelalterlichen Warmzeit und der Kleinen Eiszeit stachen wieder heraus [16].

Die Kombination von 18 Reihen nicht aus Baumringen stammender Daten der letzten 2000 Jahre zeigt eindeutig die Mittelalterliche Warmzeit und die Kleine Eiszeit und demonstriert offenkundig, wie sehr der „Hockeyschläger“ in die Irre führt.

Ganz ähnlich hat Anthony Watts, ein ehemaliger Fernsehmeteorologe, eine Gruppe von 650 Freiwilligen rekrutiert, die mehr als 800 Temperatursensoren des United States Historical Climatological Network (USHCN) [18] fotografieren und beschreiben sollten – was eigentlich Aufgabe der NOAA [National Oceanic and Atmospheric Administration, die US-amerikanische Wetterbehörde] selbst wäre. Obwohl sie rund 4 Milliarden Dollar pro Jahr an Zuwendungen erhalten hatte, unternimmt die NOAA keine umfassenden Untersuchungen der Aufstellungsorte, um sicherzustellen, dass die Sensoren den erforderlichen Standards genügen.

Die Mehrzahl der Temperaturfühler der NOAA liegt neben Abluftschächten, Parkplätzen, Gebäuden und anderen künstlichen Wärmequellen.

Das sind keine kleinen Abweichungen der Messpunkte, die Anthonys Team von Freiwilligen fotografiert hat. Stationen für die Aufzeichnungen stehen neben Abluftschächten (Abbildung 5), über Asphalt von Parkplätzen, auf kochend heißen Dachspitzen aus Beton und neben geheizten Gebäuden.

Die Untersucher fanden, dass 89% aller bisher untersuchten Stationen nicht die vom Nationalen Wetterbüro selbst aufgestellten Standards erfüllten. [20]

Erneut sind die Mängel systematisch. Da als Sensor anstelle der Thermometer heute elektronische Messfühler die Daten anzeigen, wurden sie durch Leute installiert, die lediglich mit Kreuzhacken und Schaufeln ausgerüstet waren. Wurden frühere Sensoren im Freien über Gras und weit entfernt von einem Parkplatz errichtet, sind die neuen Messfühler elektronischer Natur, d. h. sie benötigen Stromversorgung aus Gebäuden. So war es keine Überraschung, dass sie an weniger idealen Stellen viel dichter am Gebäude aufgestellt wurden. Wer würde sich schon per Hand nur mit einem Spaten bewaffnet durch einen asphaltierten Parkplatz wühlen, um Platz für das Kabel zu schaffen?

Das Team bei der NOAA zieht es vor, „mathematische Anpassungen“ vorzunehmen, um die Nachteile der Lokalität und den „urbanen Wärmeinseleffekt“ auszugleichen. Wenn sie wirklich daran interessiert wären, die Daten korrekt zu ermitteln, hätten sie dann nicht einfach alle Stationen ausschließen sollen, die an nicht geeigneten Plätzen stehen, bis zu der Zeit, an der diese Ausgleichswerte ordnungsgemäß ermittelt sind? Hätten sie nicht für einen Gräben ziehenden Bagger zahlen sollen?

Das monopolistische Zuwendungs-„Raster“

Es muss sich nicht unbedingt um eine Verschwörung handeln. Es bedarf nicht irgendeines zentral gesteuerten Betrugs oder verdeckter Instruktionen. Stattdessen ist es das Fehlen von Zuwendungen an Alternativen, das ein Vakuum hinterlässt und systematisches Scheitern erzeugt. Die Kraft monopolistischer Förderung wirkt wie ein Rastersystem auf die Wissenschaft. Die Ergebnisse können in beide Richtungen weisen, aber die Förderung bedeutet, dass nur Ergebnisse von einer Seite der Gleichung „Zugkraft“ entfalten.

Gedanken, die die Rolle des Kohlenstoffs beim Klima in Frage stellen, werden mit einem feinen Kamm durch große Teams bezahlter Forscher durchgekämmt. Werden echte Irrtümer gefunden, werden sie laut und wiederholt verkündet; und falls es sich um irrelevante oder imaginäre Irrtümer handelt, werden diese auch verkündet, manchmal sogar mit noch mehr Lärm. Aber Gedanken, die die Rolle des Kohlenstoffs beim Klima stützen, sind Gegen­stand einer ganz anderen Art der Analyse. Die im AGW-Team schauen nach, ob sie die Rolle des Einflusses von Kohlenstoff unterschätzt haben, oder befinden sich in einem so offensichtlichen Irrtum, dass es „das Team“ in eine peinliche Lage bringt. Da es nur eine kleine Anzahl von Forschern gibt, die die natürlichen Gründe untersuchen, oder Leute, die von der Verteidigung nicht kohlenstoffbasierter Gründe  profitieren, gibt es niemanden, der a priori motiviert ist, intensiv nach nicht so offensichtlichen Fehlern zu suchen. Daher können die pro-AGW-Gedanken nur kurz eingehender untersucht werden sowie durch unbezahlte Ruheständler, auf Spenden angewiesene Blogger oder bei der Regierung angestellten Wissenschaftlern, die in anderen Bereichen arbeiten – wie z. B. Geologen, die allen Grund haben, skeptisch zu sein, die aber nicht notwendigerweise in, sagen wir, atmosphärischer Physik geübt sind.

Normalerweise ist das kein großes Problem, weil die Verlockung von Ruhm und Glück durch das kategorische Zersprengen eines weithin akzeptierten Gedankens für einige Leute attraktiv ist. In den meisten Bereichen der Wissenschaft werden diejenigen, die eine große Studie in Nature oder Science zerpflücken, plötzlich öfter zitiert; sind die Nächsten in der Reihe der Promotion und haben es leichter, Zuwendungen zu erhalten. Sie motivieren PhD-Studenten, ihnen zu helfen, werden eingeladen, auf mehr Tagungen zu sprechen und in der Programmfolge weiter nach oben gehievt. In der Klimawissenschaft dagegen besteht die Belohnung in persönlichen Angriffen auf Sites wie Desmog [21], ExxonSecrets [22] oder Sourcewatch [23]. Diese Sites wurden geschaffen, um jeden einzelnen Fehler zu jedem Thema aufzulisten, das sie bearbeitet haben, um  Verbindungen anzuzeigen, die sie vielleicht mit der Industrie fossiler Energie gehabt haben könnten, wobei es keinen Unterschied macht, vor wie langer Zeit die jeweilige Arbeit erschienen ist, oder wie prekär. Diese Kampfhunde-Sites greifen auch Ihre religiösen Überzeugungen an, sofern Sie welche haben. Roy Spencer beispielsweise wurde wiederholt angegriffen, weil er Christ ist (allerdings hat bisher niemand einen Grund dafür genannt, warum das seine Satellitendaten beeinflussen könnte).

Ironischerweise werden die „aktivistischen“ Websites von bezahlten Bloggern betrieben. DeSmog ist ein bezahlter Ableger einer professionellen PR-Gruppe Hoggan und Associates [24] (welche bezahlt werden, um Kunden wie die David Suzuki Foundation, ethische Gruppen sowie Kompanien, die alternative Energiequellen wie Wasserkraft, Wasserstoff und Brennstoffzellen verkaufen, zu fördern) [25]. ExxonSecrets wird durch Greenpeace unterstützt [26] (die von Spenden leben, um den Planet zu „retten“ und die vermutlich besser dran wären, wenn der Planet wirklich Rettung brauchen würde).

In den meisten wissenschaftlichen Bereichen sucht man nach Antworten und versucht nicht, nur eine Seite einer Hypothese zu beweisen. Es gibt einige wenige Forscher, die bezahlt werden, um die Hypothese der globalen Erwärmung zu widerlegen, und die meisten davon werden einer Untersuchung unterzogen und an den Pranger gestellt, als ob sie sich wie ein Politiker auf offizielle Ämter bewerben. So funktioniert Wissenschaft nicht, durch persönliche Angriffe!

Die Einschüchterung, Respektlosigkeit und die Ausgrenzung und Ächtung, denen Menschen ausgesetzt sind, die renitente Fragen stellen, gleicht einem Akt der Zensur. Nicht viele Bereiche der Wissenschaft haben Wissenschaftlern schmierige Sites gewidmet. Geld zählt!

Der angesehene MIT-Klimatologe Richard Lindzen [MIT = Massachusetts Institute for Technology. A. d. Übers.] hat sich gegen den Druck ausgesprochen, mit den Wölfen zu heulen, und beklagt sich über den Verlust großer Forscher:

Leider ist dies nur die Spitze eines niemals schmelzenden Eisbergs. In Europa wurde Henk Tennekes als Forschungsdirektor der Royal Dutch Meteorological Society abgelöst, nachdem er die wissenschaftlichen Belege für die globale Erwärmung in Frage gestellt hatte. Aksel Winn-Nielsen, der frühere Direktor der Weltorganisation für Meteorologie (WMO) bei den UN wurde von Bert Brolin, erster Leiter des IPCC, als ein Werkzeug der Kohleindustrie gebrandmarkt, nur weil er den Klimaalarmismus in Frage gestellt hatte. Die angesehenen italienischen Professoren Alfonso Sutera und Antonio Speranza verschwanden 1991 aus der Diskussion, offensichtlich weil man ihnen die Förderungen strich, weil sie Fragen gestellt hatten.

Die Kombination von fehlender finanzieller Unterstützung plus eine garantierte voreingenommene Prüfung sowie Drohungen mit dem Verlust des Arbeitsplatzes würde ausreichen, um viele zu entmutigen, die sich der umstrittenen Seite des Feldes annehmen oder ihre Meinung frei aussprechen, wenn sie den „Glauben“ in Frage stellen.

Schließlich fehlt es den Freiwilligen und isolierten Forschern an Infrastruktur. Obwohl die Theorie des Main Stream einigen Verifikationen unterzogen wird, stehen den meisten Wissenschaftlern, die Fehler finden, keine bezahlten Teams von PR-Experten zur Verfügung, um zahlreiche Presseerklärungen zu veröffentlichen, oder die Stunden und Monate aufzuwenden, die erforderlich sind, um Studien in Magazinen zu veröffentlichen. Das heißt, wenn ein Fehler gefunden wird, würden das nur wenige außerhalb der Industrie mitbekommen.

Die monopolistische Fördermaschine stellt sicher, dass selbst unwichtige oder falsche Analysen von Faktoren, die das Klima antreiben, länger unterstützt werden können als sie sollten, während die wirklichen Probleme  klein geredet, ignoriert und verzögert werden.

In einem so neuen Bereich wie der Klimawissenschaft können sich viele Dinge im Laufe von zehn Jahren ändern. Der Fortschritt zum Verständnis des planetarischen Klimas hat sich auf Schneckentempo verlangsamt.

Welche Motivation steckt dahinter zu beweisen, dass AGW falsch ist?

Wie viele Experten würden ihren Weg verlassen, um ihre eigene Expertise und Erfahrung weniger bedeutsam zu machen? Vor dem Hintergrund, dass die Förderung von dem Beweis abhängt, dass Kohlenstoff das Klima kontrolliert und damit die Klimawissenschaft selbst von entscheidender Bedeutung ist, ist es ein Kreislauf sich selbst sanktionierender Interessengruppen. Ja, schlaue Klimawissenschaftler können in anderen Bereichen beschäftigt werden. Aber wenn den Wählern plötzlich klar wird, dass Kohlenstoffemissionen nur eine geringe Rolle spielen und die Menschen nur einen kleinen Einfluss haben, würden Tausende Menschen bzgl. ihrer Arbeit etwas zu ändern haben, und Änderung ist schmerzhaft. In keiner Industrie ist es möglich, damit zu argumentieren, dass die Spezialisten es vorziehen würden, die halbe Förderung und den halben Status zu haben. Die meisten von ihnen würden auch bei der nächsten Gehaltserhöhung leer ausgehen, könnten ihre Arbeit verlieren oder zumindest Einiges von ihrer Kaufkraft. Sie bekommen nicht die verbesserte Ausrüstung, die sie sich wünschen, oder sie verlieren an Statur, weil, nun, Klimatologie „wichtig“ ist, aber da wir nicht das Wetter ändern können, laden wir ausgewiesene Experten nicht in unsere Komitees ein oder zu genauso vielen Konferenzen.

Man kann getrost davon ausgehen, dass die meisten Wissenschaftler ehrlich sind und hart arbeiten, aber selbst dann, wer würde sich darüber lustig machen, dass sie genauso viel Zeit und Mühe dafür aufwenden würden, AGW zu widerlegen, wie aufgewendet wird, AGW zu beweisen? Wenn ihre Reputation und ihre Förderung auf dem Spiel stehen, schwitzen und schaffen sie bis spät in die Nacht, um herauszufinden, warum sie recht haben und die anderen unrecht. Wettbewerb bringt auf beiden Seiten die Besten hervor.

Einige behaupten, dass sie dem wissenschaftlichen Prozess als solchen vertrauen, und dass sich die richtigen Antworten mit der Zeit herausstellen – was vermutlich stimmt. Aber wie John Maynard Keynes in seinem berühmten Ausspruch sagte: „Langfristig müssen wir alle sterben“. Es gibt bessere Wege, als auf das Nachleben zu warten. Verspätete Wissenschaft ist abgelehnte Wissenschaft.

Verlangsamung der Wissenschaft ist endlos fortgesetzte Propaganda [Science slowed is propaganda perpetuated].

 

Das „Wer-ist-schuld“-Spiel von Exxon ist ein ablenkender Nebenschauplatz

Viel Aufmerksamkeit in den Medien wurde schonungslos auf den Einfluss von „Big Oil“ konzentriert – aber die Zahlen rechnen sich nicht. Exxon Mobile wird nach wie vor verunglimpft [28], weil es angeblich über einen Zeitraum von etwa zehn Jahren um die 23 Millionen Dollar an Skeptiker des verstärkten Treibhauseffektes gezahlt haben soll. Das sind etwa 2 Millionen pro Jahr, verglichen mit den Ausgaben der US-Regierung in Höhe von etwa 2 Milliarden Dollar pro Jahr. Die gesamte von Exxon zur Verfügung gestellte Förderung beläuft sich auf weniger als ein Fünftausendstel des Wertes des Kohlenstoffhandels im Jahr 2008 allein.

Offensichtlich hat Exxon mit kaum 0,8% dessen, was die US-Regierung in jedem Jahr in die Klimaindustrie pumpt, die „Debatte sehr stark verzerrt“. (Falls das so sein sollte, ist es ein weiterer vernichtender Beweis dafür, wie effektiv die Förderung durch die Regierung wirklich ist).

Ein Beispiel zum Vergleich: Fast dreimal so viel wie das, was Exxon ins Spiel gebracht hatte, wurde in das Projekt zur Abscheidung von Kohlenstoff gesteckt [Big Sky Sequestration Project] [29], um gerade mal 0,1% des jährlich in den USA anfallenden Kohlendioxids in ein Loch im Boden zu pressen. Die australische Regierung ist der Förderung durch Exxon mit gerade mal einer Wohlfühlkampagne begegnet unter dem Motto „Denk ans Klima! Denk an die Änderung! [Think Climate! Think Change], (aber mach dir keine Gedanken über die Details)!

Hätte sich Exxon die gnadenlosen Angriffe vielleicht erspart, wenn es Geld sowohl pro als auch kontra AGW ausgegeben hätte?  Vermutlich nicht, denn es hat mehr als viermal so viel ausgegeben für das Global Climate and Energy Project (GCEP) in Stanford [32, 33]. Das schwere Verbrechen von Exxon besteht offenbar darin, den Skeptikern überhaupt zu irgendeiner Stimme zu verhelfen. Die Zensur muss vollständig bleiben.

Die Gifterei gegen Exxon kam von 2005 bis 2008 auf Hochtouren. Umweltgruppen drängten auf einen Boykott von Exxon wegen deren Ansichten zur globalen Erwärmung [34]. Die Firma wurde als ein Feind des Planeten abgestempelt [35]. James Hansen machte sich dafür stark, die Vorstandsmitglieder fossiler Energiefirmen wegen schwerer Verbrechen gegen die Menschlichkeit und gegen die Natur anzuklagen. Im nächsten Atemzug nannte er Exxon.

Selbst die Royal Society, die eigentlich für Wissenschaftler offen sein und auch für einwandfreie Standards der Logik stehen sollte, stimmte in den Chor gegen Exxon mit ein und bat die Firma inständig, sich bei ihren Äußerungen zu mäßigen [to censor its speech] [37]. Der beispiellose Brief dieser 350 Jahre alten Institution listete vielfältige Appelle an die Behörden, nannte aber keinen einzigen empirischen Beweis, der die Behauptung, dass der Zusammenhang zwischen Kohlenstoff und Temperatur jenseits aller Diskussionen und Zweifel sei, gestützt hätte. Die Royal Society behauptet von sich, dass sie Wissenschaftler unterstützt, aber wenn sie sich auf die trügerischen Aussagen der Behörden verlässt, wie kann sie dann jemals die ‚Whistle blowers’ unterstützen, die definitionsgemäß die „Autoritäten“ in Frage stellen?

Während Exxon wiederholt dafür angegriffen wurde, diese unbedeutende Menge an Geld aufgewendet zu haben, gibt es nur wenige, die jemals die Zuwendungen pro AGW aufgelistet haben. Wo sind die Fragen stellenden Journalisten? Geld, das vom Steuerzahler kommt, ist irgendwie Ansporn, während jedwedes Geld von Big Oil in einem freien Markt der Ideen automatisch ein „Verbrechen“ ist. Die Ironie liegt darin, dass das Geld des Steuerzahlers sofort gewaltsam abgeschöpft wird*, während Exxon das Geld durch Tausende freiwilliger Transaktionen verdienen muss.

*Das ist keine Übertreibung! Versuchen Sie mal, „keine Steuern zu zahlen“! Anm. im Original!

Diejenigen, die Exxon wegen deren 2 Millionen Dollar pro Jahr angreifen, ziehen die Aufmerksamkeit ungewollt von den wirklichen Machtspielchen ab und agieren als unbezahlte PR-Agenten für riesige Handelshäuser und große Banken, die es durchaus aushalten mit etwas Unbequemlichkeit durch Grüne [greenies] und Umweltaktivisten. An anderen Tagen werfen einige dieser Gruppen Steine auf die Bankiers.

Der Nebenschauplatz der Schuldzuweisung an Big Oil verschleiert die Wahrheit: Dass es nämlich wirklich nur darum geht, ob es irgendeinen Beweis gibt, und dass die Skeptiker eine Basisbewegung sind mit sehr angesehenen Wissenschaftlern und einer wachsenden Zahl unbezahlter Freiwilliger.

Noch größeres Geld kommt ins Spiel

Vorbemerkung des Übersetzers zu diesem Abschnitt: Der ganze Aufsatz datiert vom Juli 2009 und bezieht sich auf die USA. Damals war dort  der Traum vom großen Geld durch den Kohlenstoffhandel noch nicht ausgeträumt. Der folgende Abschnitt ist in dieser Hinsicht also überholt. Jedoch erscheint es sehr interessant, welche Träume selbst gestandene „Fachleute“ damals hatten und was davon übrig geblieben ist – vor dem Hintergrund, dass der Kohlenstoffhandel in den USA inzwischen nicht mehr existiert.

Finanzielle Rettungsaktionen und Steuernachlässe schlucken, was übrig ist.

Neue Provisionen der Förderung seit der Finanzkrise vom September 2008 sind in der obigen Tabelle nicht enthalten. Es ist schwierig, die Angaben strikt nach Finanzjahren zu trennen – und doch sind die Zahlen gigantisch und erreichen auf dem Graphen der Förderung potentiell die Skala sprengende Dimensionen.

Die Gesetzgebung zur finanziellen Erholung, die Präsident Bush am 3. Oktober 2008 unterzeichnet hatte [38] schloss das Gesetz zur Steigerung der Energieeffizienz und –ausweitung aus dem Jahr 2008 mit ein [39], in welchem etwa 17 Milliarden Dollar Steuergelder [40] für saubere Energien enthalten waren.

Dann, im Februar 2009, kam das 787 Milliarden Dollar teure Gesetz zur amerikanischen Erholung und Reinvestitionen [41], in dem um 110 Milliarden teure Investitionen [42] in saubere Energie enthalten sind. Viele dieser Investitionen trotzen einer einfachen Katalogisierung. Zum Beispiel ist die Forschung zu den alternativen Energien wertvoll, unabhängig davon, ob Kohlendioxid ein Problem ist oder nicht – obwohl es nicht so dringend ist. Aber Ausgaben in Höhe von 3,4 Milliarden Dollar zur Abscheidung von Kohlenstoff haben keine anderen Ziele oder Nutzen. Sie hängen zu 100% von der Hypothese ab, dass Kohlendioxid ein gefährlicher Luftverschmutzer ist.

Größer als die Große Regierung – Große Banken

Obwohl die Regierung während der letzten 20 Jahre etwa 70 Milliarden Dollar an Einfluss aufgewendet hat, verblasst diese Zahl im Vergleich mit der rasant wachsenden Kraft des Kohlenstoffhandels. Der Weltbank zufolge verdoppelte sich der Umsatz von 63 Milliarden im Jahre 2007 auf 126 Milliarden im Jahre 2008* [43].

Es ist keine Überraschung, dass die Banken das tun, was sie tun sollten: sie folgen dem Versprechen von Profiten und drängen daher die Regierungen, den Kohlenstoffhandel zu übernehmen [44, 45]. Obwohl sich Banken als gute und kooperierungswillige Mitbürger gerieren, finden sie den Gedanken einer nicht handelbaren Kohlenstoffsteuer als nicht ansprechend. Es könnte „dem Planeten helfen“, würde aber nicht ihren Bilanzen helfen.

Das Potential, das in einer völlig neuen verordneten Währung steckt, treibt Banken und Finanzinstitute „total unter eine Decke“ mit einer wissenschaftlichen Theorie [46].

Der 10-Billionen-Dollar-Gorilla in der Küche

Kommissionsmitglied Bart Chilton, Leiter des Beratungsgremiums für die Energie- und Umweltmärkte des Commodity Futures Trading Commission (CFTC), hat prognostiziert, dass der Kohlenstoffmarkt innerhalb der nächsten fünf Jahre jeden Markt marginalisieren wird, den seine Agentur derzeit reguliert: „Ich kann im Kohlenstoffhandel einen 2 Billionen-Dollar-Markt erkennen“ [47]. „Der größte Rohstoffmarkt der Welt“ [48]

Chilton entwirft folgende Perspektive: „Er würde nicht so groß sein wie einige der Finanzmärkte, aber er wäre größer als jeder echte Rohstoffmarkt“ [49].

Der in London ansässige Investitionsberater New Carbon Finance, der den Markt verfolgt, prognostiziert, dass der Kohlenstoffmarkt bis 2020 3 Billionen Dollar erreichen wird [50].

Richard L. Sandor, Vorsitzender und geschäftsführender Direktor von Climate Exchange Plc, dem die größte Kohlendioxidhandelsbörse gehört, sieht sogar einen noch größeren Markt:

„Wir werden einen weltweiten Markt bekommen, und Kohlenstoff wird eindeutig die größte nicht-kommerzielle Handelsware der Welt sein“. Er prognostiziert ein Handelsvolumen von insgesamt 10 Billionen Dollar pro Jahr [51].

Mit anderen Worten, der Kohlenstoffhandel wird größer als Öl, und selbst die Aussicht auf einen so massiven und lukrativen Markt repräsentiert ein wesentliches Interesse.

Wie Bart Chilton sagt: „Diese Angelegenheit ist so wichtig für unsere Wirtschaft und unsere Welt, dass wir es von Anfang an richtig anstellen müssen“.

Das „von Anfang an“ beginnt mit der Wissenschaft. Sollte es keinen Beweis dafür geben, dass wir [den Ausstoß von] Kohlenstoff einschränken müssen, gibt es keine Notwendigkeit, damit zu handeln.

 

Es steht und fällt mit dem Beweis

Selbst wenn die monopolistische Förderung die Wissenschaft beeinflusst wurde, sagt uns die Gesamtsumme Geldes, die an jede Seite gezahlt wurde, nichts darüber aus, ob sich das Klima der Erde wirklich erwärmt oder ob diese Erwärmung wegen des Kohlendioxids erfolgt.

Diese Studie möchte zum Ausdruck bringen, dass der wissenschaftliche Prozess (wie jedes menschliche Unternehmen) durch eine massiv einseitige Förderung durch Geld verzerrt werden kann.

Welchen Nutzen sollte das Geld haben, wenn es keinen Einfluss hätte?

Die Gefahr der Verzerrung im wissenschaftlichen Prozess bedeutet, dass wir uns strikt auf die Frage des Beweises konzentrieren müssen. Diese Studie ruft nach mehr Aufmerksamkeit, die man empirischen Beweisen zukommen lassen muss, und danach, Wege zu suchen, die Wissenschaft so zu motivieren, dass sie uns hilft zu entdecken, wie die Welt funktioniert, und zwar auf die bestmögliche und effizienteste Art und Weise.

Falls sich George Bush unwohl dabei gefühlt hatte zu unterschreiben, dass sich die USA an globalen Plänen zur Reduzierung von Kohlenstoffemissionen beteiligen würden, bestand sein vermutlich größter Fehler darin, nicht ein Institut zur Natürlichen Klimaänderung gegründet zu haben, das nach Beweisen für den Einfluss natürlicher Kräfte suchen sollte, und das die wissenschaftlichen Ergebnisse des IPCC sowie von Institutionen wie NOAA und NASA begutachten sollte.

Es fällt schwer sich vorzustellen, dass wir so viel Geld ausgeben, eine Hypothese zu untersuchen und kein Ergebnis erzielen. Monopolistische Förderung testet die Art und Weise, wie wir die Wissenschaft betreiben.

Es wird Zeit, ernsthaft die Wissenschaft zu begutachten, vor allem dann, wenn es um eine Wissenschaft geht, die riesige Regierungsprogramme und riesige Märkte rechtfertigen soll. Wer begutachtet das IPCC?

Alle Hervorhebungen, außer denen in eckigen Klammern, im Original!

Anhang

 

Autorin Joanne Nova

 

 

 Übersetzt von Chris Frey für EIKE 




BP, Greenpeace und der „Big Oil“ Jackpot

Es ist schon be­lus­ti­gend, dass die Öl­ka­ta­stro­phe im Golf von Me­xi­ko den Blick auf die enge Part­ner­schaft zwi­schen den Kli­ma­wan­del-Ak­ti­vis­ten und BP (Bri­tish Pe­tro­le­um) lenkt – eine Fir­ma, auf die der Name "Big Oil" si­cher passt.

Der Wa­shing­ton Post  zu­fol­ge, hat die Grü­ne Grup­pe Na­ture Con­ser­vancy – sie er­mu­tigt Nor­mal­bür­ger, sich per­sön­lich zum Kampf ge­gen den Kli­ma­wan­del zu ver­pflich­ten – "na­he­zu $10 Mil­li­o­nen in bar und Zu­wen­dun­gen an Län­de­rei­en von BP und von mit BP ver­bun­de­nen Fir­men er­hal­ten."

O weh, hat nicht Green­peace eine kom­plet­te ExxonSe­crets Web­sei­te zu­sam­men­ge­baut, um die an­geb­lich teuf­li­sche Tat­sa­che zu ver­öf­fent­li­chen, dass Exxon­Mo­bil wäh­rend neun Jah­ren (1998-2006) ins­ge­samt $2,2 Mil­li­o­nen an ein kon­ser­va­ti­ves In­sti­tut be­zahlt hat?

$10 Mil­li­on ge­gen $2 Mil­li­o­nen! Wer hat denn nun die en­ge­re Be­zie­hung mit Big Oil?

Doch es geht wei­ter. Die Wa­shing­ton Post meint, dass Con­ser­va­ti­on In­ter­na­ti­o­nal $2 Millionen an Zu­wen­dun­gen von BP über die Jah­re er­hal­ten hat. Das ist eine wei­te­re Grü­ne Grup­pe, die den Kli­ma­wan­del seit Jah­ren als "ernst­haf­te Be­dro­hung" dar­stellt und die mit BP in meh­re­ren Pro­jek­ten zu­sam­men­ge­ar­bei­tet hat.

Ist doch lus­tig, dass Green­peace da­rü­ber nicht spricht und das Fol­gen­de auch nicht er­wähnt:

°       BP fi­nan­ziert For­schun­gen zur "Be­kämp­fung des Welt-Kli­ma­prob­lems" an der Prin­ce­ton Uni­ver­si­ty mit im gan­zen $2 Mil­li­o­nen seit 15 Jah­ren,

°       BP fi­nan­ziert ein Ener­gie-For­schungs­in­sti­tut, und zwei wei­te­re US Uni­ver­si­tä­ten mit im Gan­zen $500 Mil­li­o­nen – mit dem Ziel "neue Ener­gie­quel­len zu ent­wi­ckeln und die Aus­wir­kun­gen des Ener­gie­ver­brauchs auf die Um­welt zu ver­min­dern."

°       Exxon­Mo­bil hat $100 Mil­li­on der Stan­ford Uni­ver­si­ty zu­ge­wen­det, da­mit For­scher "Mög­lich­kei­ten fin­den zur De­ckung stei­gen­der Ener­gie­nach­fra­ge ohne ne­ga­ti­ve Aus­wir­kun­gen auf die glo­ba­le Er­wär­mung."

Die ein­zi­gen ge­nann­ten Dollar­be­trä­ge in der von Green­peace ver­öf­fent­lich­ten Er­klä­rung für den Start von  ExxonSecrets sind die mick­ri­gen $2,2 Mil­li­o­nen. Da­ge­gen ste­hen 10 + 2 + 30 + 500 + 100.

Schau­en wir mal, wozu sich das auf­sum­miert …$642 Mil­li­o­nen!

Wenn man die Welt in zwei Sei­ten teilt – in eine, die den Kli­ma­wan­del für ein erns­tes Prob­lem hält und in eine an­de­re, die den Ein­fluss des Men­schen auf das Kli­ma für so ge­ring hält, dass er nicht er­kenn­bar ist – dann hat [bild­lich ge­spro­chen] die eine Sei­te eine Bank be­raubt, wäh­rend die an­de­re vor ei­nem Schnaps­la­den um mil­de Ga­ben bet­telt.

In dem glei­chen Do­ku­ment, in dem Green­peace über das Geld von Exxon­Mo­bil re­det, be­haup­tet man be­ru­hi­gend, dass die „Kli­ma­wan­del-Leug­ner" nicht das Recht auf freie Mei­nungs­äu­ße­rung hät­ten.

War­um das?

Weil  "das Recht auf freie Mei­nungs­äu­ße­rung nicht für Fehl­in­for­ma­ti­on und Pro­pa­gan­da gel­ten wür­de“.

Tat­säch­lich aber ha­ben die Geis­tes­grö­ßen zu die­sem The­ma kon­sis­tent das Ge­gen­teil ver­tre­ten. John Stu­art Mill war glas­klar mit sei­ner An­sicht, dass nie­mand das Recht hät­te, für an­de­re zu ent­schei­den, was Pro­pa­gan­da ist und was nicht. Wür­de er sich Green­peace ge­nau an­se­hen, wür­de er den Green­peace-Leu­ten sa­gen, dass sie auf­hö­ren soll­ten, ihr ei­ge­nes Ur­teil für un­fehl­bar zu hal­ten.

Über hun­dert Jah­re spä­ter hat Noam Chomsky deut­lich er­klärt, dass, wer nicht an die Frei­heit des Wor­tes auch für nicht ge­teil­te An­sich­ten glaubt, über­haupt nicht an die Frei­heit glau­be.

Falls  Green­peace ein ernst­haf­tes Ge­spräch da­rü­ber füh­ren möch­te, wer ei­gent­lich die Fehl­in­for­ma­ti­o­nen he­rum­streut – wozu ich ger­ne be­reit bin – weil un­wi­der­leg­bar er­sicht­lich ist, dass der Big Oil Haupt­ge­winn an die Green­peace-Sei­te der De­bat­te ge­gan­gen ist.

Die Tat­sa­che, dass die Kli­ma­wan­del-Ak­ti­vis­ten ei­nen der­art mäch­ti­gen Finan­zie­rungs­vor­teil ha­ben, und den­noch da­rauf be­har­ren, dass das ge­naue Ge­gen­teil der Fall wäre, ist be­sorg­ni­ser­re­gend. Es sagt eine Men­ge über ihre in­tel­lek­tu­el­le Red­lich­keit aus und über ih­ren Cha­rak­ter und ihr Ver­mö­gen, Fak­ten von Fik­ti­o­nen zu un­ter­schei­den.

Wenn es denn wirk­lich eine Kli­ma­kri­se gäbe und eine Ge­fähr­dung der Zu­kunft un­se­rer En­kel, wä­ren die­se Men­schen nicht die Rich­ti­gen, aus der Ge­fahr he­raus zu füh­ren.

Donna Framboise am 4.6.11

Den Originalbeitrag finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE




Wie das Märchen vom gefährlichen Ozonloch entstand! Die Vorlage für das Kyotoprotokoll

Und Schuld an diesem sich ausweitenden Ozonloch sollten die Fluor-Chlor-Kohlenwasserstoffe (FCKW) haben, die in großen Mengen als Treib- und Isoliergas weltweit erzeugt wurden. Dieses FCKW, an dem Chemigigant Dupont weltweit die Patente hielt, wurde mit dem Montreal Protokoll 1989 (1) weltweit verboten. Der Nobelpreis für Chemie wurde 1995 an den Meteorologen Paul Crutzen vergeben, der glaubte, den Nachweis für diese gefährliche atmosphärische Reaktion des FCKW in der Atmosphäre gebracht zu haben.  Das Montreal Protokoll war wohl die Blaupause für das spätere Kyotoprotokoll und basierte auf genauso fragwürdigen Erkenntnissen. (Lesen Sie hier Näheres zum Ozonloch von unserem leider verstorbenen Mitglied Ernst Georg Beck,oder schauen Sie im "Handbuch der Klimalügen" nach Details) Hier der Bericht, wie das Märchen vom Ozonloch gemacht wurde:

Ein junger Physiker benötigte für seine Forschungsarbeiten in der Spektralanalyse einen neuen Laser, den es so in der Wirtschaft nicht zu kaufen gab. Er besuchte Konferenzen auf denen er Informationen über den Lasertyp erhielt. Dabei wurde er Zeuge, – so ganz nebenbei – wie das Märchen vom sich durch FCKW ausweitenden Ozonloch – und den damit verbunden Gefahren geschaffen wurde:

Hier sein Bericht

In den späten 70er Jahren besuchte ich eine Konferenz in Dallas.

Ich war damals am Bau eines "Spin-Flip-Raman-Lasers" interessiert.

Das ist ein furchtbar aufwendiges Ding. Braucht supraleitende Magneten mit Helium Kühlung. Das aktive Medium muss ebenfalls nahe am absoluten Nullpunkt ( <1°K ) gehalten werden etc. Aber es gab für den von mir gewollten Spekralbereich keine anderen Lasertypen.

Bei der Wellcome-Veranstaltung am Sonntag Abend vor Konferenzbeginn kam ich mit zwei amerikanischen Kollegen ins Gespräch, die auch so ein Ding bauen wollten. Wir tauschten technische Details über Probleme aus und ich fragte später, wofür sie den Laser benutzen wollten. Antwort war: wir wollen den auf einem Stratosphärenballon fliegen, um die Auswirkungen der FCKW auf das Ozon zu messen zu versuchen.

Ich fragte dann, warum sie so ein kompliziertes, anfälliges, und vor allem schweres Ding fliegen wollten, wo doch nach meinem Verständnis ein einfaches Spektrometer ( Schuhkarton-gross. Gewicht vielleicht 1 -2 kg, statt mehreren 100 kg für den Laser ) für den Zweck völlig ausreichend war.

Darauf ein Schmunzeln. Die Arbeit wird durch Fa. Dupont finanziert, Und die habe zur Auflage gemacht, es müsste etwas Spektakuläres gemacht werden, und man habe sich darauf geeinigt, diesen Super-Duper-Big-Science Laser zu fliegen. (Grinsen,  vermutlich dachten sie: "Dupont ist schon ganz schön pfiffig und wir sind´s auch, da wir das Geld an Land gezogen haben ).

Dann vertrauten mir die Kollegen noch den Grund für die Mittelvergabe durch Dupont an: die FCKW Patente von Dupont laufen um 1980 aus. Man hat deshalb sich die (etwas weniger effizienten) FKW (ohne Chlor) als Kältemittel patentieren lassen.

Damit die Konkurrenz FCKW nicht benutzen kann, muss gezeigt werden, dass die FCKW die Ozonschicht zerstören. Dann könnte man FCKW vielleicht verbieten lassen, Und hätte weiterhin das Monopol auf Kältemittel.

Ich traf die Kollegen bei der Konferenz im folgenden Jahr wieder. Fragte: Habt Ihr was messen können? Antwort: Nichts Richtiges. Erklärung: Ist ja auch schwierig. 700 mal mehr Chlor ( welches ja die Ozonzerstörung bewirken soll ) dampft aus dem Meer, als das was die FCKW in die Stratosphäre bringen. Und so ein kleiner Effekt… ist natürlich schwierig zu messen.

Und ohne Resultat gibt’s wohl kein Geld mehr von Dupont? Lachen: Nein, aber jetzt haben wir ja das Ozon-Loch und das Geld fließt reichlich z.B. von der NSF. Und sie erklärten mir: Natürlich war das Ozonloch schon immer da und hat mit dem ungefähr Tausendstel Chlor durch FCKW nichts zu tun (das ist schon seit 1950 bekannt als es noch gar keine FCKW gab. Und ausgerechnet am Südpol wo wohl die FCKW Emission besonders hoch ist(??) )

Nachspiel:

Paul Crutzen bekam dann den Nobelpreis für Chemie für seine besondere Leistung beim Aufklären der Prozesse mit denen FCKW die Ozonschicht zerstören. 2010 konnte man in deutschen Zeitungen von Veröffentlichungen chinesischer Chemiker über genauere Untersuchungen lesen, die zeigten, dass FCKW eigentlich nichts mit Ozonabbau zu tun haben können.

Der Kommentar des Instituts in Mainz, dessen Direktor Crutzen ist, sei gewesen: "Jetzt muss die Chlorchemie der Ozonschicht neu geschrieben werden."

2011, 20 Jahre nach Beendigung der FCKW Produktion, wuchs das Ozonloch plötzlich auf eine Stärke wie nie zuvor an, sogar über dem Nordpol war eine Ozonverminderung zu messen. Kommentar des Instituts: Das sei durch noch in der Stratosphäre vorhandene FCKW Reste bewirkt.

Das war dann wohl die Blaupause für den Versuch der USA, sich die Industrie-Konkurrenz durch Europa, Indien, China etc. durch das CO2 Märchen vom Halse zu halten… Immer nach dem gleichen Schema: Bin ich durch etwas reich geworden, und will verhindern dass meine Konkurrenz es genauso macht, dann muss ich erklären, die weitere Nutzung würde die Welt in eine Katastrophe stürzen.

Was dabei noch auffällt: Offenbar kann man Nobelpreise in Auftrag geben:

( man sehe Gore, IPCC, Obama (Rockefellers Mann, so sagt man), und Crutzen.. vielleicht noch andere? )

Autor Prof. Dr. Carl-Otto Weiss ; Direktor und Professor an der Physikalisch-Technischen Bundesanstalt Braunschweig,i.R.

(1) Das Montreal Protokoll wurde am 16. September 1987 von den Vertragsparteien des Wiener Übereinkommens zum Schutz der Ozonschicht angenommen und ist eine Konkretisierung dieses Abkommens. Es trat am 1. Januar 1989 in Kraft.