1

Die Umkehr?

Angesichts dieser Gemengelage erstaunt es daher, dass sich die renommierteste Tageszeitung Deutschlands, die FAZ, mit dem ganzseitigen Artikel „Ein Limit von zwei Grad Erwärmung ist praktisch Unsinn“, erschienen am 28.10, dem Trend entgegenstellt. In diesem Beitrag werden drei Direktoren von hochrangigen deutschen Forschungs-Instituten von den FAZ-Redakteuren Horst Rademacher und Joachim Müller-Jung zu ihrer Meinung und Einschätzung über die Klimaproblematik befragt. Es handelt sich um Frau Prof. Karin Lochte (Biologin), Direktorin des Alfred-Wegener- Instituts für Polar- und Meeresforschung (AWI) in Bremerhafen, Prof. Volker Mosbrugger (Paläontologe) , Direktor am Senckenberg-Forschungsinstitut und Museum in Frankfurt und Prof. Reinhard Hüttl (Forstwirtschaft/Bodenwissenschaft), Direktor am Deutschen Geoforschungszentrum (GFZ) in Potsdam. Diese drei Institutsleiter wollen ihre Aussagen im Interview auf der in Kürze stattfindenden Berliner Konferenz „Klima im System Erde“ zur Sprache bringen.

Im Interview, das hier als pdf-File beiliegt, wird der Unsinn der von der Politik geforderten Beschränkung einer weiteren globalen Erwärmung von maximal zwei Grad Celsius dokumentiert. Einhelliger Tenor der befragten drei Professoren ist, dass das Phänomen „Klima“ viel zu komplex ist, um seine Beeinflussung auf einen einzigen Parameter beschränken zu können. Wir wollen die Argumentation der Befragten aber nicht weiter im Detail verfolgen, sondern verweisen hierzu auf den Originaltext des Interviews. Dies auch deswegen, weil die hier ausgesprochenen Zusammenhänge und Fakten den Lesern der EIKE-News längstens bekannt sind. Der Artikel enthält aber auch Information „zwischen den Zeilen“, er enthält Auslassungen und Widersprüche. Diese wollen wir uns jetzt näher ansehen:

 Zunächst zu den Fehlern und Unterlassungen, die insbesondere Frau Prof. Lochte unterliefen.

Frau Lochte führt zur Belegung eines ungewöhnlich „schnellen und bedenklichen“ Anstiegs der CO2-Konzentration in der Erdatmosphäre aus:

„ … Aber kein (historischer, Anm. der Verfasser) Anstieg ist so schnell wie das, was wir zur Zeit sehen. Die Frage, die zu klären ist, lautet: Ist das Kohlendioxid zuerst angestiegen und dann die Temperatur, oder ist die Temperatur angestiegen und danach das Kohlendioxid? Was hat was ausgelöst?“

Diese Frage, sehr geehrte Frau Lochte, ist längst entschieden, z.B. auch in Ihrem eigenen Hause, wo man in Ihren AWI-Jahresberichten u.a. das liest: "Eine detaillierte Untersuchung der Phasenbeziehung zwischen Temperatur und CO2  zeigt, daß die Glazial/Interglazial-Änderungen der CO2-Konzentration primär von der Temperatur kontrolliert werden und CO2 nur sekundär zu einer Treibhaus-Rückkopplung führt." [1].

Zum gleichen Ergebnis kommen auch andere Untersuchungen:

Dabei ergab sich für die Warmzeiten der letzten 450.000 Jahre: "Zuerst wurde es wärmer, dann stieg die CO2-Konzentration! Die zeitliche Verzögerung beträgt zwischen 500 und 1500 Jahren" [2], [3]

Ferner teilen Wissenschaftler für den Zeitraum der vergangenen 250 Mill. Jahre mit: "Rekonstruktionen der Klima-Vergangenheit machen deutlich, daß CO2 nicht die treibende Kraft für die Temperatur-Entwicklung in der Vergangenheit war" [4]

Weitere Quellen in [5] und [6]. Der renommierte Klimaforscher Prof. Jan Veizer verglich die unzutreffende Reihenfolge „erst CO2, dann Temperatur“ auf seinem Vortrag anlässlich der Berliner Klimakonferenz am 16.Juni 2009 mit einem Schwanz (CO2), der mit dem Hund (Temperaturen) wedelt [7]. Ob zudem der derzeitige CO2-Anstieg besonders schnell verläuft, wie Frau Lochte ausführte, ist zumindest fraglich. Zehntausende direkte CO2 Konzentrationsmessungen des 20. und 19. Jahrhunderts zeigen nämlich, dass in Zeiten weit vor dem industriellen Anstieg schon CO2-Konzentrationen über den heutigen Werten vorkamen [8].

Frau Lochte führte weiter aus:

„Insgesamt aber wird das Negative überwiegen. Zum Beispiel in Bangladesh, in den Trockengebieten in Afrika und Mittelamerika, aber auch in Monsunregionen…“

Hier ist Frau Lochte offenbar nicht auf der Höhe der aktuellen Erkenntnisse, denn die Trends sind genau gegenteilig, wie durch einige Zitate leicht zu belegen ist:

 “…IPCC has predicted that impoverished Bangladesh, criss-crossed by a network of more than 200 rivers, will lose 17 percent of its land by 2050 because of rising sea levels due to global warming.” [9] und weiter a.a.O.: “New data shows that Bangladesh’s landmass is increasing, contradicting forecasts that the South Asian nation will be under the waves by the end of the century, experts say. Scientists from the Dhaka-based Center for Environment and Geographic Information Services (CEGIS) have studied 32 years of satellite images and say Bangladesh’s landmass has increased by 20 square kilometres … annually.”

Entgegen den in den Medien verbreiteten Nachrichten einer angeblichen Wüsten-Ausdehnung berichtet das Magazin National Geographik soeben [10]: “Wüstenausdehnung, Trockenheit und Verzweiflung, das ist es, was die Erderwärmung bereit hält für die meisten Teile von Afrika  –  zumindest ist es das, was wir hören. Die sichtbar werdenden Tatsachen zeichnen eine sehr viel differenziertes Bild  – eines, in welchem steigende Temperaturen eine Wohltat sein kann für Millionen von Afrikanern in den trockensten Gebieten des Kontinents … Wissenschaftler sehen jetzt Signale, dass die Sahara und die angrenzenden Regionen ergrünen aufgrund zunehmenden Regens.“

Diese wissenschaftlichen Ergebnisse sind bereits schon populären Medien geläufig, etwa dem ZDF-Magazin “Abenteuer Wissen“: "Die Erderwärmung schreitet voran, die Wüsten werden wachsen und die Menschen vor dieser lebensfeindlichen Umwelt fliehen. Doch dieses Szenario stimmt nicht überall: Die Sahara nämlich wird feuchter und damit grüner werden als sie heute ist. Beweise dafür liefert die Wüste selbst – mitten in Libyen" [16]. Daraus ergibt sich schon jetzt: "Das Re­sul­tat [11] … ist eine Aus­wei­tung der Grün­flä­che zu Las­ten der Wüs­te Sa­ha­ra. Diese schrumpfte in den letzten 20 Jahren um ca. 300.000 km2 , d.h. … ein Gebiet fast so groß wie Deutschland (357.000 km2)".

Und sogar der SPIEGEL weiß inzwischen Bescheid, wenn er schreibt [12]: „Noch weitreichender sind die positiven Veränderungen hinsichtlich eines Ergrünens im Süden der Sahara, im afrikanischen Armenhaus SAHEL : Ground Zero ergrünt: Dürren, Hunger, Wüstenbildung – die Sahelzone gilt als Inbegriff einer Katastrophenregion. Nun gibt es gute Nachrichten: Viele Millionen Bäume wachsen in kargem Sandboden heran…. Auch seriöse Organisationen behaupten immer wieder, dass sich die Sahara Jahr für Jahr weiter nach Süden frisst, aber das stimmt so nicht. Seit 20 Jahren kommen allein im Niger jedes Jahr etwa eine viertel Million Hektar Baumbestand dazu.“ Das sind etwa 5 Millionen Hektar in den 20 Jahren, und abgeschätzt für die gesamte SAHEL-Zone etwa 300.000 km2“.

Frau Lochte sagte weiterhin:

„Diese Defizite in der Modellierung dürfen aber nicht dazu führen, dass wir sagen, das ist ja alles Blödsinn, was ihr modelliert, also lassen wir es sein. Die Modelle sind im Moment das einzige Werkzeug, das es uns ermöglicht, Einblicke in die Zukunft zu bekommen.“

Langfristige Zukunftsprognosen mit Klimamodellen sind definitiv „Blödsinn“, warum dies nicht deutlich sagen? Die Tatsache, dass Modellierung zur Zeit die einzige Möglichkeit ist, in die Klimazukunft zu schauen, ändert an dieser Tatsache nichts. Auch eine Wahrsagerin mit Glaskugel bietet die einzige „Möglichkeit“, in die Zukunft zu schauen. Die Tatsache dieser Einzigartigkeit verringert um nichts den Blödsinn der Glaskugel. Richtig ist nur, dass Klimamodelle per se nicht(!) blödsinnig sind. Sie sind wertvolle Hilfsmittel zur Erforschung von Detailfragen und haben dort ihren wohlverdienten Platz. Als langfristige Prognoseinstrumente sind sie dagegen unbrauchbar. Da befindet sich Frau Lochte sogar in krassem Widerspruch zum IPCC, das eine Vorhersagbarkeit des Klimas grundsätzlich ausschließt:

"… we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible" [13], oder auf deutsch  "In der Klimamodellierung sollten wir beachten, daß wir es mit gekoppelten, nichtlinearen, chaotischen Systemen zu tun haben, und deswegen sind Langzeitprognosen von zukünftigen Klimazuständen nicht möglich".

 Gegen Ende des Interviews sagte schließlich Frau Lochte

„Es ist ein wichtiges Ziel, den Zwei-Grad-Korridor anzustreben“.

Vor diesem abschließenden Satz der AWI-Direktorin verweilt der Leser in Ratlosigkeit. Das gesamte Interview und alle drei Professoren belegten die Sinnlosigkeit eines solchen Ziels, und am Ende dann dieses Statement! Ganz offensichtlich hat Frau Lochte hier die politische Korrektheit beachtet, ernst kann sie diesen Satz unmöglich gemeint haben. Frau Lochte ist sicherlich eine exzellente Biologin, von „Klima“ versteht sie aber leider nur wenig und vor allem kennt sie die einschlägige Fachliteratur nicht. Unkenntnis von Frau Lochte zeigt auch ihr ambivalentes Verhalten, auf populären Vorträgen sich weitgehend auf den von Al Gore vertretenen Klima-Unsinn zu stützen und die Presseverlautbarungen ihres eigenen Instituts, die wahrheitsgemäß berichten, zu ignorieren. EIKE hatte in dieser Angelegenheit Frau Lochte bereits einmal sehr höflich und verbindlich angeschrieben und um Erläuterung dieser Diskrepanz gebeten. Auf dieses Schreiben erfolgte bedauerlicherweise noch keine Antwort. Vielleicht findet sie ja doch einmal Zeit für eine Antwort, wir würden uns freuen. Dass sich Frau Lochte in ihrem interessanten Lernprozess allmählich der Wahrheit nähert, beweisen indes viele ihrer Antworten im Interview.

Die beiden anderen Befragten Professoren haben dagegen durchgängig sachkundig, korrekt und interessant berichtet. Wir erlauben uns lediglich in drei Punkten korrigierende Anmerkungen:

Prof. Mosbrugger gab an, „keine schlüssige Erklärung“ in Beantwortung der Frage anbieten zu können, warum seitens der Politik Anpassungsstrategien zugunsten der Reduktion von Emissionen auffällig vernachlässigt werden. Die Antwort ist für jedermann offenkundig und daher wohl auch Prof. Mosbrugger bekannt. Er wagt sie aber – und dafür haben wir sehr viel Verständnis – nicht explizit auszusprechen. „Bedrohung durch anthropogenes CO2“ ist für Politik, Versicherungswirtschaft, Wind- und Photovoltaikindustrie und den Maschinenbau (man denke nur an das geplante CCS-Verfahren, das lukrative Aufträge erwarten lässt) ein äußerst erfolgreicher Propagandafaktor, wie ihn keine Phantasie hätte besser erfinden können. Jede neue Steuer lässt sich mit der „Rettung der Welt“ vor dem „globalen Erwärmungstod“ bestens begründen, jede Versicherungsprämie angesichts prognostizierter höherer Schäden anheben usw. In Wirklichkeit ist das Thema „Klimawandel“ der seriösen Wissenschaft längst aus der Hand geglitten. Politik, mächtige Interessenverbände und Advocacy-Institute, wie das PIK mit ihren prominenten Vertretern Prof. Schellnhuber und Prof. Rahmstorf beherrschen die Szene. Und fast alle deutschen Medien helfen kräftig bei der Klima-Katastrophen-Propaganda mit.

Der zweite von uns korrigierte Punkt betrifft die Aussage von Prof. Hüttl „Wärmephasen waren nicht immer katastrophal“. Diese Aussage ist zwar politisch (und logisch) korrekt, in dieser Form aber höchst missverständlich. In Wahrheit waren Wärmephasen für die Menschheit niemals „katastrophal“, sondern im Gegenteil stets vorteilhaft. Völkerwanderungen gingen stets in Richtung wärmeren Klimas, niemals umgekehrt.

Der dritte von uns anzumerkende Punkt betrifft die physikalische Begründung der politischen „Zwei Grad Forderung“. Da auch in der Erwärmungsphase am Ende des vorigen Jahrhunderts weite Teile der Südhalbkugel unserer Erde kühler und nicht wärmer wurden, muss gefragt werden „wo soll denn die „Zwei-Grad-Regel“ greifen“? Dort, wo es sich am stärksten erwärmt hat? Oder soll gar ein Temperaturmittelwert der Erde genommen werden, den man sinnvoll gar nicht bilden kann, denn in der Physik gibt es keine Temperaturmittelwerte. Leider waren weder die FAZ-Redakteure, noch die drei befragten Institutsleiter für diesen interessanten physikalischen Aspekt wissenschaftlich zuständig.

Es wäre natürlich wünschenswert gewesen, wenn das Interview kurz auch einmal auf das IPCC-Kapitel 2.7 im wissenschaftlichen Bericht von 2001 eingegangen wäre, das keine Zunahme von Extremwettern, Hurrikanen, Dürren usw. entdecken konnte (im Bericht von 2007 brauchte dieses Thema daher nicht mehr aufgegriffen zu werden). Weitere interessante Fragen wären die nach der seit ca. 10 Jahren ablaufende globale Abkühlung gewesen, die der renommierte Klimaforscher Prof. Mojib Latif an Hand seiner Klimamodelle noch mehrere Jahrzehnte andauern sieht [14]. Und endlich hätten auch einmal die seit den 90-er Jahren des vorigen Jahrhunderts ununterbrochen erfolgten Petitionen und Manifeste von tausenden Naturwissenschaftlern und Klimaforschern, die sich gegen den ideologisch propagierten Klimawahn und die einseitige Sichtweise der politischen IPCC-Berichte wandten [15], kurz zur Sprache kommen können. Aber es ist ja noch Zeit für die FAZ, die mit dem Interview einen guten Anfang gemacht hat.

Schlussendlich ist jedenfalls zu betonen: Allen Beteiligten am Interview, Befragten und Redakteuren muss wegen ihres Muts, sich gegen die Übermacht der öffentlichen Klima-Hysterie gestemmt zu haben, allerhöchster Respekt ausgesprochen werden. EIKE gratuliert hierzu der FAZ sowie den drei befragten Institutsleitern!   

Quellennachweise:

[1] AWI-Report, 2004/05, S.138ff

[2] http://www.wasserplanet.biokurs.de/otreibh2.htm

[3] Fischer et al. Science Vol 283, 1999 und Mudelsee, QSR 20 (2001) 583-589).

[4]  U.Berner u. H.Streif; Klimafakten, Nägele, Stuttgart (2001).

[5] http://www.brighton73.freeserve.co.uk/gw/paleo/400000yrfig.htm 

[6] http://joannenova.com.au/global-warming/ice-core-graph/

[7] http://www.eike-klima-energie.eu/news-anzeige/1-berliner-klimakonferenz-gegen-den-mainstream-erfolgreich-abgeschlossen/?tx_ttnews[pS]=1249026385

[8] http://www.eike-klima-energie.eu/publikationen/ernst-georg-beck-diplbiol/eg-beck-publikation/die-vergessene-geschichte-des-co2/?tx_ttnews[pS]=1248582210

[9] Bangladesh gaining land, not losing: scientists; by Shafiq Alam Wed Jul 30, 9:41 AM ET DHAKA (AFP);

[10] Sahara Desert Greening Due to Climate Change? http://news.nationalgeographic.com/news/2009/07/090731-green-sahara.html

[11] Argus, 06.02.2007, http://www.oekologismus.de/?p=452#more-452

[12] SPIEGEL, 17/2009, S.136

[13] IPCC, 3. Ass.Rep., 2001, Sect. 14.2.2.2,  S. 774

[14] http://www.eike-klima-energie.eu/news-anzeige/global-cooling-paradigmenwechsel-des-ipcc/

[15] aufgeführt in http://www.eike-klima-energie.eu/fileadmin/user_upload/Bilder_Dateien/WCMSAlt/Presse_Klimaflops_060309_931.pdf

[16]

http://www.zdf.de/ZDFde/inhalt/1/0,1872,1020545_idDispatch:5236912,00.html

Prof. Dr. Horst-Joachim Lüdecke

Dipl.-Physiker

(EIKE-Pressesprecher)

Klaus-Eckart Puls

Dipl.-Meteorologe

(stellv. EIKE-Pressesprecher)

Related Files




Umwelt – Klima – Energie!

Die Themen Umweltschutz, Klima und Energie beherrschen  die Schlagzeilen in der Presse.  Ich möchte mich als Ingenieur pragmatisch mit diesen Themen befassen. Der Inhalt reicht eigentlich für mindestens 3 große Vortragstagungen über mehrere Tage aus, bei der hunderte von Wissenschaftlern und Experten über ihre Erfahrungen berichten würden. Ich habe mir überlegt, wie ich dieses Problem lösen kann. Ich möchte es so versuchen. Ich berichte nur über Fakten die weder wissenschaftlich noch ingenieurtechnisch widerlegbar sind, möchte Sie dabei aber bitten, und ich will versuchen, hierfür die Grundlagen zu legen, sich Ihre eigenen Gedanken zu machen, um diese extrem komplizierten und komplexe Fragen sich selbst beantworten oder eine Meinung bilden zu können. Alle nachfolgenden Themen sind technisch und vor allem wirtschaftlich eng miteinander verbunden. Wer diese Fragen einseitig, also nur unter Berücksichtigung einzelner Themen, zu beurteilen versucht, macht zwangsläufig schwere Fehler, die zu vollständig falschen Beurteilungen führen.

Nun zum 1. Themenkreis, Umweltschutz,

der eine extreme Bedeutung in der Bevölkerung erlangt hat. Für Ingenieure war dieser Begriff nicht neu. Anlagen dieser Art waren und wurden seit Jahrzehnten gebaut:

–        Abgasreinigungsanlagen zur Reinhaltung der Luft

Zur Abscheidung von:

–        Staub, Feinstaub, Aerosolen durch Elektro-, Schlauch- oder Spezialfilter;

–        Schwefeloxide  In Nass- oder Trockenreinigungsanlagen;

–        Stickoxide durch Katalysatoren;

–        Dioxide durch Aktivkoks –Aktivkohlefilter;

Es war nur eine Frage des kostenmäßigen Aufwandes, denn alle Maßnahmen müssen ja letztlich von der Bevölkerung bezahlt werden.  Diese Maßnahmen-Investitionen führten zu einer Verschlechterung des Wirkungsgrades bei Kraftwerken um etwa 2 – 4%. Die Investitionskosten lagen bei mehreren hundert Millionen.

Die politische Bedeutung des Umweltschutzes kam mit den „Grünen“ auf. Sie ist im Prinzip auch richtig, nur sollte alles sachlich mit fachlichen Überlegungen und nicht populistisch behandelt werden.  Joschka Fischer postulierte vor etwa 30 Jahren, und damit machte er die „Grünen“ stark, dass in 10 Jahren kein Blatt mehr auf den Bäumen sei, wenn die Rauchgase der Kraftwerke nicht entschwefelt würden. Stichwort: Saurer Regen.  Damit hat er die Grundlage zur „Antienergiepolitik“, die bis heute dauert, gelegt. Die Rauchgase der Kraftwerke wurden also entschwefelt und dann auch entstickt, also die Stickoxide und dann auch die Dioxine abgeschieden.  Dies muss von den Stromkunden bezahlt werden. Ob die Entschwefelung gerechtfertigt war, sei dahingestellt. Auch heute ist der Waldboden sauer, das hat nun nichts mehr mit dem Schwefelgehalt aus den Rauchgasen von Kraftwerken zu tun, sondern mit einem seit Jahrtausenden ablaufenden Vorgang in der Natur. Abfallholz, Blätter usw. vermodern im Wald. Dabei wird Humus erzeugt, der den Waldboden düngt, das ist nun wirklich nichts Neues. Nur bei der Vermoderung entsteht auch CO2, dieses löst sich im Regenwasser und führt zum „sauren“ Waldboden. Sprudelwasser  hat in etwa den gleichen ph-Wert. Der Einfluss der zusätzlichen Schwefelsäure aus Abgasen kann nur geschätzt werden. Niemand hat das je errechnet, kann er auch nicht. Meiner Meinung nach liegt er weit unter 1%, es könnten aber auch nur promille sein, oder promille von promillen.

Dann ein Wort zur Müllentsorgung. Seit über 100 Jahre wird oder wurde der Müll überwiegend in Verbrennungsanlagen entsorgt, eine Technik, in der Deutschland weltweit führend war. Dann kamen die Abgase in Verruf. Wir entwickelten neuartige bessere Rauchgasreinigungstechniken. Letztlich eine „Gasmaske“ mittels Aktivkoks, also des gleichen Materials, das in Gasmasken enthalten ist. Ich hatte diese Idee Herrn Umweltminister Matthiesen vorgeschlagen, der dies sofort in Herten verwirklichen ließ. Ergebnis ist, dass das Rauchgas sauberer ist als die angesaugte Verbrennungsluft. Die Verbrennung ist heute immer noch die billigste und sauberste Müllentsorgung, aber der Widerstand der „Umweltschützer“ gegen diese Technik hat nicht nachgelassen. Das Ergebnis ersehen Sie in Ihren ständig steigenden Entsorgungskosten. Vor kurzem entsorgten, gegen hohe Gebühren, sogar Überseeische Länder ihren Abfall in deutschen Verbrennungsanlagen, die alle mit dieser Technik ausgerüstet sind. Dies zeigt den weltweit hohen Standard unserer Müllverbrennungsanlagen. Das Wort Müll oder Abfall wird jetzt  durch die Bezeichnung Biomüll oder Bioreststoffe durch Umweltschützer ersetzt , die Anlagentechnik ist die gleiche. Wir hoffen, dass jetzt endlich Vernunft einkehrt, zum finanziellen Vorteil der Bürger.

Nächstes Thema: Kraft-Wärmekopplung, also die kombinierte Erzeugung von Strom mit Nutzung der Abwärme. Diese Technik wurde nun wirklich nicht von den Umweltpolitikern erfunden. Sie wird seit über hundert Jahren allen  Hochschulen gelehrt. Grund für die Anwendung war aber bei den vielen hundert Anlagen, die in der Zeit gebaut wurden, als die Politiker diese  Technik noch nicht als politisierendes populistisches Argument erkannt hatten, stets die Frage der Wirtschaftlichkeit. Diese konnte in Modellrechnungen auf etwa  1% Genauigkeit berechnet werden. Die Abwärme kann aber nur dann genutzt werden, wenn Abnehmer, also Käufer, dafür vorhanden sind. Das ist aber, abgesehen von der Abwärmeverwertung in  wärmeverbrauchenden Industriebetrieben, nur zu Heizzwecken möglich. Im Sommer wird nicht geheizt, dann fehlen diese Abnehmer. Noch in den 50-etwa 80iger Jahren wurde jährlich in Deutschland etwa 100-150 Anlagen dieser Art gebaut.  Heute nur noch vereinzelt, trotz der Subventionierung. Es lohnt sich einfach aus wirtschaftlichen Gründen nicht.  Bei Müllverbrennungsanlagen, oder neu, den Bioabfall- und Bioreststoffverbrennungsanlagen macht diese Technik wirklich Sinn, denn die Erlöse aus Strom- und Abwärmeverkauf mindern die Entsorgungskosten, doch auch hier sind „Umweltexperten“ aus nicht mehr nachvollziehbaren Gründen dagegen.

Bei der Abwärmeverwertung geht ein Teil der Energie des Dampfes, die sonst zur Stromerzeugung genutzt wird, verloren. Abwärme auf Umweltniveau ist wertlos. Nur eine Nutzung/ Entspannung des erzeugten Dampfes bis auf den absoluten Nullpunkt, also  0 grad Kelvin oder  -273grad C ermöglicht einen 100%igen Wirkungsgrad bei der Stromerzeugung. Dieses thermodynamische Gesetz ist ein Naturgesetz, es kann von Ingenieuren nicht beeinflusst werden. Alle diese Fakten werden in der politischen Diskussion nicht erwähnt. Wenn solche Anlagen mit Steuergeldern  subventioniert werden, ist das nach meiner Ansicht Geldverschwendung.

 

Aber wir Ingenieure haben mit  Ideologen so unsere Probleme:

–        Wenn wir sagen, das Problem ist technisch lösbar, so wird es meist von den Umweltschützern in Frage gestellt. Ständig werden neue unrealistische, ja illusionistische Gegenthesen verbreitet. Selbst der Nachweis, dass es technisch geht, wird nicht akzeptiert.

–        Wenn wir aber sagen, das geht auf Grund von physikalischen und thermodynamischen Natur/Grundgesetzen nicht, dann wird das als Verweigerungshaltung interpretiert.

–        Das gleiche gilt für Forderungen nach Entwicklungen neuer Technologien, die seit vielen Jahrzehnten untersucht werden, leider ohne Erfolg, und bei denen sich auch keine erfolgversprechenden Lösungen abzeichnen.

–        Vor allem aber Fragen der Kosten und der Wirtschaftlichkeit werden völlig falsch beurteilt, ja meist gar nicht in Betracht gezogen. All dies hängt in der politischen Diskussion aber nun mit dem Thema Klimaschutz und Erderwärmung durch CO2 zusammen. Ich möchte ausdrücklich betonen, um alle etwaigen Missverständnisse zu vermeiden, dass Maßnahmen zur Einsparung von Energie richtig und erforderlich sind, wenn sie bezahlbar sind. Dies war eine meiner wesentlichen Aufgaben und Ziele während meiner ganzen beruflichen Tätigkeit.

Und damit wären wir beim 2.Thema.

Frage ist, kann CO2 einen nennenswerten Einfluss auf das Klima auf dem Planeten Erde haben? Diese Frage ist fast zu einer existenziellen Glaubensfrage mutiert. In den USA haben ca. 34.000 Wissenschaftler Herrn Obama aufgefordert, das Thema CO2 aufzugeben, da CO2 keinen nennenswerten Einfluss auf das Weltklima haben kann. Diese These widerspricht aber den politischen Bestrebungen der „Antienergie Lobby“.  Ich habe mir auch Gedanken darüber gemacht, und diese in einer Arbeit unter dem Thema „Klimafakten“ ausgearbeitet.

Wichtigste Grundlage bei meiner Ausarbeitung ist das unter der Regie von Herrn S. Gabriel in Niedersachsen von drei wissenschaftlichen Instituten erarbeitete und herausgegebene Werke  „Klimafakten“, -ISBN 3-510-95872-1-. Ich habe es dabei, sie können es gerne einsehen.  Für mich das beste Werk und vor allem auch fundierteste, ja sogar spannend zu lesende Werk mit dieser Thematik, das erschienen ist.

Hier steht in der Einleitung:

–        „Es ist schwierig oder gar unmöglich, zwischen natürlicher Klimaentwicklung und einer durch den Menschen beeinflussten Klimaschwankung zu unterscheiden. Es bleibt festzuhalten, dass sich zahlreiche äußere Einflussgrößen des Klimas bislang nicht mit hinreichender Genauigkeit fassen lassen. Auch die komplexen internen Prozessabläufe, die das Klima sowie dessen Zustände beeinflussen, sind nicht hinreichend entschlüsselt“.

In einem Bericht der amerikanischen National Academy of Sciences (NAS) steht:

–        „ Unsere Kenntnis der Mechanismen des Klimawechsels sind so bruchstückhaft wie unsere Daten. Nicht nur sind die grundlegenden wissenschaftlichen Fragen großenteils unbeantwortet, sondern in vielen Fällen wissen wir nicht einmal genug, um die entscheidenden Fragen zu stellen“.

Ähnliche Formulierungen und Vorbehalte finden sich auch im IPCC – Bericht, der Grundlage für alle Klimakonferenzen ist. Diese sind ehrlichen, überzeugenden Darlegungen, die in dem Werk „Klimafakten“ detailliert begründet werden, mit  eingehender Beschreibung der wesentlichen Einflussfaktoren auf das Klima.

Die wesentlichsten sind u.a.:

–        Temperatur der Luft; Temperatur der Atmosphäre;

–        Niederschläge; Verdunstung;  Luftfeuchtigkeit;

–        Wind; Bewölkung; Nebel;

–        Strahlungshaushalt; Sonneneinstrahlung; kosmische Strahlung;

–         Wasserzirkulation;

–        Wärmetransport in und durch die Meeresströmungen in den Ozeanen;

–        Wärmeaustausch zwischen Atmosphäre, Land und Ozeanen;

–        Präzessionskreis der Erdrotationsachse;

–        das Heiße innere der Erde und der Ozeane; Vulkantätigkeiten;

–        mineralogische Zusammensetzung der Erdkruste; Gasschichten und Gashüllen in der Atmosphäre;

–        die Oberfläche des Planeten Erde mit Eiskammern und Wüstengebieten;  Verwitterung;

–        Wärmeabstrahlung ins Weltall, und letztlich Einflüsse aus dem gesamten Weltall.

Diese wesentlichen in dem Werk einzeln beschriebenen Faktoren können noch beliebig erweitert werde, doch die NAS hat ja  gesagt, dass wir noch nicht einmal wissen, welche Faktoren das sein könnten. Dass  deutsche „Wissenschaftler“ verschiedener ÖKO-Institute, vor allem die Herren Prof. Schellnhuber und Rahmstorf dies alles wissen wollen, erscheint mir persönlich mehr als dubios. Auch die umfassendsten Modellrechnungen mit den größten Rechnern und Rechenprogrammen können diese Fragen nicht beantworten.  Die größten und modernsten Computer rechnen nur das aus, was mit den einzelnen Faktoren in die Programme eingegeben wird. Hier hat jeder ausreichende Variationsmöglichkeiten.

Hierzu noch ein Zitat aus „Klimafakten“:

–        „Die Klimamodelle, auf deren Vorausberechnung sich die ganzen „Global Warming“  Theorie stützen, sind grob falsch, unter anderem deshalb, weil der Einfluss der Wolken und vieler anderer, auch von der Sonne kommender Effekte völlig unzureichend berücksichtigt sind. Das stärkste Treibhausgas ist nicht CO2 sondern Wasserdampf. Rund 2/3 des gesamten sogenannten Treibhauseffektes der Erdatmosphäre wird vom Wasserdampf verursacht“.

Bei der Beurteilung des Klimas muss vor allem beachtet werden, dass keine regionalen Betrachtungen angestellt werden dürfen, sondern nur globale. Alle regionalen Beobachtungen führen bei einer Klimadiskussion zu grundlegend falschen Schlüssen.

Die USA-NASA-  messen seit 1979 mittels Satelliten die globale Temperaturverteilung auf dem gesamten Globus.

Danach wurde von 1979 bis 1986 eine niedrigere mittlere Temperatur bis -0,1 grad C gemessen. Danach stieg die Temperatur bis 2005 auf + 0,3 grad C an. Seitdem vermindert sie wieder und erreichte 2008 die gleiche mittlere Temperatur wie 1979. 2009 liegt sie bisher bei -0,1 gradC.

Prof. Menzel, Rektor der Fachhochschule Ruhr, früher Dortmund, stellte in einem Vortrag Anfang diese Jahres die These auf, dass für Klimaschwankungen vor allem die Sonnenstrahlung –Sonnenflecken- verantwortlich sein könnten. Er ermittelte auf Grund seiner Beobachtungen und Berechnungen, dass z.Zt. die mittlere globale Temperatur weiter sinkt, wir also vor einer „neuen kurzen Eiszeit“ stehen. Er sagt wörtlich, dass er sich als Wissenschaftler schäme, wenn Professoren  deutscher Klimainstitute, die nur Halbwahrheiten publizieren, als Wissenschaftler bezeichnet würden, dann wolle er keiner mehr sein.  Meine Frage:  ich möchte wissen, welcher und wie viele Politiker, die über diese Dinge oft rein populistisch reden, dieses Werk das, unter der ministeriellen Regie von Herrn Gabriel entstanden, gelesen haben?

Doch nun einige Worte zur Funktion des CO2 in der Atmosphäre.

CO2 ist ein Gas, das bei allen Verbrennungs- und Atmungsvorgängen entsteht.

Zusammengefasst:

–        CO2 ist ein Spurengas, das in der Atmosphäre mit einem Anteil von 380ppm oder 0,038 % enthalten ist;

–        Es entsteht bei allen Verbrennungsvorgängen, also von Holz, Kohle, Erdöl, Erdgas, kohlenstoffhaltigen Abfallstoffen usw.

–        Ferner durch Atmung von Menschen und Tieren und bei der Vermoderung von holzartigen Abfällen in der Natur, sowie bei Vulkanausbrüchen über der Erde und im Meeresboden.

–        Zwischen CO2 aus Verbrennungsprozessen und durch Atmung der Menschen besteht chemisch und damit auch hinsichtlich einer eventuellen Auswirkung auf das Klima kein Unterschied;

–        CO2 ist der beste Pflanzendünger, die Land- und vor allem Forstwirtschaft haben hierdurch bedeutende Vorteile;

–        Wissenschaftliche Untersuchung im Eis der Polargegenden habe zweifelsfrei gezeigt, dass eine Erhöhung des CO2-Gehaltes in der Atmosphäre stets Folge aber nie Ursache einer Erwärmungsphase war;

–        Es gibt keinen einzigen wissenschaftlichen Beweis, dass CO2 einen Einfluss auf das Klima hat;

Daraus folgt:

–        Ohne CO2 ist der Planet Erde unbewohnbar, Sauerstoff und Kohlendioxid sind die wichtigsten Gase in der Luft, die Menschen, Tiere und Pflanzen zum Atmen benötigen.

Hier eine kurze Modellrechnung, die jeder sofort ohne Rechenprogramm nachvollziehen kann:

–        Die Menschen atmen im Schnitt bei normaler Belastung etwa 320kg CO2/Jahr aus;

–        Der CO2-Ausstoss der Tiere wird in etwa in der gleichen Größenordnung angenommen;

–        Hochgerechnet auf 82 Millionen Einwohner der BRD sind dies ca. 30 Millionen toCo2/Jahr;

–        Der gesamte anthropogene CO2-Ausstoß der BRD beträgt ca. 870 Millionen toCo2/Jahr;

–        Der gesamte weltweite CO2-Ausstoss beträgt ca. 28,2 Milliarden to/Jahr;

–        Damit beträgt der Anteil der BRD weltweit 3,1%;

–        Es ist das Ziel der Bundesregierung, diesen Ausstoß in den nächsten 10 Jahren um 20%, also um ca. 200 Millionen to zu senken;

–        Die CO2- Produktion allein in China beträgt ca.3,5 Milliarden toCO2/Jahr, diese steigert sich in diesem Entwicklungsland um ca. 10%/Jahr, also um ca. 350 Millionen  to;

–        Damit produziert allein China pro Jahr etwa doppelt so viel CO2 zusätzlich, wie die BRD in 10 Jahren einsparen will;

–        Ähnliche Steigerungsraten haben  die anderen großen Entwicklungsländer Indien, Brasilien, alle asiatischen Staaten usw.;

Es ist leicht zu erkennen, dass die Zielsetzung der BRD völlig wirkungslos bleiben wird, wenn das CO2 überhaupt eine klimarelevante Bedeutung hätte, denn wir haben wissenschaftlich gesehen keine begründbare globale Erwärmung, sondern lediglich die seit Jahrtausenden vorkommenden periodischen Temperaturschwankungen. CO2 spielt dabei keine erkennbare Rolle. CO2 als „schmutziges Gas“ oder gar „Giftgas“ zu bezeichnen, wie öfter von Presse und Politikern zu hören, ist ein Zeichen von fehlender Bildung.

Alle CO2 – Theorien basieren nur auf Rechenmodellen, hierzu muss man folgendes wissen:

–        Die Zahl der unbestimmten Faktoren ist das Maß der Ungenauigkeit der Rechnung;- ein mathematischer Grundsatz;

–        Jedes Institut kann beim derzeitigen Erkenntnisstand der Klimaforschung die Faktoren in die Rechenprogramme so eingeben, dass das Ergebnis herauskommt, das man vorher habe will;

–        Die ganze „Klimaphilosophie“ beruht auf solchen Modellrechnungen;

Herr Dr. Dittrich, früher Entwicklungschef bei Thyssen, hat die Modellrechnungen des Potsdamer  ÖKO-Institutes mit dessen eigenen Programmen nachgerechnet und hat in mehreren Beiträgen,  nachgewiesen, dass in diese Berechnungen völlig falsche Werte eingesetzt worden sind.  Die Bundesregierung kennt diese Ausarbeitungen, Herr Gabriel, ist informiert, ein erbetener Besprechungstermin konnte bis heute nicht vereinbart werden.

Nun zum 3. Themenkreis, der Erzeugung elektrischer Energie.

Hierzu folgende Thesen als Grundlage zur Beurteilung:

–        Elektrische Energie, also Strom, wird in Kraftwerken durch Verbrennung von kohlenstoffhaltigen Brennstoffen verschiedener Art, vor allem durch Steinkohle, Braunkohle, Erdgas und  Erdöl.

–        Dabei entsteht durch die Verbrennung des Kohlenstoffs CO2, das ist verbrennungstechnisch nicht vermeidbar;

–        Aus den erzeugten Verbrennungsgasen, die Temperaturen von ca. 1.500 grad C haben, wird Dampf mit hohen Drücken und Temperaturen erzeugt. Dieser Dampf wird in Dampfturbinen, die Generatoren antreiben, zur Stromerzeugung genutzt;

–        Aller erzeugte Strom, auch der aus Windkraftanlagen,  wird praktisch in gleichartigen Generatoren erzeugt, nach identischem physikalischen Prozess;

–        Nach Einspeisung des Stroms in die Strom-Übertragungsnetze kann nicht mehr unterschieden werden, in welchen Anlage der Strom erzeugt worden ist;

–        Weiter wird Strom in geringerer Menge in Erdgas/Erdöl-Gasturbinen, Dieselmotoren, Wasserturbinen, Windturbinen, die alle Generatoren antreiben, und in Solaranlagen erzeugt.

Bei der Stromerzeugung müssen folgende Kernfragen beachtet werden, sie müssen die Grundlage jeder Energiepolitik sein:

–        Die Stromerzeugung ist der einzige Produktionsprozess in der Wirtschaft, bei dem die Nachfrage unmittelbar und in Sekunden die Höhe der Produktion bestimmt;

–        Die Speicherung von Strom zum Ausgleich von Belastungsschwankungen ist nur bedingt und mit hohen Kosten und Wirkungsgradverlusten möglich, also aus wirtschaftlichen Gründen nur in geringem Umfang machbar;

–        Die Entwicklung von Speichermöglichkeiten, vor allem von Batterien, ist seit Beginn der Stromerzeugung vor mehr als 140 Jahren Schwerpunkt aller weltweiten Forschungsarbeiten. Alle Anstrengungen sind de facto erfolglos geblieben. Es zeichnet sich auch leider kein technisch und wirtschaftlich erfolgversprechender Durchbruch an;

–        Alle Stromerzeugungsanlagen müssen daher regelbar sein, das heißt, sich den Schwankungen in den Übertragungsnetzen anpassen können;

–        Auf Grund des Gesetzes, dass die Stromversorgung für alle Abnehmer gesichert sein muss, muss die installierte Kraftwerksleistung in der Lage sein, die Stromversorgung auch bei den höchsten Belastungsspitzen sicherzustellen, die Kraftwerke müssen aber auch im Teillastbereich betreibbar sein;

–        Alle konventionellen Kraftwerke sind hierzu in der Lage;

–        Die Anlagen mit „Erneuerbaren Energien“ können dies nicht, sie erzeugen nur Strom, wenn der Wind weht und die Sonne scheint;

–        Der in diesen Anlagen erzeugte Strom muss von den großen Kraftwerksbetreibern aber auf Grund des EEG-Gesetzes immer abgenommen und gekauft werden. Dadurch müssen zwangsläufig bestehende und am Netz befindliche Kraftwerke im Teillastbereich unwirtschaftlichen  Strom produzieren. Die hierdurch entstehenden Kosten werden den Stromabnehmern durch  höhere  Preis verrechnet.

Die Kosten der Stromerzeugung bis zur Einspeisung in die Übertragungsnetze in den verschiedenen Anlagen sind in etwa folgende:

–        Wasserkraftwerke: ca. 4,3 cent/kwh;

–        Kernkraftwerke:       ca. 2,65 cent/kwh:

–        Braunkohlekraftwerke:  ca. 2,40 cent/kwh;

–        Steinkohlekraftwerke: ca. 3,35 cent/ kwh;

–        Erdölkraftwerke: ca. 4 – 5 cent/kwh;

–        Erdgaskraftwerke:  ca. 4,90 cent/kwh;

–        Windkraftwerke:  ca. 10 – 16 cent/kwh;

–        Solaranlagen:  ca. 40 – 60 cent/ kwk;

Als Ingenieur war ich 40 Jahre lang bemüht, meist die Wirkungsgarde von Stromerzeugungsanlagen um wenige 1/10 % zu verbessern. Dass Politiker heute einen Verteuerungsfaktor von 5 – 30, also um 500% bis zu 3.000% für „machbar“, also der Bevölkerung für zumutbar, halten, darüber soll sich jeder seine eignen Gedanken machen.

Die Erzeugungskosten des Stroms aus „Erneuerbaren Energien“, also aus Wind- und Sonnenanlagen, können so lange nicht wirtschaftlich werden, bis es wirtschaftliche Speichermöglichkeiten gibt, und diese sind seit hundert Jahren nicht in Sicht und werden in den nächsten Jahrzehnten auch nicht zur Verfügung stehen. Daher werden sie für diesen Zeitraum auch nicht wirtschaftlich werden können, alle anderen Aussagen sind illusionistisch.

Noch einmal die Kostenproblematik dieser Anlagen:

–        Auf Grund des EEG-Gesetzes, muss der in Anlagen mit Kraft-Wärmekopplung, in Wind- und Sonnenanlagen teuer erzeugte Strom von den Energieversorgern zu hohen Preisen abgenommen werden und bezahlt werden;

–        Die Kosten werden in die Strompreise für alle Verbraucher eingerechnet , der Strom wird also verteuert;

–        Nach Ansicht von Politikern sind dies keine Subventionen;

–        Zusätzlich werden die Investitionskosten von „Erneuerbaren Energie“ aus Steuermitteln mit Milliardenbeträgen hoch subventioniert;

Aus diesen Überlegungen heraus, und weil die weltweiten Reserven an den Edelenergien Öl und Gas irgendwann einmal enden oder sehr teuer werden, werden weltweit neue Kernkraftwerke geplant und gebaut. Diese These wird weltweit als richtig angesehen wird, nur nicht in Deutschland. Eine gesicherte Versorgung der Welt ohne Stromerzeugung aus Kernkraftwerken ist auf Dauer unmöglich, also eine Illusion. Vor allem die Staaten, die über die größten eigenen fossilen Energie-Rohstoffe verfügen, wollen Kernkraftwerke bauen. Nur nicht Deutschland, das rohstoffärmste Land der Welt. Dass elektrische Energie in Kraftwerken mit Verbrennung von kohlenstoffhaltigen Medien erzeugt wird, dürfte bekannt sein. Es sind feste und flüssige Brennstoffe. Die Energiepolitik der 50iger bis etwa 80iger Jahre ging von dem Grundsatz aus, in Großkraftwerken möglichst nur feste Brennstoffe, also Kohle/Braunkohle zu verbrennen. Die flüssigen und gasförmigen „Edelbrennstoffe“ Öl und Gas sollten überwiegend zur Nutzung in kleineren Anlagen, also Haushalten und Kraftfahrzeugen, sowie als Grundstoffe für chemische und verfahrenstechnische Prozesse dienen, da die  Vorkommen dieser Brennstoffe auf der Erde endlich sind und gestreckt werden sollen. Weiter wurde damals schon mit großen Preissteigerungen bei einer Verknappung gerechnet.

Bei einem Vortrag am 19.Juni 2009 in der Düsseldorfer Akademie der Wissenschaft des Landes NRW hat Herr Prof. Dr. Carl Friederich von Weizäcker in einem umfassenden Vortrag nachgewiesen, dass die Energieversorgung der Welt ohne Nutzung der Kernkraft auf Dauer unmöglich ist.

Für die BRD ergeben sich aus dieser Aussage folgende Probleme:

–        Wenn in Deutschland keine neuen Kernkraftwerke gebaut werden, dann tun es unsere Nachbarn an unseren Grenzen. Die dann zwangsläufig höheren Stromkosten gehen voll zu Lasten der Deutschen Verbraucher;

–        Wegen des hohen Anteils an Strom aus Kernkraftwerken liegen die Strompreise in Frankreich in allen Tarifgruppen bei etwa 50% der deutschen Tarife;

–        Z.Zt. sind weltweit etwa 400 Kernkraftwerke in der Planung. Für jedes dieser Kernkraftwerke werden ca. 3 Milliarden Euro investiert, das sind 1,2 Billiarden Euro;

–        Die deutschen Kraftwerksbauer hatten einen Anteil von etwa 20% am Weltmarkt, damit gehen der deutschen Wirtschaft rund 240 Milliarden Aufträge verloren, mit den entsprechenden Arbeitsplatzverlusten;

Die in Deutschland in Betrieb befindlichen Kernkraftwerke, auch die älteren Anlagen, sind unzweifelhaft mit die besten und sichersten weltweit. In allen Betriebsjahren ist nicht ein einziger Unfall mit Strahlungsfolgeschäden erfolgt, weder beim Bedienungspersonal und schon gar nicht in der Bevölkerung. Diese sicheren Anlagen sollen jetzt, da weltweit ca. 400 neue Kernkraftwerke in Planung sind, stillgelegt werden. Einen größeren volkswirtschaftlichen Unsinn kann man nicht erdenken.

Zur Beurteilung der nuklearen Probleme bei Störungen in Kernkraftwerken hat die Internationale Atomenergiebehörde Beurteilungskriterien festgelegt. Dies beinhalten 8 Störungsstufen die folgende Aspekte berücksichtigen: Radiologische Auswirkungen außerhalb der Anlage; Radiologische Auswirkungen innerhalb der Anlage; Beeinträchtigung von Sicherheitsvorkehrungen. Diese werden charakterisiert nach Unfällen, Störfällen und Störungen.

In den letzen 15 Jahren traten in allen deutschen Kernkraftwerken 2198 sogenannte meldepflichtige Ereignisse ein. Hiervon betrafen 3 die Stufe 3, 98% die Stufe 0. Selbst die Störungen im KKW Krümel wurde mit der Stufe 0 beurteilt.    Wenn Politiker und die Presse auf „Ereignisse in KKW“ hinweisen, dann sollten sie auch den Gefährdungsgrad nach dieser international gültigen Skala erwähnen.

In den 60iger Jahren wurde mit der Entwicklung der Hochtemperatur-Reaktortechnik  begonnen. Hieran war ich als Ingenieur in führender Position bei BBC/Krupp beteiligt.  Die Ausarbeitung eines Vortrages, den ich kürzlich im KKW Biblis der RWE gehalten habe, „Die Technik der Hochtemperaturreaktoren“  können Sie gerne einsehen, wer möchte, möge mir bitte seine e-mail Adresse geben, ich schicke ihn dann zu. Eine Graphitkugel, diese sieht genau so aus,  wie ein Brennelement, habe ich Ihnen mitgebracht. Ich kann den 20 seitigen Vortrag, er hat in Biblis eine Stunde gedauert, Ihnen hier nicht vortragen. Mir wurde der Vorwurf gemacht, dass ich die Technik so genau beschrieben hätte, dass er praktisch eine Bauanleitung für diese Reaktoren sein könnte.

Ich möchte daher nur kurz auf die Vorteile dieser Technik eingehen:  Die Idee stammt von Prof. Dr. Rudolf Schulten, als er junger Physiker und Ingenieur bei BBC war.

Grundlagen seiner Überlegungen waren:

–  Kugelförmige Brennelemente wegen der gute Handhabbarkeit im Reaktor;

– Umwälzung, also Beladung des Reaktors während des Betriebes;

– Graphit als Hauptwerkstoff für die Brennelemente und Reaktoreinbauten;

– Helium als Kühlmittel;

–  aus Uran 235 und Thorium 232 als Brennstoff mit der Möglichkeit,   neuen Brennstoff zu erbrüten;

– Hohe Temperaturen und Drücke bei der Dampferzeugung mit der Möglichkeit, hohe thermodynamische Wirkungsgrade zu erzielen und die Hochtemperaturwärme zur Anwendung in chemischen Prozessen mit dem Ziel, aus Bio-Massen flüssigen Brennstoff zu erzeugen.

– Die Möglichkeit, neuen nuklearen Brennstoff zu erbrüten. Dadurch ist die Versorgung von Kernkraftwerken mit nuklearem Brennstoff auf hunderte von Jahren gesichert.

– eine inhärente Sicherheit des Systems durch Vermeidung einer Kernschmelze- „GAU“- auch bei kompletten Ausfall der Reaktorkühlung – Ursache des Unfalls in Tschernobyl- zu vermeiden.

Dies wurde 1967 bei der Inbetriebnahme des AVR Reaktors in Jülich erprobt. Der 1. GAU fand also nicht in Tschernobyl, sondern in Jülich statt. Hier flog der Reaktor nicht in die Luft, sondern kühlte sich langsam von alleine ab. Dieser Vorgang wurde 1977 und dann auch in China wiederholt, mit dem gleichen Ergebnis. Nach dem genannten AVR, der 1966 mit einer  Leistung von 15 MW in Betrieb ging und praktisch störungsfrei bis 1989 lief, wurde ab 1970  der THTR in Schmehausen gebaut, hier mit einer Leistung von 300 MW. Dieser Reaktor wurde nach 16.000 Betriebsstunden 1989 aus politischen Gründen stillgelegt.

Nun wird diese HTR Entwicklung in China und SA mit unserem know how weitergeführt, mit dem zu vermutenden Ergebnis, dass wir später für unser know how, mit dem wir in den 60iger bis 80iger Jahren weltweit konkurrenzloser Spitzenreiter waren, Lizenzgebühren bezahlen müssen.

Bei der Ausarbeitung meines Vortrages habe ich mir die Frage gestellt, ob wir diese Spitzenstellung mit den bei uns vorhandenen Kenntnissen und Betriebserfahrungen nochmals erreichen können. Meine Schlussfolgerung nach Durcharbeitung vieler Unterlagen ist, wir können es in etwa 2 Jahren wieder sein. Während des Betriebes beider Kernkraftwerke ist keine einziger nennenswerter Unfall mit „Strahlenfolgen“ aufgetreten, weder beim Betriebspersonal noch in der Umgebung.

Die Betriebserfahrungen mit beiden Reaktoren zeigen:

–        HTR – Kraftwerke können im elektrischen Verbundnetz regelungstechnisch einwandfrei eingesetzt werden;

–        Die Anlagen sind sicherheitstechnisch problemlos zu betreiben;

–        Die Bestrahlungsdosis des Personals ist bei Betrieb und selbst bei Reparaturarbeiten am offenen Primärteil sehr gering;

–        Sicherheitstechnisch begründete Betriebseinschränkungen oder sicherheitstechnisch relevante Schäden hat es bei beiden Anlage nicht gegeben;

–        Die Gesamtanlage und alle Anlageteile konnten im großtechnischen Einsatz erprobt werden;

–        Die Sicherheitstechnik ist soweit entwickelt, dass selbst bei einer größten überhaupt denkbaren Störung keine Gefahr für das Bedienungspersonal oder die Bevölkerung gegeben ist. Selbst dann ist eine Evakuierung der Bevölkerung im engen Umkreis der Anlage nicht erforderlich.

Preiswerte Energie ist die Grundlage jedes wirtschaftlichen Fortschritts. Dass Strom aus Kernkraftwerken billiger ist, zeigt und Frankreich. Hier liegen die vergleichbaren Stromtarife für alle Abnehmer bei etwa 50% der Tarife in Deutschland.

Herr Werhahn hat diese Technik als „Grüne Atomkraftwerke“ bezeichnet. Eine treffende Formulierung, denn alle Argumente der Umweltschützer gegen Atomkraftwerke treffen hier nicht zu.

Ich sehe in dieser Technik die wohl einzige Chance, dass sich Deutschland  von Primärenergieimporten unabhängiger machen kann.

Zur Beurteilung der Frage der Gefährdung bzw. Strahlenbelastung der Bevölkerung durch Kernkraftwerke sollten auch folgende Kriterien berücksichtigt werden:

–        Seit Millionen von Jahren wird alles Leben auf der Erde durch die Sonne und aus der Erdkruste heraus radiologisch belastet;

–        die Frage, ob die Erde überhaupt bewohnbar ist ohne diese Strahlungen ist ungeklärt;

–        In Deutschland ist die Strahlung im Feldberggebiet im Schwarzwald mit 1.800 mrem oder 18 mSv am höchsten. Es ist kein Fall einer Strahlenschädigung bekannt.

–        Die mittlere Kollektivdosis während der Betriebszeit des von den Gegnern „geschmähten“ THTR-300 betrug 45 Personen mSv/Jahr, bei Reparaturen am offenen Kern lag sie zeitweise bei zulässigen 100 mSv;

–        Beim AVR lag die Strahlenbelastung zum Zeitpunkte der Stilllegung bei 0,39 mSv/Jahr für das Betriebspersonal, also weit niedriger, als  an „Land“;

–        Durch das Unglück in Tschernobyl (Stufe 7) wurde die Umgebung des THTR in Schmehausen mit nuklearen Niederschlägen in Höhe von 50.000 Becquerel (Bq) belastet;

–        Das Öko-Institut in Freiburg behauptet in einer Pressekampagne gegen den THTR, dass diese Belastung vom THTR durch eine unbeabsichtigte Freisetzung leicht radiologisch belasteten Heliumgases hervorgerufen wurde.  Diese Behauptung war falsch, der zusätzlich radiologische Niederschlag lag nur bei 0,1 Bq. Ein Beweis, welchen Wahrheitsgehalt die „Horrormeldungen“ solcher Institute haben.

–        Der HTR ist weltweit der einzige „katastrophenfreie Reaktor“.

Nun noch einige Bemerkungen zur Frage der Endlagerung, primär am Beispiel des THTR-300:

–        Die hochstrahlenden Brennelemente sind nach Stilllegung und Abzug aus dem Reaktorkern in Aahaus eingelagert worden;

–        Alle anderen strahlenden Anlageteile und Komponenten lagen innerhalb des Spannbetonbehälters, der auch die Funktion der Strahlenabschirmung hatte. Außerhalb dieses Behälters lagen keine noch strahlenden Anlageteile;

–        Der Sekundärteil wurde verkauft, da völlig unbelastet, und ist heute noch in Betrieb;

–        Das drucklose Containment, die Luftführungswand, wurde beibehalten;

–        Alle Durchdringungen durch Spannbetonbehälter und Containment wurde gasdicht verschweißt, mit verhältnismäßig geringem Kostenaufwand;

–        Der Raum zwischen Spannbetonbehälter und dem Containment ist radioaktiv völlig unbelastet und kann ohne Schutzbekleidung und sogar ohne Strahlendosis-Mess-Plakette betreten werden;

–        Ein sichererer Einschluss von hochstrahlende Teilen und damit sicherere Zwischen/Endlagerung ist nicht denkbar;

Daraus folgt, dass eine sichere Endlagerung strahlender Reaktorkomponenten nach Betriebsende oder von während des Betriebes ausgetauschten Komponenten technisch realisierbar ist, zu relativ geringen Kosten. Allerdings müssen ideologische, unrealistische Vorstellungen und Forderungen vermieden werden. Der Beweis, einer sicheren Lagerung liegt in Schmehausen seit nunmehr 20 Jahren vor. Niemanden stört diese Anlage, aber auch niemand will dies zur Kenntnis nehmen, denn dann würde ja zugegeben, dass das Problem der Endlagerung einwandfrei lösbar ist. Dann wäre aber auch die politische Diskussion beendet, und das wollen Politiker, die gegen die Kerntechnik sind, und auch die KKW-Gegner nicht zugeben.

Zum Schluss nochmals  einige Kernsätze  zu den sogenannten „Erneuerbaren Energien“, vor allem Sonne und Wind:

–        Die Verfügbarkeit dieser Anlagen liegt bei 1.000 bis 1.500 Stunden im Jahresdurchschnitt;

–        Die Jahresverfügbarkeit aller konventionellen Anlage einschließlich der KKW liegt bei max. 8.760 Stunden im Jahr, im Durchschnitt, wegen des erforderlichen Teillastbetriebes, bei etwa 65-70%;

–        Die Behauptung und Zielsetzung, dass „erneuerbare Energien“ in Zukunft zu 100% die Stromversorgung sicherstellen können, ist barer Unsinn. Die erforderlichen Speicherkapazitäten  sind gar nicht realisierbar, weder technisch und schon überhaupt nicht wirtschaftlich.

–        Wenn diese unrealistischen Vorstellungen von Politiker realisiert würden, würde der Strompreis bei geschätzten 5 – 10 Euro/Kwh liegen;

–        Ohne Kernkraftwerke sind die sozialen Sicherungssysteme der BRD auf Dauer nicht finanzierbar.

–        Diese Politik ist also die denkbar unsozialste Politik, die überhaupt denkbar ist.

Wenn die Finanzkrise mit ihren Auswirkungen auf die gesamtwirtschaftliche Entwicklung und die dabei entstehenden Steuerausfälle zu einer realistischen und gesamtwirtschaftlich vernünftig durchdachten Umwelt-, Energie- und Klimapolitik führen würde, wären ihre Nachwirkungen   zum Vorteil für die Wirtschaft, denn das, was weltweit, aber vor allem in Deutschland, denn hier sind wir weltweit einsame Spitze, durch eine solche Politik an Finanzmitteln eingespart werden könnte, würde alle Verluste, die  durch die Finanzkrise entstanden sind, vor allem die Steuerausfälle, in wenigen Jahren egalisieren.

Herr Hans Werner Sinn hat ein Buch herausgegeben, „Das grüne Paradoxon“. Es ist ein beachtenswertes Buch.

Wolfgang Clement hat den Begriff der „Deutschland AG“  im internationalen Wettbewerb geprägt und in einem Vortrag gefordert, den Weg zur „Deindustriealisierung in Deutschland endlich zu verlassen. Dieser Weg zur „Deindustriealisierung“ führt zwangsläufig zur „Destabilisierung“ der Deutschen Wirtschafts- und Sozialpolitik. Die Folgen dieser Politik sind leicht zu erahnen, ja heute bereits offen zu erkennen.

Altkanzler Helmut Schmidt hat dies erkannt. Er schreibt in der Einleitung seines Buches „Außer Dienst“:

„Salus publica supreme lex“.

Welche Politiker handeln noch danach?

Dr.-Ing. Urban Cleve Dortmund

Related Files




Klimapolitik: Schnee von gestern!

Vor einigen Jahren untersuchte der Sozialpsychologe Philip E. Tetlock die Prognosefähigkeit von Experten. Er bat 248 renommierte Fachleute, Voraussagen zu künftigen Ereignissen abzugeben. Nach Auswertung von insgesamt über 80.000 Zukunftsfragen kam er zu dem ernüchternden Ergebnis: Obwohl es sich allesamt um hochqualifizierte Fachleute handelte, die sich ihr Wissen teuer bezahlen ließen, schnitten ihre Vorhersagen schlechter ab als Zufallsprognosen. Doch noch schlimmer: Tetlock stellte eine bemerkenswerte Korrelation zwischen der Qualität der Experten und der Häufigkeit, mit der sie im Fernsehen auftreten fest, die auch als die „Goldene Regel der Sektherstellung“ bekannt ist: Die größten Flaschen sind meistens auch die lautesten. 
Dennoch verhalten wir uns so, als könnten wir den Lauf der Geschichte berechnen, regulieren und steuern. Wir prognostizieren Ölpreise, Sozialversicherungen und globale Temperaturen, die sich über 50 Jahre erstrecken, ohne zu erkennen, dass wir nicht mal voraussagen können, ob es übermorgen um 14:30 Uhr in Offenbach regnet. Die Summe unserer Fehler bei der Vorhersage von politischen, wirtschaftlichen und ökologischen Ereignissen ist so gigantisch, dass ich mich jedes Mal wieder wundere, wie ernst man Leute nimmt, die das trotzdem immer wieder tun. 
In Wahrheit sind Voraussagen nichts weiter als ein ritueller Regentanz. Das Hauptziel ist allerdings nicht, Regen zu machen, sondern, ein besserer Tänzer zu werden. Damit will ich nicht sagen, dass niemand, der sich mit der Zukunft befasst, wertvolle Informationen liefert. Im Gegenteil. Es gibt eine Menge Wirtschaftsforscher, die immerhin neun der letzten fünf Rezessionen präzise vorausgesagt haben. Auch viele Journalisten prognostizieren immer wieder aufs Neue die Kinoöffnungszeiten mit verblüffender Genauigkeit. Der Vater eines amerikanischen Freundes wusste sogar auf das Jahr, den Tag und die Stunde genau, wann er sterben würde. Der Richter hat es ihm gesagt. 
Doch die meisten Phänomene sind hochkomplex. Alles ist mit allem verbunden. Wenn ich mir am Hintern ein Haar ausreiße, tränt das Auge. Leider geben die wenigsten Fachleute zu, wenn sie an die Grenzen der Berechenbarkeit stoßen und sagen dann lieber Dinge wie: „Ja gut, sooo exakt kann man das natürlich nie vorausberechnen. Aber unser Unwissen ist über die Jahre wesentlich genauer geworden!“ 
Kein Wunder, denn mit dem Eingeständnis der eigenen Fehlbarkeit kann man sehr schlecht Macht ausüben. Kein Staatsmann, der sich hinstellt und sagt: „Och, eigentlich haben wir keine Ahnung…“ wird gewählt. Insgeheim sehnen wir uns alle nach klaren, einfachen Wahrheiten – auch wenn eventuell falsch sind. 
Das ist wahrscheinlich der Hauptgrund, weshalb nahezu alle Politiker die Klimaforschung so lieben. Man stabilisiert lieber die Globaltemperatur für das Jahr 2100, als für nächstes Jahr den Staatshaushalt. 
In der Klimapolitik geht es keineswegs ums Klima, sondern es geht um Macht, um Ideologie und es geht um die Beschränkung der menschlichen Freiheit. Genauso wie im Kommunismus und im Nationalsozialismus will man die freie und spontane Entwicklung der Menschheit durch eine zentralistische Art der Planung der ganzen Welt ersetzen. 
Die Klimaforschung ist ein beschämendes Beispiel dafür, wie sich unzählige Wissenschaftler für dieses politische Ziel instrumentalisieren lassen. Obwohl seit nunmehr zehn Jahren die Globaltemperatur kontinuierlich sinkt (ja, sie lesen richtig!!!) kommt kein großes Klimaforschungsinstitut auf die Idee, dass ihre Prognosemodelle vielleicht einen grundsätzlichen Denkfehler enthalten könnten. Die Natur wird sich schon wieder an die errechneten Daten angleichen. „Wir rechnen uns die Welt wiedewiedewie sie uns gefällt…“ 
Für seriöse Wissenschaftler ist das nicht weiter erstaunlich. Denn entgegen der allgemeinen Auffassung ist Klimaforschung keine Naturwissenschaft, sondern reine Zahlenjonglage. Klimamodelle basieren nämlich allesamt auf komplexen nicht-linearen Systemen. Auch ich habe mich in meinem Physik-Studium mit diesen mathematischen Konstrukten beschäftigen müssen. Das erste, was man dabei lernt ist, dass man Parameter und Wechselwirkungen problemlos so einstellen kann, dass jedes gewünschte Ergebnis heraus kommt. Eine winzige Änderung der Anfangsbedingungen, eine klitzekleine Einflussgröße über den Effekt der Wolkenbildung, und ich kann ihnen beweisen, was immer sie wollen. Ich kann eine weltweite Eiszeit herbeiführen oder eine katastrophale Erwärmung. Klimamodelle sind nichts anderes als die in Formeln gegossene Meinung ihrer Schöpfer. Der Nobelpreisträger Wolfgang Pauli sagte sinngemäß zu solcherlei Taschenspielertricks: „Diese Theorien sind wertlos. Sie sind sogar nicht mal nur schlecht.“ 
Allzu oft lassen wir uns durch Wissen blenden. Doch in Wirklichkeit wissen wir fast gar nichts: Dunkle Materie, das Geheimnis des Lebens, die Frage, was ihr 15jähriger Sohnemann macht, wenn sie nicht zuhause sind, oder warum Xavier Naidoo so viele Platten verkauft. Niemand hat nur die blasseste Ahnung davon, was Gravitation ist. Oder Bewusstsein. Oder wieso Frauen den Lidschatten nicht mit geschlossenem Mund auftragen können. 
In einem Zeitalter, in dem wir den Ursprung des Universums entdeckt haben und die Krümmung der Raumzeit beobachten, ist es ernüchternd, dass Wissenschaftler nicht einmal in der Lage sind, etwas so scheinbar Banales wie die Bildung von Eiskristallen zu erklären. 
Wenn also ein Schwätzer wie Al Gore Dinge in den Mund nimmt wie: „Die Wahrheit ist…“ dann sollte man schnell das Weite suchen und sich lieber gleich an Uri Geller wenden. 

Gastautor Vince Ebert. Mit freundlicher Genehmigung des Autors. Der Originalartikel erschien zuerst auf ACHGUT 




EIKE Forscher findet sensationellen neuen Beweis: Die Sonne steuert unser Klima!

Ich glaube daher, eine weitere ergänzende Bestätigung für einen Zusammenhang zwischen Sonnenaktivität durch Sonnenwind und Globaler Temperatur gefunden zu haben: Der sogenannte Sonnenwind-Index, ein Maß für die Verformung des Magnetfeldes der Erde durch die Sonnenwinde. Es liegen kontinuierliche Magnetfeldmessungen seit etwa 150 Jahren an verschiedenen Stationen (21) der Erde vor. Mit den Daten aus antipodischen Standorten kann die Einwirkung der Sonnenwinde auf das Magnetfeld der Erde seit 1868 beschrieben werden. Ich habe die Zeitreihen dieses SOWI von der NOAA übernommen, fand relativ gute Übereinstimmung mit dem Verlauf der Sonnenfleckenhäufigkeit und mit dem Verlauf der Globalen Temperatur. Die Vergleiche zwischen SOWI-Index und Globaler Temperatur zeigen zudem zweierlei auf:

1. Die langfristigen mittleren Änderungen des SOWI-Index entsprechen den langfristigen Änderungen der globalen Temperatur in der Nördlichen Hemisphäre seit 1868. Daraus ist zu folgern, dass diese terrestrischen Klimaänderungen durch die Solaraktivität maßgeblich gesteuert wird

2. Insbesondere seit Beginn der Wärmeperiode um 1980 steigt auch der SOWI-Index an und erhebt sich über alle vergangenen Werte seit 150 Jahren. Das stabilisiert meine Aussage, dass diese aktuelle Wärmeperiode solar induziert ist durch starke Sonnenwinde mit starken Forbush-Reduktionen der Höhenstrahlung und Wolkenreduktionen über den Svensmark – Effekt seit den Achtzigern  und was in diesem Ausmaß bis vor 150 Jahren nicht zu sehen ist.

3. Der abrupte starke Rückgang des SOWI-Index seit 2007 kündigt das Ende der durch solaren Einfluss bestimmten Wärmeperiode an.

4. Diesem Rückgang schließt sich der Verlauf der Globalen Temperatur an durch Beendigung des Anstiegs und durch Anzeichen eines starken Rückganges, der naturgemäß wegen der Wärmekapazitäten des Bodens und der Ozeane zeitverzögert ist (siehe Abbildung).

Inwieweit das durch die Magnetfelder des Sonnenwindes deformierte Erdfeld selbst eine meteorologische  Rolle spielt, kann ich noch nicht sagen.

Aber das Verhalten dieser neuen gemessenen – nicht theoretischen- Komponente und vor allem auch ihre langjährig zurückgreifende Beschreibung des Sonnenwindeinflusses ist sehr bedeutsam für die Beurteilung der Ursachen des sogenannten modernen Klimawandels.

Ich halte das Auffinden des SOWI-Index als Steuerelement für des Klima für sehr bedeutsam l. Es müsste von der Fachwelt diskutiert werden, um von der Vorstellung einer anthropogenen Ursache des sogenannten Klimawandels herunterzukommen, die aus physikalischen Gründen auch nicht nachweisbar ist.

Der Sonnenwind-Index war mir bislang in diesem Zusammenhang neu. Seine Korrelation mit der Globaltemperaturkurve extrem eng. Weiteres in meinem neuen paper demnächst auf dieser Website.

Dr. H. Borchert EIKE

Dipl. Physiker




Klimawandel durch Kohlendioxid? Wissenschaftsskandal oder Abzockerei?

Vorab dieser Hinweis: Strikt getrennt werden müssen diese genannten Betrachtungen zum CO2 von dem Gebot zum sparsamen Umgang mit fossilen Energiequellen. Das sollte nicht verwechselt werden. Ein sparsamer Umgang ist nur zu unterstützen. Jedoch sind die Forderungen des Weltklimarates intensiv zu hinterfragen!

Doch zuvor wenige Erklärungen zum Klimawandel und dem CO2.

Klima – das geordnete Chaos

Das Klima umfasst das langjährige, mindestens das dreißigjährige Wettergeschehen an einem Ort  mit vielen Kenngrößen wie Temperatur, Niederschlag, Windgeschwindigkeit, Luftdruck, Luftfeuchtigkeit, Sonnenscheindauer usw.. Es sicherlich nicht falsch, beim Klima von einem „Zustand des geordneten Chaos“ zu sprechen, da die einzelnen Klimakomponenten derzeit rechnerisch nicht bewertet werden können, auch nicht mit den besten Computern. Klimavorhersagen sind somit nicht möglich! Auch gab es noch nie einen Klimastillstand. Daher ist  der Gebrauch des Begriffs Klimawandel oder Klimaänderung in diesem Zusammenhang fachlich nicht korrekt, denn er suggeriert, dass es bisher einen Klimastillstand gegeben habe. Vielfältige Beweise dafür liefern z. B. Polenanalysen, Jahresringe der Bäume, Bodenprofile, ehemalige Siedlungsstätten im Küstenbereich, die stetigen Anstiege der Meerespiegel in den letzten Jahrtausenden usw.). 

Kohlenstoffdioxid – das CO2

Der Weltklimarats beschreibt das CO2 nur (!) als Treibhausgas mit der negativen Eigenschaft eines „globalen Erwärmungspotentials“. Jedoch ist das CO2 neben 16 anderen Nährelementen mengenmäßig das wichtigste Nährelement in unserer Nahrungskette! Das sollte jeder wissen! Es wird aus der Luft über die Spaltöffnungen der Blätter (Stomata) aufgenommen und mit der Photosynthese der Pflanzen zu Zucker, Eiweiß und Fett „verarbeitet“. Die aufgenommenen Nahrungsmittel werden von Mensch und Tier verdaut. Dabei wird Energie (Körperwärme, Bewegung usw.) gewonnen und CO2 als „Abfallprodukt“ über den Atem, der  4000 ppm – parts per million CO2-Anteil enthält, wieder an die Umgebungsluft abgegeben. Der Kreislauf ist geschlossen, und das CO2 steht den Pflanzen für ein erneutes Wachstum zur Verfügung. Gäbe es kein CO2, gäbe es  kein Leben! Dass das CO2 ein Luftverschmutzer oder gar ein Gift sei, ist hiermit klar widerlegt. Die Forderung zur „Dekarbonisierung“, also die Entfernung des Kohlenstoffs aus der Welt, bewertet sich damit von selbst zu einer absurden, ja volksverdummenden Forderung. Etwa 380 ppm  CO2 sind zur Zeit in der uns umgebenden Luft vorhanden, das entspricht 0,038 Volumen-%. Für die Pflanzen ist diese Konzentration viel zu niedrig, um optimal wachsen zu können. Schon lange laufen weltweit Versuche, die Umgebungsluft der Pflanzen auf mindestens 1000 ppm CO2 anzureichern, denn dann haben sie etwa 20 % höhere Erträge.

Zweifel am Weltklimarat – keine Denkverbote

Weltweit ist inzwischen eine wissenschaftliche Gegenbewegung zum IPCC entstanden, der NIPCC und andere Organisationen. Sie wehren sich gegen unwissenschaftliche Argumente, wirtschaftliche Auflagen und staatliche Kontrollen über Lebensstil, Einkommen und alltägliche Entscheidungen, weil dafür das CO2 eben keine Begründungen hergibt. Die Wissenschaftler erheben massive Kritik gegen die UN wie: „CO2: Der größte wissenschaftliche Skandal in unserer Zeit“, „unwissenschaftlich und fehlerhaft“ oder: „Politik gut – Treibhausphysik missverstanden“. Nachstehend drei Gründe, warum das CO2 keinen Einfluss auf die globale Erderwärmung haben kann:

1. Zusätzliches anthropogenes CO2 wirkt kaum erwärmend

Vom IPCC wurde in seinem Bericht von 2001 die Klimasensitivität des CO2, also die globale Temperaturerhöhung bei fiktiver Verdoppelung seiner Konzentration, mit 0,8 Grad Celsius angegeben. Die ebenfalls vom IPCC angegebene logarithmische Formel sagt aus, dass dieser Wert bei jeder weiteren Verdoppelung gleich bleibt, d.h. bei Vervierfachung der CO2-Konzentration sind es wieder nur 0,8 Grad usw. Anschaulich ausgedrückt, wirkt die Infrarot-Absorption des CO2 wie ein scharzes Tuch. Hängt man ein weiteres schwarzes Tuch davor, kann die Absorption nur noch extrem geringfügig gesteigert werden – durch Effekte an den Tuchrändern. Angesichts dieser, vom IPCC selber bestätigten Zusammenhänge, geht von anthropogenen CO2-Emissionen keine Gefahr aus. Daher mussten neue Mechanismen (er)gefunden werden – die Wasserdampfrückkoppelung, für deren maßgebenden Einfluss es aber infolge der ebenfalls vorhandenen Gegenkoppelungen keine Nachweise durch Messungen gibt. Schlussendlich noch ein Blick auf die Größenordnungen: Die CO2-Konzentration in der Luft ist in den letzten 100 Jahren von ca. 0,030%v auf 0,038%v angestiegen, d.s. 8 Moleküle mehr in 100000 Luftmolekülen. Diese 8 Moleküle mehr sind angeblich für die heute verkündete Klimakatastrophe verantwortlich!

2. Temperaturerhöhung sorgt für CO2-Erhöhung, nicht umgekehrt

Löst man den offensichtlichen Gleichlauf von Temperatur und CO2-Konzentration in der klimahistorischen Vergangenheit feiner auf, findet man, dass die CO2-Konzentration der Temperatur um grob 1000 Jahre hinterherläuft. Die Behauptung, auch in der Klimavergangenheit sei CO2 der Auslöser von Temperatursteigerungen gewesen, entspricht einem "Schwanz, der mit dem Hund wedelt". Inzwischen ist diese Auffassung wissenschaftlich nicht mehr haltbar. Aber auch die IPCC-Angaben zur Konzentration des CO2 in historischen Zeiten – gewonnen aus Eisbohrkernen – sind fragwürdig. Der Biologe Beck, überprüfte die Daten des Weltlkimarates und entdeckte erhebliche Ungereimtheiten: Beck fand heraus: Auch im 19ten und 20ten Jahrhundert waren die CO2-Werte zeitweise bereits über den heutigen Werten, ja sogar über 430 ppm. Die IPCC-Autoren haben hohe CO2-Werte bei ihren Darstellungen einfach weggelassen! Die Autoren, so Beck, „… haben schlampige und selektive Forschung betrieben, um ihre Theorie vom menschen-gemachten Klima zu begründen“. Ein schwerer Vorwurf, gegen diese Klimaforscher, der nicht nur von Beck erhoben wird.

3. Die Energie der Sonnenaktivitäten

Der Physiker Borchert: Die bodennahe Temperaturerhöhung seit 1989 – also der sogenannte Klimawandel der Neuzeit- ist ein „natürlicher klimatischer Effekt“, der durch „eine besondere Sonnenaktivität und nicht durch den Menschen verursacht wurde“. Auch für die Sonnenflecken gilt: Sie beeinflussen maßgeblich die Erdtemperatur, aber sie sind wiederum nicht allein verantwortlich, sondern sind eingebettet in einem umfangreichen Netz klimabildender Faktoren wie z. B. die globalen Meeresströmungen und Wolkenbildungen.

CO2-Besteuerung: Politischer Zweck – Macht-Missbrauch

Fasst man die Erkenntnisse zusammen, dann kann festgehalten werden, dass das zusätzliches anthropogenes CO2 praktisch keinen Einfluss auf die Erdtemperatur hat. Dennoch steht es merkwürdigerweise aus dem Blickwinkel der vermeintlichen „Klimaschützer“ im Mittelpunkt der Diskussionen. Warum werden die skizierten Katastrophen in Medien so dramatisch angepriesen und kaum hinterfragt? Es geht um Einfluss, Macht und um Geld, viel Geld, auch um hohe staatliche Subventionen. Welchen Wert hat denn schon eine Nachricht, die keine Dramatik vermittelt? Sie wird nicht gelesen! Und welchen Wert hat eine derartige Nachricht für die Politiker? Sie brauchen  nichts zu unternehmen, denn es besteht keine Gefahr. Für die vermeintlichen Wissenschaftler und neuerdings auch für einige Wirtschaftsbereiche heißt das allerdings: Keine Gefahr, kein Handlungsbedarf für Politiker, also kein Geld für die Institute und Wirtschaftszweige. Und das darf nicht sein. Deshalb sprechen diese Kreise das Wohl der Allgemeinheit an und bedienen sich selber.

Die Klimawarner haben die Richtigkeit ihrer Modellrechnungen bisher nicht bewiesen. Das hätten sie für eine glaubhafte Beweisführung mit dem vorhandenen Datenmaterial für die Vergangenheit schon längst tun können. Diesen Beweis scheuen sie allerdings. Wenn sie das Klima schon heute angeblich für das Jahr 2100 mit einem 6 °C höheren Wert vorhersagen können, dann müsste es für sie doch ein leichtes Spiel sein, z. B. komplett den Temperaturverlauf für das Jahr 2010 vorher zu sagen. Dann wäre ihre Glaubwürdigkeit bestens untermauert. Warum liefern diese Experten nicht diesen Beweis? Allerdings wissen gerade Bauern von aktuellen Wetterberichten, das zu häufig die 1-Tag-Vorhersage schon nicht stimmt, geschweige eine mehrtägige. Richtiger Verlass ist auf sie nicht.

Der Physiker Borchert fasst zusammen: „Die Besteuerung von CO2 aus Gründen des sogenannten Klimaschutzes hat keine wissenschaftliche Grundlage“. Altbundeskanzler Schmidt komentierte den G8-Klimabeschluss von Heiligendamm als „… reine Hysterie und dummes Zeug“. Auch der ehemalige EU-Ratspräsident Klaus kritisiert: „Dieser Erderwärmungs-Alarmismus schreit geradezu nach einer nie gesehenen Expansion von Regierungseingriffen, von Intervention und Kontrolle unseres Lebens“. Der nordirische Umweltminister Wilson hat die Diskussionen zum Klimawandel als „Propaganda“ zurückgewiesen. Andere Autoren vergleichen diese derzeit geplanten Auflagen der UN aber auch der deutschen Regierung mit dem mittelalterlichen Ablasshandel der Kirche. Heute bezeichnen wir derartige Vorgänge als Abzockerei und die darf es nicht mehr geben. Das ist Machtmissbrauch.

Schließlich: Wenn der Klima-Chefberater der Bundeskanzlerin die „Dekarbonisierung der Welt“ dringend fordert, dann wäre es doch angebracht, den Erfolg einer derartigen Maßnahme vorher den Bundesbürgern zu beweisen. Wie wäre es, wenn sich dieser Klimawarner in ein von außen abschottetes Klimahaus einschließt und genau das tut, was er uns empfiehlt, nämlich das CO2 aus der Luft dieses Klimahauses abpumpt. Technisch ist das möglich. Die Folgen sind in diesem Experiment allerdings genau vorhersagbar: Kein CO2 in der Luft, folglich kein Wachstum der Pflanzen, daraus folgend kein Sauerstoff mehr in der Luft. Das Ende des Lebens der Pflanzen und des Klimawarners im Klimahaus wäre kurzfristig besiegelt.

Dr. sc. agr. Albrecht Nitsch

Bremervörde

Der Artikel wurde zuerst in der "BAUERNZEITUNG" 34.WOCHE 2009 Rubrik "Agrarpolitik" veröffentlicht und ist hier, geringfügig ergänzt, wiedergegeben.

Related Files




Offizielle Aussage der IEA (Internationale Energie Agentur): Klimaschutz lässt Wirtschaft kollabieren!

Dass dieser enge Zusammenhang existiert, ist allen bekannt. Bekannt ist inzwischen auch, dass CO2 Erzeugung durch den Menschen, das Klima nicht oder jedenfalls nicht messbar beeinflußt. Kyoto hätte -so Prof. Tom Wigley (IPCC Klimatologe und Al Gore Berater)- wenn denn alle Staaten ihre Versprechungen erfüllt hätten, einen gerechneten Einfluß auf die Globaltemperatur von 7/100 °C. (Bis 2050)*. Nicht mal messbar. Jetzt soll dieser Irrsinn im Dezember in Kopenhagen verstärkt werden. 

Kyoto taugt nichts, das Klima ändert sich, ob wir es wollen oder nicht. So pfeifen es inzwischen die Spatzen von den Dächern. Seit 10 Jahren sinken die Temperaturen, der Sonnenaktivität folgend, aber die CO2 Konzentration steigt. Klimaschutz zu fordern und zu versprechen ist daher wohlfeil, aber bleibt Hybris.  

Warum, so fragt sich deshalb der aufgeklärte Zeitgenosse; warum sollen wir uns dann vom Wohlstand verabschieden, unseren CO2 Ausstoß senken, wenn dies nur dazu führt, dass wir unsere Konkurrenzfähigkeit verlieren und wieder in der Armut der vorindustriellen Zeit versinken? Die Antwort kann nur lauten: Die "Klimaschutz"- Agenda hat mit dem Klima nichts zu tun? Ja womit dann? Eine mögliche Antwort wäre: Um Mittel zu bekommen – unter Vorspiegelung falscher Tatsachen- zur Förderung "Erneuerbarer" Energien. Nur das funktioniert auch nicht. Da wurde schon viel, viel Geld zwangsweise bei den Verbrauchern abkassiert und als "Anreiz" in die Taschen weniger gelenkt. Die Bilanz dieser Anreize ist extrem negativ. Jeder Arbeitsplatz bei den Erneuerbaren vernichtet 2,2 Arbeitsplätze in der konventionellen Wirtschaft. So hat es der spanische Ökonom Calzada herausgefunden. (wir berichteten hier darüber) Ähnliches berichten renommierte andere Wirtschaftsinstitute, wie das RWI.  

Was also steckt hinter dieser unseligen Politik, die die deutsche Regierung mit Hilfe der EU so kräftig fördert? Das Wohl des Volkes, das Wohl Europas kann es nicht sein. Aber, was dann? 

Sollte wirklich so eine wirtschaftsfeindliche Politik gefahren werden, wie Sie sich Maurice Strong erster UNEP-Direktor – zu Beginn der Klimadebatte 1992 in Rio-  wünschte: "Besteht nicht die einzige Hoffnung  für diesen Planeten in dem Zusammenbruch der Industriellen Zivilisation?  Liegt es nicht in unserer Verantwortung, dafür zu sorgen, daß dieser Zusammenbruch eintritt?"

Große Teile der politische Klasse behaupten offiziell das Gegenteil zu wollen. Die  eingeleiteten Maßnahmen führen aber genau dahin. Wir sollten sie an ihren Taten messen, nicht an ihren Worten.

Michael Limburg EIKE

* In Wahrheit ergaben die Berechnungen einen Rückgang um 7/1000 °C bis 2050. Dafür wurden für die Erfüllung der Kyotovorgaben bisher knapp 700 Mrd. $ aufgewendet. Quelle: http://www.oekologismus.de/  Man beachte: die Temperatur ändert sich im Tausendstel-Bereich, was offensichtlich in einem weltweiten Massstab nicht messbar ist. 




4 ° Erwärmung bis 2050? Die Klimakonferenz in Kopenhagen wirft ihre Schatten voraus!

Zum eigentlichen Thema, der Temperaturentwicklung. Hier muss zuallererst einmal genauer die Erfassung derselbigen, sowie die statistische Auswertung betrachtet werden. Der letzte IPCC-Bericht 2007 (AR4) geht von einem Temperaturanstieg um, je nach Szenario, 0,11°C – 0,64°C pro Dekade aus. In den USA werden Audits der dort verwendeten Temperaturstationen durchgeführt, inwieweit deren Ergebnisse richtige Werte wiedergeben. Das Ergebnis fasst die folgende Abbildung zusammen.

Die Abbildung 1 zeigt, dass 90% der Messstationen des US-Temperaturnetzwerkes einen Fehler von größer 1°C aufweisen und damit der Fehler bereits deutlich höher liegt, als die Temperaturbandbreite, die das IPCC in seinem Bericht AR4 als mögliche Dekadenerhöhung angibt. Bei der Auditstudie (http://www.surfacestations.org/) handelt es sich nicht um Stichprobenuntersuchung, sondern um eine Flächenerfassung der Messstationen, wie die folgende Abbildung zeigt, bei der 82% der Temperaturmessstationen auditiert wurden. Aus verständlichen Gründen fehlt in Deutschland eine ähnliche unabhängige Überprüfung.

Die Abbildung 2 zeigt die Klassifizierung der über den USA verteilten Temperaturmessstationen. Die rote Farbe überwiegt eindeutig. Es wurden 82% aller Temperaturmessstationen erfasst, wobei nur 10% der Stationen einen Fehlerwert von <1°C aufweisen.

Folgend nur zwei Beispiele von hunderten, warum die Messstationen solche Fehlertoleranzen aufweisen.

Die Abbildung 3 zeigt eine Temperaturmessstation in Perry, Oklahoma in unmittelbarer Nachbarschaft zur Feuerwehr. Dazu die Infrarotaufnahme, die zeigt, wie die Hauswand auf die Station rückkoppelt.

 

Die Abbildung 4 zeigt eine Temperaturmessstation in Glenns Ferry, Idaho in unmittelbarer Nähe einer Trafostation. Auch hier entlarvt die IR-Aufnahme, wie stark sich der Trafo erhitzt und auf die Station einwirkt.

Die Studie zeigt weiter, dass Datenreihen von Stationen außerhalb von künstlichen Energiequellen/Rückstrahlern, keine Auffälligkeiten bei den Temperaturwerten ausweisen, wie folgende Abbildung links zeigt.

Die Abbildung 5 links zeigt die Messstation Orland in Kalifornien. Deutlich ist zu sehen, dass die Temperaturen zu Beginn des 20. Jahrhunderts z.T. deutlich höher lagen als während des sog. Klimawandels. Die Abbildung rechts (beide Abbildungen, Quelle: http://www.surfacestations.org/) zeigt eine ungenügende Station, die sich in unmittelbarer Nähe von aktiven Heizstrahlern befindet und einen starken Temperaturanstieg ausweist.

Geradezu unverschämt für einen Temperaturvergleich zu bisherigen Temperaturdaten ist die Tatsache, dass zum 01.04.2001 weltweit eine neue Temperaturdatenerfassung mit neuer statistischer Auswertung eingeführt wurde, alt und neu aber in ein und denselben Graphen abgebildet werden und dies auch noch unkommentiert. In 2001 wurden die sog. Mannheimer Temperaturwerteerfassung abgelöst.

In Deutschland wurde bis zum 31.03.2001 um 7,30 Uhr, 14,30 Uhr und 21,30 Uhr (letzter Wert wurde doppelt gewertet, weil man sich den vierten Wert in der Nacht sparen wollte – geht auf den Meteorologen Johann Jakob Hemmer zurück, der erstmalig im 18. Jahrhundert einen weltweiten Standard einführte) gemessen und durch 4 geteilt. In der Schweiz um 7 Uhr, 13 Uhr und 19 Uhr (letzter Wert wird doppelt gewertet) und durch 4 geteilt. In Frankreich wurde nur das Tagesminimum und das Tagesmaximum gemessen und durch 2 geteilt. Und so hatte jedes Land eine andere Methode zur Ermittlung der Durchschnittstemperatur. Alle diese Daten werden jedoch zu einer Globaltemperatur einfach gemittelt, was wissenschaftlich betrachtet bereits ein Husarenstück darstellt. Ab dem 01.04.2001 wird nun stündlich gemessen (wobei auch 4-mal am Tag gemessen werden darf), und die Addition der Werte durch 24 dividiert (bzw. durch 4). Auf Grund des stark asymmetrischen Tagesganges der Temperatur, ergeben sich beim selben Tag andere Tagesmittelwerte, je nach Anwenden der Methode und zwar gehen nach der neuen Methode die Tagesmittelwerte der Temperatur, wegen der geänderten statistischen Auswertung, in die Höhe, wie in Abbildung 6 gezeigt wird.

Wie sehr sich die Temperaturmesswerte ändern, wenn die Datenerfassungszeiten und Datenmengen in der vorgenommenen Art und Weise geändert werden, zeigt sehr anschaulich das folgende Beispiel. Dies war unter (http://home.arcor.de/meino/klimanews/index.html#) im Netz. Nach einer Diskussion des Autors dieses Berichtes mit Prof. Dr. Rahmstorf in 2008 auf KlimaLounge, war der Link einige Tage später vom Netz. Dem Autor liegt das Screenshot dieser jetzt gelöschten Seite (Name: “Bremen und Umland im Bild“) vor, welches in der Anlage (lättern Sie auf Seite 18 und 19 der Anlage arktische Temperaturen Mittelwerte) ersichtlich ist.

 

Die Abbildung 6 zeigt die Temperaturmessungen (auf der Abszisse sind die Anzahl der Messungen aufgetragen) der Wetterstation in Ny Ålesund auf Spitzbergen (Station “Koldewey“), die vom Alfred-Wegener-Institut betrieben wird. Vom Herbst 1990 bis Sommer 1997 wurde dreimal am Tag und zwar um 6-, 12-, und 18 Uhr gemessen. Ab Sommer (bis heute) wird acht mal täglich gemessen und zwar um 0-, 3-, 6-, 9-, 12-, 15-, 18-, und 21 Uhr. Sehr gut ist zu erkennen, dass mit der neuen Temperaturerfassung, die Temperaturkurve deutlich angehoben wird. Die Messwerte um 15 Uhr verursachen darüber hinaus noch starke Temperaturausreißer nach oben. Sowohl im Zeitraum 1990 bis Sommer 1997, als auch im Zeitraum vom Winter 1997 bis 2007 ist keine Tendenz der Temperatur zu erkennen. Wird aber über den gesamten Zeitraum von 1990 bis 2007 die Temperatur betrachtet, so steigt diese, aufgrund der vorgenommenen Änderung der Datenerfassung.

So ist denn auch der verbliebene, schwache Temperaturanstieg im 20. Jahrhundert, wie er auf Satellitendaten des UAH (http://climateresearchnews.com/wp-content/uploads/2008/12/uah_lt_since_1979.jpg) zu sehen ist, auf die gesteigerte Sonnenaktivität im 20. Jahrhundert zurückzuführen. Die Max-Planck Gesellschaft titelte am 27. Oktober 2004, “Sonne seit über 8.000 Jahren nicht mehr so aktiv wie heute“. Die folgende Abbildung zeigt denn auch, wie Sonnenaktivität und Temperatur auf der Erde bis in die heutige Zeit synchron laufen. Die Auswirkungen variabler Sonnenaktivität auf die Temperaturentwicklung bis in die Gegenwart, wurden auf EIKE bereits in zahlreichen Berichten dargelegt, z.B.: (http://www.eike-klima-energie.eu/news-anzeige/warnung-solar-cycle-may-cause-dangerous-global-cooling-in-an-few-years-time/).

Wichtig ist weiter zu wissen, dass es sich beim sog. TSI (Total Solar Irradiance), der üblicherweise zum Beleg der solaren Aktivität herangezogen wird, um eine irreführende Bezeichnung handelt, da nicht, wie die Bezeichnung angibt, die gesamte Strahlung der Sonne abgebildet wird, sondern nur der Teilbereich der Solarstrahlung von 200 nm – 2.000 nm, da die Satellitenmesssysteme nur diese Bandbreite erfassen.

 

Abbildung 7 zeigt die Änderung der magnetischen Stürme auf der Sonne von 1867 bis 2007 (blau, die grüne Linie zeigt den Trend von 1900 – 2005) und den 11-jährigen Schwabe-Zyklus. Es ist deutlich erkennbar, dass der Schwabe-Zyklus und der Gleißberg-Zyklus (Maximum während dem 19. Schwabe-Zyklus), der den Schwabe-Zyklus antreibt, zwar mit den relativen Maxima der magnetischen Stürme korreliert, nicht aber mit deren steigender Tendenz. Diese steht in Relation zum de Vries/Suess-Zyklus. Ergänzt nach Quelle: British Geological Survey (http://www.geomag.bgs.ac.uk/earthmag.html). In der kleinen Abbildung, in der die 3 letzten Schwabe-Zyklen dargestellt sind, ist gut zu sehen, wie mit dem Anstieg des de Vries/Suess-Zyklus die magn. Aktivität der Sonne stark zunimmt. Hierzu sind die hochenergetischen Protonen, die als Maß dienen, als rote Balken eingezeichnet (Quelle: NOAA Space Environment Center). Siehe auch unter (http://wetterjournal.wordpress.com/2009/07/14/der-einfluss-des-im-mittel-208-jahrigen-de-vriessuess-zyklus-auf-das-klima-der-erde/)

Quo vadis Temperatur?

Die NASA, das  Space and Science Research Center (SSRC) in Orlando und mittlerweile einer der bekanntesten deutschen Klimaforscher, Prof. Latif (http://www.eike-klima-energie.eu/news-anzeige/global-cooling-paradigmenwechsel-des-ipcc/) gehen für die nächsten Jahrzehnte von fallenden Temperaturen aus. Grund dafür sind keine Treibhausgase, wie auch nicht für den leichten Temperaturanstieg im 20. Jahrhundert, sondern, die fallende Sonnenaktivität, die ihr Maximum im de Vries/Suess-Zyklus um das Jahr 2003 hatte und bis zum Jahr 2005 hoch blieb. So schrieb der Sonnenforscher der NASA David Hathaway in 2005 (wir erinnern uns noch an die vermeintlichen Hitzetoten, die 2005 Einzug in die Presseberichte nahmen) “Das Solare Minimum explodiert – Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum“ (http://science.nasa.gov/headlines/y2005/15sep_solarminexplodes.htm). Von dieser Seite gab es unter (http://www.astrolabium.net/archiv_science_nasa/science_nasa_september2005/16-9-2005.html) eine deutsche Übersetzung, wie der Link-Name erkennen lässt – er bezieht sich eindeutig auf den NASA-Artikel.  Auch dieser Artikel wurde kurz nachdem der Autor in einer Diskussion auf KlimaLounge mit Prof. Rahmstorf den solaren Einfluss auf das Klima darlegte, wenige Tage später aus dem Netz genommen. Heute ist dort eine Wettseite zu finden, die in keiner Weise mehr zum Link-Namen passt. Nach diesem kleinen Exkurs zurück, wie sich die Temperaturen, entgegen aller Prognosen des IPCC entwickelten. Die folgende Abbildung gibt dies wieder.

 

Die Abbildung 8 zeigt die fallende Temperaturentwicklung von Januar 2002 bis Februar 2009. Deutlich zu sehen, dass die Temperaturentwicklung entgegengesetzt zu den IPCC-Prognosen verläuft, Quelle: (http://vademecum.brandenberger.eu/themen/klima/ipcc.php#cooling).

Siehe auch unter (http://www.globalresearch.ca/index.php?context=va&aid=10783). 

Derzeit ist die Sonne so inaktiv, wie seit mindestens 200 Jahren, so dass die Temperaturen, wie NASA, SSRC, Latif u.v.m. angeben für die nächsten Jahrzehnte fallen werden. Das Wissenschaftsmagazin Spektrum der Wissenschaft titelte in seiner Ausgabe 02/09 zur globalen Temperaturentwicklung und den IPCC-Prognosen “Kalt erwischt“.

Da die CO2-Konzentration offensichtlich weiter steigt, zumindest geben dies die diversen Messungen auf dem Mauna Loa an, ist ersichtlich, dass eine atmosphärische CO2-Konzentration keine Temperaturen triggert und somit keinen erkennbaren Einfluss auf diese ausübt. Das gegenwärtige trommeln einer drastischen Temperaturerhöhung um 4°C ( siehe z.B. hier) bis 2050, die (zufälligerweise?) doppelt so hoch ausfällt, wie die Postulate der Staats- und Regierungschefs auf dem G8-Treffen im Juli in L’Aquila, Italien, hat denn auch den Anschein, Medien, Journalisten und Öffentlichkeit mit Desinformationen auf Linie zu bringen, um dadurch Druck aufzubauen, dass die Klimakonferenz in Kopenhagen den Weg für weitere Milliardensummen im Klimamarkt freimacht. Wer die Zeche letztendlich zu begleichen hat, führte uns die Finanz- und Wirtschaftskrise vor.

Raimund Leistenschneider (EIKE)

Related Files




Wer berät die UNO? Wikipedia!

Report der UNEP soll die Delegierten aufrütteln

Zur Rechtfertigung solcher Maßnahmen wird in der Regel auf die Ergebnisse des Weltklimarates IPCC verwiesen, der in seinem letzten Zustandsbericht schließlich davon sprach, dass es “sehr wahrscheinlich” wäre dass der Mensch das Klima in jüngster Zeit maßgeblich beeinflusst habe.

Nun liegt die letzte Veröffentlichung eines Zustandsberichtes von Seiten des IPCC allerdings mehr als zwei Jahre zurück. Aus diesem Grund hat die Umweltorganisation der Vereinten Nationen UNEP einen Report veröffentlicht, in dem die Entwicklungen in der Klimaforschung in den letzten Jahren aufgezeigt werden sollen [2].

UNEP Climate Change Science Compendium Quelle: UNEP

Dieser Bericht soll die Delegierten der Welt davon überzeugen, dass die Situation kritisch ist und dass drastische Aktionen zur Verhinderung einer globalen Katastrophe unabdingbar sind. Schon das dramatische Titelbild soll wohl verdeutlichen, dass die Uhr tickt und wir auf dem besten Weg sind die Erde in eine unbewohnbare Wüste zu verwandeln. Und auch der Bericht selbst lässt keine Zweifel an seinem Anliegen. Nämlich aufzuzeigen, dass sich das Klima durch den Einfluss des Menschen immer dramatischer verändert.

So werden auf einer Weltkarte Wetterextreme der letzten Jahre gezeigt, die wohl das Fortschreiten der globalen Erwärmung illustrieren sollen. Dabei fällt auf, dass auch Ereignisse genannt werden, die so gar nicht in das Bild einer sich erwärmenden Erde passen wollen. Man bekommt zum Beispiel mitgeteilt, dass es zwischen Mai und Juni 2007 in Südafrika zu ungewöhnlichen Kälteereignissen kam und Johannesburg den ersten Schneefall seit 1981 erlebte. Auch eine Kältewelle in Usbekistan im Januar 2008 oder dass 2008/2009 der kälteste Winter seit mehr als zehn Jahren in Großbritannien war, wird erwähnt, ebenso die Tatsache, dass im Januar 2008 zum ersten mal in der Geschichte der Menschheit Schnee in Bagdad gefallen ist.

Kältewellen und Schneefall als Beleg für die globale Erwärmung? Aber natürlich!

Seitdem von offizieller Seite der Begriff “globale Erwärmung” durch das eingängige Wort “Klimawandel” ersetzt wurde, lässt sich wirklich jede Abweichung vom Mittel als Folge menschlichen Handelns verkaufen. Hitze oder Kälte, Überschwemmungen oder Dürren, Stürme oder Flauten, warme Sommer oder kalte Winter – egal, Hauptsache der Mensch ist schuld.

Beweise für die CO2-Klima-Hypothese fehlen

Einen Beweis hingegen, dass CO2 in der Atmosphäre zu den vorhergesagten Temperaturänderungen führt, hat bis heute niemand erbringen können. Eher das Gegenteil ist der Fall, seit die beiden deutschen Wissenschaftler Gerhard Gerlich und Ralf D. Tscheuschner eine Studie veröffentlicht haben, in der der postulierte CO2-Klima-Effekt mit physikalischen Mitteln widerlegt wurde [3].

Da waren die Zeiten für die Warner und Mahner im IPCC im Jahr 2001 noch besser. Von der Abkühlung, die die Welt seit fast zehn Jahren erlebt war noch nichts zu sehen und der lang ersehnte wissenschaftlich gesicherte Zusammenhang zwischen CO2-Emissionen und der steigenden Temperatur schien gefunden, eindrucksvoll illustriert durch den mittlerweile berüchtigten Hockeystick [4].

Seitdem dieser allerdings in Verruf geraten ist, fehlt den Verantwortlichen so etwas wie die sprichwörtliche “smoking gun”, ein direkter Beleg für den Einfluss des Menschen auf das Klima. Das ganze wundert ein wenig, wo doch dass IPCC nicht müde wird zu betonen, dass außer dem Original-Hockeystick noch dutzende weitere Publikationen das Gleiche gefunden hätten. Einen ungewöhnlich starken Temperaturanstieg seit Beginn des 20. Jahrhunderts. Und genau so einen Befund präsentiert uns auch die UNEP in ihrem Bericht. Ganz zu Anfang, auf Seite 5, wird eine Grafik mit dem Titel “Korrelation zwischen Temperatur und CO2? präsentiert.

„Korrelation zwischen Temperatur und CO2“ Quelle: Wikimedia ( http://commons.wikimedia.org/wiki/File:CO2-Temp.png)

Diese Grafik entspricht bis auf wenige Details fast exakt dem Hockeystick aus dem IPCC Report von 2001. Als Quelle wird Hanno 2009 angegeben. So wie es dargestellt wird, könnte sich die klimawissenschaftliche Gemeinde wieder beruhigt zurücklehnen. Die Ergebnisse von Michael Manns Hockeystick wurden, so scheint es, im Jahr 2009 durch eine wissenschaftliche Veröffentlichung bestätigt. Stutzig machen konnte einen lediglich, dass in der Literaturliste des UNEP-Reports eine solche Studie überhaupt nicht erwähnt wurde.

Wie ein Wikipedia-User den Gang der Welt verändern soll

Wer ist also dieser Hanno, dessen Grafik die Entscheider der Welt von der Dringlichkeit sofortiger drastischer Maßnahmen überzeugen soll? Wie sich herausstellte, handelt es sich bei ihm nicht, wie man annehmen sollte, um einen renommierten Klimawissenschaftler, sondern um einen norwegischen Biologen und Umweltschützer [5], der unter anderem für die Gesellschaft für Ökologie und für Friends of the Earth arbeitet [6]. Die Grafik, welche jetzt von der UNEP präsentiert wurde stammt von Ihm und wurde auf Wikipedia publiziert [7]. Die Darstellung im UNEP-Report hingegen suggeriert durch die Art der Literaturangabe unter der Grafik (Hanno 2009), es handele sich bei der Quelle um eine wissenschaftliche Veröffentlichung. Und selbst bei der Jahreszahl hat die UNEP geschlampt, wurde diese Skizze doch bereits 2005 erstellt.

Auch der Urheber der Grafik zeigte sich verwundert, dass sein Machwerk zu solch unerwarteter Prominenz gekommen ist. In einer Stellungnahme schrieb er: “Mein Graph ist in keinem wissenschaftlichen Journal veröffentlicht worden, schließlich bin ich kein Klimawissenschaftler.” [8].

Das Ganze stellt sich für den Außenstehenden so dar, als wäre die UNEP weniger daran interessiert korrekte wissenschaftliche Informationen zu verbreiten, als eine politische Botschaft zu übermitteln. In diesem Fall hat sie sich einfach einer Grafik aus Wikipedia bedient, welche ihre Sicht unterstützt und ihr durch die Art der Darstellung im Nachhinein einen wissenschaftlichen Anstrich gegeben.

Ein solches Vorgehen mag eventuell bei einem Schulaufsatz noch gerade so durchgehen. Bei jeder Arbeit mit nur halbwegs wissenschaftlichem Anspruch würde es jedoch zu Recht untersagt und müsste korrigiert werden. Wenn aber in einem zentralen Dokument einer globalen Umweltschutzorganisation, erstellt von Wissenschaftlern und von über 50 weiteren Wissenschaftlern begutachtet, eine solche unwissenschaftliche Vorgehensweise durchgehen kann, fragt man sich tatsächlich, ob die Wissenschaft bei der politischen Entscheidungsfindung überhaupt noch eine Rolle spielt.

Ab Anfang Dezember werden tausende Entscheider aus der ganzen Welt den Report der UNEP in den Händen halten. Ob den Delegierten wohl mitgeteilt wird, dass die Informationen die ihre Entscheidungen beeinflussen sollen das Resultat einer Bildersuche bei Wikipedia sind? Das wäre zu wünschen, aber glauben mag ich nicht daran.

Nachtrag: Nicht nur die inzwischen entfernte Hockeystickgrafik zierte diesen Bericht, sondern es werden Eisberge aus der Arktis als antarktische ausgegeben. (A misidentified image of “Arctic Icebergs” used by the United Nations Environment Program. (Source: Shutterstock) S. Dateianlage. Mit Dank an Spürnase K. Gans

Zur Fälschungsgeschichte "Hockeystick" siehe auch: http://www.eike-klima-energie.eu/news-anzeige/die-hockeystick-affaere-erklaeren-oder-zuruecktreten/

mehr weiterführende Links:

* Carbonsteuer siehe hier http://www.welt.de/wirtschaft/article4712076/EU-plant-Klima-Steuer-auf-Kohle-Gas-und-Sprit.html

ClimateAudit

Talkingaboutweather

Watts Up With That

Mit Dank an Readers Edition und Gastautor Rudolf Kipp

Related Files




Zukunft braucht Herkunft: Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache!

Das Klimasystem der Erde ist ein dynamisches, nichtlineares System, das permanent sowohl von langperiodischen als auch von kurzperiodischen und unsystematischen Einflussfaktoren angetrieben wird. Längerfristige Antriebe sind vor allem die Veränderungen des solaren Energieflusses, der „Solarkonstanten“. In welchem Ausmaß auch der anthropogene Treibhauseffekt eine Rolle beim längerfristigen Klimawandel spielt, soll in dieser Untersuchung nach dem Residuumprinzip überprüft werden.  

Zu den kurzperiodischen Klimafaktoren zählen die Veränderungen der Meeresoberflächentemperatur, wie sie u.a. im Pazifik als ENSO-Kalt- und Warmphasen und im Atlantik als meridionale Temperaturschaukel (H.Malberg, G.Bökens 1993) auftreten. Auch der vulkanische Einfluss wirkt sich kurzzeitig auf das Klima aus. So kommt es nach Vulkanausbrüchen durch den Feinstaub zu einer erhöhten atmosphärischen Trübung und damit infolge einer verstärkten Absorption von Solarstrahlung  zu einer Erwärmung in der oberen Stratosphäre bei gleichzeitiger Abkühlung in den bodennahen Schichten. 

Related Files




Solareinfluss 2: Zukunft braucht Herkunft: Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache!

Das Klimasystem der Erde ist ein dynamisches, nichtlineares System, das permanent sowohl von langperiodischen als auch von kurzperiodischen und unsystematischen Einflussfaktoren angetrieben wird. Längerfristige Antriebe sind vor allem die Veränderungen des solaren Energieflusses, der „Solarkonstanten“. In welchem Ausmaß auch der anthropogene Treibhauseffekt eine Rolle beim längerfristigen Klimawandel spielt, soll in dieser Untersuchung nach dem Residuumprinzip überprüft werden.  

Zu den kurzperiodischen Klimafaktoren zählen die Veränderungen der Meeresoberflächentemperatur, wie sie u.a. im Pazifik als ENSO-Kalt- und Warmphasen und im Atlantik als meridionale Temperaturschaukel (H.Malberg, G.Bökens 1993) auftreten. Auch der vulkanische Einfluss wirkt sich kurzzeitig auf das Klima aus. So kommt es nach Vulkanausbrüchen durch den Feinstaub zu einer erhöhten atmosphärischen Trübung und damit infolge einer verstärkten Absorption von Solarstrahlung  zu einer Erwärmung in der oberen Stratosphäre bei gleichzeitiger Abkühlung in den bodennahen Schichten. 

Als Beispiel für klimarelevante Wechselwirkungen/Rückkopplungen seien die gekoppelten Änderungen von Temperatur und Schnee-/Eisbedeckung beschrieben. Eine Erhöhung der Temperatur führt zu einem Rückgang der Schnee-/Eisbedeckung. Die Erdalbedo verringert sich, und die Temperaturerhöhung wird verstärkt. Analoges gilt, wenn sich Abkühlungen bei zunehmender Schnee-/Eisbedeckung (erhöhte Albedo) verstärken. Hohe Klimaeffekte haben auch Änderungen der Wolkenbedeckung.

Eine Vielzahl von Prozessen ist somit zu jedem Zeitpunkt in unserem Klimasystem wirksam. Was wir als Klimaverhalten beobachten, ist das Gesamtresultat aller Antriebe, welche auf der kurz- und langfristigen Zeitskala ablaufen.  In Abb.1 sind die in Mitteleuropa seit der Endphase der  Kleinen Eiszeit beobachteten Temperaturänderungen eines Jahrzehnts zum Vorjahrzehnt wiedergegeben. Dabei sind positive wie negative Temperatursprünge von 0,4K bis 0,5K keine Seltenheit. Im Einzelfall werden sogar +/-0,9K erreicht. Die Konsequenz aus diesem Temperaturverhalten ist, dass es nicht möglich ist, langfristige Klimaänderungen auf der Basis von einzelnen dekadischen (oder etwa jährlichen) Temperaturänderungen zuverlässig zu beurteilen.

Aufgrund dieses Sachverhalts haben unsere klimatologischen Lehrer als Klimaperioden 30-jährige Mittelwerte eingeführt. Auf diese Weise wird erreicht, dass die kurzzeitig wirkenden Klimaeinflüsse herausgefiltert werden und allein die langfristige, nachhaltige Klimaänderung sichtbar wird.  

In Abb.2  sind anhand der 30-jährig gleitenden Mitteltemperaturen die langfristigen Klimaänderungen von Mitteleuropa seit der Kleinen Eiszeit wiedergegeben. Der permanente Klimawandel ist ein Faktum. Ferner wird in der Abbildung (relativ zum Mittelwert) deutlich, wann unternormale, also kalte, und wann übernormale, also warme Klimabedingungen geherrscht haben. Der Kleinen Eiszeit des 17. Jahrhunderts folgte eine Wärmeperiode im 18. Jahrhundert. An diese schloss sich die Kälteperiode des 19. Jahrhunderts an. Ihr folgte die Erwärmung im 20. Jahrhundert. Fazit: Der Klimawandel ist ein systemimmanenter Prozess. Alle unsere Vorfahren mussten sich auf veränderte Klimaverhältnisse einstellen. Auch die heutigen und nachfolgenden Generationen werden dieses tun müssen – egal welche CO2-Maßnahmen ergriffen werden.  

Ursachen der langfristigen Klimaänderungen   

Bei der Frage nach der primären Ursache des langfristigen Klimawandels ist die Klimawissenschaft auch unmittelbar vor dem UN-Klimagipfel in Kopenhagen (Dezember 2009) unverändert in zwei grundsätzliche Lager gespalten. Das eine Lager ist sich mit Politik und Medien in der  Annahme einig, dass der anthropogene Treibhauseffekt den langfristigen Klimawandel primär verursache, auch wenn es dafür keinen schlüssigen Beweis gibt. Vor allem empirische Klimatologen und Astrophysiker gehen dagegen davon aus, dass der solare Einfluss auf das Klima, wie zu allen Zeiten, der dominierende langfristige Klimaantrieb ist. Zur Klärung dieses Dissens sollen  nachfolgend unterschiedliche räumliche und zeitliche Klimaskalen analysiert werden. Dabei bleibt der methodische Ansatz gegenüber den früheren Untersuchungen grundsätzlich unverändert, jedoch werden entsprechend den Klimaperioden über 3 Dekaden Untersuchungsintervalle von 3 Sonnenfle-ckenzyklen definiert.

Die rotierende Sonne ist wie unser Klimasystem ein dynamisches, nichtlineares System. In ihr wirken nukleare, elektrische, magnetische, thermische Kräfte sowie die Gravitation. Die Folge der damit verbundenen Prozesse sind kurz- und langzeitliche Schwankungen des solaren Energieflusses. In Bezug auf die längerfristigen klimarelevanten Auswirkungen ist es daher auch beim solaren Antrieb sinnvoll, die kurzperiodischen/unsystematischen Aktivitätsschwankungen herauszufiltern. Dieses erfolgt, wie gesagt, durch die Mittelwertbildung der Sonnenfleckenzahlen über 3 Sonnenfleckenzyklen, im Mittel also über 33 Jahre. 

Die globale Klimaskala  

Von den untersuchten Klimaskalen umfasst die globale/hemisphärische Skala (mangels weltweiter Beobachtungsdaten) mit rund 150 Jahren den kürzesten Zeitraum der jüngeren Klimageschichte. In Abb.3 ist die globale Mitteltemperatur, in Abb.4 die mittlere Sonnenfleckenzahl jeweils über 3 Sonnenfleckenzyklen gleitend für die Zeit 1860-1999 dargestellt.

 

 Vergleicht man Abb.3 und Abb.4 miteinander, so fällt die längerfristige globale  Erwärmung unverkennbar mit einem Anstieg der Sonnenfleckenzahl, also mit einer langfristigen Zunahme der Sonnenaktivität, zusammen. Temperatur und Sonnenaktivität verlaufen grundsätzlich synchron. Analoges gilt für die Temperaturentwicklung auf der Nord- und Südhalbkugel.

Um den quantitativen Zusammenhang zwischen den langfristigen solaren Antriebsänderungen und den effektiven (direkten und indirekten) Auswirkungen auf die globale/ hemisphärische Temperatur zu bestimmen, wurde eine Korrelationsanalyse durchgeführt. Die Ergebnisse sind für die zeitlichen Intervalle 1860-1999, 1870-1999 und 1883-1999 in Abb.5 wiedergegeben.

Wie sich zeigt, ergibt sich für die von kurzperiodischen Einflüssen befreite langfristige Temperaturentwicklung ein globaler Korrelationskoeffizient von +0,90 mit dem solaren Antrieb. Mit +0,92 liegt der Korrelationskoeffizient für die Nordhalbkugel leicht höher als der Wert der Südhalbkugel von +0,87 –vermutlich ein Effekt der unterschiedlichen Land-Meer-Verteilung. Ferner zeigt der Blick auf Abb.5, dass die Korrelationskoeffizienten eine hohe zeitliche Stabilität aufweisen.  

    

Die lokale Klimaskala (Deutschland)

Während die globale Klimareihe den Klimawandel erst seit der Mitte des 19. Jahrhunderts erfasst, geben die Klimabeobachtungen von Hohenpeißenberg (60 km südwestlich von München gelegen) Aufschluss über die Klimaentwicklung in Deutschland seit 1780. Dabei zeichnen sich die Hohenpeißenbergdaten –im Gegensatz zu den globalen Daten- durch eine hohe Homogenität aus. Durch die über 3 Sonnenfleckenzyklen berechneten Mitteltemperaturen wurden die vielfältigen zirkulationsbedingten kurzfristigen kontinentalen und maritimen Einflüsse eliminiert, so dass im Ergebnis allein das langfristige Klimaverhalten von Deutschland erkennbar wird.  

In Abb.6 ist die Klimaentwicklung anhand der Temperaturbeobachtungen von Hohenpeißenberg für den  Zeitraum 1778-1999 dargestellt. (Die zwei Jahrestemperaturen 1778/1779 wurden zur Vervollständigung des entsprechenden Sonnenfleckenzyklus aus der Berliner Klimareihe reduziert). 

Wie Abb.6 zeigt, weist das Temperaturverhalten während der 220 Jahre einen U-förmigen Verlauf auf. Einer Wärmeperiode um 1800 folgte ein deutlicher Temperaturrückgang im 19. Jahrhundert. Ihm folgte  dann als Klimaerholung der Temperaturanstieg im 20. Jahrhundert. 

Die über 3 Sonnenfleckenzyklen gleitenden mittleren Sonnenfleckenzahlen sind in Abb.7 dargestellt. Wie sich zeigt, weist die solare Aktivität in den 220 Jahren einen grundsätzlich analogen Verlauf zum Temperaturverhalten von Deutschland auf.

Der verstärkten Sonnenaktivität am Ende des 18. Jahrhunderts mit einem Mittelwert von rund 45 Sonnenflecken folgten im 19. Jahrhundert zeitweise Werte zwischen 30 und 35 und zum Ende des 20. Jahrhunderts von über 70, was einer Zunahme der mittleren Sonnenfleckenzahl um 100% während der  jüngsten Erwärmung entspricht.  

 

Den engen Zusammenhang zwischen den langfristigen Änderungen der Sonnenaktivität seit 1778 und dem gleichzeitigen langfristigen Temperaturverhalten in Deutschland  zeigt die statistische Korrelationsanalyse. 

Der rapide Temperatursturz zu Beginn des 19. Jahrhunderts fällt mit einer ebenfalls kurzen, aber deutlichen Abnahme der Sonnenfleckenzahl zusammen (Dalton-Minimum  der solaren Aktivität). Entsprechend hoch ist die Korrelation für den Zeitraum 1787-1836. Auch wenn wegen der geringen Zeitspanne der Koeffizient statistisch nicht signifikant ist, so ist der Zusammenhang zwischen solarem Aktivitätseinbruch und Temperatursturz eindeutig.

Für die Temperaturentwicklung in Deutschland seit 1837 berechnen sich Korrelationskoeffizienten mit der Sonnenaktivität -je nach Zeitintervall- zwischen +0,81 und +0,89 (Abb.8). Damit dürfte es keinen Zweifel geben, dass sich der integrale (direkte und indirekte) solare  Einfluss auf den langfristigen Klimawandel selbst auf der lokalen Klimaskala von Deutschland eindeutig nachweisen läßt und dass zwischen der jüngsten Erwärmung und der Zunahme der Sonnenaktivität ein hoher kausaler Zusammenhang besteht. Je nach Zeitraum vermag der solare Antrieb 65-80% der Temperaturvarianz, d.h. des Temperaturverhaltens der letzten 220 Jahre zu erklären.  

Die regionale Klimaskala (Mitteleuropa)

Die Untersuchung der Klimaentwicklung von Mitteleuropa basiert auf den Klimareihen von Berlin-Dahlem (J.Pelz), Prag sowie den beiden Stationen Basel und Wien (F.Baur). Den drei Dekaden 1671-1700 liegen die auf Mitteleuropa reduzierten Beobachtungen der Zentralenglandreihe (G.Manley) zugrunde. Damit stehen für die langfristige Klimadiagnose geprüfte Beobachtungsdaten für die Zeit seit dem letzten Höhepunkt der Kleinen Eiszeit zur Verfügung. (Nicht einbezogen wurden die Klimabeobachtungen von Hohenpeißenberg, da sonst die lokalen und die regionalen Ergebnisse nicht unabhängig voneinander gewesen wären).

In Abb.9 ist anhand der über 3 Sonnenfleckenzyklen gemittelten Temperaturen die langfristige Klimaent-wicklung von Mitteleuropa wiedergegeben (vgl. Abb.2). Nach der Endphase der Kleinen Eiszeit im 17. Jahrhundert stieg die Temperatur bis zum Wärmeoptimum um 1800 an. Dieser Wärmeperiode folgte die Kälteperiode des 19. Jahrhunderts. Ihr schloss sich die Erwärmung des 20. Jahrhunderts an. Die beiden Kälteperioden waren dabei mit einer maximalen Ausdehnung der Alpengletscher verbunden. Mit Gebeten, mit Bittprozessionen und dem Versprechen, in Zukunft tugendhafter zu leben, hofften die Menschen damals, dass eine höhere Macht einen weiteren Vorstoß der Gletscher verhindern (Der Tagesspiegel, 7.8.2009) und damit der Kälte Einhalt gebieten möge.  

Fragt man nach dem dominierenden Klimaantrieb, nach der primären Ursache des wiederholten Wechsels der ausgedehnten Kälte- und Wärmeperioden  in den letzten 3 Jahrhunderten, so liefert der Vergleich des Klimawandels seit der Kleinen Eiszeit (Abb.9) mit der Veränderung der Sonnenfleckenzahl (Abb.10) eine  schlüssige Antwort. Das synchrone langfristige Verhalten von Temperatur und Sonnenaktivität über die gesamte Zeitspanne ist so eindeutig, dass jeder Zufall ausgeschlossen werden kann. 

Der ruhigen Sonne des Maunder-Minimums Ende des 17. Jahrhunderts folgte die Zunahme der Sonnenaktivität im 18.Jahrhundert. Dieser folgte das solare Dalton-Aktivitätsminimum im 19. Jahrhundert und der Anstieg der solaren Aktivität im 20.Jahrhundert auf die höchsten Werte der letzten Jahrhunderte.

Ferner kommt in beiden Zeitreihen deutlich ein periodisches, sinusartiges Schwankungsverhalten zum Ausdruck. Der Vergleich von Abb.9 und Abb.10 zeigt: Sonnenaktivität und Temperaturverlauf weisen beide eine rund 200-jährige Schwingung auf. In der Astrophysik wird diese 200-jährige Schwingung der Sonnenaktivität als De-Vries-Zyklus bezeichnet. 

Die hohe Verknüpfung von Klimaentwicklung und Sonnenaktivität seit der Kleinen Eiszeit kommt auch beim Vergleich von Abb.11 und Abb.12 zum Ausdruck. Dort sind die Abweichungen vom Mittelwert der Temperatur bzw. der Sonnenfleckenzahl für die 3 Sonnenfleckenzyklen umfassenden Klimaperioden dargestellt.

Die negativen Anomalien der Temperatur des 17. und des 19. Jahrhunderts  sind gekoppelt mit den negativen Anomalien der solaren Aktivität. Den positiven Temperaturabweichungen des 18. und des 20. Jahrhunderts entsprechen die zeitgleichen positiven Abweichungen der solaren Aktivität. 

Anders ausgedrückt: Perioden mit übernormaler Sonnenaktivität, entsprechen einer aktiven Sonne und sind mit Wärmeperioden verbunden. In Zeiten mit einer unternormalen Sonnenaktivität, einer ruhigen Sonne, kommt es zu Kälteperioden.

Grundsätzlich lässt sich somit über den Zusammenhang von Sonnenaktivität und Klimaverhalten festhalten: Zeiten mit langfristig zunehmender Sonnenaktivität fallen langfristig mit Erwärmungen zusammen. In Perioden mit einer langfristigen Abnahme der solaren Aktivität kommt es langfristig zur Abkühlung.     

Dieser qualitative Zusammenhang wird durch die Ergebnisse der Korrelationsanalyse in vollem Umfang bestätigt. Korreliert wurden wiederum die über 3 Sonnenfleckenzyklen gleitenden Mitteltemperaturen mit den entsprechenden mittleren Sonnenfleckenzahlen. Die Ergebnisse sind in Abb. 13 dargestellt. 

Wie zu erkennen ist, berechnen sich für den Zusammenhang zwischen dem langfristigen Verhalten der  solaren Aktivität und dem langfristigen Temperaturanstieg nach der Kleinen Eiszeit bis zum Ende des 18.Jahrhunderts Korrelationskoeffizienten von +0,90 bis +0,94. Analoges  gilt für die kurze, intensive Ab-kühlungsphase zu Beginn des 19. Jahrhunderts. Für die heute diskutierte Erwärmung von der Mitte des 19. Jahrhunderts bis zum Ende des 20.Jahrhunderts ergeben sich Korrelationskoeffizienten mit der Sonnenaktivität von +0,83 bis +0,87 und für die Periode vom Ende des 19. Jahrhunderts bis 1999 von +0,90 bis +0,92. Bedenkt man, dass ein Korrelationskoeffizient (per Definition) maximal den Wert 1,0 annehmen kann, so ist der dominierende solare Einfluss auf den langfristigen Klimawandel nicht länger weg zu diskutieren.

Zusammenfassende Schlussbetrachtungen  

In dieser klimadiagnostischen Untersuchung wurde der Klimawandel der letzten Jahrhunderte auf drei räumlichen Klimaskalen analysiert: auf der globalen, der lokalen und der regionalen Klimaskala. Damit verbunden sind drei zeitliche Klimaskalen. 

Die globale/ hemisphärische Untersuchung basiert auf den CRU-Klimareihen (Hadley-Center,UK) seit 1850. Der lokalen Klimaskala liegen die homogenen Klimabeobachtungen von Hohenpeißenberg seit 1780  zugrunde. Die regionale Klimaskala wird durch die „Klimareihe Mitteleuropa“ erfasst. Sie reicht bis 1671 zurück und damit bis zum letzten Höhepunkt der Kleinen Eiszeit.

Als erster Sachverhalt ist festzustellen: Die globale IPCC- Klimareihe ist mit rund 150 Jahren die kürzeste. Sie erfasst nur ein sehr begrenztes Zeitfenster und ihre Erwärmung ist ohne Bezug zur Klimavorgeschichte.    

Der zweite wichtige Tatbestand ist: Die globale Klimareihe beginnt, wie die Klimareihe Mitteleuropa beweist, zu einer Zeit mit den lebensfeindlichsten Klimaverhältnissen nach der Kleinen Eiszeit. In der Mitte des 19. Jahrhunderts waren die Klimabedingungen so ungünstig, dass als Folge der Kälteperiode in Mitteleuropa Missernten und Hungersnöte auftraten und Menschen verhungert sind. Wer diese lebensfeindliche Klimaepoche für Mensch und Natur zum Referenz-/Normalklima erklärt, indem er die aktuelle Erwärmung dramatisiert und als Klimakatastrophe darstellt, der stellt die Klimarealität auf den Kopf und schürt bewußt eine Klimahysterie. Man fragt sich unwillkürlich: cui bono? 

Wie die gegenwärtigen Klimabedingungen auf der langfristigen Klimaskala wirklich einzuordnen sind, wird durch die lokale Klimareihe von Hohenpeißenberg und die Klimareihe Mitteleuropa dokumentiert: 

In den letzten Jahrhunderten kam es zu einem wiederholten Wechsel von anhaltenden Kälte- und Wärmeperioden. Dem letzten Höhepunkt der Kleinen Eiszeit im 17. Jahrhundert folgte eine Erwärmung im 18. Jahrhundert. Ihr folgte nach einem rapiden Temperaturrückgang die Kälteperiode des 19. Jahrhunderts und dann die Wärmeperiode im 20. Jahrhundert. 

Der Einwand, Mitteleuropa sei für das globale Klimaverhalten nicht repräsentativ, ist auf der langfristigen Klimaskala unrichtig. Dass die Klimaentwicklung der letzten Jahrhunderte in Mitteleuropa den globalen Klimaverlauf auch vor 1850 grundsätzlich widerspiegelt, lässt sich aus  der extrem hohen Korrelation von +0,95 (1851-2000) bis +0,97 (1881-2000) ableiten, die sich für die 30-jährig gleitenden Klimaperioden zwischen globalem und mitteleuropäischem Klimaverhalten ergibt. Dieser Zusammenhang ist auf dem 99,9%-Niveau hochsignifikant.

Vor diesem Hintergrund stellt die globale Erwärmung nach 1850 lediglich den aufsteigenden Ast einer langperiodischen Klimaschwingung dar.

Die Antwort auf die Frage nach dem dominierenden Klimaantrieb auf der globalen, lokalen und regionalen Klimaskala folgt aus der Analyse des langfristigen Klimaverhaltens einerseits und den langfristigen Veränderungen der solaren Aktivität anderseits. 

Klimafluktuationen, also kurzperiodisch wirkende Antriebe (z.B. El Nino/La Nina, Vulkanausbrüche), sind auf der langfristigen Klimaskala grundsätzlich unerheblich. Diese stellen klimatische Oberschwingungen dar, die dem langfristigen Klimaverlauf nur überlagert sind. 

Der nachhaltige Prozess, dem sich Mensch und Natur anpassen müssen, ist die langfristige Klimaänderung. 

Entsprechend der klimatologischen Konvention, Klimafluktuationen durch die Bildung 30-jähriger Mittelwerte  zu eliminieren, wurde die Klimadiagnose über den Zusammenhang von solarem Antrieb und Klimaverhalten mittels Klimaperioden von 3 Sonnenfleckenzyklen (im Mittel 33 Jahre) durchgeführt. 

Auf diese Weise wird es möglich, das langfristige Klimaverhalten und die primäre Ursache deutlicher zu erkennen als dieses unter Einbezug der vielfältigen kurzfristigen Variabilität möglich ist. 

Auf der globalen Klimaskala berechnen sich für den Zusammenhang von solarer Aktivität und globaler/ hemisphärischer Temperatur im Zeitraum 1860-1999 stabile Korrelationskoeffizienten von +0,90. Das Ergebnis ist auf dem 99,9%-Niveau hochsignifikant.  

Auf der lokalen Klimaskala (Deutschland) folgen für den Zusammenhang zwischen Temperaturverlauf Hohenpeißenberg und solarer Aktivität im Zeitraum 1860-1999 statistisch hochsignifikante Korrelationskoeffi-zienten von +0,83 bis +0,89. Für die vorhergehende kurze, intensive Abkühlungsphase liegt die Korrelation mit der Sonnenaktivität über +0,90.  

Auf der regionalen Klimaskala von Mitteleuropa ist die enge Kopplung zwischen den langfristigen Änderungen der solaren Aktivität und dem Klimaverhalten seit der Kleinen Eiszeit, d.h. für über 300 Jahre nachweisbar. Für die Erwärmungsperiode unmittelbar nach der Kleinen Eiszeit berechnen sich Korrelationskoeffizienten von +0,90 bis +0,94. Ebenso hohe Werte ergeben sich für die kurze, rapide Abkühlung zur Zeit des Dalton-Minimums der solaren Aktivität. Die jüngste Erwärmung Mitteleuropas weist ab 1848 je nach Zeitintervall Korrelationskoeffizienten von +0,87 bis +0,92 mit den Änderungen der solaren Aktivität auf.  Auch diese Werte sind auf dem 99,9%-Niveau statistisch abgesichert.

Fazit: Der dominierende Einfluss der solaren Aktivität auf das langfristige Klimaverhalten ist auf der globalen und hemisphärischen sowie auf der lokalen und regionalen Klimaskala eindeutig nachzuweisen. Langfristige  Änderungen des solaren Energieflusses führen im Klimasystem zu direkten und indirekten Reaktionen. Direkt sind die breitenkreisabhängigen Temperaturänderungen gemäß dem jeweiligen Einfallswinkel der Sonnenstrahlung. Dabei kommt naturgemäß in den Tropen und den wolkenarmen Subtropen den Einstrahlungsänderungen das stärkste klimatische Gewicht zu, denn 50% der Erdoberfläche liegen in dieser strahlungsintensivsten Zone zwischen 30°N-30°S. Dort findet folglich auch im System Erde/Ozean-Atmosphäre die stärkste thermische Energieumsetzung statt. 

Über die damit verbundenen Veränderungen der Hadley-/Passat-Zirkulation kommt es zu komplexen Auswirkungen auf die gesamte planetarische Zirkulation, d.h. auf die atmosphärischen und ozeanischen Wärme-transporte. 

Indirekt sind jene Auswirkungen, die durch photochemische Prozesse (Ozonschicht) und durch Rückkopplungseffekte, z.B.  durch großräumige Veränderungen der Wolken- und Schnee-/Eisbedeckung hervorgerufen werden.  

Es liegt in der Natur statistisch-klimadiagnostischer Analysen, dass sie die physikalischen Einzelprozesse nicht aufzulösen vermögen. Die vorgestellten Ergebnisse stellen das Integral über alle durch die solaren Antriebsänderungen verursachten Auswirkungen auf das Temperaturverhalten dar. Der Zusammenhang zwischen Klima-/ Temperaturentwicklung in den letzten Jahrhunderten und den Änderungen des solaren Antriebs in dieser Zeit sind statistisch auf dem 99,9%-Niveau  abgesichert. 

Wie die früheren Untersuchungen gezeigt haben, ergeben sich unter Einbezug auch der kurzperiodischen natürlichen Klimaantriebe für den solaren Antriebsanteil Korrelationen von +0,75 bis +0,80. Das entspricht einer erklärten Varianz durch den solaren Effekt bis zu 65%. Betrachtet man allein die relevanten langfristigen Klimaänderungen, indem die kurzfristigen Klimaschwankungen herausgefiltert werden, so folgt: Für den Zusammenhang zwischen langzeitlichem solarem Aktivitätsverhalten und langfristiger Klimaentwicklung berechnen sich Korrelationskoeffizienten von +0,90. Der integrale solare Anteil erklärt somit rund 80%  der langzeitlichen Klima-/Temperaturänderungen. Die statistische Irrtumswahrscheinlichkeit liegt nur bei 0,01 Prozent.

Daraus folgt: Die in den bisherigen Klimamodellen dem solaren Effekt zugewiesene Statistenrolle widerspricht der Klimarealität. Dem solaren Einfluss kommt die dominierende Rolle beim langfristigen Klimawandel zu. Der anthropogene Treibhaus-/CO2-Einfluss auf die langfristige Klimaentwicklung wird  weit überschätzt. Sein Beitrag vermag nach den obigen Ergebnissen maximal 20% des langfristigen Temperaturverhaltens zu erklären. Abkühlungsphasen, ob kurz- oder langfristig, kann der anthropogene Treibhauseffekt dabei physikalisch überhaupt nicht erklären. Als jüngste Beispiele seien der Temperaturrückgang der letzten 10 Jahre und die Abkühlung in den 1960er/70er Jahren genannt. 

Es ist ein Rätsel, wie die Politik auf der Grundlage einer der Klimavergangenheit widersprechenden und wissenschaftlich nicht konsensfähigen Arbeitshypothese über den anthropogenen CO2-Einfluss „Klimabeschlüsse“ mit  weitreichenden Konsequenzen begründen kann. Alle Szenarienrechnungen, ob bei Banken, in der Wirtschaft oder in der Klimaforschung, sind im Konjunktiv und daher unter Vorbehalt zu verstehen. Sie basieren auf vielfältigen Annahmen und führen in eine  Vertrauenskrise, wenn sie als fundierte Prognosen missinterpretiert werden. Wenn die klimatische Zukunft der klimatischen Herkunft so offensichtlich widerspricht, ist über kurz oder lang mit einem Platzen der anthropogenen „Klimablase“ und mit mehr realistischen Klimamodellen zu rechnen.   

Statt einer auf tönernen Füßen stehenden Klimapolitik wäre es angebracht, alle Anstrengungen auf eine ehrgeizige globale Umweltpolitik zu konzentrieren. Saubere Luft, saubere Flüsse, Seen und Ozeane, ein unbelasteter Erdboden gehören zu den fundamentalen Rechten aller Menschen. So ist z.B. das Abschmelzen hochgelegener Gletscher eine Folge fehlenden Umweltschutzes in der Vergangenheit und nicht des Klimawandels. Eine Erwärmung von 1°C vermag physikalisch bei Gletschertemperaturen weit unter 0°C nichts zu bewirken. Ein mit Russ und Staub verunreinigter Gletscher verliert dagegen sein natürliches Reflexionsvermögen und absorbiert verstärkt Sonnenlicht und damit Wärmestrahlung. Die Folge: Der Gletscher „schwitzt in der Sonne“, er schmilzt. Die im Schatten liegenden Gletscherregionen schmelzen hingegen nicht.

Die Klimazukunft 

„Prognosen sind immer schwierig, vor allem wenn sie die Zukunft betreffen“, soll der berühmte Atomphysiker Nils Bohr einmal gesagt haben. Dies gilt auch für das Verhalten der Sonne. Die rund 200-jährige Schwingung der solaren Aktivität  ist jedoch ein astrophysikalisches Faktum. Neben dem beschriebenen Maunder- und Dalton-Minimum im 17. bzw. 19. Jahrhundert wird der rund 200-jährige De-Vries-Zyklus  auch durch das Spoerer- Minimum im 15. Jahrhundert belegt. Die damit verbundene rund 200-jährige Klimaschwankung ist ebenfalls ein Faktum. Alle drei solaren Aktivitätsminima waren mit Kälteperioden verbunden. Im 15. Jahrhundert war zeitweise die Ostsee vollständig zugefroren. Im 17. Jahrhundert lag der letzte Höhepunkt der Kleinen Eiszeit, der 200 Jahre später die Kälteperiode des 19. Jahrhunderts folgte. Die Phasen hoher Sonnenaktivität korrespondieren dagegen jeweils mit den Erwärmungen im 16., 18. und 20. Jahrhundert. 

Gemäß dieser rund 200-jährigen Schwingung befinden wir uns mit hoher Wahrscheinlichkeit derzeit am Ende einer Wärmeperiode und damit am Beginn einer Abkühlung als Folge eines zu erwartenden  solaren Aktivitätsrückgangs. Zu diesem Ergebnis kommen auch das SSRC (Space Science Research Center) in Orlando/USA und – nach einem Bericht der russischen Zeitung „Novosti“ (Juni 2008) – das russische Hauptobservatorium Pulkov bei Sankt Petersburg. 

Die von den bisherigen Klimamodellen aufgrund des CO2-Effekts für das 21. Jahrhundert vorhergesagte fortschreitende Erwärmung ist aufgrund der klimadiagnostischen Ergebnisse daher höchst unwahrscheinlich.  

P.S.1 Australische Wissenschaftler (R.M.Carter et al.) sind ebenfalls zu Ergebnissen über den hohen El Nino-Einfluss bei der globalen Erwärmung der letzten  Jahrzehnte gekommen (J.Geophys.Res., 2009), wie sie in den Beiträgen zur BWK SO 34/07 und SO 11/09 dargelegt worden sind.  

P.S.2 Es ist soeben erstmals gelungen, mit einem Klimamodell (NCAR/USA) nachzuweisen, dass schon geringe solare Aktivitätsänderungen klimatisch messbare Auswirkungen verursachen: Meehl, G.A.,J..M. Arblaster, K. Matthes, F. Sassi, and H. van Loon (2009), Amplifying the Pacific climate system response to a small 11 year solar cycle forcing, Science, 325, 1114-1118. 

P:S.3 Die Sonne ist weiterhin nahezu frei von Sonnenflecken, und die Eisbedeckung in der Arktis liegt in diesem Sommer über der der beiden Vorjahre. 

P.S.4 Kohlendioxid wird zu Unrecht als „Klimakiller“ und „Umweltverschmutzer“ verteufelt. Außer Wasser gibt es für das irdische Leben im allgemeinen und die Welternährung im speziellen kei-nen Stoff , der wichtiger ist als das Spurengas CO2 (0,038 Vol.%). Aus H2O und CO2 bauen Pflan-zen (Photosynthese) unter Produktion des lebenswichtigen Sauerstoffs O2 ihre  Zellsubstanz auf, d.h. die gesamte Nahrungsgrundlage für Mensch und Tier.., J.M. Arblaster, K. Matthes, F.   

Literatur

– Brohan, P., J.J. Kennedy, I. Haris, S.F.B. Tett and P.D. Jones: Uncertainty estimates in regional and global observed tem-perature changes: a new dataset from 1850. J. Geophysical Research   

111, D12106, doi:10.1029/2005JD006548 — pdf 

– BMBF   „Herausforderung Klimawandel“. 2004: http://www.bmbf.de/pub/klimawandel.pdf

– Claußnitzer, A. Das Maunder-Minimum. Eine Modellstudie mit dem „Freie Universität Berlin Climate      

  Middle Atmosphere Model“ (FUB-CMAM). Diplomarbeit. 2003

– Cubasch, U. Variabilität der Sonne und Klimaschwankungen. Max-Planck-Forschung. Das Wissen- 

  schaftsmgazin der Max-Planck-Gesellschaft (2001)

– Eddy, J.A. „The Maunder Minimum“. Science 192. 1976

– EIKE: www.eike-klima-energie.eu

– Hennig, R. Katalog bemerkenswerter Witterungsereignisse –von den alten Zeiten bis zum Jahre 1800. 

  Abh. Kgl. Preuß. Met.Inst.Bd.II/4 .1904

– Hoyt, D. V. und Schatten, K. H.: The role of the sun in climate change. New York-Oxford, Oxford Univer-

  sity Press. 1997

– Jones, P.D., New, M., Parker, D.E., Martin, S. and Rigor, I.G., 1999: Surface air temperature and its varia-     

   tions over the last 150 years. Reviews of Geophysics 37, 173-199. 

– Labitzke,K. and H. van Loon: The signal of the 11-years sunspot cycle in the upper troposphere-lower 

  Stratosphere. 1997

– Labitzke, K. On the solar cycle – QBO – relationship. J.A.A., special issue 67, 45-54. 2005

– Landscheidt, T. Solar oscillations, sunspot cycles, and climatic change. In: McCormac, B. M., Hsg.: 

  Weather and climate responses to solar variations. Boulder, Ass. Univ. Press (1983)  

– Malberg,H. und G. Bökens: Änderungen im im Druck-/Geopotential- und Temperaturgefäl le zwischen Subtropen und Sub-polarregion im atlantischen Bereich im Zeit

              raum 1960-90. Z.f.Meteor. N.F. (1993)

– Malberg, H.  Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte: .

– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02  

– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02 

– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 10/03 

– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) – 

In Memoriam Prof. Richard Scherhag. 

– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07 

– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07 

– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei  C11/09O2-Verdopplung. SO 02/08 

– Die unruhige Sonne und der Klimawandel. SO 20/08

– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO  03/09

– La Nina – El Nino und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09

– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09

– Malberg, H. Klimawandel und Klimadiskussion unter der Lupe. Z. f. Nachhaltigkeit 5. 2007

– Malberg, H. Klimawandel und Klimadebatte auf dem Prüfstand. Verh. Ges.Erdkunde zu Berlin. 2007

– Matthes, K., Y. Kuroda, K. Kodera, U. Langematz: Transfer of the solar signal from the stratosphere to the troposphere: Northern winter.  J. Geophys. Res., 111.2005

– Matthes, K., U. Langematz, L. L. Gray, K. Kodera   Improved 11- year solar signal in the Freie Universität 

– Berlin climate middle atmosphere model. J. Geophys. Res., 109. 2003  

– Negendank, J.W. Gehen wir einer neuen Kaltzeit entgegen? Klimaänderungen und Klimaschutz.TU-Cottbus.2007   

– Pelz, J. Die Berliner Jahresmitteltemperaturen von 1701 bis 1996, Beilage Berl. Wetterkarte, 06/1997 

– Scafetta; N. and B.J. West: Is Climate Sensitive to Solar Variability. Physics today. (2008)

– Scherhag, R. Die gegenwärtige Abkühlung der Arktis. Beilage Berliner Wetterkarte SO31/1970

– Svensmark, H. Cosmic rays and earth‘s climate. Space Science Rev. 93 (2000) 

– Svensmark, H. Cosmic Climatlogy – A new theory emerges. A&G, Vol. 48 (2007)

– Svensmark, H., Friis-Christensen, E. Reply to Lockwood and Fröhlich – The persistent role of the Sun in   Climate forcing. Danish Nat.Space Center. Scientific Report 3/07 (2007)

– Wehry, W.    Einige Anmerkungen zu meteorologischen Messungen und Datenreihen. Beiträge BWK SO 22/09

Daten: Den Temperaturdaten von Basel und Wien liegen die Klimareihen von F. Baur zugrunde, die im Rahmen der „Berliner Wetterkarte“ fortgeführt wurden. 

Die Temperaturdaten von Prag wurden der Internet-Veröffentlichung www.wetterzentrale .de/Klima/ entnommen, erweitert durch Werte, die von der Station Prag direkt zur Verfügung gestellt wurden.

Die Temperaturreihe von Berlin entspricht der von J.Pelz auf Berlin-Dahlem redzierten Werten ab 1701.

Die globalen Temperaturreihen basieren auf den Werten des Climatic Research Unit, UK. (www.cru.uea.ac.uk/cru/data)

Die Sonnenfleckenzahlen entstammen den Veröffentlichung von NOAA

(ftp:/ftp.ngdc.noaa.gov/STP/SOLAR_Data/Sunspot¬_Numbers/Monthly/)

Die Sonnefleckenzahlen vor 1749 wurden aus verschiedenen Quellen ermittelt.

Horst Malberg, Univ.-Prof. (a.D.) für Meteorologie und Klimatologie; EIKE Beiratsmitglied

 Datei hier: Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache: Zukunft braucht Herkunft

Herausgegeben vom Verein BERLINER WETTERKARTE e.V. zur Förderung der meteorologischen Wissenschaft 60/09         http://www.Berliner-Wetterkarte.de  ISSN 0177-3984 

Related Files




Solareinfluss 1: Während die Sonne schläft!

Wenn sie das IPCC (International Panel on Climate Change) fragen, was die derzeitige Konsensmeinung zum Klimawandel darstellt, so lautet die Antwort „nichts“. Aber Geschichte und neuere Forschungen zeigen, dass dies möglicherweise absolut falsch ist. Lassen sie uns näher anschauen, warum. (Original in dänisch hier , in englischer Übersetzung hier)

Die Sonnenaktivität hat sich schon immer verändert. Um das Jahr 1000 war eine Periode hoher solarer Aktivität, was einher ging mit der MWP. In dieser Zeit war Frost im Mai ein weitaus unbekanntes Phänomen und wichtig für eine gute Ernte. Die Wikinger siedelten in Grönland und entdeckten die Küste Nordamerikas. Und die Chinesische Bevölkerung zum Beispiel verdoppelte sich in dieser Zeit. Aber um das Jahr 1300 begann die Erde kälter zu werden und das war der Beginn der Zeit, die wir die Kleine Eiszeit nennen. Damals verschwanden alle Siedlungen der Wikinger in Grönland. Die Schweden wunderten sich über den Frost in Dänemark und die Themse in London fror wiederholt zu. Immer häufiger gab es Missernten, was zur Unterernährung der armen Bevölkerung führte, Krankheit und Hunger ließen die europäische Bevölkerung um 30% schrumpfen. (Man sehe auch hier: Malberg über Solareinfluss)

Es ist wichtig festzustellen, dass die Kleine Eiszeit ein globales Ereignis darstellte. Sie dauerte bis in das späte 19. Jahrhundert, wo die solare Aktivität sich verstärkte. In den letzten 50 Jahren war die Sonne am höchsten in 100 Jahren seit der MWP. Und nun scheint es das die Sonne sich in Richtung eines „tiefen Minimums“ bewegt, wie wir es aus der kleinen Eiszeit kennen.

Der Zusammenhang von Solaraktivität und Klima durch die Jahrhunderte wurde versucht als zufällig zu erklären. Aber es stellte sich heraus, dass es fast egal war, welchen Zeitraum man betrachtete, nicht nur die letzten 1000 Jahre passen zusammen. Die Aktivität der Sonne wechselt über die vergangenen 10000 Jahre wiederholt zwischen hoch und niedrig. Bis jetzt befand sich die Sonne dabei 17% der Zeit im Tiefschlaf, gefolgt von einer Abkühlung der Erde.

Man wird sich vielleicht wundern, dass das IPCC glaubt, die wechselnde Sonnenaktivität hat keinen Einfluss auf das Klima – der Grund ist einfach, dass sie lediglich die Veränderung der Solarstrahlung berücksichtigen.

Satellitenmessungen der Solarstrahlung haben gezeigt, dass die Variationen zu gering sind für eine Klimaänderung, aber man hielt die Augen verschlossen vor einem zweiten, viel kräftigeren Weg, auf dem die Sonne in der Laage ist das Klima zu beeinflussen.

1996 entdeckten wir einen überraschenden Einfluss der Sonne – ihre Auswirkungen auf die Wolkenbedeckung der Erde. Ausgestossene energiereiche Teilchen explodierender Sterne, die kosmische Strahlung, unterstützen die Wolkenbildung.

Ist die Sonne aktiv, schirmt ihr Magnetfeld die kosmische Strahlung aus dem All ab, bevor sie die Erde erreicht. Mit der Änderung der Wolkenbedeckung kann die Sonne die Temperaturen der Erde erhöhen oder senken. Höhere Aktivität bewirkt weniger Wolken und es wird wärmer. Niedrige Aktivität hingegen verringert den Schutz gegen die kosmische Strahlung , mit dem Ergebnis zunehmender Wolkenbedeckung und deshalb wird es kühler.

Da das Magnetfeld der Sonne sich im 20.Jahrhundert in der Stärke verdoppelt hat, kann dies für einen Großteil der globalen Erwärmung in dieser Zeit verantwortlich sein.

Das erklärt auch, warum die meisten Klimawissenschaftler bestrebt sind diese Möglichkeit zu ignorieren. Es ist in der Tat zugunsten der Idee, dass der Anstieg der Temperatur im 20. Jahrhundert hauptsächlich auf die menschlichen CO2- Emissionen zurückzuführen ist.Wenn die Sonne einen signifikanten Beitrag zur Erwärmung geleistet hätte, wäre der Anteil des CO2 notwendiger Weise geringer.

Seit unsere Theorie 1996 herausgebracht wurde, war sie scharfer Kritik ausgesetzt, was normal in der Wissenschaft ist.

Zuerst wurde behauptet dass eine Verbindung zwischen Wolkenbildung und Solaraktivität auf Grund des unbekannten physikalischen Mechanismus nicht möglich sei. Aber im Jahr 2006 konnten wir nach vielen Jahren Arbeit Experimente am DTU Space durchführen, wo wir die Existenz des physikalischen Mechanismus demonstrieren konnten. Die kosmische Strahlung unterstützt die Bildung von Aerosolen, die die Grundlage für die Wolkenbildung sind.

Darauf folgte die Kritik, dass der von uns im Labor gefundene Mechanismus in der realen Atmosphäre keinen Bestand haben kann und deshalb praktisch wirkungslos sei. Aber diese Kritik haben wir ausdrücklich zurückgegeben. Es stellte sich heraus, dass die Sonne selbst tat, was wir natürliche Experimente nennen würden. Gigantische solare Flares können die kosmische Strahlung auf der Erde für einige Tage zurückdrängen. In den Tagen nach der Eruption verringerte sich die Wolkenbedeckung um 7%. Man kann sagen, die Wolken werden im All gemacht.

Deswegen beobachteten wir die solare magnetische Aktivität mit steigender Aufmerksamkeit, als sie Mitte der 90er Jahre begann zu schwinden.

Das die Sonne in ein tiefes Minimum (Tiefschlaf) fallen könnte wurde vor 2 Jahren auf einem Meeting in Kiruna (Schweden) bekannt gegeben. Als Nigel Calder und ich deshalb unser Buch „The Chilling Stars” überarbeiteten, Schrieben wir ein wenig provokativ: „Wir empfehlen unseren Freunden sich an der globalen Erwärmung zu erfreuen, so lange sie noch anhält.“

Tatsächlich endete die globale Erwärmung und eine Abkühlung beginnt. Letzte Woche erklärte Mojib Latif von der Uni Kiel auf der Weltklimakonverenz in Geneva, dass die Abkühlung 10-20 Jahre anhalten könnte.

Er erklärte es mit Veränderung der Nordatlantischen Oszillation, nicht mit der solaren Aktivität. Aber egal wie man es interpretiert, die natürlichen Variationen des Klimas werden immer deutlicher.

In der Konsequenz kann die Sonne selber ihre besondere Rolle für das Klima zeigen, um die Theorien der globalen Erwärmung zu prüfen. Im Gegensatz dazu hat kein Klimamodell eine Abkühlung der Erde vorhergesagt.

Das bedeutet, dass Projektionen des zukünftigen Klimas unberechenbar sind. Eine Vorhersage, dass es für die nächsten 50 Jahre wärmer oder kälter werden könnte, ist nicht besonders brauchbar, denn es ist nicht möglich, die solare Aktivität vorherzusagen.

In vielerei Hinsicht stehen wir am Scheideweg. Die nächste Zukunft wird extrem interessant werden und ich denke, es ist wichtig zu verstehen, dass die Natur völlig unabhängig davon ist, was wir über sie denken. Wird die Treibhaustheorie eine signifikante Abkühlung der Erde überstehen? Nicht in der derzeitigen beherrschenden Form. Leider werden zukünftige Klimaentwicklungen völlig anders verlaufen als die Treibhaustheorie- Vorhersagen, und möglicherweise wird es wieder populärer, den Einfluss der Sonne auf das Klima der Erde zu erforschen.

Diese Stellungnahme von Professor Henrik Svensmark wurde am 9. September in der Dänischen Zeitung „Jyllands Posten“ veröffentlicht. Übersetzung von der Seite WattsUpWithThat durch “Wetterfrosch”
Zuerst auf Deutsch veröffentlicht in Ökologismus.de 

Weitere Details hier: http://wattsupwiththat.com/?s=svensmark
Professor Henrik Svensmark ist Direktor des „Center for Sun-Climate Research at DTU Space“. Sein Buch „The Chilling Stars” ist auch in Dänisch erschienen als „Climate and the Cosmos” (Gads Forlag, DK ISBN 9788712043508)