1

IPCC (Klimarat) wieder in Nöten: Renommierter Wissenschaftler entlarvt Alarmismus sowie eine korrumpierende Vetternwirtschaft beim IPCC !

Richard Tol ist Professor für Wirtschafts-Wissenschaften. Er war und ist Hochschul-Lehrer an Universitäten in Amsterdam, Pittsburg, Hamburg, Dublin und Sussex. Er zählt zu den einhundert meist-zitierten Wirtschaftswissenschaftlern der Welt und hat insbesondere über die Ökonomie des Klimawandels publiziert  [2] . Tol ist/war koordinierender Leitautor des IPCC-Kapitels über die wirtschaftlichen Auswirkungen des Klimawandels [2] .

Bei einem solchen Renommè wiegt es schwer, wenn ein Wissenschaftler dieses Formates nach fast 10 Jahren Mitarbeit den Klimarat verläßt, und zugleich schwere Vorwürfe erhebt:

„Der Streit um den Uno-Klimabericht eskaliert: Der renommierte Umweltökonom Richard Tol tritt aus Protest gegen Formulierungen im neuen Welt-Klimareport zurück. Der Report drifte in Richtung Alarmismus, moniert er empört.[3].

* 2. Bild rechts:Die Kästchen stellen die Aussagen zur Sicherheit der IPCC-Berichte über die Zeit dar. Je mehr die Realität (Messungen) von den Modelle abweicht, d.h.  diese immer unsicherer werden, wird die Gewissheit des IPCC stärker. IPCC Logik eben.

In der FAZ [2] dazu:

„Übertrieben alarmistische Szenarien?

Der Rücktritt Tols wirft einen Schatten über die laufenden Verhandlungen über die Endfassung des Berichts der Arbeitsgruppe 2 des IPCC im japanischen Yokohama“.

Und w.a.a.O. [2]:

„Es gebe zu viel ‚Klima-Alarmismus‘. Im Gespräch mit der F.A.Z. kritisierte Tol, daß es einen starken Druck gebe, die Klimaberichte möglichst dramatisch zu formulieren.

‚Es gibt viele Bürokraten, Politiker und Wissenschaftler, deren Jobs davon abhängen, daß die Klima-Katastrophe möglichst schlimm erscheint‘, sagte Tol.

Außerdem gebe es eine Art Selbstselektion der beteiligten Wissenschaftler und Politiker: Vornehmlich solche, die Klima-Alarmismus zuneigten, würden sich bei dem Thema engagieren.“

Das beweist ganz klar:

>   Einerseits werden wissenschaftliche Fakten und Schlußfolgerungen vom IPCC verbogen, hin zu alarmistischen und damit unwissenschaftlichen Aussagen ;

>  andererseits werden für das IPCC bevorzugt Mitglieder eingeworben, welche abhängig und zum Teil korrumpierend mit politischen und wirtschaftlichen Interessen verflochten sind.

Welches Ausmaß die Politisierung des Klimarates bis hin zur Absurdität erreicht hat, zeigt auch dieses [3]:

„Ein ‚dämliches Statement‘ im Report sei die Feststellung, daß Menschen in Kriegsgebieten besonders durch den Klimawandel gefährdet seien. „Ich schätze aber, dass Leute in Syrien Chemiewaffen mehr fürchten als die Erwärmung“, sagt Tol.“

Tol ist insbesondere verantwortlich für die 30-seitige Zusammenfassung, welche speziell für die Politiker bestimmt ist [3]:

„Das Resümee des Uno-Berichts „driftet Richtung Alarmismus“, meint der Forscher.

Der zweite Teil des Uno-Klimareports soll das Wissen über die zu erwartenden Folgen der Erderwärmung darlegen. Die gut 30-seitige Zusammenfassung ist besonders umstritten; in Yokohama ringen die Delegierten des Uno-Klimarats IPCC derzeit um jedes Wort. Im Fokus stehen die wirtschaftlichen Folgen des erwarteten Klimawandels.

Entscheidende Formulierungen aus dem Entwurf des Reports seien für die Schlußfassung getilgt worden, moniert Tol. Der Entwurf des IPCC-Berichts habe beispielsweise konstatiert, Klimarisiken könnten mit Anpassungsmaßnahmen „gemanagt“ werden, es bedürfe allerdings erheblicher gesellschaftlicher Anstrengung.

‚Diese Feststellung ist verschwunden im Berichtsentwurf, zugunsten der apokalyptischen Reiter‘, sagt Tol.“

In der Internet-Zeitung „Freie Welt“ wird kommentiert  [4]  :

„In wenigen Tagen will der Weltklimarat der Vereinten Nationen (IPCC) seinen Bericht veröffentlichen und einer der Autoren zieht seinen Namen aus dem Papier zurück – aus Protest gegen »Panikmache«. Richard Tol von der Universität Sussex war verantwortlich für die Koordinierung des Kapitels über die wirtschaftlichen  Auswirkungen des Klimawandels. In der Zusammenfassung des mehrere hundert Seiten starken Papiers, die der IPCC Entscheidungsträgern aus aller Welt vorlegt, sieht Tol seine Aussagen verfälscht.“

Und nochmals die FAZ [2] :

„Die Botschaft des ersten Entwurfs war, daß durch Anpassung und eine kluge Entwicklung die Risiken handhabbar sind, aber daß dies ein gemeinsames Handeln erfordert“, sagte Tol dem britischen Fernsehsender BBC. Diese Botschaft des Entwurfs sei aber in der gut 30 Seiten umfassenden Zusammenfassung für politische Entscheidungsträger herausgefallen, beklagte Tol. Die Endfassung sei nun wieder in einem apokalyptischen Tonfall gehalten.“

Und w.a.a.O. :

„Tol vertritt die Position, daß die ökonomischen Auswirkungen des Klimawandels eher gering sind. Außerdem sei es weniger teuer, eine Strategie der Anpassung an den Klimawandel zu wählen, statt ihn durch drastische CO2-Reduktion verhindern zu wollen“

… und w.a.a.O.:

„Verglichen etwa mit der Wirtschaftskrise in Südeuropa ist der Schaden durch den Klimawandel ein kleines Problem.“

…und w.a.a.O.:

„Anders als der britische Ökonom Nicholas Stern kommt Tol aber zu dem Ergebnis, daß die wirtschaftlichen Schäden durch den Klimawandel eher klein seien. Bei einem geringen Temperaturanstieg seien die Auswirkungen unterm Strich sogar positiv“.

Auch in den englischen Medien schlägt der IPCC-Rücktritt von Richard Tol und die damit an die Öffentlichkeit gelangten neuerlichen Manipulations-Versuche des IPCC erhebliche Wellen – drei Beispiele:

The Guardian, 28.03.2014 [5] :

„Governments reject IPCC economist’s ‚meaningless‘ climate costs estimate UK-based Richard Tol, who has criticised overall report, accused of underestimating costs of climate change in economics section.“

Wall Street Journal, 27.03.2014  [6] :

„Climate Forecast: Muting the Alarm – Even while it exaggerates the amount of warming, the IPCC is becoming more cautious about its effects.“

Watts Up With That, 29.03.2014 [7] :

„Richard Tol Pulls Out, Says IPCC Draft Report Alarmist.“

Wie weitgehend mittlerweile politische und auch wirtschaftliche Profiteure sowie Grüne Ideologen  versuchen, das IPCC für sich zu vereinnahmen, zeigte sich auch jüngst wieder auf der IPCC-Konferenz im September 2013 in Stockholm, wovon SPIEGEL-ol. u.a. berichtete  [8] :

„Vor den Verhandlungen zum Uno-Klimareport, die nächste Woche in Stockholm stattfinden, ist es nach Informationen des SPIEGEL zwischen Politikern und Wissenschaftlern zu Spannungen gekommen. Gegen den Widerstand vieler Forscher wollen insbesondere Delegierte der Bundesregierung das Stocken der Erwärmung in den letzten 15 Jahren aus der Zusammenfassung des neuen IPCC-Reports heraushalten. Allenfalls eine „Verlangsamung des Temperaturanstiegs“ soll zugegeben werden, die „wissenschaftlich nicht relevant“ sei.“

Und dazu berichtete auch DIE WELT [9] :

„So ist im Entwurf der “Summary” zum Beispiel die inzwischen eineinhalb Jahrzehnte andauernde Pause in der globalen Erwärmung erwähnt, zusammen auch noch mit dem Hinweis, dass die Modelle der Klimaforscher dafür keine Erklärung liefern. … Delegierten aus zwei deutschen Ministerien … kommen nun und wollen diese Passage gestrichen haben Die Begebenheit zeigt: Gerade in deutschen Ministerien sitzen starke, um Beharrlichkeit ringende Kräfte, die große Bedenken haben, dass die immer chaotischere Kapriolen schlagende Energiewende … hierzulande an wissenschaftlicher Legitimität verlieren könnte. Nach der Devise: Wir lassen uns unsere Katastrophe nicht nehmen.“

Zum gleichen Problem schreibt der Chefredakteur der Baseler Zeitung, Markus Somm [10]:

„…. Weil sich empirische Daten nicht der gängigen These fügen, verschweigt man sie.

Dank mehreren Indiskretionen wurden aber diese Verschleierungspläne im Vorfeld (Anm.: IPCC-Konferenz Stockholm, September 2013) bekannt, weswegen die Autoren des Summary es vorgezogen haben, diese unbequeme Wahrheit zu erwähnen.“ … : Seit fünfzehn Jahren hat sich die Erde … nicht mehr erwärmt.“

Sehr klar und deutlich äußert sich auch der renommierte deutsche Klimaforscher Hans von Storch im Interview in der Berner Zeitung v. 16.02.2014  [11], auf die Frage :

 „Können Klima-Wissenschaftler die Politisierung überhaupt noch loswerden? Der 2013 veröffentlichte jüngste UNO-Klimabericht …  wurde als politische Message darüber interpretiert, ob die Klima-Erwärmung überhaupt stattfindet ?“

Hans von Storch :       

„An diesem Beispiel zeigt sich die verhängnisvolle Klimafalle, in die wir geraten sind und die mein Kollege, der Ethnologe Werner Krauss und ich in unserem Buch beschreiben. Die Klima-Forschung hat sich kidnappen lassen von der Politik, die ihre klima-politischen Entscheidungen als einzig richtige, weil von der Wissenschaft vorgegeben, legitimiert.“

Schließlich sei dazu noch der deutsche Physik-Professor Knut Löschke aus Leipzig zitiert  [12] :

„Politische Kräfte aller Parteien versuchen, die Angst der Menschen vor einem Weltuntergangs-Szenario namens ‚Klima-Katastrophe‘ zu benutzen, um sich Machtpositionen zu schaffen, und um eine planwirtschaftliche  Ordnung zu errichten.“

Dieses alles bestätigt und unterstreicht einmal mehr die Recherchen der investigativen kanadischen Journalistin Donna Laframboise, die in einem Buch (2013) sowie zahlreichen Internet-Artikeln ausführlich über die Ideologisierung und die „Grüne Unterwanderung“ des IPCC berichtet. [13]  [14]

====================================================

F a z i t :

Der Rücktritt des renommierten (bisherigen!) IPCC-Wissenschaftlers RICHARD TOL zeigt: Die Politisierung des IPCC hat ein unerträgliches Ausmaß angenommen. Nicht wissenschaftliche Erkenntnisse stehen im Vordergrund, sondern Grüne Politik und z.T. persönliche Eigeninteressen. Die Glaubwürdigkeit des IPCC hat einen neuen Tiefst-Stand erreicht.

Q u e l l e n : 

[1]  AMAZON; http://www.amazon.com/Into-Dustbin-Rajendra-Pachauri-Climate/dp/1492292400/ref=sr_1_1?ie=UTF8&tag=wattsupwithth-20&qid=1378766503&sr=8-1&keywords=into+the+dustbin#reader_1492292400

[2]  FAZ: 27.03.2014Weltklimarat: Protest gegen Klima-Schwarzmalerei ; Betreibt der Weltklimarat Panikmache? Ein führender Wissenschaftler erhebt schwere Vorwürfe – und hat seinen Namen von dem anstehenden Bericht zurückgezogen. http://www.faz.net/aktuell/wirtschaft/wirtschaftspolitik/weltklimarat-protest-gegen-klima-schwarzmalerei-12867411.html

[3]  SPIEGEL-ol.: 26.03.2014: Angebliche Panikmache: Führender Forscher verlässt Spitze des Welt-Klimarats.  http://www.spiegel.de/wissenschaft/natur/streit-um-ipcc-klimabericht-der-uno-richard-tol-ruecktritt-a-960818.html

[4]  Freie Welt; 28. März 2014; http://www.freiewelt.net/nachricht/klima-alarmismus-nicht-in-meinem-namen-10028461/

[5]  The Guardian, 28.03.2014 ;   http://www.theguardian.com/environment/2014/mar/28/ipcc-climate-costs-estimate-meaningless

[6]  Wall Street Journal, 27.03.2014 :

http://online.wsj.com/news/articles/SB10001424052702303725404579460973643962840?mod=WSJ_Opinion_carousel_2&mg=reno64-wsj&url=http%3A%2F%2Fonline.wsj.com%2Farticle%2FSB10001424052702303725404579460973643962840.html%3Fmod%3DWSJ_Opinion_carousel_2

[7]  Watts Up With That, 29.03.2014 :http://wattsupwiththat.com/2014/03/29/before-you-read-the-upcoming-ipcc-report-note-this/#more-106650

[8]  SPIEGEL-ol : Streit mit Forschern: Politiker wollen Erwärmungspause aus Klimareport verbannen; 20.09.2013; http://www.spiegel.de/wissenschaft/natur/ipcc-verhandlungen-politiker-gegen-wissenschaftler-beim-uno-klimareport-a-923507.html

[9] WELT-ol., 22.09.2013: Deutsche Politiker wollen Klimabericht verschärfen; 

http://donnerunddoria.welt.de/2013/09/22/deutsche-politiker-wollen-klimabericht-verschaerfen/

[10] Baseler Z.; 28.09.2013; http://bazonline.ch/ausland/europa/Unsicherheit-in-einer-unsicheren-Welt/story/10513680

[11] Berner Z.; 16.02.2014; http://www.bernerzeitung.ch/wissen/natur/Klimaerwaermung-ist-nicht-das-wichtigste-Problem-der-Welt/story/21100176

[12]  Prof. Knut Löschke: Klima und Gesellschaft ; in: Klima-Konferenz der FDP-Fraktion Sachsen: „Sind wir noch zu retten?“ ; 30.06.2012; Dresden, Tagungsband/Dokumentation; Saxedo-GmbH Dresden; Tagungs-Band; S.18-34.

[13]  http://www.eike-klima-energie.eu/climategate-anzeige/ein-neues-buch-ueber-das-ipcc-und-pachauri-von-donna-laframboise/  ; 18.09.2013 ;

[14]  http://www.eike-klima-energie.eu/climategate-anzeige/wo-steckt-beim-ipcc-die-wissenschaft/   17.03.2014

===================================================

Anmerkung EIKE-Redaktion:

Als PDF-Anlagen können hier herunter geladen werden:

(1)  Vorstehender Aufsatz

(2)  Ergänzende Zusammenstellung (Folien) zu „Politik & Klima“

Related Files




Scheinriesen der Moderne – Turturische Energien

Heutiges Thema: Eine tragbare Brennstoffzelle zum Aufladen von Handys

Auf dem Technikportal heise.de wird von der Mobilfunkmesse MWC gemeldet: Brennstoffzelle für fünf Handy-Ladungen, produziert von dem britischen Unternehmen Upp, die dazu aufrufen, sich für immer von der Steckdose zu befreien („Liberate yourself from the wall socket forever.“) Deren Webseite ist voll mit Lifestyle-Bildern von jungen Menschen, die im Flughafen rumhängen, oder mit der Harley durch die Wüste fahren, oder einfach nur hipp „UppTM“ sind.

Aber nicht rechnen können.

Ein paar technische Daten sind auf der Upp Seite und auf der heise Seite gelistet. Die Brennstoffzelle liefert bis zu 25Wh Energie, und sie nutzt reinen Wasserstoff, gespeichert in Metall-Hydrid in einer Cartridge, die separat von der eigentlichen Brennstoffzelle ist. Das führt zu einem hohen System Gewicht von 235g für die Brennstoffzelle plus 385g für die Cartridge = 620g. Dies ergibt eine Energiedichte von 25 Wh/620g = 40 Wh/kg, also gerade mal so viel wie ein klassischer Bleiakku aufweist, und nur ca. 1/4 dessen eines Li-Polymer-Akkus, wie er in Smartphones und Laptops benutzt wird.

Die Preise sind nach heise $200 für die Brennstoffzelle, und $5 – $10 pro Ladung. Da Upp 5 Ladungen pro Cartridge verspricht kostet die Cartridge also $25 – $50.

Keine Frage, die Technologie funktioniert prinzipiell, z.B. in U-Booten seit Jahrzehnten, wo das hohe Gewicht des Metall-Hydrid Speichers sogar geschätzt wird, und erlaubt hier den leisen elektrischen Antrieb. Siemens ist einer der Hersteller.

Nach heise kann man die Cartridges nachfüllen. Wieviel Wasserstoff benötigt wird ist unbekannt, und auch der Wirkungsgrad der Brennstoffzelle wird nicht genannt. Aber Wasserstoff in Metall-Hydrid zu füllen, ist erheblich komplexer als das Nachfüllen von Feuerzeugen mit Butan-Gas. Bei der Befüllung wird die Adsorptionswärme von ~20MJ/kg H2 frei. Übrigens, bei der Nutzung muss eben diese Energie wieder zugeführt werden, damit Wasserstoff freigesetzt wird, sprich, der Cartridge muss Wärme zugeführt werden – woher kommt die eigentlich? Etwa durch Verbrennen von Wasserstoff?

Der normale Nutzer wird also entweder einen großen Vorrat neuer Cartridges kaufen müssen, oder einen kommerziellen Befüller finden. Sucht man danach auf der Upp-Website ergibt sich „No results found in a 125km radius“ sowohl bei London als auch bei Düsseldorf. Nun ja, kommt vielleicht noch.

Wie sehen jetzt die Nutzungsszenarien aus?

Ich fahre auf meiner Harley durch die Wüste – ach, da gibt es kein Mobilfunknetz. Aber vielleicht will ich ja Videos gucken während der Fahrt. Nun gibt es da das 12V Bordnetz der Harley – also hier brauche ich keine Brennstoffzelle.

Dann also im Flugzeug, natürlich Langstrecke. Telefonieren kann ich zwar auch nicht, aber Videos gucken, oder Spielen, oder (demnächst) surfen und Emails schreiben. Nun finde ich an den Sitzen Stromanschluss für 220V, 110V und 5V per USB. Also, hier brauche ich auch keine Brennstoffzelle.

Egal, ich bin eben „UppTM“, zu Fuß unterwegs, übernachte unter Brücken, und brauche für 7 Tage Vollversorgung für mein Smartphone. Aus den 25Wh lassen sich 5 Ladungen nur entnehmen mit Handys der vorletzten Generation, wie uncool. Mein neues Smartphone hingegen hat einen 3500mAh Akku, speichert also ca. 3500mAh*3.7V = 13 Wh., und kann von einer Cartridge somit höchstens 2x aufgeladen werden (wobei ich Ladeverluste schon völlig ignoriere).

Also packe ich 1 Brennstoffzelle und 4 Cartridges in meinen Rucksack ein. Mithin für 100 Wh also $300 – $400 bei einem Gewicht von 1.78 kg.

Weniger „UppTM“e Menschen würden vielleicht bei Amazon 2 Powerpacks kaufen, die jeweils 50Wh bieten für 33€ bei einem Gewicht von 318g, und an der Steckdose wieder aufgeladen werden können. Mithin für 100 Wh also 66€ bei einem Gewicht von 0.64 kg.
Und noch weniger „UppTM“e Menschen überlegen, AA Batterien zu kaufen, mit denen 100 Wh mit 23 Stück à ca. 1.70€ bei 14.5g/Stck erreicht werden, plus einem Notfall-Ladegerät von 10€ bei 80g. Mithin für 100 Wh also 50€ bei einem Gewicht von 0.41 kg.

Eine Brennstoffzelle, beworben ausdrücklich für mobile Zwecke, die nicht nur 2 – 4x schwerer, sondern auch noch 5 – 8x teurer ist als Alternativlösungen, hat das Prädikat Turturische Energie wohlverdient!

Über den Autor:

Dr. Ulrich Steiner ist Physiker mit Diplom in Kernphysik. Seine Promotion erlangte er in der Krebsforschung mit einem biophysikalischen Thema. Nach über zwei Jahrzehnten in der Human-Pharmazeutischen Biotechnologie in Forschung, Entwicklung, Produktion und Planung begann er, Bioenergien und andere „Erneuerbare“ auf ihre Eignung für großtechnische Nutzung zu durchsuchen. Was er fand waren vor allem, nun ja, Turturische Energien.




Klimaänderung und die Armen

Das tägliche Leben auf einem Campus hat etwas Unwirkliches. Akademiker sind häufig von Studenten umgeben, welche die Akademiker bewundern oder gar Angst vor ihnen haben; und diese sind umgeben von gleichgesinnten, sympathischen Kollegen. Folglich leben diese Bildungsbeauftragten und akademischen Forscher in einem der weltgrößten schalltoten Räume.

Innerhalb dieser das Ego aufplusternden Umgebung muss eine akademische Forschungsgemeinde operieren. Wie leicht ist es da, wissenschaftliche Entdeckungen zu machen, wenn man geblendet von der Brillanz der Prahlerei ist und wenn Ideologie so leicht über Objektivität triumphieren kann?

„Stolz kommt vor der Zerstörung; Hochmut vor dem Fall” (Sprüche 16, Vers 18). Übertragen auf den akademischen Bereich kann man sagen, Arroganz führt zu Ignoranz, und folglich kann ein hochmütiger Professor schnell zu einem arroganten Ignoranten werden. Das Wort „Störe mich nicht mit Fakten! Meine Denkweise steht fest!“ kann man dann leicht anwenden.

Im Gegensatz dazu kann man sicher feststellen, dass gute Wissenschaftler Bescheidenheit praktizieren.

Man betrachte die Welt der Klimawissenschaft. In dieser von akademischen atmosphärischen Modellierungen dominierten Welt war es immer eine fundamentale Herausforderung, Theorien mit der Realität in Einklang zu bringen. In der Wissenschaft ist das allgemein so. Die Professoren Richard McNider und John Christy an der University of Alabama in Huntsville haben dies in einem Op-Ed vom 20. Februar im Wall Street Journal demonstriert. Darin befand sich auch eine Graphik, in der der miserable Zusammenhang zwischen den Klimavorhersagen und der gemessenen Realität dargestellt ist. Klimamodelle, konstruiert, um eine Verbindung zwischen Theorie und Wirklichkeit herzustellen, waren ihren Worten zufolge „so konsistent und spektakulär falsch“. Einer der Akademiker, Mr. Christy, war einst als missionarischer Lehrer in Afrika, wo er Zeuge der Auswirkungen elender Armut und der potentiellen Vorteile billiger Energie für die Massen geworden ist. Für all jene, die den Komfort ihres Elfenbeinturmes nie verlassen haben, sind es diese Seelen in Ländern der dritten Welt, die daran erinnern, dass diese Länder grundlegende Ressourcen brauchen, was beim Prozess der Komposition von Klimatheorien, die anti-industrielle Kampagnen unterstützen, oftmals vergessen wird.

In der Klimawissenschaft ist die Diskrepanz zwischen Idealismus und Realismus wahrscheinlich dem überwältigenden Einfluss anderer Faktoren wie Wasser auf das Klima zuzuordnen. Und doch sind der politische Brennpunkt und die Finanzierung darauf gerichtet zu zeigen, dass „Treibhausgase“ wie Kohlendioxid, das nur 0,04% der Atmosphäre ausmacht, für die Klimaänderung verantwortlich ist. Da ist es kaum ein Wunder, dass sich die Klimarealität weigert, mit der theoretischen Phantasie konform zu gehen.

Die Realität sollte die Theorie ersetzen. Immer noch nutzen die Obama-Administration und die Weltbank die schüttere Klimaänderungs-Theorie bis zu einem potentiell katastrophalen Niveau dazu, Menschen den Weg aus einer marginalen Existenz zu verbauen. Im Juni vorigen Jahres hat Präsident Obama basierend auf seinem Glauben an die Klimawissenschaft angekündigt, dass die USA ihre Investitionen in Übersee-Kohleprojekten auf Eis legen würden, und er hat internationale Banken ermutigt, das Gleiche zu tun. Im Juli vorigen Jahres initiierte die Weltbank eine neue Energie-Strategie, die darauf hinausläuft, die Finanzierung neuer Kohleenergie-Projekte zu begrenzen.

Offensichtlich steht im Weißen Haus und der bei der Weltbank, einer „die Armut bekämpfenden Institution“, die Rettung der Atmosphäre vor dem kleinen bisschen zusätzlicher Treibhausgase, die aus modernen, mit fossiler Energie betriebenen Kraftwerken stammen, über der Lösung eines Problems, unter dem die Menschen seit Äonen leiden.

Schließlich befindet sich jenseits der Schultore eine ungeordnete Welt, in der die Wirklichkeit nicht immer den Regeln folgt, selbst wenn diese Regeln die Form viel gepriesener akademischer Theorien und Modelle annehmen. Allerdings bedeutet der Umstand, dass einige Gedanken innerhalb der Elfenbein-Wände nicht populär sind, noch lange nicht, dass dies auch im Leben der harten Schläge so ist. Dort liefert die Hilfe zur Selbsthilfe eine Ausbildung, die sich viel besser an die Realität anpasst.

Tatsache ist, dass in einer Welt der Vielen viel zu viele fast nichts haben. Jene, die es sich innerhalb einer weitgehend links orientierten Akademia gemütlich gemacht haben, deren Rhetorik hoch geschätzt ist, müssen der Tatsache ins Auge sehen, dass ihre Theorien zumindest teilweise für eine falsche Realität verantwortlich sind, die die Armut unzähliger anderer verewigt.

Anthony J. Sadar, ein zertifizierter beratender Meteorologe, ist Autor von “In Global Warming We Trust: A Heretic’s Guide to Climate Science” (Telescope Books, 2012). Susan T. Cammarata ist Umwelt- und Familienanwältin in Pittsburgh, Pa.

Link: http://icecap.us/index.php/go/joes-blog vom 24.3.2014

Übersetzt von Chris Frey EIKE




Earth Hour – Wir machen das Licht an!




Droht nach der Energiewende nun “Die Hauswende”?

Die ebenfalls medial glanzvoll verteidigte Energiewende hat offensichtlich ihren Glanz nach wenigen Jahren verloren, weil jeder Haushalt inzwischen bemerkt hat, dass er deswegen rund 600,- € im Jahr weniger in der Haushaltskasse hat und dass dies noch nicht das Ende der Fahnenstange ist.

Bild rechts: v.l.n.r.: Andreas Lücke (BDH-Hauptgeschäftsführer), Manfred Greis (BDH-Präsident), Dr. Barbara Hendricks (Bundesbauministerin), Stephan Kohler (geea-Sprecher und Vorsitzender der dena-Geschäftsführung), Marianne Tritz (GDI-Geschäftsführerin), Ulrich Tschorn (VFF-Geschäftsführer) Foto: dena/P. Becerra

Es werden ja noch Ausgleichszahlungen für zuverlässig arbeitende Schattenkraftwerke hinzukommen, die wegen des Wackelstroms aus Sonne und Wind weiter erforderlich sind.

Es werden sich die Kosten für die neuen Stromtrassen hinzuaddieren und dazu Entschädigungszahlungen für die Besitzer der Kernkraftwerke kommen, die nicht weiter betrieben werden dürfen, sowie die Kosten für den Neubau neuer zuverlässig arbeitender Stromkraftwerke, die nach dem Abschalten der letzten Kernkraftwerke zur Stabilisierung der Stromnetze unerlässlich sind. Und nicht zu vergessen sind die Kosten für Speicherungen der Wackelstromarten aus Sonne und Wind, wenn solche jemals realisiert werden könnten. Nicht vergessen werden sollten noch die erforderlichen Sozialleistungen für unsere armen Bürger, damit diese nicht vom Strombezug wegen unbezahlbarer Kosten ausgeschlossen werden.

Mutmaßlich hat man inzwischen den Murks bei der Energiewende erkannt und will jetzt vom ungelösten und inzwischen stark kritisierten Thema ablenken. Deshalb wird jetzt der Fokus auf “Die Hauswende” gerichtet, auch wenn schon der Begriff  “Hauswende” sowohl auf eine unglückliche Wortwahl als auch auf eine weitere Fortsetzung von Diletantismus hinweist. Längst sind die Bürger nämlich durch TV-Sendungen und einige verantwortungsvolle Medien aufgeklärt worden, dass sich die Plastikverpackung unserer Gebäude

Ÿ ♦ wirtschaftlich überschaubar nicht rechnet,

Ÿ ♦ keine beweisbaren Vorteile für die Umwelt hat,

Ÿ ♦ eine erhöhte Gefährdung im Brandfalle darstellt,

Ÿ ♦ bautechnisch nicht nachhaltig ist und

Ÿ ♦ den Sondermüll von morgen darstellt.

Weshalb sich Bundesbauministerin Dr. Barbara  Hendricks von der SPD trotzdem gegen die tatsächlichen Bürgerinteressen mit den Profiteuren solcher  “Hauswende”-Maßnahmen verbündet, erschließt sich für den neutralen Betrachter nicht, sollte sie doch eigentlich neutral vermitteln.

Wenigstens ist die Aussage in der Bekanntgabe für die Kampagne “Die Hauswende” ehrlich, wessen  Karren die Ministerin ziehen will. Es ist der Karren der “relevanten  Brachenverbände” und “zahlreicher Unternehmen”, darunter der

Ÿ ♦ Bundesverband Haus-, Energie- und Umwelttechnik e.V. (BDH)

Ÿ ♦ Gesamtverband Dämmstoffindustrie (GDI)

Ÿ ♦ Verband Fenster + Fassade (VFF),

Ÿ ♦ Bundesverband Flachglas (BF)

Ÿ ♦ der Baufinanzierer Wüstenrot und

Ÿ ♦ die rührige Firma Sto AG.

Rädelsführer dieser Kampagne ist die dena um Stephan Kohler, der sich seine “neutralen Studien” u.a. von der BASF mitfinanzieren lässt (siehe TV-Sendung “Könnes kämpft”).

Wie immer wurde der betroffene Eigentümer und Mieter zur Kampagne weder gehört noch irgendwie einbezogen. Die Bundesregierung beteiligt sich mit 1,3 Millionen Euro an dem “Aufklärungs-Projekt”, sprich an der Werbekampagne der Verbände. Hier haben wir die Einbeziehung des Bürgers wenigstens mit seinem Steuergeld.

Vielen Dank dafür – Frau Bundesbauministerin.

Mit unserem Geld dürfen wir wie immer dabei sein.

Norbert Deul – Vorstand

Schutzgemeinschaft für Wohnungseigentümer und Mieter e.V.

www.hausgeld-vergleich.de




Die Temperatur wird von natürlichen Mechanismen der Wärmeverteilung in der Atmosphäre gesteuert– Klimasensitivität und Gewitter

Die folgende Graphik stammt aus der Summary for Policymakers SPM des AR 4:

Abbildung 1 findet sich hier als Abbildung SPM2.

Das IPCC glaubt, dass das Kohlendioxid für 55% des positive Antriebs verantwortlich ist, Methan etwa zu 16%. Aber der Wasserdampf als beitragendes Element fehlt in dieser Graphik, außer Wolken als Reflektor. Wasserdampf ist ein starkes Treibhausgas – und in der Atmosphäre hoch variabel. Über den Ozeanen liegt die Relative Luftfeuchtigkeit normalerweise nahe 100%, in Wüsten dagegen teilweise sogar nur bei 0%. Der absolute Wasserdampfgehalt ist auch abhängig von der Temperatur. In den Tropen ist der Wasserdampfgehalt sehr hoch. In der Arktis und der Antarktis ist er in den sehr kalten Wintern jeweils sehr niedrig.

Abbildung 2: globale relative Luftfeuchtigkeit in der Troposphäre (Quelle). Eine ähnliche Darstellung gibt es hier zusammen mit globalen Karten für Wasserdampf und Methan. Man klicke auf Greenhouse Gases an der Seite und wähle dann das interessierende Gas. Methanquellen sind zumeist tropischen Ursprungs.

Das IPCC glaubt, dass der Wasserdampfgehalt mit steigender Temperatur zunimmt und als positive Rückkopplung agiert. Aber dem ist nicht so. Die Daten von Wetterballonen weltweit zeigen, dass der Wasserdampfgehalt mit der Zeit ab- und nicht zugenommen hat.

Warum sollte die troposphärische Feuchtigkeit mit steigender Temperatur abnehmen? Die Antwort lautet, dass die Feuchtigkeit in der oberen Troposphäre zum größten Teil von Gewittern (Konvektion) getrieben wird, und Gewitter haben zugenommen.

Abbildung 3: Gewitter-Häufigkeit in Hongkong seit 1947. Quelle

Die höchste Gewitteraktivität findet sich in den Tropen, und Hongkong liegt auf der subtropischen Breite von 22°N, sollte also für die globale Aktivität repräsentativ sein. Die Daten zeigen ein Minimum in den kühlen sechziger Jahren und ein Maximum in den warmen neunziger Jahren mit einer Zunahme von 1,7 Tagen pro Jahrzehnt, was grob zum Verlauf der globalen und lokalen Temperatur passt. Die lokale Temperatur am Royal Observatory in Hongkong ist nicht um den Effekt des städtischen Wärmeinsel-Effektes korrigiert oder vom GISS „homogenisiert“ worden. Ich konnte keine globalen Daten für die Häufigkeit von Gewittern finden.

Abbildung 4: Stadien der Gewitterentwicklung. Quelle: Wikipedia.

Bild oben rechts: Nach einem Hagelunwetter nahe der Ortschaft La Luz im US-Bundesstaat New Mexico im August 2009: Quelle: der Autor

Gewitter entstehen durch Konvektion. Haben sie sich erst einmal gebildet, führt es zu einer rapiden Abkühlung am Boden und Wärmetransport in die Stratosphäre. Die aufsteigende Luft verliert ihren Wasserdampf [durch Kondensation] in allen Höhen der Troposphäre bis in die Stratosphäre. Gibt es mehr Gewitter, gibt es auch mehr Austrocknung und Abkühlung am Boden. Die in die Stratosphäre transportierte Wärme wird dann durch die Zirkulation der Hadley-Zellen polwärts gelenkt und in den Weltraum abgestrahlt. Dies ist ein Grund dafür, warum sich die Pole (zumindest der Nordpol) stärker erwärmen als die Tropen [?].

Gewitter sind natürliche Thermostate. Das kann man leicht beobachten. An einem heißen Sommertag bilden sich durch aufsteigende Warmluftpakete Cumulus-Wolken, die sich manchmal bis zu Gewitterwolken auftürmen, gefolgt von Regen und manchmal Hagel. Die Temperatur am Boden kann unter der Wolke innerhalb von Minuten von 40,5°C auf 15,5°C fallen. Die Winde am Boden sind lediglich der unterste Teil eines Luftpaketes, das mit dem Regen nach unten gerissen wird. Nach dem Gewitter liegt der Wasserdampf als Wasser oder Hagelkörner am Boden, und die Wärme wurde bis zur Tropopause gehoben. In mittleren Breiten kann es ein paar Tage dauern, bis Wärme und Feuchtigkeit erneut für die Gewitterbildung reichen, in den Tropen kann es schon am nächsten Tag wieder losgehen.

Das wichtigste Gebiet für die Steuerung des Klimas auf der Erde sind die Tropen, und in den Tropen befindet sich der meiste Wasserdampf und gibt es am häufigsten Gewitter. Gewitter bewirken zweierlei: sie transportieren Wärme von der Oberfläche bis zur Tropopause, und die entsprechenden Wolken reflektieren Sonnenlicht zurück in den Weltraum. Sie setzen auch den Thermostat der Wassertemperatur auf 30°C; siehe den Beitrag von Willis Eschenbach zu diesem Thema [ein früherer Beitrag von Eschenbach zu diesem Thema findet sich auf Deutsch beim EIKE hier]. Wenn sich die Erde erwärmt, werden größere Gebiete der Erde den Thermostat-Punkt erreichen, und mehr Wärme wird durch Wolken und Gewitter aus der Atmosphäre entfernt, entweder als kurzwellige Reflektion von Strahlung an der Wolkenobergrenze oder langwellige Strahlung von der Obergrenze der Atmosphäre in den Weltraum. Dies reduziert auf natürliche Weise die Klimasensitivität bzgl. mehr Treibhaus-Erwärmung. Die Klimasensitivität hat sich mit der Zeit geändert. Dies ist der Grund, dass die Erwärmung zu Anfang des 20. Jahrhunderts ebenso stark wie der CO2-Anstieg gering war und die Erwärmung zum Ende des 20. Jahrhunderts die gleiche Amplitude aufwies mit einem viel stärkeren CO2-Anstieg. Hier folgt ein Plot der 60-jährigen Gleichgewichts-Klimasensitivität von 1880 bis 2010 nach den GISStemp-Daten und einer Kombination von CO2-Daten von Law Dome und Keeling.

Abbildung 6: Plot der Gleichgewichts-Klimasensitivität in einem 60-Jahres-Fenster (1880 bis 1940; 1881 bis 1941; und so fort). Die Länge des Fensters überbrückt die natürlichen Klimazyklen.

Wie der Plot zeigt, betrug die Klimasensitivität zu Beginn des 20. Jahrhunderts etwa 4°C pro CO2-Verdoppelung, aber bis zur Jahrtausendwende hat sich diese auf 1,5°C reduziert. Sie wird sich vermutlich Null nähern, wenn wir alle GISS-„Anpassungen“ entfernen und die wirklichen Temperaturen betrachten. Dies erklärt den „Stillstand“ der letzten 17 Jahre. Die Temperatur kann nicht weiter steigen, weil wir [die Atmosphäre] nicht über den von Mutter Natur gesetzten Thermostat-Punkt hinaus erwärmen können, gesetzt durch die maximale Wassertemperatur.

Mehr: http://notrickszone.com/2014/03/17/earths-surface-temperature-regulated-by-natural-heat-dissipation-mechanisms-in-the-atmosphere/#sthash.YEU1uwEe.dpuf

Link: http://notrickszone.com/2014/03/17/earths-surface-temperature-regulated-by-natural-heat-dissipation-mechanisms-in-the-atmosphere/

Übersetzt von Chris Frey EIKE




Die Sonne bringt Licht ins Dunkel – Was die Erdtemperaturen wirklich bestimmt, Teil 2

Teil 2: 2014, ein El Niño-Jahr (?) – El Niño und seine solaren Auslöser über die letzten 1.000 Jahre

Im 2. Teil werden die im Teil 1 gefundenen Korrelationen mit den Daten der letzten 140 Jahre abgeglichen und dadurch gezeigt, dass auch für diesen Zeitraum die gefundenen Beziehungen und Zusammenhänge bestehen. Darüber hinaus wird ein El Niñodatenabgleich für die letzten 1.000 Jahre mit dem Hauptsonnenzyklus vorgenommen. Es wird gezeigt, dass immer dann ein El Niñoereignis stattfindet, wenn der Hauptsonnenzyklus in seiner Aktivität (nach seinem Aktivitätsminimum) wieder zu steigen beginnt. Anhand der Theorie des Autors wird anschließend dargelegt, dass Ende 2014 ein El Niño vorliegen wird, der zu Beginn 2015 sein Maximum (stärkste Ausprägung) erreichen wird.

Anhand der Abb.15 möchte der Auto die letzten 60 Jahre zeigen. Inwieweit auch für diesen Zeitraum die gefundenen Korrelationen gelten. Hier muss auf rekonstruierte Werte zurückgegriffen werden.

 

Abb.15: Alle El Niño-Ereignisse stehen auch hier in unmittelbarem Zusammenhang „ihres“ solaren Parameters. Ein solarer Parameter (um 1955) steht bei den rekonstruierten Werten nicht mit einem El Niño in Beziehung.

Zwischenergebnis: Von 19 Ereignissen fallen alle mit einem solaren Maximum zusammen. Bei den rekonstruierten Werten löst ein solares Ereignis (1955) keinen El Niño aus.

Lässt sich darüberhinaus die aufgestellte Theorie des Autors anhand von Datenreihen erhärten? Hierzu schauen wir uns den Zeitraum der El Niño-Ereignisse und der solaren Parameter, die ihn auslösen, bis in die 1870-Jahre an. Allerdings handelt es sich hier, wie auch in Abb. 15, nicht um gemessene, sondern um rekonstruierte Werte, die nicht die Exaktheit und die Aussagefähigkeit, wie gemessene Ereignisse besitzen.

 

Abb.16 zeigt die Zusammenhänge bis Mitte der 1870-Jahre. Alle El Niño-Ereignisse, bis auf das Ereignis im Jahre 1900, lassen sich einem solaren Aktivitätsereignis zuordnen. Bei zwei solaren Ereignissen bleibt der El Niño aus. Der Autor hat zu seiner Untersuchung die gleichen solaren Parameter verwendet. Allerdings sind diese nicht gemessen, sondern rekonstruiert. Die Zeitreihe ganz unten zeigt den TSI, Quelle: NASA. Die NASA schreibt hierzu auf ihrer Internetseite, dass der TSI aus einem eigenen, physikalischen Modell entwickelt wurde und die Abbildung von der University of Montreal stammt. Die Zeitreihe darüber zeigt den Total flux, Quelle: ”A Doubling of the Sun’s Coronal Magnetic Field during the Last 100 Years”, M. Lockwood, R. Stamper, and M.N. Wild, Nature Vol. 399, 3.Juni 1999.

Lässt sich der El Niño von 1900 wirklich keinem solaren Ereignis zuordnen?

Abb.17 stammt aus der Arbeit von Russell und T. Mulligan (Institute of Geophysics and Planetary Physics, University of California) “The 22-year Variation of Geomagnetic Activity: Implications for the Polar Magnetic Field of the Sun”,Geophysical Research Letters, 22, 3287-3288, 1995. 

Abb.17 zeigt den geomagnetischen aa-Index von 1850 – 1990. In 1900 beginnt die magnetische Aktivität der Sonne wieder anzusteigen (grüne Trendlinie) und erreicht zum ausgehenden 20. Jahrhundert ihren Höhepunkt. Dabei steigt der aa-Index um 100% (blaue waagerechte Linien), was Rückschlüsse auf den starken Anstieg der solaren Aktivität zulässt. Der Anstieg verläuft synchron zum Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus. Er reduzierte dabei die kosmische Strahlung im gleichen Zeitraum um ca. 15%.

Diese Arbeit soll mit einer anderen, die ebenfalls den Verlauf des Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus, zeigt, verglichen werden (Abb.18).

 

Abb.18 zeigt natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

Abb.18 zeigt, dass der Hauptsonnenzyklus Ende der 1890-Jahre sein Minimum erreichte und die solare Aktivität im Hauptsonnenzyklus in 1900 wieder zunimmt, was einen El Niño ausgelöst haben könnte. Haben solare Gesetzmäßigkeiten, die auf kleinen Skalen auftreten, auch auf großen Skalen ihre Gültigkeit?

Vom Schwabe-Zyklus ist bekannt (Friis-Christensen, E. & Lassen, K.: Length of the solar cycle: an indicator of solar activity closely associated with climate. Science 254 (1991), 698) dass, je länger sein Zyklus ist, umso schwächer die solare Aktivität im selben Zyklus. Dieser Zusammenhang auf kleinen Skalen ist ebenfalls auf großen Skalen zu beobachten. Auch beim Hauptsonnenzyklus und seiner Oberschwingung, dem Hallstatt-Zyklus verhält sich die Zyklusdauer analog zur Sonnenaktivität, d.h. je schwächer der Hallstatt-Zyklus, desto länger seine Zyklusdauer.

Die Sonne scheint sich bei Auslösen eines El Niño-Ereignisses auf großen Skalen auch hier gleich zu verhalten, wie auf kleinen Skalen. Der Autor hat gezeigt, dass mit jedem Anstieg der solaren Aktivität im Schwabe-Zyklus, ein El Niño-Ereignis ausgelöst wird. Dies scheint auf großen Skalen gleich zu sein. Steigt die solare Aktivität im Hauptsonnenzyklus an, löst dies (den El Niño von 1900) einen El Niño aus. Anhand eines Ereignisses kann noch keine Korrelation hergestellt werden, daher soll die These weiter geprüft werden. Abb.18 zeigt eine Übersicht historischer El Niño-Ereignisse.

 

Abb.19, zeigt eine Auflistung historischer El Niño/La Niña-Ereignisse über die letzten 1.000 Jahre, Quelle: http://nexialinstitute.com/climate_el_nino.htm

Nach den Arbeiten von Prof. Mörner (Abb.18) hatte der Hauptsonnenzyklus ca. 1670 und 1465 sein Minimum und drehte dann in seiner Aktivität.

 

Abb.20 zeigt den C14-Proxy, der als Maß der solaren Aktivität steht über die letzten 1.100 Jahre, Quelle: United States Geological Survey. Der Autor hat dazu die Minima (blaue Linien) eingezeichnet, an denen sich der Verlauf umkehrt, also die Sonnenaktivität wieder zunimmt. Die Minima sind identisch mit den Minima der solaren Aktivität und wie die Zykluszeit unschwer erkennen lässt, den Hauptsonnenzyklus darstellen. Die Minima liegen bei ca. 1078, 1338, 1538 und 1718.

Jetzt werden diese Daten mit der Auflistung in Abb.19 verglichen (Abb.21).

 

Abb.21: Sowohl die Wechsel in der solaren Aktivität aus den Arbeiten von Prof. Mörner (Abb.18, die Jahre 1670 und 1465), als auch die Wechsel in der Aktivität aus Abb.19 (United States Geological Survey, die Jahre 1718, 1538, 1338 und 1077) fallen exakt mit einem El Niño-Ereignis zusammen.

Daraus lässt sich der Schluss erhärten, dass zu den bereits drei gefunden solaren Parametern, die einen El Niño auslösen, ein vierter Parameter kommt:

4. Zu jedem Aktivitätswechsel im Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus wird ein El Niño ausgelöst, wenn die solare Aktivität im Hauptsonnenzyklus ihr Minimum durchlaufen hat und wieder ansteigt.

Anhand der Untersuchungsergebnisse ist festzustellen dass alle 40 El Niño-Ereignisse im Untersuchungszeitraum der letzten 140 Jahre durch einen solaren Parameter ausgelöst werden. Bei der solaren Aktivität bleiben bei den rekonstruierten Werten zwei El Niño aus. Im Zeitraum der gemessenen Werte bleibt kein solares Ereignis, ohne „seinen“ El Niño ausgelöst zu haben. Der El Niño tritt dabei in einem exakten Zeitfenster nach der solaren Aktivitätserhöhung/solarem Maximum ein. Genau 11 Monate danach.

Aus diesen Gründen geht der Autor davon aus, dass sich Ende 2014/Anfang 2015 ein El Niño-Ereignis einstellen wird und zwar deswegen, weil die Sonne genau jetzt ihr magnetisches Maximum im 24. Schwabe-Zyklus hat (Abb.22). Jedes gemessene magn. Maximum hat im Untersuchungszeitraum „seinen“ El Niño ausgelöst. Dass die Physiker Armin Bunde und Josef Ludescher von der Universität Gießen anhand ihrer Studie (veröffentlicht im US-Fachjournal „Proceedings of the National Academy of Sciences“) unabhängig zu dem gleichen Ergebnis gelangen, erfreut natürlich den Autor. Dabei schreiben die Physiker “Jetzt geben wir bekannt, dass unser Verfahren bereits im September 2013 die Wiederkehr von El Niño im Spätjahr 2014 erkennen ließ.“ Der Autor hat bereits im Januar 2011 bekannt gegeben, wann und wie El Niños auftreten. Er ließ dies nicht nur „erkennen“, sondern hat klar die Aussage abgegeben.

Während die Gießener Physiker angeben “die Wahrscheinlichkeit, mit der ein El Niño noch in diesem Jahr eintritt, liege bei 76 Prozent“, konnte der Autor zeigen, dass alle El Niño in den letzten 140 Jahren durch „ihren“ solaren Parameter ausgelöst wurden. Dies ist eine Trefferquote von 100%. Werden die beiden solaren Ereignisse, die keinen El Niño auslösten, mit einbezogen, so liegt die Wahrscheinlichkeit bei 96%. Inwieweit beide Fraktionen Recht behalten, wird sich Ende 2014 zeigen.

 

Abb.22 zeigt den gegenwärtigen 24. Schwabezyklus, Quelle:http://www.solarham.net/ Das magnetische Maximum liegt in 02/14. Anhand der Untersuchungen des Autors wird demnach 11 Monate später, in 01/15, der El Niño voll ausgeprägt sein und sein Maximum erreichen.

  

Raimund Leistenschneider – EIKE




Die Dosis macht das Gift -auch bei Strahlung!

Die LNT Hypothese bedeutet, dass jede noch so kleine Strahlendosis ein Gefahrenpotential darstellt und wurde auf der Basis eines damals nicht bekannten Selbstheilungs-Mechanismus der Zellen eingeführt.  

Da in wachsender Zahl über Untersuchungsergebnisse berichtet wird, die zeigen, dass schwache Dosen ionisierender Strahlung nicht nur keinen nachweislichen Schaden anrichten sondern im Gegenteil gesundheitsfördernd sein können, steht die LNT Hypothese auf zunehmend unsicheren Füssen und sollte dringend überarbeitet werden, um eine unnötige Verunsicherung der Bevölkerung zu vermeiden1-3.  

Immerhin wird in über 3000 Berichten über einen positiven Gesundheitseffekt kleiner Strahlungsdosen berichtet  (Luckey4).  

Die allgemein existente Angst der Bevölkerung  vor jeder Art von Strahlung behindert den medizinischen, wissenschaftlichen und technischen Einsatz von Prozessen, bei denen ionisierende Strahlung entsteht, vernichtet Menschenleben und führt zur Vergeudung von Billionen € für Stilllegungen von Kernkraftwerken, Rückbau von Anlagen, Abfallmanagement von radioaktivem Material, Umstellung der Energieversorgung etc.

Ionisierende Strahlung erzeugt Radikale, d.h. kurzlebige Molekülbruchstücke, die Körperzellen und Erbgut beeinträchtigen können. Es gibt keinen Zweifel daran, dass hohe Dosen  stark gewebeschädigend sind. Neuere Untersuchungen zeigen jedoch, dass Strahlungsdosen unter einem Schwellenwert von 200 mSv nicht nur keine Gesundheitsschäden verursachen, sondern im Gegenteil gesundheitsfördernd sein können. Die Tatsache, dass die Menschheit seit dem Beginn ihrer Entstehung einer kontinuierlichen Bestrahlung mit ionisierenden Strahlen ausgesetzt ist, ließ auch kaum ein anderes Ergebnis erwarten.

Molekularbiologen führen diesen Vorgang darauf zurück, dass geringfügige Strahlungseinflüsse einen Reparaturprozess am DNA- Molekül aktivieren, der auch vor zukünftigen Schäden schützt.

Als Risiko hat die Internationale Strahlenschutzkommission (ICRP) die Wahrscheinlichkeit des Auftretens von Schäden  nach einer Strahleneinwirkung bei der Einzelperson durch eine einfache Formel:

R = 0,05/1Sv

festgelegt.

Sie gilt ohne Schwellenwert und ohne zeitliche Begrenzung.

Diese Formel sagt aus, dass bei einer Ganzkörperbestrahlung  von 1 Million Menschen  mit 4 mSv  innerhalb der nächsten Jahrzehnte 200 Menschen (0,02 %) zusätzlich von Leukämie oder Krebs befallen werden. Zur richtigen Einordnung dieser auf den ersten Blick erschreckenden Zahl muss allerdings berücksichtigt werden, dass allein 2010 in Deutschland 220.000 Menschen an Krebs starben. Bei einer Bevölkerung von 80 Millionen also 2,75%. Die Rechnung ergibt also eine Erhöhung von 2,75% auf 2,77%, wenn alle zusätzlichen Krebserkrankungen tödlich enden. Solche Unterschiede sind statistisch kaum zu ermitteln.

Die Formel regt jedoch auch zu missbräuchlichen Interpretationen an, da das relativ kleine Risiko, multipliziert mit einer großen Bevölkerungszahl eine große Zahl von „Krebsopfern“ ergibt, mit denen Horrorszenarien aufgebaut werden. Aus 1 Million Menschen, die nach einer Bestrahlung mit 1 Sv jeweils mit einer Wahrscheinlichkeit von  0,05% betroffen sind, werden reale 500 Krebstote. Oder noch abstruser : Der radioaktive Niederschlag  nach den Kernwaffentests hat angeblich zu einer Erhöhung der Hintergrundstrahlung auf der Erde um 1 mSv geführt, bei 7 Milliarden Menschen auf der Erde also zu 350.000 zusätzlichen Krebstoten.

Da von der ICRP einer über lange Zeit aufsummierten Dosis das gleiche Risiko zugeordnet wird wie einer kurzzeitigen Belastung gleicher Stärke, muss die LNT Hypothese bei geringen Dosen auch aus einem weiteren Grund zu falschen Ergebnissen führen. Das Immunsystem eines  lebenden Organismus kann einen Schaden umso besser abwehren kann, je länger die Zeit ist,  über die die Dosis verteilt ist.

Diese Erfahrungen sind bei Beeinflussung durch Licht, Chemikalien, Bakterien und Viren bekannt, nur bei der Strahlung wird dieser Effekt offiziell nicht zur Kenntnis genommen, obwohl der menschliche Organismus auf der Erde überall einer ionisierenden Bestrahlung ausgesetzt ist, die in Deutschland5 für jeden Einwohner im Mittel ca. 4 mSv pro Jahr beträgt.

Die in Deutschland lebenden 80 Millionen Menschen  erhalten damit bis zu ihrem 80. Lebensjahr im Mittel (40 Jahre) eine Dosis von ca. 160mSv. Nach der Formel des ICRP müssten  in Deutschland durch ionisierende Strahlung jedes Jahr  pro  Million Einwohner 8000 Menschen jährlich  von  Leukämie oder Krebs neu befallen werden, also insgesamt 640.000 Menschen. Bei einer Heilungsrate von 50% würden 320.000 Todesfälle pro Jahr in Deutschland allein auf den Einfluss ionisierender Strahlung zurückzuführen sein. Laut deutscher Krebsstatistik und einer Harvard- Untersuchung6 sind jedoch nur 1,5% der 2010 durch Krebs erfolgten 220.000 Todesfälle auf die Einwirkung ionisierender Strahlung zurückzuführen, also 3300 Todesfälle, 1% des Vorhersagewertes nach dem ICRP Modell!

Dieser Widerspruch allein sollte zum Nachdenken darüber anregen, ob die LNT Hypothese ohne Einschränkung gilt.

Geringe Dosen schädlicher oder giftiger Substanzen  können eine positive Wirkung auf den Organismus haben, ein Effekt, der in der Medizin unbestritten ist und zur Heilung eingesetzt wird. Die Giftwirkung setzt erst ein, wenn eine gewisse spontan eingenommene Dosis überschritten wird. Auch über einen Gewöhnungseffekt des menschlichen Organismus an geringe Dosen besteht kein Zweifel. Wenn das nicht so wäre, würde jedes Glas Wein ein Schritt in Richtung Selbstmord durch Alkohol sein, was ein übermäßiger Alkoholgenuss ohne Zweifel ist.

Dem Menschen wird jedoch dieser Schutzmechanismus bzgl. der  radioaktiven Strahlung abgesprochen, obwohl er seit Beginn seiner Existenz auf der Erde einer anfänglich weitaus höheren Bestrahlung ausgesetzt war und immer noch ist. Kaum eingegangen in die Betrachtungen des ICRP ist die Tatsache, dass in einigen Gegenden der Welt die in Deutschland vorherrschende Bodenstrahlung von 0,47mSv deutlich überschritten wird und Werte von 10 mSv! erreicht (Monazit-Abbaugebiete in Kerala, Indien), ohne feststellbar erhöhte Krebs- und Leukämieraten.

Doch nicht nur in Indien findet man bewohnte Gebiete mit hoher natürlicher Strahlung. Yangjiang in China, Guarapari in  Brasilien und Ramsar im Iran sind weitere bekannt Gebiete mit sehr hoher natürlicher Strahlung.

In Ramsar liegt die mittlere Strahlenbelastung bei 10 mGy pro Jahr, einige Gebiete der Stadt mit ca. 2000 Einwohnern weisen eine Strahlenbelastung bis zu 260mGy pro Jahr aus.

Eine Strahlendosis von 100 mSv pro Jahr stellt nach deutschen Richtlinien den Eingreifrichtwert für eine Umsiedlung der betroffenen Bevölkerung dar, da angeblich mit einer steigenden Krebsrate und Genschäden zu rechnen ist. Die Bewohner von Ramsar leben seit vielen Generationen mit dieser hohen Hintergrundstrahlung, die nach dem LNT- Modell genetische Abnormitäten und ein erhöhtes Krebsrisiko bedeuten. Da im allgemeinen davon ausgegangen wird, dass ca. 1,5% aller Krebsarten von ionisierender Strahlung hervorgerufen werden, müssten im Laufe der Zeit alle Einwohner Ramsars bereits an Krebs gestorben sein. Die Untersuchungen von S.M.J. Mortazavi, M. Ghiassi-Nejad, P.A. Karam, T. Ikushima, A. Niroomand-Rad, J.R. Cameron7 zeigen jedoch bei zytologischen Untersuchungen keine signifikanten Unterschiede im Vergleich zu Menschen, die unter normalen Umweltverhältnissen leben.

Im Gegensatz zur allgemeinen Ansicht zeigen viele  Versuche mit geringen Strahlendosen einen positiven Effekt bezüglich Schutz vor bzw. Verlangsamung einer Krebsausbreitung bei Tierversuchen, wie in den Veröffentlichungen von Sanders8, Doss9, Jolly und Meyer10 berichtet wird.

In seiner Arbeit: „The health effect of low dose ionizing radiation“ zeigt Luckey11 dass ein optimaler Gesundheitszustand bei Säugetieren bei einer Strahlenbelastung von 60 mSv/y erreicht wird, dass das Lungenkrebsrisiko mit steigender Radonbelastung  amerikanischer Häuser zurückgeht (Cohen12), dass die Krebs-Mortalitätsrate mit steigender Dosis schwacher Strahlung sinkt und dass mit steigender natürlicher Strahlenbelastung mit rückläufigen Krebserkrankungen zu rechnen ist (Nambi et all13).

In die gleiche Richtung weisen die Ergebnisse einer  Untersuchung in Taiwan14 . Dort wurde 1980 in Taipeh mit Co-60 (Halbwertzeit 5,3 Jahre) kontaminierter Stahl in Wohngebäuden verbaut. Erst nach 20 Jahren wurde dieser Fehler festgestellt.

Die anfängliche Bestrahlung erreichte bis zu 900 mSv!! pro Jahr und ließ entsprechend der Halbwertszeit in den Jahren nach. Die mittlere Dosis für alle betroffenen Personen wird mit 400 mSV pro Jahr angegeben.

Der Gesundheitszustand der Bewohner wurde nach Bekanntwerden des Baufehlers eingehend auf Krebs, Leukämie und Missbildungen untersucht. Die folgende Abbildung zeigt den Einfluss der Bestrahlung auf die Krebs-Sterberate im Vergleich zum allgemeinen Verlauf in Taiwan.

Die mittlere Mortalitätsrate für Krebs lag in Taiwan in den Jahren zwischen 1983 und 2002 bei 116 Toten auf 100000 Personen- Jahren. Das bedeutet z. B. für 10.000 Personen in einem Zeitraum von 20 Jahren (10000*20*116/100000) erwartete 232 Tote. An Krebs starben von den Bewohnern jedoch nur 3% dieser erwarteten Zahl, obwohl Untersuchungen von S.I Hwang et.all15. zeigten, dass ein Krebsbefall in dieser Gruppe nicht  ausgeschlossen ist. Von 7271 Menschen mit 101560 Personen- Jahren  unter einer mittleren Strahlenbelastung  von 47,8 mSv im Bereich von 1- 2363 mSv wurden 141 Krebsfälle diagnostiziert.  

Obwohl viele der Bewohner über lange Zeit eine sehr hohe Strahlendosis erhalten hatten, wurden keine nachteiligen Krankheitssymptome, wie Strahlenkrankheit, deutlich steigende Krebsrate oder Missbildungen beobachtet. Auch Chromosom- Veränderungen konnten ausgeschlossen werden.

Diese Ergebnisse sind ein weiteres Beispiel dafür, dass lebende Organismen in der Lage sind, Schäden durch ionisierende Strahlung zu reparieren und Schutzmechanismen auch gegen Zellschädigungen durch andere Ursachen aufzubauen.

Im Gegensatz zum Anstieg der Krebsrate bei kurzzeitig sehr hohen Dosen (größer 2 Sv), der bei Personen beobachtet wurde, die durch Atombomben geschädigten waren, wurde in Taiwan ein positiver Effekt bzgl. der Gesundheit bei geringeren Dosen schon kurze Zeit nach der Bestrahlung beobachtet, wie die obige Abbildung zeigt.

Diese Ergebnisse widerlegen die allgemein verbreitete und politisch verankerte Annahme, dass jede auch noch so kleine Dosis potentiell schädlich ist. Die Konsequenzen für alle Risikoanalysen in Bezug auf ionisierende Strahlung bei der Anwendung der Kerntechnologie in Medizin und Technik liegen auf der Hand und relativieren die in Deutschland allgemein verbreitete Ansicht,  Strahlung sei grundsätzlich gesundheitsschädlich.

Das Gegenteil scheint Realität zu sein, geringe Strahlungsdosen scheinen eine aussichtsreiche Waffe gegen Krebs zu sein und könnten für eine deutliche Reduktion der Sterblichkeitsrate sorgen.

Eine seriöse Überprüfung der LNT Hypothese ist angesagt.

Anstatt aus Angst vor Strahlenschäden Milliarden für die „Energiewende“ auszugeben und sich bzgl. der Energieversorgung mit „Erneuerbaren Energien“ ins Mittelalter zurückzubewegen, sollte man diese Erkenntnisse ernsthaft überprüfen und die Strahlenschutzverordnungen entsprechend anpassen. Die Einführung eines Schwellenwertes, bis zu dem keine Strahlenschäden sondern im Gegenteil  positive gesundheitliche Auswirkungen zu erwarten sind, würde die Strahlenschutzmaßnahmen drastisch vereinfachen und Billionen € einsparen, Mittel, die erheblich sinnvoller zur Lösung sozial- und wirtschaftspolitischer  Probleme eingesetzt werden könnten.

Über den Autor:

Dr. Jürgen Langeheine ist Diplomphysiker. Sein beruflicher Werdegang verschaffte ihm ein breites Wissen in Physik, Chemie und Verfahrenstechnik. Als  langjähriger Vorsitzemder der Geschäftsführung  der BASF- Magnetics/ EMTEC sind ihm wirtschaftliche Zusammenhänge geläufig. Dr. Langeheine ist Autor des Buches „ Energiepolitik in Deutschland- das Geschäft mit der Angst“

Zusammen mit seiner Frau wohnt er in Gauting bei München.

Literatur:

1. K. Becker, E. Roth: Zur Wirkung  kleiner Strahlungsdosen : atw (10) 616-620, 1998

2. K. Becker: LNT or not LNT that ist he question, Strahlenschutzpraxis 2/2006 ,44-48

3. K. H. Weber: Kritik an der linearen Extrapolations- Hypothese biologischer Strahlenwirkungen

    http://leibnizsozietaet.de/wp-content/uploads/2000/07/03_weber_kh.pdf

4. T.D.Luckey, Abundant health from radioactive waste: IntJ LowRadiation 5, 71-82, 2008

5. J. Langeheine: Energiepolitik in Deutschland-das Geschäft mit der Angst, Athene- Media Verlag , ISBN 978-3-86992-054-2

6. Harvard Reports on Cancer Prevention 1996

7. S.M.J. Mortazavi, M. Ghiassi-Nejad, P.A. Karam, T. Ikushima, A. Niroomand-Rad, J.R. Cameron, Int. J. of Low

    Radiation, 2006 Vol.2, No.1/2, pp.20 – 27

8. Charles L. Sanders: Radiation Hormesis and the Linear No Threshold Assumption

   Springer Verlag, Berlin Heidelberg 2010, ISBN 978-3-642-03719-1

9. M. Doss, Dose Respose, 10;584-592, 2012

10. D. Jolly, J. Meyer, A brief review of radiation hormesis, Austral.Phys. EngSci Med 2009; 32; 180-7

11. T.D.Luckey,The health effect of low dose ionization radiation: J. of American Physicians and surgeons Vol. 13, 2, 39-42

12. B.L. Cohen, The test of  the linear no thresthold theory of radiation carcinogenesis for inhaled radon decay products,

     Health Phys 1995:68:157-174

13. KSV Nambi, SD Soman. Environmental radiation and cancer deaths in India. Health Phys  1987;52:653-666

14. Dose Response. 2006 Aug 25;5(1):63-75.doi:10.2203/dose-response.06-105.

      Effect of cobalt-60exposure on health of Taiwan residents suggest new approach needed in radiation protection

     Chen WL, Luan YC, Shieh MC, Chen ST, Kung HT, Soong KL, Yeh YC, Chou TS, Mong SH, Wu JT, Sun CP, Deng

     WP, Wu MF, Shen ML.

15. S.L. Hwang,H.R.Guo, W.A.Hsieh, J.S.Hwang, S.D. Lee, J.L.Tang, C.C. Chen, T.C. Chang, J.D. Wang, Dr. W. P. Chang

     Intern. J. rad. Boil. 2006 Vol 82 no. 12 ,848-858

*Die Strahlenbelastung wird in Gray Gy ( J/ kg) gemessen und gibt die Strahlungs-( Energie-) Dosis an, die von 1 kg des bestrahlten Materials absorbiert wird. Üblicherweise wird jedoch die biologische Wirksamkeit einer Strahlung mit der Äquivalentdosis bewertet. Diese ist das Produkt aus der Energiedosis und einem dimensionslosen Strahlungsgewichtungsfaktor q und wird in Sv (Sievert) gemessen. da sich der Zahlenwert der Dosisgröße durch den Strahlungswichtungsfaktor auch ändern kann, werden für Energiedosen Gray verwendet, für gewichtete Dosisgrößen Sievert . Der Strahlungsgewichtungsfaktor beträgt für Gamma – Strahlung 1, für Alpha- Strahlung 20. Die Dosisleistung, also die Strahlenbelastung pro Zeiteinheit wird dann durch Gray pro Jahr (Gy/a) oder Sievert pro Jahr (Sv/a) beschrieben. Da 1 Gy oder 1Sv eine sehr hohe Strahlenbelastung darstellt, werden diese Strahlenbelastungen in mGy oder mSv angegeben.




Occams Rasierer und Klimaänderung

Wie Prof. Phil Jones einmal in einem Interview mit der BBC zugegeben hat, enthält die Zeitreihe mit Instrumenten-Aufzeichnungen Erwärmungsperioden, die statistisch ununterscheidbar von der Erwärmung der neunziger Jahre – Erwärmungsperioden, die nicht durch anthropogenes CO2 angetrieben worden sein können, weil sie erfolgten, bevor die Menschen dem CO2-Niveau signifikant ihren Stempel aufgedrückt hatten.

Zwischen 1860 und 1880 hat sich die Welt 21 Jahre lang erwärmt, und zwar mit einer Rate ähnlich der während des Zeitraumes 1975 bis 1998. Es gab damals einfach nicht genug CO2 in der Atmosphäre, um die Erwärmung in den sechziger Jahren des 19. Jahrhunderts zu erklären, so dass folglich nur die natürliche Variation die Ursache sein kann.


Wie also kann man Occams Rasierer auf diese Beobachtung anwenden?

Der Definition in Wikipedia zufolge legt das Prinzip von Occams Rasierer fest, dass „unter rivalisierenden Theorien diejenige mit den wenigsten Hypothesen gewählt werden sollte. Andere, kompliziertere Lösungen mögen sich ultimativ als richtig herausstellen, aber – bei fehlender Gewissheit – gilt: je weniger Hypothesen gemacht werden müssen, umso besser“.

Wikipedia dazu, warum Occams Rasierer wichtig ist:

Um das zu verstehen ziehe man in Betracht, dass es für jede akzeptierte Erklärung eines Phänomens immer eine unbegrenzte Anzahl von möglichen, komplexeren und ultimativ falschen Alternativen gibt. Dies ist so, weil man immer sich als falsch herausstellende Erklärungen mit einer Ad-Hoc-Hypothese belasten kann. Ad-Hoc-Hypothesen sind Rechtfertigungen, die Theorien davor bewahren, falsifiziert zu werden. Selbst andere Kriterien wie Übereinstimmung können niemals wirklich solche Erklärungen als rivalisierend eliminieren. Jede wirkliche Erklärung kann also viele Alternativen gehabt haben, die einfacher und falsch waren, aber auch eine unbegrenzte Anzahl von Alternativen, die komplexer und falsch waren. Falls jedoch eine Ad-Hoc-Hypothese  tatsächlich gerechtfertigt werden kann, würden dessen implizite Schlussfolgerungen empirisch verifizierbar sein. Nach einem allgemein akzeptierten Prinzip der Wiederholbarkeit sind diese alternativen Theorien niemals beobachtet worden und werden auch weiterhin nicht beobachtet werden. Außerdem sagen wir nicht, dass eine Erklärung richtig ist, die diesem Prinzip nicht standgehalten hat.

Anders gesagt: jede neue und sogar noch komplexere Theorie kann immer noch wahr sein. Beispiel: Falls ein Individuum übernatürliche Behauptungen aufstellt, dass Kobolde für das Zerbrechen einer Vase verantwortlich waren, wäre die einfachere Erklärung, dass man ihn falsch verstanden habe, aber aufgestellte Ad-Hoc-Rechtfertigungen (z. B. „Das bin nicht ich in dem Film, sie haben daran auch herumgefummelt“), verhindern erfolgreich die augenblickliche Falsifizierung. Die endlos zur Verfügung stehenden, sorgfältig ausgearbeiteten rivalisierenden Erklärungen, Rettungs-Hypothesen genannt, können nicht ausgeschlossen werden – außer durch Occams Rasierer“.

Quelle: http://en.wikipedia.org/wiki/Occam’s_razor

Mit anderen Worten, falls wir das Prinzip von Occams Rasierer zurückweisen, öffnen wir die Tür für die Akzeptanz von Theorien mit willkürlicher, ultimativ unendlicher Komplexität. Eine von Forschern aufgestellte Theorie, die nicht dem Prinzip von Occams Rasierer folgt, kann nicht falsifiziert werden, weil die Theorie immer auf willkürliche Weise verformt werden kann, um die Falsifikation zu verhindern.

Warum nun zwingt uns das Prinzip von Occams Rasierer, die Theorie abzulehnen, dass anthropogenes CO2 der Haupttreiber einer zeitweiligen Klimaänderung ist? Der Grund ist, dass die Natur Erwärmungsphasen ähnlich der jüngsten Erwärmung hervorgebracht hat, ohne signifikanten Beitrag durch anthropogenes CO2.

Wir haben also zwei rivalisierende Hypothesen für das, was eine zeitweilige Klimaänderung treibt:

1. Beobachtete natürliche Variation, die zu natürlichen Erwärmungsphasen geführt hat, die statistisch ununterscheidbar sind von der 1998 zu Ende gegangenen Erwärmung.

2. Beobachtete natürliche Variation + eine unbewiesene Behauptung, dass anthropogenes CO2 jetzt der Haupttreiber der Klimaänderung ist.

Die zweite Hypothese besteht den Test von Occams Rasierer eindeutig nicht. Angesichts eines fehlenden überzeugenden Beweises, dass anthropogenes CO2 die natürliche Variation übertrumpft hat, müssen wir Hypothese 1 akzeptieren – dass die beobachtete Klimaänderung das Ergebnis natürlicher Variationen ist.

Das Klima ist nicht wärmer als in der Vergangenheit. Das zeigen Zeiträume wie das Optimum des Holozäns oder noch früher die Eemian-Zwischeneiszeit. Die 1998 zu Ende gegangene Erwärmung erfolgte nicht schneller und dauerte nicht signifikant länger als ähnliche natürliche Erwärmungen, die es in der jüngeren Vergangenheit gegeben hat.

Nichts am gegenwärtigen Klima liegt außerhalb des Bereiches klimatischer Bedingungen, die sehr wohl aus der natürlichen Variation resultieren können – daher müssen wir den Regeln der Wissenschaft folgend Hypothesen zurückweisen, die unnötigerweise unbewiesene Vermutungen enthalten, solange oder bis solche Vermutungen getestet und verifiziert werden können, und zwar auf eine Art und Weise, die die Theorie falsifiziert, dass die natürliche Variation immer noch im Fahrersitz Platz genommen hat.

Link: http://wattsupwiththat.com/2014/03/22/occams-razor-and-climate-change/

Übersetzt von Chris Frey EIKE

Hinweis: Zu Occams Rasierer gibt es bei Wikipedia auch etwas auf Deutsch. Ich habe aber ausschließlich den obigen Text übersetzt ohne Berücksichtigung dessen, was dazu auf Deutsch dort steht.

C. F.




Der IPCC Bericht der Gruppe II, die WMO, die Stagnation und das sechstwärmste Jahr

Die Spatzen pfeifen es von den Dächern, selbst schwer grün eingefärbte mediale Dauertalker kommen an der seit 17 Jahren stagnierenden globalen Mitteltemperatur nicht mehr vorbei. Also muss erneut Alarm gegeben  werden. Und was eignet sich besser dazu als die „Alarmmeldung“, dass das Jahr 2013 weltweit das sechstwärmste Jahr seit Beginn der Wetteraufzeichnungen gewesen sei. Da durfte auch Frau Inge Niedeck bekannte Klimaalarmistin des ZDF nicht fehlen, die in ihrer Freude, über diese Schreckensmeldung im 3-Sat Fernsehen mal eben Australien nach Südeuropa verlegte.  Lesen Sie was es mit dem schrecklichen sechstwämsten Jahr auf sich hat.

Videoausschnitt der 3 Sat Wettersendung mit Frau Inge Niedeck zum 6. wärmsten Jahr. Mit Dank an Spürnase R. Hoffmann

Die WMO, das sechstwärmste Jahr und die Stagnation

von Rudolf Kipp tlw. ergänzt von EIKE Redaktion

Die Weltorganisation für Meteorologie hat (WMO) hat gestern ihren Jährlichen Bericht zur Klimaentwicklung vorgestellt. Wer, wie die meisten Leser hier, die Entwicklung der globalen Temperaturen mehr oder weniger regelmäßig verfolgt, für den kommt die Hauptbotschaft des Reports nicht überraschend. Die seit etwa 1998 andauernde Stagnation beim Anstieg der Globaltemperaturen hat sich auch im Jahr 2013 weiter fortgesetzt. Die Grafik rechts zeigt die Entwicklung der Globaltemperatur seit 1997  nach unterschiedlichen Messdaten.

Stagnation beim Temperaturanstieg kein Thema

Zugegeben, von der Stagnation erfährt man lediglich in dem dem Bericht zugrunde liegenden Daten, nicht im Bericht selbst. Die WMO, die ebenso wie das IPCC eine Organisation der UNO ist, wählt ihre Formulierungen dann doch lieber so, dass der Umstand dass es seit über 15 Jahren nicht mehr wärmer wird nicht so deutlich auffällt. In der Presseerklärung wird der Begriff Stillstand (Hiatus) nicht einmal erwähnt. Dort heißt es stattdessen:

The report confirmed that 2013 tied with 2007 as the sixth warmest on record, continuing the long-term global warming trend.

(…)Thirteen of the fourteen warmest years on record have all occurred in the 21st century, and each of the last three decades has been warmer than the previous one, culminating with 2001-2010 as the warmest decade on record.

An diesen Aussagen ist zunächst einmal nichts falsch. seit 1850 ist es etwa 0,9 °C wärmer geworden.

Die Erwärmung fand, wie in der Grafik oben (aus die kalte Sonne) und unten (aktuelle Grafik) gut erkennbar, in drei Schüben statt. Von 1860 bis 1880, von 1910 bis 1940 und von 1975 bis ungefähr 2000.

Seit 1998 befindet sich die globale Temperatur auf einem Plateau, es wird weder wärmer noch kälter. Das was die WMO beschreibt, also dass 13 der 14 wärmsten Jahre im 21. Jahrhundert liegen (einzige Ausnahme 1998) und dass damit sämtliche Jahre ab 2000  irgendwo in den Top 14 der letzten 160 Jahre liegen, ist schließlich genau das, was man bei einer Stagnation auf hohem Niveau erwarten würde.

Extremwetter als neue Drohkulisse

Der Hauptaugenmerk des diesjährigen Klimareports liegt allerdings nicht auf der Temperaturentwicklung, die wie gezeigt ja auch wenig besorgniserregend rüberkommt. Stattdessen wird schon im Titel angekündigt, worum es an Stelle der Temperatur gehen soll, nämlich Extremwetter-Ereignisse (“WMO Annual Climate Statement Highlights Extreme Events”). Und da wird dann auch die gesamte Klaviatur des Schreckens gespielt:

“The year 2013 once again demonstrated the dramatic impact of droughts, heat waves, floods and tropical cyclones…”

Wobei nicht direkt gesagt wird, dass die Dürren, Hitzewellen, Fluten und tropischen Wirbelstürme nun tatsächlich auf den Klimawandel zurückzuführen wären. Es wird jedoch sehr sehr deutlich impliziert.

“…many of the extreme events of 2013 were consistent with what we would expect as a result of human-induced climate change.”

Wenn man nämlich genauer hinschaut wird deutlich, dass der postulierte Zusammenhang zwischen dem Klimawandel und der Zunahme jeglicher Unbillen des Wetters statistisch kaum bis gar nicht gesichert ist. Selbst der Weltklimarat IPCC hat in seinem letzten Sachstandsbericht diesbezügliche Aussagen aus den vorherigen Berichten deutlich zurückgenommen und sieht wenig bis kaum Belegbares. Aus Kapitel 2 des IPCC AR5:

♦  “Overall, the most robust global changes in climate extremes are seen in measures of daily temperature, including to some extent, heat waves. Precipitation extremes also appear to be increasing, but there is large spatial variability”

  “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century”

  “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century … No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin”

  “In summary, there continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale”

 “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems”

  “In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global-scale observed trend in drought or dryness (lack of rainfall) since the middle of the 20th century due to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. ”

 “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low”

Starke Stürme – dünne Daten

Besonders hervorgehoben wird in der WMO Presseerklärung der Taifun “Haiyan”, der im letzten Jahr auf den Philippinen große Verwüstung angerichtet hatte. Wobei sich die WMO dabei auf recht dünnes Eis begibt. Denn auch wenn solche Stürme“konsistent mit dem sind was man wegen der menschengemachten Erwärmung erwarten würde” sind, spricht doch der gemessene Trend der letzten Jahre eine völlig andere Sprache. Obwohl es seit den frühen 70er Jahren unbestreitbar wärmer geworden ist, ist bei der Energie und Anzahl der tropischen Stürme in diesem Zeitraum eher ein Rückgang als ein Anstieg zu erkennen (Abbildungen links, klicken zum  vergrößern).

Diese Daten sind auch der WMO bekannt, weshalb auch nicht explizit gesagt wird, die (menschengemachte) globale Erwärmung wäre für einen Anstieg von Anzahl oder Intensität von tropischen Wirbelstürmen verantwortlich. Dort wird das Ganze etwas vorsichtiger formuliert:

“We saw […] more damage from storm surges and coastal flooding as a result of sea level rise – as Typhoon Haiyan so tragically demonstrated in the Philippines,” said WMO Secretary-General, Mr Michel Jarraud.

Es war demnach also der Anstieg des Meeresspiegels, der den Taifun Haiyan erst so verheerend gemacht hätte. Diese Aussage verdient eine nähere Betrachtung. Schließlich liegt Rate des Meeresspiegel-Anstiegs global irgendwo bei 20 bis 30 cm in 100 Jahren, mit starken regionalen Schwankungen.

Glücklicherweise gibt es ziemlich genau in der Bahn des Taifuns Haiyan über die Philipinen die Pegelstation Cebu. Dort wird seit 1947 ununterbrochen der Meeresspiegel gemessen (Abbildung links, klicken zum vergrößern). Der Anstieg in den letzten 60 Jahren betrug dort insgesamt kaum 10 cm. In den letzten 15 Jahren war überhaupt kein Anstieg mehr zu beobachten. Es scheint also so, als würden diese Daten die Behauptung der WMO eher nicht stützen, es sei denn man glaubt daran dass ein 10 Zentimeter höherer Meeresspiegel einen signifikanten Einfluss auf die Zerstörungskraft eines Taifuns hat.

Bei der Berichterstattung über das Klima, beziehungsweise den Klimawandel, zeichnet sich in den letzten Jahren verstärkt der Trend ab, dass kaum noch über die Temperaturentwicklung gesprochen wird. Was kaum wundert, gibt es dort in letzter Zeit doch kaum etwas zu berichten, was auf den katastrophalen Klimawandel hindeutet mit dem uns seit Jahren gedroht wird. Stattdessen wird  die Zunahme von “Extremwetter” als neue Drohkulisse aufgebaut.

Und das oft auch mit Erfolg. Zum Teil weil es sich dabei um eine statistisch weit schwieriger zu fassende Größe als die Temperatur handelt. Das Wetter ist nie im eigentlichen Sinne normal, und wenn uns das normale, also dass beinahe ständig irgendwo außergewöhliche Wetterphänomen wie Überschwemmungen, Dürren, Hitze, Kälte, Sturm und Flaute stattfinden, als eine Zunahme von Extremen verkauft wird, dann sind offenbar viele geneigt das erst einmal zu glauben. Wobei sicher auch die Medien bei der Wahrnehmung, das Wetter würde immer extremer, eine nicht unerhebliche Rolle spielen. Über kaum etwas wird dort so geren berichtet wie über Wetterkatastrophen und deren sicher geglaubte Verbindung zum Klimawandel.

Bei der Veranstaltung “Die Klimadebatte und ihre Folgen” waren sich die anwesenden Klimawissenschaftler Hans von Storch und Andreas Hense in einem Punkt besonders einig. Die Klimawissenschaft steckt in einer Glaubwürdigkeitskrise, weil in der Vergangenheit, und zum Teil noch heute, die Folgen eines möglichen Klimawandels übertrieben dargestellt wurden und weil wissenschaftlich strittige Ergebnisse als gesichertes Wissen verkauft worden sind. Bei der WMO scheint diese Erkenntnis, dass ein solches Vorgehen langfristig immer nach hinten losgeht, noch nicht angelangt zu sein.

Der Bericht erschien zuerst bei ScienceSceptical




Extraktion von Schiefergas in Polen soll bis 2020 steuerfrei sein

Polens Schiefergas-Reserven werden auf eine Menge zwischen 800 und 2000 Milliarden Kubikmeter geschätzt, und viele heimische und auswärtige Unternehmen haben bereits Testbohrungen niedergebracht.

„Wir haben Maßnahmen ergriffen, die die Erkundung von Schiefergas fördern sollten”, sagte der polnische Premierminister Donald Tusk vor Journalisten und fügte hinzu: „Nach dem Jahr 2020 sollten die Steuern ‚nicht über 40% des Profits‘ hinausgehen“.

Die Nation mit einer Bevölkerung von 38 Millionen Menschen hofft, seine Schiefergasreserven im Hinblick auf eine sichere Energieversorgung auszubeuten, ist das Land doch gegenwärtig stark von Erdgaslieferungen aus Russland abhängig – und das Thema ist im Zuge der Ukraine-Krise plötzlich sehr dringlich geworden.

Russland, das damit gedroht hat, die Gaslieferungen an Kiew zu unterbrechen, ist der größte Einzel-Lieferant von Energie nach Europa, und die wesentlichen Gas-Pipelines verlaufen durch die Ukraine.

Polen hat eine gemeinsame Grenze mit der Ukraine und ist Mitteleuropas größte Ökonomie [?]. Das Land verbraucht derzeit rund 15 Milliarden Kubikmeter Erdgas jährlich. Zwei Drittel davon stammen aus Importen, meist aus Russland.

Jetzt plant die Regierung, bis zum Jahr 2020 12,5 Milliarden Euro in den Schiefergas-Sektor zu investieren. Heimische und globale Unternehmen haben bislang etwa 50 Erkundungsbohrungen in Polen niedergebracht. Die Firma Lane Energy Poland – kontrolliert von dem US-Energieriesen ConocoPhillips – war das erste Unternehmen, das im Juli 2013 Schiefergas extrahieren konnte. Allerdings war die Menge nicht groß genug, um als kommerzielle Produktion in Frage zu kommen.

Der US-Energieriese Chevron hat inzwischen Ende vorigen Jahres bekannt gegeben, dass sich das Unternehmen mit PGNiG zur Förderung von Schiefergas in Südpolen zusammengetan habe.

Link: http://au.news.yahoo.com/thewest/business/world/a/21930469/shale-gas-extraction-tax-free-in-poland-through-2020/

Übersetzt von Chris Frey EIKE




Weg ins Nirgendwo: Bruchlinien öffnen sich bei UN-Verhandlungen für ein Klimaabkommen

Das Herumeiern bei den jüngsten Gesprächen in Deutschland zeigt, dass die Kontroverse bis zu einer Konferenz in Paris Ende des nächsten Jahres vertagt wird, was das beabsichtigte Ziel unterminiert, das Kyoto-Protokoll zur Reduktion von Treibhausgasemissionen zu ersetzen. Die Entwicklungsländer sagen, dass die reichen Länder für den Großteil des Ausstoßes dieser Gase verantwortlich sind und folglich auf diesem Weg vorangehen müssen.

„Entwickelte Länder befürchten, dass man versucht, das Durban-Paket wieder aufzuschnüren und die Firewall erhalten will“, sagte Alden Meyer, Direktor der Abteilung Politik bei der Union of Concerned Scientists in Washington. Die Eingabe von China „hätte auch im Jahre 2008 geschrieben werden können. Ihrer Ansicht nach hat sich in Durban nichts geändert. Der Standpunkt der USA, der EU und anderen ist, dass sich die Welt fundamental verändert hat“.

Die Eingaben von China und Anderen mit Bezug auf Kyoto besagen, dass die Kyoto-Ziele nur für entwickelte Länder bindend sind. „Anwendbarkeit für alle bedeutet nicht, dass alle gleichmäßig betroffen sind, sondern dass es bei der Umsetzung Unterschiede gibt“, und die Teilung zwischen den beiden Seiten „muss erhalten bleiben“, sagte das LMDC [?] unter Verweis auf die Wortwahl im Durban-Abkommen.

Bestehende Firewall

„Das Problem ist, dass wir die Firewall nie wirklich los geworden sind“, sagte der EU-Repräsentant Jacob Wegman in einem Interview. „Die Chinesen und andere bestehen nach wie vor darauf, dass es zwei Arten von Ländern gibt, und die Erwartungen hinsichtlich ihrer Verpflichtung werden dadurch bestimmt“.

Der US-Botschafter Trigg Talley sagte den Delegierten, dass er zu Hause keinerlei Unterstützung für ein Abkommen erhalten würde, das nicht für alle Nationen gleichermaßen gelten würde. China ist mittlerweile zum größten Emittenten von Treibhausgasen durch seine wachsende Wirtschaft geworden. Dabei hat es Japan überholt; die USA stehen an dritter Stelle.

„Der Status Quo würde für ein Abkommen in Paris nicht funktionieren”, sagte Talley in Bonn. „Es wird ein immer größeres Problem, da sich die Emissions-Profile von Beitragenden ebenso ändern wie die Ökonomien selbst“.

Während es Chinas „Traum” ist, seine ganze Wirtschaft an bindende Reduktionsziele zu binden, sei sein Land aber noch nicht in der Lage dazu, sagte Botschafter Zou Ji. „Ich würde noch einmal empfehlen, unterschiedliche Ziele zwischen entwickelten und Entwicklungsländern auszuhandeln“, sagte er. Auch der indische Botschafter lehnte es ab, die Regeln universell umzusetzen.

Finanzierungsverpflichtung

Ein Gegenstand der Klage von Entwicklungsländern ist fehlende Klarheit darüber, wie viel Geld reichere Länder zur Verfügung stellen, um ihnen Emissionen reduzieren zu helfen und sich an Auswirkungen höherer Temperaturen anzupassen, als da wären steigender Meeresspiegel und schmelzende Gletscher. Entwickelte Länder haben 10 Milliarden Dollar pro Jahr geblecht von 2010 bis 2012 und versprochen, bis 2020 zu einem jährlichen Beitrag von 100 Milliarden Dollar zu kommen einschließlich privater Fonds.

„Es sollte zwischen jetzt und 2020 eine Korrektur nach oben geben“, sagte der Delegierte aus Bangladesh Quamrul Chowdhury, der sich im Namen der 48 ärmsten Entwicklungsländer geäußert hatte.

Meyer von der Union of Concerned Scientists sagte, entwickelte Länder müssen deutlicher werden hinsichtlich ihrer Angebote an ärmere Ökonomien, die nur „anspruchslose Verpflichtungen“ eingehen könnten.

Die Delegierten haben zugestimmt, eine Kontaktgruppe einzurichten, die an formellen Gesprächen teilnehmen und beginnen soll, Entwürfe eines eventuellen Vertrages auszuarbeiten, und zwar bis zum Beginn der nächsten Bonner Gesprächsrunde im Juni.

Link: http://www.thegwpf.org/nowhere-china-u-s-fault-lines-open-climate-treaty-talks/

Kommentar des Übersetzers: Es ist immer wieder interessant, was vor dem Hintergrund des größten Wissenschafts-Schwindels aller Zeiten so abläuft. Ich frage mich immer, ist das nun Kasperle-Theater, um von anderen Dingen abzulenken, oder nimmt irgendjemand der hier Genannten so etwas ernst? Ernst zu nehmen ist doch nur der Wille aller Beteiligten nach immer mehr Geld, oder?




Petition zur Änderung des Baugesetzbuches zur Verhinderung von Windkraftanlagen

Der Paragraph 35 des Baugesetzbuches ermöglicht es, 200m hohe Industrieanlagen an Orten zu errichten, an denen man nicht einmal einen Schafstall errichten dürfte – beispielsweise in Wäldern. Ohne dieses Außer-Kraft-Setzen der einschlägigen Vorschriften zum Bauen im Außenbereich wäre der grassierende Windkraftausbau nicht möglich.  Zwecks Abschaffung dieser baurechtlichen Privilegierung hat Herr Karl-Heinz Krummeck aus Rheinland-Pfalz eine Petition beim deutschen Bundestag eingereicht.

Ein Erfolg der Petition würde den sogenannten "erneuerbaren Energien" ihren Sonderstatus beschneiden die verfehlte Energiewendepolitik faktisch beenden.

Wir möchten Sie daher bis zum 2. April zur Teilnahme ermutigen:

Im Internet

Bitte unterzeichnen Sie die Petition online beim deutschen Bundestag unter diesem Link und verbreiten Sie diesen in Ihren Netzwerken. Informieren Sie sich weiterhin auf der Seite www.ber.de.

In der realen Welt

Bitte nutzen und vervielfältigen Sie diesen Unterschriftsbogen und bitten Sie Personen aus Ihrem Umfeld um deren Unterschrift (bzw. darum, ebenfalls Unterschriften zu sammeln).

In jedem Fall bietet die Petition die Chance, den negativen Auswirkungen – und damit mittelbar auch der Unsinnigkeit -der Energiewendepolitik ins öffentliche Bewusstsein zu rücken.




Energie: Wie kommt LNG* in die Ukraine?

Das Potential für LNG-Exporte  nach Europa ohne ein Abkommen zwischen der Türkei und der Ukraine bzgl. des Transports von LNG durch den Bosporus ist gleich Null. Dies wiederum macht die Region um das Schwarze Meer zum nächsten wesentlichen geopolitischen Pokerspiel.

Mit der Eskalation der Krise auf der Krim wird das Schwarze Meer zu einem äußerst wichtigen Faktor, wobei die Türkei hier den Zugang kontrolliert. Die Türkei hat es einem Kriegsschiff der US-Navy erlaubt, den Bosporus zu durchfahren, und US-NATO-Manöver haben in dem Gebiet begonnen, und zwar nahe den Grenzen zur Krim.

In einem vor kurzem veröffentlichten Bericht vom besten Öl- und Energie-Insider bei oilpreis.com heißt es: „Für die Ukraine ist LNG der Schlüssel zur Energie-Unabhängigkeit. Für die Türkei ist LNG der Schlüssel auf dem Weg, zum wichtigsten Energiezentrum zwischen dem Nahen Osten und Europa zu werden. Zusammen mit der trans-anatolischen Pipeline (TANAP), durch die Gas aus Aserbeidschan durch die Türkei in die europäischen Märkte strömt, würde die Kontrolle des Bereiches LNG durch das Schwarze Meer der Türkei ein größeres Gewicht verleihen als jedem anderen Mitspieler in Europa. Sowohl für die Ukraine als auch für die Türkei würde dies einen besseren Zugang zu den ökonomischen Vorteilen der Europäischen Union bedeuten sowie Kontrolle über den LNG-Markt in Europa, und es würde ihnen ein politisches Gewicht im Kontinent verleihen, das an die beiden Weltstrategen herankommt“.

Und es geht nicht nur um Erdgas aus den USA; Qatar hat starke Lobbyarbeit betrieben für seine Schwarzmeer-Partnerschaft sowohl in Kiew als auch in Ankara; und es beobachtet den vergrößerten europäischen Markt sehr genau.

Im vergangenen Jahrzehnt haben sich die globalen LNG-Vorräte verdoppelt und die Rückverwandlung in Gas sowie die Kapazität zum Transport mit Schiffen verdreifacht. Die Ausnahme ist Europa, wo die Ukraine und die Türkei jeder für sich positioniert ist, um Vorteile aus dieser LNG-Lücke zu ziehen, bevor die Nachfrage steigt und die Gelegenheit für strategische Positionierungen abnimmt.

Die Türkei kontrolliert den Bosporus und die Dardanellen, welche das Schwarze Meer mit dem Mittelmeer verbinden, und der Schiffsverkehr hier ist für Ankara ein Eckpfeiler.

Das derzeit größte Problem besteht darin, dass die Türkei nicht davon überzeugt ist, dass die Verschiffung von LNG durch den Bosporus sicher ist. Aber LPG (verflüssigtes Petroleum-Gas) und Kriegsschiffe durchfahren diese Meerenge, und beide sind wohl viel gefährlicher als LNG. LPG ist eine Mischung aus Propan und Butan, verflüssigt bei 15°C. LNG ist hinsichtlich der Umwelt sicherer, weil das Gas leichter als Luft ist und bei einer Freisetzung rasch verfliegt. Propan ist schwerer als Luft und folglich auch schwerer als Erdgas.

Die Aufgabe ist also jetzt, die Türkei davon zu überzeugen, dass LNG sicher genug ist, um es den Bosporus passieren zu lassen, und dass dies geopolitisch unabdingbar ist, um Russland entgegenzutreten.

Der ehemalige Premierminister der Ukraine Yuri Boyko hat an diesem Problem gearbeitet, bevor in seinem Land die Krise ausgebrochen war. Hier gibt es ein Exklusiv-Interview mit Mr. Boyko von vor ein paar Tagen.

James Stafford ist der geachtete Betreiber von Oilprice.com. Der Originalartikel steht hier.

Link: http://www.realclearenergy.org/articles/2014/03/15/this_week_in_energy_how_would_lng_get_to_ukraine_107604.html

Übersetzt von Chris Frey EIKE




Steigender CO2-Gehalt: Alles wird grüner

Bild rechts: Kohlendioxid ist eine lebensnotwendige Komponente für die Photosynthese – Pflanzen lieben es.

Auf der Grundlage von Satellitenbildern im Zeitraum 1982 bis 2010 hat CSIRO festgestellt, dass der steigende atmosphärische CO2-Gehalt mit einer Zunahme der Pflanzenbedeckung um 11% in einer ganzen Reihe von ariden Gebieten in Australien, Nordamerika, dem Nahen Osten und Afrika korreliert ist. In Zusammenarbeit mit der Australian National University (ANU) zeigte die Studie, dass der Düngungseffekt dort auftritt, wo erhöhte CO2-Niveaus es den Blättern ermöglichen, mehr davon aus der Luft zu holen und weniger Wasser zu verdunsten oder beides während der Photosynthese.

„Während schon lange über eine Reaktion der Pflanzen auf den CO2-Effekt spekuliert worden ist, war es bis jetzt sehr schwierig, diese nachzuweisen”, berichtete Dr. Randall Donohue, ein Forscher bei der CSIRO. „Unsere Arbeit konnte den Dünungseffekt durch CO2 herausfiltern, indem mathematische Modellierungen zusammen mit Satellitendaten die Auswirkungen anderer Einflüsse wie Niederschlag, Lufttemperatur, Lichtmenge und Änderungen durch den Landverbrauch ausschließen“.

Abbildung: Das Kohlendioxid-Niveau ist am Mauna Loa die meiste Zeit im vorigen Jahrhundert gestiegen. Bild: NOAA

Die Forschung wurde finanziert von Sustainable Agriculture Flagship, Water for a Healthy Country Flagship, the Australian Research Council sowie Land & Water Australia. Die Studie wurde in dem Journal Geophysical Research Letters veröffentlicht. Daraus das Abstract:

Satellitenbeobachtungen zeigten eine Ergrünung des Planeten während der letzten Jahrzehnte. Die Rolle des „CO2-Düngungseffektes“ bei dieser Ergrünung – die Verstärkung der Photosynthese infolge des steigenden CO2-Gehaltes – muss allerdings noch geklärt werden. Der direkte CO2 auf die Vegetation sollte am deutlichsten in warmen, ariden Gebieten hervortreten, wo Wassermangel die entscheidende Begrenzung des Pflanzenwachstums ist. Unter Anwendung der Gas-Austausch-Theorie [?] sagen wir voraus, dass die Zunahme des atmosphärischen CO2-Gehaltes um 14% (1982 bis 2010) zu einer Zunahme des Grünwachstums um 5 bis 10% in warmen, ariden Gebieten führen wird. Satellitenbeobachtungen, die zu dem Zweck analysiert worden waren, den Effekt unterschiedlich starker Niederschläge zu eliminieren, zeigen, dass die Grünbedeckung in diesen Gebieten um 11% zugenommen hat. Unsere Ergebnisse bestätigen, dass der vermutete CO2-Düngungseffekt einher geht mit anthropogenen Störungen des Kohlenstoffzyklus‘ und dass der Dünungseffekt inzwischen zu einem bedeutenden Prozess in den Landgebieten geworden ist.

Während also die Temperaturen seit der Jahrtausendwende nicht mehr gestiegen sind, sind deutliche Veränderungen der Vegetation offensichtlich. Wie gesagt beschränken sich diese Ergebnisse nicht auf Australien. Vielmehr fanden die Forscher heraus, dass aride Regionen auf dem gesamten Globus grüner geworden sind, wie die folgende Karte zeigt:

Abbildung: CSIRO zufolge gab es eine Zunahme der Pflanzenbedeckung in den ariden Gebieten unseres Globus’ infolge des steigenden CO2-Gehaltes um 11%.

„Ganz klar gesagt, erhöhte CO2-Konzentrationen, die das Pflanzenwachstum in trockenen Gebieten anregen, sind gute Nachrichten und könnte der Land- und Waldwirtschaft in diesen Gebieten sehr helfen. Außerdem gibt es noch sekundäre Effekte als da wären Einflüsse auf die Verfügbarkeit von Wasser, den Kohlenstoffzyklus, den Feuerhaushalt und die Biodiversität“, sagte Dr. Donohue.

Dieses Ergebnis bedeutet nicht, dass nun plötzlich alle Wüsten dieser Welt in frischem Grün erstrahlen, sondern es war eine Zunahme der Pflanzenbedeckung um 11% gefunden worden. Auf der CSIRO-website heißt es dazu:

In den Gebieten, für die wir den CO2-Effekt von anderen Einwirkungen trennen konnten (wie Änderungen der Regenmenge sowie Temperatur, Feuchtigkeit und Landverbrauch) beobachteten wir eine Zunahme der Pflanzenbedeckung um 11%. In anderen Gebieten, wo wir den CO2-Effekt nicht isolieren konnten, wird die Zunahme der Pflanzenbedeckung das Ergebnis aller Faktoren insgesamt sein einschließlich CO2-Düngung.

Der CO2-Düngungseffekt bedeutet also, dass die Pflanzenbedeckung um 11% größer ist als sie es bei konstantem CO2-Niveau gewesen wäre. Mit anderen Worten, es gibt Gebiete, in denen die Ergrünung abgenommen hat (d. h. die Pflanzenbedeckung), aber diese Abnahme wäre ohne CO2-Zunahme in der Luft wohl noch stärker gewesen.

Auf diesem Blog wurde auch zuvor schon über die vorteilhaften Auswirkungen eines steigenden CO2-Niveaus auf Pflanzen berichtet (siehe z. B. hier). Im Einzelnen zeigten Studien nördlicher Wälder einen reduzierten Wasserverbrauch bei steigendem CO2-Niveau (hier). „Unsere Analysen zeigen, dass ein steigender CO2-Anteil in der Atmosphäre einen direkten und unerwartet starken Einfluss auf Prozesse im Ökosystem und in der Biosphäre hat – atmosphärische Wechselwirkungen hinsichtlich Temperatur und borealen Wäldern“, berichtete Trevor F. Keenan et al. im Journal Nature im Jahre 2012.

Wie ich damals geschrieben habe, sind die drei mit dem Klimawandel verbundenen Faktoren zunehmende Temperatur, längere Wachstumsphasen und steigendes CO2-Niveau. Wie sich jeder einzelne dieser Effekte auf das Wachstum von Wäldern auswirkt, wird wie folgt erklärt:

Steigende Temperatur: Die Temperatur ist für alle metabolischen Prozesse sehr bedeutsam, sei es die Aufnahme, die Freisetzung oder die Speicherung von Kohlenstoff. Steigende Temperaturen, vor allem, wenn sie mit ausreichenden Niederschlägen einhergehen und ohne Begrenzung von Ressourcen, können metabolische Prozesse bei Bäumen unterstützen, was wiederum zu einer höheren Produktion von Biomasse führt.

Längere Wachstumsphase: Höhere Temperaturen sind auch mit längeren Wachstumsphasen korreliert. Eine stetige Verlängerung der Wachstumsphase wurde weltweit dokumentiert, und selbst eine Verschiebung der jahreszeitlichen Phase der Temperaturen wurde beobachtet. Außerdem korreliert wärmeres Wetter mit der Schnelligkeit der Erholung des Waldes am Amazonas und verstärktem Pflanzenwachstum in borealen Wäldern.

Höherer CO2-Gehalt: Atmosphärisches CO2 kann durch Kohlenstoffdüngung das Baumwachstum anregen. Bäume sind nach Spezies unterschiedlich schneller gewachsen bei erhöhtem CO2-Gehalt, aber begrenzte Nährstoff- und Wasservorräte können das Wachstum verlangsamen. CO2-Messungen durch SERC  passen zu den Messungen am Mauna Loa.

Die Abkürzung SERC steht hier für das Smithsonian Environmental Research Center, das diese Forschungen durchgeführt hat. Nichts dieser Ergebnisse ist eine Überraschung für Pflanzenbiologen, aber die Klimaerwärmungs-Alarmisten wollen einfach keine guten Nachrichten hören, die aus dem steigenden CO2-Gehalt resultieren – kann man ihnen das vorwerfen? Schließlich stehen deren Karrieren auf dem Spiel!

Abbildung: Pflanzen lieben CO2 ganz einfach. Es ist das Pflanzenfutter der Natur.

Im Journal Nature konnte man kürzlich ein Editorial lesen über den eng damit verbundenen Bereich Ökologie. Unter dem Titel An elegant chaos heißt es darin, dass es im Bereich Ökologie nur wenige Universaltheorien gibt, aber dass gerade das diesen Bereich so interessant macht. Und weiter:

Wissenschaftler lieben es, Strukturen und Ordnung ins Chaos zu bringen, und bei Ökologen ist das nicht anders. Die Ökologie hat ihre großen Theorien, aber sie sind durchsetzt mit Bedingungssätzen, Vorbehalten und Ausnahmen. Es gibt klare Verteilungen im globalen Maßstab und im Maßstab einzelner Spezies, aber dazwischen liegt einem Wort von John Lawton 1999 zufolge „ein Durcheinander“. Es ist zweifelhaft, ob die den komplexen Vorgängen in der Natur zugrunde liegenden Allgemeinheiten jemals so knapp gefasst werden können, dass sie auf ein T-Shirt passen.

Traurigerweise haben die Klimawissenschaftler aber genau das versucht, nämlich das Zusammenspiel sämtlicher irdischer komplexer und kaum verstandener Ökosysteme in einem einzigen Satz zusammenzufassen: „Es ist das CO2, Dummkopf!“ Sie haben unrecht. Tatsächlich sollten die Klimawissenschaftler den Ratschlag an die Ökologen ebenfalls beherzigen.

„Mehr Ökologen sollten die nicht vorhersagbare Art ihrer Wissenschaft stärker betonen”, heißt es weiter in dem Editorial. „Herauszufinden, was los ist in einem komplexen System, indem man schaut, wie sich Ökosysteme entwickeln, und durch Manipulationen der Umwelt durch Experimente ist genauso Wissenschaft wie das Entwickeln von Formeln für die Funktionsweise von Ökosystemen“.

Wie das Nature-Editorial weiter ausführt, ist die Formulierung neuer Theorien begeisternd. Unglücklicherweise werden derartige Bemühungen aber zunichte gemacht, wenn man mit der fast unbegrenzten Komplexität der irdischen Ökosysteme konfrontiert wird. „Die ökologische Komplexität, die wie ein undurchdringliches Dickicht aus Nuancen daherkommt, ist auch die Quelle von viel Vergnügen, das wir in der Natur haben“, stellt der Autor fest. Klimawissenschaftler sollten diesen Hinweis ernst nehmen und lernen, etwas Vergnügen aus ihrer Arbeit abzuleiten. Sie sollten damit aufhören, den Rest der Menschheit zu ängstigen mit den Warnungen vor einer Katastrophe, und alle werden viel glücklicher sein.

Bleiben Sie skeptisch und erfreuen Sie sich an der Zwischeneiszeit!

Link: http://theresilientearth.com/?q=content/going-green-rising-co2

Übersetzt von Chris Frey EIKE