1

Riskante Stromspeicher für „Erneuerbare Energien“: „Einfamilienhäuser werden brennen“

Die Energiewende, voran mit seinem -Volksvermögen in Unmengen verbrennenden- EEG, leidet von Anfang an, an der naturgesetzlich vorgegebenen extrem geringen Energiedichte ihrer Energieressourcen und ebenso naturgesetzlich vorgegebenen Volatilität. D.h. die Hauptressourcen Wind- und Sonne liefern, wenn überhaupt,  nur minderwertigen Zappelstrom ab. Leider ebenso naturgesetzlich vorgegeben, und damit von keinem noch so schlauen Politiker zu ändern, ist die Tatsache, dass sich Elektrizität in großen Mengen nicht direkt speichern lässt.  Weil aber trotzdem – wider besseres Wissen aller Beteiligten- unbedingt die Energiewende vorangetrieben werden soll, es ist einfach viel zu viel Geld damit zu verdienen, gelangt die Umwandlung der erzeugten Elektroenergie in mechanische oder chemische Energie, die sich in Maßen und nur unter hohen Verlusten speichern lässt, immer stärker in den Fokus.

Das Problem dabei ist, dass diese Verfahren, bisher für Mini-Energiemengen wie bei der Taschenlampe, oder dem Auto mit seiner Batterie, seit gut hundert Jahren in vielerlei Formen technisch erprobt und ausgereift, nicht im Großformat zur Verfügung stehen. Deswegen werden mit hohen Steuermitteln alle Arten von Speichern – insbesondere chemische Speicher in Form von Akkus- „gefördert“.

Der Bund hat dazu über ein KfW Programm allein in den letzten 12 Monaten rund 4000 PV Speicher „gefördert“. Und damit eine neue Bonanza für alle Glücksritter und Schnellgeldjäger aufgemacht. So hat „der größte Kapitalvernichter aller Zeiten“ (Anmerkung: Dieser Titel gebührt eigentlich der Bundesregierung mit ihrer Eurorettungs- und Energiewendepolitik) Frank Asbeck, Gründer und Chef von Solarworld, der es schaffte innerhalb von wenigen Jahren den Aktienkurs seines Unternehmens  um 97 % zu verringern, nun auch auf diese neue Staats-initiierte Bonanza abgesehen, um hier wiederum das schnelle Geld zu Lasten der Steuerzahler zu machen. Dazu will er zusammen mit Batterieherstellern Solarmodule mit Pufferbatterien anbieten.

So liest man im Handelsblatt:  „Wir werden noch in diesem Sommer ein Energiepaket für Eigenstromversorger anbieten“, kündigte er an. „Darin kombinieren wir eine Solarstromanlage mit einem Batteriespeicher und einer Verbrauchskontrolle.“ Doch auch hier hat Mutter Natur einen festen Riegel vorgeschoben. Während Dieselkraftstoff eine Energiedichte von rd. 12 kWh/kg hat; weisen die besten handelsüblichen Batteriespeicher wie Lithium-Ionen Akkus zu Beginn ihrer Lebensdauer gerade mal auf 0,13 bis 0,2  kWh/l[1] auf.

Doch auch wenn also Batteriespeicher um Längen nicht an z.B. fossile Energieträger wie Diesel herankommen, wird ihre Möglichkeit – in Kleinmengen jedenfalls- rel. unkompliziert sowohl elektrische Energie hinein, wie auch herauszubekommen, immer häufiger für Kleinanlagen, wie sie in Ein- und Zweifamilien Häusern benötigt werden,  genutzt. Zumal ja, wie schon erwähnt, der Steuerzahler für einen großen Teil der Kosten aufzukommen hat.

Doch je besser der Wirkungsgrad, je höher die Energiedichte, je zahlreicher die lade- und Entladevorgänge, desto teurer und auch gefährlicher wird auch hier der Spaß.  „There is no free lunch“ wusste schon der Wirtschaftnobelpreisträger und Verfechter des freien Marktes Milton Friedman. D.h. jede noch so „günstige“ Speicherlösung erhöht die Kosten pro kWh und wie wir sehen, das Gefahrpotential mit ihnen umzugehen, noch einmal beträchtlich. Die Kostenzunahme wird wohl kaum jemanden stören, sofern der Staat Gesetze erlässt, die andere zwingen diese Kosten zu übernehmen. Anders mag es aussehen, wenn Gefahr für Leib und Leben, und zwar das eigene, im Verzuge ist.

Denn die Kosten sind nicht die einzige Hürde, zumal sie ja mittels Zwangsabgabe von Unbeteiligten elegant umschifft werden kann, aber nun könnte von anderer Seite eine neue Hürde die massenhafte Verbreitung von Akkumulatoren zur Speicherung von NIE (Nachhaltig Instabile Energien) begrenzen.

Denn wie viele dieser „Lösungen“ wie sie heute angeboten werden, sind brandgefährlich. Im wahrsten Sinne des Wortes.

Das Karlsruher Instituts für Technologie (KIT) fand nämlich heraus, dass die Lithium-Ionen-Batterien, die hauptsächlich für diese Aufgabe angeboten werden, zu innerer Überhitzung und dann auch noch zu Explosionen neigen. So berichten es die VDI nachrichten in ihrer Ausgabe vom 23. Mai 2014, Nr. 21 unter TECHNIK & GESELLSCHAFT

„Ich möchte mir nicht ausmalen, welche Folgen so eine Explosion in einem Wohnhaus hätte“, sagt Andreas Gutsch, der die explosiven Batterietests mit seinem Kollegen Olaf Wollersheim initiiert hat. Genau dieses Szenario drohe aber: „Es ist vorhersehbar, dass Einfamilienhäuser abbrennen werden“, warnen die KIT-Forscher. Bei Testkäufen von Photovoltaik(PV)-Speicher-systemen mit Lithium-Ionen-Technik seien sie auf eklatante Sicherheitsmängel gestoßen.  Und „Bei einem Test hatten sich die giftigen Dämpfe aus einer überladenen Batterie wie Nebelschwaden über den Boden gelegt. „In so einem Szenario schlagen nicht einmal die Rauchmelder an“, gibt er zu bedenken.

Ein gravierendes Problem sorglos zusammengeschusterter Lithium-Ionen-Batterien ist ihr Verhalten bei Kurzschlüssen oder unkontrollierter Überladung: Die Zellen werden heiß und in ihnen bildet sich ein hoch explosives Gemisch. Dämpfe der lösungsmittelhaltigen Elektrolyte gehen schon ab circa 40 °C in Flammen auf. Entweicht das Gemisch beim Platzen der Zellen oder beim Öffnen dafür vorgesehener Sicherheitsventile schlagartig, reicht eine heiße Oberfläche oder ein Funken zu jenem Inferno, das die KIT-Forscher in ihrer Brandversuchshalle mehrfach beobachtet haben.

Und es kommt noch dicker:

Die Wissenschaftler werten das Ergebnis ihrer Stichprobe als absolut erschreckend. Sie haben frei verkäufliche, über ein KfW-Programm gar förderfähige PV-Batteriesysteme gekauft, die ihnen bei einfachen Störfällen buchstäblich um die Ohren geflogen sind. Rund 4000 solcher PV-Batteriesysteme hat der Bund im vergangenen Jahr über ein KfW-Förderprogramm mit bis zu 30 % bezuschusst, insgesamt flossen dabei 76 Mio. €.

Das bedeutet, dass der Kauf explosions- und brandgefährlicher Batteriemodule vom Steuerzahler mit 19.500 € pro PV Batterie-System bezuschusst wurde. Auf die Folgeschäden darf gewartet werden.

Der Wahnsinn der Energiewende mit ihren Untergesetzen hat damit eine neue Stufe erreicht.


[1] Quelle http://de.wikipedia.org/wiki/Akkumulator




Greenpeace: „Treibstoff-Unternehmen könnten sich wegen Finanzierung der Klimaleugnung strafbar machen“

Sind Blogger als Nächstes an der Reihe?

Der nächste logische Schritt würde es sein, Blogger zu verfolgen, weil diese die „Klima-Leugnung“ verbreiten, obwohl die meisten dieser Blogs einschließlich dieser hier überhaupt nicht von irgendetwas finanziert werden, sondern allein auf freiwilliger Basis arbeiten. Alle mir bekannten Blogs arbeiten unabhängig von irgendwelchen Förderungs-Aktivitäten seitens der Industrie fossiler Treibstoffe. Greenpeace schreibt:

Greenpeace International, der WWF und das Center for International Environmental Law haben an die Direktoren großer Versicherungsunternehmen geschrieben ebenso wie an Unternehmen in der Branche fossiler Treibstoffe und an andere wesentliche Kohlenstoff-Unternehmen (1). Darin wird Klarheit darüber verlangt, wer für die Zahlungen aufkommt, falls ein solches Gerichtsverfahren gegen ihre Direktoren oder Funktionäre eingeleitet wird (2).

Im Allgemeinen bieten Haftpflichtversicherungen Schutz bei Behauptungen, die die individuellen Gewinne der Direktoren und Funktionäre gefährden. Diese Haftpflichtversicherungen schützen Individuen, die ihrem Gewerbe in gutem Glauben nachgehen, aber Gefahr laufen, haftbar gemacht zu werden für unerwünschte Folgen ihres Gewerbes, die außerhalb ihrer Kontrolle liegen könnten. Allerdings ist es eine ernste Frage, ob diese Verträge einen Direktor schützen würden, der mit einer klimabezogenen Behauptung konfrontiert wird (3)

Der Glaube, dass Direktoren von Unternehmen des Zusammenbrauens schlechten Wetters schuldig sind, unterscheidet sich in nichts vom Glauben prähistorischer Menschengruppen, die psychopathologisch Menschen dafür verantwortlich gemacht und geopfert haben, um zu versuchen, zornige Götter zu besänftigen. Heute rufen fanatische Umweltaktivisten wie jene bei Greenpeace nach genau dem Gleichen. Dies geht bis hinab in die Rubrik Regentanz und Wetterbeeinflussung. Aber man höre weiter…

Leanne Minshull, Klima- und Energie-Campaignerin bei Greenpeace International sagt, dass die Kosten des Klimawandels persönlicher Natur sind. ‚Sie sind persönlich hinsichtlich der Opfer von Supertaifun Haiyan, die Familienmitglieder und ihre Häuser auf den Philippinen verloren haben. Sie sind persönlicher Natur hinsichtlich der Farmer in Kalifornien und Australien, deren Land inzwischen für den Ackerbau zu trocken ist. Sie sollten auch persönlicher Natur sein für die Direktoren derjenigen Öl-, Gas- und Kohleunternehmen, die die Öffentlichkeit in die Irre führen, indem sie Klima-Leugnung und das Stoppen von Maßnahmen gegen den Klimawandel finanzieren. Die Verantwortung – nicht nur die verheerenden Auswirkungen – sollten persönlicher Natur sein‘“.

Wenn überhaupt, müssen NGOs und Greenpeace persönlich zur Verantwortung gezogen werden, weil sie Goldenen Reis in Asien blockiert haben, ein Nahrungsmittel, das die Erblindung von Millionen Kindern sowie den vorzeitigen Tod Tausender durch Vitaminmangel verhindert hätte. Wir wissen, dass dieser Zusammenhang eindeutig ist.

Carroll Muffet, Präsidentin des Center for International Environmental Law sagt: „Von Asbest über den Tabak bis zu einer Ölpest zeigt die Historie, dass jene, die die Öffentlichkeit, den Markt oder die Regierung in die Irre führen hinsichtlich der Risiken ihrer Produkte oder hinsichtlich der Verfügbarkeit sichererer Alternativen, grundlegend gesetzlich zur Verantwortung gezogen werden können, sowohl als individuelle Person als auch als Unternehmen. Da die Auswirkungen der Klima-Leugnung und die Behinderung von Vorschriften klar werden, wollen wir verstehen, wie Unternehmen, Versicherer sowie deren Funktionäre und Direktoren mit diesen Risiken unter sich umgehen. Genauso wichtig, wir fragen, welche Schritte sie vornehmen, um das Fehlverhalten zu verhindern, dass zu diesen Risiken von Anfang an führt“.

Samantha Smith, Leiterin der Global Climate and Energy Initiative beim WWF, sagt, dass es Unternehmen fossiler Treibstoffe ihren Anteilseignern und der Öffentlichkeit schuldig sind, die Wahrheit zu sagen über die verheerenden Auswirkungen ihrer Aktivitäten auf unser aller Klima. Früher oder später werden jene, die die Fakten verstecken und politische Maßnahmen zur Bekämpfung des Klimawandels bekämpfen, vor Gericht stehen. Mit der Unterschrift unter diesen Brief hoffen wir, die Aufmerksamkeit auf die Bedeutung wahrheitsgemäßer, transparenter und verantwortlicher Unternehmensberichte und politischen Engagements hinsichtlich des Klimawandels zu lenken.

Die Antworten der Unternehmen fossiler Energie und Versicherer werden auf der Website von Greenpeace International veröffentlicht.

[Das kann man doch auch mit umgekehrtem Vorzeichen lesen, oder? Anm. d. Übers.]

Der Schritt von Greenpeace ist die jüngste autoritäre Taktik, um diejenigen einzuschüchtern, die anderer wissenschaftlicher Auffassung sind, um wissenschaftliche Dissidenten zu brandmarken und dem Rest der Bevölkerung eine universelle, auf grünen Ideologien basierende Müll-Wissenschaft  überzustülpen. Greenpeace schlägt einen neuen Weg zum Totalitarismus ein.

Mehr

Link: http://notrickszone.com/2014/05/29/greenpeace-executives-of-major-fossil-fuel-companies-could-face-personal-liability-for-funding-climate-denialism/

Übersetzt von Chris Frey EIKE




Chinesischer Klima-Aktivist führt globale Presse an der Nase herum

Wirklich ein Versehen? Früher im Verlauf dieses Tages verkündete der chinesische Klima-[Berater] He Jiankun, dass die Volksrepublik künftig ihren Kohlendioxid-Ausstoß eindämmen werde. Das war eine mächtige Verlautbarung, zumindest wurde sie so wahrgenommen. Denn gestern erst hat der amerikanische Präsident ebenfalls überraschend mitgeteilt, zielstrebiger als bisher gegen den Kohlendioxid-Ausstoß mobilmache zu wollen.

Doch nun macht China wohl schon wieder einen Rückzieher. „Was ich heute gesagt habe, war meine persönliche Meinung“, sagte He der Nachrichtenagentur Reuters in Peking. Seine Aussagen vom Vormittag seien nur für „akademische Studien“ gedacht gewesen. „Was ich gesagt habe, stellt nicht die Haltung der chinesischen Regierung oder irgendeiner Organisation dar“, stellte er klar.

Mehr zu der Farce in der New York Times: Behind the Mask – A Reality Check on China’s Plans for a Carbon Cap

Bis hierhin übernommen von ACHGUT

Reaktionen

Wie begierig, fast wie bei einem Junkie nach mehr vom tödlichem Stoff, hingegen diese süße, wenn auch durchweg falsche Nachricht über den „Durchbruch“ bei Chinas CO2 Senkungszielen aufgenommen wurde, zeigen die Reaktionen der hiesigen Offiziellen.

Hans Joachim Schellnhuber, Direktor des Potsdam-Instituts für Klimafolgenforschung, sprach von einem Schub für die Klimapolitik weltweit:

„Es ist bemerkenswert, dass jetzt sowohl China als auch die USA bereit zu sein scheinen, wieder eine Führungsrolle einzunehmen.“ Auch für Europa könne es an der Zeit sein, aus seiner Klimamüdigkeit aufzuwachen.

und (SPON)

„Wenn China tatsächlich eine absolute Obergrenze für seinen Ausstoß von Treibhausgasen einführt, würde das einen Schub bedeuten für die Klimapolitik weltweit“, kommentiert Hans Joachim Schellnhuber, Direktor des Potsdam-Instituts für Klimafolgenforschung. Die Wissenschaft zeige, dass die Welt sich mehr und mehr Kipppunkten im Klimasystem nähere. Die große Frage sei, wie strikt Chinas Emissionsgrenze sein wird.

Der deutsche Umwelt-Staatssekretär Jochen Flasbarth lobte hingegen den Vorstoß Obamas.

„Das ist der entscheidende Impuls, den wir brauchen, um die internationalen Verhandlungen zu beschleunigen und mehr Ehrgeiz auf der Welt auszulösen“, sagte er im rbb-Inforadio.

„Die neue Klimaverordnung hat Signalwirkung für den weltweiten Abschied von der Kohle“, erklärte der Politische Geschäftsführer der Umwelt- und Entwicklungsorganisation Germanwatch, Christoph Bals.

Und auch der frühere deutschen Umweltminister, Klaus Töpfer (CDU), wurde um seinen Senf gefragt:Für ihn sind die Pläne ein wichtiges Zeichen.

„Als psychologisches Signal kann man das gar nicht überschätzen, das ist eine große Sache“, sagte der ehemalige Untergeneralsekretär der Vereinten Nationen im „Deutschlandradio Kultur“.

Und nun diese herbe Enttäuschung. Alle sind einem Umweltaktivisten auf den Leim gegangen:  April, April im Juni. Geht doch!




Scheidender PIK Professor Gerstengarbe beschuldigt Vahrenholt und Limburg der „Fälschung von Grafiken“

„Die fälschen Grafiken. Irre!“, sagt er.“ Zitat Ende.

Diese Behauptung ist eine Lüge!

Entweder lügt F.W. Gerstengarbe oder der berichtende Reporter hat ihn missverstanden. Falsch ist es auf jeden Fall. Niemand von uns fälscht Grafiken. Ich nicht und Fritz Vahrenholt auch nicht. Da sollte er mal lieber bei den ständig nach oben korrigierten GISS Kurven nachschauen. Da würde er schnell fündig.

2. Bild rechts: Temperaturverlauf Berlin & Dahlem 1700 -2008 Quelle: Institut f. Meteorologie FU Berlin; Stand 2009

Doch da ich nicht weiß, worauf sich G.  mit seiner Pauschalaussage bezieht, kann ich es nur vermuten:

Vor einigen Jahren als sich die PNN begeistert über G. und seine apokalyptischen Behauptungen ausließ, schickte EIKE denen u.a. eine lange Widerlegung der schon damals z.T. abenteuerlich falschen Behauptungen des Potsdamer Klimaforschers samt einer Kurve der Berlin & Dahlemer Mitteltemperatur. Nur begann die nicht 1892, als die Potsdamer Säkularstation auf freiem Feld gegründet wurde (heute ist sie von Wald umgeben, aber eine Korrektur sei nicht nötig meinte G. auf meine Anfrage) sondern um 1700. Da beginnen die Aufzeichnungen in Berlin. Von Potsdam gerade mal 14 km Luftlinie entfernt. Und siehe, der Trend war fast flach. (ca. + 0,1 K/Jhh) Seit 1700 hatte sich der Trend der Mitteltemperatur kaum verändert. Soviel zur fürchterlichen Erwärmung.
Nur sagte die Erwärmung als solche, überhaupt nichts über deren Ursache aus. Nach dem Ende der kleinen Eiszeit, sollte eine Rückerwärmung nicht so ungewöhnlich sein. und warum der Mensch daran schuld sein solle, erschließt sich auch offenbar nur Eingeweihten, wie F.W. Gerstengarbe und seinen Mit-Panikern vom PIK
Wer da Grafiken, bzw. insbesondere Statistiken fälscht, möge der Leser beurteilen.

und im Interview weiter

Zitat: „„Was mich ärgert, ist deren Präsenz in den Medien.“ Dann schmunzelt er wieder. Einmal habe er einen der Skeptiker gefragt, warum er das alles macht. Weil es seinen Zwecken diene, sei die Antwort gewesen….“ Zitatende

Das ist Gerstengarbe wie er leibt und lebt. Weil er mal einen „Skeptiker“ gefragt hat, wenn es denn stimmt, was der ihm vermeintlich sagte, schließt er sofort auf alle. Wie bei seinen Horrormärchen von den zunehmenden Extremwettern, die er jedem erzählt. Aus einer lokalen Überschwemmung wird sofort eine Klimakatastrophe für alle.
Er ist eben ein richtiger, in der Wolle gefärbter Vertreter der Zunft von Panik erzeugenden Wissenschaftlern, die das PIK (Postdam Institut für Klimafolgenforschung) zu Dutzenden heranzieht.

Wie schon damals behauptet G. immer noch jede Menge Vermutungen, die durch nichts Reales- außer von seinen Modellen- gestützt werden.

Deswegen veröffentlichen wir hier eine Replik auf sein Interview mit der PNN vom 13.8.2008 in einer Mail von EIKE vom 4.8.2009 an den damaligen PNN Reporter Jan Kixmüller. Darin finden Sie eine gründliche Würdigung der vielmals falschen oder halbwahren Ausführungen des G. (hier). Eine Antwort bekamen wir nie. Weder von Gerstengarbe noch von der PNN. Stattdessen die Aussage von den gefälschten Grafiken.

Mit Dank an Leser Julius Hanover  der dieses obige Interview mit der erneuten Lüge in der PNN gefunden hat.




Obamas Kampf gegen die Kohle: Nehmen wir mal für einen Moment an, wir hätten eine Klimakrise

Jede einzelne dieser „heraufdämmernden Katastrophen” basiert auf Hypothesen, Annahmen und Computer-Modellen, die die reale Welt in etwa genauso gut repräsentieren wie die Spezialeffekte hinsichtlich T-Rex und der Raptoren in dem Film Jurassic Park. Dabei zeigt das Bild rechts etwas ganz Anderes:

Bild rechts: Bildinschrift im Kasten mit dem blauen Pfeil: Mit Beginn der Hurrikan-Saison 2014 werden es 3142 Tage, seitdem der letzte Hurrikan der Kategorie 3 oder höher auf das US-Festland übergetreten ist. Damit wird ein Rekord für den längsten Zeitraum ohne ein solches Ereignis gebrochen, der über das Jahr 1900 noch hinausgeht.

Klimamodellierer und Katastrophenapostel erinnern mich an die vier Kerle, die auf einer Insel gestrandet sind, nachdem ihr Flugzeug abgestürzt war. Der Ingenieur begann, Pläne für ein Boot zu zeichnen, der Holzfäller fällte Bäume, um es zu bauen, der Pilot arbeitete einen Kurs aus zur nächstgelegenen Zivilisation. Aber der Ökonom saß einfach nur da. Die erschöpften Arbeiter fragten ihn, warum er nicht mithelfe.

„Ich sehe das Problem nicht“, erwiderte er. „Warum können wir nicht einfach so tun, als hätten wir ein Boot, gehen an Bord und verlassen diesen Ort?“

Im Falle des Klimawandels verlangen diejenigen, die die Vermutungen aufstellen, dass wir sofort tätig werden, um planetarische Krisen zu vermeiden, die es ausschließlich in ihren Computermodell-Simulationen gibt. Das ist so, als würde man von der Regierung verlangen, Gesetze zu erlassen, die uns vor den Velociraptoren schützen, haben doch die Wissenschaftler in Jurassic Park herausgefunden, dass man DNA von Dinosauriern aus fossilen Mücken extrahieren kann… woraufhin die Fleischfresser mittels Spezialeffekten lebendig wurden.

Klimamodelle helfen uns, das Klimasystem konzeptionell zu verstehen sowie die Kräfte hinter dem Klimawandel. Allerdings sind sie schrecklich hinsichtlich der Temperaturvorhersage auf der Erde sowie anderen Komponenten ihres Klimas. Sie sollten niemals herangezogen werden, um bestimmte Maßnahmen zu ergreifen oder diese zu rechtfertigen – so wie es die EPA plant, z. B. Kohlekraftwerke zu strengeren CO2-Emissionen zu verpflichten.

Selbst unsere besten Klimawissenschaftler haben nur sehr begrenzt Einsicht in die hoch komplexen und chaotischen Klimasysteme der Erde sowie in die vielen, miteinander in Wechselwirkung stehenden solaren, kosmischen, ozeanischen, atmosphärischen, terrestrischen und anderen Kräfte, die Wetter und Klimas kontrollieren. Selbst die besten Modelle sind nicht besser als dieses Verstehen.

Schlimmer noch, die Modelle und die hinter ihnen stehende Wissenschaft wurden entsetzlich politisiert. Das IPCC wurde im Jahr 1988 gegründet, vordergründig, um mögliche menschliche Einflüsse auf das Erdklima zu untersuchen. In Wirklichkeit haben der schwedische Meteorologe Bert Brolin und Umweltaktivisten-Gruppen die globale Erwärmung benutzen wollen, um eine Anti-Kohlenwasserstoff- und Begrenztes-Wachstum-Agenda durchzusetzen. Dies bedeutet, dass sie unbedingt einen wie auch immer gearteten menschlichen Einfluss auf das Klima finden mussten – selbst wenn das Beste, mit dem sie kommen können, in dem Satz kulminierte, „Das Gleichgewicht der Beweise suggeriert einen erkennbaren menschlichen Einfluss auf das Klima“ (Hervorhebung hinzugefügt).

Der Begriff „erkennbar” mutierte bald zu dem Begriff „dominant“, was wiederum sehr rasch zu der absurden Vorstellung führte, dass Treibhausgas-Emissionen die natürlichen Kräfte inzwischen ersetzt haben und zu den einzigen Faktoren geworden sind, die den Klimawandel noch beeinflussen. Es sind mit Sicherheit die einzigen Faktoren, über die Klimaaktivisten und –alarmisten noch reden wollen, während sie gleichzeitig versuchen, Kritik und Skeptizismus aus der Debatte herauszuhalten. Sie benutzen die Modelle, um Angst machende „Szenarien“ zu erzeugen, die dann als tatsächlich bevorstehende Katastrophen präsentiert werden.

Sie sagen voraus oder projizieren, dass Hitzewellen immer intensiver werden, dass Dürren und Überschwemmungen häufiger und stärker auftreten, dass Hurrikane häufiger und stärker werden, dass der Meeresspiegel um vier Fuß [ca. 122 cm] steigen wird (im Vergleich zu 8 Inches [ca. 20 cm] seit 1880), dass Waldbrände immer schlimmer und zahlreiche Spezies verschwinden werden. Unwahrscheinlich.

Offensichtlich haben natürliche Kräfte die Mittelalterliche Warmzeit, die Kleine Eiszeit und die Eiszeiten im Pleistozän ausgelöst. (Eine Kalksteinplatte, die ich ausgegraben hatte, wies zahlreiche Rillen auf, hinterlassen vom letzten meilendicken Gletscher, der das Gebiet bedeckte, in dem derzeit meine Heimatstadt in Wisconsin liegt). Nachdem es den Tatbestand lange geleugnet hatte, hat das IPCC jetzt einräumen müssen, dass die Kleine Eiszeit tatsächlich aufgetreten und eine weltweite landwirtschaftliche und menschliche Katastrophe war.

Allerdings enthalten die Modelle und Computer-Algorithmen, auf die sich das IPCC und die EPA verlassen, immer noch nicht die richtige Größenordnung solarer Zyklen und anderer natürlicher Kräfte, die Klimawandel beeinflussen. Sie vermuten „positive Rückkopplungen“ durch die Treibhausgase, die Wärme zurückhalten, unterschätzen aber die reflektierenden und damit kühlenden Eigenschaften der Wolken. Sie stellen durchweg einen warmverzerrten Bias zur Schau – gestützt durch Temperaturdaten, die durch den „städtischen Wärmeinsel-Effekt“ verunreinigt sind, weil Meßstationen zu nahe bei menschlichen Wärmequellen stehen. Sie vermuten, dass das Klima der Erde derzeit fast vollständig nur noch durch steigende menschliche CO2/Treibhausgas-Emissionen gesteuert wird.

Da ist es kein Wunder, dass die Modelle, die Modellierer und Alarmisten komplett versagt haben, das fast 18 Jahre lange Fehlen jedweder Erwärmung vorherzusagen – oder dass sich die modellierten Ergebnisse jedes Jahr weiter von den tatsächlich gemessenen Werten entfernen. Es ist kein Wunder, dass die Modellierer uns nicht sagen können, welche Aspekte globaler Erwärmung, globaler Abkühlung, Klimawandel und „Klimastörung“ dem Menschen geschuldet sind und welche das Ergebnis des Wirkens natürlicher Kräfte sind. Es ist kaum überraschend, dass sie die globalen Temperaturaufzeichnungen von 1950 bis 1995 nicht abbilden können (die „Nachhersage“), ohne ihre Daten und Computercodes zu verfälschen – oder dass sie fast durchweg falsch lagen.

Im Jahr 2000 hieß es seitens des UK-Met. Office, dass kalte Winter eine Sache der Vergangenheit seien und „Kinder einfach nicht mehr wissen werden, was Schnee ist“. Die Winter 2010 und 2012 waren die kältesten und schneereichsten seit Jahrhunderten. Im Jahre 2013 sagten Wissenschaftler am Met. Office, dass der kommende Winter extrem trocken ausfallen werde. Diese Vorhersage hinterließ Städte, Familien und Regierungsagenturen völlig unvorbereitet auf die gewaltigen folgenden Regenfälle und Überschwemmungen.

Im Jahre 2007 hat der Klimabeauftragte der Regierung in Australien vorhergesagt, dass es in Brisbane und anderen Städten nie mehr genug regnen werde, um die Reservoire aufzufüllen. Diese Vorhersage ignorierte frühere Dürre- und Überschwemmungszyklen und wurde durch Rekord-Regenfälle in den Jahren 2011, 2013 und 2014 ertränkt. Vorhersagen der Eisschmelze in Arktis und Antarktis ignorierten die lange Historie wärmerer und kälterer Zyklen sowie Eisbildung und –abbruch.

Die Bonneville Power Administration sagte, dass die vom Menschen verursachte Erwärmung dazu führen wird, den Schnee im Columbia River Basin schneller schmelzen zu lassen, dass zukünftiger Niederschlag mehr als Regen fallen würde und dass Reservoire überlaufen – und dass das Wasserniveau trotzdem das ganze Jahr über deutlich unternormal sein würde. Präsident Obama besteht darauf, dass die globalen Temperaturen rasant steigen werden, dass Waldbrände häufiger auftreten und immer verheerender wüten, dass Überschwemmungen und Dürren häufiger und immer katastrophaler ausfallen würden, dass der steigende Meeresspiegel küstennahe Städte auslöschen wird infolge der abschmelzenden Eisschilde in Arktis und Antarktis und dass 97% der Wissenschaftler dem zustimmen. Jede einzelne Behauptung basiert auf Modellen oder reine Vermutungen, für die es keinerlei Beweise gibt.

Und immer noch sagt das IPCC, dass es „sehr hohes Vertrauen“ (das höchste Niveau, das sie vergeben) zu der vermeintlichen Übereinstimmung zwischen Computermodell-Vorhersagen und tatsächlichen Beobachtungen habe. Je größer die Distanz zur Realität, umso höher steigt sein „Vertrauen“. Inzwischen konzentrieren sich Klimaforscher und Modellierer aus Nebraska, Penn State, UK und anderen „gebildeten Institutionen“ weiterhin auf vermeintliche menschliche Einflüsse auf das Klima der Erde. Sie wissen, dass sie anderenfalls Gefahr laufen, ihre Förderung durch Regierungen und Stiftungen zu verlieren – und dass sie mit Sicherheit von der EPA, von Umweltaktivisten, Politkern und ihren ideologischen und pädagogischen Kollegen schikaniert und verunglimpft werden – falls sie natürliche Kräfte zu genau untersuchen.

Folglich füttern sie falsche Daten, simplistische Vermutungen, persönliche Vorlieben sowie politische und finanzielle Berechnungen in die Modelle und lassen diese trügerische Szenarien und verlogene Vorhersagen ausspucken: Müll rein, Müll raus.

Die Modellierer sind es der Menschheit schuldig, die Dinge gerade zu rücken – so dass wir zukünftige Klimabedingungen abschätzen und uns darauf vorbereiten und anpassen können, wie auch immer diese Bedingungen aussehen. Das können sie unmöglich tun, ohne zuvor natürliche Faktoren zu verstehen, in die Modelle eingehen und modellieren zu lassen, zusammen mit menschlichen Einflüssen.

Generell müssen diese vermeintlichen Modellierungs-Experten und Klimawissenschaftler ihre Verzerrungen und ihr Evangelium politischer Agenden beenden, die danach trachten, den Gebrauch fossiler Treibstoffe zu beenden, unsere Energie- und Wirtschaftssysteme zu „transformieren“, den Wohlstand umverteilen, unseren Lebensstandard zu reduzieren und es den Afrikanern und anderen verarmten Nationen „erlauben“, nur in „nachhaltiger Manier“ in die moderne Zeit zu gelangen, wie sie von kaltschnäuzigen Elitisten definiert wird.

Die Konzentration des Lagers der Klimakatastrophisten auf CO2 basiert auf der Tatsache, dass es ein Nebenprodukt des verhassten Gebrauchs von Kohlenwasserstoffen ist. Aber dieses Spurengas (mit einem Anteil von nur 0,04% in der Erdatmosphäre) erst macht das Leben auf unserem Planeten möglich. Mehr Kohlendioxid ist gleichbedeutend mit besseren Ernten, besserem Wachstum von Wäldern und Grasländern. Die Rolle des CO2 hinsichtlich des Klimawandels ist spekulativ – und wird durch Messungen, Beobachtungen und die Historie in der wirklichen Welt widerlegt.

Computermodelle, Szenarien und Vorhersagen eines planetarischen Armageddon sind kaum etwas anderes als falsche, korrupte oder sogar betrügerische Pseudo-Wissenschaft. Sie haben permanent vorhergesagt, was auf dem Planeten Erde nie passiert ist und haben nicht vorhergesagt, was passiert ist.

Man darf ihnen nicht länger gestatten, eine Rechtfertigung für die EPA zu sein für die Vernichtung von Arbeitsplätzen, die Strangulierung der Wirtschaft, die behindernden Vorschriften für Fahrzeuge, Kraftwerke, Zementöfen, Raffinerien, Fabriken, Farmen, Einkaufszentren sowie zahlreiche andere Einrichtungen, denen demnächst immer strengere Vorschriften auferlegt werden.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of Eco-Imperialism: Green power – Black death.

Link: http://wattsupwiththat.com/2014/06/02/to-president-obama-lets-just-assume-for-a-moment-we-have-a-climate-crisis/#more-110643

Übersetzt von Chris Frey EIKE




Spanien kürzt „Erneuerbare“ Subventionen drastisch – und ist damit ein Vorbild für die Deutschen

In der Welt vom 31.5.14 lesen wir:

Vor Kurzem noch wurde Spanien als Europameister der Windenergie gelobt. Außerdem wurden überall im Land neue Solarparks gebaut, und die erneuerbaren Energien wurden zur wichtigsten Quelle für die Energieversorgung auf der Iberischen Halbinsel.

Allein an dem zweiten Halbsatz ist zu erkennen, dass die Autorin Frau Ute von dem Thema über dass sie schreibt keine Ahnung hat. „Erneuerbare“ Energien können wg. des Mangels an Speichern nie zur wichtigsten Quelle einer „Energieversorgung“ sein. Und wenn es diese Speicher gäbe – die derzeit nirgends aber auch wirklich nirgends in Sicht sind- würden sie die Kostenexplosion nur noch weiter weiter vestärken.

Und weiter lesen wir.

„Doch diese Zeiten könnten bald vorbei sein. Denn das spanische Industrieministerium will die Subventionen für den "sauberen Strom" kräftig zurückfahren. Das ganze Land müsse sparen, und da müsse auch die Energiebranche ihren Beitrag leisten, heißt es lakonisch aus dem Industrieministerium.

Dieses Argument scheint schlüssig, denn die Zahlen, die die Regierung jetzt prüft, sind in der Tat gigantisch. Auf etwa 200 Milliarden Euro belaufen sich die Subventionen, die auf der Iberischen Halbinsel in Anlagen für grünen Strom fließen werden. Etwa 56 Milliarden Euro davon wurden bereits ausgezahlt. Der Löwenanteil war die recht großzügige Einspeisevergütung bei Wind- und Sonnenenergie, die seit etwa 1995 zahlreiche Investoren aus dem In- und Ausland anlockte.

Die restlichen 143 Milliarden würden in den nächsten 20 Jahren während der Restlaufzeit der schon ans Stromnetz angeschlossenen Anlagen, ganz vorne dabei die Solarparks, fällig. Da ist wohl auch Industrieminister José Manuel Soria zu der Überzeugung gekommen, dass hier nur noch ein Machtwort hilft. So sollen nach seinen Plänen die Subventionen für die Energiebranche in diesem Jahr um etwa 20 Prozent auf 7,5 Milliarden Euro gesenkt werden. Doch der Industrieminister hat die Rechnung ohne die betroffenen Anleger gemacht, sie laufen Sturm gegen die geplanten Subventionskürzungen.“

Damit hat Spanien fast zu den gigantischen Summen, die wir Deutsche bezahlen müssen, aufgeschlossen. Belaufen sich doch hier die Zahlungszusagen aus den Altverträgen an die Besitzer von NIE (Nachhaltig Instabile Energien) bereits Ende 2013 auf ca. 330 Mrd €, die in den kommenden zwanzig Jahren zu erbringen sind. Doch Spanien ist nun schon am Ende der Fahnenstange angekommen und zieht die Notbremse. Deutschland wird wohl noch eine ganze Weile warten müssen. 

Weiterlesen hier in die Welt.




Das Rätsel der Eiszeiten, Teil 8, Global Circulation Models II

scienceofdoom

In Teil VII haben wir eine Reihe von Studien aus den Jahren 1989 bis 1994 betrachtet. Diese haben versucht, mittels GCMs eine „Eiszeit beginnen zu lassen“. Die Entwicklung der „voranschreitenden Klimawissenschaft“ war dabei folgende:

1. Hinweise zu finden, dass das Timing des Beginns einer Eiszeit verbunden war mit der Umverteilung solarer Einstrahlung infolge orbitaler Änderungen – möglicherweise mit einer reduzierten sommerlichen Einstrahlung in hohen Breiten (Hays et al. 1976 – siehe Teil III).

2. Die Verwendung einfacher Energiebilanz-Modelle, um zu zeigen, dass hinter den plausiblen Überlegungen auch etwas Physik steckt (In Teil VI – Gewimmel von Hypothesen haben wir einige plausible Ideen kennengelernt).

3. Verwendung eines GCM (global circulation model) mit Anfangsbedingungen wie sie vor etwa 115.000 Jahren vorlagen, um zu sehen, ob man eine „nicht mehr verschwindenden Schneedecke“ in hohen Breiten erhält, die zuvor während der letzten Zwischeneiszeit nicht schneebedeckt waren – d. h. können wir eine neue Eiszeit beginnen lassen?

Warum brauchen wir ein komplexeres Modell, wenn doch schon ein Energiebilanzmodell „funktioniert“, d. h. eine andauernde Schneedecke erzeugen kann, um eine neue Eiszeit beginnen zu lassen? Wie Rind et al. 1989 in ihrer Studie schreiben:

Verschiedene Energiebilanz-Klimamodelle wurden verwendet, um abzuschätzen, wie groß die Abkühlung im Zuge veränderter orbitaler Parameter wäre. Mit einer geeigneten Anpassung der Parameter, von denen einige aufgrund von Beobachtungen gerechtfertigt sind, kann man die Modelle dazu bringen, die großen eiszeitlichen/zwischeneiszeitlichen Klimaänderungen zu simulieren. Allerdings rechnen diese Modelle nicht mit den Prinzipien all der verschiedenen Einflüsse auf die Lufttemperatur, die wir oben beschrieben haben, und sie enthalten auch keinen hydrologischen Zyklus, welcher es gestatten würde, eine Schneedecke entstehen oder sich ausweiten zu lassen. Die tatsächlichen Prozesse, die es einer Schneedecke gestatten, auch im Sommer bestehen zu bleiben, werden komplexe hydrologische und thermische Einflüsse enthalten, für welche einfache Modelle lediglich grobe Annäherungen bieten können.

Interessanterweise hat also der Schwenk zu komplexeren Modellen mit besser aufgelöster Physik gezeigt, dass es hinsichtlich des Beginns einer Eiszeit in Klimamodellen Probleme gibt. Das waren aber auch noch frühe GCMs mit begrenzter Rechenleistung. In diesem Artikel wollen wir die Ergebnisse von etwa einem Jahrzehnt später betrachten.

Überblick

Wir beginnen mit zwei Studien, die exzellente Überblicke des „Problems bis hier“ enthalten. Eine stammt von Yoshimori et al. (2002) und die andere von Vettori & Peltier (2004). Zu Ersterer:

Eine der fundamentalen und herausfordernden Dinge bei der Modellierung des Paläoklimas ist das Scheitern, den Beginn der letzten Eiszeit zu erfassen (Rind et al. 1989). In einem Zeitraum von vor 118.000 und 110.000 Jahren sank der Meeresspiegel rapide um 50 bis 80 Meter, verglichen mit der letzten Zwischeneiszeit, in der der Meeresspiegel nur 3 bis 5 Meter höher lag als heute. Dieses Absinken des Meeresspiegels macht etwa die Hälfte des letzten eiszeitlichen Maximums aus. Und der Beginn der letzten Vereisung bietet einen von nur wenigen wertvollen Testbereichen zur Validierung von Klimamodellen, vor allem der atmospheric general circulation models (AGCMs). Hierzu wurden viele Studien durchgeführt.

Phillipps & Held (1994) sowie Gallimore & Kutzbach (1995) haben eine Reihe von numerischen Sensitivitäts-Experimenten im Hinblick auf orbitale Parameter durchgeführt, indem sie mehrere extreme orbitale Konfigurationen durchspielten. Darunter befand sich ein Fall mit geringerer Neigung und kleinerem Perihel im Winter der Nordhemisphäre, was zu einem kühleren Sommer führte. Beide Studien kamen zum gleichen Ergebnis: Obwohl eine kühle sommerliche orbitale Konfiguration die besten Bedingungen für die Entwicklung permanenten Schnees und die Ausdehnung von Gletschern bietet, kann der orbitale Antrieb allein nicht für die permanente Schneebedeckung in Nordamerika und Europa verantwortlich sein.

Dieses Ergebnis wurde von Mitchell (1993), Schlesinger & Verbitsky (1996) sowie Vavrus (1999) bestätigt. Schlesinger & Verbitsky (1996) haben ein Eisschild – Asthenosphäre*-Modell mit einem AGCM-Output integriert und herausgefunden, dass eine Kombination von orbitalem Antrieb und Treibhaus-Antrieb durch reduziertes CO2 und CH4 ausreichend waren, um Zentren von Eisschilden in Nordeuropa und Amerika zu erhalten. Allerdings betrug das simulierte Eisvolumen nur etwa 31% der aus den Proxy-Werten abgeleiteten Schätzung.

[*Asthenosphäre: (griech.: asthenia = Schwäche). Die zwischen 100-200km
mächtige "schwache" oder "weiche" Zone der Erde im Oberen Erdmantel
unterhalb der Litosphäre. Mehr dazu siehe hier]

Mittels eines höher auflösenden Modells haben Dong & Valdes (1995) das Wachstum permanenter Schneedecken unter einer Kombination orbitaler und CO2-Antriebe simuliert. Ebenso wie in der Auflösung ihres Modells bestand ein weiterer wichtiger Unterschied zwischen ihrem Modell und anderen in Gestalt einer „umgebenden Orographie“ (d. h. sie haben mit der Höhe des Landes herumgespielt). Sie fanden dabei heraus, dass die Änderungen der Wassertemperatur infolge orbitaler Einflüsse eine sehr wichtige Rolle bei der Entstehung der Eisschilde in Nordamerika und Fennoskandien spielten.

Anmerkung zum letzten Abschnitt: es ist wichtig zu verstehen, dass diese Studien mit einem Atmosphäre-GCM durchgeführt worden sind und nicht mit einem Atmosphäre-Ozean-GCM – d. h. mit einem Modell der Atmosphäre mit einigen vorgegebenen Wassertemperaturen (diese könnten aus einem separaten Lauf eines einfacheren Modells stammen oder aus Werten, die aus Proxys berechnet wurden). Die Autoren kommentieren dann den potentiellen Einfluss auf die Vegetation wie folgt:

Die Rolle der Vegetation am Beginn einer Vereisung wurde von Gallimore & Kutzbach (1996), de Noblet et al. (1996) sowie Pollard und Thompson (1997) untersucht. Gallimore & Kutzbach integrierten ein AGCM mit einem Mixed Layer Ozean-Modell mit fünf verschiedenen Antrieben: 1) Kontrolle, 2) orbital, 3) Punkt 2 plus CO2, 4) Punkt 3 plus Ausdehnung der Tundra um 25% (basierend auf einer Studie von Harrison et al. (1995) und 5) Punkt 4 plus eine weitere Ausdehnung der Tundra um 25%. Dem Effekt der Ausdehnung der Tundra durch ein vegetation-snow masking feedback näherte man sich durch Zunahme des Anteils der Schneebedeckung. Und nur im letzten Fall konnte man eine andauernde Schneedecke sehen.

Pollard & Thompson (1997) führten ebenfalls ein interaktives Vegetations- und AGCM-Experiment durch sowohl mit orbitalem als auch mit CO2-Antrieb. Außerdem integrierten sie ein dynamisches Eisschilde-Modell. Sie integrierten weiterhin ein Eisflächen-Modell über 10.000 Jahre. Darin gingen die die Massenbilanz ein, welche vom AGCM-Ergebnis abgeleitet wurde. Dies wiederum erfolgte mit einem Vielschichten-Eisschild-Oberflächen-Säulen-Modell auf dem Gitternetz des dynamischen Eisflächen-Modells, welches den Effekt von gefrierendem Regen und Schmelzwasser beinhaltete. Obwohl ihr Modell das Wachstum eines Eisschildes über der Baffin-Insel und dem kanadischen Archipel vorhersagte, sagte es auch eine viel schnellere Wachstumsrate in Nordwestkanada und Alaska voraus. Keine dauerhafte Schneedecke fand sich in Keewatin oder Labrador (d. h. an den falschen Stellen). Außerdem war die Rate der Zunahme des Eisvolumens über Nordamerika um eine Größenordnung niedriger als aus Proxys geschätzt.

Sie schließen daraus:

Es ist schwierig, die Ergebnisse dieser früheren Studien zu synthetisieren, weil jedes Modell unterschiedliche Parametrisierungen ungelöster physikalischer Prozesse verwendet hat, unterschiedliche Auflösung hatte und auch noch unterschiedliche Kontroll-Klimate ebenso wie das experimentelle Design.

Zusammenfassend stellen sie fest: die Ergebnisse bis heute zeigen, dass weder orbitale Antriebe allein noch CO2 allein den Beginn einer Vereisung erklären können. Ferner sind die kombinierten Auswirkungen nicht konsistent. Die Schwierigkeit besteht in der Frage, ob dies auf die unzureichende Gitter-Auflösung des Modells oder auf Rückkopplungen aus der Biosphäre (Vegetation) zurückzuführen ist.

Ein paar Jahre später gaben dann Vettoretti & Peltier (2004) eine gute Übersicht zu Beginn ihrer Studie:

Ursprüngliche Versuche, ein größeres Verständnis der Natur von Eiszeit-Zwischeneiszeit-Zyklen zu erhalten, involvierten Studien, die auf einfachen Energiebilanz-Modellen (EBMs) basierten, die direkt auf die Simulation einer andauernden Schneedecke ausgerichtet waren unter Einfluss von angemessen modifizierten orbitalen Antrieben (z. B. Suarez und Held 1979). inzwischen wurden Analysen entwickelt, dass die gegenwärtig gebräuchlichen Modelle des Klimasystems explizit die Kopplung von Eisschilden zu den EBM enthalten müssen oder an vollständigere AGCMs der Atmosphäre ankoppeln sollen.

Die zuletzt entwickelten Modelle des vollständigen Zyklus’ über 100.000 Jahre haben sich bis zu einem Punkt entwickelt, an dem drei Modellkomponenten miteinander verbunden worden sind. Einmal ein EBM der Atmosphäre unter Einschluss der Eis-Albedo-Rückkopplung sowohl von Schnee an Land als auch Eis auf dem Meer, ein Modell der globalen Glaziologie, in dem die Eisschilde zum Wachsen und Schrumpfen gebracht werden durch meteorologisch gesteuerte Änderungen in der Massenbilanz und ein Modell der glazialen isostatischen Justierung, durch welchen Prozess die Höhe des Eisschildes unterdrückt oder erhöht  werden kann, abhängig davon, ob Akkumulation oder Abtragung dominant ist.

Derartige Modelle wurden auch verwendet, um die Schlüsselrolle zu untersuchen, die Variationen des atmosphärischen Kohlendioxids im 100.000-Jahres-Zyklus spielen, vor allem beim Übergang aus einem eiszeitlichen Zustand (Tarasov und Peltier 1997, Shackleton 2000). Da diese Modelle hinsichtlich der Computerressourcen ziemlich effizient sind, die man hier braucht, sind sie in der Lage, die große Zahl von Eiszeit/Zwischeneiszeit-Zyklen zu simulieren. Dies ist erforderlich, um die Modell-Sensitivitäten zu verstehen.

Es gab innerhalb der modellierenden Zunft eine Bewegung, auch Modelle zu benutzen, die derzeit als earth models of intermediate complexity (EMICs) bezeichnet werden und die Sub-Komponenten enthalten, die nicht so raffiniert sind im Vergleich zu den gleichen Komponenten in modernen globalen Klimamodellen (GCMs). Diese EMICs versuchen, Repräsentationen der meisten Komponenten im realen System Erde einzuschließen, darunter die Atmosphäre, die Ozeane, die Cryosphäre und die Biosphäre bzw. der Kohlenstoffzyklus (z. B. Claussen 2002). Derartige Modelle haben nützliche Einsichten in die langzeitliche Klima-Variabilität geliefert und werden das auch weiterhin tun, indem sie es ermöglichen, eine große Zahl von Sensitivitäts-Studien durchzuführen. Damit soll die Rolle zahlreicher Rückkopplungs-Mechanismen untersucht werden, die aus der Wechselwirkung zwischen den Komponenten resultieren, die das Klimasystem ausmachen (z. B. Khodri et al. 2003).

Dann kommentieren die Autoren die gleichen Studien und Themen, die von Yoshimori et al. behandelt worden sind und fügen ihre eigene Studie aus dem Jahr 2003 sowie eine weitere Studie hinzu. Zu ihrer eigenen Forschung schreiben sie:

Vettoretti und Peltier (2003a) haben in jüngerer Zeit gezeigt, dass es einer neu kalibrierten Version des CCCma AGCM2 zu einer permanenten Schneebedeckung allein als Konsequenz orbitaler Antriebe kommt, wenn die atmosphärische CO2-Konzentration auf einem Niveau entsprechend der vorindustriellen Zeit fest gehalten wird. Diese erhält man durch Messungen der Luftbläschen, die im Vostok-Eisbohrkern eingeschlossen waren (Petit et al. 1999).

 Die AGCM-Simulation zeigte, dass sich eine permanente Schneedecke in hohen nördlichen Breiten bildet ohne die Notwendigkeit der Berücksichtigung irgendwelcher Rückkopplungen durch Vegetation oder anderer Effekte. In dieser Arbeit wurde der Prozess des Beginns der Vereisung analysiert, und zwar mit drei Modellen, die drei verschiedene Kontrollklimata enthalten. Das waren jeweils das CCCma cold biased Modell, ein neu konfiguriertes Modell, das so modifiziert wurde, dass es "unbiased" aussieht, und ein Modell dass zur Wärme hin "gebiased" war hinsichtlich des modernen Satzes von AMIP2-Wassertemperaturen (Anmerkung: Bias = Tendenz, Verzerrung, Voreingenommenheit). Vettoretti und Peltier (2003b) zeigten eine Anzahl neuer Feedback-Mechanismen, die für die Ausweitung einer permanenten Schneebedeckung wichtig sind.

Im Einzelnen zeigte diese Arbeit, dass allmählich kälter werdende Klimata den Feuchtetransport in Regionen zunehmen ließen, die für den Beginn einer Vereisung empfänglich sind, und zwar durch verstärkte barokline Wirbelaktivität in mittleren und hohen Breiten. Um dieses Phänomen quantitativ abzuschätzen, wurde eine detaillierte Untersuchung zu Änderungen der Feuchtigkeits-Balance-Gleichung unter orbitalen Antrieben bzgl. der arktischen Eiskappe vor 116.000 Jahren durchgeführt. Ebenso wie die Aktivität einer „cryosphärischen Feuchtepumpe“ zu zeigen, schlugen die Autoren auch vor, dass die zonale Asymmetrie beim Beginn des Prozesses in hohen Breiten geologischen Beobachtungen zufolge eine Konsequenz zonal heterogener Zu- und Abnahmen des nordwärts gerichteten Transportes von Wärme und Feuchtigkeit ist.

Und sie fahren fort, andere Studien zu beleuchten, deren Betonung auf polwärts gerichteten Transporten von Feuchtigkeit liegt. Wir wollen jetzt einige Arbeiten aus jener Periode vorstellen.

Neuere Arbeiten mit GCMs

Yoshimori et al. 2002: Deren Modelle waren ein AGCM (atmosphärisches GCM) mit orbitalen Bedingungen vor 116.000 Jahren sowie Wassertemperaturen a) heute und b) vor 116.000 Jahren. Außerdem ein anderer Modelllauf mit obigen Bedingungen und veränderter Vegetation basierend auf der Temperatur (liegt die Sommertemperatur unter -5°C, wird der Vegetationstyp zu Tundra geändert). Weil ein „vollständig gekoppeltes“ GCM (Atmosphäre und Ozean) über einen langen Zeitraum zu viel Rechenleistung erforderte, wurde ein Kompromiss gewählt.

Die Wassertemperaturen wurden berechnet mittels eines mittelkomplexen Modells, einem einfachen atmosphärischen Modell und einem vollständigen Ozean-Modell (einschließlich Meereis) – und mit einem Modelllauf über 2000 Jahre (Ozeane haben viel thermisches Beharrungsvermögen). Die Details hierzu werden in Abschnitt 2.1 ihrer Studie beschrieben. Der Gedanke dahinter ist, Oberflächen-Wassertemperaturen (SST) zu erhalten, die mit Ozean und Atmosphäre konsistent sind.

Die Wassertemperaturen werden dann als Randwertbedingungen benutzt für einen „ordentlichen“ GCM-Lauf über 10 Jahre – dies wird in Abschnitt 2.2 ihrer Studie beschrieben. Die Einstrahlungs-Anomalie (insulation anomaly) mit Bezug zum heutigen Tag:

Abbildung 1. Einstrahlungs-Anomalie vor 116.000 Jahren relativ zu heute (nach Phillipps und Held 1994). Die Bezeichnungen VE, SS, AE und WS stehen für Frühjahrs-Tag-und-Nacht-Gleiche, Sommersonnenwende, Herbst-Tag-und-Nacht-Gleiche sowie Wintersonnenwende auf der Nordhemisphäre. Das Intervall der Isolinien beträgt 5 W/m², und negative Werte sind gepunktet.

Sie geben für die Zeit vor 116.000 Jahren eine CO2-Konzentration von 240 ppm vor, ist dies doch „das niedrigst mögliche äquivalente CO2-Niveau“ (eine Kombination von CO2- und CH4-Antrieben). Dies gleicht einer Reduktion des Strahlungsantriebs um 2,2 W/m². Die vom ursprünglichen Modell berechneten Wassertemperaturen sind global um 1,1°C niedriger, verglichen mit den heutigen modellierten Werten. Dies liegt nicht an der Strahlungs-Anomalie, die die Sonnenenergie lediglich „umverteilt“, sondern an der geringeren atmosphärischen CO2-Konzentration. Die Wassertemperatur vor 116.000 Jahren im Nordatlantik lag um etwa 6°C niedriger. Dies ist dem niedrigen Einstrahlungswert im Sommer plus einer Reduktion im MOC geschuldet. Die Ergebnisse ihrer Arbeit:

● Mit heutigen Werten der Wassertemperatur sowie orbitalen und CO2-Werten von vor 116.000 Jahren gibt es eine kleine Ausdehnung der permanenten Schneebedeckung.

● Mit berechneten Werten der Wassertemperatur, orbitalen und CO2-Werten, alle vor 116.000 Jahren, ergibt sich eine große Ausdehnung permanenter Schneebedeckung in Nord-Alaska, Ostkanada und einigen anderen Gebieten.

● Mit hinzugefügten Änderungen der Vegetation (Tundra) breitet sich die permanente Schneebedeckung nördlich von 60° noch weiter aus

Sie kommentieren, gestützt durch Graphiken, dass eine größere Schneebedeckung teils durch geringere Schneeschmelze, aber auch teils durch stärkeren Schneefall entstehen kann. Dies ist selbst dann der Fall, wenn kältere Temperaturen im Allgemeinen für weniger Niederschlag sprechen.

Im Gegensatz zu früheren Eiszeit-Hypothesen zeigen unsere Ergebnisse, dass die Erfassung des Beginns einer Vereisung vor 116.000 Jahren „kühlere“ Wassertemperaturen erfordert als sie heute vorhanden sind. Auch zeigt der große Einfluss von Änderungen der Vegetation auf das Klima, dass die Einbeziehung der Vegetations-Rückkopplung wichtig ist für die Modell-Validierung, zumindest in diesem speziellen Zeitraum der Erdgeschichte.

Was wir nicht herausfanden ist, warum ihr Modell permanente Schneebedeckung erzeugt (selbst ohne Änderungen der Vegetation), wo frühere derartige Versuche das nicht gezeigt haben. Was nicht erwähnt worden zu sein scheint ist, dass zu den notwendigen Bedingungen kältere Wassertemperaturen gehören, induziert durch einen viel geringeren atmosphärischen CO2-Gehalt. Ohne den niedrigeren CO2-Gehalt kann dieses Modell keine Eiszeit beginnen lassen. Zusätzlich sagen Vettoretti & Peltier 2004 zu dieser Studie:

Die Bedeutung dieser Ergebnisse bleibt jedoch abzuwarten, da das ursprüngliche CCCma AGCM2-Modell in hohen Breiten hin zu kälteren Temperaturen "gebiased" und empfindlich auf den niedrigen CO2-Wer istt, der den Simulationen zugrunde liegt.

Vettoretti & Peltier 2003

Auf diese Studie beziehen sie sich in ihrer eigenen Arbeit von 2004. Diese Simulation zeigt, dass der Eintritt in eiszeitliche Bedingungen vor 116.000 Jahren nur die Einführung orbitaler Einstrahlung der Nach-Eemian-Zeit und standardmäßige vorindustrielle CO2-Werte erfordert.

Im folgenden Bild sind die jahreszeitlichen und breitenabhängigen Variationen der solaren Einstrahlung an der Obergrenze der Atmosphäre TOA im Vergleich von vor 116.000 Jahren und heute gezeigt:

 

Abbildung 2: (a) Eine Zeitreihe der Exzentrizität, der Neigung, der Präzession und der Einstrahlungs-Anomalie an der Obergrenze der Atmosphäre vom vorletzten Abschmelzen bis zum Beginn der neuen Vereisung in der Nach-Eemian-Zeit [ein Zeitraum von 35.000 Jahren]. Der Punkt, an dem die Bedingungen für den Beginn einer Vereisung am günstigsten sind, wird durch die Linie mit der Bezeichnung GI gekennzeichnet. Die Einstrahlungskurve (linke vertikale Achse) misst die Gesamt-Energieanomalie im Vergleich zu heute (Einheit 10↑23 J), und zwar über der arktischen Eiskappe im Sommer. Die Orbital-Parameter für jedes der drei orbitalen Elemente sind auf der rechten vertikalen Achse aufgetragen. (b) Ein Hovmöller-Diagramm der Einstrahlungs-Anomalie (W/m²) an der Oberfläche für den jährlichen Zyklus vor 116.000 Jahren.

Aus Vettoretti & Peltier 2003

Kernpunkt ihres Modelltests war: sie nahmen ein atmosphärisches GCM gekoppelt mit festgesetzten Werten der Wassertemperatur – für drei verschiedene Datensätze – mit orbitalen und Treibhausgas-Bedingungen von vor 116.000 Jahren. Damit wollten sie herausfinden, ob sich eine permanente Schneebedeckung ergibt und wo:

Die drei Experimente der Zeit vor 116.000 Jahren zeigten, dass der Beginn einer Vereisung in zwei der drei Simulationen mit diesem Modell erfolgreich war. Das "warm-bias" Experiment erzeugte keine permanente Schneebedeckung in der Arktis außer im zentralen Grönland.

Das "kalt-bias" Experiment erzeugte in weiten Gebieten der Arktis nördlich von 60°N eine permanente Schneebedeckung. Starke Akkumulationen zeigten sich im kanadischen Archipel sowie in Ost- und Zentralsibirien. Die Akkumulation in Ostsibirien scheint exzessiv zu sein, da es kaum Beweise gibt, dass Ostsibirien jemals in einen Eiszeitzustand gelangte. Die Verteilung der Akkumulation in diesem Gebiet ist möglicherweise das Ergebnis exzessiver Niederschläge in der modernen Simulation.

Sie kommentieren weiter:

Alle drei Simulationen sind charakterisiert durch exzessive Sommerniederschläge über den meisten polaren Landgebieten. Ebenso zeigt ein Plot des jährlichen Mittleren Niederschlags in dieser Region des Globus‘, dass das CCCma-Modell im Gebiet der Arktis allgemein "nass-bias" ist. Früher wurden bereits gezeigt, dass das CCCma GCMII-Modell ebenfalls einen hydrologischen Zyklus hat, der stärker ist als beobachtet (Vettoretti et al. 2000b).

Es ist unklar, wie stark die Modell-Bias des exzessiven Niederschlags auch ihr Ergebnis der Schnee-Akkumulation in den „richtigen“ Gebieten beeinflusst. Im Teil II ihrer Studie graben sie sich in Details der Änderungen von Verdunstung, Niederschlag und Feuchtetransport in das arktische Gebiet.

Crucifix & Loutre 2002

Diese Studie (und die Folgende) verwendete ein EMIC – ein intermediate complexity model – welches ein Modell mit einer gröberen Auflösung und einfacherer Parametrisierung ist und deshalb auch viel schneller rechnet. Das erlaubt die Durchführung vieler unterschiedlicher Simulationen über viel längere Zeiträume, als es mit einem GCM möglich ist. Die EMICs sind auch in der Lage, Biosphäre, Ozean, Eisschilde und Atmosphäre zu koppeln – während den GCM-Läufen nur ein atmosphärisches GCM mit einer bestimmten Methode der Festsetzung von Wassertemperaturen zugrunde lag.  

In dieser Studie geht es um die Klimaänderung in den hohen nördlichen Breiten während der letzten Zwischeneiszeit (von vor 126.000 Jahren bis vor 115.000 Jahren) unter Verwendung des earth system model of intermediate complexity ‘‘MoBidiC’’.

Zwei Reihen von Sensitivitäts-Experimenten wurden durchgeführt, um a) die jeweilige Rolle unterschiedlicher Rückkopplungen im Modell und b) die jeweiligen Auswirkungen von Neigung und Präzession zu bestimmen. MoBidiC enthält Repräsentationen der atmosphärischen Dynamik, der Ozean-Dynamik, Meereis und Vegetation. Eine Gesamtzahl von zehn numerischen Experimenten wird hier gezeigt. Das Modell simuliert wichtige Umweltänderungen in hohen nördlichen Breiten vor dem Beginn der letzten Vereisung, d. h.: a) eine mittlere jährliche Abkühlung um 5°C hauptsächlich im Zeitraum von vor 122.000 und 120.000 Jahren; b) eine Südverlagerung der nördlichen Baumgrenze um 14 Breitengrade; c) Akkumulation einer permanenten Schneedecke mit Beginn vor etwa 122.000 Jahren und d) ein graduelles Auftauchen von permanentem Meereis in der Arktis.

Die Reaktion der borealen Vegetation ist ein ernsthafter Kandidat, um den orbitalen Antrieb signifikant zu verstärken und den Beginn einer Vereisung auszulösen. Das Grundkonzept ist, dass in einem großen Gebiet ein Schneefeld eine viel höhere Albedo zeitigt als Gras oder Tundra (etwa 0,8) oder Wald (0,4).

Es muss angemerkt werden, dass die planetare Albedo auch bestimmt wird durch den Reflexionsgrad der Atmosphäre und im Besonderen durch die Wolkenbedeckung. Allerdings ist trotz der  im MoBidiC geforderten Wolken die Oberflächen-Albedo definitiv der Haupttreiber planetarer Albedo-Änderungen.*

In ihrer Zusammenfassung schreiben sie:

In hohen Breiten simuliert MoBidiC eine jährliche mittlere Abkühlung von 5°C über den Kontinenten und eine Abnahme von 0,3°C der Wassertemperatur. Die Abkühlung ist hauptsächlich verbunden mit einer Abnahme der kurzwelligen Strahlungsbilanz an der Obergrenze der Atmosphäre um 18 W/m², teils kompensiert durch eine Zunahme von 15 W/m² in der atmosphärischen meridionalen Wärmetransport-Divergenz.

Die Änderungen werden hauptsächlich durch astronomische Antriebe ausgelöst, aber durch Meereis, Schnee und Rückkopplungen der Albedo durch Vegetation fast vervierfacht. Die Effizienz dieser Rückkopplungen wird verstärkt durch Synergien, die zwischen ihnen stattfinden. Die kritischste Synergie involviert Schnee und Vegetation und führt zu dauerhaftem Schnee nördlich von 60°N, beginnend vor 122.000 Jahren. Die Temperatur-Albedo-Rückkopplung ist auch verantwortlich für eine Beschleunigung des Abkühlungstrends in der Zeit von vor 122.000 Jahren bis vor 120.000 Jahren. Diese Beschleunigung wird nur nördlich von 60°N simuliert und fehlt in niedrigeren Breiten.

Siehe Fußnote 2 für Details des Modells. Dieses Modell weist eine Kalt-Bias bis zu 5°C im Winter in den hohen Breiten auf.

Calov et al. 2005

Wir untersuchen die Mechanismen des Beginns einer Vereisung mit dem Erde-System-Modell mittlerer Komplexität CLIMBER-2, welches dynamische Module der Atmosphäre, der Ozeane, der Biosphäre und der Eisschilde umfasst. Die Dynamik der Eisschilde wird durch das dreidimensionale polythermische Eisschild-Modell SICOPOLIS beschrieben. Wir haben transparente numerische Experimente durchgeführt, und zwar beginnend mit dem Eemian-Interglazial vor 126.000 Jahren. Das Modell läuft über 26.000 Jahre mit zeitabhängigen orbitalen und CO2-Antrieben.

Das Modell simuliert eine rapide Ausdehnung der mit Inlandeis bedeckten Gebiete der Nordhemisphäre, vor allem über Nordamerika, die vor 117.000 Jahren begonnen hatte. Während der folgenden 7000 Jahre ist das Eisvolumen im Modell graduell gestiegen, und zwar mit einer Rate, die mit einer Änderung der Höhe des Meeresspiegels um 10 m pro Millenium korrespondiert.

Wir haben gezeigt, dass der simulierte Beginn der Vereisung einen Bifurkations-Übergang im Klimasystem repräsentiert, und zwar von einem zwischeneiszeitlichen Zustand in einen eiszeitlichen Zustand, verursacht durch die starke Schnee-Albedo-Rückkopplung. Dieser Übergang erfolgt, wenn die sommerliche Einstrahlung in hohen Breiten der Nordhemisphäre unter einen bestimmten Wert fällt, der nur geringfügig niedriger liegt als die heutige sommerliche Einstrahlung (Bifurkation ist ein Begriff der Chaos-Therie).

Die Durchführung langzeitlicher Gleichgewichts-Läufe zeigt, dass es für die heutigen orbitalen Parameter mindestens zwei unterschiedliche Gleichgewichts-Zustände des Klimasystems gibt – den eiszeitlichen und den zwischeneiszeitlichen Zustand. Für die geringe sommerliche Einstrahlung vor 115.000 Jahren finden wir jedoch nur einen eiszeitlichen Gleichgewichts-Zustand, während in dem Modell bei starker Einstrahlung vor 126.000 Jahren nur ein zwischeneiszeitlicher Zustand existiert.

Durch die grobere Gitter-Auflösung des EMIC bekommen wir eine gewisse Vereinfachung:

Die Atmosphären-, Landoberflächen- und Vegetations-Modelle rechnen mit dem gleichen Gitterpunktsabstand, nämlich 10° Breite und etwa 51° Länge.

Ihr Eisschild-Modell ist wesentlich detaillierter, passen doch etwa 500 „Zellen“ des Eisschildes in 1 Zelle des Landoberflächen-Modells. Sie nehmen auch Stellung zu allgemeinen Problemen (bislang) mit Klimamodellen bei deren Versuch, Eiszeiten zu erzeugen:

Wir spekulieren, dass das Scheitern einiger Klimamodelle bei der erfolgreichen Simulation des Beginns einer Vereisung ihrer zu groben räumlichen Auflösung oder Klima-Bias geschuldet ist, die ihre Werte der sommerlichen Einstrahlung verschieben können. Dies passt mit einem Übergang von einem zwischeneiszeitlichen zu einem eiszeitlichen Klimastatus zusammen, der weit über die realistische Bandbreite orbitaler Parameter hinausgeht.

Ein weiterer wichtiger Faktor, der den Wert des Bifurkations-Übergangs bestimmt, ist die Albedo von Schnee.

In unserem Modell verhindert eine Reduktion der gemittelten Schnee-Albedo um nur 10% das rapide Einsetzen von Vereisung auf der Nordhemisphäre unter jeder orbitalen Konfiguration, die während des Quartiärs aufgetreten war. Die Albedo von Schnee ist in vielen Klimamodellen nur auf sehr grobe Weise parametrisiert und kann unterschätzt werden. Mehr noch, da die Albedo von Schnee stark von der Temperatur abhängt, kann die Unter-Repräsentation höher gelegener Gebiete in einem groben Klimamodell die Schnee-Albedo-Rückkopplung zusätzlich schwächen.

Schlussfolgerung

In diesem Beitrag haben wir ein paar Studien von vor etwa einem Jahrzehnt begutachtet, die frühere Probleme (siehe Teil Sieben) erfolgreich gelöst haben, zumindest vorläufig. Wir haben zwei Studien kennengelernt, die mit Modellen „mittlerer Komplexität“ und grober räumlicher Auflösung den Beginn der letzten Eiszeit simuliert haben. Und wir haben zwei Studien kennengelernt, die GCMs mit vorgegebenen ozeanischen Bedingungen verknüpfen. Diese haben eine permanente Schneebedeckung in kritischen Gebieten vor 116.000 Jahren simuliert.

Definitive Fortschritte

Aber man erinnere sich an die Bemerkung, frühe Energiebilanz-Modelle seien zu dem Ergebnis gekommen, dass es zu einer permanenten Schneebedeckung kommen könnte durch reduzierte sommerliche Einstrahlung in hohen nördlichen Breiten – Unterstützung für die „Milankovitch“-Hypothese. Dann jedoch haben deutlich verbesserte – aber immer noch rudimentäre – Modelle von Rind et al. 1989 sowie Phillipps & Held 1994 gezeigt, dass jene mit einer besseren Physik und einer höheren Auflösung nicht in der Lage waren, diesen Fall zu reproduzieren. Genauso war es mit vielen späteren Modellen.

Wir müssen immer noch ein vollständig gekoppeltes GCM (Atmosphäre und Ozean) betrachten, um zu versuchen, den Beginn einer Eiszeit zu erzeugen. Im nächsten Beitrag werfen wir einen Blick auf eine Anzahl von Studien aus neuerster Zeit einschließlich Jochum et al. (2012):

Bislang jedoch haben es vollständig gekoppelte GCMs nicht geschafft, den Beginn einer Vereisung zu reproduzieren und auch nicht die Abkühlung und die Zunahme der Schnee- und Eisbedeckung, die von warmen Zwischeneiszeiten zu kalten Eiszeitperioden führte.

Das Scheitern der GCMs hinsichtlich der Erzeugung eines Vereisungs-Beginns (siehe Otiento und Bromwich 2009 für eine Zusammenfassung), bedeutet ein Scheitern entweder der GCMs oder der Hypothese von Milankovitch. Natürlich, wenn die Hypothese die Schuldige wäre, müsste man sich fragen, ob man das Klima überhaupt ausreichend genug verstanden hat, um ein GCM zu entwickeln.

Wir werden auch sehen, dass die Stärke von Rückkopplungs-Mechanismen, die zu einer dauerhaften Schneedecke führen, in unterschiedlichen Studien signifikant variiert. Und eines der größten Probleme, mit denen man immer noch konfrontiert wird, ist die erforderliche Rechenleistung.

Zitat aus Jochum (2012):

Dieser experimentelle Aufbau ist natürlich nicht optimal. Idealerweise würde man gerne das Modell des letzten Interglazials vor etwa 126.000 Jahren für 10.000 Jahre in eine Eiszeit mit sich allmählich änderndem orbitalen Antrieb integrieren. Allerdings ist dies nicht machbar; eine 100-jährige Integration von CCSM auf einem NCAR-Supercomputer würde etwa 1 Monat dauern sowie einen substantiellen Teil der Rechenkapazität der Klimagruppe erfordern.

Link: http://scienceofdoom.com/2013/12/27/ghosts-of-climates-past-part-eight-gcm-ii/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/




Glaubenskrieg

Der 79-jährige Schwede zählt zu den renommiertesten Meteorologen weltweit: Er führte 1981 bis 1990 das European Centre for Medium-Range Weather Forecasts im englischen Reading und danach bis 2000 das Max-Planck-Institut für Meteorologie in Hamburg, daneben arbeitete er auch am International Space Science Institute in Bern.

«Es ist wichtig, eine breite Debatte über Energie und Klima zu ermöglichen», sagt Bengtsson. Deshalb stellte er sich vor einigen Wochen der Global Warming Policy Foundation (GWPF) zur Verfügung. Der Think-Tank, gegründet vom ehemaligen britischen Finanzminister Nigel Lawson, setzt sich mit einem Beirat aus namhaften Wissenschaftlern kritisch mit der Klimaforschung und der Energiepolitik auseinander.

Als Skeptiker – was jeder Wissenschaftler sein sollte – veröffentlichte Bengtsson im April auch einen Artikel in der NZZ. Er stellte darin fest: «Die Klimaerwärmung ist bis jetzt kein ernsthaftes Problem, wenn wir uns auf Beobachtungen stützen. Problematisch wird sie nur, wenn wir uns auf Modellsimulationen beziehen.» Diese ­liessen sich jedoch nicht überprüfen, deshalb seien sie «mehr eine Sache des Glaubens als ein Faktum». Daraus schloss der Kritiker: «Bevor man radikale und hastige Änderungen am heutigen Energiesystem vornimmt, muss es robuste Beweise für ­einen beträchtlichen Klimawandel geben. Davon sind wir noch weit entfernt.»

Darauf antwortete ETH-Professor Reto Knutti, der selber Klimamodelle entwickelt. Er behauptete: «Viele Resultate von Klimamodellen sind seit über zwanzig Jahren ähnlich geblieben. Sie reflektieren unser bestes Verständnis der Prozesse im System.» Er verschwieg, dass die tatsächlich gemessenen Temperaturen heute unter all denen liegen, die die Klimamodelle in den letzten zwanzig Jahren voraussagten.

Nach nur einem Monat zog sich Bengtsson wieder aus der GWPF zurück: Er sei von Kollegen so angegriffen worden, dass er sich an die Hexenjagd auf Kommunisten in den USA der 1950er Jahre erinnert fühle und um seine Gesundheit und Sicherheit fürchte.

==================================================

Anmerkung EIKE-Redaktion:

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

Wissenschaft: Glaubenskrieg | Die Weltwoche, Ausgabe 22/2014 |  Donnerstag, 29. Mai 2014 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE für die Gestattung des ungekürzten Nachdrucks.

==========================================================================

Siehe auch : http://www.weltwoche.ch/

Sicher ist nur die Ungewissheit | Die Weltwoche,

Ausgabe 22/2014 | Donnerstag, 29. Mai 2014 ;

siehe auch : http://www.eike-klima-energie.eu/news-cache/ein-kommentar-von-lennart-bengtsson/ ; 24.05.2014

==============================================================

PDF zum Download unten

Related Files




Wie Farben benutzt werden, um einen falschen Eindruck zu erwecken

 

Vergrößerter Ausschnitt aus dem linken Teil des Bildes rechts: Darstellung der Temperaturverteilung am 26. Juni 2008.

Und hier folgt ein Bild aus dem Bereich Vorhersage der NOAA mit einer ähnlichen Temperaturverteilung:

Nun könnten einige sagen, dass hier irgendetwas Hinterlistiges vor sich geht und dass die NOAA die Farbskala absichtlich adjustiert hat. Zur Hälfte hätten sie damit recht.

Was hier gemacht wurde: Man die Farbskala verschoben, jedoch die Temperaturspanne der jeweiligen Farbe gleich gelassen. Zum Vergleich folgen hier die beiden Farbskalen:

Grund hierfür ist, dass eine kleine Nische mit Temperaturwerten über 110°F [ca. 38°C] in der Karte aus dem Jahr 2008 auftaucht, und zwar im und nahe beim Death Valley (Ansicht unten vergrößert und mit einem Pfeil versehen, so dass es auch richtig hervortritt).

Der Punkt hier ist also, dass lediglich eine einzige Station mit einem Einzel-Pixel von über 110°F ausreicht, um die gesamte gleitende Skala zu ändern. NOAA nimmt hier nicht gerade eine nützliche Anpassung der Farben vor, um den Eindruck für jedermann zu verändern, es ist lediglich das Programm zur Anpassung des numerischen Scale, basierend auf der Bandbreite der Temperaturen innerhalb des CONUS.

Ein  besserer Weg, mit diesem Problem umzugehen, ist das Festlegen bestimmter Farben pro Temperatur, so wie es Dr. Ryan Maue für das CONUS-Temperaturbild bei WeatherBell getan hat:

Inzwischen ist die NOAA dabei, die Präsentation umzuändern in ein neues Aussehen, etwa so:

Source: http://preview.weather.gov/graphical/

Man beachte, dass es heißt:

Unten ist eine andere Darstellung der graphischen Vorhersageseite des National Weather Service, ein Erzeugnis der National Digital Forecast Database. Kommentare sind willkommen.

Den Überblick bekommt man hier.

Kommentare hierzu sind erwünscht. Dies könnte der richtige Zeitpunkt für die Einführung einer Farbskala sein, die den Temperaturbereich zwischen 20 und 25°C gelb und rot einfärbt.

Link: http://wattsupwiththat.com/2014/05/28/color-perceptions-of-the-national-temperature/

Übersetzt von Chris Frey EIKE




Eines geht nur – Ökologie oder Windstrom

Was meint Öko?  Soll etwas als harmlos und wünschenswert ge­kennzeichnet werden, erhält es die Vorsilbe ‚nachhaltig’ oder ‚öko’. Nachhaltig und Öko haben Hochkon­junktur und wurden zum Markenzeichen für ein gutes und friedliches Leben. ‚Nachhaltig und ökologisch’ wurde zur Zauberfor­mel, die unsere Zukunft sichert. Wirklich? Nein, denn eines fällt auf und sollte zu denken geben: unsere Reproduktionstätigkeiten bleiben unerwähnt, obwohl doch nun wirklich nichts nachhaltiger sein könnte – und auch ökologisch. Und zwar so, wie man Öko­logie zuerst definiert hat.

Ihr geistiger Vater war Ernst Haeckel, der 1866 den Begriff eingeführt hat. Er war Zoologe und Anhänger des zu seiner Zeit noch jungen Modells von der biologischen Evolution, das Charles Darwin 1859 publiziert hatte. Er  verstand  unter Ökologie die Lehre von den Bedin­gungen der Lebewesen im Kampf ums Da­sein und vom Haushalt der Natur.

Eine Konkretisierung der ursprünglichen Definition, stammt z.B. von Bick (1998) „Ökologie ist die Wissenschaft vom Stoff- und Energiehaushalt der Biosphäre und ihrer Untereinheiten (zum Beispiel Ökosysteme) sowie von den Wechselbeziehungen zwischen den verschiedenen Organismen, zwischen Organismen und den auf sie wirkenden Umweltfaktoren

Mo­dern interpretiert ist „Ökologie die Wissenschaft, die sich mit den Wechselbe­ziehungen be­fasst, die die Verbreitung und das Vorkommen der Orga­nismen bestim­men.“ (zitiert in Wikipedia von Lampert/Sommer (1993) übernommen aus Krebs (1985).

Daraus folgt, dass alle unsere Aktivitäten anti-ökolo­gisch sind, die die Wechselbeziehungen zwischen den Orga­nismen, ihrer Vorkommen und ihrer Verbreitung beeinträchtigen,. Das gilt auch für das Öko­system ‚Luft’ mit allen Organismen, Vorkommen, Verbreitung und Wechselbeziehungen. Auch sie sind das Ergebnis der Evolution, weshalb jeder störender Eingriff zwangsläufig ökologiefeindlich ist, also auch die Wind­kraftanlagen, deren Strom bekanntlich als sauber oder grün oder öko­logisch ein­wandfrei gepriesen wird.

Das Gegenteil ist richtig: Seit mehr als 500 Millionen Jahren hat das Leben im Rah­men der biologischen Evolu­tion mit seinen unzähligen Arten das Meer, die Erdoberfläche, den Boden und auch die Luft besie­delt und dort jeweils Gleichgewichte hergestellt. Das EEG macht das Biotop Luft für viele dort be­heimatete Tiere zu einem todbringenden Lebensraum. Windstrom als ökologisch zu bezeichnen, ist Blasphemie. Noch zu keiner Zeit haben Menschen ein Bio­top derart wissentlich und absichtlich verändert – mit Konsequenzen, die heute auch noch nicht im Ansatz abzuschätzen sind. Wer ein System än­dern will, muss es genau kennen und verstehen. Das ist im Falle der Windenergie eindeutig nicht der Fall. Auch hier ist nicht gut gemacht, was gut gemeint ist: Statt, wie beabsichtigt, die Natur zu schützen, wird sie massiv beschädigt – und zwar nachhaltig.

„Gefährlich sind die Windräder nicht“

So lautet kurz und bündig die Schlussfolgerung der Grünen von Bad Driburg anlässlich ihres Be­suches einer Windkraftanlage im Raume Paderborn, wie im Mitteilungsblatt vom 28.11.2013 be­rich­tet wurde. Die Grünen begründen ihr Urteil damit, dass der Sturm Kyrill „keine einzige Wind­kraftanlage zum Umkippen“ brachte, während er doch „viele Hektar Wald umlegte“.  Welch ein Vergleich! Was die Grünen in ihrem Bericht ver­schwiegen haben, sind die schlimmen Fakten. Dafür einige Beispiele.

(1)  Matt Ridley berichtet in der Times (Stichwort: Clive Handler Pulmonary hypertension): „Wie Clive Hambler von der Oxford University dokumentiert hat, werden in jedem Jahr zwi­schen 6 und 18 Millionen Vögel und Fledermäuse in Spanien allein durch Windräder getötet, einschließlich seltener Gänsegeier, von denen in einem Jahr 400 Exemplare getötet worden sind, ….. In Tasmanien sind die Keilschwanzadler wegen der Windturbinen vom Aussterben bedroht. Norwegische Windparks töten jedes Jahr zehn Seeadler. Deutsche Windturbinen töten 200000 Fledermäuse pro Jahr“.

(2)  AP/dpa, t-online.de, 23. November 2013: In den USA will eine Windenergiefirma eine Geldstrafe von einer Million Dollar (rund 740.000 Euro) zahlen, weil in ihren Windrädern 14 Steinadler umgekommen sind. Das Unternehmen Duke Energy aus Charlotte in North Carolina gab eine Einigung mit den Behörden bekannt, nach der es sich eines Verstoßes gegen das Gesetz zum Schutz von Zugvögeln schuldig bekennen werde.

(3)  Falmouth, Cape Cod, Mass., USA, BARNSTABLE (22. November): Das Oberste Ge­richt stellt fest, dass Hausbesitzer in der Nähe von WKA ‚irreparable physische und psychi­sche Schä­den erleiden“. Gerichtsurteil Richter Christopher J. Muse am Oberen Verwaltungs­gericht erließ die einstweilige Verfügung, dass in Falmouth die Betriebsstunden der WKA wegen dieser Schä­den stark zu reduzieren sind. Mit dem Urteil müssen zwei Windkraftwerke von 19.00 bis 07.00 Uhr von Montag bis Samstag, sowie ganztägig am Sonntag, Thanksgi­ving, Weihnachten und Neujahr, mit sofortiger Wirkung abgeschaltet werden. „Dies ist ver­mutlich das erste Mal, dass ein Gericht in den USA entschieden hat, dass es genü­gend Be­weise dafür gibt, dass Windkraft­anlagen in der Nähe von Wohngebieten ein Ge­sundheitsri­siko für Familien sind, die in der Nähe leben“, sagte Lilli-Ann Green, ein Vor­standsmit­glied der Organisation Wind Wise Massachu­setts.                                                                                    (Quelle: http:// wind­wahn.de/index.php/news/gerichte/gesundheit-vor-windenergie)

4) Fledermäuse als Opfer der Energiewende: Zum Fledermaussterben in der Nähe von Wind­rädern gibt es eine Studie der kanadischen Biologien Erin Baerwald von der Universität Cal­gary:  Große Windanlagen werden zu Todesfallen für Fledermäuse.  Zwar werden die Fle­dermäuse nicht wie die großen Greifvögel von den Flügeln der Windräder zerschreddert. Zum Verhängnis wird ihnen der durch das schnelle Rotieren der Flügel erzeugt Unterdruck. Kom­men die Fledermäuse, angelockt von den Insekten, den Flügeln zu nahe, erleiden sie ein Ba­rotrauma: Infolge des plötzlichen Luftdruckanfalls bläht sich ihre Lunge auf, was zum Zerrei­ßen der umschließenden Blutgefäße führt. Die Tiere stürzen ab und gehen an innerer Verblu­tung zugrunde, wie 90% der obduzierten Fledermäuse zeigen.

Noch schlimmer fällt das Urteil für die Gewinnung von „Grüner Bio-Energie“ aus, die extrem anti-ökologisch ist. Der Öko­loge Ulrich Eichelmann und sein Team beweisen das in „Climate Crimes“, als DVD ab­rufbar. Ein Ausschnitt: „Kaum mit Worten wiederzugeben ist der Frevel an der deutschen Flur, wie sie Ei­chelmann im Film beschreibt. Das Land verödet zur artenfeindlichen Mono­kultur von Maisfel­dern bis zum Horizont, auch Biosphärenreservate werden davon nicht ver­schont. Alles nur, da­mit ge­nügend Biogas produziert wird, um die Klimaziele zu erfüllen. Im Namen einer vermeint­lich sauberen Energie. Viele Vogelarten sind bereits vollends ver­schwunden, andere werden fol­gen. Feldhasen und andere Bodenbewohner wird man nicht mehr zu Gesicht be­kommen. Die größte Biogasanlage im Land benötigt 1000 Tonnen Mais pro Tag. 7000 Anla­gen stehen bereits, pro Jahr kommen im Durchschnitt etwa 1000 hinzu. Die Maisbauern kön­nen – letztlich aus sub­ventionierten Einnahmen – jede Pacht bezahlen, deshalb haben sich die Pachtpreise mehr als verdoppelt, bäuerliche Betriebe machen pleite. Übrigens: 2011 konnte Deutschland zum ersten Mal seinen Getreidebedarf nicht mehr selbst decken.“  Und dafür müssen in den armen Ländern immer mehr Kinder verhungern.

Die Politik, die viel Nachhaltiges oder Ökologisches einfordert, erkennt in der Regel nicht, wenn sie das Gegenteil propagiert. Im Klartext, Politiker wissen nur selten, was Ökologie wirklich ist. Und das umso weniger, je häufiger und lauter sie davon reden. Verständlich, denn in unseren Parlamenten agiert die Generation ‚Naturwissenschaften abgewählt’. Manche Politiker halten Ökologie für ihre Kernkompetenz. Selten war die Diskrepanz zwischen Überzeu­gung und Kenntnis größer. Dazu ein Beispiel zum Beweis:

Katrin Göring-Eckardt, die Fraktionsvorsitzende von Bündnis 90/Die Grünen im Bundestag, fordert in ihren Redebeiträgen die 100%ige Gewinnung von Strom aus Regenerativen Ener­gien als Mittel der ökologischen Erneuerung. Mal abgesehen davon, dass Windstrom und Bio-Energie nicht ökologisch produziert werden können, ist das aus zwei Gründen nicht erreich­bar: Erstens liefern Sonne und Wind bestenfalls in einem knappen Fünftel der Zeit Strom und zweitens ist das Speicherproblem noch lange nicht gelöst – und sehr wahrscheinlich für die benötigten Mengen auf unabsehbare Zeit nicht lösbar. Die sich daraus ergebenden Folgerun­gen sollte auch Frau Kat­rin Göring-Eckardt kennen und deshalb auf solche Forderungen ver­zichten. Nun mahnt sie aber auch gleichzeitig Glaubwürdigkeit an, beispielsweise in Günter Jauch’s Talkrunde,  und da wird der Fall problematisch, denn wer in der Politik eine absolut unrealistische Forderung stellt und trotzdem Glaubwürdigkeit verlangt, ist entweder extrem unwissend, was infolge der fachfremden akademischen Ausbildung und praktischen Tätigkeit in evangelischer Theologie von Frau Gö­ring-Eckardt verständlich wäre, oder verlogen, denn er praktiziert den in der Politik nicht selten anzutreffenden Zynismus zur Gewinnung von Wählerstimmen. Welcher Grund bei Frau Göring-Eckardt zutrifft, ist nicht zu beurteilen. Aber fest steht, dass die unsinnige 100%-Forderung nicht akzeptierbar ist, denn durch Werben mit einer nicht erfüllbaren Forderung wird der Bürger betrogen.

Vermutlich wäre Frau Katrin Göring-Eckardt entsetzt, würde sie erkennen und anerkennen  müssen, was ökologische Erneuerung wirklich bedeutet: eine Reaktivie­rung der „Bedingun­gen der Lebewesen im Kampf ums Dasein“ (Darwin/Heckel). Die Bezeichnung Ökostrom ist falsch – ebenso der inflationäre Gebrauch von ‚Öko’ als Vorsilbe.

Was Frau Göring-Eckhardt recht ist, ist unser neuen Umweltministerin Barbara Hendricks billig: Im Interview mit der Neuen Westfälischen am 18.02.2014 betont sie „An unseren langfristigen Zielen rütteln wir nicht. 2050 sollen mindestens 80% unserer Stromversorgung aus erneuerbaren Energien stammen.“ Frau Hendricks dokumentiert damit, dass sie weder die geringen von der Natur vorgegebenen Produktionszeiten der ‚Erneuerbaren’ kennt – knapp 20% der Stunden eines Jahres – noch die daraus resultierende Notwendigkeit, in Sonnen- und Wind­zeiten Strom im Überschuss zu produzieren, um ihn für die licht- und windlose Zeit zu spei­chern. Die Speicher sind nicht vorhanden. Das Problem der Speicherung ist völlig ungelöst. Auf dem CDU-Workshop (Energiepolitik am Scheideweg) am 18.11.2013 in Düsseldorf fol­gerte die Wissenschaft: Die Erforschung geeigneter Speichermethoden dauert Jahrzehnte, wenn nicht Generationen, und keiner kann heute wissen, ob sie Erfolg haben wird.

Inzwischen sagen allerdings auch Prominente, was die Energiewende bedeutet. Zwei Bei­spiele:

Prof. Dr. Hans-Werner Sinn (IFO-Institut München, Vortrag 16.12., Video abrufbar: „Ener­giewende ins Nichts“. Aussage: Die Energiewende wird scheitern.
Vizekanzler und Fachminister Siegmar Gabriel, Vortrag 17.4. bei SMA Solar in Kassel, Vi­deo abrufbar. Kernaussagen:
Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht.”
“Die Wahrheit ist, dass wir auf allen Feldern die Komplexität der Energiewende unterschätzt haben”.
“Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte”. 

Apropos:  Nachhaltig

Die Natur ist es nicht – wäre sie es gewesen, gäbe es uns Menschen nicht, denn Evolution hätte nicht stattgefunden. Und die Wirtschaft ist es noch weniger – alle paar Jahre braucht unser PC ein neues Betriebs­system, oder wir ein neues Auto




PIK’s Ottmar Edenhofer hat Post bekommen: Klimaökonom Robert Stavins bemängelt Interessenskonflikte bei der Erstellung der IPCC-Berichts-Zusammenfassung

Robert Stavins ist Professor für Umwelt-Ökonomie an der renommierten Harvard Universität im US-amerikanischen Cambridge. Stavins war als Leitautor maßgeblich an der Erstellung des 5. Klimaberichts des IPCC beteiligt. In einem Brief an den Vorsitzenden der Arbeitsgruppe III des IPCC, Ottmar Edenhofer vom Potsdam-Institut für Klimafolgenforschung (PIK), beklagte sich Robert Stavins am 25. April 2014 in seinem Blog An Economic View of the Environment über fragwürdige Änderungen im Zusammenfassungstext des Berichts, die von Nichtwissenschaftlern hinter verschlossenen Türen vorgenommen wurden. Das praktizierte IPCC-System ist laut Stavin ungeeignet, da die Regierungsvertreter von den jeweiligen Staatsinteressen gelenkt seien und Interessenskonflikte unvermeidbar wären. Lange Textpassagen der Wissenschaftler wurden in nächtlichen Hauruck-Aktionen einfach gestrichen, da keine Einstimmigkeit der vielen beteiligten Ländervertreter erzielt werden konnte.

Stavin stellt absurde Verfahrensweisen des IPCC an den Pranger, die das System als ungeeignet entlarven und die Zusammenfassungen der IPCC-Klimaberichte in einem ganz anderen Licht erscheinen lassen. Bereits in unserem Buch “Die kalte Sonne” hatten wir die Interessenskonflikte zwischen Politik und Wissenschaft im IPCC-Betrieb kritisiert. Mit Stavin bestätigt nun ein Insider des IPCC diese Systemschwäche.

Striche

From: Stavins, Robert
Sent: Thursday, April 17, 2014 4:06 PM

TO: Ottmar Edenhofer, Co-Chair, Working Group III, AR5, IPCC
Ramon Pichs-Madruga, Co-Chair, Working Group III, AR5, IPCC
Youba Sokona, Co-Chair, Working Group III, AR5, IPCC

CC:  Rajendra Pachauri, Chairman, IPCC
Jan Minx, Head of Technical Support Unit, Working Group III

FROM:   Robert Stavins

Betreff: Gedanken zum Prozess der Genehmigung für die SPM 5.2 seitens der Regierungen (internationale Kooperation). Gegenstand ist die Summary for Policymakers der Arbeitsgruppe 3 für den 5. Zustandsbericht des IPCC

Dear Ottmar, Ramon and Youba:

Ich schreibe Ihnen heute, um meiner Enttäuschung und Frustration Ausdruck zu verleihen hinsichtlich des Verfahrens und des Ergebnisses des Genehmigungs-Treffens von Regierungsvertretern, auf dem die Repräsentanten der Regierungen der Welt zusammen gekommen waren, um die SPM der IPCC-Arbeitsgruppe 3 zu begutachten, Teile zu überarbeiten oder gänzlich zurückzuweisen. Das dauerte fünf lange Tage (und Nächte). Im Brennpunkt meines Briefes steht ausschließlich ein Abschnitt der SPM, nämlich SPM 5.2, internationale Zusammenarbeit. Es geht nicht darum, andere Abschnitte der SPM zu repräsentieren oder sich darauf zu beziehen.

Auch sollte nichts von dem, was ich jetzt sagen muss, eine negative Äußerung gegen Sie (die Mit-Vorsitzenden der Arbeitsgruppe 3), die Technical Support Unit der WG3 (TSU) oder die Führung des IPCC insgesamt sein. Im Gegenteil, ich dachte, dass Sie alle bemerkenswerte Arbeit geleistet haben während der fünfjährigen Arbeit am AR5, ebenso wie in der Woche in Berlin. Die Probleme, die ich hier zur Sprache bringe, tauchten trotz und nicht wegen ihrer exzellenten Leitung und Unterstützung auf.

Allgemeiner gesagt, die in diesem Brief angesprochenen Probleme sind keine Konsequenz persönlicher Fehler oder Fehler seitens irgendeines der involvierten Individuen. Es ist nicht meine Absicht, die Repräsentanten der Länder zu kritisieren, die Leitung des IPCC, die TSU, die Leitautoren oder die koordinierenden Leitautoren. Die Probleme, die darzulegen ich beabsichtige, sind struktureller, nicht persönlicher Natur.

Als ko-koordinierender Leitautor (CLA) des Chapter 13 (International Cooperation:  Agreements and Instruments) im hier zugrunde liegenden Bericht hatte ich die primäre Verantwortung – zusammen mit meinem anderen CLA Dr. Zou Ji –, den Text für den Abschnitt SPM 5.2 zu entwerfen. Nichts in diesem Brief betrifft Zou Ji, für den ich großen Respekt hege und mit dem zusammenzuarbeiten große Freude gemacht hat. Er könnte irgendeine der unten geäußerten Ansichten teilen oder auch nicht.

Eine weitere Schwäche ist, dass keines der in diesem Brief beschriebenen Probleme für die Technical Summary oder das zugrunde liegende Chapter 13 gilt. Wegen der Probleme mit Abschnitt SPM 5.2 zur internationalen Kooperation im SPM ist es tatsächlich wichtig, dass interessierte Parteien sich stattdessen auf die Technical Summary oder noch besser auf das originale Chapter 13 beziehen.

In diesem Brief werde ich nicht den Begutachtungs- und Überarbeitungsprozess der Regierungen kommentieren, der andere Teile der SPM betroffen hatte, außer der Bemerkung, dass ich im Laufe der Woche überrascht war, bis zu welchem Ausmaß die Regierungen sich berufen fühlten, nach detaillierten Änderungen im Text der SPM zu verlangen und auf diesen zu bestehen, waren diese Änderungen doch rein politischer Natur und standen im Gegensatz zu den wissenschaftlichen Grundlagen.

Die allgemeinen Motivationen der Regierungen zur Überarbeitung – von den meisten, aber nicht allen Delegationen – schienen ziemlich klar in den Plenarsitzungen. Diesen Motivationen wurde explizit Ausdruck verliehen in den „Kontaktgruppen“ [contact groups], die sich hinter verschlossenen Türen mit den Leitautoren der besonders in Frage stehenden Abschnitte der SPM trafen. In diesen Kontaktgruppen arbeiteten die Regierungsvertreter daran, Texte zu unterdrücken, die ihre Position in internationalen Verhandlungen im Rahmen der UNFCCC verschlechtern könnten.

Ich verstehe vollkommen, dass die Regierungsvertreter danach trachteten, ihren eigenen Verantwortlichkeiten gegenüber ihren jeweiligen Regierungen gerecht zu werden, indem sie die Interessen ihrer Länder an vorderste Stelle rückten, aber in einige Fällen stellte sich heraus, dass dies für die wissenschaftliche Integrität der SPM des IPCC problematisch war. Diese Berührung – und manchmal Interferenz – mit dem wissenschaftlichen Prozess des IPCC war besonders schlimm in Abschnitt 5.2 der SPM zur internationalen Zusammenarbeit. Auf diesen Abschnitt in der SPM möchte ich jetzt eingehen.

Am frühen Morgen des 7. April 2014 wurde ein Entwurf der SPM 5.2 fertig gestellt und von dem versammelten Team der CLAs in Berlin genehmigt. Der Entwurf, von dem eine Ausgabe im Item A beigefügt ist, wurde während der vorangegangenen Monate extensiv überarbeitet als Folge von Eingaben seitens Regierungen in aller Welt (an die zahlreiche Entwürfe als Teil des normalen IPCC-Verfahrens gesendet worden waren). Der in Item A gezeigte Entwurf wurde den Regierungen am 7. April zugestellt durch das PaperSmart-System des IPCC.

In der Plenarsitzung der Regierungsvertreter wandten diese ihr Augenmerk der SPM 5.2 um etwa 22 Uhr am Freitag, dem 11. April zu. Als klar geworden war, dass die Delegierten der Länder nicht willens waren, mit der Betrachtung des fraglichen Textes voranzukommen, haben Sie eine Kontaktgruppe ins Leben gerufen, die einen akzeptablen Text ausarbeiten sollte. Sie gaben der Gruppe 2 Stunden, um mit einem solchen Text zu kommen. Die Gruppe hat gegen 23 Uhr mit ihrer Arbeit angefangen und bis 1 Uhr früh am Sonnabend, dem 12. April getagt.

In der Kontaktgruppe waren unter Anderem Repräsentanten aus vielen verschiedenen Ländern, kleinen und großen, armen und reichen. Daher glaube ich nicht, dass die Verantwortung für die aufgetretenen Probleme bei einem bestimmten Land oder auch bei einer Staatengruppe liegt. Im Gegenteil, fast alle Delegierten demonstrierten bei dem Treffen die gleichen Perspektiven und Verfahren, nämlich dass jedweder Text, der als inkonsistent mit ihren Interessen und Positionen bei multilateralen Verhandlungen betrachtet wurde, als unakzeptabel zurückgewiesen wurde. Tatsächlich haben sich viele (vielleicht die Mehrheit) der Repräsentanten in der Kontaktgruppe zur SPM 5.2 als Unterhändler in den UNFCCC-Verhandlungen zu erkennen gegeben. Diese erfahrenen UNFCCC-Unterhändler aufzufordern, einen Text zu genehmigen, der die wissenschaftliche Literatur kritisch unter die Lupe nimmt, an der sie selbst beteiligt waren, erzeugte einen unüberbrückbaren Interessenkonflikt. Folglich wurden die Repräsentanten der Länder durch die Natur dieses Prozesses in eine heikle und problematische Position gedrängt.

Während den zweistündigen Beratungen der Kontaktgruppe wurde klar, dass der einzige Weg der versammelten Regierungs-Repräsentanten, Passagen für die SPM 5.2 zu genehmigen, im Wesentlichen darin bestand, alle „kontroversen“ Passagen zu entfernen (das heißt Passagen, die für eine einzelne Regierung unbequem waren). Dies bedeutete eine Entfernung von fast 75% des Textes einschließlich fast aller Erklärungen und Beispiele unter den fett gedruckten Überschriften. In mehr als einem Fall wurden spezifische Beispiele oder Sätze nur aufgrund des Wunsches von einem oder zwei Ländern entfernt, weil den Regeln des IPCC zufolge die abweichende Meinung eines Landes ausreicht, den gesamten Genehmigungsprozess bis zum Stillstand zu zerreden, solange oder bis jenes Land beschwichtigt werden kann.

Ich verstehe, dass die Repräsentanten der Länder nur ihre Arbeit gemacht haben, so dass ich sie nicht persönlich damit in Verbindung bringe. Allerdings führte der Prozess, dem das IPCC gefolgt ist, in einen anderen Prozess, bei dem politische Glaubwürdigkeit auf Kosten wissenschaftlicher Integrität ging. Die Endversion der SPM 5.2, dem die Kontaktgruppe schließlich zugestimmt hat und der daraufhin in der Plenarsitzung genehmigt worden ist (um etwa 3 Uhr früh am 12. April), findet sich als Anhang B in diesem Brief.

Keine Institution kann alles für alle Menschen sein, und dazu gehört auch das IPCC. Im Besonderen könnte es im Falle der IPCC-Begutachtung von Forschungsergebnissen  in internationaler Zusammenarbeit einen unentrinnbaren Konflikt zwischen wissenschaftlicher Integrität und politischer Glaubwürdigkeit geben. Falls das IPCC mit der Überwachung der Wissenschaft in internationaler Zusammenarbeit bei zukünftigen Zustandsberichten fortfährt, sollte es die Repräsentanten der Länder nicht in die unbequeme und fundamental unerträgliche Position bringen, einen Text zu begutachten, um ihm einstimmig anzunehmen. Genauso sollte das IPCC Leitautoren nicht auffordern, viele Jahre lang viel Zeit aufzubringen, um Arbeiten anzufertigen, die unvermeidlich von den Regierungen in der SPM zurückgewiesen werden.

Ich hoffe klargestellt zu haben, dass es nicht meine Absicht ist, die Repräsentanten der Länder zu verurteilen, die Leitung des IPCC, die TSU die Leitautoren oder die koordinierenden Leitautoren. Das Problem ist struktureller und nicht personeller Natur. Meiner Ansicht nach wird es unter den gegenwärtigen Strukturen und Regeln außerordentlich schwierig, wenn nicht gar unmöglich sein, eine wissenschaftlich gesicherte und vollständige Version der SPM in internationaler Zusammenarbeit zu erzeugen, der den Genehmigungsprozess der Länder übersteht.

Noch deutlicher: Ich fordere das IPCC dringend auf, die öffentliche Aufmerksamkeit auf die von den Leitautoren geschriebenen Dokumente zu lenken, die Gegenstand von Kommentaren der Regierungen (und Experten) und nicht Gegenstand der Genehmigung seitens der Regierung sind. Ich glaube, dass es für die Öffentlichkeit enorm nützlich wäre, die Schlüsselergebnisse der Technical Summary und der individuellen Executive Summaries zu jedem Kapitel anstatt der SPM zu veröffentlichen. Ich weiß das, weil es die Führer des IPCC als in ihrer Verantwortung liegend ansehen, der Öffentlichkeit (und den Politkern) die Ergebnisse der harten wissenschaftlichen Arbeit zu vermitteln, die Hunderte Leitautoren während der letzten fünf Jahre in den Bericht gesteckt haben; und nicht einfach nur die eingeengte Version der SPM, die während der letzten Woche produziert worden ist.

Die Mission des IPCC ist wichtig, und die wissenschaftliche Arbeit hunderter Leitautoren der Arbeitsgruppe 3 für den AR 5 war solide und wichtig, wie die Technical Summary und die zugrunde liegenden Kapitel gezeigt haben. Ich hoffe, dass dieser Brief konstruktiv und hilfreich für die zukünftige Arbeit des IPCC ist.

Freundliche Grüße

Rob

Link zum Original-Brief hier

Robert N. Stavins, Albert Pratt Professor of Business & Government, John F. Kennedy School of Government, Harvard University
Director, Harvard Environmental Economics Program
Director of Graduate Studies, Ph.D. Programs in Public Policy and Political Economy & Government
Co-Chair, Harvard Business School-Kennedy School Joint Degree Programs
Director, Harvard Project on Climate Agreements
Blog: An Economic View of the Environment          SSRN Paper Downloads
Mail: John F. Kennedy School of Government, Harvard University, 79 JFK St., Room L-306, Box 11, Cambridge, MA 02138
Phone: 617-495-1820   E-Mail: robert_stavins@harvard.edu
University Fellow, Resources for the Future Research Associate, National Bureau of Economic Research

Link: http://www.kaltesonne.de/?p=18512

Übersetzt von Chris Frey EIKE

Hinweis des Übersetzers: Ebenfalls bei der “Kalten Sonne” findet sich ein Brief von Richard Tol hier.