1

ZEIT Online Journalist Staud kritisiert „Die kalte Sonne“. Was ist dran?

Die Zeit hat sich in der Vergangenheit bereits ausführlich mit unserem Buch „Die kalte Sonne“ auseinandergesetzt. Dabei positionierte sich die Zeitung ganz klar auf der Seite des Weltklimarats und wischte die von vielen Seiten durchaus berechtigte Kritik an dieser UN-Organisation stets eilfertig vom Tisch. Jedes Mal haben wir uns der Diskussion gestellt, die Vorwürfe geprüft und entsprechend entkräftet.

•   Kommentierung der ZEIT-Artikel “Störenfritz des Klimafriedens” und “Skeptiker im Faktencheck” (10.2.2012)

•   Kommentierung des ZEIT-Online Artikels “Alarmismus its mindestens genauso schlimm wie Skeptizismus”  (21.2.2012)

•   Kommentierung des ZEIT-Artikels “Beweise bitte!” (23.2.2012)

•   Treppenstufen ins Abseits: Wie ‘Die Zeit’ ihre Leser verschaukelt (10.2.2012)

•   Die Zeit nahm sich nicht die Zeit, um auf ‘Die kalte Sonne’ zu warten (6.2.2012)

Anfang März 2012 erhielten wir dann endlich die Gelegenheit, den Zeitlesern unsere Argumente zu erläutern:

•   Unser Artikel in der ZEIT: “Hier irren die Klimapäpste” (4.3.2012)

Die Reaktion auf den Artikel war erschreckend: Es gab nämlich keine. Offensichtlich waren unsere Argumente schlüssig und man zog es daher vor, sich nicht weiter mit unseren Gegenargumenten zu beschäftigen.

Zu den treibenden Kräften der Zeit-Kampagne gegen unser Buch gehörte damals der freie Journalist Toralf Staud (siehe Foto oben rechts), der interessanterweise regelmäßig für das Greenpeace-Magazin schreibt. Ist mit einem solchen Hintergrund eigentlich eine unvoreingenommene Bewertung der wissenschaftlichen Fakten zu möglich? Hier müssen ernsthafte Zweifel angemeldet werden. Aus seinem Wikipedia-Lebenslauf wird weiterhin klar, dass er offensichtlich keinerlei universitäre naturwissenschaftliche Ausbildung vorzuweisen hat, was jedoch im datenintensiven Klimastreit von großem Nutzen wäre.

Nun ist seit der ersten Diskussionsrunde mit der Zeit ein halbes Jahr vergangen, da meldete sich Staud plötzlich erneut und wollte einen langen Fragenkatalog zu unserem Blog www.kaltesonne.de beantwortet haben. Er plane einen kritischen Beitrag auf Zeit Online und würde uns gerne die Möglichkeit einer Kommentierung von strittigen Punkten geben. Sebastian Lüning beantwortete diese Fragen bereitwillig. Der entsprechende Artikel ist heute (10.8.2012) auf Zeit Online erschienen („Forscher fühlen sich von Klimaskeptiker Vahrenholt instrumentalisiert“), und wir wollen die Vorwürfe von Staud hier diskutieren und prüfen.

Manfred Mudelsee und die Tropfsteinhöhlen im Sauerland

Im Juni besprachen wir in unserem Blog eine Arbeit Manfred Mudelsee, bei der es um die Klimageschichte im Sauerland anhand von Tropfsteinuntersuchungen ging (siehe unser Blogartikel „Mittelalterliche Wärmeperiode und Kleine Eiszeit in Höhlentropfsteinen des Sauerlandes“). Wir berichteten damals, dass es in den untersuchten Höhlen Hinweise auf bedeutende klimatische Schwankungen im 1000er-Jahresmaßstab gibt. Hierbei bezogen wir uns auf eine Abbildung in Mudelsee’s Paper (Abbildung 1). Die beschriebenen Schwankungen sind im Rohdatensatz klar erkennbar.

 

Abbildung 1: Sauerstoffisotopen-Daten für drei verschiedene Stalagmiten (rot, grün, blau) für die vergangenen 9000 Jahre. Abbildung aus Mudelsee et al. (2012).

Manfred Mudelsee war zudem als Co-Autor an einer anderen Publikation beteiligt (Fohlmeister et al. 2012), in der zum Teil sogar die gleichen Tropfsteine untersucht wurden (siehe unser Blogartikel „Klimatanz in der Bunkerhöhle während der letzten 10.000 Jahre im Takte der Sonne“). In dieser zweiten Studie erklären die Autoren nun kurioserweise genau das, was Mudelsee nun seltsamerweise versucht abzustreiten: Ja, es gibt Klimaschwankungen im Millenniumsmaßstab, genau wie in der Pionierarbeit eines Teams um Gerard Bond aus dem Nordatlantik, wo sie in einem Science-Artikel 2001 explizit beschrieben worden sind und mit solaren Aktivitätsschwankungen in Verbindung gebracht wurden. Zitat aus Fohlmeister et al. (2001, S. 1704):

“Therefore, climatic-related signals from the North Atlantic (e.g. the hematite-stained grains (HSG) record; Bond et al., 2001) and the Bunker Cave delta18O record are expected to show similar variations (Fig. 5). Cold periods as indicated by increased percentages of HSG indeed coincide in most cases with colder phases in Western Germany (high delta18O values in speleothem calcite).”

Frage zur Plausibilität: Wie konnte Mudelsee die Millenniumszyklen-Interpretation im Fohlmeister et al.-Paper explizit als Co-Autor offensichtlich mittragen, während er nun anscheinend nichts mehr davon wissen will? Wie passt dies zusammen? Was steckt wirklich hinter dieser Kritik?

Ebenso mysteriös ist die im Zeit Online Artikel berichtete Reaktion von Jürg Beer, seinerzeit Co-Autor der wichtigen Nordatlantik-Studie des Bond-Teams:

Einer seiner damaligen Mitautoren aber, der Schweizer Umweltphysiker Jürg Beer, sagt zu den Schlussfolgerungen, die Vahrenholt und Lüning aus der Studie ziehen: “Das ist unseriös. Das kann man nicht machen.”

Mit solch einer pauschalen Kritik ist beim besten Willen nicht viel anzufangen. Weder nennt Beer einen plausiblen Grund, warum die Schlussfolgerungen „unseriös“ wären, noch scheint sich Beer an den Text seines eigenen Abstracts zu erinnern, in dem sowohl die Klimazyklik im Millenniumsmaßstab, als auch die Steuerung durch Sonnenaktivitätsschwankungen ausdrücklich genannt sind (aus Bond et al. 2001):

A solar forcing mechanism therefore may underlie at least the Holocene segment of the North Atlantic’s “1500-year” cycle. The surface hydrographic changes may have affected production of North Atlantic Deep Water, potentially providing an additional mechanism for amplifying the solar signals and transmitting them globally.

Wodurch könnte das Erinnerungsvermögen möglicherweise getrübt worden sein? Hat es vielleicht damit zu tun, dass Jürg Beer mittlerweile als Autor am 5. Klimazustandsbericht des IPCC beteiligt ist?

Meeresspiegelanstieg

Dann schwenkt Toralf Staud zur Frage des Meeresspiegelanstiegs um und wirft uns vor, wir hätten Simon Holgate und Jens Schröter falsch zitiert. Dabei übersieht Staud, dass wir uns hierbei auf Äußerungen beziehen, die schwarz auf weiß in einem Spiegelartikel von Axel Bojanowski vom 25.8.2011 stehen:

“Ob wir seit 1993 eine Beschleunigung haben, ist nicht klar”, sagt John Church vom australischen Klimaforschungsinstitut CSIRO. “Ich halte es für unwahrscheinlich, dass sich der Meeresspiegel-Anstieg ausgerechnet in dem Jahr beschleunigt haben sollte, als Satelliten in Dienst gestellt wurden”, ergänzt Simon Holgate, Meeresspiegel-Forscher am National Oceanography Centre in Liverpool.

In der Tat wurden Satellitenrohdaten nachträglich kräftig bearbeitet werden, um die angebliche Beschleunigung des Meeresspiegelanstiegs in den letzten Jahrzehnten zu erhalten (siehe unser Blogartikel „Nachträgliche Korrekturen der Satelliten-Meeresspiegeldaten: Was nicht passt wird passend gemacht?“). Pegelmessungen können interessanterweise die postulierte „Beschleunigung“ des Meeresspiegelanstiegs nicht nachvollziehen (siehe unsere Blogartikel „Beschleunigte Meeresspiegelanstiege gehören schleunigst in die Mottenkiste“ und „Fallstudien aus aller Welt belegen: Keine Beschleunigung des Meeresspiegelanstiegs während der letzten 30 Jahre“).

Auch der Vorwurf, wir hätten Jens Schröter vom Bremerhavener Alfred Wegener Institut falsch zitiert ist schwer nachvollziehbar. Wiederum diente ein Spiegel-Artikel als Vorlage, diesmal von Markus Becker vom 21.6.2011. Damals ging es um eine neue Studie von Stefan Rahmstorf, der einen beschleunigten Meeresspiegelanstieg an der Küste von North Carolina beobachtet haben will (siehe unser Blogartikel „Senat von North Carolina erteilt Rahmstorfs beschleunigtem Meeresspiegel eine Absage“). Becker schrieb damals auf Spiegel Online:

Doch genau das bezweifeln andere Fachleute. Sie sehen ein Hauptproblem der neuen Untersuchung darin, dass sie letztlich nur auf den Funden von der Küste North Carolinas beruht – was für eine Aussage der globalen Entwicklung zu wenig sein könnte. “Diese Studie eignet sich deshalb überhaupt nicht für Vorhersagen”, meint Jens Schröter vom Alfred-Wegener-Institut für Polar- und Meeresforschung.

An dieser Stelle wird besonders gut erkennbar, dass Toralf Staud in der fachlichen Diskussion kaum drinsteckt und mehr Verwirrung als Hilfe zur Klärung leistet. Er zitiert Schröter in seiner Zeit Online-Kritik:

“Es gibt natürlich Landhebungen und -senkungen”, bestätigt Schröter, wenn man ihn anruft. “Aber die können die Beschleunigung des Meeresspiegelanstiegs in den letzten Jahrhunderten nicht erklären.”

Offenbar merkt Staud gar nicht, dass sich die Diskussion nicht um die Beschleunigung des Meeresspiegels „in den letzten Jahrhunderten“ sondrn „vielmehr „in den letzten Jahrzehnten“ dreht. Denn diese ist klar erkennbar und plausibel zu erklären. Während der Kleinen Eiszeit war es so kalt, dass Gletscher und Polkappen ordentlich zulegten und der Meeresspiegelanstieg aus diesem Grunde zum Stillstand kam, zum Teil sogar sinkende Meeresspiegel zu beobachten waren. Im Übergang der Kleinen Eiszeit zur Modernen Wärmeperiode begannen die Eismassen dann wieder zu tauen und der Meeresspiegelanstieg zog wieder an. Bis etwa 1940 nahm die Geschwindigkeit des Anstiegs immer weiter zu, blieb dann aber ab 1940 ziemlich konstant. In den letzten Jahrzehnten ist daher keine weitere Beschleunigung des Meeresspiegelanstiegs mehr zu erkennen, wenn man verlässliche Pegelmessungen heranzieht und die in fragwürdiger Art und Weise „korrigierten“ Satellitendaten“ einmal außen vor lässt.

Drohende Sonnenflaute

Staud kritisiert in der Folge die Aussicht, dass die Sonnenaktivität in den kommenden Jahrzehnten bis etwa 2030/2040 abnehmen könnte. Eine solche Entwicklung nimmt die Mehrheit der Astrophysiker als wahrscheinlich an, wie wir ausführlich auf den Seiten 298-308 in unserem Buch „Die kalte Sonne“ darlegen und auch in unserem Blog geschrieben haben.

Wieder verdreht Staud die Situation nach Belieben und schreibt:

In Die kalte Sonne bauen die Autoren ihre Argumentation darauf auf, man könne belastbare Prognosen über die solare Aktivität der Zukunft abgeben. Vahrenholt und Lüning verweisen mehrfach auf Sami Solanki vom Max-Planck-Institut für Sonnensystemforschung. Spricht man mit ihm, sagt er, es sei “völlig unmöglich, über den nächsten elfjährigen Sonnenzyklus hinaus in die Zukunft zu schauen”. Aussagen über mehrere Jahrzehnte, wie Vahrenholt und Lüning sie treffen, könne er “nicht unterstützen”.

Staud übersieht hierbei zwei Dinge. Zum einen zitieren wir Solanki lediglich im Zusammenhang mit seinem Nature Artikel von 2004, in dem er zeigen konnte, dass die letzten Jahrzehnte zu den solar aktivsten der letzten 10.000 Jahre gehörten. Zum anderen steht Solanki mit seiner überaus pessimistischen Sichtweise zur Vorhersagbarkeit ziemlich alleine in der Fachwelt dar. Wenn man die Fachliteratur etwas verfolgt hat, wird dies schnell klar. Staud hat es vorgezogen, den Zeit Online Lesern diesen Sachverhalt vorzuenthalten, obwohl ihm mehr als zehn Literaturzitate zu den entsprechenden Publikationen im Vorfeld des Artikels von Lüning alle zur Verfügung gestellt wurden.

Kosmische Strahlung

Schließlich kritisiert Staud noch unseren Umgang mit den Arbeiten von Benjamin Laken. Im Buch gehen wir auf Seite 258 ausführlich auf eine Arbeit von Laken ein, die den bezeichnenden Titel trägt „Cosmic rays linked to rapid mid-latitude cloud changes“. Hier steckt schon im Titel drin, dass in der Studie offensichtlich ein Zusammenhang zwischen kosmischer Strahlung und Veränderung der Wolkenbedeckung gefunden wurde. Über genau diesen Zusammenhang berichten wir in unserem Buch.

Die Erforschung der Wolkenbildung und der mögliche Einfluss von kosmischer Strahlung befindet sich derzeit in einer heißen Phase. Hier besteht noch viel Forschungsbedarf. Da wundert es nicht, dass in anderen Studien von Laken, der Zusammenhang zwischen den beiden Faktoren nicht nachgewiesen werden konnte. Auf den Seiten 260/261 unseres Buches gehen wir auf diese Diskrepanzen ein und diskutieren basierend auf Diskussionen mit Henrik Svensmark mögliche Fehlermöglichkeiten. Diesen Teil hat Staud offenbar überlesen.

Toralf Staud teilt in seinem Zeit Online Beitrag kräftig aus und verwendet allerlei unschöne Begriffe und Floskeln. Am liebsten hätte er, wenn die zahlreichen Kritiker des IPCC einfach abgeschaltet werden könnten. Zusammen mit Manfred Mudelsee träumt Greenpeace-Magazin-Autor Staud schon davon, dass den unbequemen Klimarealisten einfach der “Anspruch auf Teilhabe am wissenschaftlichen Diskurs” aberkannt werden könnte. Ein netter Gedanke. In Nordkorea und Kuba wäre dieses Vorhaben sicher auch durchführbar.

Der Faktencheck zeigt, dass Stauds Kritik wenig stichhaltig ist. Kann es sich eine ansonsten renommierte Redaktion wie Die Zeit eigentlich leisten, solch einen schwachen und persönlich aggressiven Artikel fachlich weitgehend ungeprüft zu veröffentlichen?

Das Foto oben rechts zeigt Toralf Staud. Quelle: Wikipedia

Zuerst erschienene unter Kritik an der kalten Sonne auf Zeit Online: Was ist dran an den Vorwürfen?




Eine Fledermaus ist eine Fledermaus, ist eine Fledermaus, ist ein…! Oder?

FAZ, 09.08.2007:
Fledermaus stoppt Brückenbau
Der für Montag geplante Baubeginn der umstrittenen Waldschlösschenbrücke durch das Unesco-Erbe Dresdner Elbtal ist gestoppt. Das Verwaltungsgericht Dresden gab einem Eilantrag von Naturschutzverbänden statt, die sich um eine bedrohte Fledermausart sorgen. Hier lesen.

FAZ, 09.08.2012:
Fledermaus-Studie: Platzgefahr in der Nähe von Windrädern
Mindestens 200.000 Fledermäuse aus Nordosteuropa lassen jedes Jahr an deutschen Windrädern ihr Leben. Der starke Luftdruck hinter den Rotorblättern zerreißt die Organe, wenn die Tiere nur in die Nähe kommen. Hier lesen.

Zuerst erschienen auf ACHGUT

(Vielen Dank Dr. S.G. für den Hinweis)




Es ist eine Katastrophe, dass ‚Peak Oil’ keine Katastrophe ist

„Die Fakten haben sich geändert, jetzt müssen wir uns auch ändern!” erklärte Monbiot vor Kurzem in einem op-ed für den Guardian mit dem Titel: „Bzgl. Peak Oil lagen wir falsch. Es gibt genug davon, um uns alle zu braten“.

Dass die Tatsachen sich geändert haben, sind Nachrichten für jene von uns, die nie geglaubt haben, dass der Welt die Ressourcen ausgehen. Für Monbiot und seine Mitalarmisten waren steigende Preise jedoch ein Zeichen für die bevor stehende Katastrophe. Es bewies, dass die Verknappung zunahm und zeigte, dass das Öl bald versiegen würde.

Der Fehler der Peak Oil-Alarmisten lag in ihrem Unverständnis, dass die Medizin gegen hohe Preise hohe Preise sind. Wenn die Preise steigen, könnte das tatsächlich ein Signal der Verknappung sein, aber wenn das so ist, bedeuten sie auch Investitionen, Einfallsreichtum und Bemühungen, das Problem zu lösen. Mehr noch, ein hoher Preis für einen Gebrauchsgegenstand macht Alternativen durch Vergleich wettbewerbsfähiger.

Wie ich schon vor zwei Jahren geschrieben habe: „Das Problem ist nicht, dass uns die Ressourcen ausgehen. Dies kann man verlässlich aus der Tatsache schließen, dass selbst wenn eine bestimmte Ressource wirklich besonders knapp werden würde, der Mechanismus des Preisdrucks unabänderlich eine Einschränkung beim Verbrauch wirtschaftlich macht, oder die Suche nach Alternativen befeuert – oder beides.

„Das Ersetzen von Ressourcen gab es schon immer, und es wird wieder geschehen, aber noch öfter geschieht das Gegenteil: verbesserte Produktivität und neue Erfindungen sorgen in Kombination für eine Anpassung an die steigende Nachfrage“.

Genau das war passiert. Wissen schläft nie, und Herausforderungen bzgl. der Versorgung erzeugen einfach ökonomische Anreize für Fortschritt. Wir haben nicht deswegen die Pferde als Transportmittel aufgegeben, weil es plötzlich kein Heu mehr gab. Wir haben sie aufgegeben, weil wir Motorfahrzeuge erfunden haben.

Es war eine vom Belfer Centre for Science and International Affairs an der Harvard Kennedy  School veröffentlichte Analyse der globalen Ölreserven von Leonardo Maugeri, das zu Monbiots Sinneswandel geführt hat. Maugeri macht seinen Punkt bereits im Eröffnungssatz klar:

„Im Gegensatz zu dem, was die meisten Menschen glauben, wächst die Ölkapazität weltweit auf ein so hohes, noch nie da gewesenes Niveau, dass es den Verbrauch überkompensieren könnte. Dies kann zu einer erheblichen Überproduktion und einem steilen Abfall der Ölpreise führen“.

Maugeri zufolge reicht die Kapazität aus, um die im Jahr 2011 geförderten 93 Millionen Barrel pro Tag um die Hälfte zu steigern. Bis zum Jahr 2020 erwartet er eine Ölerzeugung um 111 Millionen Barrel pro Tag und auch dann immer noch eine weitere Steigerung.

Die „Peak Oil”-Theorie, zum ersten Mal 1974 von Marion King Hubbert populär gemacht, einem für Shell arbeitenden Geologen, hat sehr viel für sich, wenn man im Bereich Erkundung, Extrahieren und Verkauf von Petroleum-Produkten tätig ist. Seine Mitarbeiter haben viel zu tun angesichts der Menge neuer Entdeckungen, wie schnell existierende Ressourcen austrocknen und welche Technologie erforderlich ist, um das Produktionsniveau auf einen bestimmten Preis hin festzulegen. Er wies warnend darauf hin, dass leichte Erschließungen immer seltener und die Produktion aus verbleibenden Reserven immer teurer werden, was zu einer Glockenkurve der Produktion mit der Zeit führt.

Hubbert selbst projizierte einen Gipfelpunkt der Ölproduktion, wenn neue Entdeckungen weltweit abnehmen, für das Jahr 1995. Es geschah nicht.

Jedoch wurde die Hubbert-Theorie, passend vereinfacht, unter Umweltaktivisten und linken Antikapitalisten populär, die schrien, dass wir demnächst an irgendeinem Tag einen Gipfelpunkt der Ölproduktion erreichen werden. Danach würden die Preise in den Himmel schießen und wir alle mit dummen Gesichtern herumsitzen, weil wir uns wundern, was mit all den Autos passiert ist. Und das „Zu-Ende-gehen von Ressourcen“, wie sie es sehen, würde dem gierigen Rest von uns gerade recht kommen.

Matthew Simmons, ein Berater der US-Regierung, Mitglied des National Petroleum Council und Mitglied des Council of Foreign Relations, sagte Peak Oil für 2005 vorher. In einer Ironie der Geschichte ging er eine Wette um 5000 Dollar mit dem Journalisten John Tierney ein, dass der mittlere Tagesölpreis im Jahr 2010 200 Dollar betragen würde. Nachdenklich holte Tierney Rita Simon, die Witwe des Ökonomen Julian Simon, mit ins Boot. Wenn Simmons das Jahr 2010 erlebt hätte, würde er 10 000 Dollar verloren haben aus genau den gleichen Gründen, aus denen Paul Ehrlich seine infame Wette mit Ritas letztem Ehemann über die Erschöpfung von Ressourcen verloren hatte.

In einem Bericht aus dem Jahr 2005 für das US-Department of Energy von Robert Hirsch hieß es ebenfalls, dass es zu Peak Oil kommen würde und dass es abrupt dazu kommen würde. Die meisten seiner Experten sagten den Höhepunkt vor dem Jahr 2010 vorher. Darunter waren der zuvor erwähnte Spieler (gambler) Matthew Simmons; Ali Samsam Bakhtiari von der National Iranian Oil Company und Berater des Oil Depletion Analysis Center (ODAC); Chris Skrebowski, ein Gründungsmitglied der Association for the Study of Peak Oil and Gas (ASPO), ein Kollege von Bakhtiara bei der ODAC, Berater der Regierung von UK und Direktor von Peak Oil Consulting; Kenneth Deffeyes, ein Kollege Hubberts bei Shell und emeritierter Professor in Princeton; David Goodstein, ein Physikprofessor am California Institute of Technology und Colin Campbell, ein weiterer Gründer der ASPO und Autor des Entwurfs zum Rimini-Protokoll, worin drakonische Kontrollen der Produktion, Stabilisierung der Importe und Verbrauchsobergrenzen gefordert worden sind.

Der Hirsch-Bericht erschien zusammen mit einem Haftungsausschluss (a disclaimer): „Weder die USA-Regierung noch irgendeine von deren Agenturen noch irgendeiner ihrer Mitarbeiter leistet irgendeine Form der Garantie, wörtlich oder implizit, oder übernimmt irgendeine legale Haftung oder Verantwortung für die Genauigkeit, die Vollständigkeit oder die Brauchbarkeit irgendwelcher Informationen…“

Das war genauso voreilig wie der ganze Bericht. So weit es die bisherigen Vorhersagen [des Zeitpunktes] von Peak Oil betrifft, wählten die meisten Experten Zeitpunkte vor 2012, und bisher haben sie sich alle als falsch herausgestellt.

Der berühmte texanische Ölmann T. Boone Pickens hat im Jahr 2008 vor dem US-Kongress ausgesagt: „Ich glaube wirklich, dass der Höhepunkt mit einer Förderung von 85 Millionen Barrel pro Tag weltweit überschritten ist“.

Auch das war falsch.

Im Jahr 2005 sagte Douglas Reynolds, Professor für Öl- und Energiewirtschaft an der University of Alaska in Fairbanks, Peak Gas für das Jahr 2007 voraus, nach welchem Zeitpunkt die amerikanischen Reserven anfangen würden zurückzugehen. Ironischerweise wählte er genau das Jahr, in dem der große nordamerikanische Schiefergas-Boom begonnen hat. Die technischen Entwicklungen, die den Abbau von Schiefergas ermöglichten – nämlich horizontales Bohren und hydraulisches Brechen – waren nicht neu, und ein Professor mit diesem Fachbereich hätte das wissen müssen.

Dieser Boom war so gewaltig, dass niedrige Ölpreise die größte Sorge von Raffinerien waren, die nicht aus den USA stammendes Öl verarbeiteten.

Früher in diesem Jahr hat Reynolds ungestraft vorhergesagt, dass die Ölpreise innerhalb der nächsten fünf bis zehn Jahre über 200 Dollar steigen werden. Ihnen wird vergeben, wenn sie nicht augenblicklich mit Kanistern hinaus gerannt sind, um Öl zu bunkern.

Dem Maugeri-Bericht zufolge erwartet man von keinem einzigen Öl erzeugenden Land, dass im Jahr 2020 weniger Öl erzeugt wird als im Jahr 2011, mit Ausnahme von Norwegen, UK, Mexiko und Iran. Diese Ausnahmen, wobei erwartet wird, dass sie etwas weniger als heute erzeugen, unterstreichen nur die Gesamtmasse der desaströsen Vorhersagen bzgl. Peak Oil.

„Das Öl ist nicht knapp”, schlussfolgert Maugeri. „Aus rein physikalischer Sicht gibt es riesige Vorkommen konventioneller und nicht konventioneller Ölfelder, die darauf warten, erschlossen zu werden; und kein Peak Oil ist in Sicht. Die wirklichen Probleme hinsichtlich der zukünftigen Ölproduktion liegen oberhalb der Oberfläche, nicht darunter, und stehen im Zusammenhang mit politischen Entscheidungen und geopolitischer Instabilität“.

Und dabei sind die gewaltigen nicht konventionellen Ölreserven noch nicht einmal eingerechnet, die im Moment technisch oder ökonomisch noch nicht erschließbar sind, dies aber genauso abrupt werden können wie das Schiefergas explosionsartig die Bühne betrat. Jene, die heute schon ausgebeutet werden – in Schiefer und gepressten Sanden, sehr ähnlich dem nicht konventionellen Erdgas – sind ökonomisch machbar zu einem Preis zwischen 50 und 65 Dollar pro Barrel, was deutlich unter den heutigen Preisen liegt. Dies, sagt Maugeri, macht sie ausreichend belastbar, um einen signifikanten Rückgang der Ölpreise hervorzurufen“.

Aber nichts davon sind für Monbiot gute Nachrichten. Er gibt zu, dass er falsch gelegen hat, beeilt sich aber hinzuzufügen, dass dies die Wahrheit in keiner Weise weniger bedrohlich macht: „Hier also stehen wir jetzt. Die automatische Korrektur – die Erschöpfung der Ressourcen – die viele Umweltaktivisten an die Wand gemalt haben, wird nicht eintreten. Das Problem, dem wir gegenüber stehen, ist nicht zu wenig, sondern zu viel Öl“.

Lassen Sie sich das mal auf der Zunge zergehen. Jahrzehnte lang haben Umweltaktivisten und Bürokraten der Regierung uns erzählt, dass sie sich vor dem Konsens der Experten verbeugen, um nicht den industriellen Kollaps zu erleben. Jetzt entdecken wir, dass wir in genug Öl schwimmen, um den Planeten zu rösten. Egal wie, unser Untergang steht fest.

Kommt Ihnen das bekannt vor? Um seine Behauptung zu rechtfertigen, dass die Nicht-Katastrophe von Peak Oil jetzt zur Katastrophe der globalen Erwärmung führt, bemüht er einen Konsens der anderen Art.

Aber auch dieser Konsens steht auf Treibsand. Das IPCC klammert sich mit Zähnen und Klauen an seine Ergebnisse, trotz vieler verschiedener Skandale, die Zweifel an der Ehrlichkeit der Mitglieder geweckt hat. Das tut auch der innere Zirkel der Klimawissenschaft, trotz der bekannt gewordenen E-Mails, die zeigen, dass dieser sich mehr darum kümmert, eine konsistente PR-Geschichte zu erzählen und Skeptiker ruhig zu stellen als darum, ihre eigenen schlechten Daten aufzuräumen und die ziemlich großen Schwaden der Klimawissenschaft zu untersuchen, die sie noch nicht erklären können.

Wahrscheinlich habe ich noch mehr zu sagen zur jüngsten Serie des Klimaänderungs-Alarmismus in einer künftigen Kolumne, aber das ist auch nicht sehr überzeugend.

In jedem Fall scheint es so, als ob Wetten gegen den „Konsens“ der Linksaußen-Akademiker, regelwütiger Staatsbürokraten und antikapitalistischer Aktivisten ein ziemlich profitables Nebeneinkommen garantieren.

Zuerst die Kernkraft, und jetzt Peak Oil. Mit der Rate, mit der Monbiot seine Meinung ändert, werden wir alle bald zustimmen, dass die Katastrophe der Nicht-Katastrophe von Peak Oil keineswegs eine Katastrophe ist.

Ivo Vegter

Link: http://dailymaverick.co.za/opinionista/2012-08-07-its-a-disaster-that-peak-oil-is-not-a-disaster

Übersetzt von Chris Frey EIKE




Wie die Klima-Wissenschaft ihre Unschuld verlor

Als Politologe befasse ich mich weniger mit dem wissenschaftlichen Streit um ‘climate change’, obwohl der mir sehr wichtig ist, sondern mehr mit ‘Interessen’, interest groups, die daran beteiligt sind. Das heisst ich analysiere: wer glaubt wem, wer unterstützt wen und was aus welchen Gründen?  Auch die Wissenschaft – jetzt ‘big business’- hat Interessen die man analysieren kann und soll.

In den neunziger Jahren (des letzten Jahrtausends!) habe die Forschungspolitik (science policy) des ‘climate change’ mit besonderem Blick of den IPCC, den International Panel on Climate Change, erforscht. All das im Rahmen globaler und europäischer Energiepolitik.

Mein Argument ist, dass es nicht die Wissenschaft war, die ihre Unschuld verlor, sondern die durch öffentliche Gremien organisierte und finanzierte Klimaforschung. Dannn muss man fragen: Warum? Hier habe ich Probleme. Denn eine Beweisführung braucht mehr Worte, als mir zu Verfügung stehen. Ich muss oberflächlich bleiben. Mein Beitrag ist von Zitaten – auf Englisch – unterstützt.

Forschungspolitik und Klimaschutz

Die Forschungspolitik durch ihre dem Staat engverbundenen Institutionen und besonders die Bürokratien der EU und UN haben sehr dabei geholfen, die Hypothese der menschlich verursachten Klimakatastrophe als feste Wahrheit zu verkünden und begründen.

Das hat dann vielen Interessenten ermöglicht, die Klimabedrohung als Legitimation für viel Politik, besonders im Energiebereich, zu benutzen und um mehr Macht und Kompetenz (durch Umweltschutzregeln, staatliche Investionen und Subventionen) an sich zu bringen.[1] Viele Wissenschaftler haben auch tüchtig mitgeholfen, oft mit gutem Gewissen. Wissenschaftler sind menschlich und so anfällig wie wir alle: beeinflusst von Zeitgeist und Mode und herrschendem Glauben.

Ich beginne mit Hoffnung : einer Pressemitteilung aus Kanada (Juni 2012) von einem klima-skeptischen Journalisten:

The tide of scientific opinion is changing and is about to swamp the proponents of Anthropogenic Global Warming.

Ist das überall wahr? Oder ist es nur Hoffnung? Der Glaube an die kommende Klimakatastrophe ist nicht gleichmässig auf Länder, politische Parteien oder soziale Schichten verteilt. In der naturwissenschaftlichen Forschung, sagt man mir, ist das Klima schon fast ‘old hat’. Der neue Hut ist ‘ecological services’, was nur den weiteren Forschritt der z. Z. beliebten ‘Vermarktung’ der Natur‘ bestätigt.

Jedoch,  in der Finanzindustrie und in Brüssel wird noch tüchtig ‘carbon’ gezählt, gehandelt und geregelt. Profite werden erwartet. Manches hat sich aber geändert:  z.B. treibt man immer mehr Anpassungsforschung (adaptation research) in England;  die noch  ansteigende Zahl von ‘wind mills’ wird immer lauter kritisiert und man hört etwas mehr von den ‘climate sceptics’, wie Fritz Vahrenholt und James Lovelock.

Viele fragen jetzt, ob sich ‘reiche’ Länder mit verschuldeten Staaten, die Nachhaltigkeit und damit eine grüne Energiepolitik, überhaupt noch leisten können. Die Kernkraftindustrie macht sich wieder Sorgen. ETS (Europeam emission trading) ist in der Krise. Und der Oil Refining Industrie, als erstem Industriezweig, hat Brüssel kürzlich versprochen, für sie ein Impact Assessment ihrer decarbonisation Politik anfertigen zu lassen, dem ersten ‘fossil fuel’ Industriezweig, dem dies gelungen ist.

Mein Fazit: Das Schicksal des Klimaschutzes als Energiepolitik wird wohl weiter vom Ausgang politischer Macht und Ideologiekämpfe abhängen, nicht von der Wissenschaft. Diese Kämpfe werden weltweit ausgetragen warden, könnten noch bitterer werden, abrr werden auch weiter hauptsachlich von wirtschaftlichen Interessen und Hoffnungen gesteuert.  

Wahrheit oder Lüge?

Für viele es bleibt daher ein Problem zu entscheiden, ob die drohende Klimakastrophe Wahrheit oder Lüge ist? Oder ist sie nur stark übertriebene Wahrheit?  Dieser Klimastreit ist nicht neu, er fing in der Politik Ende der 80ziger Jahre an. In der Wissenschaftspolitik schon viel früher: aus einem 1979 veröffentlichem Buch – ein report of the energy project at the Harvard Business School (p.108) wies ganz klar auf Klima und Kohle hin. (Quotation 1)

In 1977the National Academy of Sciences warned in a report that the warming of the earth’s temperature due to the ‘greenhouse effect’ from increase carbon dioxide emissions might pose a severe, long-term global threat,…The climatic effects of carbon dioxide release may be the primary limiting factor on energy production from fossil fuels. (R Stobaugh and Daniel Yergin ‘Energy Future’ – a heroic..a truly magnificent book’ said the Wall Street Journal)

Die Klimabedrohung war von Anfang an ein starker Antrieb fúr der der Forschungspolik  allgemein, nicht nur der wissenschaftlichen Forschung. Durch immer schnellere Supercomputer konnte das Klima nicht nur erforscht werden, sondern auch prognostisiert werden. Und diese Ergebnisse – Verkündigungen einer schrecklichen Zukunft – wurden dann von anderen Forschungsgebieten als gegeben angenommen. Fast alle Disziplinen haben bald mitgemacht, und die meisten haben die zukünftige, vom Menschen verursachte Katastrophe des ‘global warming’ als gegeben angenommen. Woher kam der Druck dazu?

Viel Druck kam  von der Wissenschaft selbst – verständlicher Forschungsdrang. Aber der Druck , das Mögliche als feste Wahrheit hinzustellen kam von Aussen,  von den ‘policy-makers’  mit Unterstützung von ‘neuen’ Teilen der Energiewirtschaft, sowie natürlich auch der sich ausbreiteten Umweltschutzbewegung.

Ein mächtiger, weltweiter Interessenverband – keine Verschwörung – entwickelte sich vom Ende der 1980ziger Jahren an: eine unheilige Allianz von Interesse, Glaube und Erwartung.

Die UNEP, die Rio Konferenz der Agenda 21, der 1992 den Klimavertrag mit seinem Kyoto Protocol (1997) verabredete, und natürlich  der IPCC (seit 1988) waren die Haupterfolge dieses ‘Verbandes’. Über den IPCC habe ich noch  mehr zu sagen.

Der Internationale Klima Panel (IPCC)

Er wurde gegründet als Őlpreise stark fielen nach einer langen Zeit hoher Preise. Viele Teile der Energiewirtschaft sahen darin ein Bedrohung. Man suchte nach Gründen, den neuen, ‘sauberen’ , ;high tech’ Energiezweigen zu helfen.

Aus der politischen Analyse dieser Hilfe stammen zwei  Fragen:

1.   Wer brauchte die Klimabedrohung, wer benutzte sie in der Energiepolitik, in der Weltpolitik, im Wahlkampf…. wer glaubte an die Klimabedrohung als wissenschaftliche Wahrheit und wer bekämpft sie in der Őffentlichkeit. Wer blieb kritisch im Privaten?

2.   Und woher kam die Wahrheit, die angeblich die Grundlage des Klimaschutzes ist, eigentlich her?

Die Antwort zu der zweiten Frage ist wichtig:  nicht von der etabiliertenWissenschaft, sondern von der Forschung, Forschung über zukünftige Klimas, die ‘dedicated’ war die Klimagefahr zu beweisen. Hier haben wir, ganz kurz gefasst, die Rolle des IPCC. Bestehende Lösungen brauchten ein Problem.

Wissenschaft und Forschung, das sind meiner Meinung nach unterschiedliche, wenn auch engverbundene Begriffe. Das war meiner eigenen Forschung nach der Fall mit dem Klimaschutz, der eine bestimmte Antwort – eine grosse Bedrohung – suchte und fand. Die ‘policy-makers’ –  gewöhnlich höhere Beamte,  stellten die Frage an die Forschung: Wie können wir das Erwärmen der Erde vehindern? Wie können wir die wirtschaftliche Entwicklung der Welt zu unserem Gunsten beeinflussen? Welche Technologien sollen wir fördern? Wie können wir ‘den Markt’ regulieren damit……und wie können wir die Menschen überreden da mitzumachen, d.h. zu zahlen?

Die Rio Konferenz in 1992 hat daher – ehe wir genug wussten – das Klimaproblem (als Erwärmung) als lösbar angesehen. CO2 wurde schuldig erklärt. Ein ausgezeichnetes internationales Problem, das die Menschheit zusammen lösen müsste und kann, wurde erst erdacht und wissenschaftlich bewiesen. Die Grossmächte hatten schon ‘responses’, d.h, Lösungen bereit hatten, zumindestens im Labor und auf Papier. Kernkraftwerke und solar panels gab es schon.

 Der IPCC und seine Unterstützer

So wurde die Klimaforschung, mit Hilfe von WMO und UNEP, schnell zum ‘Big Business’ des globalen Forschungsbetriebs (the research enterprise), ein wachsendes und stark vernetztes Unternehmen, das auf dem Verlangen noch immer stärkere Computers aufgebaut war und von Angstmachen uber die menschlische Zukunft begleitet war. [2] Dieses Klimaschutzforschungsunternehmen ist fast völlig vom Staat oder Staaten abhängig und ist besonders eng in Meterologiebüros verbunden.  

Dazu kamen nun die ehrgeizigen und schell wachsended Umweltschutzämter, stark von den Vereinigten Nationen, der EU Commission und Umweltschutzverbänden, unterstützt. Diese staatlichen Ämter formulieren ‘science policy‘ für den Klimschutz und so bestimmen die Forschungsfragen und Methoden.

Science policy – wie immer – diente der Politik (science should be ‘on tap and not on top’ sagt man in Whitehall) und auch der Macht, und d.h. auch wirtschaftlichen Interessen und Wünschen, z.B. Vorsprung durch Technik und Steuereinkommen durch Emissionshandel.

Wenn wir verstehen wollen, warum die Klimaforschung so schnell auf katastrophales Erwärmen bestand,  müssen wir daher besonders nach politischen und wirtschaftlichen Gründen suchen. Und bis vor Kurzem gab sehr viele solcher Gründe: innenpolitische, aussenpolitische, Wahlkampf, Steuereinnahmen, Wettbewerb in Industrie und Handel, Entwicklungs-hilfe, Innovationsdruck …und, ganz besonders, schwerwiegende Gründe aus der Energiepolitik.

Aber ob die Energiepolitik die Klimakatastrophe noch lange weiter brauchen wird, darüber sollte man jetzt nachdenken. Dazu mehrere Zitate, fast alle von Mai-Juni 2012.

Since 1950 global energy consumption has increased fivefold and CO2 emissions from the intensive use of oil have increased more than fourfold. The rapid growth in energy consumption and emissions is in conflict with the concept of sustainable development.  (José Antonio Vargas Lleras who will be representing the WEC at the Rio+20 Summit this month. Vom newletter des WEC (World Energy Council ‘ Inside’ 1 June)

Das Wort ‘Nachhaltigkeit’ (sustainability, nicht völlig gleich in Bedeutung), wenn es überhaupt noch Bedeutung besitzt, deuted auf Konflikts zwischen Energietträgern, Gesellschaft und den weltweiten Zielen der Umweltpolitik. Beruht das Verlangen nach Nachhaltigkeit auf Wissenschaft oder auf Glauben?

Meiner Forschung nach beruht die ökologische Modernisierungsidee (deutsch),  oder die der Nachhaltigkeit (UN, international durch Anglo-Saxon translations), auf  ausgewählter Wissenschaft, die von gelenketer Forschung  bedient wird. Die Idee beruht  aber auch auf dem uralten und politisch so nützlichem Glauben, dass die Welt am Menschen zu Grunde geht. Es sei denn, die Menschheit ändere sich und  folge den Mächtigen. Diese Angst vorm Ende der Welt ist nichte Neues. Angst und Rettung (in diesem Fall durch Technik und/oder Enthaltsamkeit) gehen nebeneinander her, besonders im Umweltschutz und ganz besonder im Klimaschutz.

Da die Menschheit leider nicht an einen Gott glaubt, brauchten Weltpolitiker und Umweltschützer etwas Anderes, dass die Wahrheit verkünden und die Menschheit zur Zusammenarbeit überreden kann. Diese zweifelhafte Ehre ist dann der Klimaforschung zugefallen, und besonders dem IPCC, dem auch bald gelang, in 1992, carbon(dioxide) im Völkerrecht als Hauptschuldigen zu erklären und damit auch die Industrieländer zu quasi Verbrechern abzustempeln. Diese sollten dann die Welt wieder retten, mit ‘technology transfer’ und Entwicklungshilfe. Das hat aber nicht ganz geklappt, wie wir jetzt nur zu gut beobachten können.

Der IPCC wurde zur Quelle des Wissens, das diese Globalisierung rechtfertigen sollte. Wenn man genauer  hinschaut sind fast alle die ‘consensus’ Wissenschaftler des Panels von einigen Staaten bezahlte Forscher, viele gehörten oder gehörten Organisationen wie WWF und Greenpeace an. Die IPCC besteht aus Glaubensbrüdern und ausgewählten Wissenschaftler, auch ‘epistemic community’ genannt.  Das ist ja in Ordnung, was aber nicht ‘in Ordnung’ war und ist, ist dass die Verkünder (the ‘users’ des IPCC consensus in Politik und  Wirtschaft), diese Glaubensgemeinschaft als einstimmige (consensus) Wissenschaft darstellten. [3]

Es wird oft vergessen, das der Panel aus 3 Gruppen besteht, working groups 1 und 2  erforschen die wissenschaftlichen Probleme (Klimaveränderung und deren Auswirkungen, alles ‘model based’);  WG 3 aber (‘responses’) arbeite von Anfang an, and den technischen und politischen Lösungen.  Hier sassen die policy-makers; die ökologischen Őkonomen und Techniker, sowie Umweltschützvereine. Hier wurde Policy geplant. Und wie schon erwähnt, die Polik suchte nach einer starken Bedrohung. Die ist dann auch von WG 1 mit Hilfe von (übertriebenen) emission scenarios von WG 3  geliefert worden, mit Hilfe von Computer Modellen, die eigentlich nicht anders als gefährliche Erwärmung vorhersagen konnten. So jedenfalls hab ich den IPCC erlebt und erforscht und könnte noch viel mehr darüber erzählen.

Beweismaterial aus der jetzigen Energiepolitik für den politsichen Nutzen der CO2 Bedrohung

Despite shrinking credibility, rising criticism and increasing politicisation, the European Union goal of cutting carbon emissions within 8 years remains officially in force.  The main official goal of reducing carbon emissions at least 20% below 2005 emissions levels (40% for Germany) deflects attention from the real goal of this radical energy plan: abandoning all fossil fuels, starting with oil and coal, and nuclear power in the case of Germany. (A McKillop, June 2012,)

The US government must step in to finance clean energy R&D as the private markets continue to shy away from such investments, experts said. (EF Online 24 May)

Warum will die EU fossile Energieträger abschaffen? Warum ist der Őlpreis so wichtig? Warum brauchen grüne Investoren in Amerika und auch in Europa, staatliche Hilfe?  

Das kann ich hier nicht im Einzeln behandeln, ich möchte nur darauf hinweisen, dass der IPCC gegründet wurde als Őlpreise scharf fielen nach einer langen Zeit hoher Preise. Während der 70s Jahre und der ersten Hälfte der 80s, konnten  erneuerbaren Energies und die Kernenergie wirtschaftlich Fuss fassen und sich verbreiten, mit relative weniger staatlichen Hilfe, oder wenigsten in der Hoffnung, bald billiger und wettbewerbsfähig zu werden.

Diese Hoffnung wurden Ende der 1980s durch fallende Ől und Kohlepreise vernichtet.  Je ‘stronger the alarmism’, desto leichter ist es ‘giving carbon a price’ zu rechtfertigen, d.h. die fossilen Brennstoffe zu verteuern. Bedrohung erlaubt staatliches Handeln unter dem Vorsorgepinzip und das war von Anfang an mit dem  Glauben verbunden, dass Technik und Politk die Klimakatatrophe verhindern konnte.

 Kurz gefasst, der Staat und die Forschung waren nicht die einzigen wichten Akteure in der Klimapolitik, im Hintergrund und viel wichtiger meiner Meinung nach, stehen die Energiewirtschaft (auch das Verkehrswesen) und besonders deren Innovationshoffnungen. Heute ist daher die wichtige Frage: braucht die EU, braucht die Weltpolitik, noch die Klimakatastophe, um ihre Pläne für Energie und Steuerpolitik durchzusetzen?  Wird der IPCC noch gebraucht?

Wie kurbelt man die Wirtschaft am besten wieder an: durch Sparen und weniger Arbeit, oder durch den  ökologischen Keynesianism? 

Die Grünen wollen jetzt die ganze Welt durch nachhaltigen Entwicklung wirtschaftlich retten, was naturlich zuerst vom Staat bezahlt werden soll. Viel Energiesparen wird wohl notwendig werdan, denn Energie würde viel teuerer. Viele Arbeitsplätze würden geschaffen werden, und die Armut wird weltweit bekämpft. Ob diese Vision verwirklicht werden kann? Menschen, die dies versuchen, würden wohl eine gosse Klimabedrohung nötig haben um ihren Traum zu verwirklichen.  Für diese Idealisten und viele andere, glaube ich, bleibt die Klimabedrohung ein sehr erwünschtes Argument.

Man könnte auch argumentieren, dass der politischer Ehrgeiz der UN und EU Bürokraten, und vieler nationals Politiker, sich Ende der 1980ziger Jahre mit den neuen politischen Kräften der Umweltschutzbewegung verband, um durch staatliche geschaffenen Innovationsdruck,  dem Kapitalismus und der Weltentwiklung unter die Arme zu greifen, d.h. neue Märkte zu finden und Profite zu erarbeiten. Neue lösbare Probleme sind Anreize fur Innovation und Investionen. Innovation könnte durch Vorsprung zum wirtschaftlichen Erfolg führen. (first mover advantage) Die Angst vor der Klimakatastrophe gab vielen Interessen die erwünschte Antwort – innovate, invest and proper, and pay for it by giving carbon a price!

Das ist  ja Theorie der ökologischen Modernisieren, der nachhaltigen Entwicklung, die bis jetzt noch nicht ganz geklappt hat, die aber im Westen noch sehr gepredigt wird.

Die folgenden Zitate aus der heutigen Energiepolitk sollen diese Behauptung unterstützen.

Vom UK Energy Bill kürzlich vorm Parliament und noch nicht in Kraft:

UK Government claims that there ‘will be no blank cheque for nuclear’ but approves eight new nuclear power sites, all on old sides WWF-UK complained ‘the process has been rigged for nuclear’, EDF says more nuclear is ‘crucial for the low-carbon investment the country needs.’ (Financial Times 23 May 2012)

Die Kernenergies ist ein interessantes Beispiel fur die Verflechtung von Wissenschaft und Energiepolitik. Die Kernenergie war und bleibt vom  Anfang an, und mit internen Schwierigkeiten, ein höchst wichtiger  öffentlicher Unterstützer der Klimaangst

With more vision and less caution, the UK could lead the world in marine renewables (wave and tidal) equipment, according to the UK Select Committee on Energy and Climate Change. (Energy World April 2012)

Hier bemerkt man wieder die Hoffnung auf die nächste ‘industrial revolution’ die sich viele Britten, wie z. B. Nicholas Stern, noch vor wenigen Jahren wünschten. Heute hört man nicht mehr so viel davon, doch die Idee , dass grüne Energie uns in der der jetzigen Wirtschaftskrise helfen wird, hört man noch oft.

Auch was man mit dem vielen ausgestossenen CO2 machen soll, beschäftigt viele Forscher.

Whitmarsh’s hypothesis that CCS may become characterised by ‘reluctant acceptance’ in the same way as nuclear power – intrinsically undesirable but a lesser evil, lesser evil  that  catastrophic climate change. (E&E 23 issues 2 and 3,  whole issue on CCS research in UK and Germany, p 345  June 2012. From paper about procedural justice by Duncan McLaren)

Und noch ein Beispiel:

Scottish Widows Investment Partnership, an  investor in BP and Shell, ExxonMobll , Chevron and Total, worried about ‘shareholder disquiet about the environmental impact of ‘fracking’ called for changes in the production of shale gas , i.e. it wants to see the elimination of  the emission of methane because of climate warming. (FT May23, 2012)

Hier erscheint der Umweltschutz wieder als wirtschaftlicher Retter.

Meiner Meinung nach ist das  Investionsproblem jetzt das Hauptproblem mit der nachhaltigen Energiepolitik, aber wer hat so viel Geld? Die Wissenschaft wird in der Finanzpresse kaum erwähnt, man glaubt an die Klimakatatrophe, weil man sie braucht um Geld anzulocken.  Der Wettkampf zwischen verschiedenen ‘decarbonisation’ Technologien wird wohl weiter gehen, wenn auch langsamer. Es ist schon viel Neues gebracht wordenvon vielen Zweigen der Energieforschung. Und die Umwelt braucht doch Schutz!

 Der Klimakampf ist noch nicht vorüber, er könnte sogar noch schlimmer warden.

 In his recent Forbes article, alarmist Steve Zwick, apparently inspired by Hansen’s tirades, wants the scientifically unpersuaded to be hunted down and their homes burned. Daniel Souweine of the Soros-funded Citizen Engagement Lab demands that TV weathercasters who disagree that man is the prime cause of climate change be persecuted until they repent. … Then, in language reminiscent of Mao Tse-tung’s education camps for the non-compliant … Oregon professor Kari Norgaard already argues that scientific disagreement on the cause of climate change is an aberrant sociological behavior that must be treated. (Cornwall Alliance News letter, GW resistance group of Evangelical Christians; 6 June 2012)

Zusammenfassung

Also hatten wir einen ‘gravy train’ zu dem auch sehr viele Forschunggruppen gehören, und der soll jetzt schnell stoppen? Das wird nicht leicht sein! Das Verlangen nach staatlichem Schutz (und dem Schutz durch grüne Ideologie) wird zur Zeit erstmal grösser, schon wegen der Bedrohung durch unkonventionelles  Erdgas und neuen Erdoilquellen, Kohle gibt es sowie so noch genug.

Aber was könnte diese Klimabedrohung ersetzen? Was sonst könnten wir im Westen an die ‘emerging’ Entwicklungsländer verkaufen wenn nicht ‘Nachhaltiges’?

War die Wissenschaft jemals unschuldig? Kann sie das denn, wenn sie staatliche Gelder annehmen muss und wenn sie ‘policy relevant’ sein will?  Trotzdem, in der Geschichte hatten die Skeptiker oder Kritiker am Ende oft das letzte Wort. Doch im Fall Klimaschutz  könnten die Folgen dieser Schuld der westlichen Forschungselite schwerwieged sein, vielleicht nicht für die Welt, about fur die eigene Zivilisation. Ich geben ihnen den Eisenhower zu bedenken, der in 1961warnte:  

"The prospect of domination of the nation’s scholars by federal employment, project allocations, and the power of money is ever present and is gravely to be regarded. … We must also be alert…that public policy could itself become the captive of a scientific-technological elite." (ibid)  

Ich selbst habe zu meiner Überraschung in 1995 die folgende Warnung veröffentlicht:  

The links between science, innovation, and environmental   protection are ambivalent and certainly not linear.  Combined they may reinforce each other. ….. they may turn into a new political force – which may push us blindly towards a kind of globalisation that, by increasing inequality and poverty, may make the world less governable and more violent. …” (Sonja B-C:  The Politics Linking Science, Environment and Innovation, Innovation  8,3, 1995)


[1] Die Politik ist  nicht an zukünftigen Problemen interessiert, die nicht schon lösbar erscheinen. Also muss die Forschung auch auf Lösungen (reponses) ausgerichted sein. Gglobal cooling in 1970 has niemanden besonders interessiert und daher der Forschung keine Mittel verschafft.)

[2] Ich have als novice an dem ersten Treffen dieses Forschungsbetrieb in London teilgenommen. Die empiricists verloren ganz am Anfang ihren Streit mit den computer modellers.

[3]  During a meeting with then IPCC chair Bob Watson in 1995, we discussed the possibility of IPCC reports  including minority  reports from those scientists with doubts and queries, For political reasons this did not happen. Consensus reports are politically more effective, a lesson learn from British domestic politicisation meeting in Washington. The objective of IPCC bureaucrats (chairs and various group leaders) thus became the creation of consensus by means of selection (of contributors and sources) and what  is called in German ‘Formellkompromisse’. This peaked  of course in the Policy-Makers summary, the main IPCC documents used by policy-makers and NGOs.

Sonja Boehmer-Christiansen, Editor Energy& Environment (Multi-Science0; Reader Emeritus University of Hull; formerly senior research fellow, Science Policy Research Unit, University of Sussex

Related Files




In den Sand gesetzt. Der Fall Desertec

Knies brachte seine Vision, die ihn schon seit 1995 verfolgte, damals bei etlichen Medien unter, gab zeitweise zehn Interviews pro Woche. Er war der Darling nicht bloß aller Grünstromenthusiasten, sondern aller Gutmeiner überhaupt. Sollte der brennend heiße Wüstenssaft doch nicht nur Atomkraftwerke überflüssig machen, sondern nebenbei auch noch jede Menge Jobs und Wohlstand über die Länder ausschütten, in denen die riesigen Spiegelpanele aufgestellt würden.

Jetzt ist Desertec, so meldete der Print-Stern, welcher mit den so genannten Renewables grundsätzlich sympathisiert, de facto wohl erledigt: „Die Idee, die ganze Welt mit billigem Strom aus der Sahara versorgen zu können, erweist sich zunehmend als marktferner Spleen.“ Die Fata Morgana aus dem Reich der 1001 erneuerbaren Energiemärchen, an der bezeichnenderweise auch der für seine punktgenauen Prognosen bekannte Club of Rome beteiligt war, hat sich verflüchtigt, und das nachhaltig.

Zwar, eine Zeitlang werden noch etliche Gestalten, die sich seit Jahren von dem aus Spenden und Steuergeldern (z.B. deutschen, 2003 vom damaligen Bundesumweltminister Trittin locker gemacht) lebenden Projekt gut alimentieren, weiterhin „Aufwandsentschädigungen“ und Gehälter absahnen, kräftig Spesen machen und teure Dienstwagen bewegen, was der eigentliche Sinn dieser und ungezählter ähnlicher Unternehmungen ist.

Aber die Vision ist perdue. Bis zu Wikipedia, dessen Desertec-Eintrag von harten Fans des Ventures mit kühnen Vorschusslorbeeren vollgejazzt wurde, hat sich dieser Umstand noch nicht herumgesprochen. Kann man auch nicht erwarten, denn bei Wikipedia selber handelt es sich ja um ein sozialdemokratisch-ökologisches Projekt, dessen Informationen mit Vorsicht zu genießen sind.

Die Gründe für das Desertec-Desaster sind laut Stern mannigfaltig. Technische Riesenhürden und Einsicht in mangelnde Wirtschaftlichkeit spielen eine Rolle, ferner das Abspringen von potentiellen Investoren wie Eon, fehlendes Interesse von Staaten wie Tunesien, die Desertec beglücken wollte, und so fort.

Die Einzelheiten des Scheitern sind uninteressant. Interessant und höchst beunruhigend ist, wie es Desertec gelingen konnte, über Jahre von energiepolitisch engagierten Bürgern, von Politikern, Konzernen und Finanzgruppen ernsthaft als Chance begriffen zu werden. Dass der Ex-Umweltminister und spätere UN-Umweltgrüßaugust Klaus Töpfer dafür schwärmte, ein Mann, der sich von seinem Sprung in den 1988 noch ziemlich verschmutzten Rhein offenbar nie wirklich erholt hat, ist kaum verwunderlich. Töpfer geht es, wie so vielen elder blödmen, einzig und allein um ein Plätzchen in den Geschichtsbüchern, und möge es bloß eine Fußnote sein. Auch die Beschirmung des Unterfangens durch Hans Joachim Schellnhuber vom „Potsdam Institut für Klimafolgendorschung“ ist nur eine Murmel mehr in der Schale mit den üblichen Alarmisten.

Doch wie konnte eine gemeinnützige Stiftung entstehen, in der auch viele Großfirmen mitmachten, wie Siemens oder die Münchener Rück? Warum dachten Manager, die ansonsten ihre Alltagsgeschäfte einigermaßen erfolgreich besorgen, länger als fünf Sekunden über Desertec nach?

Fünf Sekunden genügen nämlich, um die Karte der Region zu erfassen, wo Desertec-Spiegel, -Umspannwerke und –Stromleitungen stehen sollten. Die Spanne reicht von den Maghreb-Ländern sowie Ägypten und Jordanien bis tief in den Mittleren Osten, sogar bis zum Jemen. Länder mithin, von denen jedem politisch auch nur mäßig Interessierten schon vor den arabischen Bürgerkriegen bekannt war, dass sie extrem explosiv sind und über eine junge, ständig erregungsbereite Bevölkerung verfügen, die dem Westen und seiner Lebensweise ressentimentgeladen gegenüber steht. Dass diese Länder ideale Basen für radikale Islamisten, Muslimbrüder und Terroristen jeglicher Couleur bilden und also dem Bedürfnis nach stabilen Stromlieferungen einigermaßen zweckundienlich sein dürften.

Energieerzeugungsanlagen, Umspannwerke und zehntausende Kilometer lange Stromtrassen in gewaltige, fast menschenleere Räume legen zu wollen, wo ein paar mit Sprengstoff hantierende Wüstensöhne den ganzen Laden nach Belieben lahmlegen könnten, ergo zu jeder Erpressung der mit Wüstenstrom Belieferten imstande wären – ein derartiges Vorhaben ist ungefähr so smart, als baute man das zentrale Auslieferungslager für Oberklasse-Wagen der Marke Mercedes in Tirana auf oder als verlegte man die US-Notenpresse ins Hauptquartier der kolumbianischen Drogenmafia. Die Erzeugung von Strom, Lebenssaft der Industrienationen, ausgerechnet in den arabischen Raum verlegen zu wollen, das ist etwa so verantwortbar, als bäte jemand den Türsteher eines Wanderarbeiterpuffs in Ciudad Juárez, ein Weilchen auf die 15jährige Tochter aufzupassen.

Das, und nicht irgendwelche Kalamitäten technisch-finanzieller Art, die Desertec wohl letztendlich den förmlichen Garaus machen werden, ist das Beunruhigende an dem Fall. Dass eine selbst ernannte Elite aus Politik und Wirtschaft, noch verliebter in ihren Öko-Wahn als Tom Cruise in seinen Scientology-Quatsch, sich über Jahre hinweg mit einer Idee befasste, die so unfassbar hirnrissig ist, dass man es gar nicht glauben möchte. Dass die Energiedebatte in diesem Land also, mindestens zu Teilen und zeitweise, von vollkommen inkompetenten Leuten geführt wird, die von Energie oder Geopolitik nicht den Schimmer einer Ahnung haben.

Diese Leute kommen einem vor wie jener Steuermann der Cessna Citation 750, der im März auf dem Landeplatz Egelsbach seinen Co-Piloten kurz vor der Bruchlandung bass erstaunt fragte: „Terrain?!“

Anschließend ist auf dem Voice-Recorder ein sehr lautes Geräusch verzeichnet.

Wolfgang Röhl, zuerst erschienen bei ACHGUT 




Das IPCC gibt zu: die Berichte in der Vergangenheit enthielten viel Müll

Das war die einzige verfügbare Version des IAC-Berichtes, als ich darüber schrieb, also am 31.8.2010. Ich bekenne, ich habe mich auf diesen unveröffentlichten Essay bezogen und ihn modifiziert, als das IPCC vor etwa zwei Wochen seine Presseerklärung bekannt gab. Dies führte zu dem Artikel hier beim American Thinker. Mir war nicht bewusst, dass sich die endgültige Version des Berichtes so stark von der Pre-Publication Version unterscheiden würde.

Mehr: http://www.americanthinker.com/2012/07/ipcc_admits_its_past_reports_were_junk.html#ixzz21T6QIU00

Ich überlasse es Anderen, darüber zu spekulieren, warum das IAC seine Kritik am IPCC bis zu einem Punkt verwässert hat, dass diese Kritik in der endgültigen Version fast unsichtbar war. Ich bemerke auch, dass ich im Essay vom 31.8.2010 den folgenden Vorbehalt geäußert habe, der ebenfalls zu diesem Artikel passt und nicht unerwähnt bleiben sollte:

Der Bericht ist im allgemeinen Stil von Akademikern geschrieben und kommentiert die Mängel in den Berichten von Anderen. Ratschläge mit „verstärken“ oder „verbessern“ versehen Ergebnisse mit einem positiven Beigeschmack, die enthüllen, dass gegenwärtige Management- und Begutachtungssysteme schwach, unangemessen oder sogar korrupt sind. Man muss ein wenig zwischen den Zeilen lesen, um zu bemerken, welche Fehler entdeckt und bekannt gemacht wurden.

Am 27. Juni hat das IPCC ein Statement veröffentlicht des Inhalts, dass man „den Prozess zur Implementierung einer Anzahl von Vorschlägen des IAC vom August 2010 vollendet habe, der von den wissenschaftlichen Akademien der Welt gegründeten Institution, um internationale Agenturen zu beraten“.

Versteckt in dieser scheinbar routinemäßigen Aktualisierung bürokratischer Prozesse ist eine erstaunliche und vollständig unterschlagene Story. Das IPCC ist die prominenteste Quelle alarmistischer Prognosen der Welt sowie von Behauptungen über die vom Menschen verursachte globale Erwärmung. Auf seine vier Zustandsberichte (ein fünfter soll in verschiedenen Teilen 2013 und 2014 veröffentlicht werden) beziehen sich die EPA in den USA und nationale Akademien der Wissenschaft weltweit als „Beweis“, dass die globale Erwärmung der vergangenen etwa fünf Jahrzehnte sowohl vom Menschen verursacht als auch Beleg für eine sich verschärfende Krise ist.

Sollten die IPCC-Berichte ein Betrug sein, wie viele „Skeptiker“ der globalen Erwärmung schon lange behaupten, dann ist die wissenschaftliche Wurzel der Bewegung zur globalen Erwärmung unterminiert – die „Mutter aller Umweltängste“ der Umweltbewegung. Der Krieg von Präsident Obama gegen Kohle könnte unnötig sein. Milliarden Dollar Subventionen für Solar und Wind könnten verschwendet worden sein. Billionen Dollar des persönlichen Einkommens könnten dann weltweit in Kampagnen verschwendet worden sein, um ein „Problem anzugehen“, das in Wirklichkeit gar nicht existiert.

Die vom IAC unterbreiteten  „Vorschläge” bestanden nicht aus kleineren Anpassungen an eine fundamental wissenschaftliche Prozedur. Hier folgen einige der Ergebnisse  aus dem IAC-Bericht aus dem Jahr 2010:

Das IAC berichtete, dass Leitautoren des IPCC es versäumen, „angemessene Überlegungen … zu sorgfältig dokumentierten alternativen Sichtweisen anzustellen“ (S. 20) und dass sie es fehlen lassen an „detaillierten schriftlichen Antworten zu den wichtigsten, von den Herausgebern der Begutachtung erkannten Dingen“ (S. 21), und dass sie „Kommentare der Begutachter nicht sorgfältig bedenken und ihre Antworten nicht dokumentieren“ (S. 22). Vereinfacht gesagt: Die IPCC-Berichte sind nicht wissenschaftlich begutachtet.

Das IAC hat gefunden, dass „das IPCC über keinen formalen Prozess oder über Kriterien verfügt, die Autoren auszuwählen“, und dass die „Auswahlkriterien vielen Antwortenden willkürlich vorkommen“ (S. 18). Regierungsfunktionäre beauftragen Wissenschaftler aus ihren Ländern und „nominieren nicht immer die besten Wissenschaftler unter den Freiwilligen, entweder weil sie nicht wissen, wer diese Wissenschaftler sind oder weil politischen Überlegungen mehr Gewicht verliehen wird als wissenschaftlicher Qualifikation“ (S. 18). Mit anderen Worten: Die Autoren werden von einem „Club“ von Wissenschaftlern und Nicht-Wissenschaftlern ausgesucht, die mit der von den Politikern favorisierten alarmistischen Perspektive übereinstimmen.

Das Umschreiben der Summary for Policy Makers durch Politiker und Umweltaktivisten – ein Problem, auf das die Realisten der globalen Erwärmung seit vielen Jahren hinweisen, jedoch ohne dass dies von Medien oder politischen Entscheidungsträgern beachtet wird – wurde glatt zugegeben, vielleicht zum ersten Mal durch eine Organisation im „Main Stream“ bzgl. der alarmistischen Klimaänderung. „Viele machten sich Sorgen, dass die Neuinterpretationen der Ergebnisse in den Zustandsberichten, wie sie bei der finalen Plenardebatte eingebracht worden sind, politisch motiviert sein könnten“, schrieben die IAC-Auditoren. Die von ihnen interviewten Wissenschaftler fanden ganz allgemein den Synthese-Bericht „zu politisch“ (S. 25).

Wirklich? Zu politisch? Uns wurde doch von jedem gesagt – Umweltaktivisten, Reporter, Politiker und sogar Prominenten – dass die IPCC-Berichte Wissenschaft seien und nicht Politik. Jetzt sagt man uns, dass selbst die in das Verfassen der Berichte involvierten Wissenschaftler – man erinnere sich, sie sind allesamt selbst wirkliche Anhänger der vom Menschen verursachten globalen Erwärmung – fühlten, dass die Zusammenfassungen „zu politisch“ waren.

Das IAC beschreibt folgendermaßen, wie das IPCC zum „Konsens der Wissenschaftler“ kommt:

Plenarsitzungen zur Absegnung der Summary for Policy Makers dauern viele Tage lang und enden üblicherweise mit einem die ganze Nacht dauernden Treffen. Folglich können Individuen mit der größten Ausdauer oder die Länder mit großen Delegationen den größten Einfluss auf den Bericht ausüben (S. 25).

Wie in aller Welt kann von einem solchen Prozess behauptet werden, er umfasse oder repräsentiere einen „echten Konsens der Wissenschaftler“?

Ein anderes, vom IAC dokumentiertes Problem ist der Gebrauch von verlogenen „Vertrauensintervallen“ und Abschätzungen der „Gewissheit“ („certainty“) in der Summary for Policy Makers (Seiten 27 bis 34). Diejenigen von uns, die die IPCC-Berichte unter die Lupe nehmen, wissen, dass dies ein Vorwand ist, als wir es 2007 zum ersten Mal gesehen haben. Arbeiten von J. Scott Armstrong über die Wissenschaft der Vorhersage zeigen eindeutig, dass Wissenschaftler sich nicht einfach um einen Tisch versammeln und darüber abstimmen können, wie sicher sie über einige Vorhersagen sind, und dies dann mit einer Zahl zu versehen wie etwa „zu 80% sicher“. Und doch ist genau dies die Vorgehensweise des IPCC.

Die IAC-Autoren sagen, dass dies „kein geeigneter Weg ist, um Ungewissheit zu charakterisieren“ (S. 34), eine grobe Untertreibung. Unglücklicherweise schlagen die IAC-Autoren ein gleichermaßen betrügerisches Substitut vor, nämlich ein „Level auf der Verständnis-Skala“, was verwaschen für „Konsens“ steht [Original: which is more mush-mouth for „consensus.“]

Ebenfalls auf Seite 34 warnen die IAC-Autoren davor, dass „Schlussfolgerungen vermutlich so vage formuliert werden, dass man sie unmöglich zurückweisen kann. Deswegen haben Statements wie ‚sehr hohes Vertrauen‘ nur einen sehr geringen Aussagewert“. Ja sicher – aber das hält Medien und Umweltaktivisten nicht davon ab, diese Schlussfolgerungen wieder und immer wieder als „Beweis“ anzuführen, dass die globale Erwärmung vom Menschen verursacht ist und eine Krise darstellt … selbst wenn das nicht ganz dem entspricht, was die Autoren sagen.

Schließlich stellt das IAC fest: „das Fehlen [der Darstellung von] Interessenkonflikten und der Verpflichtung zu Auskünften für IPCC-Führer und Leitautoren war eine Sorge, die von einer Anzahl von Personen aufgebracht wurde, die vom Komitee interviewt worden waren oder die es schriftlich eingebracht haben“. Ebenso war man auch besorgt über „die Praxis, dass die für die Kapitel als Autoren verantwortlichen Wissenschaftler ihre eigene Arbeit begutachtet haben. Das Komitee hat die Basis dieser Behauptungen nicht untersucht, weil dies jenseits des Mandats dieser Begutachtung liegt“ (S. 46).

So etwas Dummes, handelt es sich doch bei diesen beiden Themen um große Sachen angesichts kürzlicher Enthüllungen, dass eine Mehrheit der Autoren und Zulieferer zu einigen Kapiteln Umweltaktivisten und keineswegs Wissenschaftler sind. Das ist ein strukturelles Problem im IPCC und könnte die großen Probleme, von denen bisher berichtet worden ist, marginalisieren.

Nun also, am 27. Juni, fast zwei Jahre, nachdem diese Bomben gefallen waren (ohne dass auch nur eine Augenbraue in den US-Medien nach oben gerutscht wäre – man versuche, dies zu googeln), gibt das IPCC zu, dass das alles stimmt und verspricht, es beim nächsten Bericht besser zu machen. Davon ist bisher nichts zu sehen … bleiben Sie dran!

Moment mal!, sage ich hier. Die Nachrichten-Veröffentlichung bedeutet, dass der IAC-Bericht stimmte. Dies wiederum bedeutet, dass die ersten vier IPCC-Berichte tatsächlich unzuverlässig waren. Nicht nur „möglicherweise falsch“ oder „hätten besser sein können“, sondern wahrscheinlich falsch und sogar betrügerisch.

Es bedeutet, dass alle der „Anerkennungen” des Klimakonsens‘ durch die nationalen Wissenschaftsakademien weltweit – die sich ohne Unterschied auf die IPCC-Berichte als ihre wissenschaftliche Basis beziehen – auf falschen oder unzuverlässigen Daten basierte und daher nicht beachtet oder überholt werden sollten. Es bedeutet, dass das „Gefährdungsargument“ [„endangerment finding“] der EPA – nämlich dessen Behauptung, dass Kohlendioxid ein Verschmutzer und eine Bedrohung der menschlichen Gesundheit ist – falsch war und gekippt werden sollte.

Und was ist mit dem nächsten IPCC-Bericht, geplant für 2013 und 2014? Die fast fertigen Entwürfe dieses Berichts zirkulieren bereits seit einigen Monaten. Sie wurden von Wissenschaftlern geschrieben, die von Politikern und nicht auf Basis ihres Rufes ausgewählt worden sind; viele von ihnen haben ihre eigenen Arbeiten begutachtet, und es lag in ihrem Ermessen, Fragen und Kommentare von Personen, mit denen sie nicht übereinstimmten, einfach zu ignorieren. Anstatt „Vertrauen“ werden wir nun „das Niveau auf der Verständnisskala“ bekommen, was genauso bedeutungslos ist.

Und auf dieser Basis sollen wir die Weltwirtschaft dahin transformieren, mit Winden und Sonnenstrahlen zu funktionieren?

Im Jahr 2010 haben wir viel darüber erfahren, dass das, was wir über die globale Erwärmung zu wissen glaubten, kompromittiert und wahrscheinlich falsch ist. Am 27. Juni bekannten sich die Angeklagten schuldig und versprachen Besserung. Aber woher bekommen wir unser Geld zurück?

Joseph L. Bast

Joseph L. Bast (jbast@heartland.org) is president of The Heartland Institute and an editor of Climate Change Reconsidered, a series of reports published by The Heartland Institute for the Nongovernmental International Panel on Climate Change.

Read more: http://www.americanthinker.com/2012/07/ipcc_admits_its_past_reports_were_junk.html#ixzz22bMQFOxp

Link: http://www.americanthinker.com/2012/07/ipcc_admits_its_past_reports_were_junk.html

Übersetzt von Chris Frey EIKE




Eine unbequeme Wahrheit: Während der Kleinen Eiszeit waren die Stürme in Europa stärker als heute

Man malte schaurig-apokalyptische Bilder, welche sich in den Köpfen der verängstigten, unklimatischen Zivilbevölkerung allmählich festsetzen. Nur die wenigsten nahmen sich die Zeit, die ungeheuerlichen Prognosen zu überprüfen. Und diejenigen die es taten, trauten ihren Augen nicht.

Die fachliche Grundlage derartiger Szenarien ist überaus dürftig und wichtige Gegenargumente wurden einfach ausgelassen. Überschattet wurde die ganze Szenerie von möglichen Interessenskonflikten der Protagonisten. Wir haben bereits mehrfach über die verschiedenen Gewerke des Extremwetters berichtet (siehe Artikel-Übersicht und unser Blogbeitrag „Die Versicherungswirtschaft und die Klimakatastrophe: Eine unheimliche Liaison“). 

Heute wollen wir uns einmal die Idee vornehmen, dass Europas Stürme in den kommenden Jahrzehnten immer häufiger und heftiger werden würden. Begründet wird dies mit der zu erwartenden Klimaerwärmung. Hierzu zunächst eine kleine Rückblende in den März 2012, als in Hamburg der „Extremwetterkongress“ stattfand. Die Südwest Presse schrieb damals: 

„Klimaexperten tagen derzeit in Hamburg, um die Entwicklung des Wetters zu diskutieren. Ihre Botschaft ist deutlich: Wetterkatastrophen in Deutschland haben zugenommen – und es wird schlimmer werden. Immer mehr Hagel, Starkregen und Stürme: Analysen des Rückversicherers Munich Re zufolge, die gestern beim “Extremwetterkongress” in Hamburg vorgestellt wurden, müssen wir uns warm anziehen: “Die Daten zeigen eindeutig: Die Zahl wetterbedingter Naturkatastrophen in Deutschland hat sich seit 1970 mehr als verdreifacht”, sagte Peter Höppe, Chef der Munich Re-Georisikoforschung. “Veränderungen in der Atmosphäre tragen einen Anteil daran, dass hier immer mehr Wetterextreme auftreten.” Der Trend setze sich fort. “Für die nächsten 30 Jahre rechnen Klimamodelle in Deutschland vor allem mit einer Zunahme der Sturmintensität und mit mehr Starkniederschlägen, die zu Überschwemmungen führen”, erklärte Höppe.“ 

Und auf Zeit Online war zu lesen: 

„Der [Deutsche Wetterdienst] DWD geht davon aus, dass die Zahl heißer Tage, die Starkniederschläge und die Anzahl der Winterstürme um bis zu 50 Prozent zunehmen.“ 

Auch andere Klimadiskutanten sehen mehr Stürme am Horizont der mittleren Breiten. So veröffentlichte im April 2012 eine britisch-deutsche Forschergruppe um Tim Woolings von der University of Reading in nature geoscience eine neue Studie, in der sie den derzeit schwächelnden Golfstrom als Auslöser von vermehrten Stürmen im östlichen Nordatlantik und in Europa sehen. Durch die Klimaerwärmung würde der Golfstrom allmählich an Kraft verlieren, was dann über Umwege die Sturmtätigkeit befördert, wie Der Standard am 3.4.2012 berichtete (siehe auch Beitrag auf scinexx): 

„Je schwächer die thermohaline Zirkulation ist, desto geringer wird die Zufuhr von warmem Oberflächenwasser in den nördlichen Teil des Nordatlantiks. Dadurch nimmt das Nord-Süd-Gefälle in der Wasseroberflächen-Temperatur zu und beeinflusst somit auch das Temperatur-Gefälle in der unteren Atmosphäre. Dieser so genannte Temperaturgradient ist sehr wichtig für die Entstehung von Tiefdruckgebieten. Je höher der Temperaturgradient, desto mehr potentielle Energie steht für die Entwicklung eines Sturms zur Verfügung. Die Stürme können dadurch extremer werden.“ 

Aber wie kamen die Forscher auf diesen Zusammenhang? Nun, sie verwendeten einen ganzen Strauß der offiziellen IPCC-Klimamodelle. Und eben diese Modelle mussten in der Vergangenheit sehr viel Kritik einstecken (siehe z.B. unser Buch „Die kalte Sonne“). Weder können diese Modelle die Klimageschichte der letzten 10.000 Jahre reproduzieren, noch haben sie den Erwärmungsstop seit 1998/2000 vorhergesagt. Sollten eben diese fehlerhaften Modelle nun wirklich in der Lage sein, die Sturmentwicklung korrekt vorherzusagen? Es dürfen Zweifel angemeldet werden. 

Schon gibt es die ersten, die auf den Sturmangst-Zug aufspringen und das ihnen vermeintlich drohende Leid öffentlich beklagen. Hierzu gehört beispielsweise Christoph Rullmann von der Schutzgemeinschaft Deutscher Wald, der jetzt dringend Hilfe für die Buche fordert. Nachdem das Waldsterben der 1980er Jahre durch den Einsatz von Filtern auf den Kraftwerks- und Fabrikschloten in letzter Sekunde noch einmal abgewendet werden konnte, drohe der Buche nun neues Ungemach, sagte Rullmann am 3.2.2012 im Deutschlandradio

„Aber diese Entwicklung, die sozusagen für den Wald positiv sich gestaltet hat, die wird jetzt überlagert durch die Veränderungen des Klimawandels, der zum Beispiel durch Stürme, durch diese Trockenereignisse, die wir immer stärker haben – wir hatten ja auch wieder dieses Jahr ein sehr trockenes Frühjahr, und das belastet natürlich die Wälder extrem.“ 

Und auf Zeit Online: machte sich bereits Claudia Kemfert Sorgen, ob die Windmühlen mit den von den Modellierern geplanten Stürmen wohl klarkommen werden: 

„Die Zunahme extremer Wettereinflüsse habe auch Auswirkungen auf die Energieversorgung: Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung sagte, dass die Anfälligkeit für Naturkatastrophen steigen werde, weil Deutschland in den kommenden vier Jahrzehnten den Anteil der erneuerbaren Energien auf 80 Prozent erhöhen wolle. Die Windgeschwindigkeit beispielsweise werde zeitweise geringer, dann wieder stärker als bisher. Das sei für die Windkraftanlagen problematisch, sagte Kemfert. Extreme Stürme könnten die Stromleitungen beeinträchtigen. Die Zunahme extremer Wetterphänomene bringe die Energiewende zwar nicht in Gefahr, aber man müsse sich auf eventuelle Ausfälle vorbereiten.“ 

Zeit für einen Faktencheck 

Es wäre also in der Tat nicht ganz unwichtig zu wissen, was da in den kommenden Jahren und Jahrzehnten auf uns zukommt. Also: Zeit für einen Faktencheck. Um es noch einmal zu betonen: Bei fast allen der oben skizzierten Aussagen handelt es sich um theoretische Projektionen für die Zukunft. Da man bei virtuellen Welten aber nie so ganz sicher sein kann, sollte sich ein jeder Modellierer verpflichtet fühlen, die Eckwerte seiner Berechnungen mit der Realität abzugleichen. Wenn man im Artikel des Standard zur oben genannten Golfstrom-Studie schmökert, bekommt man eine erste Ahnung davon, dass ein solcher Arbeitsschritt wohl notwendig ist: 

„Meteorologen und Ozeanologen in aller Welt müssen sich nun Gedanken machen, wie sensitiv ihre Modelle sind. Denn trotz Übereinstimmungen im Verhältnis zwischen den Änderungen im Ozean und in der Atmosphäre weichen die einzelnen Modelle im Ergebnis teilweise stark voneinander ab.“ 

Ganz so toll scheint es also doch nicht zu passen. Eine Grundcharakteristik der theoretischen Rechnungen scheint zu sein, dass ein wärmeres Klima in den Computermodellen auf komplexe Art und Weise eine Steigerung der Sturmtätigkeit in mittleren Breiten hervorruft. Ein durchaus legitimer Ansatz könnte man meinen, warum auch nicht. Bevor man nun jedoch sehr viel Arbeitszeit und riesige Forschungsgelder in die Ausarbeitung dieser Arbeitshypothese steckt, sollte man zuvor noch einen wichtigen Plausibilitäts-Check durchführen. 

Und der liegt eigentlich auf der Hand: Wenn warme Temperaturen mehr Stürme in unserer Region produzieren, dann müsste es zu kälteren Zeiten doch entsprechend windstiller gewesen sein. Dabei mangelt es nicht an geeignetem Fallbeispiel-Material für diese Überprüfung: Während der Kleinen Eiszeit, die von 1400 bis 1850 andauerte, lag die Temperatur um etwa ein Grad unter dem heutigen Niveau. Also eigentlich doch kein Problem. Man nehme ein paar Studien über die Sturmhistorie der letzten 400 Jahre und los geht’s. Man möchte meinen, dass die diversen Sturmintensivierungs-Vertreter diesen simplen Plausibilitäts-Check doch sicher durchgeführt haben. Oder etwa nicht? 

Die traurige Wahrheit: Gerade diesen Arbeitsschritt hat man offenbar ausgelassen. Wir wollen uns daher nützlich machen, und den Check hier nachholen. 

Im Juli 2012 berichteten wir an dieser Stelle über die stürmische Vergangenheit der französischen Mittelmeerküste. Ein französisches Forscherteam um den Geologen Pierre Sabatier hatte untersucht, wie sich Stürme und Erderwärmung in der Region historisch zueinander verhalten haben. Das überraschende Resultat der Studie: Die Stürme traten bevorzugt in Kälteperioden auf. Die Sonnenaktivität spielte dabei eine wichtige Rolle: Immer wenn die Sonne schwächelte, wurde es kalt und stürmisch. Wenn die Sonne wieder aufdrehte, stiegen die Temperaturen und der Wind flaute wieder ab (siehe unseren Blogartikel „Wann gab es die schlimmsten Stürme an der französischen Mittelmeerküste? Immer wenn die Sonne schwächelte und die Temperaturen fielen!“). Hierzu passt eine Studie des Science & Public Policy Institutes (SPPI), das zusammen mit CO2Science Frankreichs Sturmentwicklung während der letzten Jahrhunderte analysierte. Unter anderem nahmen sie dabei auch den Golf von Aigues-Mortes an der Mittelmeerküste unter die Lupe. Die beiden sturmreichsten Phasen ereigneten sich hier 455 n. Chr. sowie 1700-1900 n. Chr., also während der Kälteperioden der Völkerwanderungszeit sowie der Kleinen Eiszeit.

Ganz offensichtlich suggerieren hier die theoretischen Modellierungsbemühungen etwas, was es in der Realität gar nicht gegeben hat. Die Sturmreichen Phasen Europas fielen nämlich die Kältephasen, wohingegen die Stürme in den warmen Zeiten abebbten. 

Eine ähnliche Situation finden wir in den Niederlanden. Auch hier war die Kleine Eiszeit sehr viel sturmreicher als die nachfolgende Wärmephase (siehe unser Blogartikel „Die kräftigsten Stürme gab es in Holland während der Kleinen Eiszeit“). Hiermit kompatibel ist eine neue Studie von Stephen Cusack von Risk Management Solutions, die im Juni 2012 im Fachmagazin Climate Change erschien. Cusack konnte zeigen, dass die Stürme in den Niederlanden einem etwa 50-Jährigen Zyklus folgen und derzeit in einer Rekordflaute stecken, die es in den letzten 100 Jahren in dieser Art noch nicht gegeben hat. Die Studie wurde u.a. auf Spiegel Online und notrickszone besprochen. 

Auch für Großbritannien gibt es einen Überblick zur historischen Sturmentwicklung. Eine entsprechende Studie wurde im Mai 2012 von SPPI und CO2Science veröffentlicht. Während des 20. Jahrhunderts traten in dieser Region zwei besonders sturmreiche Phasen auf, nämlich in den 1920er und 1990er Jahren. Da diese Sturm-Maxima zu ganz unterschiedlichen Temperaturniveaus entstanden, kann die Klimaerwärmung hier offensichtlich keinen Einfluss genommen haben. Schaut man zudem in Großbritannien in Richtung Kleine Eiszeit, so wüteten auch hier die allerschlimmsten Stürme während dieser natürlichen Kältephase. 

 
 

Abbildung 1: Entwicklung von sehr starken Stürmen auf den Britischen Inseln im 20. Jahrhundert. Quelle: SPPI nach Allan et al. (2009) 

Keine Zunahme von Stürmen in Europa 

Aber die Modellierer sind nicht nur in die Warm-Kalt-Falle getappt. Wenn man schlimme Stürme für die Zukunft vorhersagt, müsste man doch auch in den letzten 40 Jahren diesen Trend bereits bemerkt haben, denn dies soll ja die Zeit gewesen sein, wo Treibhausgase angeblich die Temperatur fast im Alleingang ein halbes Grad nach oben gedrückt haben. 

Klaus-Eckart Puls hat sich durch Pressemitteilungen und Medienartikel gewühlt, um herauszufinden, ob die verschiedenen wissenschaftlichen Stellen in Deutschland schon einen solchen Anstieg der Sturmtätigkeit bei uns registriert haben (siehe Berichte auf EIKE und Schmanck). Das Ergebnis fällt deutlich aus: Nein, einen Trend zu stürmischeren Zeiten ist derzeit weit und breit nicht in Sicht. 

Olaf Stampf schrieb im Spiegel 2007 in seinem Artikel „Abschied vom Weltuntergang“:

Unbegründet ist wohl auch die weitverbreitete Befürchtung, dass im Treibhausklima Superstürme mit nie dagewesener Wucht die Dörfer und Häuser verwüsten werden. Aus den gegenwärtigen Langzeitsimulationen lässt sich ein solcher Trend jedenfalls keinesfalls ableiten. “In unserem Computermodell brauen sich weder mehr Stürme noch stärkere Stürme über uns zusammen”, versichert Jochem Marotzke, Direktor des Hamburger Max-Planck-Instituts für Meteorologie, eines weltweit führenden Zentrums der Klimaforschung. “Nur die Zugbahnen der Tiefdruckgebiete ändern sich geringfügig – in Skandinavien wird es stürmischer, am Mittelmeer etwas ruhiger.” 

Auf der Webseite der Wirtschaftswoche lesen wir: 

Dass beispielsweise Stürme weltweit zugenommen hätten, kann Hans von Storch vom Meteorologischen Institut der Universität Hamburg und selbst Autor für den Weltklimarat, nicht bestätigen. „Bei der Anzahl von Taifunen in Asien, Polarstürmen und Starkwinden über der Nord- und Ostsee hat unser Team für die vergangenen Jahre keine Zunahme festgestellt“, sagt von Storch. Auch in den nächsten 20 Jahren werde der Anstieg so gering sein, dass er nicht einmal messbar sei. 

Der Deutsche Wetterdienst (DWD) berichtete am 21.12.2009 in einer Pressemitteilung: Insgesamt ist laut DWD im vergangenen Jahrzehnt [2000-2009] aber keine Zunahme der großräumigen Stürme festzustellen. Zwei Jahre zuvor hatte die Organisation am 22.1.2007 in einer Pressemitteilung bereits erklärt: “Betrachtet man die Stürme und Orkane der letzten 30 Jahre, so hat bislang weder deren Häufigkeit noch deren Intensität zugenommen“. 

Zum gleichen Ergebnis kommt eine Untersuchung von Helmut Kraus und Ulrich Ebel: In den letzten 200 Jahren hat es über dem Nordatlantik ein ständiges Auf-und-Ab der Sturm-Aktivitäten gegeben. Selbst die extreme Orkan-Häufigkeit um 1990 wurde schon deutlich früher um 1890 sowie um 1915 übertroffen. Ein Klima-CO2-Signal ist dabei bis heute nicht erkennbar: “…daß die Intensität der Stürme in der Deutschen Bucht einer natürlichen Multidekadenschwankung unterliegt, aber in den letzten 120 Jahren keinerlei mit einer Klimaänderung zusammenhängenden Trend zeigt“. 

Auch das Helmholtz-Zentrum Geesthacht hat Interessantes herausgefunden, wie das Institut in einer Pressemitteilung vom 16.9.2012 verbreitete: 

Wissenschaftler am GKSS-Forschungszentrum Geesthacht haben gezeigt, daß die Häufigkeit von polaren Wirbelstürmen im Nord-Atlantik, so genannten Polartiefs, im Zuge der globalen Erwärmung abnehmen kann. 

Eine Frage an alle Versicherungsmitarbeiter, Extremwetterforscher und Medienschaffende, die weiterhin eine Zunahme der Stürme in Deutschland und dem Rest Europas favorisieren: Wie redlich ist es eigentlich, die in diesem Beitrag angeführten Gegenargumente einfach so zu ignorieren? Wäre es nicht endlich an der Zeit, sich ernsthaft mit den Einwänden zu beschäftigen? 

Mit Dank an Klaus-Eckart Puls für Materialbereitstellung. 

Weitere Papers zur Sturmdiskussion gibt es auf Popular Technology.net

Dr. Sebastian Lüning; zuerst erschienen bei Die Kalte Sonne




Je mehr Sonne, umso teurer der Strom!

Strahlende Sonne, blauer Himmel – das ideale Wetter für die Sommerferien oder auch den Urlaub zu anderer Jahreszeit. Also großes Schwelgen, Bombenstimmung, Erholung pur. Aber wissen Sie auch, dass soviel schöne Sonne zu einer hässlichen Stromrechnung führt? Solarstrom nämlich ist der teuerste Strom überhaupt. Und der wird uns allen zwangsweise geliefert und mit dem allgemeinen Strompreis persönlich in Rechnung gestellt. Ausgerechnet die Kapazität zur Erzeugung dieses teuersten Stroms wird Ende 2012 (mehr als 32 Gigawatt) die von Strom aus Windkraft (voraussichtlich 31 Gigawatt) überflügelt haben. So geht es aus Zahlen der Bundesnetzagentur vom 20. Juli hervor. Sie übersteigt dann auch die Erzeugungskapazität von herkömmlichem Strom aus Steinkohle, Braunkohle, Uran oder Gas.

Der Jubel der Subventionsgewinnler über das Traumwetter im Mai

Wohl noch gut in Erinnerung sind die zehn Tage Traumwetter am Stück im Mai dieses Jahres: wolkenloser Himmel über ganz Deutschland und eine Sonne, die sämtliche Fotovoltaik-Anlagen (und ihre Betreiber) so verwöhnte, wie es diese noch nicht erlebt hatten. Die subventionsgemästete Branche bejubelte besonders den 25. Mai: Erstmals hätten die Solaranlagen zwischen Flensburg und Berchtesgaden mittags eine Gesamtleistung von mehr als 20.000 Megawatt geliefert. Aus dem   Internationalen Wirtschaftsforum Regenerative Energien (IWR) in Münster* verlautete: „Das ist ein Rekord.Es gibt kein anderes Land auf der Erde, in dem Solaranlagen mit einer Leistung von 20 000 Megawatt Strom produzieren.“[KPK2]  Gemeinerweise tun sie das aber nur sehr, sehr gelegentlich. Den ständig nötigen Strom-Grundbedarf kann man mit solchem unzuverlässigen Strom nicht decken, also die sogenannte Grundlast nicht sicherstellen.

Wind und Sonne liefern nur einen Ab-und-zu-Strom

Für die Grundlast taugen auch Windstromanlagen nicht, dafür braucht man Kohle- und Kernkraftwerke. Nur die konventionellen Kraftwerke sind in der Lage, für einen stabilen Netzbetrieb zu sorgen. Wind und Sonne liefern nur einen Ab-und-zu-Strom. Ein Kohle- und Kernkraftwerk gibt die installierte Leistung ganzjährig ab, eine Windstromanlage liefert nur Strom, wenn auch Wind weht, eine Fotovoltaikanlage nur, wenn die Sonne scheint. Nennleistung und tatsächliche Leistung klaffen weit auseinander. Aber ein Industriestaat und eine Wohlstandsgesellschaft braucht nicht nur ab und zu Strom, sondern ständig, ohne Unterbrechung.

Nur herkömmliche Kraftwerke sichern die Stromversorgung

Da aber die  CO2-freien Kernkraftwerke  in Deutschland verschwinden sollen („Energiewende“), müssen stattdessen vor allem mehr Kohle- und Erdgaskraftwerke gebaut werden. Die jedoch stoßen das (nach Lesart der Öko-Bewegten und der Scharlatane in Politik und Wirtschaft abscheuliche) Klimakiller-Gas CO2 aus. Aber den Ausstoß dieses Schreckensgases zu verhindern, ist immerhin die Hauptbegründung für die massive Subventionierung von Strom mittels Wind und Sonne durch das Erneuerbare-Energien-Gesetz EEG. Also müssten doch gerade Kohle- und Erdgaskraftwerke verschwinden und ersetzt werden – ersetzt werden durch Kernkraftwerke. Über diese zwingende Logik gehen die Scharlatane dann gerne hinweg. Doch richten sie mit dieser ihrer Widersprüchlichkeit wenigstens nicht noch mehr Schaden an, sondern tun sogar recht daran, denn nur die herkömmlichen Kraftwerke können die stetige Versorgung mit Strom sicherstellen. Der CO2-Ausstoß ist dabei ohne Belang, denn die Behauptung, CO2 heize das globale Klima auf, ist nicht nur eine Mär, sondern, wie schon oft erläutert, ein groß angelegter Betrug.

Ohne Grundlast-Kraftwerke funktioniert es nicht

So bedeutet also die "Energiewende", dass die (ebenfalls grundlastfähigen) Kernkraftwerke  durch Kraftwerke mit fossilen Brennstoffen ersetzt werden, weil ohne diese Grundlastkraftwerke die Stromversorgung durch Wind und Sonne nicht funktioniert. Grundlastkraftwerke sind solche Stromerzeuger, die möglichst ohne Unterbrechung und möglichst nahe an ihrer vollen Kapazität (also unter „Volllast“) betrieben werden. Dafür prädestiniert sind Kernkraftwerke und Braunkohlekraftwerke, denn  ihre Fixkosten sind hoch und ihre Stromgestehungskosten vergleichsweise niedrig. Zur näheren Erläuterung von Grundlast, Mittellast, Spitzenlast bzw. Volllast habe ich dies gefunden:

Was die Grundlast bedeutet

„Ähnlich wie beim Verkehr gibt es auch beim Verbrauch von Strom Stoßzeiten und Flauten. Morgens, mittags und abends erreicht der Stromverbrauch Spitzenwerte. Nach Mitternacht ist er dagegen besonders niedrig. Unterschiedliche Kraftwerkstypen decken diese Schwankungen ab. Sieht man sich beispielsweise die Kurve der Stromnachfrage eines Tages an, wird schnell deutlich, dass unterhalb des Minimalwertes eine bestimmte Leistung rund um die Uhr nachgefragt wird. Diese Leistung bezeichnet man als Grundlast. Die dafür eingesetzten Kraftwerke, die so genannten Grundlastkraftwerke, sind ständig in Betrieb. Zu diesen Dauerläufern gehören vor allem die Braunkohle- und Kernkraftwerke, aber auch Laufwasserkraftwerke. Aufgrund der „relativ geringen Brennstoffkosten“ sind sie besonders für den Grundlastbereich geeignet. Unter diesen Bedingungen kann aber nur kostengünstig Strom produziert werden, wenn die Anlagen fast ohne Unterbrechung mit voller Leistung betrieben werden.“

Wer die Spitzenlast sichert

„Das Diagramm der Tagesbelastung zeigt, beispielsweise zur Mittagszeit oder am frühen Abend, auch Phasen besonders hoher Netzbelastung, die meist nur kurz andauern. Zur Deckung dieser Spitzenlast werden Kraftwerke eingesetzt, die bei plötzlichem Bedarf in wenigen Minuten ihre volle Leistung bringen. Diese Sprinter unter den Stromerzeugern sind allerdings nicht nur schnell, ihr Strom ist auch besonders teuer. Der Grund: Sie arbeiten immer nur für kurze Zeit, die übrige Zeit stehen sie still und verdienen kein Geld. Zu den Spitzenlasterzeugern zählen zum Beispiel die Pumpspeicherkraftwerke und Gasturbinenkraftwerke.“

Wofür die Mittellast gebraucht wird

„Zwischen der kurzfristig auftretenden Spitzenlast und der andauernden Grundlast liegt im Tagesbelastungsdiagramm der Bereich der Mittellast. Die dafür arbeitenden Mittelleistungskraftwerke werden in Zeiten besonders geringer Belastung, also in der Regel nachts, abgeschaltet oder zumindest auf eine deutlich geringere Leistungsabgabe heruntergefahren. Die stundenweise Belastung des Stromnetzes ist vorhersehbar und wird vor allem von Steinkohle-Kraftwerken abgedeckt. Doch nicht nur im Tagesverlauf ändert sich der Strombedarf. Im Wochenverlauf dominieren die Werktage, und im Winter können niedrige Temperaturen und die langen und dunklen Nächte genauso für eine höhere Stromnachfrage sorgen wie die immer mehr verbreiteten Klimaanlagen an heißen Sommertagen. Die Verbrauchskurve sieht im Jahresverlauf also ganz unterschiedlich aus.“  (Quelle: http://amprion.net/grundlast-mittellast-spitzenlast

Wind- und Sonnenstrom nötigen zum Aufbau einer Doppelkapazität

Die Volllaststunden, die für Windkraft- und Fotovoltaik-Anlagen erreichbar sind, sind sehr gering. Und weil Wind- und Sonnenstrom die stets benötigte Grundlast nicht zu liefern vermögen, aber gesetzlichen Vorrang genießen und vom marktwirtschaftlichen Wettbewerb befreit sind, müssen für zusätzliche Windkraftwerke und Fotovoltaikanlagen stets auch zusätzliche Kraftwerke bereitgehalten werden, die in der Lage sind, die Grund-, Mittel- und Spitzenlast zu tragen, wenn Wind- und Solarkraftwerke das nicht schaffen. Wind und Sonne können also kein herkömmliches Kraftwerk ersetzen. Das bedeutet nichts anderes, als dass Deutschland glaubt, es sich leisten zu können, einen doppelt so großen Stromerzeugungsapparat aufzubauen, als wirklich benötigt wird. Ziemlich töricht, nicht wahr?

Ohne herkömmliche Kraftwerke gäbe es Stromausfälle

Rainer Brüderle, der Vorsitzende der FDP-Bundestagsfraktion, weiß das durchaus. Er nannte es im Mai  „ein überaus ehrgeiziges Ziel“, bis zum völligen Abschalten der Kernkraftwerke 2022 den Anteil der erneuerbaren Energien an der Stromversorgung auf 40 Prozent zu steigern, und fügte hinzu: „Wir werden eine Reihe von Gas- und Kohlekraftwerken bauen müssen – möglicherweise mehr, als wir zunächst dachten.“[KPK3]   Aber im Jahr 2050 soll fast die gesamte Stromversorgung in Deutschland durch „erneuerbare“ Energien bewerkstelligt werden. Dann werden noch mehr Gas- und Kohlekraftwerke gebaut werden müssen, um eine kontinuierliche Stromversorgung aufrechtzuerhalten. Wenn nicht, geht das Licht aus, auch der Kühlschrank, das Fernsehgerät. Und vieles andere mehr.

Dr. Klaus-Peter Krause, zuerst erschienen in "Freie Welt"




Versetzt dem Hype um die globale Erwärmung den Todesstoß: kritisches Denken

Nichts zerschmettert ein Argument schneller als eine Frage, die ein klaffendes Loch in der zugrunde liegenden Voraussetzung für dieses Argument enthüllt. Man beachte die überaus offensichtliche Entgleisung in diesem Beispiel:

„Wir müssen etwas gegen die Ausbreitung von Geistern tun, die in letzter Zeit zu einer noch nie da gewesenen Anzahl von Menschen mit Alpträumen führt. Dieses Problem führt zu weit verbreiteter Schlaflosigkeit, was wiederum zu einem Nachlassen der Arbeitsproduktivität und zu alles in allem wirtschaftlichen Härten führt; und Sie sind ein kaltherziges kapitalistisches Schwein, wenn Sie die Notwendigkeit leugnen, dass die Arbeiter gesund sein müssen“.

Jeder kritische Denker wird schreien: „Was?! Beweisen Sie erst mal, dass Geister überhaupt existieren, bevor Sie mich mit Ausdrücken belegen!“

Die so genannte Krise der globalen Erwärmung ist mit einer gleichermaßen grotesken Voraussetzung davon gekommen – seit nunmehr fast zwei Jahrzehnten, weil diese Voraussetzung zumindest logisch klingt. Schließlich schädigen Menschen tatsächlich die Umwelt in vielfältiger Weise bis zu einem gewissen Ausmaß, und das Wetter scheint ein wenig merkwürdig zu sein in letzter Zeit, also ist es vielleicht möglich, dass unsere Treibhausgasemissionen eine nachteilige Auswirkung haben. Außerdem erzählen uns die Reporter immer wieder, dass Wissenschaftler dies so sagen.

Von Vielen übersehen ist das Nächstliegende, das diese Angelegenheit die ganze Zeit am Leben gehalten hat. Nicht anders als in einem Schneeballsystem darf die Öffentlichkeit niemals das Vertrauen in den Gedanken verlieren, dass diese Angelegenheit einer Lösung bedarf. In dem Moment, in dem eine Mehrheit von Menschen kritische Fragen über skeptische Wissenschaftler stellt, die legitim gegensätzliche Ansichten vertreten, gelangt das Ganze in eine fatale Abwärtsspirale, die all jene hinab zieht, die den Gedanken ohne Gegenfrage verteidigen.

Denken Sie an all die Behauptungen und Beteuerungen, die wir gehört haben, und was passiert, wenn wir kritische Fragen stellen unter Hinweis auf einfacher als je zuvor auffindbare Informationen aus dem Internet.

Selbst zum Höhepunkt des Winters auf der Nordhalbkugel wurde uns gesagt, dass die Arktische Eiskappe schmilzt und dass Eisbären ertrinken, wenn sie zu lange durch offenes Wasser schwimmen müssen. Und doch nimmt die Eisbärpopulation zu, Arktische Wetterstationen in nächster Nähe zur Eiskappe zeigen Temperaturen unter dem Gefrierpunkt außer in der wärmsten Zeit des Sommers, und gerade während des vergangenen Winters im Besonderen näherte sich die Eisausdehnung der Arktis wieder dem Mittel der Jahre 1979 bis 2000.

Die Medien machen uns weis, dass Extremwetter immer häufiger vorkommt, obwohl leicht zu findende schreiende Schlagzeilen von vor langer Zeit darauf hindeuten, dass es damals ähnlich extremes Wetter, wenn nicht noch schlimmer, gegeben hatte.

Uns wurde gesagt, dass der trockene, milde Winter in den USA diesmal ein Indiz für die globale Erwärmung ist, und doch werden entsetzlich kalte Temperaturen in diesem gleichen Winter in Europa nicht als gleichartiges Indiz genannt.

Viele äußern ihre Befürchtungen über die Versauerung der Ozeane, obwohl diese gleichen Leute niemals die unbestreitbare Tatsache erwähnen, dass Ozeane basisch sind und dass es folglich einer herkulischen Anstrengung bedarf, sie nur in ein neutrales pH-Gleichgewicht zu bringen, lange bevor sie auch nur leicht sauer werden.

Von prominenten Mitarbeitern der NASA, die die alarmistischen Verlautbarungen der NASA zur globalen Erwärmung in einem kürzlichen Brief im WSJ [Wall Street Journal] kritisiert hatten, wird gesagt, dass sie politisch getrieben seien, obwohl der NASA-Klimawissenschaftler James Hansen regelmäßig wegen zivilen Ungehorsams auf Veranstaltungen gegen die globale Erwärmung durch linksaußen stehende Umweltaktivisten verhaftet wird.

Der Vorsitzende des IPCC hat gesagt, dass „alles, was wir uns ansehen und was in unsere Zustandsberichte Eingang findet, seine Glaubwürdigkeit aus wissenschaftlich begutachteten Veröffentlichungen bezieht; wir machen es für nichts weniger“. Und doch finden Leute, die sich akribisch genau durch die IPCC-Berichte wühlen, dass allein im Bericht aus dem Jahr 2007 über 5,500 solcher Publikationen nicht begutachtet worden waren.

Und so weiter, und so weiter. Kritisches Denken ist möglicherweise tödlich für den Gedanken der vom Menschen verursachten globalen Erwärmung. Es wäre ein Tod der tausend Schnitte.

Aber es gibt noch ein besonders ungeheuerliches Loch im kritischen Denken hier – nicht hinsichtlich der Wissenschaft, sondern stattdessen vis-à-vis was man die Öffentlichkeit über skeptische Wissenschaftler glauben lässt.

Man hat uns gesagt, dass skeptische Wissenschaftler über den „Tod durch tausend Schnitte“-Beweis lügen. Man hat uns gesagt, dass sie für „Big Oil and Coal“ arbeiten – ganz ähnlich den so genannten Lockvogel-Experten, die dafür bezahlt worden sind, um „Zweifel zu säen“ über die Gefahren des Rauchens.

Und doch hat kein Reporter, der diese Nachrichten verbreitet, sich die Mühe gemacht zu zeigen, welcher in einem begutachteten Wissenschaftsjournal veröffentlichte skeptische Artikel für Geld von der Treibstoffindustrie geschrieben worden ist. Kein Reporter macht sich die Mühe zu zeigen, wie Myriaden von Beispielen kritischen Denkens bereits existierende – und nicht fabrizierte – Zweifel über die Behauptungen von Beweisen für die globale Erwärmung enthüllen. Und bis auf den heutigen Tag hat kein Reporter je versucht, erst einmal zu widerlegen, dass die fadenscheinigen Unterstützungen, die Skeptiker von der Industrie fossiler Treibstoffe erhalten haben sollen, wirklich nur deswegen gezahlt worden sind, weil jene Leute mit dem übereinstimmen, was die Skeptiker sagen.

Der Vorwurf, dass skeptische Wissenschaftler korrupt sind, entbehrt jedes kritischen Denkens. Jeder würde diese Probleme nach einer sorgsamen Untersuchung der Fakten erkennen:

Al Gore sagt, dass der Buchautor und Reporter Ross Gelbspan im Jahr 1991 durchgesickerte Notizen der Kohleindustrie als Beweis dafür entdeckt hat, dass Skeptiker korrupt sind, und doch haben andere Buchautoren und Reporter aus den Notizen vor Gelbspan zitiert, einschließlich Gore selbst.

Unzählig viele Leute zitieren aus jenen Notizen, um zu beweisen, dass Skeptiker korrupt sind, und doch zeigt niemand jemals den gesamten Zusammenhang dieser Notizen.

Im Spätsommer 1997 hat Gelbspan in einem NPR-Radiointerview unter Verwendung der am meisten zitierten fragmentarischen Sätze aus den Notizen behauptet, dass „böse“ Bemühungen unternommen werden, die Öffentlichkeit hinsichtlich der globalen Erwärmung zu verwirren – und doch, wenn man den gesamten Text der Notizen auf den Greenpeace archive scan web pages liest (wo nur ein gewiefter Forscher sie finden würde; mit Hilfe einer normalen Internetsuche kann man sie nicht finden), wird es überaus offensichtlich, dass die Notizen lediglich für die PR-Kampagne für ein sehr kleines Pilotprojekt verfasst worden sind, und Gelbspan hat die fragmentarischen Sequenzen vollständig aus dem Zusammenhang gerissen.

Gelbspan wurde lange Zeit als Gewinner des Pulitzer-Preises gehandelt, was sogar als Titelbild seines 2004 erschienenen Hardcover-Buches Boiling Point gezeigt wurde – und doch hat die Pulitzer-Organisation Gelbspan niemals als einen Preisgewinner in Erwägung gezogen.

Et cetera, et cetera pp, es gibt ein Meer roter Flaggen sowohl in den Vorwürfen selbst als auch bei allen Leuten darum herum.

Stellt man eine Verbindung her zwischen den immer weiter zunehmenden wissenschaftlichen Problemen bzgl. der globalen Erwärmung und den Enthüllungen darüber, wie buchstäblich unerträgliche Vorwürfe an der Grenze zu Beleidigungen und Rufmord gegen die wissenschaftlichen Kritiker angerührt worden sind, würde die ganze Welt erkennen, dass die gesamte Hysterie nichts weiter als ein „Informations“-Schneeballsystem war und ist, die auf konstanten Einwürfen von Desinformation basiert, die als solche bereits vor Jahren enthüllt worden sein könnten. Ein Tod der tausend Schnitte wird zu einem Pfahl durch das Herz.

Russell Cook

Russell Cook’s collection of writings on this issue can be seen at „The ’96-to-present smear of skeptic scientists.“  Follow him at Twitter via @questionAGW.

Read more: http://www.americanthinker.com/2012/06/global_warmings_killer_critical_thinking.html#ixzz1yY1sDTmw

Link: http://www.americanthinker.com/2012/06/global_warmings_killer_critical_thinking.html

Übersetzt von Chris Frey EIKE




Moncktons Erwiderung auf Eos-Vorwürfe zur Klimalüge

*AGU = American Geophysical Union

Recht auf Antwort

Ich bin den Herausgebern von Eos dankbar für dieses Recht auf eine Antwort an Corbin und Katz (Effective Strategies to Counter Campus Presentations on Climate Denial, Eos, 3. Juni 2012) [etwa: Strategien, um Präsentationen der Klimaleugnung auf dem Campus zu begegnen], einer ungerechtfertigten, 1200 Wörter starken Attacke auf Dr. Giaever und mich. … [mangels Ideen zur Übersetzung lautet die fehlende Passage im Original: „…by way of a mélange or smørgasbord of the shop-worn logical fallacies of argument ad populum, ad verecundiam, and, above all, ad hominem.” Diese „logical Fallacies” von Monckton sind in einem anderen Zusammenhang am 7. Mai 2012 schon bei EIKE hier erschienen. A. d. Übers.]

Die Autoren, die ausschließlich mit dem Konsens (ad populum) unter wissenschaftlichen Experten (ad verecundiam) argumentieren, sagen, dass Sprecher wie wir „das Ziel verfolgen, die Gewässer hinsichtlich der Klimawissenschaft zu verschmutzen“ (ad hominem); sie beziehen sich allen Ernstes auf politisierte Websites und tendenziöse, nicht wissenschaftlich begutachtete Präsentationen von Nicht-Klima-Wissenschaftlern, um gegen uns vorzugehen und tun so, als ob sie das Sagen hätten (ad verecundiam), während sie sich der Erwähnung von Zurückweisungen dieser dubiosen Quellen widersetzen (ad hominem); sie klagen uns der falschen Präsentation, Verzerrung und manipulierter Analysen an, ohne ein einziges Beispiel zu nennen (ad hominem); und sie brandmarken uns vier mal als „Klimawandelleugner“ (ad hominem) – einem Hasswort, das implizit der Vergleich mit dem Holocaust enthält. Diese Anschuldigungen sind ernst und erfordern eine Erwiderung.

Die Autoren sagen auch, dass wir versuchen, ihre Forschungen zu diskreditieren, obwohl – wie Wissenschaftsphilosophen von Haytham via Huxley bis zu Popper (1934) klar sagen – die Eliminierung von Fehlern durch Hinterfragen der Hypothesen ein grundlegender Bestandteil der wissenschaftlichen Methode ist. Sie beschreiben „Strategien“, um uns gegenüber zu treten – einschließlich „öffentlicher zur-Schau-Stellung“ und „sozialer Mittel“ – welche sicherlich in die Umgebung politischer Propaganda, aber nicht in die wissenschaftliche Diskussion passen.

Unser Argument gegen die offizielle Linie, die sie so unkritisch vor sich her tragen, lautet, dass eine katastrophale, vom Menschen verursachte globale Erwärmung bisher nicht einmal annähernd die vorhergesagte Größenordnung erreicht hat; dass es keinen ausgeprägten wissenschaftlichen Grund gibt, dass das noch passieren wird; und dass, selbst wenn, eine Anpassung in der Zukunft mindestens eine Größenordnung kostengünstiger sein dürfte als die heutigen gigantischen Ausgaben für eine versuchte Abschwächung.

Vorhersagen des Untergangs sind  gescheitert. Die Daten des Satelliten Envisat zeigen, dass der Anstieg des Meeresspiegels von 2004 bis 2012 mit einer Rate äquivalent zu 3 cm/Jahrhundert erfolgt ist. Das Wachstum der Ausdehnung des Meereises in der Antarktis hat den Rückgang in der Arktis während der letzten 30 Jahre nahezu ausgeglichen. Das grönländische Inlandeis hat von 1993 bis 2008 um 0,5 m an Dicke zugenommen. In der Antarktis ist es 30 Jahre lang kälter geworden, und die Inlandseismasse hat zugenommen. Im Winter 2010/2011 erreichte die Schneebedeckung der Nordhemisphäre ein 30-Jahres-Maximum. Die Aktivität tropischer Zyklone befand sich während der letzten beiden Jahre in einem 30-Jahres-Minimum.

Alles in allem ist die beobachtete Erwärmungsrate seit 1990 weit hinter der geringsten projizierten Erwärmung des IPCC zurückgeblieben. Die Modelle stimmten alle überein, aber die Wirklichkeit hat diesen Konsens als falsch überführt. Trotz der rapide zunehmenden CO2-Konzentration gab es keine statistisch signifikante Erwärmung seit eineinhalb Jahrzehnten. Die Erwärmungsrate nach 1950 in Gestalt des Trends kleinster Quadrate der Hadley/CRU-Temperaturreihe (HadCRUt3, 2011) beträgt lediglich 1,2 K pro Jahrhundert. Und doch sagt das IPCC als das Mittel aller sechs Emissions-Szenarien implizit vorher (2007, Tabelle SPM3 mit Abb. 10.26), dass der Einfluss des Menschen einschließlich einer Zunahme der CO2-Konzentration von 368 ppmv im Jahr 2000 bis 713 ppmv im Jahr 2100 bis zum Jahr 2100 zu einer Erwärmung um 2,8 K führen wird – 0,6 K previously committed*, 1,5 K durch die Emission von CO2 in diesem Jahrhundert und 0,7 K durch andere Treibhausgase. Diese vorhergesagte (obwohl nicht alarmierende) Verdoppelung der Erwärmungsrate nach 1950 hängt von mindestens drei nicht plausiblen Hypothesen ab: Andere Gase erhöhen den Beitrag von CO2 zur Erwärmung um bis zu 43%; bis zur Hälfte der Erwärmung durch unsere Sünden in der Vergangenheit ist bisher noch gar nicht durch die Pipeline gekommen; und, alles in allem, ungemessene und unmessbare Temperatur-Rückkopplungen werden die geringe direkte Erwärmung durch Treibhausgase fast verdreifachen: daraus folgt, dass zwei Drittel des vorhergesagten Konsens’ zur Erwärmung auf raten beruhen.

*Die Wörter sind natürlich bekannt, aber ich finde keine sinnvolle Bedeutung derselben. A. d. Übers.

Der ersten Hypothese fehlt die Glaubwürdigkeit, hat sich doch das Methan, das wichtigste Treibhausgas neben dem CO2, das wir emittieren, stabilisiert: dessen Konzentration hat während des letzten Jahrzehnts nur um 20 parts per Milliarde zugenommen. Die zweite und dritte Hypothese implizieren eine Schwankungsbreite der Temperatur, der die paläoklimatischen Aufzeichnungen widersprechen. Sie deuten darauf hin – wenn auch mit großen Unsicherheiten – dass die absolute Temperatur nicht um mehr als 3% oder 8 K um den Mittelwert der letzten 64 Millionen Jahre geschwankt hat (Scotese 1999, Zachos et al. 2001). Das reicht, um während einer Epoche eine Eiszeit, während einer anderen Epoche eine Warmzeit auszulösen: aber sie ist zu klein, um geschlossene Rückkopplungen [closed-loop feedback gains] bis zu 0,64 (0,42; 0,74) zuzulassen, die implizit in der projizierten Erwärmung von 3,26 (2; 4,5) K pro Verdoppelung des CO2-Gehaltes enthalten sind (IPCC 2007, S. 798, Tafel 10.2). In der Verfahrenstechnik, in der die von der Klimawissenschaft übernommene Rückkopplungs-Mathematik ihre Wurzeln hat (Bode 1945, Roe 2009), wurden elektronische Schaltkreise entwickelt, die stabil genug sein sollten, einen close-loop gain nicht größer als 0,1 zuzulassen. Denn jenseits dieser Singularität, bei einem loop-gain von 1, werden stark positive Rückkopplungen genauso stark negativ: und doch zeigen die Paläo-Temperaturaufzeichnungen keine solche gewaltige Oszillation. Empirische Beweise (z. B. von Lindzen und Choi 2009 und 2011, Spencer und Braswell, 2010 und 2011) legen tatsächlich nahe, was die Theorie der Verfahrenstechnik erwarten lässt: dass nämlich Rückkopplungen in einem temperaturstabilen Klimasystem wie in einem gut konstruierten Kreislauf höchstens geringfügig positiv und wahrscheinlicher in irgendeiner Form negativ sind, obwohl dies hitzig bestritten wird (z. B. Trenberth et al. 2010, Dessler et al. 2010 und 2011) – konsistent mit einer harmlosen Fortsetzung der beobachteten Erwärmungsrate der letzten 60 Jahre, aber inkonsistent mit der substantiell größeren (aber nicht notwendigerweise schlimmen) vom IPCC vorhergesagten Erwärmungsrate.

Selbst wenn wir ad argumentum (und per impossibile) annehmen, dass unsere unverminderten Emissionen die beobachtete Erwärmungsrate erheblich beschleunigen würden, übersteigen die horrenden Kosten der Maßnahmen zur Abschwächung der CO2-Emissionen bei Weitem die wahrscheinlichen Kosten von klimabezogenen Schäden, die aus unserem Nicht-Handeln heute resultieren. Um ein einziges thematisches und typisches Beispiel herauszugreifen: der Kohlenstoffhandel in Australien wird 10,1 Milliarden Dollar pro Jahr betragen, plus 1,6 Milliarden Dollar pro Jahr für die Administration (Wong 2010, S. 5) plus 1,2 Milliarden pro Jahr für Erneuerbare und andere Kosten, insgesamt 13 Milliarden Dollar pro Jahr mit einer Steigerung um 5% pro Jahr oder auf 130 Milliarden Dollar bis zum Jahr 2020 n.p.v. [Net Present Value, Kapitalwert eines Unternehmens]. Dies alles, um eine Abschwächung der gegenwärtigen Emissionen um 5% zu erreichen, die 1,2% der Weltemissionen ausmachen (abgeleitet von Boden et al. 2010ab). Folglich würden die australischen Maßnahmen, wenn sie so erfolgreich sein sollten wie die Befürworter planen, zu einer Abschwächung der globalen Emissionen um nicht mehr als 0,06% innerhalb des veranschlagten Zeitraumes von zehn Jahren führen. Die CO2-Konzentration würde von 410 ppmv bei „Business as usual“ auf einen Wert von 409,988 ppmv bis zum Ende des Zeitraumes der Maßnahmen zurückgehen. Die Abschwächung des Antriebs beträgt 0,0002 W/m², die daraus folgende Abschwächung der Erwärmung beträgt 0,0006 K; die Abschwächung der Kosteneffektivität, also die Kosten dafür, 1 K globale Erwärmung zu vermeiden, belaufen sich auf 2000 Trillionen Dollar/K. Auf der gleichen Basis belaufen sich die Kosten der Vermeidung der gesamten Erwärmung während der Laufzeit von zehn Jahren auf 300 Trillionen Dollar, oder 44000 Dollar pro Kopf oder 58% des globalen BSP während dieses Zeitraums. Die Kosten der Abschwächung durch derartige Maßnahmen würden die Kosten von klimabezogenen Schäden bei der Nicht-Durchführung von Maßnahmen um etwa den Faktor 50 übersteigen.

Die sehr hohen Kosten der Politik zur CO2-Abschwächung und die unmessbare Abschwächung der Erwärmung dadurch implizieren, dass die Konzentration auf Maßnahmen gegen die Konsequenzen einer solchen Erwärmung viel kosteneffektiver ist als die heute versuchte Abschwächung. Bezahlbare Strategien zur Abschwächung von CO2-Emissionen sind ineffektiv; effektive Maßnahmen sind unbezahlbar. Es erhebt sich die Frage, ob man überhaupt noch weiter versuchen soll, die CO2-Emissionen abzuschwächen.

Eos-Leser können jetzt selbst entscheiden, bis zu welchem Ausmaß die unprovozierte Attacke auf unseren Ruf von Corbin und Katz gerechtfertigt war. Wirkliche Wissenschaft gründet sich nicht auf Beschimpfungen und Unlogik, sondern auf Begründungen. Verliert man dies aus den Augen, verliert man alles!

References

Bode, H.W. (1945), Network analysis and feedback amplifier design, Van Nostrand, New York, USA, 551 pp.

Boden and Marland (2010a), Global CO2 Emissions from Fossil-Fuel Burning, Cement Manufacture, and Gas Flaring, 1751-2007, Carbon Dioxide Information and Analysis Center, Oak Ridge, Tennessee, USA.

Boden et al. (2010b), Ranking of the world’s countries by 2007 total CO2 emissions from fossil-fuel burning, cement production, and gas flaring, Carbon Dioxide Information and Analysis Center, Oak Ridge, Tennessee, USA.

Dessler, A.E. (2010), A determination of the cloud feedback from climate variations over the past decade, Science 220, 1523-1527.

Dessler, A.E. (2011), Cloud Variations and the Earth’s energy budget, Geophys. Res. Lett.

HadCRUt3 (2011), Monthly global mean surface temperature anomalies, 1850-2011, http://www.cru.uea.ac.uk/cru/data/temperature/hadcrut3gl.txt.

IPCC (1990), Climate Change: The IPCC Scientific Assessment (1990): Report prepared for Intergovernmental Panel on Climate Change by Working Group I, J. T. Houghton, G.J. Jenkins and J.J. Ephraums (eds.), Cambridge University Press, Cambridge, UK, New York, NY, USA, and Melbourne, Australia.

IPCC (2007), Climate Change 2007: the Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, 2007 [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Avery, M. Tignor and H.L. Miller (eds.)], Cambridge University Press, Cambridge, United Kingdom, and New York, NY, USA.

Lindzen, R.S., and Y.-S. Choi (2009), On the determination of feedbacks from ERBE data, Geophys. Res. Lett., 36, L16705.

Lindzen, R.S., and Y.-S. Choi (2011), On the observational determination of climate sensitivity and its implications, Asia-Pacific J. Atmos. Sci., 47(4), 377-390, doi:10.1007/s13143-011-0023-x.

Monckton of Brenchley, C.W. (2010), Response to John Abraham, SPPI Reprint Series, Science and Public Policy Institute, Washington DC, USA, July 12, http://scienceandpublicpolicy.org/images/stories/papers/reprint/response_to_john_abraham.pdf.

Popper, K (1934), Logik der Forschung, rewritten by the author in English as The Logic of Scientific Discovery, Hutchinson, London, 1959.

Roe, G. ( 2009), Feedbacks, Timescales, and Seeing Red, Ann. Rev. Earth & Planet. Sci. 37, 93-115.

Scotese, C.R., A.J. Boucot, and W.S. McKerrow (1999), Gondwanan paleogeography and paleoclimatology, J. Afr. Earth Sci. 28(1), 99-114.

Spencer, R.W., and W.D. Braswell (2010), On the diagnosis of radiative feedback in the presence of unknown radiative forcing, J. Geophys. Res, 115, D16109.

Spencer, R.W., and W.D. Braswell (2011), On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant-energy balance, Remote Sensing 3, 1603-1613, doi:10.3390/rs3081603.

Trenberth, K.E., J.T. Fasullo, C. O’Dell, and T. Wong (2010), Relationships between tropical sea-surface temperature and top-of-atmosphere radiation, Geophys. Res. Lett, 37, L03702.

Wong, P. (2010), Portfolio Budget Statements 2010-11: Budget-Related Paper No. 1.4. Climate Change and Energy Efficiency Portfolio, Commonwealth of Australia, Canberra, Australia.

Zachos, J., M. Pagani, L. Sloan, E. Thomas, and K. Billups (2001), Trends, Rhythms and Aberrations in Global Climate 65 Ma to Present, Science 292, 686-693.

─ CHRISTOPHER MONCKTON OF BRENCHLEY, Chief Policy Advisor, Science and Public Policy Institute, Washington, DC, USA; monckton@mail.com.

Link: http://wattsupwiththat.com/2012/07/12/moncktons-reply-to-eos-on-climate-denial/

Übersetzt von Chris Frey EIKE




Der Wärmeinseleffekt als maßgeblicher Treiber der gemessenen Temperaturen

Bezugnehmend auf unseren Artikel, sah sich der DWD gezwungen, EIKE eine Gegendarstellung zukommen zu lassen, die wir beantworteten und darin belegen konnten, dass unsere Artikel nichts an Richtigkeit und damit Brisanz verloren hatten. Einer wissenschaftlichen Diskussion stellte sich der DWD indes nicht. In der jüngst erschienenen Arbeiten von Anthony Watts über die Wirkung dieses Effektes in der er  belegen konnte, dass auch in den USA die ausgewiesene Erwärmung doppelt so hoch angegeben wird, als wie in der Realität gemessen und damit nicht nur – wie wir damals zeigten- in Deutschland. Dieser Beitrag wird nun zeigen, dass der der Studie von Watts et al vorschnell entgegen gehaltene Argument, sie hätte den sog. TOBs (Time of Observation Errors) nicht berücksichtig, abwegig ist und am Ergebnis nichts ändern würde, wenn es so wäre.

Trotz der immer bescheideneren Sommer, der immer kälteren Winter, wird uns von Seiten diverser Institute und meteorologischer Behörden erzählt, die Temperaturen würden immer weiter ansteigen. Wir möchten diesen Behörden nicht vorhalten, sie würden falsche Zahlenwerte verbreiten, aber was werden dort für Temperaturen gemessen, die als Vergleich mit früheren Messwerten herangezogen werden? Sind sie geeignet, um Aussagen über eine vermeintliche Erwärmung und vor allem, deren Höhte, treffen zu können? Einer von uns (Leistenschneider) hat eine eigene Methodik entwickelt, mit der der WI aus einer vorhandenen Messreihe herausgerechnet werden kann. Ähnliche Verfahren werden zwar auch von anderen Autoren benutzt. (A. Watts, Tom Karl (1), Frank Lansner etc.).

Abbildung 1, (Quelle hier ) zeigt einen Querschnitt durch Regionen in den USA, die Lansner untersuchte. Er weist zu Recht darauf hin, das die Stationslage in Bezug auf ihre Umgebung (z.B. Küste, Küstennah; Gebirge, Ebene) einen wesentlichen Einfluss auf die gemessene Temperatur hat. Wobei es nicht ausreicht, wenn nur „UHI-freie“ Stationen mit „UHI Behafteten“ im Umkreis zur Homogenisierung verglichen werden. Dadurch entstehen nur neue Fehler.

Die von uns verwendete Methodik vergleicht dazu jedoch auf eine andere Weise eine Referenzstation mit der zu untersuchenden Messreihe. Die Theorie für diese Methodik basiert auf zwei fundamentalen Gesetzen der Physik:

  • • Dem Strahlungsgesetz nach Planck und dem
  • • Abkühlungsgesetz nach Newton

Das Strahlungsgesetz nach Planck gesagt, dass ein Körper umso mehr Energie pro Zeit abstrahlt, umso wärmer er ist. Das Abkühlungsgesetz nach Newton gibt an, dass eine Masse, umso mehr Energie pro Zeiteinheit verliert (kälter wird), je wärmer er ist. Dies heißt in der Praxis nichts anderes, dass mehr Energie notwendig ist, einen 300 Kelvin warmen Körper um 10 Kelvin zu erhöhen, als einen 250 Kelvin warmen Körper um den gleichen Betrag. In einer Erwärmungsphase muss es also zu einer Angleichung zwischen einer wärmeren und einer kälteren Station kommen. Mit seiner Aussage, dass sich arktische Gebiete schneller erwärmen würden als wärmere, sagt das IPCC im Prinzip nichts anderes, wenn auch die dort genannten Erwärmungswerte von 3 Kelvin und mehr, auf einer falschen Datenlage beruhen, da z.B. das GISS im betroffenen arktischen Gebiet gar keine Messstation hat (WUWT und EIKE berichteten ausführlich darüber).

Für ein Betrachtungsland (z.B.: Deutschland) ist die von der Sonne zur Verfügung gestellte Energie und für die Referenzstation gleich, sowie der CO2-Backgroundlevel (für die Anhänger des AGW). Als Referenzstation, ohne nennenswerten*2) WI, haben die Autoren die meteorologische Station auf dem Hohen Peißenberg (HPB) gewählt, die nach eigenen Angaben des DWD als Referenzstation gilt und von der seit dem Ende des 18. Jahrhunderts verlässliche Temperaturdaten vorliegen (Abbildung 2).

Abbildung 2 * zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends). Darin spiegelt sich der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus, der in 2003, als Europa unter einem Hitzesommer3 litt, sein Maximum hatte. Seitdem fällt die solare Aktivität. Hauptsonnenzyklus deshalb, weil die Fourieranalyse der Wolfzahl (Sonnenflecken) dort die stärkste Periode ergibt. Dr. Axel Mörner2 hat in seiner Arbeit “Keine Gefahr eines globalen Meeresspiegelanstiegs“ transparent gezeigt, wie der Hauptsonnenzyklus die arktische Meereisbedeckung bestimmt (Abbildung 3).

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 3, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist. Weiter zeigt die NASA, dass die Sonne zum ausgehenden 20. Jahrhundert immer aktiver wurde.

Abbildung 4 links (Quelle: hier ) zeigt die gesamte Strahlungsleistung der Korona von 1938 – 1995 in W/sr, mit r = 2.800 MHz Radio flux. Deutlich ist zu sehen, dass parallel zum (leichten) Temperaturanstieg die Strahlungsleistung der Korona stark (25%) ansteigt. Hierbei handelt es sich um die tatsächliche Strahlungsleistung und nicht, wie beim TSI, um die Strahlungsleistung eines kleinen Wellenlängenbereiches (Leistenschneider ging in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ in 08/11 ausführlich darauf ein). Die NASA beweist damit, dass die Sonne bis zum ausgehenden 20. Jahrhundert immer aktiver wurde. Die rechte Abbildung zeigt die globale Temperaturentwicklung nach Jones.

Aufgrund seiner natürlichen Schwingung, die dem Hauptsonnenzyklus entspricht, gehen wir davon aus, dass HPB weitgehend WI-frei* ist und damit grundsätzlich als Referenzstation geeignet ist. Zur Berechnung des WI werden beide Datenreihen (Deutschland und HPB) in Relation zueinander gesetzt.

Abbildung 5 zeigt die Datenreihe D/HPB im Zeitraum 1881 – 2009. Für Deutschland liegen erst ab 1881 Daten vor, daher kann die Datenreihe erst 1881 beginnen. Die Datenreihe zeigt, dass sich die Werte von HPB und Deutschland mehr und mehr angleichen (Trend ist negativ). D.h., auf HPB wird es vergleichsweise (in %) mehr warm. Dies liegt daran, dass sich kalte Gebiete, fernab von Zivilisations- also WI-Einflüssen, relativ schneller erwärmen. Drei Bereiche sind erkennbar, in denen die Werte jeweils um einen gemeinsamen Mittelwert pendeln. Nach Planck und Newton muss die Annäherung beider Stationen in einer Erwärmungsphase gleichmäßig verlaufen. D.h., die gemessenen Streuwerte der Temperatur müssten sich statistisch gleichmäßig um die Ausgleichsgerade verteilen (kleine Abbildung, idealisiert dargestellt). Das tun sie aber nicht, wie der tatsächliche Verlauf zeigt. In drei Bereichen verlaufen sie waagerecht, d.h., zusätzliche Energie ist notwendig, um die Angleichung zu verhindern. Diese kann nur vom WI kommen, da die Sonne für beide gleichermaßen strahlt.

In der Relationskurve (Abbildung 5) ist demnach der WI „verborgen“. Der WI ist in der Dämpfung (oder Spreizung, je nach Betrachtung) des DWD-Temperaturverlaufs zu HPB enthalten, weil die DWD-Deutschland-Daten relativ weniger steigen und in der statistischen Verteilung der Temperaturstreuwerte (farbige Bereiche). Die durch den WI höheren Temperaturen, dämpfen den Erwärmungstrend, bzw. erzwingen eine andere Verteilung. Um den WI in den zu sehenden Zeiträumen zu ermitteln (für die Zeiträume 2 und 3 berechnet), wird folgendermaßen vorgegangen:

  • • Ermittlung der jeweiligen Mittelwerte für D und HPB in den o.g. drei Zeiträumen (1881 – 1952, 1953 – 1982 und 1983 – 2009). Ergibt 6 Mittelwerte.
  • • Differenzbetrachtung der Mittelwerte von Epoche Xn+1 zu Xn. Getrennt für HPB und D (ergibt 4 Differenzmittelwerte, da Epoche 0 – vor 1881 – nicht bekannt ist, bzw. nicht in die Bewertung einfloss, da diese Werte nach dem DWD, für Deutschland zu ungenau sind).
  • • Betrachtung der jeweiligen Epochendifferenzwerte zueinander, d.h. Wert für D2 (2 steht für Epoche 2) wird mit Wert HPB2 verglichen und die Differenz bestimmt.
  • • Mit dieser Differenz wird der jeweilige WI im 2. und 3. Zeitraum berechnet.
  • • WI im 1. Zeitraum wurde mit 0,2°C konservativ geschätzt. Grund des WI: Andere Verteilung der Stationen, andere Messsysteme, andere Flächen – Deutschland wurde kleiner (um die Hälfte) und große Landschaftsflächen fielen weg, Beginn der industriellen Landschafts-veränderung, …
  • • WI HPB von 1881 – 2009 mit 0,2°C anhand der Bebauungsveränderungen abgeschätzt.

Dass auch HPB nicht WI-los sein kann, liegt daran, dass die Messstation bis 1940 im dortigen Kloster untergebracht war und anschließend in die meteorologische Station verlegt wurde. Im Kloster war nur ein Raum, nämlich der Gemeinschaftsraum, beheizt, in der jetzigen Station aber alle Gebäude die zum Komplex gehören. Der damalige Leiter hatte gefordert, in der Übergangszeit Parallelmessungen durchzuführen, was jedoch nicht geschah. Die alte Wetterstation wurde dann den Mönchen weggenommen und bekam ein eigenes Gebäude beim Friedhof, das seinerseits ständig erweitert und beheizt wurde. Heute stehen dort umfangreiche Gebäudekomplexe. Außerdem wurde allmählich ein stetig sich vergrößernder Parkplatz angelegt, der zugleich auch als Parkplatz für den Friedhof in der Nachbarschaft dient. Fassungsvermögen geschätzt, etwa 100 Autos.

Daraus folgt zwingend: Bis 1940 hatte der HPB keinen WI. Dann hat er einen geringen, wegen zunehmender Bebauung entwickelt. Wie eingangs geschildert, ist die Station nicht (mehr) vollständig WI-frei, wie sie allgemein in der Literatur und vom DWD dargestellt wird. Für die drei Zeiträume ergibt sich für Deutschland ein dynamischer WI:

Zeitraum 1: 1881 – 1952 = +0,2°C

Zeitraum 2: 1953 – 1982 = +0,3°C

Zeitraum 3: 1983 – 2009 = +0,6°C

Der Gesamt-WI ist die Steigung über alle drei Zeiträume.

WI-Deutschland über alle drei betrachteten Zeiträume von 1881 – 2009 = +1,1°C.

Abbildung 6 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2011. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass die heutigen Temperaturen im 120-Jahresvergleich zu kalt sind. Zum berechneten WI wurde, wie dies auch beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (gelb). Der Fehlertoleranzbereich trägt folgenden Punkten Rechnung:

Der WI-Wert der 1. Epoche musste abgeschätzt werden, da die davor liegende Vergleichsperiode zur Berechnung nicht zur Verfügung steht. Dabei wurde konservativ vorgegangen und der WI mit +0,2°C nach folgenden Kriterien festgelegt:

  • • Große ländliche Gebiete fielen 1945 im Osten weg.
  • • Die um die Jahrhundertwende beginnende Industriealisierung Deutschlands, die besonders in den 1930-Jahren forciert wurde.
  • • Die Umwandlung großer Naturflächen in Agrargebiete, mit der damit verbundenen Entwässerung der Landschaft – Verdunstungswärme, die kühlend wirkt, entfiel.

Sowie, dass HPB durch die Bebauungsmaßnahmen nicht mehr vollständig WI-los ist.

Unsere Untersuchung zeigt, dass mehr als die Hälfte der ausgewiesenen, gemessenen Erwärmung, auf den WI entfällt und von den +1,9°C, die der DWD für den Betrachtungszeitraum4 angibt, nur +0,8°C tatsächliche Erwärmung übrig bleiben. Somit exakt dieselben Werte, die auch Anthony Watts in seiner jüngst erschienenen Arbeit veröffentlichte. Der Vergleich unseres Ergebnisses mit der breitengradabhängigen Erwärmung für den 49-Breitengrad (geographisches Mittel für Deutschland) erhärtet unser Ergebnis.

TOB Time of Observation Error (Bias)

Was hat nun unsere Arbeit als Beleg für die Untersuchung von Anthony Watts zu tun? Sehr viel, da ihm vorgehalten wird, er hätte den TOB (Time of Observation Error) nicht berücksichtigt. Der ist jedoch nur relevant bei Mittelwerten, die aus Min/Max-Werten, wie in den USA gebildet werden, nicht aber bei Mittelwerten aus täglichen Mehrfachmessungen zu festen Zeiten, wie sie von Anfang an in Deutschland zur Anwendung kommen. Bis zum April 2001 wurden in Deutschland nach dem Mannheimer Verfahren die Mittelwerte gebildet. Gemessen wurde um 7:00, 14:00 und 21:00 Uhr, wobei der letzte Wert doppelt gezählt wurde. Seit April 2001 wurde stündlich gemessen (allein diese Umstellung brachte auf Grund der Asymmetrie des Temperaturtagesgangs eine scheinbare Temperaturerhöhung von +0,1°C, wie Leistenschneider anhand der Station Berlin-Dahlem nachweisen konnte) und seit 2009 sogar halbstündlich. Dennoch zeigt unsere Untersuchung, die exakt gleichen Relations wie Anthony Watts – d.h. die gemessenen Temperaturen liegen gut doppelt so hoch, wie die tatsächlichen Vergleichstemperaturen. Der Grund dafür braucht nicht lange gesucht zu werden. Er liegt in der Konzentration der ausgesuchten Messstationen in Städten und auf Flughäfen. So liegen mehr als 52% aller GHCN-Messstationen auf Flughäfen. Was es damit auf sich hat, zeigte bereits vor mehr als 2 Jahren WUWT (Abbildung 6).

 

Abbildung 7 zeigt die Temperaturmessstation auf dem Flughafen von Rom und dessen Lage zum Rollfeld. Dass dies kein Einzelfall ist, konnten die Autoren in ihrem Beitrag (hier) belegen, wie z.B. Abbildung 7 zeigt.

 

Abbildung 8, Quelle: (hier) zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen von Rom, wie von A. Watts gezeigt.

 

Abbildung 9 zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände (roter Pfeil).

Die Messstation liegt exakt zwischen beiden Start- und Landebahnen und ist dem gesamten Verkehrsaufkommen (außer Startbahn West) unmittelbar ausgesetzt, d.h. wird von allen Abgasstrahlen der Verkehrsflugzeuge unmittelbar beeinflusst. Dabei lässt sich folgende Korrelation ableiten: Je höher das Flugaufkommen, umso höher die gemessenen Temperaturen der Wetterstation! Wieso dass? Ganz einfach, die erwärmten Luftschichten werden nicht zwischen Starts oder Landungen ausgetauscht und die Erwärmung beginnt von neuem, sondern bei 120 Flugbewegungen/Stunde und der in Deutschland vorherrschenden geringen Luftbewegungen (gemittelt über das Jahr, siehe als Anhaltspunkt die geringe Auslastung der Windanlagen in Deutschland von nur ca. 16%), bleibt ein Anteil an eingebrachten Erwärmung, weil die Luft nicht schnell genug ausgetauscht wird.

Selbst bei angenommener homogener Verteilung der Abgaswärme über das Flughafenareal (Raumvolumen), ergibt sich ein WI von +0,6°C, wie bei EIKE (Herr Prof. Lüdecke) ermittelt wurde. Für die Überschlagsbetrachtung dienten folgende Daten:

Arealfläche 1940 ha

Flugbewegungen 120/h

dabei je Anzahl der Triebwerke (gemittelt: 2,5 – 3)

Mantelstromtriebwerk Rolls-Royce Trent xxx (Rolls Royce-Trend-Familie)

Schub: zertifiziert bis zu 250 – 360 kN (80.000 lbf)

Einlass-Massenstrom: 800 – 1200 kg/s

Durchmesser Auslass: ca. 2 m

Austrittstemperatur ca. 300 – 700°C (je Last, 600°C typisch im Flugverkehr)

Eine Überschlagsrechnung ergibt :

Flugplatzfläche = 5 qkm = 5 .106 m2

Angenommene max. Starthöhe beim Verlassen des Volumens: 200 m

Startzeit: 100 s

Eintrag an erhitzter Luft

durch die Turbinen:  1.000 kg/s . 100 s = 105 kg = 105 m3 Luft auf 600 °C.

Durch (stationäre) Vermischung gilt die einfache Beziehung für die Mischtemperatur T mit einer Lufttemperatur von angenommenen 20 °C:

(108 – 105) . 20 + 105 . 600 = 108  . T,  woraus T = 20,6 °C folgt.

Die  Verteilung der heißen Abgasstrahlen ist jedoch nicht homogen, sondern die Messstationen liegen, wie an Rom und Frankfurt gezeigt, in unmittelbarer Richtung der heißen Abgasstrahlen und es ist nicht so, dass diese nur im Moment der Beaufschlagung wirken, sondern noch Stunden nach dem Start, die Temperaturen erhöht halten. Aufklärungssatelliten der USA machen sich diesen Effekt zu Nutze und können noch Stunden, nachdem ein Jetflugzeug auf einer Rollbahn startete/landete, dies anhand der Erwärmung nachweisen.

In erster Linie werden die heißen Abgasstrahlen durch den sog. Wirbelschleppeneffekt über das ganze Flughafenareal verteilt, ganz gleich, wo die Messstation sich befindet.

Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören, wodurch ein Strömungsabriss entstehen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten. Am Beispiel des neuesten Flugzeugs der Airbus-Familie, dem A 380, gelten die folgenden Bestimmungen:

  • • A380 gefolgt von Flugzeug der Gewichtsklasse „schwer“ = +2 nm zusätzlich zum geltenden ICAO Abstand (6 nm gesamte Distanz)
  • • A380 gefolgt von Flugzeug der Gewichtsklasse „mittel“ = +3 nm zusätzlich zum geltenden ICAO Abstand (8 nm gesamte Distanz)
  • • A380 gefolgt von Flugzeug der Gewichtsklasse „leicht“ = +4 nm zusätzlich zum geltenden ICAO Abstand (10 nm gesamte Distanz)

nm = nautische Meile

 

Abbildung 10 links, Quelle: NASA, zeigt am Beispiel eines Kleinflugzeugs recht anschaulich, wie solche Wirbelschleppen die Luftschichten hinter sich regelrecht durchquirlen. Abbildung rechts zeigt die Luftverwirbelung und deren Ausbreitung bei einer anfliegenden Boeing 777.

Die Autoren konnten zeigen, dass die gemessenen Temperaturen am Flughafen Frankfurt um +2,5°C zu hoch waren. Der WI für den Flughafen Frankfurt demnach bei +2,5°C liegt. Für den Flughafen London Heathrow scheint der WI ebenfalls in dieser Größenordnung zu liegen. Der Jahresmittelwert betrug 2009 bei der Wetterstation am Flugplatz Heathrow bei London 11,9°C. Laut Met Office (http://www.metoffice.gov.uk/climate/uk/datasets/Tmean/ranked/UK.txt) lag die Mitteltemperatur 2009 in Großbritannien bei 9,17°C. Gut 2,7°C Temperaturdifferenz zu London Heathrow. Anzumerken ist noch, dass Flughafenstationen als ländliche Stationen gelten und somit bei einer üblichen WI-Betrachtung gar nicht berücksichtigt werden.

Fazit

Somit festzustellen, dass die Temperaturmessstationen auf Flughäfen für die Aufzeichnung von Temperaturzeitreihen oder sonstiger Vergleichsaussagen gänzlich ungeeignet sind. Anhand der dortigen Daten lässt sich nur herausfinden, dass sich das Flugaufkommen in den letzten Jahren erhöht hat, was grundsätzlich auch richtig ist. Ob für diese Feststellung jedoch eine teure Messstation notwendig ist, darf bezweifelt werden. Wird der Tatsache Rechnung getragen, dass sich ca. 52% aller GHCN-Temperaturstationen auf Flughäfen befinden, so zeigt dies, dass die ausgewiesene Erwärmung auf dem WI beruht oder, überspitzt formuliert, auf dem steigenden Flugaufkommen.

Die Arbeiten von Anthony Watts, ebenso wie unsere zeigen, dass der Hauptanteil der ausgewiesenen, gemessenen Erwärmung in der Tat auf menschliche Ursachen zurück zu führen sind, jedoch nicht auf Treibhausgase, wie dem CO2, sondern auf dem WI, der somit als Haupttreiber der gemessenen Temperaturen gilt. Zu beiden Seiten des Atlantiks schlägt der WI mit gleichen Werten zu Buche. Hinzu kommt, dass zunehmend die Solarforscher die Klima-Debatte dominieren, weil sie sowohl die langfristigen wie auch die kurzfristige Klimaschwankungen vollständig erklären können, was Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ zeigte. Für „CO2+Co.“ bleibt nichts mehr übrig.

In Anbetracht der Tatsache, dass mit der vermeintlichen Erwärmung immer noch Politik betrieben und ganze Volkswirtschaften einer verfehlten Energie- und Umweltpolitik ausgesetzt sind, ist es an der Zeit, dass sich Behörden wie der DWD einer wissenschaftlichen Diskussion stellen und die Politik endlich den Tatsachen Rechnung trägt, dass es nicht mehr wärmer, sondern kälter wird und Klimawandel keine Ausnahmeerscheinung unserer Tage ist, sondern ein stetiger und natürlicher Vorgang.

*) Eine 100%-WI-freie Station für die letzten 130 Jahre konnten wir in Deutschland nicht finden, da insbesondere, die in Städten oder stadtnahen Gebieten befindlichen Stationen, die einen kontinuierlich langen Messzeitraum abbilden, wesentlich WI-behaftet sind. Auf Grund dessen haben wir unser Ergebnis (Abbildung 6) mit einem Fehlertoleranzbereich versehen, der diesem Punkt, dass HPB nicht zu 100% WI-los ist, Rechnung trägt.

Literaturverzeichnis (falls nicht im Text bereits erwähnt)

1 Karl, T.R., C.N. Williams, Jr., F.T. Quinlan, and T.A. Boden, 1990: United States Historical Climatology Network (HCN) Serial Temperature and Precipitation Data, Environmental Science Division, Publication No. 3404, Carbon Dioxide Information and Analysis Center, Oak Ridge National Laboratory, Oak Ridge, TN, 389 pp.

2 Dr. Niels Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“, http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf  Original: Quaternary Studies, Journal der Portugiesischen Vereinigung für Quartär-Forschung (APEQ), Nr. 5, 2007,

3 Met Office Hadley Centre, ”Climate change and the greenhouse effect” Dezember 2005, Seite 30

4 DWD, Lufttemperatur (Jahresmittelwerte) Deutschland 1891 – 2009

Raimund Leistenschneider – EIKE ; Josef Kowatsch – Hüttlingen




Süddeutsche Zeitung, Klima und real existierender Sozialismus

Übertrieben? Wohl kaum, wie es das jüngste Beipiel „Wandlung eines Zweiflers“ in der Mittwochs-Ausgabe der SZ vom 1. August 2012 belegt. Der Autor ist Prof. Richard Muller von der renommierten US Universität Berkeley, der in diesem Artikel haarsträubenden sachlichen Unsinn von sich gibt. Die SZ schluckt diese leicht erkennbaren Fragwürdigkeiten nicht nur, sondern dient sie – warmherzig ins Deutsche übersetzt – ihren Lesern an. Dass die renommierte New-Yorck Times ebenso verfährt, kann nicht als Entschuldigung gelten, diese Zeitung gehört, was Klimaartikel betrifft, in die gleiche Kategorie wie die SZ. In der SZ schildert R. Muller seine Wandlung von Klimazweifler zum überzeugten Erwärmungsadepten (Saulus – Paulus). Paulus verkündet nun, dass der Klimawandel des 20. Jahrhunderts nur mit menschlichem Einfluss erklärbar sei. Dass R. Muller niemals zuvor als Klimaskeptiker in Erscheinung trat, sei nur am Rande erwähnt.

Aber der Reihe nach! Muller verfasste im Herbst 2011 mit Mitautoren, unter anderem der renommierten US Klimaprofessorin Judith Curry als zweiter Autorin, 4 Studien über die Temperaturentwicklung ab Mitte des 19. Jahrhunderts, die die folgenden Titel trugen:

– „Earth Atmospheric Land Surface Temperature and Station Quality“

– „Berkeley Earth Temperature Averaging Process“

– “Influence of Urban Heating on the global Temperature Land Average Using Rural Sites Identified from MODIS Classifications”

und schließlich

– “Decadal Variations in the Global Atmospheric Land Temperatures”

Diese Studien laufen in der Fachwelt unter dem Kürzel BEST (hier). Anstatt, wie es die wissenschaftliche Etikette fordert, erst grünes Licht der Begutachter der BEST Studie, die von Muller zur Veröffentlichung eingereicht wurde, abzuwarten, ging Muller sofort in die Offensive. Er alarmierte die Presse und trat eine Propaganda-Kampagne für BEST los.

J. Curry distanzierte sich unmittelbar darauf (hier) von diesem absolut unmöglichen Vorgehen R. Mullers, weitere massive Distanzierungen von Muller seitens J. Curry folgten (stellvertretend hier). Es war unübersehbar, dass der „Krach“ zwischen erstem und zweiten Autor, der anfänglich nur notdürftig gekittet wurde, inzwischen wohl nicht mehr zu beseitigen ist. Fakt ist indessen:

BEST wurde wegen schwerer Mängel bis heute von Fachzeitschriften die Veröffentlichung verweigert (hier).

Unter zahlreichen weiteren Mängeln ist stellvertretend für diese Ablehnung die Zurückführung von Klimaänderungen auf Vulkanausbrüche zu nennen, wobei R. Muller salopp das verursachende Ereignis (Vulkanausbruch) zeitlich hinter die Klimabeeinflussung legte. Selbst der SZ in ihrer Klimablindheit hätte dieser Kindergarten-Fehler auffallen müssen (Einzelheiten hier). Die SZ hat somit einen leicht erkennbaren Fehler, der es allein schon verbietet, den Artikel von R. Muller zu veröffentlichen, bewusst oder unbewusst in ihrem Klima-Sendungsbewusstsein nicht wahrgenommen oder wahrnehmen wollen.

Pikant ist in diesem Zusammenhang, dass exakt zur gleichen Zeit wie BEST eine Studie mit ähnlicher Zielsetzung erschien, die von den EIKE-Autoren Prof. H.-J. Lüdecke, Dr. R. Link und Prof. F.-K. Ewert verfasst war. Diese Studie durchlief im Gegensatz zu BEST die Fachbegutachtung erfolgreich und wurde im International Journal of modern Physics veröffentlicht (hier). Ferner wurde sie von Judith Curry freundlicherweise sofort auf ihrem Blog besprochen, wobei sie wie üblich zur allgemeinen Diskussion aufforderte (hier, hier, hier und hier). Die Resonanz war groß, wir haben bei 2000 Kommentaren aufgehört zu zählen. Fehler in der Studie von Lüdecke und Mitautoren wurden von den Bloggern – unter ihnen vielen Fachleuten – nicht aufgefunden. Eine weitere Besprechung erfolgte beim bekannten US Statistiker William Briggs (hier). Auch FOCUS-Online hat die EIKE-Studie zusammen mit BEST einer längeren Besprechung als interessant und berichtenswürdig erachtet (hier). All diese Fakten und Entwicklungen gibt es für die SZ nicht (analog die freie Marktwirtschaft im Gegenatz zum real existierenden Sozialismus im „Neues Deutschland“).

Wie sehen nun die Ergebnisse von Lüdecke et al. aus? Im Grunde ist nichts Weltbewegendes zu berichten, der FOCUS hat dies völlg richtig erkannt. Die Erwärmung im 20. Jahrhundert war gering und völlig ungefährlich ( grob etwa die gleichen Zahlenwerte fand im Übrigen auch BEST). Entscheidend war aber, dass, wie es die in der Studie von Lüdecke et al verwendete, moderne Persistenzmethode ausweist, die Erwärmung überwiegend natürlich war. Über die Natur des „unnatürlichen“ Resteinflusses (Sonne, CO2, UHI usw.) in den letzten 50 Jahren des 20. Jahrhunderts konnte das verwendete Verfahren prinzipiell keine Auskunft geben. Von Klimakatastrophen oder gar einen nachgewiesen anthropogenen Einfluss auf irgendein Klima keine Spur!

Die Erkenntnis der Studie von Lüdecke et al ist indes keineswegs so neu, wie sie erscheinen mag. Schon 1997 bezeugte der wissenschaftliche Beirat der Bundesregierung (WBGU), dass es „sehr schwierig sei, einen menschgemachten Einfluss auf Klimawerte nachzuweisen“ (S.8, hier). Jeder mag diese politisch korrekte Formulierung in den entsprechenden Klartext für sich selber übersetzen. Von 1997 bis heute gibt es keine Fachveröffentlichungen, die das Gegenteil belegen. Die heute „etwas anders“ lautenden Aussagen des WBGU sind nicht neuen wissenschaftlichen Erkenntnissen, sondern der massiven personellen Umbesetzungen in Richtung „Klimaalarmismus“ geschuldet.

Nicht umsonst wird das Problem eines solchen Nachweises, nach dem die Alarmisten bis heute verzeifelt und vergeblich suchen, in der Fachliteratur als „attribution and detection problem“ bezeichnet. Es ist bis heute ungelöst!

Pikanterweise veröffentlichte Prof Hans-J. Schellnhuber vom Potsdamer Institut für Klimafolgenforschung in 2003 eine Studie, in der weltweit etwa 100 Stationstemperaturreihen analysiert wurden – bei BEST waren es ca. 30.00 Reihen, bei Lüdecke et al. ca. 2500 Reihen. In der „discussion“ der Arbeit von Schellnhuber dann die unmissverständliche Aussage: „Wir konnten keine Anzeichen für eine globale Erwärmung der bodennahen Atmosphäre auffinden“ (S. 5 unter (iii), hier). Überflüssig zu erwähnen, dass Schellnhuber in Zeitungsinterviews und seinen populären Klima-Propagada-Schriften ganz andere Aussagen als in seinen Fachveröffentlichungen macht. All dies ist der SZ selbstverständlich unbekannt, aber vielleicht auch nicht? Wir wollen und können es nicht entscheiden. Indes gilt: all dies schert das „Neue Deutschland“, Pardon, die SZ nicht im Geringsten.

Leserbriefe, die Richtigstellungen von Klima-Unsinnsberichten (stellvertretendes Beispiel hier) in der SZ beabsichtigen, werden selbstredend nicht veröffentlicht. Vielmehr gefällt sich die SZ in Schmähartikeln gegen „Abweichler“, vulgo „Klimaskeptiker“. In einem solchen Artikel (hier) wird Prof. H.-J. Lüdecke der Ausspruch „wir brauchen keine Klimaforscher“ in den Mund geschoben, demselben Lüdecke, der die oben erwähnte Fachveröffentlichung als Klimawissenschaftler zusammen mit seinen Mitautoren verfasst hat. Wir sind bewusst gegen diesen Artikel nicht rechtlich vorgegangen, der in seiner Falschaussage (Lüdecke betont, dass es solch einen Unsinn aus seinem Munde nicht gibt) gegen das Pressegesetz verstößt. Es erschien uns besser, an Hand dieser SZ-Schmähschrift immer wieder auf die „Qualität“ der SZ Klimaberichterstattung hinweisen zu dürfen.

Natürlich braucht man kein Hellseher zu sein, um vorherzusagen, dass die SZ auch die Arbeit des weltbekannten US Meteorologen Antony Watts glatt übersehen wird. Diese weist nach, dass insbesondere in den USA ein maßgebender Anteil von Temperaturkurven fast doppelt so hohe Steigerungen aufweist, wie sie wirklich auftraten (hier, hier). Die Arbeit von A. Watt wurde vor wenigen Tagen ebenfalls zur Veröffentlichung eingereicht. Man darf gespannt sein.

Wir haben hierzulande unter einer „freien“ Presse somit das Vergnügen, zumindest auf dem Gebiet der Klimaberichterstattung immer noch DDR-Verhältnisse – und dies leider nicht nur bei der SZ – anzutreffen.

Michael Limburg




Teil 2: Die Fallgruben der Klimawandler; Eine Dokumentation der wichtigsten Fakten für eilige Leser

IV

2010 zeigten ca. 70% der NASA-GISS-Temperaturdaten für 1885-2010 keine Erwär­mung an – inzwischen wurden sie korrigiert: jetzt wird es wärmer!

1)    Die 2010-Datensätze….

(sind nicht mehr im Internet vorhanden, wurden aber archiviert) …zeigen:

Die Details werden behandelt in

‚GISS „korrigiert“ seine Temperaturdaten’

Was lehren die GISS-Originaldaten?’

die als kopierfähige PDF-Dateien im Internet-Portal des Europäischen Instituts für Klima und Ener­gie eingesehen werden können (hier ). Die umfangreiche Analyse wurde für die Publikation fertiggestellt und wird gegenwärtig redaktionell bearbeitet.

 V

Das Eis am Nordpol

 Ausdehnung der arktischen Eisfläche verkleinert und vergrößert sich – schon immer

VI

Tuvalu, Funafuti Atoll:  monatliche Schwankungen des Meeresspiegels, 1977-1998, aber kein Anstieg.

VII

Abschmelzen der Gletscher ?

Ja, infolge Rückerwärmung nach dem Ende der Kleinen Eiszeit etwa ab 1820, d.h. 130 Jahre vor dem Beginn der verstärkten industriellen CO2-Produktion

 

VII

Hochwässer – ein Ergebnis des Klimawandels ?  Nein !

 

‚Höchste Hochwässer’ können schon nach wenigen Jahren auftreten, aber auch erst im Abstand von vielen Jahrhunderten, wie in diesem Beispiel.

Am Zusammenfluss von Werra und Fulda dürfte 1342 das Hochwasser mindestens 10 m über den Mittelwasser-Pegel gereicht haben. 

IX

Das 2°-Ziel der Politik

Wie entstand es und was ist Klimawandel wirklich?

Gut begründete kritische Einwände zur Erderwärmung werden seitens der Regierung stereo­typ mit dem Argument abgelehnt, man folge mit der Akzeptanz des 2°-Zieles der offiziellen Politik des Weltklimarates (IPCC). In einem am 28.10.2009 veröffentlichten Interview der Frankfurter Allge­meinen Zeitung haben die Präsidenten des Geoforschungszentrums Pots­dam, Prof. Dr. Hüttl, des Alfred-Wegener-Instituts Bremerhaven, Prof. Dr. Lochte, und des Senckenberg.-Mu­seums, Prof. Dr. Mosbrugger,  das 2°-Ziel als unbegründet und nicht zweckmäßig beurteilt. Trotz dieses Urteils der höchsten geowissenschaftlichen Fachinstanzen hält die Bundesregierung daran fest. Wer die Entstehungsgeschichte dieses Gebotes erfährt, kann nicht glauben, dass eine durch nichts bewiesene und dazu noch völlig fachfremde Annahme zu einem  Handlungsgebot für die ganze Welt mutie­ren konnte. Joachim Müller-Jung, Fachjournalist der FAZ und durch viele Beiträge als Verfech­ter des Modells vom menschengemachten Klimawandel bekannt, hat diese Entstehungsge­schichte am 9.12.2009 in der FAZ in einem gründlichen Beitrag be­handelt. Danach hat die Ge­schichte der Zwei-Grad-Grenze 1977 durch William D. Nordhaus begonnen: Nordhaus war an der Yale-Universität Wirtschaftsprofessor, ohne eigenen Bezug zum Klima und zur Klimaforschung; d.h. das 2°-Ziel ist keine Erfindung der Klimawissenschaft­ler.

Der ursächlich und tatsächlich fehlende Bezug zur Klimaforschung ergibt sich u.a. schon daraus, dass das 2°-Ziel in einer Abkühlungsphase entstand, in der Wissenschaftler eher eine Eiszeit be­fürchteten: Am 25.2.1977 zitierte die Frankfurter Allgemeine Zeitung den amerikanischen Chemi­ker und No­belpreisträger Linus Pauling mit dem Satz: „Die Klimaveränderung könne in eine glo­bale Katast­rophe münden, in den bisher härtesten Test für die Zivilisation“.  Damals fürchtete man sich vor einer neuen Eiszeit, heute vor der Erderwärmung. Am 22.4.2011,  also 34 Jahre später, schreibt  Welt Online dazu: „In den 70-Jahren hatten wir schon mal eine inten­sive Debatte um die Zukunft des Weltklimas. Damals warnten uns die Wissenschaftler aller­dings vor genau dem Ge­genteil: einer neuen Eiszeit. Was aus der Rückschau von heute besonders auffällt: Die erwarte­ten Folgen glichen denen, die heute im Zusammenhang mit der Erder­wär­mung diskutiert werden, wie ein Ei dem anderen: Unbewohnbarkeit der Erde, Extremer­eignisse, Hurri­kane, Dürren, Fluten, Hungerkrisen und andere Katastrophen, die CIA er­wartete Klima­kriege. Auch machte man den Menschen verantwortlich für den sich abzeich­nenden Klimawan­del“. 

Das 2°-Ziel machte Karriere, weil manche Klimaforscher es gelesen oder davon gehört hatten,  seine Anwendbarkeit und Nützlichkeit für ihre Zwecke begriffen, und sich gegenseitig der Be­deu­tung dieses Zieles versicherten. Sein wissenschaftlicher Gehalt erinnert an die Sage von der Wech­selbeziehung  zwischen dem Glöckner von Notre-Dame und dem Kanonier auf der Bas­tille: Wenn der Glöckner um die Mittagszeit sah, dass der Kanonier zur Kanone ging, begann er die Glocke zu läuten, und der erste Glo­ckenschlag veranlasste den Kanonier, den Mittagsschuss abzufeuern.

Carlo Jaeger , Ökonom, Soziologe und Humanökologe und Leiter des Forschungsfeldes Trans­dis­ziplinäre Konzepte und Methoden am Potsdam-Institut für Klimafolgenforschung (PIK), hat in ei­nem Buchkapitel geschrieben "Das Zwei-Grad Limit ist fast zufällig aufge­taucht, und es entwi­ckelte sich dann eigentümlich widersprüchlich weiter: Politiker haben es wie ein wissenschaftli­ches Er­gebnis behandelt, Wissenschaftler als eine politische Angele­genheit."

Weitere von Müller-Jung beschriebene Details können in diesem Rahmen nicht berücksichtigt wer­den. Zusammengefasst zeigt sich, dass ein zufälliger Einfall eines Wirtschaftsprofessors durch Weitererzählen Karriere machen und zum Handlungsgebot für die Welt werden konnte, obwohl ihm jeder kausale Bezug zum Klima fehlt, es keine wissenschaftlichen Begründungen gibt, dafür aber seine Unvereinbarkeit mit Grundgesetzen der Physik bewiesen ist, so dass es schließlich einer Ge­schichte aus einem Märchenbuch gleicht. Gleichwohl  dient es dem PIK und dem WBGU (Wissen­schaftlicher Beirat der Bundes­regierung Globale Umweltverände­rungen) als Handlungsanweisung, einen Weltkli­mavertrag zu fordern. Der WBGU schlägt sogar eine De-Karboni­sierung vor – also eine Begren­zung des Koh­lenstoff-Umsatzes, ungeachtet der Tatsache, dass Kohlenstoff der Grund­baustein un­serer Nahrungsmittel ist, also lebensnotwendig. In der Politik und in führenden Medien gilt das 2°-Ziel längst als sakrosanktes Dogma, das zwar keiner ver­steht oder dessen Entste­hung kennt,  der aber jeden bemitleidet – oder ver­leumdet – , der es zu hinterfragen oder gar zu kri­tisieren wagt.

Von offizieller Seite wird der Begriff „Klimawandel“ mit größter Selbstverständlichkeit benutzt und auf den gegenwärtigen Zustand des Klimas angewandt. Dass es den Klimawan­del gibt, also den von uns Menschen verursachten, scheint inzwischen als allgemein akzeptierte Tatsache ver­standen zu werden. Aber was ist eigentlich Klimawandel? Das Wetter wechselt von Tag zu Tag, oder von Woche zu Woche – etc., aber wie groß muss (darf, soll) eine Änderung sein, um als Klimawandel zu gelten? Wel­ches Kriterium ist ausschlaggebend für den Unterschied zwischen Tem­peratur­schwankungen und Klimawandel? Klare Definitionen gehören zu den Grundlagen der Naturwissen­schaften – schon als Schüler erfährt man, wie beispielsweise unsere Längen­maße definiert sind, und warum. Dass für den Kli­mawandel eine klare De­finition fehlt, ist er­staunlich, wo doch sonst alles mit Maß und Zahl ge­klärt ist. Könnte dies beabsichtigt sein, weil mit der ge­gen­wär­tigen Praxis sich auch schon die kleinen Schwankungen der Gegenwart als Klimawandel propagiert lassen?

Beim „Klimawandel“ wandelt sich ein Klima in ein anderes, und man kann die Größenordnung der einen Klimawandel verursachenden Veränderung abschätzen, wenn man die Mittelwerte der Tem­peraturen mehrerer Klimazonen vergleicht. Beispielsweise unterscheiden sich die Durch­schnitts­temperaturen von Mailand, Berlin und Stockholm um jeweils etwa 3°C, Vergleiche mit subtropi­schen oder periglazialen Zonen ergeben erheblich größere Unterschiede. Ein wirklicher Klimawan­del erfordert folglich Änderungen von wenigen bis einigen Grad. Nun beziffern selbst die wissen­schaftlichen Befürworter des Klimawandels die gegenwärtigen Änderungen mit nur einigen Zehntel Grad und beziehen sich dabei auf die von ihnen zu Grunde gelegte Beo­bachtungszeit seit etwa 1880. Mit regelmäßigen Temperaturaufzeichnungen wurde je­doch schon im 17. Jh. begonnen, und wenn man diese Langzeit-Temperaturreihen berücksichtigt, gelten die Zehntel Grad, um die es in vielen Regionen wärmer geworden ist, sogar schon für die letzten dreihundert Jahre [1,2]. Wir ha­ben es folglich mit der Rückerwärmung nach dem Ende der Kleinen Eis­zeit zu tun und mit den üblichen Temperaturschwankungen, mehr nicht. Der „menschengemachte Kli­mawandel“ ergibt sich nur aus Klima­simulationsmodellen, die Langzeit-Temperaturreihen liefern als Zeugnisse der wirklichen Tempe­raturentwicklungen dafür keine Beweise.

Zum Schluss

Die gemessenen und die beobachtbaren Fakten zei­gen, dass es die üblichen Temperatur­schwan­kungen gibt, die in vielen Regionen der Erde eine geringe Er­wärmung anzeigen, aller­dings auch nicht überall, denn dort dauert die Kleine Eiszeit noch an. Von einem wirk­lichen Klimawandel, noch dazu von einem durch uns verursachten, kann keine Rede sein. Verände­rungen finden in und auf der Erde ständig statt, aber außer Tsunami, Erdbeben und Vulkan­erup­tionen verändert sich die Oberfläche der Erde lang­sam. „Wissenschaftliche“ Szenarien und Prognosen, die auf kurz­fristigen Änderungen beruhen,  sind Scharlatanerie. 

 Prof. em. Dr. Friedrich-Karl-Ewert EIKE

Sehr geehrte Kommentatoren, 
es ist wohl nützlich zu wissen, warum mein Beitrag entstand: Die FDP-Fraktion des Sächsischen Landtags hat in Dresden eine Alternative Klimakonferenz veranstaltet – und zwar sehr gut organisiert, sehr gut besucht, sehr gute Vorträge und mit dem Erfolg, dass die Teilnehmer zum Schluss überzeugt sein konnten, dass weder der angebliche Klimawandel noch unsere Urheberschaft "alternativlos" sind, wie dies dogmatisch regierungsamtlich verkündet wird. Es war zu erwarten, dass auch viele Teilnehmer kommen würden, die mit dem Thema nur wenig oder überhaupt noch nicht vertraut sind – und die auch keine Zeit für ein intensives Detailstudium haben. Um ihnen den Einstieg zu erleichtern und um sie vielleicht auch neugierig zu machen, sich selbst weiter damit zu beschäftigen, wurde diese "Dokumentation der wichtigsten Fakten für eilige Leser" – wie eingangs so benannt – zusammengestellt. Wichtig war mir, dass alle Komplexe behandelt werden, wenn auch leider oft nur in zusammengefasster Form, aber doch wohl ausreichend für eine grundlegende Information. Die in Dresden ausgelegten 50 Exemplare waren schnell vergriffen.

Der Beitrag erhebt keinen Anspruch auf Vollständigkeit, das ist auf 15 Seiten nicht möglich. Es erschien auch zweckmäßig, mit fachlichen Details sparsam umzugehen, eine Überfrachtung mit Wissenschaft zu vermeiden, und sich kurz und knapp zu fassen, und darauf zu vertrauen, dass der Leser das wohl richtig interpretieren würde, und dass die Diskussion den Inhalt vervollständigt. Was ja auch geschieht, wie man schon sieht, und wofür sich der Autor jetzt schon bedanken möchte. Dieser Dank gilt vor allem auch an jene, die in mühevoller Arbeit den Beitrag mit seinen vielen Bildern hier bei EIKE in’s Netz stellen. 

Es folgt noch ein zweiter Teil. Zum Schluss noch der Hinweis, dass der vollständige Beitrag als pdf-Datei kopiert werden kann; seine Verbreitung ist erwünscht, schließlich sind Klimarealisten ehrenamtlich tätige Überzeugungstäter. 
Glück auf,
Friedrich-Karl Ewert 

Die vollständige datei kann hier als undefinedpdf herunter geladen werden

Literatur:

1) Berner U. + Streif HJ (Hrsg): „Klimafakten. Der Rückblick – Ein Schlüssel für die Zukunft.“ BGR, GGA, NLFB; 4.

   Auflage 2004, Schweizerbart, Stuttgart

2) Universität Bern LGGE: Analyse von Lufteinschlüssen im Eis, Stationen Vostok, Taylor Dome, EPICA Dome 

3) Beck H.-G.: 180 years of atmospheric CO2-Gas analysis by chemical methods. Energy and Envi­ronment, Volume

   18, 2/2007, P. 258-282, 14 Figures, 3 Tables

4) J. F. Eichner, E. Koscielny-Bunde, A. Bunde, S. Havlin, and H.-J. Schellnhuber: “Power-law persistence and trends in

   the atmos­phere: A detailed study of long temperature records” PHYSICAL REVIEW E 68, 046133 ~2003!

5)  Ewert F-K: Langzeit-Temperaturreihen widerlegen menschengemachten Klimawandel. Fusion 32, 2011, Nr. 3, S.31-

   61, 29 Abb, 14 Tab.

6) Lüdecke H-J, Link R., Ewert F-K: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface

   Temperature Records? International Journal of Modern Physics C, Vol. 22, No. 10, doi:10.1142/S0129183111016798

   (2011), copyright World Scientific Publishing Company, www.worldscinet.com




Die Energierevolution und die Grünen! Von Walter Russell Mead

Insgesamt könnten diese Neuigkeiten gar nicht besser sein: wertvolle Ressourcen im Wert von Trillionen von Dollar stehen für die Ankurbelung der US-Wirtschaft zur Verfügung, ermöglichen eine Reduzierung des Handelsdefizits und verringern unsere Verwundbarkeit gegenüber einem instabilen Nahen Osten. Hunderttausende gut bezahlter Industriearbeitsplätze werden die Einkommensungleichheiten ausgleichen und erneut eine stabile Mittelklasse bilden. Viele dieser Ressourcen sind genau da, wo sie gebraucht werden: in den hart gebeutelten Staaten des „Rust Belt“.

Auch ein Weltfrieden erscheint möglich: die Großmächte werden nicht mit den Ellenbogen zum Kampf um die Kontrolle über die letzten Tropfen Öl antreten. Gemeine Diktaturen und rückwärtsgewandte Ölstaaten werden die Welt nicht mehr so leicht erpressen können.

Aber es gibt eine Gruppe (abgesehen von den Russen, den Golfstaaten und den Iranern), die in die allgemeine Freude nicht einstimmen können: die Grünen. Für sie war das Spektakel einer drohenden Welt-Energiekrise eine frohe Botschaft. Dadurch ließen sich erhebliche Subventionen für Solar- und Windkraft rechtfertigen (die nebenher cleveren grün-orientierten Investoren erhebliche Vermögenszuwächse garantierten). Die Grünen überboten sich Jahr für Jahr mit Schreckensprognosen über die nahenden Engpässe in der Ölversorgung. Sie hofften, dass sich die Abneigung der Bürger gegenüber dem Nahen Osten und den Kosten unseres Engagements dort in eine breite Unterstützung für kostspielige grüne Energiepläne hierzulande umwandeln ließe: „Energieunabhängigkeit“ war eines ihrer wenigen Argumente, die auf Resonanz bei vielen Durchschnittswählern stießen.

Damals, in der Blütezeit der grünen Arroganz, gab es jede Menge Spott für die „Peak-Oil-Leugner“ und die Knappheitsskeptiker, die dem widersprachen, was die Grünen als völlig gesicherte Malthusianische Wissenschaft propagierten. „Realitätsnahe“ grüne Denker seufzten und rollten ihre Augen über die Illusionen dieser umnachteten Technik-Schwärmer, die da behaupteten, dass unkonventionelle Energiequellen wie Schieferöl und –gas und die Ölsände Kanadas eines Tages nutzbar gemacht werden können.

Umweltschützer stehen eben auf dem Boden der Wissenschaft, nicht wie diese unbedarften, Gaia trotzenden Technophilen mit ihrem infantilen Glauben an die Kraft der menschlichen Kreativität. Grüne, mit ihren von Gaia geförderten gewaltigen intuitiven Kräften wissen, was die Zukunft bringt.

Aber diese glorreichen Zeiten sind jetzt vorbei und die klügeren Umweltschützer fügen sich in das Unvermeidliche. George Monbiot, dessen Wehgeschrei im Guardian wie der Chor im griechischen Drama jede Stufe des steilen Niedergangs der globalen grünen Bewegung begleitete, verlieh dem grünen Kummer über die Aussichten auf ein kommendes Jahrhundert des Wohlstands und Erfolgs Ausdruck: „Wir lagen daneben“, schrieb er am 2. Juli, „was ‚Peak Oil’ anbelangt. Es ist genug davon da, uns alle darin zu braten.“ Die Auswirkungen auf die Politik versteht er auch:

Es gibt genug Öl im Boden, uns alle darin zu braten und es gibt keine auf der Hand liegenden Gründe, die Regierungen und die Industrie veranlassen könnten, es im Boden zu lassen. Zwanzig Jahre der Anstrengung, den Klima-Zusammenbruch durch moralische Überredungskunst zu verhindern, sind mit dem Scheitern des multilateralen Klimaprozesses in Rio de Janeiro letzten Monat gescheitert. Die mächtigste Nation der Welt wird wieder ein Ölstaat und wenn man dem politischen Wandel bei ihrem nördlichen Nachbarn [ein Verweis auf Kanada] glauben darf, werden die Ergebnisse nicht angenehm sein.

Mit anderen Worten: die Vereinigten Staaten mit ihrem neuen Ölreichtum werden noch stärker gegen globale grüne Kohlenstoffpläne kämpfen und die neuen Vorkommen werden das politische System Amerikas noch weiter in Richtung der kapitalistischen Ölunternehmen trimmen.

Der Kapitalismus ist, wie Monbiot gezwungen ist anzuerkennen, kein zerbrechliches System, das leicht zu ersetzen ist. Gestützt auf riesige Vorräte an Öl wird es bleiben. Die Industriegesellschaft ist, soweit er jetzt erkennen kann, nicht zu bremsen. Gaia, die hinterhältige Schlampe hat so viel Öl und Gas produziert, dass ihre getreuesten Diener sie nicht vor den Folgen ihrer eigenen Narrheit schützen können.

Der neue grüne Untergang sieht so aus: überreichlich vorhandenes Öl und Gas wird so viele Treibhausgase freisetzen, dass die Welt verbrutzelt. Die Ausbeutung der Ölsände in Alberta, so warnen führende Umweltschützer, ist ein „Tipping Point“. William McKibben drückte das in einem Interview mit dem Magazin „Wired“ im Herbst 2011 so aus:

Ich glaube, wir sind aufgeschmissen, wenn wir volles Rohr in die Teersände gehen. Das bedeutet nämlich unweigerlich, dass wir volles Rohr auch in alle möglichen anderen unkonventionellen Energien gehen: Tiefseebohrungen, Fracking jeder Felsformation auf dem Erdboden und so weiter.

Aus folgendem Grund sind die Teersände so wichtig: sie sind der Punkt, an dem wir uns entscheiden müssen, ob wir uns, wenn der einfache Stoff alle ist, dem harten Stoff zuwenden. Dem saudi-arabische Schnapsladen gehen die Flaschen aus. Werden wir jetzt nüchtern, oder finden wir einen anderen Schnapsladen mit echt üblem Fusel, in den wir einbrechen können?

Ein Jahr später – trotz des Erfolgs von Umweltschützern wie McKibben, die Obama-Regierung zu einer Blockade der Pipeline für den Transport dieses Öls zu Raffinerien in den USA zu überreden – ist klar (so kristallklar, wie das jedem von Anfang an war, der mit offenen Augen durchs Leben geht), dass die Welt wild entschlossen ist, diesen „üblen Fusel“ zu nutzen.

Für Leute, die ihren Anspruch auf Führerschaft in der Welt auf ihr überlegenes Verständnis der Dynamik komplexer Systeme gründen, zeigt sich einmal mehr, dass die Grünen immer wieder verblüffend naiv und unbeholfen sind, wenn es darum geht, das Verhalten der politischen und wirtschaftlichen Systeme modellhaft nachzubilden und zu formen, die sie eigentlich steuern wollen. Die Grünen haben wirklich ernsthafte Probleme, wenn ihr Verständnis des zukünftigen Klimas auf der Erde auch nur in etwa so wunschgesteuert, wirklichkeitsfremd und gedanklich krude ist, wie es ihre Ansätze bei internationalen Angelegenheiten, demokratischer Politik und bezüglich des Energiemarkts sind. Wie ich bereits schrieb, hat der Kontrast zwischen den Ansprüchen der Grünen hinsichtlich Verstehens des Klimas und der Fähigkeit, den größten und umfassendsten jemals in Angriff genommenen Katalog an politischen Änderungen zu organisieren und ihrer offenbaren Unfähigkeit, im Kleinen (Solyndra) und im Großen (Kyoto, EU-Emisssionshandel, Weltklimavertrag) politische Projekte hier und heute weiterzubringen, mehr mit Klimaskeptizismus zu tun, als die Grünen bisher begriffen haben. Viele Leute lehnen nicht die Wissenschaft ab; sie lehnen den Anspruch der Grünen auf politische Richtlinienkompetenz ab. Dabei haben sie völlig recht, wie der bisherige Verlauf zeigt.

Nichtsdestotrotz ist die Zukunft der Umwelt nicht annähernd so düster, wie die Grünen glauben. Pessimistische Umweltschützer wie McKibben und Monbiot liegen mit ihrer Einschätzung der Ära des Überflusses genau so schief, wie es grüne Energieanalysten in Bezug auf die Ölvorräte auf dem Planeten waren.

Das Problem ist die Erbsünde vieler Umweltschutzgedanken: der Malthusianismus. Wären die Grünen nicht so den malthusianischen Horrorgeschichten verhaftet, würden sie erkennen, dass die neue Ära des Überflusses viel schneller zu einem saubereren Planeten führt, als wenn die neuen Gas- und Ölvorkommen nicht entdeckt worden wären.

Seien wir ehrlich. Es war Studenten der Geschichte schon lange klar und dämmert jetzt auch vielen Umweltschützern, dass diese fröhlich nachgebetete CO2-Vertragsgeschichte ein frommer Wunsch war und nichts dergleichen passieren wird. Eine Menschheit, die es nicht geschafft hat, die Bombe abzuschaffen, trotz der klaren und auf der Hand liegenden Gefahren, die von Nuklearwaffen ausgehen, wird den Verbrennungsmotor und den Generator weder verbieten, noch deren Nutzung ernsthaft einschränken.

Die politischen Anstrengungen der grünen Bewegung, die Treibhausgase zu begrenzen, haben bisher wenig Wirkung gezeigt und es ist sehr unwahrscheinlich, dass sie damit in Zukunft mehr Erfolg haben werden. Die grüne Bewegung war bisher eher eine Umarmung in der Gruppe als eine Übung im Eisenbiegen und das wird sich eher nicht ändern. Biegt sich die Klimakurve, wird das so verlaufen, wie bei der Bevölkerungskurve: als Ergebnis einer Vielzahl einzelner menschlicher Entscheidungen, die auf Basis kurzfristig kalkulierter Interessen gefällt werden, aber nicht als Ergebnis eines großartigen globalen Plans.

Der Schieferöl-Boom hat nicht den Erfolg der Grünen in einen Misserfolg verwandelt. Er hat nur dafür gesorgt, dass sich das Versagen der Grünen nicht in eine deutlich schlimmere Richtung entwickelt. Monbiot versteht das besser als McKibben; es gab nie irgendwelche ernsthaften Zweifel daran, dass wir weiter in den Schnapsladen gehen. Hätten wir nicht Wege gefunden, all dieses Öl und Gas zu nutzen, hätten wir diese Ökonomie des Weniger nicht umarmt. Natürlich bieten steigende Öl- und Gaspreise mehr Raum für Wind- und Solarkraft, aber der eigentliche Gewinner einer Öl- und Gasknappheit ist … die Kohle. Um die Metapher McKibbens zu verwenden: es gibt einen viel schlimmeren Fuselladen in der Straße unterhalb des Schieferöl-Kaufhauses, den wir seit Jahrhunderten frequentieren. Die USA und China haben Unmengen an Kohle und die würden wir eher nutzen, als den ganzen Winter zu Fuß zur Arbeit zu gehen und unsere kalten und dunklen Häuser zu verlassen. Und sollte uns das Öl wirklich ausgehen, gibt es darüber hinaus bereits die Technologie, die flüssigen Kraftstoff aus Kohle macht. Nicht gerade billig und nicht sauber, aber es funktioniert.

Die neue sonnige Zukunft mit Öl und Gas bedeutet, dass wir nicht einem neuen Kohlezeitalter entgegensehen. Dafür sollte jeder Grüne auf unserem Planeten dankbar sein.

Der zweite Grund, warum Grüne froh über das Schiefergas sein sollten ist der, dass Umweltschutz ein Luxusgut ist.  Die Menschen müssen überleben, und dazu ist ihnen jedes Mittel recht. Aber sie wollen nicht nur überleben, sie wollen auch, dass es ihnen gut geht und wenn sie das bewerkstelligen können, werden sie das tun. Eine arme Gesellschaft an der Überlebensgrenze wird ohne lange nachzudenken ihren Industrieabfall in den Fluss schütten. Sie wird Kohle verheizen und im daraus entstehenden Smog ersticken, wenn es nichts anderes zu verheizen gibt.

Politik in Zeiten eines Überlebenskampfes ist gemein und praktisch. Sie muss so sein. Der beste Führer ist der, der allen Firlefanz und Schnickschnack weglassen kann, und Dich den Winter überleben lässt. Während der Schlacht um Leningrad haben Leute unbezahlbare Antiquitäten verbrannt, nur um eine weitere Nacht überleben zu können.

Ein Zeitalter der Energieknappheit und hoher Preise stellt sich für Milliarden Menschen als ein Zeitalter ohne Ernährungssicherheit und wirtschaftlicher Stabilität dar. Diese Milliarden hungriger, verängstigter, zorniger Menschen werden nicht ihre Hände falten und über die unbeschreiblichen Wunder von Gaia und deren mystischem Netz des Lebens meditieren, derweil sie friedlich dahinsterben. Sie werden auch keinen George Monbiot oder Bill McKibben an die Macht wählen. Sie werden jeden Panda im Zoo abschlachten, statt ihre Kinder verhungern sehen, sie werden jeden Wald der Erde abholzen, statt sich zu Tode zu frieren, und je gemeiner und niederträchtiger ihr Leben ist, desto weniger Energie oder Gedanken werden sie an die zugrunde gehende Welt um sie herum verschwenden.

Aber dank des Schieferöls und anderer unkonventioneller Energiequellen ist das nicht die Richtung, in die wir gehen werden. Wir bewegen uns hin zu einer Welt, in der Energie überreichlich vorhanden ist und Horizonte sich öffnen, auch weil das menschliche Verständnis von Wissenschaft und Technologie sich festigt. Eine Welt, in der mehr und mehr menschliche Grundbedürfnisse abgedeckt werden, ist eine Welt, die über andere Ziele nachdenken kann und darüber, wie viel Geld man dafür aufbringt. Wird China reicher, wollen die Chinesen sauberere Luft, sauberes Wasser, reinere Nahrung – und sie sind auch willens und bereit, dafür zu bezahlen. Ein Brasilien, dessen wirtschaftliche Zukunft gesichert ist, kann es sich leisten, seinen Regenwald zu hegen und zu pflegen. Ein Mittelamerika, in denen es den Leuten gut geht, ist eher willens und in der Lage, seine Biodiversität zu schützen. Und eine Welt, in der die Menschen wissen, wo ihre nächste Mahlzeit herkommt, ist eine Welt, in der Gedanken und Überlegungen zur Nachhaltigkeit der Fischerei und zum Schutz der Korallenriffe Platz haben.

Eine Welt, die entspannter bezüglich der Sicherheit seiner Energiequellen sein kann, wird mehr tun können, die Qualität dieser Quellen zu verbessern und die Auswirkungen des Energieverbrauchs auf das Weltganze zu steuern. Eine reiche Welt mit gesicherter Energieversorgung wird mehr Geld für die Entwicklung von Solar- und Windkraft und anderer nachhaltiger Quellen ausgeben, als eine arme, karge.

Wenn Menschen ihre Grundprobleme als gelöst ansehen, werden sie anfangen, nach eleganteren Lösungen zu suchen. Sobald Amerika eine industriell geprägte moderne Wirtschaft hatte, wollten wir die Flüsse und die Luft sauber kriegen. Sobald sich die Leute keine Sorgen machen müssen, wie sie den zum Überleben notwendigen täglichen Kalorienbedarf stillen können, werden sie gesünderes, raffinierter zubereitetes Essen wollen.

Eine Welt mit Schieferöl und –gas im Überfluss ist eine Welt, in der den Schieferöl- und Gasproduzenten mehr Umweltschutzregeln auferlegt werden. Eine prosperierende Welt kann mehr Geld zur Seite legen für die Forschung und Entwicklung neuer Technologien für einen schonenden Umgang mit Energie oder für deren Erschließung in sauberen Umgebungen. Eine prosperierende Welt, die einem Klimawandel gegenüber steht, kann auf eine Art und Weise dessen Folgen abfangen und für die Zukunft berücksichtigen, zu der eine Welt, die von Unsicherheiten in der Energieversorgung geplagt ist und sich in einer durch Mangel bedingten permanenten Wirtschaftskrise befindet, weder willens noch in der Lage ist.

Die Grünen können auch froh sein, dass die neue Energie dort ist, wo sie ist. Für Monbiot und für viele andere, ist Gaias Entscheidung, so viel Öl in den Vereinigten Staaten und in Kanada zu deponieren, ihr größter Fehltritt von allen. Ganz sicher werden die Vereinigten Staaten von Amerika, die ähnlich dem Bibelspruch ihre Jugend wie ein Adler durch eine Riesenspritze frischen Petro-Reichtums wiedergefunden haben, noch weniger als früher bereit sein, diverse grüne Luftschloss-CO2-Verträge zu unterschreiben.

Aber bedenken wir mal, wie alles noch viel schlimmer wäre, wenn sich diese neuen Vorkommen auf dem Gebiet diktatorischer Kleptokratien befänden. Wie anstellig würden sich diverse zentralasiatische Staaten wohl gezeigt haben, die Ausbeutung zu reglementieren und den Schaden zu begrenzen? Wie wäre Nigeria mit diesen riesigen neuen Vorkommen umgegangen, deren Ausbeutung doch den Einsatz deutlich invasiverer Methoden erfordert?

Stattdessen konzentrieren sich die neuen Vorkommen in Gegenden, in denen die Umweltschützer mehr in der Politik zu sagen haben und wo, trotz aller Unzulänglichkeiten und Grenzen, Regierungen weniger korrumpierbar, öffentlich rechenschaftspflichtiger und tatsächlich kompetenter sind, wirksame Energiebestimmungen zu entwickeln und durchzusetzen. Das stellt McKibben und Monbiot nicht zufrieden (alles, was sich in der Wirklichkeit ereignet, stellt keinen dieser Herrn zufrieden), aber es ist doch deutlich besser, als das, was uns hätte erwarten können.

Und wenn es zwei Länder in der Welt gibt, über die sich CO2-fixierte Grüne mehr als über andere Länder Sorgen machen könnten, dann sind das die Vereinigten Staaten und China. Die zwei größten, hungrigsten Volkswirtschaften der Welt verfügen gleichzeitig auch über gewaltige Kohlereserven. Aber nach allem, was wir jetzt wissen, gehören die USA und China zu den größten Nutznießern des neuen Reichtums. Gaia hat das Öl und Gas dort deponiert, wo es unter CO2-Gesichtspunkten am meisten Gutes tut. In einer Welt der Energieknappheit und der Unsicherheit hätten die USA und China stracks den Weg zur Kohle eingeschlagen. Jetzt ist das weniger wahrscheinlich.

Es gibt noch einen Grund, warum die Grünen Gaia für die Schiefervorkommen danken sollten. Wind- und Solarkraft sind jetzt noch nicht ausgereift, aber wenn die neuen Ressourcen zur Neige gehen, wird die Menschheit viele andere Technologien beherrschen, die Energie liefern und sparen. Es ist möglich, dass die Schiefer-Ära nicht nur die Renaissance der Kohle verzögert hat: durch die gewonnene Zeit wird es wahrscheinlich kein weiteres Zeitalter geben, in dem die Kohle der dominierende Industrie-Brennstoff ist. Es ist praktisch sicher, dass der ökologische Fußabdruck der menschlichen Rasse über die gesamte Lebensdauer gerechnet, mit Hilfe der neuen Öl- und Gasquellen kleiner wird als ohne diese.

Weder werden die Energieprobleme der Welt, noch deren Klimaprobleme schnell verschwinden. Das Paradies winkt uns nicht aus kurzer Distanz freundlich zu. Aber die Verfügbarkeit dieser Energiequellen ist per Saldo für Umweltschützer genau so positiv, wie für alle anderen.

Der Gedanke mag ketzerisch sein, aber vielleicht ist Gaia klüger als die Grünen.

The American Interest, 28 July 2012

Übersetzt aus dem Englischen von Herbert Blaha

Zuerst erschienen bei ACHGUT

Mit Dank an den Übersetzer Herrn Blaha

Weiterführende links

http://info.kopp-verlag.de/hintergruende/enthuellungen/redaktion/riesige-energiequelle-schiefergas-die-hits-reissen-nicht-ab.html




Bemerkungen über die plötzliche, noch nie da gewesene „Eisschmelze“ in Grönland

Natürlich erinnert das an den Hype um das Abschmelzen der Gletscher im Himalaya bis zum Jahr 2035, nur dass eben die Schmelze in diesem Jahr stattfindet. Der Gipfel war die Behauptung, dass „97% des Grönlandeises schmelzen“.

In Wirklichkeit – das steht selbst beim Herausgeber dieser Meldung, der NASA, wurde aber vom Medienhype unterschlagen – hat es eine Woche lang auf 97% des Grönlandeises leichtes Tauwetter gegeben – das Eis taute oberflächlich für wenige Stunden an. Inzwischen ist dort oben längst alles wieder gefroren. Das Bild rechts zeigt den Temperaturverlauf an der Station Summit am höchsten Punkt Grönlands.

Kein Zweifel kann es an der Tatsache geben, dass es in Grönland, auch auf dem Eisschild, so mild wie seit vielen Jahren nicht mehr war. Aber ist das nicht ein ganz normales Extrem?

Immerhin, die „Süddeutsche Zeitung“ hat berichtet, dass es Eisbohrkernen zufolge alle 150 Jahre zu einem solchen Schmelzereignis kommt. Das steht auch hier.

Irgendwann (vielleicht demnächst?) wird es auf Grönland wieder so kalt sein wie seit vielen Jahren nicht mehr. Ob das dann auch als ein solcher Hype durch den Pressewald rauscht? Und ob die NASA dann überhaupt davon Notiz nimmt?

Man fragt sich natürlich, was das Ganze in dieser Form soll. Ein Schelm, wer Arges dabei denkt.

Die beste, mir bekannte Zusammenfassung des Tauwetters in Grönland (auf Deutsch!) steht hier: http://wkserv.met.fu-berlin.de/Beilagen/2012/Groenlandeis.pdf. Auch die Artikel, die ich ursprünglich aus dem Englischen hierzu übersetzen wollte, kommen da nicht heran.

Chris Frey für EIKE