1

Sonnig, windig, teuer und schmutzig: Deutschlands neuer „Superminister“ für Wirtschaft und Energie hat seine Arbeit aufgenommen

[*Das Wort Zeitgeist steht kursiv gesetzt so im Original!]

Aber Herr Gabriel, der darüber nachdenkt, 2017 als Kanzlerkandidat anzutreten, wird dann nach einem waghalsigeren Projekt beurteilt. Als Teil des Koalitionsabkommens mit Frau Merkel ist er jetzt ein „Super-Minister“ und steht zwei Ministerien vor, nämlich Energie und Wirtschaft. Folglich liegt die Rettung der ambitioniertesten und riskantesten heimischen Reform in seiner Verantwortung: Der gleichzeitige Ausstieg aus der Kernkraft und fossiler Energie, gemeinhin bekannt unter dem Begriff Energiewende*, einer Bezeichnung, die Energie-„Wende“ oder –„Revolution“ bedeutet.

[*Auch dieser Begriff steht kursiv im Original, und zwar während des gesamten restlichen Artikels.]

Mehr ein Marketing-Slogan als kohärente Politik besteht die Energiewende hauptsächlich aus einem Zeitplan für das Erreichen verschiedener Ziele. Deutschlands letztes Kernkraftwerk soll planmäßig im Jahre 2022 abgeschaltet werden. Auch ist geplant, den Anteil erneuerbarer Energie aus Sonne, Wind und Biomasse bei der Stromerzeugung bis zum Jahr 2050 auf 80% und beim Energie-Gesamtverbrauch auf 60% zu steigern. Treibhausgas-Emissionen sollen relativ zum Jahr 1990 um 70% bis zum Jahr 2040 und 80 bis 95% bis zum Jahr 2050 fallen.

Die deutschen Verbraucher und Wähler lieben diese Ziele. Aber sie ärgern sich zunehmend über die Nebeneffekte. Da ist zunächst der steigende Strompreis. Dieser ist die Folge eines Gesetzes zu erneuerbarer Energie aus dem Jahr 2000. Dieses garantiert nicht nur 20 Jahre lang festgesetzte Preise für Wind- und Solarstromerzeuger, sondern es bestimmt auch, dass erneuerbarer Strom vorrangig ins Netz eingespeist wird. Als Folge glänzen die Dächer in Bayern mittlerweile durch Solarpaneele, und Windmühlen dominieren die gesamte Landschaft. Im vorigen Jahr erreichte der Anteil der Erneuerbaren an der Stromerzeugung den Rekordwert von 23,4%.

Diese Subvention ist kostspielig. Die Differenz zwischen dem Marktpreis für Strom und dem höheren festgesetzten Preis für Erneuerbare wird an die Verbraucher durchgereicht, deren Rechnungen seit Jahren steigen. Ein durchschnittlicher Haushalt zahlt heute zusätzlich 260 Euro pro Jahr, um die Erneuerbaren zu subventionieren: Die Gesamtkosten der Subventionen für Erneuerbare beliefen sich im Jahr 2013 auf 16 Milliarden Euro. Auch die Kosten für die Unternehmen steigen, was sie im Wettbewerb gegenüber ihren Rivalen in Amerika benachteiligt, profitieren diese doch vom Fracking-Boom.

Um die Abwanderung und Arbeitsplatzverluste zu verhindern, nimmt Deutschland daher Unternehmen von der Abgabe aus, die von Strom abhängig sind und die global im Wettbewerb stehen. Aber EU-Wettbewerbs-Kommissar Joaquín Almunia hat untersucht, ob das Gesamtpaket der Subventionen und Ausnahmen nicht gegen europäische Gesetze verstößt. Nur die konzertierte Lobbyarbeit Deutschlands in Brüssel kurz vor Weihnachten hat Almunia zurück gehalten, schon jetzt Strafzahlungen zu fordern.

Herr Gabriel sitzt also in der Zwickmühle. Neuesten Schätzungen des Beraterbüros McKinsey zufolge gibt es fast nichts, was er tun kann, um die Kosten der Subventionen zu reduzieren. Die Verfassung Deutschlands verbietet es, von einmal gemachten Versprechungen zurückzutreten. Eine Kürzung der Subventionen beispielsweise für neue Windmühlen um 15% während der nächsten beiden Jahre würde die Stromrechnung für einen durchschnittlichen Haushalt um lediglich 1 Cent billiger machen. Selbst wenn Herr Gabriel sich entscheiden sollte, die Unterstützung für Erneuerbare komplett zu stoppen (vollkommen unvorstellbar), würden die zusätzlichen Abgaben in den Stromrechnungen der Verbraucher kaum sinken. Und falls er hypothetisch alle Ausnahmen für die Industrie streichen würde (ebenfalls unvorstellbar), würde die durchschnittliche Stromrechnung nur geringfügig sinken.

Die Kosten sind nicht das einzige Problem bei der Energiewende. Sie hat im Endeffekt die gesamte deutsche Energieindustrie in eine Quasi-Planwirtschaft verwandelt, mit perversen Folgen. Zu bestimmten Zeiten an manchen Tagen können Sonne und Wind fast den gesamten deutschen Strombedarf decken. Aber die Sonne scheint nicht immer, vor allem im Winter, und das Verhalten des Windes ist nicht vorhersagbar. Und „Batterien“ – Speichertechnologien, die beispielsweise Strom in Gas verwandeln, das dann wieder in Strom umgewandelt wird – in einer Größenordnung, um eine Stadt zu versorgen, wird es noch viele Jahre lang nicht geben. Kernkraftwerke werden stillgelegt (das kürzlich ergangene Gerichtsurteil, dass die Schließung eines Kraftwerkes in Hessen illegal war, wird die Kosten sogar noch weiter steigen lassen, da der Betreiber Anspruch auf Schadenersatz haben könnte). Also müssen konventionelle Kraftwerke in Betrieb bleiben, um eine gleichbleibende Versorgung sicherzustellen.

Im Grunde hat die Energiewende die Ökonomie des Baus neuer konventioneller Kraftwerke auf den Kopf gestellt, besonders bzgl. von Gaskraftwerken, ist doch Gas sauberer, aber teurer als Kohle. Also müssen bestehende Kohlekraftwerke noch mehr erzeugen. Im vorigen Jahr erreichte die Stromerzeugung aus Braunkohle, die am wenigsten effiziente und schmutzigste Sorte, das höchste Niveau seit 1990. Gasbetriebene Stromerzeugung ging im Gegensatz dazu zurück (siehe Abbildung). Im Endeffekt haben die Emissionen von Treibhausgasen durch die Energiewende zu- und nicht abgenommen. [Wenigstens etwas! A. d. Übers.]

Dies alles bringt die SPD und Herrn Gabriel in eine schlimme Lage. Deutschland ist der weltgrößte Förderer von Braunkohle, und Kohlegürtel wie der in Nordrhein-Westfalen sind traditionelle Hochburgen dieser Partei. Herr Gabriel kann es sich daher nicht leisten, „anti-Kohle“ zu sein. Das ist jedoch genau das, was die ökologisch denkenden Grünen in der Opposition sind. Sie wollen, dass sich Herr Gabriel an Brüssel anlehnt, um den Emissionshandel in der EU zu reformieren, wobei CO2-Zertifikate teurer und Kohlekraftwerke folglich weniger attraktiv als Gaskraftwerke gemacht werden sollen. Ideologisch alliiert vor der Wahl im September vorigen Jahres werden die Grünen und die Sozialdemokraten jetzt immer mehr zu sich anschreienden Opponenten.

Bei der Planung seiner Rettung hat Herr Gabriel nur einen Vorteil im Vergleich zu seinen Vorgängern: Als Superminister hat er alle relevanten Verwaltungsbehörden unter seiner Kontrolle. Der damit einher gehende Nachteil besteht darin, dass die Wähler bei der nächsten Wahl genau wissen, wen sie für das Scheitern der Energiewende verantwortlich machen können. Falls das geschehen sollte, kann Herr Gabriel seine kleine Tochter sicher noch viel öfter von der Krippe abholen.

Link: http://www.economist.com/news/europe/21594336-germanys-new-super-minister-energy-and-economy-has-his-work-cut-out-sunny-windy-costly

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Rein nachrichtlich bringt dieser Artikel natürlich nichts Neues. Aber den ganzen Tenor der Berichterstattung aus angelsächsischer Sicht fand ich so interessant, dass ich diesen Artikel hier übersetzt habe.

Und was mir ‚off topic‘ noch auffiel: Beim Nennen der Namen wird grundsätzlich Mr. Bzw. Mrs. Vorangestellt – in D scheinbar undenkbar!

C. F.




Globale Erwärmung = weniger Schnee … Globale Erwärmung = mehr Schnee

Ob weniger Schnee, ob mehr Schnee : Der "Schuldige" ist stets die "Globale Erwärmung", wie eine Medien-Übersicht zeigt !

(1)   Globale Erwärmung "bedeutet" weniger Schnee

Ein seltenes und begeisterndes Ereignis: „Die Wahrscheinlichkeit, dass irgendwelche Niederschläge als Schnee und nicht als Regen fallen, wird abnehmen, und jede Schneedecke auf dem Boden wird immer schneller schmelzen. Schaut man auf die USA, hat das IPCC in eindeutiger Weise davor gewarnt, dass die ungehinderte globale Erwärmung zu einer verringerten Schneedecke in den Westlichen Bergen führen wird, was wiederum kritische Auswirkungen auf unsere Wasserversorgung hat“. – Senatorin Barbara Boxer 2009.

Dr. David Viner zufolge, einem leitenden Forschungswissenschaftler an der CRU der University of East Anglia, wird winterlicher Schneefall innerhalb weniger Jahre „zu einem sehr seltenen und begeisternden Ereignis. Kinder werden nicht mehr wissen, was Schnee ist“.

Gores Behauptung, dass „Schnee mit der globalen Erwärmung konsistent ist, steht im Widerspruch zu seinem Oscar-prämiierten Film „eine unbequeme Wahrheit“ aus dem Jahr 2006: Nicht ein einziges Mal hat Gore darin vor Rekordkälte und zunehmenden Schneefällen als Konsequenz der vom Menschen verursachten globalen Erwärmung gewarnt. Vielmehr hat er darin das Fehlen von Schnee als „Beweis“ für diese Erwärmung auf den Schild gehoben.

„Er merkte auch an, dass die optimistischsten Klimamodelle für die zweite Hälfte dieses Jahrhunderts annehmen, dass 30% bis 70% der Schneedecke verschwinden wird. Inzwischen, was Wunder, haben wir hier Menschen, die in unsere Büros kommen, weil sie Mitarbeiter der Tourismus-Branche sind und über Einbußen der Freizeit-Industrie in diesem Lande klagen“. – Barbara Boxer, 29. Oktober 2007 im Senat.

1 Fuß [ca. 30 cm] weniger Schnee im Winter? Das Climate Change Forum von Michigan beleuchtet dramatische Änderungen: Der winterliche Schneefall könnte im Mittel bis zu 1 Fuß bis zum Jahr 2100 abnehmen, wenn in wärmeren Wintern mehr Niederschlag als Regen fällt.

CTB [?]: Weniger Schnee, kleinere Gletscher, dünneres Eis

Greenpeace: Weniger Schnee, kleinere Gletscher, dünneres Eis

(Natürlich mache ich mich über sie lustig, aber sie wissen nicht, wo ich wohne. – RB[?])

Dünnere Schneedecke

Barbara Boxer im Jahre 2009: „Schaut man auf die USA, hat das IPCC in eindeutiger Weise davor gewarnt, dass die ungehinderte globale Erwärmung zu einer verringerten Schneedecke in den Westlichen Bergen führen wird, was wiederum kritische Auswirkungen auf unsere Wasserversorgung hat“.

Trends der Schneedecke in Nordamerika im Zeitmaßstab von Jahrzehnten und Jahrhunderten in Atmosphäre-Ozean-gekoppelten allgemeinen Zirkulationsmodellen

Unser Ergebnis, dass diese Modelle eine signifikante Abnahme der Ausbreitung von Schnee in Nordamerika während des 21. Jahrhunderts vorhersagen, ist eindeutig, und zwar in der Weise, dass alle verfügbaren Modelle für zwei unterschiedliche, aber jeweils realistische Emissionsszenarien in der Zukunft dies zeigen. Kein Modell nimmt eine solche Abnahme für das unrealistische COMMIT-Szenario an.

„Mit steigender Temperatur steigt auch die Wahrscheinlichkeit, dass Niederschlag eher als Regen denn als Schnee fällt, vor allem im Herbst und im Frühjahr zu Beginn bzw. am Ende der Wintersportsaison. Derartige Änderungen wird es an vielen Orten geben, vor allem auf dem Festland in mittleren und hohen Breiten der Nordhemisphäre. Das führt zu zunehmenden Regenfällen und abnehmenden Schneedecken“. (IPCC)

Globale Erwärmung verringert Schneefall in Wintersportgebieten

Die schwer unter Druck stehende Industrie für Wintersport und Freizeit könnte während der kommenden Jahre vor einem ernsten Problem stehen, falls europäische Forscher richtig liegen: weniger Schnee infolge der globalen Klimaänderung.

IPCC IV: Kürzere Schnee-Saisons und geringere Höhe der Schneedecke

Sehr wahrscheinlich werden in vielen Gebieten von Nordamerika die Schnee-Saisons kürzer und die Höhe der Schneedecke abnehmen, außer im nördlichsten Teil Kanadas, wo die maximale Höhe der Schneedecke vermutlich zunehmen wird.

…Kinder werden einfach nicht mehr wissen, was Schnee ist…

Wärmere Welt: Weniger Schnee

Eine der vielen Folgen der Erwärmung: Aride Gebiete werden weiter austrocknen. Und einiges von dem Wasser, das dort trotzdem noch fällt, kommt im falschen Aggregatzustand (Regen anstatt Schnee) oder zur falschen Zeit.

Globale Erwärmung: Verkürzte Wintersportsaisons

Die Klimaänderungs-Expertin Dr. Penny Whetton vom CSIRO sagt, dass sich die Schneebedeckung der Berge in Australien bis zum Jahr 2020 um 54% verringern könnte. „Die Wahrscheinlichkeit, dass irgendwelche Niederschläge als Schnee anstatt Regen fallen, wird abnehmen, und jedweder Schnee am Boden wird schneller schmelzen“, sagte sie.

Erwärmung: Wintersportgebiete durch Schneemangel bedroht

Genau wie diejenigen, die sich auf das Große Barriere-Riff verlassen, sieht sich die Wintersportindustrie in Australien an vorderster Front der Opfer der globalen Erwärmung. Ein CSIRO-Bericht aus dem Jahr 2003, teilweise finanziert von der Wintersportindustrie, kam zu dem Ergebnis, dass die Gebiete ein Viertel ihres Schnees innerhalb von 15 Jahren verlieren könnten und die Hälfte bis 2050. Im schlimmsten Falle kommt es zu einem Verlust von 96 Prozent zur Mitte des Jahrhunderts.

Globale Erwärmung bedeutet weniger Schnee

4. Oktober 2006: Die globale Erwärmung wird zu wesentlichen Änderungen des Klimas im Nordosten der USA führen, falls die Treibhausgas-Emissionen nicht reduziert werden. Das haben Wissenschaftler heute verlauten lassen. Wärmere jährliche Temperaturen, weniger Schnee, häufigere Dürren und extremere Regenstürme sind zu erwarten, wenn sich der gegenwärtige Erwärmungstrend fortsetzt. Dies betonen Wissenschaftler in einer neuen Studie, und die Zeit, um solche Klimaänderungen zu verhindern, läuft davon.

Globale Erwärmung: weniger Schnee

Der Gedanke, dass es im Zuge der globalen Erwärmung mehr Regen und weniger Schnee geben wird, geht bis zum Jahr 1999 zurück. Damals hatte ein Forscher an der University of California gesagt: „Es wird zu viel Wasser zur falschen Zeit geben und zu wenig, wenn wir es brauchen“.

Demokraten [USA-Partei]: Weniger Schnee = globale Erwärmung

Weniger Schnee ist das, was die Modelle infolge der Erwärmung annehmen.

Schneefälle sind einfach etwas aus der Vergangenheit – The Independent/Umwelt

Schlitten, Schneemänner und –bälle sowie die Begeisterung, durch das weiße Zeug zu gehen, sind allesamt ein kleiner werdender Teil der britischen Kultur, wenn wärmere Winter – welche Wissenschaftler der globalen Klimaänderung zuordnen – nicht nur zu weniger Weißen Weihnachten, sondern auch zu schneeärmeren Wintermonaten Januar und Februar führen werden.

(2)  Globale Erwärmung "bedeutet" mehr Schnee

„Falls sich das Klima weiter erwärmt, sollten wir ein paar Jahrzehnte lang eine Zunahme starker Schneefallereignisse erwarten“.

Globale Erwärmung bedeutet mehr Schneestürme

„Schwere Schneestürme sind nicht inkonsistent mit einem sich erwärmenden Planeten“, sagte der ‚Wissenschaftler‘ Jeff Masters auf einer Konferenz mit Reportern und Kollegen, die von der Vereinigung besorgter ‚Wissenschaftler‘ [Union of Concerned ‚Scientists‘] abgehalten worden ist.

John Christy, Klimatologe des Staates Alabama und Autor der Studie sagte, dass die Schneemenge in den Bergen während der letzten 50 Jahre nicht abgenommen hat, also während einer Periode, als Treibhausgase vermeintlich zu einer Verstärkung der Auswirkungen der globalen Erwärmung geführt haben sollten.

Schneestürme: Ein weiteres Zeichen der Klimaänderung – TIME

Eine Theorie lautet, dass eine wärmere Arktis tatsächlich zu kälteren und schneereicheren Wintern in den nördlichen und mittleren Breiten führen könnte.

Blizzard an der Ostküste hängt mit Klimaänderung zusammen – TIME

Seien Sie jetzt wachsam – dies könnte ein Fall sein, bei dem Politiker die Fakten verzerren. Es gibt einige Beweise, dass die Klimaänderung in Wirklichkeit zu mehr solchen Schneestürmen führen könnte, selbst in einer wärmer werdenden Welt.

Ein sich erwärmender Planet kann mehr Schnee bedeuten – NPR

Klimawissenschaftler sagen, dass sie ein Einzelereignis des Wetters nicht dem Klimawandel zuordnen können. Folglich, sagen sie, sind der Hurrikan Kathrina und die Wärmeperiode zur Zeit der Winterolympiade in Vancouver kein Beweis, dass die Klimaänderung im Gange ist. Genauso sind die Schneestürme im Osten und Süden kein Beweis, dass sie nicht im Gange ist.

Zieht euch warm an, es ist die globale Erwärmung – New York Times

Blizzard: Zeichen der globalen Erwärmung

Aber während Schneewehen immer mehr die Zufahrt zu Ihrem Haus blockieren, sieht das kaum nach einer sich gefährlich erwärmenden Welt aus. Aber es bedeutet auch nicht, dass die Klimaänderung ein Mythos ist (nur eine verdammte Lüge)

Wissenschaftler: Schnee ist konsistent mit globaler Erwärmung

UK mag in den Fängen des kältesten Winters seit 30 Jahren stecken und gegen eine bis zu 30 cm hohe Schneedecke an einigen Stellen kämpfen, aber das extreme Wetter ist vollständig konsistent mit der globalen Erwärmung. Das behaupten Wissenschaftler.

Wissenschaftler: Globale Erwärmung bedeutet mehr Schneestürme

„Wenn sich das Klima weiterhin erwärmt, sollten wir einige Jahrzehnte lang zunehmende Starkschneefall-Ereignisse erwarten, bis das Klima so warm wird, dass wir einen Punkt überschreiten, in dem es zu warm wird für starke Schneefälle“.

Dr. Kaku: Globale Erwärmung = mehr Schnee

Dr. Kaku stimmt auch diesem Ergebnis zu: „Ja. Es scheint den gesunden Menschenverstand zu verletzen, aber die Erwärmung der Erde bedeutet auch, dass im Mittel mehr Feuchtigkeit aus der Karibik und dem Golf von Mexiko in die Atmosphäre gelangt. Das führt zu mehr Niederschlag und eventuell auch zu mehr Schnee“.

Ziehen Sie sich warm an, es herrscht globale Erwärmung – NYTimes.com

Während der letzten Wochen hat die Kälte in Polen 66 Todesopfer gefordert; in Seattle hat es schon lange vor der Wintersonnenwende geschneit; in Minneapolis hat es so stark geschneit, dass das Dach des Metrodomes [eine Sportarena] eingestürzt ist; und die Blizzards der letzten Woche haben die am meisten angeflogenen Flughäfen Europas, nämlich London und Frankfurt, tagelang lahmgelegt, so dass Reisende gestrandet sind. Schnee und Rekordkälte haben den östlichen Teil der USA überschwemmt, und mehr davon ist in der Vorhersage.

Al Gore: Globale Erwärmung = starker Schneefall

„Wie sich zeigt, hat sich die wissenschaftliche Gemeinschaft dieser speziellen Frage schon seit einiger Zeit angenommen, und sie sagen, dass eine Zunahme starker Schneefälle vollständig konsistent mit dem ist, was sie als Konsequenz der vom Menschen verursachten globalen Erwärmung vorhergesagt haben“, schrieb Al Gore. Unglücklicherweise für ihn und andere, die behauptet haben, dass der Schnee dieses Winters ein Nebenergebnis der globalen Erwärmung ist, haben deren eigene Agenturen gesagt, dass die Klimaänderung zu weniger Schnee führt.

Ja, die globale Erwärmung kann mehr Schnee bedeuten

Tatsächlich haben Wissenschaftler schon seit mindestens zwei Jahrzehnten davor gewarnt, dass die globale Erwärmung Schneestürme schlimmer machen könnte. Schnee hat zwei einfache Zutaten: Feuchtigkeit und Kälte. Wärmere Luft nimmt wie ein Schwamm mehr Feuchtigkeit auf, bis sie auf Kaltluft trifft. Fallen die Temperatur dann in den Frostbereich, führt viel Feuchtigkeit zu viel Schnee.

So wie dieser Schnee da draußen sieht die globale Erwärmung aus: Ungewöhnlich kalte Winter könnten Sie glauben machen, dass die Wissenschaftler falsch liegen. Aber die Daten zeigen eine  ernüchternde Wahrheit…

(3)  KEINE ÄNDERUNG

…nämlich keine Beweise dafür, dass sich überhaupt irgendetwas geändert hat als Folge der Klimaänderung…

Schneefall in der Sierra seit 130 Jahren unverändert

Einer jüngst veröffentlichten Studie zufolge haben sich Schneefälle in der Sierra Nevada seit 130 Jahren nicht verändert, und es zeigen sich auch keine Beweise, dass sich überhaupt irgendetwas geändert hat als Folge der Klimaänderung.

4 der 5 schneereichsten Winter der Nordhemisphäre ereigneten sich während der letzten 6 Jahre.

Link: http://icecap.us/index.php/go/joes-blog vom 31.12.2013

Link zum Original, auf das sich ICECAP bezieht: http://www.progressivedisorder.com/Snowfall1.shtml




Der Energie-Imperativ

Die Entwicklung der Landwirtschaft erlaubte die Bildung größerer Siedlungen, obwohl die Nahrungsmittelsicherheit keineswegs garantiert war. Selbst heute noch: obwohl zum ersten Mal in der Geschichte eine enorme Vielfalt von Nahrungsmitteln angeboten wird, jedenfalls für den größten Teil der Bevölkerung in der entwickelten Welt, sind etwa 1 Milliarde Menschen – vor allem in Südasien und Afrika südlich der Sahara – chronisch unterernährt.

Sollten wir daraus schließen, dass Nahrungsmittelsicherheit in der heutigen Welt das größte Problem ist? Für die restlichen Jäger und Sammler ist es mit Sicherheit der Schlüsselpunkt ihrer Existenz. Aber die große Mehrheit derjenigen, die hungrig zu Bett gehen und sich nicht auf Tiere oder Wildpflanzen verlassen können – bei ihnen handelt es sich entweder um Landwirte, die für den Eigenbedarf produzieren, oder um die Armen in der Stadt. Erstere sind abhängig vom Erfolg ihrer eigenen Ernten. Sie haben nicht genug Geld, um Nahrungsmittel dazu zu kaufen (oder es fehlt ihnen vielfach auch die Gelegenheit dazu). Für die Armen der Stadt ist das Problem einfach und allein das fehlende Geld.

Obwohl also Nahrung weiterhin ganz oben auf der Liste der Bedürfnisse steht, sollten wir uns ernsthaft aber etwas anderes überlegen, nämlich was nötig ist, um entweder mehr Nahrungsmittel anzubauen oder um wohlhabend genug zu werden, um in der Lage zu sein, diese Nahrungsmittel auch zu kaufen. Und die Antwort lautet: Energie! Nahrung für sich genommen ist Energie für den menschlichen Körper. Für diejenigen von uns, die das Glück haben, in der industrialisierten Welt zu leben (und für eine Minderheit von Kleptokraten in ärmeren Ländern) ist ausreichend und vielfältige Nahrung eines der Vergnügen des Lebens, wobei ganze Industrien entstanden sind, um unsere Bedürfnisse zu befriedigen (Hersteller von Nahrungsmitteln, Händler, Restaurants etc.) Aber ultimativ essen wir, um gesund weiter zu leben und um in der Lage zu sein, mehr Nahrungsmittel anzubauen oder das Geld für deren Erwerb zu verdienen.

Landwirte für den Eigenbedarf haben lediglich ihre eigene Muskelkraft und die von irgendwelchen Tieren als Hilfen beim Ackerbau. Das ist eine wesentliche Strapaze sowohl für das Landgebiet, das sie bearbeiten, als auch für die Ernte, die man dabei erwarten kann. Der Ertrag ist darüber hinaus begrenzt durch die Verfügbarkeit von Grundnährstoffen: vor allem Stickstoff, aber auch Kalium und Phosphor. So war es auch in Europa vor der industriellen Ära.

Dann kam die Dampfkraft, und damit begann ein immer mehr sich fortentwickelnder Prozess, in dem Pferd und Ochse (die selbst schon den kümmerlichen Menschen einen deutlichen Vorteil verschafften) durch den Traktor ersetzt wurden. Die Erfindung des Haber-Bosch-Prozesses und dessen erste kommerzielle Umsetzung vor einhundert Jahren machte Stickstoffdünger weit verbreitet verfügbar, was zu einer großen Verbesserung der Ernten auf dem bearbeiteten Land geführt hat.

Heutzutage reicht relativ eine Handvoll Menschen aus, um viel mehr Nahrungsmittel zu erzeugen, als zu jener Zeit, als die Mehrheit der Menschen auf dem Lande gearbeitet hat. Die rapide Verstädterung in Entwicklungsländern wird in nicht allzu ferner Zukunft dazu führen, dass die Landwirtschaft nur noch einen geringen Anteil an der Gesamtwirtschaft eines jeden Landes hat. Bislang ist sie noch einer der größten Faktoren in weiten Gebieten von Afrika südlich der Sahara sowie Süd- und Südostasien. Aber dieser scheinbar nicht aufzuhaltende Prozess kann nur weitergehen, wenn es genügend zuverlässige und preiswerte Energie gibt, um die Muskelkraft zu ersetzen.

Dies ist auch der Grund, dass China nicht aufhören wird, in naher Zukunft immer neue Kraftwerke zu bauen – trotz seines Engagements in dem herum reisenden Zirkus der stattfindenden Verhandlungen zum Thema Klimaänderung. Manche weisen darauf hin, dass das Land viele Windparks und Solarpaneele installiert, aber in einem Land mit einem so hohen Energiebedarf ist das praktisch bedeutungslos im Vergleich mit der installierten Kohle und Kernkraft.

Einem kürzlich veröffentlichten Artikel zufolge (ChinaFAQs: Renewable Energy in China – An Overview) erzeugt das Land etwa 8% seiner Gesamt-Primärenergie aus nicht fossilen Quellen. Allerdings ist vieles davon Wasserkraft: Es gibt dort fast 230 GW installierter Kapazität (die größte im Vergleich zu allen anderen Ländern). Im Vergleich dazu beträgt die Kapazität von Windkraft 75 GW und die von Solarpaneelen nur 7 GW. China mag der größte Produzent von Photovoltaik-Zellen sein (von denen viele exportiert werden) und plant den Bau weiterer Windparks, aber dies bedeutet keineswegs eine Abkehr von fossilen Treibstoffen.

Ein Ende des vorigen Jahres im Guardian erschienener Artikel bringt es auf den Punkt: More than 1,000 new coal plants planned worldwide, figures show. Das World Resources Institute hat ermittelt, dass 1200 Kohlekraftwerke in Planung sind, zwei Drittel davon in China und Indien. Einige Kohlekraftwerke in Peking wurden durch Gaskraftwerke ersetzt, um das notorische Problem der Luftverschmutzung in dieser Stadt in den Griff zu bekommen, aber es scheint eindeutig, dass China und Indien während der nächsten Jahrzehnte auf das Wachstum von Kohlekraft setzen werden.

Der größte Wettbewerbsvorteil Chinas sind die niedrigen Produktionskosten, und das wird man nicht unnötig durch steigende Energiepreise aufs Spiel setzen. Indien mit seiner weniger dynamischen Wirtschaft als sein nördlicher Nachbar kann sein Wachstum nur durch ähnliche Vorteile bei den Produktionskosten beschleunigen. Nur eine wachsende Wirtschaft wird in der Lage sein, das erschreckend hohe Niveau der Mangelernährung im ganzen Land zu reduzieren.

Billige und sichere Energie ist der Schlüssel zu wirtschaftlichem Wachstum und produktiver Landwirtschaft. Sie ist ultimativ auch die Antwort auf das wachsende Problem der Trinkwasserknappheit. Wasser als solches ist keine begrenzte Ressource, aber häufig befindet es sich an der falschen Stelle oder ist zu salzhaltig für den Gebrauch. Eine sichere und erweiterbare Energieversorgung ermöglicht es, via Osmose Salzwasser in Trinkwasser zu verwandeln und auch die Entwicklung intelligenterer Bewässerungssysteme.

Die globale Erwärmung kann später in diesem Jahrhundert zu einem Problem werden oder auch nicht, aber eine wohlhabende und gut ernährte Bevölkerung wird viel besser in der Lage sein, damit umzugehen als eine Welt, in der eine Milliarde Menschen unterernährt ist. Energiesicherheit ist das heutige Imperativ!

Link: http://www.scientific-alliance.org/scientific-alliance-newsletter/energy-imperative

Übersetzt von Chris Frey EIKE




Die gekonnten Vorhersagen der Klimawissenschaft

In der Studie von Smith et al. wurden folgende spezifische Vorhersagen erstellt:

• In der Dekade 2004 bis 2014 würde es einer Erwärmung um 0,3°C kommen.

• Mindestens die Hälfte der Jahre nach 2009 würde wärmer ausfallen als das Rekordjahr 1998

Man beachte, dass man zu jener Zeit, 2007, von 1998 als dem wärmsten Jahr ausgegangen war. Nachfolgende Anpassungen der Methodik machten plötzlich das Jahr 2005 zum wärmsten Jahr.

Diese Vorhersagen wurden weithin verbreitet [vielleicht auch in deutschen Zeitungen? Weiß zufällig jemand noch etwas davon? A. d. Übers.]. Sie tauchten auf in einer Presseerklärung des Met. Office, und eine Hochglanz-Broschüre zur ,,Information für die Regierungspolitik in der Zukunft” [Original Informing Government policy into the future] zeigte die obligatorischen, Angst erzeugenden Hintergrundbilder mit schwarzen Wolken und Menschen mit Atemmasken. Vicky Pope hat über diese Vorhersagen gesprochen und gesagt: „Das sind sehr sichere Statements über das, was während der nächsten 10 Jahre geschehen wird“.

Und natürlich haben alle Medien ergeben darüber berichtet ohne jede Hinterfragung.

Diese Vorhersagen haben sich als falsch herausgestellt. Wir sind fast schon im Jahr 2014 angekommen, und seit dem Jahr 2004 hat es keinerlei Erwärmung gegeben. Von den Jahren seit 2009 hat kein einzigen den Rekord des Jahres 1998 gebrochen, jedenfalls den HadCRUT3-Daten zufolge. Zieht man die HadCRUT4-Daten heran, zeigt sich, dass das Jahr 2010 um bedeutungslose 0,01°C wärmer war (das ist ein Zehntel der Fehlerschätzung). Die Jahre 2011 und 2012 waren kühler ausgefallen, und es ist inzwischen eindeutig, dass auch das Jahr 2013 kühler ausfallen wird.

Vorhergesagt war eine Erwärmung um 0,30 °C ± 0.21°C (Vertrauensbereich 5 bis 95%; Modell CI). Das bedeutet, wenn wir nicht noch eine signifikante Erwärmung während der nächsten paar Monate bekommen, sieht es so aus, als ob die Beobachtungen außerhalb von C1 liegen.

COP19, Warschau 2013: Stillstand war „erwartet worden”

Auf der letzten Klimakonferenz COP19 in Warschau war das Met. Office mit einem Stand vertreten. Auf diesem waren zwei interessante Bilder hiervon zu sehen (Dank an Leo Hickman):

[siehe Bilder oben rechts]

Offensichtlich entspricht eine Verlangsamung der Erwärmung „den Erwartungen“. Obwohl es in der Studie von Smith et al. geheißen hatte, dass die natürliche Variation die Erwärmung während der nächsten paar Jahre aufhalten könne; und obwohl sie danach mit der unrichtigen Vorhersage weitermachten, gab es keinerlei Erwähnung einer solchen Erwartung in der Presseerklärung des Met. Office oder dem Kommentar von Vicky Pope. (Tatsächlich hat sie gesagt: „während der nächsten zehn Jahre werden wir Zeuge ziemlich signifikanter Änderungen werden“).

Die zweite Graphik ist interessant, weil die Achsen nicht beschriftet sind, was die erste und elementarste Regel des Zeichnens von Graphen verletzt. Ich habe via Twitter gefragt, was da gegen was aufgetragen war. Ich danke Gerry Morrow für den Vorschlag, dass möglicherweise der Verlauf des Vertrauens in die Klimawissenschaft mit der Zeit aufgetragen war. Vermutlich sollte die Anzahl der Vorkommen pro Jahrhundert gezeigt werden, mit der ein Stillstand den Klimamodellen zufolge wahrscheinlich eintritt. Im Text ist von einem 10-jährigen Stillstand die Rede, aber der gegenwärtige Stillstand dauert schon über 15 Jahre, was nur zweimal pro Jahrhundert vorkommen soll, wenn die Modelle richtig liegen.

Smith et al 2013: weise Modelle

Eine neue Studie von Smith et al. (2013) mit dem Titel „Real-time multi-model decadal climate predictions” wurde in Climate Dynamics veröffentlicht. Daran gearbeitet haben 22 Autoren, was die Tatsache spiegelt, dass diesmal viel mehr Klimamodelle herangezogen worden waren. Der Tonfall ist irgendwie vorsichtiger als in der vorigen Studie. So heißt es beispielsweise jetzt „wir betonen, dass die Vorhersage experimentell ist“. Aber es wird auch behauptet, dass die Modelle „einer rigorosen Evaluierung unterzogen worden waren. Jedes einzelne Modell wurde individuell auf seine Vorhersagefähigkeit evaluiert“.

Die Studie vermischt Vorher- und Nachhersagen. Für so etwas wurde das Met. Office schon zuvor kritisiert. Beispiel hierfür ist die Behauptung, dass die „Vorhersagen für das Jahr 2011 gut mit den Beobachtungen übereinstimmen“. Bei der Lektüre der Studie wird nicht klar, wann diese ‚Vorhersagen‘ ausgegeben worden sind.

Es gibt keine Schlagzeilen-Zahl einer Erwärmungs-Vorhersage während der nächsten Dekade, aber hier folgt eine Graphik, die diese Vorhersagen graphisch darstellt:

Die nicht initialisierte Vorhersage scheint von einem Startpunkt mit einer um 0,3°C höheren Temperatur auszugehen, als gegenwärtig gemessen, während die initialisierte (rote) Kurve einen Anstieg von etwa 0,3°C innerhalb von drei Jahren zeigt. Eine Vorhersage der Reading-Gruppe (grüne Kurve) wurde aus irgendwelchen Gründen heraus gehoben und zeigt einen mehr graduellen Anstieg. (Ed Hawkins nannte mir als Grund, dass es eher eine statistische Vorhersage als eine auf Klimamodellen basierende handelt).

Aber was hinsichtlich Smith et al. 2013 am bemerkenswertesten ist: Es wird kein Versuch unternommen, die Genauigkeit der vorigen Studie von Smith et al. 2007 abzuschätzen, obwohl diese frühere Studie als Referenz genannt wird und trotz der Aussage in der Introduction, dass „die Abschätzung der Diskrepanzen zwischen den Vorhersagen und den nachfolgenden Beobachtungen Schwächen der Initialisations-Strategien enthüllen kann, der Modellsimulationen interner Variabilität, Modellreaktionen auf äußere Antriebe und Unsicherheiten zukünftiger Antriebsfaktoren. Diese alle sind für die Verbesserung zukünftiger Vorhersagen nicht evaluierbar“.

Hier wollen wir an die berühmte one-minute summary of how science works von einem Kerl namens Richard Feynman erinnern.

Aktualisierung: Ed Hawkins sagt, das seine Studie in Arbeit ist, in der die Vorhersage-Verzerrungen in einer Version von DePreSys untersucht werden.

Link: http://ipccreport.wordpress.com/2013/11/20/the-skillful-predictions-of-climate-science/

Übersetzt von Chris Frey EIKE




Europa kann grüne Ziele und Wachstum nicht unter einen Hut bringen

Bild rechts: Wind turbine image courtesy of Shutterstock

Die FT berichtet:

„Es ist ja gut und schön, sehr, sehr grün zu sein, aber nicht, wenn man an heimischer Produktion interessiert ist“, sagt Jim Ratcliffe, Direktor des Chemie-Giganten Ineos. „UK ist schon jetzt benachteiligt durch die Kosten für Energie, und dann packt die Regierung auch noch Steuern obendrauf. Jeder Energieverbraucher wird auf diese Weise irgendwann einfach verschwinden“.

Die beste Art, auf grüne Energiepolitik zu schauen, ist es, sie als einen Luxus zu betrachten. Das heißt, normalerweise zwingt man die Leute, Dinge zu tun, die sie sonst nicht tun würden, und das behindert das Wachstum. In Boomzeiten ist das nicht so problematisch, wie man in den Jahren vor Ausbruch der Finanzkrise 2008 sehen konnte. Aber heutzutage merken die „grüneren“ Länder, dass es immer schwerer wird, den grünen Hügel hinauf zu strampeln.

„Es hat eine greifbare Verschiebung in Europa gegeben”, sagt Roger Reynolds, ein Spezialist bei Exane BNP Paribas in London. „Der Schwerpunkt hat sich jetzt verschoben, und zwar von der Reduktion von Emissionen, koste es, was es wolle, hin zur Frage der Bezahlbarkeit“.

Europa hatte gehofft, beim Festlegen seiner ambitionierten Klimaziele bis zum Jahr 2020 als globaler Anführer zu fungieren. Aber seine Position, der erste Betreiber grüner Politik zu sein, hat nur dazu geführt, dass Europa bzgl. Wettbewerb relativ zur übrigen Welt ins Hintertreffen geraten ist. Grüne Energie ist viel teurer als braune Energie und muss durch Subventionen der Regierung aufgepäppelt werden, um einen signifikanten Marktanteil zu erlangen. Die Kosten dieser Subventionen werden an die Verbraucher durchgereicht. Das bedeutet, dass Haushalte und Industrie sich für Strom dumm und dämlich zahlen müssen. Wenn man ein mittlerer Hersteller von Widgets in Deutschland ist, sehen die Optionen in Entwicklungsländern oder den schieferreichen USA immer attraktiver aus.

Während die Deutschen darüber debattieren, wie deren Energiepolitik die ökonomische Stärke ihres Landes beeinflusst und auch darüber, welche Auswirkungen sie auf die Armen hat, gibt es zwei Dinge, über die wir Anderen nachdenken sollten: Erstens, alle Ausgaben in Deutschland sowie deren Schwierigkeiten mit grüner Energie werden im wesentlichen Null Auswirkungen auf das globale Klima haben. Das Wachstum in Ländern wie China und Indien – teilweise beschleunigt durch die rasche Verlagerung energieintensiver Prozesse von Deutschland in weniger durch Vorschriften behinderte Ökonomien – wird sämtliche Einsparungen Deutschlands weit überkompensieren. Zweitens, die Chance, dass das „Beispiel“ Deutschlands die Politik rund um Energie und Klima in den Entwicklungsländern ändern wird, ist minimal. Diesbezügliche Entscheidungen basieren auf heimischer Politik und dem Gleichgewicht der Kräfte vor Ort.

Das ist Politik als Ritual. Es geht mehr um Identität und Gesinnung als darum, die Welt zu verändern. Das ist ein großartiges Gefühl für diejenigen, die sich das leisten können.

Link: http://blogs.the-american-interest.com/wrm/2013/10/16/europe-cant-find-balance-between-green-goals-and-growth/

Übersetzt von Chris Frey EIKE




Wo die Wissenschaft vom Weg abkommt

Viel zu viele Ergebnisse, die den akademischen Äther füllen, sind entweder das Ergebnis nachlässig durchgeführter Experimente oder schlechter Analysen ( siehe hier). Eine Faustregel unter Investoren im Bereich Biotechnologie lautet, dass die Hälfte der veröffentlichten Forschungsergebnisse nicht wiederholt werden kann. Und selbst das könnte eine optimistische Schätzung sein. Im vorigen Jahr haben Forscher eines Biotech-Unternehmens, nämlich Amgen, herausgefunden, dass sie lediglich sechs der 53 „grundlegenden“ Studien zur Krebsforschung reproduzieren konnten. Zuvor ist es einer Gruppe beim Arzneimittelhersteller Bayer gelungen, gerade mal ein Viertel von 67 ähnlich wichtigen Studien zu wiederholen. Ein führender Computer-Wissenschaftler ärgert sich darüber, dass drei Viertel aller Studien in seinem Umfeld Quatsch sind. Von den Jahren 2000 bis 2010 haben rund 80.000 Patienten an klinischen Tests teilgenommen, und zwar für Forschungen, die später aufgrund von Fehlern oder Ungenauigkeiten zurückgezogen wurden.

Was für eine Menge Müll!

Selbst wenn die gescheiterte Forschung nicht das Leben der Teilnehmenden auf das Spiel setzt – und vieles davon so weit vom Markt entfernt, dass das nicht möglich ist – es werden Geld und die Bemühungen von einigen der besten Geister der Welt verschwendet. Die Gelegenheitskosten des verhinderten Fortschritts sind schwer zu quantifizieren, aber vermutlich sind sie erheblich. Und sie könnten noch steigen.

Ein Grund ist die Wettbewerbsfähigkeit der Wissenschaft. In den fünfziger Jahren, als akademische Forschung nach ihrem Erfolg im 2. Weltkrieg Formen annahm, war sie immer noch lockerer Zeitvertreib. Der gesamte Club der Wissenschaftler umfasste einige wenige Hunderttausend. Mit dem Anwachsen ihrer Zahl auf etwa 6 bis 7 Millionen aktive Forscher haben die Wissenschaftler ihr Faible für Selbst- und Qualitätskontrolle verloren. Der Leitsatz „veröffentliche oder verschwinde“ [„publish or perish“] regiert inzwischen über das akademische Leben. Wettbewerb auf Arbeitsplätze ist ruinös. Vollzeit-Professoren in Amerika haben im Mittel 135.000 Dollar im Jahr 2012 verdient – mehr als Richter. Jedes Jahr bewerben sich sechs frisch gebackene PhDs auf einen akademischen Posten. Heutzutage bedeutet die Verifikation (die Wiederholung von Ergebnissen anderer Forscher) nur noch wenig, um die Karriere eines Forschers voranzubringen. Und ohne Verifikation bleiben zweifelhafte Ergebnisse bestehen, um in die Irre zu führen.

Karrieresucht ermutigt auch zu Übertreibungen und zum Rosinen aus Ergebnissen herauspicken. Um ihre Exklusivität zu retten, haben führende Journale hohe Raten der Ablehnung eingeführt: über 90% der eingereichten Manuskripte wurden zurückgewiesen. Die auffälligsten [most striking] Ergebnisse haben die größte Chance, akzeptiert zu werden. Da ist es kein Wunder, dass einer von drei Forschern einen Kollegen kennen, der eine Studie aufgemotzt hat, indem er, sagen wir, unpassende Daten „aufgrund eines Bauchgefühls“ aus den Ergebnissen herausgehalten hat. Und wenn immer mehr Forschungsteams auf der ganzen Welt an einem Problem arbeiten, wird die Wahrscheinlichkeit immer geringer, dass zumindest einer der ehrlichen Verwirrung zum Opfer fallen wird zwischen dem süßen Signal einer bahnbrechenden Entdeckung und der Laune des statistischen Rauschens. Solche störenden Korrelationen erscheinen oft in Journalen, die nach Aufsehen erregenden Studien trachten. Wenn sie beim Wein trinken erwischt oder senil werden oder Kindern Videospiele gestatten, könnten sie genauso gut auf den Titelseiten von Zeitungen landen.

Im umgekehrten Fall, nämlich wenn es nicht gelingt, eine Hypothese zu beweisen, wird man entsprechende Arbeiten nicht zur Veröffentlichung anbieten, geschweige denn dass sie akzeptiert werden würden. „Negative Ergebnisse“ machen nur etwa 14% der veröffentlichten Studien aus. Im Jahr 1990 waren es noch 30%. Dabei ist das Wissen, was falsch ist, genauso wichtig für die Wissenschaft wie das Wissen um das, was richtig ist. Der Fehlschlag, Fehlschläge zu veröffentlichen bedeutet, dass die Forscher Geld und Mühe verschwenden, um finstere Wege zu beschreiten, die bereits von anderen Wissenschaftlern untersucht worden waren.

Der geheiligte Prozess der wissenschaftlichen Begutachtung ist bei Weitem auch nicht das, was er sein sollte. Wenn ein bekanntes medizinisches Journal eigene Nachforschungen angestellt hatte hinsichtlich einer vorangegangenen Studie anderer Experten auf diesem Gebiet, stellte sich heraus, dass die meisten Begutachter nicht die Fehler entdeckt hatten, die absichtlich in die Studien eingebracht worden waren, selbst dann nicht, als man den Begutachtern gesagt hat, dass sie auf die Probe gestellt werden würden.

Wenn etwas zerbrochen ist, repariere man es.

All das bildet eine sehr schüttere Grundlage für eine Unternehmung, die die Wahrheit über die Welt herausfinden soll. Was könnte man tun, um diese Grundlage zu festigen? Eine Priorität dabei sollte es für alle Disziplinen sein, dem Beispiel jener zu folgen, die das meiste dazu getan haben, die Standards zu festigen. Ein Anfang wäre es, besser mit Statistiken umgehen zu können, vor allem bei der zunehmenden Zahl von Bereichen, in denen immer größere Datenmengen auf der Suche nach bestimmten Mustern durchforstet werden. Genetiker haben das getan und einen früheren Fluss spezieller Ergebnisse bei der Sequentierung von Genomen in einen Strom wichtiger Ergebnisse umgewandelt.

Idealerweise sollten Forschungsprotokolle im Voraus registriert und in virtuellen Notebooks festgehalten werden. Dies würde die Versuchung mindern, in den Folgen des Experiments herumzufummeln, um die Ergebnisse bedeutender aussehen zu lassen als sie sind. (Es gibt Hinweise, dass Solches bereits bei klinischen Tests mit Medikamenten der Fall war).Wo immer möglich, sollten Datensätze auch anderen Forschern zur Überprüfung offen stehen.

Die fortschrittlichsten Journale werden schon jetzt weniger zögerlich, eintönige Studien zuzulassen. Einige von der Regierung bezahlte Agenturen einschließlich des amerikanischen National Institutes of Health, das jedes Jahr 30 Milliarden Dollar für Forschungen ausgibt, arbeiten daran, wie man Experimente zur Wiederholung der Ergebnisse ermutigen kann. Und eine wachsende Zahl Wissenschaftler, vor allem jüngere, verstehen etwas von Statistik. Aber diese Trends müssen sich noch viel mehr verstärken. Journale sollten „uninteressanten“ Arbeiten Platz einräumen, und Finanziers sollten Geld beiseite legen, dies zu bezahlen. Die Begutachtung sollte verbessert werden – oder gleich eingebracht werden in Gestalt einer Evaluierung nach der Veröffentlichung durch anhängende Kommentare. Dieses System hat während der vergangenen Jahre in Physik und Mathematik gut funktioniert. Und schließlich sollten Politiker sicherstellen, dass von öffentlichen Geldern finanzierte Institutionen ebenfalls diesen Regeln folgen.

Wissenschaft verlangt enorme – wenn auch manchmal verwirrte – Anerkennung. Aber ihr privilegierter Status fußt auf der Kapazität, meistens richtig zu liegen und Fehler zu korrigieren, wenn etwas falsch läuft. Und es ist nicht so, als ob dem Universum echte Mysterien ausgehen würden, die noch harte Arbeit für Generationen von Wissenschaftlern bereit halten. Die falschen Spuren, die durch schlampige Forschungen gelegt werden, sind eine unverzeihliche Barriere für das Verstehen.

Link: http://www.economist.com/news/leaders/21588069-scientific-research-has-changed-world-now-it-needs-change-itself-how-science-goes-wrong

Übersetzt von Chris Frey EIKE




Wie man eine halbe Billion Euro verliert: Europas Stromversorger stehen vor einer existenziellen Bedrohung

Das Problem besteht darin, dass Kern- oder Braunkohlekraftwerke auf Volllastbetrieb angelegt sind und nicht ohne Weiteres ihre Erzeugung verringern können, während die zusätzliche Energie aus Sonne und Wind frei ist. Die Last der Anpassung liegt also bei Gas- und Kohlekraftwerken, deren Output auf lediglich 10% der Kapazität fiel.

Diese Ereignisse waren ein Mikrokosmos der Änderungen, die alle Gebiete betreffen, in denen erneuerbare Energiequellen immer wichtiger werden – Europa im Allgemeinen und Deutschland im Besonderen. Für Umweltaktivisten sind diese Änderungen ein Triumph. Erneuerbare Low-Carbon-Energie bekommt einen immer größeren Anteil an der Erzeugung. Das hilft, den Großhandelspreis zu senken und könnte eines Tages zu großen Reduktionen von Treibhausgas-Emissionen führen. Für etablierte Unternehmen jedoch ist das eine Katastrophe. Ihre Gaskraftwerke werden durch erneuerbare Energiequellen beiseite gedrängt. Sie verlieren Geld durch die Stromerzeugung. Sie machen sich Sorgen, dass das Wachstum von Solar- und Windenergie das Netz destabilisiert und zu Blackouts führen kann. Und sie weisen darauf hin, dass man keinen normalen Betrieb laufen lassen kann, in dem die Kunden für einen Service abhängig vom Verbrauch zahlen, wenn die Preise negativ werden. Kurz gesagt, argumentieren sie, das Wachstum der erneuerbaren Energie unterminiert die etablierte  Stromversorgung und ersetzt sie durch etwas weniger Zuverlässiges und viel Teureres.

Strom schwächer

Die Schwäche der europäischen Stromversorger war mit Sicherheit alarmierend. Auf ihrem Höhepunkt waren die obersten 20 Versorger etwa 1 Billion Euro wert. Jetzt sind sie nur noch die Hälfte wert (siehe Graphik 1). Seit September 2008 haben die Energieversorger im Bereich Verluste des Morgan Stanley-Index’ globaler Aktienkurse am schlechtesten abgeschnitten. 2008 hatten die obersten 10 europäischen Einrichtungen alle eine Kreditwürdigkeit von A oder besser. Jetzt ist dies nur noch bei 5 Unternehmen so.

Am weitesten fortgeschritten ist der Verfall in Deutschland, wo Strom aus erneuerbaren Quellen am schnellsten zugenommen hat. Der größte Stromversorger des Landes, E.ON, musste einen Verfall seiner Anteilspreise um drei Viertel seit dem Spitzenwert hinnehmen, und das Einkommen aus der konventionellen Stromerzeugung (fossile Brennstoffe und Kernkraft) fiel seit 2010 um mehr als ein Drittel. Der Umsatz des zweitgrößten Versorgers RWE ist ebenfalls seit 2010 um ein Drittel zurückgegangen. Der Finanzchef des Unternehmens klagt: „Die konventionelle Stromerzeugung kämpft als Geschäftsbereich um ihr ökonomisches Überleben“.

Die Unternehmen wären in jedem Falle in Schwierigkeiten gekommen, egal was mit den Erneuerbaren ist. Während des ersten Jahrzehnts dieses Jahrhunderts haben die europäischen Unternehmen zu viel in die Erzeugungskapazität aus fossilen Brennstoffen investiert, was diese Erzeugung um 16% in Europa als Ganzem verstärkt hat. In einigen Ländern war es noch viel mehr (Spanien z. B. 91%). Der Strommarkt ist aber nicht einmal annähernd um diese Größenordnung gewachsen, selbst in guten Zeiten. Dann hat die Finanzkrise auf die Nachfrage durchgeschlagen. Der International Energy Agency IEA zufolge wird die Gesamtnachfrage in Europa zwischen 2010 und 2015 um 2% abnehmen.

Verschärft wurden diese Probleme durch zwei Einflüsse von außerhalb. Das erste war die Havarie in Fukushima. Dadurch war die Regierung von Angela Merkel in Panik geraten und hat die sofortige Schließung von acht Kernkraftwerken und bis 2022 die Schließung der übrigen 9 in Deutschland verfügt. So abrupt kam diese Änderung, dass sich die Nackenschläge für die Unternehmen verstärkten, obwohl viele dieser Kraftwerke später ohnehin geschlossen werden sollten.

Das andere Problem war der Schiefergas-Boom in Amerika. Dies wirkte sich direkt auf die europäische Kohle aus, die zuvor in Amerika verbrannt worden war, und die Kohlepreise sanken im Vergleich zu den Gaspreisen. Gleichzeitig verfiel der Kohlenstoffpreis, weil es zu viele Zertifikate gab, die die Emission von Kohlenstoff im europäischen Emissions-Zertifikatehandel erlauben würden, und die Rezession führte zu einer geringeren Nachfrage. Das hat die Strafen für die Verbrennung von Kohle reduziert, die Umsatzvorteile von Kohlekraftwerken erhalten und Gaskraftwerke ins Hintertreffen geraten lassen. Gérard Mestrallet, leitender Direktor des größten Stromerzeugers der Welt GDF Suez, sagt, dass 30 GW durch Gas erzeugter Kapazität seit dem Spitzenwert eingestampft worden sind, einschließlich brandneuer Kraftwerke. Die Zunahme der Kohleverbrennung hat die Kohlenstoff-Emissionen in Deutschland während der Jahre 2012 und 2013 steigen lassen, also das Gegenteil dessen erreicht, was beabsichtigt war.

Darum wären die Gas- und Kernkraftanteile der Stromerzeuger selbst vor dem Boom der Erneuerbaren in Schwierigkeiten geraten. Das Wachstum von Wind und Solar hat diesen Vorgang nur verstärkt. Die Kapazität der Erneuerbaren (die viel größer ist als der Output) macht fast die Hälfte der Stromerzeugungs-Kapazität in Deutschland aus; in Spanien und Italien ist es etwa ein Drittel. Die Gesamtkapazität einschließlich der Erneuerbaren liegt weit über der Spitzennachfrage in allen drei Ländern. Daher haben die Erneuerbaren ganz stark zu der Überversorgung beigetragen.

Exzessive Erzeugung plus verringerte Nachfrage gleich niedrigere Preise. Die Strompreise sind von über 80 Euro pro MWh zu Spitzenzeiten im Jahr 2008 in Deutschland auf nur noch 38 Euro pro MWh heute (siehe Graphik 2). Das sind Großhandelspreise. Der Preis für die Haushalte beläuft sich auf 285 Euro pro MWh, ist also einer der höchsten der Welt. Teilweise liegt das daran, dass darin die Subventionen für die Erneuerbaren enthalten sind, die pro Energieeinheit eineinhalb mal so hoch sind als der Strompreis selbst). Mit dem Fallen der Großhandelspreise fiel auch die Rentabilität der Kraftwerke. Bloomberg New Energy Finance (BNEF) zufolge verlieren 30 bis 40% der konventionellen RWE-Kraftwerke Geld.

Aber das ist nur die Hälfte. Die Erneuerbaren haben nicht nur die Strommenge unter Druck gesetzt. Sie haben das etablierte Geschäftsmodell der Versorger transformiert. Direktor Michael Liebreich von BNEF vergleicht es mit den Telefon-Unternehmen in den neunziger Jahren oder heutzutage mit den Zeitungen, die durch das Internet unter Druck geraten: „es ist eine existenzielle Bedrohung!“ sagt er.

Maximale Bestrafung

In den achtziger Jahren war die Stromversorgung eine relative einfache Angelegenheit. Man garantierte eine konstante Stromversorgung auf der Basis von Kohle, Kernkraft (falls gewünscht) oder Wasserkraft (falls verfügbar). Diese Kraftwerke konnte man rund um die Uhr in Volllast betreiben. Aus technischen Gründen lassen sich Kohle- und Kernkraftwerke nicht einfach herunter fahren. Das sorgte für die Grundlastversorgung (die stets benötigte Menge). Um zusätzlichen Strom zu Spitzenlast-Zeiten zu erzeugen (beispielsweise am frühen Abend), hatte man Kraftwerke, die einfacher hoch- und herunter geregelt werden konnten wie z. B. Gaskraftwerke. Stellt man sich eine Verteilung der Stromversorgung über einen Tag vor, sieht es aus wie eine Schichttorte: Die unterste Schicht ist flach (Kernkraft, Kohle usw.), die obere Schicht (Gas) ist gewellt.

Die Liberalisierung des Strommarktes hat dieses einfache, geordnete System hinweg gefegt. Kraftwerke erzeugten Strom nur noch angepasst an den marginalen Strompreis. Das Aufkommen erneuerbarer Energie hat diese Änderungen dann wesentlich beschleunigt. Erneuerbare haben „Netz-Priorität“, das heißt, den so erzeugten Strom muss das Netz bevorzugt aufnehmen. Das ist eine legale Forderung, um die erneuerbare Energie in Europa voranzubringen. Aber sie ist auch logisch: Da die Marginalkosten von Wind und Sonne Null sind, würden die Netze diese Energie ohnehin zuerst aufnehmen. Also kommt die erneuerbare Energie am unteren Ende der Schichttorte ins Spiel. Aber anders als die schon bestehenden Grundlastversorger (Kernkraft und Kohle) sind Wind- und Solarenergie unregelmäßig und ändern sich mit dem Wetter. Dadurch wird die Grundschicht der Schichttorte ebenfalls wellig.

Wenn jetzt die Nachfrage schwankt, könnte es nicht ausreichen, lediglich den Output von Gas-Generatoren zu senken. Einige Kraftwerke müssten vielleicht komplett abgeschaltet und Kohlekraftwerke herunter gefahren werden. Genau das passierte am 16. Juni. Das ist teuer, weil es schwierig ist, Kohlekraftwerke herunter zu regulieren. Das macht die Strompreise volatiler. Und es hat auf die Profite verheerende Auswirtungen.

Unter dem alten System war der Strompreis zu Spitzenlastzeiten auf Spitzenwerte gestiegen (um die Mittagszeit und am frühen Abend). Nachts fiel der Preis mit der sinkenden Nachfrage. Die Unternehmen haben ihr ganzes Geld während der Spitzenlastzeiten verdient. Aber um die Mittagszeit ist die solare Stromerzeugung maximal. Dank der erzwungenen Bevorzugung reißt der Solarstrom ein großes Stück aus diesem Kuchen der Spitzennachfrage, was die Preisspitze eliminiert hat. Dem Fraunhofer-Institut für Solarenergie zufolge hatte der Strompreis im Jahre 2008 während der Spitzenlastzeiten 14 Euro pro MWh über dem Grundlastpreis gelegen. Während der ersten sechs Monate des Jahres 2013 betrug dieser Preisunterschied nur 3 Euro. Fazit: der mittlere Strompreis ist seit 2008 nicht nur um die Hälfte gefallen, sondern die Spitzenlastpreise sind um fast vier Fünftel gesunken. Kein Wunder, dass die Versorger derartig in Schwierigkeiten stecken.

Aber es wird noch schlimmer kommen. Die Kombination von Nachfrage in Europa und Investitionen in China haben die Preise für Solarpaneele seit 2006 um fast zwei Drittel abstürzen lassen (siehe Graphik 3). In Deutschland sind die Kosten für die Erzeugung eines Megawatts Strom mittels Solarpaneele auf 150 Euro gefallen. Das liegt über den Großmarktpreisen, aber unter den festgesetzten Preisen für die Erneuerbaren und unter den Preisen für die Haushalte. Das bedeutet, dass die solare Stromerzeugung selbst dann noch steigen kann, wenn die neue Regierung in Deutschland die Subventionen für Erneuerbare kürzt. Die Herausforderungen für die alten Unternehmen steigen.

Mehr noch, während der letzten paar Jahre haben sich die Versorger abgesichert und zwei Drittel ihres erzeugten Stromes ein bis drei Jahre im Voraus verkauft (d. h. sie bekommen die Preise aus dem Jahr 2010 für heute gelieferte Energie). Das hat sie vor der vollen Auswirkung der jüngsten Preisrückgänge bewahrt. Diese Verträge laufen 2014 oder 2015 aus. Der Direktor von E.ON sagte kürzlich: „Für die Jahre 2013 und 2014 ist keine Erholung in Sicht“.

Bereiche Holz und Wind

Die Versorger sind angesichts dieser Probleme nicht machtlos, und sie werden nicht alle gleich stark betroffen. Die sechs großen britischen Versorger beispielsweise waren geschützt durch langfristige Preisabkommen mit dem Regulator, obwohl ihre Profite mager bleiben.

Einige Versorger sind selbst in das Geschäft mit den Erneuerbaren eingestiegen. Drax, früher das größte Kohlekraftwerk in UK, ist konvertiert worden zur Verbrennung von Holzpellets. Andere Versorger investieren in großem Umfang in Offshore-Windparks.

Aber im Großen und Ganzen waren die großen Versorger sehr zögerlich mit Investitionen. In Deutschland beispielsweise gehören nur 7% der erneuerbaren Kapazität den Stromversorgern. Das Problem liegt darin, dass die Solarenergie sich so total von dem unterscheidet, woran sie gewöhnt sind. Der althergebrachte Versorger besitzt ein großes teures Kraftwerk mit einer Kapazität von 1 bis 1,5 GW. Das Kraftwerk befindet sich in der Mitte eines strahlenförmig nach allen Seiten sich ausbreitenden Netzes. Der Solarstrom unterscheidet sich davon. Photovoltaik-Paneele sind billig, klein (ein solches mittlerer Größe kann eine Kapazität von lediglich 10 MW haben) und in einem Netzwerk angeordnet, nicht als Mittelpunkt eines Rades mit Speichen.

Die Versorger könnten die erneuerbare Energie etwas ernster nehmen, aber im Moment ändert sich kaum etwas. Stattdessen reagieren die Versorger auf ihre Probleme, indem sie sich von der Stromerzeugung verabschieden und in „Downstream“-Aktivitäten [?] einsteigen wie z. B. durch das Anbieten von Beratung der Kunden. Während der letzten Monate hat Vattenfall, der größte Versorger Schwedens, 6% seiner Gewinne abgeschrieben, und drei deutsche Stromriesen, E.ON, RWE und EnBW haben angekündigt, ihre Kapazität um über 15 GW zu kürzen. Am weitesten ist EnBW hinsichtlich der Aussichten für die Zukunft gegangen. Das Unternehmen sagt, dass der Verdienst aus der Stromerzeugung von 2012 bis 2020 um 80% zurückgehen wird, abgesetzt von höheren Verdiensten durch Energie-Serviceleistungen und Erneuerbare. „Wir müssen überdenken, welche Rolle wir spielen und welchen Platz wir im Sektor Energie einnehmen“, sagt der Boss Frank Mastiaux.

Saubere Trennung

Für die Unternehmen sind die Änderungen und abstürzende Anteilspreise offensichtlich besorglich. Aber sollte sich sonst noch jemand darum kümmern? Amory Lovins vom Rocky Mountains Institute, einer amerikanischen Denkfabrik, sagt: „In Deutschland hat sich ein Geschäftsfeld mit Low-Carbon-Energie gebildet, und zwar bis zu einem Punkt, an dem der weitere Zubau von Solarenergie wenige Subventionen braucht; an dem Großmarktpreise fallen und die Bedrohung für die Verlässlichkeit des Netzes bisher nicht materialisiert haben“. Wo also liegt das Problem?

Da gibt es viele verschiedene Antworten. Erstens mussten die Versorger massive Verluste bei der Bewertung der Gewinne hinnehmen. Ihr Marktkapital ist innerhalb von fünf Jahren um 500 Milliarden Euro gesunken. Das ist mehr als die europäischen Bankanteile im gleichen Zeitraum verloren haben. Diese Verluste spielen unmittelbar eine Rolle. Für Pensionsfonds und andere Investitionen repräsentieren sie verlorenes Kapital und geringere Verdienste in der Zukunft. Für Beschäftigte bedeuten sie geringere Löhne und Arbeitsplatzverluste. Die Verluste – von denen viele dem Boom der erneuerbaren Energie vorausgegangen waren – addierten sich zu den gewaltigen Summen, die die Europäer auch für die Politik hinsichtlich der Klimaänderung ausgeben. Die Subventionen für erneuerbare Energie bewegen sich um 16 Milliarden Euro pro Jahr in Deutschland (Tendenz steigend); die kumulativen Kosten betragen etwa 60 Milliarden Euro.

Als nächstens haben die Versorger ihre Rolle als Investoren verloren. Einst waren sie gleichmäßig in Betrieb, zuverlässig und resistent gegen Inflation, die Schatzkammer der USA der Kapitalmärkte. Pensionskassen brauchen dieses Kapital, um ihre langfristigen Verpflichtungen auszubalancieren. Aber die Versorger spielen diese Rolle nicht mehr, was nicht nur die kollabierenden Anteilspreise zeigen, sondern auch die Politik bzgl. Dividenden. Bis zum Jahr 2008 folgten die Gewinne von RWE und E.ON den deutschen 10-Jahres-Bonds. Seitdem sind sie auf etwa 10% gestiegen, während die Gewinne der Regierungs-Bonds gleich geblieben sind. Erneuerbare sind nicht die einzigen riskanten Investitionen.

Am wichtigsten ist aber, dass das abwärts gerichtete Schicksal der Versorger verstörende Fragen aufwirft über die Zukunft des Stromsystems in Europa. Vereinfacht gesagt: Die europäischen Staaten fügen allmählich ein System zusammen, in dem es immer mehr Low-Carbon- und schwankende Energiequellen gibt; mehr Energieversorger, mehr moderne Kraftwerke und mehr Energie, die über Grenzen hinweg gehandelt wird. All dies wird zusammengehalten durch „Smart Grids“, die den Verbrauchern sagen, wie viel Energie sie verbrauchen, die Geräte abschalten, wenn sie nicht gebraucht werden und die Nachfrage effizienter gestalten.

In einer solchen Welt spielen die althergebrachten Versorger zwei vitale Rollen. Sie sind einmal die Stromerzeuger, wenn alle Stricke reißen und stellen sicher, dass die Lichter nicht ausgehen, wenn der Wind nicht weht und die Sonne nicht scheint. Und sie werden Investoren sein, wenn es um den Bau eines ganz neuen Netzes geht. Es ist nicht klar, ob die Lage der Versorger gut genug ist, auch nur eine solche Rolle wahrzunehmen.

Bislang haben sie es vermocht, Backup-Strom zur Verfügung zu stellen, und das Netz ist nicht zusammengebrochen, selbst im sonnen- und windverrückten Deutschland [!]. Tatsächlich ist das deutsche Netz zuverlässiger als die meisten anderen (die Länder führen einen Zuverlässigkeits-Index: Deutschland liegt in Europa mit an vorderster Stelle). Die Grünen weisen daher Bedenken zurück, dass die Erneuerbaren die Stabilität des Netzes unterminieren. Sie verweisen darauf, dass es in einem Netz von Wind- und Solarparks über ganz Europa immer irgendwo Gebiete gibt, in denen es windig oder sonnig genug ist, sie zu betreiben, zumindest tagsüber.

Vielleicht. Aber wie die Preissprünge in Deutschland zeigen, wird es immer schwieriger, die Netzstabilität zu gewährleisten. Die Versorger werden nicht dafür belohnt, die variable Natur von Wind und Solar auszugleichen. Und dies passiert zu einer Zeit, in der die erneuerbare Energie im Mittel etwa 22% der Energienachfrage in Deutschland deckt. Niemand weiß wirklich, was passiert, wenn Erneuerbare einen Marktanteil von 35% erreichen,  was das erklärte Ziel der Regierung bis zum Jahr 2020 ist, geschweige denn bei einem angestrebten Anteil von 80% im Jahr 2050. Fast jeder räumt ein, dass sich bei steigendem Anteil der Erneuerbaren die Regulierung des Netzes ändern muss.

Die Rolle der Versorger als Investoren ist ebenfalls bedroht. Die erforderlichen Summen, um das Netz aufzubereiten, sind gewaltig und betragen bis zu 1 Billion Euro bis zum Jahr 2020. Unternehmen mit einem Wert von 500 Milliarden Euro können so etwas nicht einmal ansatzweise finanzieren. Stattdessen kürzen sie ihre Kapitalausgaben. Bei RWE beispielsweise sind sie seit 2011 von 6,4 Milliarden Euro auf 5 Milliarden Euro gefallen. Davon gehen 1,6 Milliarden in die Wartung existierender Kraftwerke, was etwa 1 Milliarde Euro für die Entwicklung übrig lässt – die Hälfte des gegenwärtigen Niveaus. In ihrem jetzigen Zustand können die Versorger das saubere Energiesystem, auf das Europa hofft, nicht finanzieren.

Und das hat Auswirkungen auf die Zukunft. Um den Investitionsausfall durch die Versorger auszugleichen, müssen die Regierungen Andere überreden einzuspringen, wie z. B. Pensionfonds oder Wohlstandsfonds [pension funds or sovereign-wealth funds]. Aber diese Einrichtungen haben schon durch das Halten von Anteilen der Versorger indirekt in Energie investiert und nicht direkt. Und das aus gutem Grund: Sie mögen nicht die politischen Risiken des Besitzes von Projekten, in denen die Regierungen eine Rolle spielen, weder durch Planung noch durch das Festsetzen von Preisen. In einigen Ländern gibt es auch Gesetze gegen das Erwirtschaften von Umsätzen, sowohl stromaufwärts (Erzeuger) als auch stromabwärts (Verteilung.)

Während der letzten 30 Jahre haben die europäischen Regierungen versucht, die Energiemärkte zu deregulieren. Sie haben staatseigene Unternehmen privatisiert und die Stromerzeugung aufgeteilt nach Übermittlung und Verteilung. Ziele waren zunehmender Wettbewerb, Effizienzsteigerungen und Preisabschläge.

Diese Ziele werden immer schwerer zu erreichen sein. Erneuerbare Energie hat sich einen wachsenden Anteil des Marktes gegriffen, hat die Großhandelspreise gedrückt und war erfolgreich hinsichtlich der Verbilligung von neuen Technologien. Aber die Kosten für die Subventionen waren ebenfalls sehr hoch, die erwünschten Umweltauswirkungen nicht existent und der Schaden für die Versorger viel größer als erwartet. Europa im Allgemeinen und Deutschland im Besonderen sehen sich selbst als Pioniere von Low-Carbon-Energie. Wenn sie das wirklich sind, müssen sie ein deutlich besseres Stromsystem schaffen, dass sich die Low-Carbon-Energie auszahlt ohne Verringerung der Zuverlässigkeit und ohne Entstehung übermäßiger und unnötiger Kosten.

[Leider lässt sich der Autor oder die Autorin nicht darüber aus, wie das gehen soll. A. d. Übers.]

Link: http://www.economist.com/news/briefing/21587782-europes-electricity-providers-face-existential-threat-how-lose-half-trillion-euros

Übersetzt von Chris Frey EIKE




So sieht der wahre Zustand des Klimas aus: NIPCC – Summary for Policymakers

Außerdem ist festzustellen, dass keiner der Autoren im NIPCC auch nur einen Cent an staatlicher Zuwendung erhalten hat! Intensive und ergebnisoffene Forschung wurde hier strikt ehrenamtlich betrieben.

Das ganze Dokument kann mit dem Link unten aufgerufen werden. Dort stehen alle Belege und Nachweise für die hier übersetzten Fakten. Aus Zeitgründen kann das gesamte Dokument aber nicht komplett übersetzt werden.

Chris Frey

Aufbau: Die NIPCC-SPM enthält eine Einführung (Introduction) sowie 5 Kapitel und ‚Conclusions’. Die 5 Kapitel tragen die Titel:

1.Methodology (Methodik)

2.Global Climate Models

3.Postulates (Forderungen)

4.Circumstancial Evidence

5.Policy Recommendations (Empfehlungen an die Politik)

Conclusions

In den Kapiteln werden jeweils zentrale Aussagen des IPCC Punkt für Punkt widerlegt. Am Ende eines jeden Kapitels findet sich eine Zusammenfassung von wenigen Zeilen. Diese Zusammenfassungen werden hier übersetzt. Außerdem gibt es 10 Kästen, in denen die zentralen Aussagen des NIPCC-Berichtes nach Themen sortiert  rekapituliert werden. Die Kästen 1 und 3 sowie 5 bis 10 werden übersetzt, ebenso wie die ‚Conclusions’. Sie ergänzen sich natürlich mit den Zusammenfassungen am Ende der einzelnen Kapitel. Ich gehe davon aus, dass jede einzelne Aussage kreuzweise belegt ist, im Gegensatz zu den frisierten IPCC-Unterlagen, so dass ich auf die Übersetzung dieser Erläuterungen hier verzichte. Der Link zum Dokument ist unten angegeben.

Und noch eine Anmerkung: Im gesamten Text wird die korrekte Schreibweise CO2 beibehalten. Im Editor der EIKE-Website lässt sich diese Tiefstellung jedoch nicht darstellen.

Hier also zunächst der Inhalt der Kästen.

Kasten 1: Zusammenfassung der Ergebnisse vom NIPCC

● Das atmosphärische Kohlendioxid (CO2) ist ein mildes Treibhausgas, dessen Wärmewirkung mit steigender Konzentration immer weiter abnimmt.

● Eine Verdoppelung der atmosphärischen CO2-Konzentration verglichen mit dem vorindustriellen Niveau würde unter Ausblendung anderer Antriebe und Rückkopplungen wahrscheinlich eine Erwärmung zwischen 0,3°C und 1,1°C verursachen, wovon fast 50% bereits eingetreten sind.

● Wenige Zehntelgrad zusätzlicher Erwärmung würden, so sie wirklich eintritt, nicht zu einer Klimakrise führen.

● Die Modellergebnisse in den seit 1990 veröffentlichten IPCC-Berichten projizieren bei einer Verdoppelung des CO2-Gehaltes eine Erwärmung bis zu 6°C bis zum Jahr 2100. Stattdessen hat sich die Erwärmung zum Ende des 20. Jahrhunderts abgeschwächt, gefolgt (ab 1997) von 16 Jahren mit stabilem Temperaturverlauf.

● In letzter geologischer Zeit hat die Temperatur der Erde aus natürlichen Gründen zwischen +4°C und -6°C Abweichung variiert, verglichen mit der Temperatur im 20. Jahrhundert. Eine Erwärmung um 2°C über die heutigen Werte, so sie wirklich eintritt, würde noch deutlich innerhalb der natürlichen Bandbreite liegen.

● Obwohl eine zukünftige Erwärmung von 2°C abhängig von der geographischen Breite ökologische Auswirkungen hätte, gibt es keine Beweise, dass diese Änderungen im Ganzen schädlich für die globale Umwelt oder das menschliche Wohlergehen sind.

● Mit dem gegenwärtigen Gehalt von rund 400 ppm leben wir immer noch in einer nach CO2 hungernden Welt. Während des Kambriums vor etwa 550 Millionen Jahren) war der Gehalt etwa 15 mal höher, ohne dass nachteilige Auswirkungen bekannt sind.

● Alles in allem korrespondiert die Erwärmung seit 1860 mit der Erholung aus der Kleinen Eiszeit. Sie wurde verursacht von natürlichen multidekadischen Zyklen, angetrieben durch Oszillationen zwischen Ozean und Atmosphäre oder auch durch solare Variationen wie dem de Vries-Zyklus (ca. 208 Jahre) und dem Gleissberg-Zyklus (ca. 80 Jahre) sowie kürzeren Periodizitäten.

● Die Erde hat sich während der letzten 60 Jahre nicht signifikant erwärmt trotz einer Zunahme des atmosphärischen CO2 um 8%, was 34% allen zusätzlichen CO2 repräsentiert, die seit dem Beginn der industriellen Revolution in die Atmosphäre gelangt sind.

● CO2 ist ein unabdingbar notwendiger Nährstoff für die Photosynthese der Pflanzen. Eine zunehmende CO2-Konzentration in der Atmosphäre lässt den Planeten „ergrünen“ und hilft, die wachsende menschliche Bevölkerung zu ernähren.

● Es gibt keine enge Korrelation zwischen der Temperatur-Variation der letzten 150 Jahre und mit dem Menschen in Verbindung stehenden CO2-Emissionen. Der parallele Verlauf von Temperatur und CO2 zwischen etwa 1980 und 2000 könnte Zufall sein und enthält nicht unbedingt Kausalität.

● Die Gründe für historische globale Erwärmungen bleiben ungewiss, aber es gibt signifikante Korrelationen zwischen Verhaltensmustern des Klimas und multidekadischen Variationen sowie der Sonnenaktivität während der letzten paar hundert Jahre.

● Projektionen der künftigen Entwicklung der Sonnenaktivität lassen während der kommenden Jahrzehnte eher eine globale Abkühlung als eine Erwärmung erwarten, trotz weiterer CO2-Emissionen.

Quelle: „Executive Summary“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 3: Schlüsselfakten über Temperatur-Antriebe und Rückkopplungen

● Eine Verdoppelung des CO2-Gehaltes seit dem vorindustriellen Niveau (von 280 auf 560 ppm) würde wahrscheinlich einen Temperatur-Antrieb von 3,7 W/m² in der unteren Atmosphäre bringen, was etwa 1°C Erwärmung bedeutet.

● Die IPCC-Modelle betonen die Bedeutung der positiven Rückkopplung des zunehmenden Wasserdampfes und projizieren deshalb eine Erwärmung von etwa 3°C bis 6°C, während empirische Daten eine Größenordnung weniger zeigen, nämlich etwa 0,3°C bis 1,0°C.

● In Eisbohrkernen zeigt sich, dass Temperaturänderungen parallelen Änderungen des CO2-Gehaltes viele hundert Jahre voraus laufen. Sie zeigen auch, dass Temperatur und CO2 in langen Zeiträumen historischer und geologischer Aufzeichnungen nicht miteinander gekoppelt sind. Daher kann das CO2 nicht der Haupttreiber für die meisten Temperaturänderungen sein.

● Der atmosphärische Methan-Gehalt (CH4) fällt während der letzten beiden Jahrzehnte deutlich unter die in den IPCC-Berichten projizierten Werte. Diese viel zu hohen Schätzungen des Methangehaltes fließen in die IPCC-Temperaturprojektionen ein und müssen daher nach unten korrigiert werden.

● Der auftauende Permafrost oder untermeerische Gashydrate werden wahrscheinlich keine gefährlichen Mengen von Methan freisetzen, jedenfalls nicht bei der gegenwärtigen Erwärmungsrate.

● Es wird erwartet, dass die Stickstoffoxid-Emissionen (N2O) fallen, wenn der CO2-Gehalt und die Temperatur steigen, was bedeutet, dass sie als negative Rückkopplung fungieren.

● Andere negative Rückkopplungen der Klimasensitivität werden durch das IPCC entweder außen vor gelassen oder unterschätzt. Darunter ist die Zunahme tiefer Bewölkung als Folge des gestiegenen Wasserdampfgehaltes, eine steigende Aufnahme von Dimethylsulfid (DMS) seitens der Ozeane und das Vorhandensein und der Gesamt-Abkühlungseffekt durch sowohl natürliche als auch industrielle Aerosole.

Quelle: „Cahpter 2. Forcings and Feedbacks“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 5: Schlüsselfakten im Vergleich zu globalen Klimamodellen

● Klimamodelle haben während der letzten 15 Jahre eine atmosphärische Erwärmung um 0,3°C simuliert. Tatsächlich war die Temperatur gleich geblieben, oder es hat sich sogar etwas abgekühlt.

● Klimamodelle haben eine Erwärmung der Ozeane um 0,2°C simuliert, tatsächlich wurde keinerlei Erwärmung beobachtet.

● Klimamodelle haben das Auftauchen eines hochtroposphärischen Hot Spots über den Tropen simuliert; ein solcher ist bis heute nicht gefunden worden.

● Klimamodelle haben projiziert, dass die Erwärmung zum Ende des vorigen Jahrhunderts an beiden Polen stattgefunden haben sollte, in Wirklichkeit konzentrierte sich die Erwärmung nur auf arktische Gebiete.

● Klimamodelle berechnen allgemein eine Klimasensitivität von 3°C bei einer Verdoppelung des CO2-Gehaltes verglichen mit dem vorindustriellen Niveau. Meteorologischen Beobachtungen zufolge beträgt diese Sensitivität aber nur 1°C oder weniger.

● Die Klimamodelle unterschätzen die Verdunstung an der Erdoberfläche infolge der gestiegenen Temperatur um den Faktor 3, was in der Konsequenz zu einer Unterschätzung des globalen Niederschlags führt.

● Die Klimamodelle repräsentieren durch Aerosole veränderte Infrarotstrahlung nicht angemessen, obwohl Studien zeigen, dass verschiedene Mineral-Aerosole (bei gleicher Konzentration) Unterschiede im bodennahen IR-Fluss zwischen 7 und 25 W/m² zeitigen können.

● Deterministische Klimamodelle haben inhärente Eigenschaften, die eine dynamische Vorhersagbarkeit unmöglich machen. Die Einführung von Methoden, um dem zu begegnen (vor allem Parameterisierung) bringt einen Bias in die Modellprojektionen.

● Grenzen der Rechenmöglichkeiten von Computern verhindern, dass die Klimamodelle wichtige Klimaprozesse auflösen; Modelle mit geringer Auflösung können viele wichtige regionale und niedriger skalige Phänomene wie beispielsweise Wolken nicht erfassen.

● Die Kalibrierung der Modelle ist fehlerhaft, nehmen sie doch an, dass der gesamte Temperaturanstieg seit Beginn der industriellen Revolution ausschließlich durch menschliche CO2-Emissionen verursacht wurde. In Wirklichkeit begannen menschliche Emissionen erst Mitte des 20. Jahrhunderts.

● Nichtlineare Klimamodelle zeigen ein chaotisches Verhalten. Als Folge zeigen verschiedene Modellläufe unterschiedliche Trendwerte.

● Interne Klima-Oszillationen (AMO, PDO usw.) sind wesentliche Faktoren in historischen Temperaturreihen. Die Klimamodelle versuchen nicht einmal, diese zu simulieren.

● Genauso gehen in die Klimamodelle nicht die Auswirkungen ein durch Veränderungen des solaren Magnetfeldes oder kosmischer Strahlen. Von beiden weiß man, dass sie das Klima signifikant beeinflussen.

Quelle: „Chapter 1. Global Climate Models and Their Limitations“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 6: Schlüsselfakten zur Temperatur an der Erdoberfläche

● Ob die heutige Temperatur als Teil eines Erwärmungstrends gesehen werden kann, hängt von der betrachteten Zeitperiode ab.

● Im (Klima-)Zeitscale von mehreren tausend Jahren zeigt die Temperatur Abkühlung; im historischen (meteorologischen) Zeitscale im vorigen Jahrhundert Erwärmung. Während der letzten 16 Jahre gab es keine Erwärmung trotz einer Zunahme des atmosphärischen CO2-Gehaltes um 8% – das repräsentiert 34% der mit dem Menschen in Verbindung stehenden CO2-Emissionen seit der industriellen Revolution.

● Setzt man eine atmosphärische Durchmischung von etwa einem Jahr an, kann man mit den soeben erwähnten Fakten die Hypothese einer gefährlichen Erwärmung testen. Diesen Test hat sie nicht bestanden.

● Den vom IPCC bevorzugten HadCRUT-Daten zufolge war es im 20. Jahrhundert zu zwei Phasen mit Erwärmung gekommen, nämlich zwischen 1910 und 1940 sowie zwischen 1979 bis 2000, und zwar mit etwa den gleichen Raten von jeweils 1,5°C pro Jahrhundert. Die Erwärmung Anfang des 20. Jahrhunderts ging wesentlichen industriellen CO2-Emissionen voraus und muss natürlichen Ursprungs sein. Die Erwärmung in der zweiten Periode könnte eine kleine Auswirkung menschlicher CO2-Emissionen sein, aber die Erwärmung kann auch auf den Wärmeinseleffekt zurückgehen.

● Andere Temperatur-Datensätze zeigen die Erwärmung im HadCRUT-Datensatz zum Ende des vorigen Jahrhunderts nicht.

● Es war nichts Ungewöhnliches an der nur im HadCRUT-Datensatz erkennbaren Erwärmung zum Ende des vorigen Jahrhunderts, weder hinsichtlich der Größenordnung noch der Rate. Beides liegt deutlich innerhalb bekannter, natürlicher Variationen, die auch zuvor schon aufgetreten waren.

● Es gibt keine empirischen Beweise, die die Hypothese stützen, dass eine planetarische Erwärmung um 2°C insgesamt ökologisch oder ökonomisch schädlich wäre.

Quelle: Chapter 4. „Observations: Temperatures“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 7: Schlüsselfakten über den solaren Antrieb

● Es gibt immer mehr Beweise dafür, dass Änderungen der Temperatur auf der Erde zum allergrößten Teil durch Variationen der Sonnenaktivität angetrieben werden. Beispiele von durch die Sonnenaktivität bestimmte Klimaepochen sind u. A. die Mittelalterliche Warmzeit, die Kleine Eiszeit und die Warmzeit des frühen 20. Jahrhunderts (1910 bis 1940).

● Die Sonne kann bis zu 66% zur Erwärmung im 20. Jahrhundert beigetragen haben, vielleicht sogar noch mehr.

● Berichte über starke empirische Korrelationen zwischen der solaren Variabilität und Klimaindizes einschließlich Temperatur, Niederschlag, Dürren, Überschwemmungen, Sturmfluten und Monsune kamen aus der ganzen Welt.

● Die IPCC-Modelle enthalten nicht wichtige solare Faktoren wie Fluktuationen der magnetischen Feldstärke, und sie überschätzen den Antrieb durch anthropogenes CO2.

● Das IPCC berücksichtigt nicht die Bedeutung der gezeigten empirischen Beziehungen zwischen Sonnenaktivität, dem Einfall galaktischer kosmischer Strahlen und der Bildung tiefer Wolken.

● Die jeweilige Bedeutung der Sonne und von CO2 als Antriebe des globalen Klimas bleiben ungelöst; die jetzigen Klimamodelle lassen eine Fülle von bekannten Verbindungen zwischen Sonne und Klima außen vor.

● Die seit einiger Zeit sehr ruhige Sonne und die Extrapolation solarer Zyklen in die Zukunft zeigen, dass es während der nächsten Jahrzehnte zu einer planetarischen Abkühlung kommen könnte.

Quelle: Chapter 3. Solar Forcing of Climate”, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 8: Schlüsselfaktoren zur Cryosphäre

● Mittels Satelliten und durch Luftüberwachung gewonnene Datensätze zur Quantifizierung des globalen Eishaushaltes sind kurz, und die Methoden stecken noch in den Kinderschuhen. Die Ergebnisse bis heute zeigen aber, dass sich die Eisverhältnisse sowohl in Grönland als auch in der Antarktis im Gleichgewicht befinden.

● Eisbohrkerne aus Grönland und der Antarktis zeigen, dass es zu Klimaänderungen sowohl in grundlegenden Eiszeiten/Zwischeneiszeiten gekommen war als auch zu kürzeren Ereignissen im Zeitraum von Jahrzehnten und Jahrhunderten mit starken Raten von Erwärmung und Abkühlung einschließlich abrupter Temperaturänderungen.

● Beobachtete Änderungen hinsichtlich Temperatur, Schneefall, Geschwindigkeit des Eisflusses sowie Kalben von Gletschern sowohl in Grönland als auch in der Antarktis scheinen innerhalb der Grenzen natürlicher Klimavariationen zu liegen.

● Die globale Eisbedeckung bleibt in der Fläche in etwa gleich seit Beginn von Satellitenbeobachtungen im Jahre 1979, wobei die Eisabnahme im Arktischen Ozean durch Eiswachstum um die Antarktis kompensiert wird.

● Während der letzten 25 000 Jahre (spätes Pleistozän und Holozän) zeigten die Gletscher in der ganzen Welt starke Fluktuationen, weitgehend in Übereinstimmung mit dem sich ändernden Klima. Dabei hatten sie sich zeitweise auf Positionen hinter ihrer heutigen Ausdehnung zurück gezogen.

● Trotz dieser Tatsache zeigen die Gebirgsgletscher der Welt eine große Vielfalt von Reaktionen auf lokale Klimavariationen. Sie reagieren auf die Temperaturänderung nicht in einfacher, gleichförmiger Weise.

● Tropische Gebirgsgletscher sowohl in Afrika als auch in Südamerika haben sich während der letzten 100 Jahre zurückgezogen, und zwar infolge geringerer Niederschläge und gesteigerter Sonnenstrahlung; aber auch anderswo haben sich die Gletscher seit dem Ende der Kleinen Eiszeit zurückgezogen.

● Die Daten zur globalen Geschichte der Eisverhältnisse und die Eismassenbilanz stützen nicht die IPCC-Behauptungen, denen zufolge CO2-Emissionen die Hauptursache für Gletscherrückzüge der heutigen Zeit sind.

Quelle: Chapter 5. „Observations: The Cryosphere“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 9: Schlüsselfaktoren zur Hydrosphäre

Ozeane

● Die Kenntnis lokaler Änderungen des Meeresspiegels ist unabdingbar für das küstennahe Management; derartige Änderungen ereignen sich mit sehr stark variierenden Raten in der ganzen Welt, typischerweise zwischen +5 und -5 mm pro Jahr.

● Der globale Meeresspiegel, dessen Kenntnis nur begrenzt für das küstennahe Management genutzt werden kann, ist während des vorigen Jahrhunderts zwischen 1 und 2 mm pro Jahr gestiegen.

● Satelliten-Fernerkundungen der Änderungen des Meeresspiegels zeigen seit 1993 eine globale Anstiegsrate über 3 mm pro Jahr, aber wegen des komplizierten Prozesses und des Anfangsstadiums der verwendeten Methoden ist dieses Ergebnis als nicht sicher anzusehen.

● Raten der globalen Änderung des Meeresspiegels variieren in dekadischem und multidekadischem Maßstab und zeigen in jüngster Zeit weder eine Beschleunigung noch irgendeine andere simple Verbindung mit zunehmenden CO2-Emissionen.

● Die Korallenatolle im Pazifik versinken nicht im Meer; vielmehr sind die Küstenlinien der Atolle direkten Wetter- und seltenen Hochwasserereignissen ausgesetzt. Außerdem durch Änderungen des Meeresspiegels infolge von ENSO und Auswirkungen der zunehmenden menschlichen Besiedlung.

● Ein zusätzlicher Anstieg infolge Wärmeausdehnung ist ebenfalls unwahrscheinlich, zeigt doch das Netzwerk von ARGO-Bojen keine signifikante Erwärmung des Ozeans während der letzten 9 Jahre (Knox und Douglass 2010).

● Obwohl die ganze Bandbreite natürlicher Variationen noch nicht vollständig bekannt ist, fehlt jeder Beweis für Änderungen der globalen Ozeanzirkulation in letzter Zeit, die außerhalb der natürlichen Variation liegen oder durch menschliche CO2-Emissionen ausgelöst worden sind.

Monsun, Dürren und Überschwemmungen

● Es gibt kaum Beweise für eine Zunahme der globalen Niederschlagsmenge insgesamt während des 20. Jahrhunderts, unabhängig von multidekadischen natürlichen Klimarhythmen.

● Monsunregenfälle sind zum Ende des 20. Jahrhunderts nicht variabler oder intensiver geworden; stattdessen reagiert die Niederschlagsmenge hauptsächlich auf Änderungen der Sonnenaktivität.

● Der südamerikanische und der indische Monsun waren während der kalten Kleinen Eiszeit stärker ausgeprägt und schwächer während der Mittelalterlichen Warmperiode. Weder globale noch lokale Änderungen zeigen einen Zusammenhang mit CO2-Emissionen.

● Die Beziehung zwischen Dürre und globaler Erwärmung ist schwach, da es sowohl in der Mittelalterlichen Warmzeit als auch in der Kleinen Eiszeit zu ausgeprägten Dürren gekommen war.

Quelle: Chapter 6 „Observations: The Hydrosphere“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 10: Schlüsselfakten zu Extremwetterereignissen

● In allen Zeitmaßstäben nimmt die Variabilität der Temperatur ab, wenn die mittlere Lufttemperatur steigt.

● Daher ist die Behauptung, dass die globale Erwärmung vermehrt zu Extremen hinsichtlich Wetter und Klima einschließlich der Temperatur selbst führen werde, theoretisch ohne Grundlage und wird auch durch empirische Beweise nicht gestützt.

● Obwohl es in einigen Gebieten zu signifikanten Änderungen der Intensität oder der Anzahl von Extremwetterereignissen im 20. Jahrhundert gekommen war, existiert für den Globus als Ganzes während der letzten 100 Jahre keine Relation zwischen derartigen Ereignissen und der globalen Erwärmung.

● Beobachtungen aus der ganzen Welt zeigen, dass Dürren nicht extremer oder erratischer als Folge der globalen Erwärmung geworden sind. In den meisten Fällen waren die schlimmsten Dürren in der durch Aufzeichnungen belegten meteorologischen Geschichte viel milder verlaufen als Dürren, zu denen es periodisch in Kaltzeiten gekommen war.

● Es gibt wenige oder gar keine Beweise dafür, dass Niederschläge in einer sich erwärmenden Welt variabler und intensiver werden; tatsächlich zeigen einige Beobachtungen das genaue Gegenteil.

● Es gab während der modernen Zeit keine Zunahme von Stürmen, weder nach Häufigkeit noch nach Intensität.

● Trotz der vermeintlich „beispiellosen“ Erwärmung des 20. Jahrhunderts gab es keine Zunahme tropischer Zyklone, weder hinsichtlich Intensität noch Häufigkeit, weder global noch konzentriert auf einzelne Ozeangebiete.

● Die allgemein verbreitete Auffassung, dass die Erwärmung des 20. Jahrhunderts begleitet war von einer Zunahme von Extremwetterereignissen ist eine Folge exzessiver Berichterstattung in den Medien und hat hinsichtlich der Fakten keine Grundlage (Khandekar 2013).

Quelle: Chapter 7 Obersavtions: Extreme Weather“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Und hier die Zusammenfassungen:

Kapitel 2: Global Climate Models:

Wir kommen zu dem Ergebnis, dass die gegenwärtige Generation der globalen Klimamodelle (GCMs) nicht in der Lage ist, genaue Projektionen des Klimas auch nur für 10 Jahre im Voraus zu erstellen, geschweige denn für einen Zeitraum von 100 Jahren in der Zukunft, der von den politischen Planern übernommen worden ist. Das Output derartiger Modelle sollte daher nicht verwendet werden, um die Politik anzuleiten, bis sie validiert worden sind und gezeigt haben, dass sie prognostisch von praktischem Nutzen sind.

Kapitel 3: Postulates (Forderungen):

Wir kommen zu dem Ergebnis, dass weder die Rate noch die Größenordnung der Erwärmung zum Ende des 20. Jahrhunderts (1979 bis 2000) außerhalb der natürlichen Variabilität liegt. Auch war sie in keiner Weise ungewöhnlich im Vergleich zu früheren Epochen der Klimahistorie der Erde. Außerdem sind die solaren Antriebe wahrscheinlich viel wichtiger als gegenwärtig erkannt, und es fehlt jeder Beweis, dass eine Temperaturzunahme um 2°C (aus welchen Gründen auch immer) schädlich für den Planeten wäre.

Kapitel 4: Circumstantial Evidence (Detaillierte Beweise):

Wir kommen zu dem Ergebnis, dass es keinen eindeutigen Beweis gibt, dass es in der Umwelt zu nachteiligen Entwicklungen kommt durch die anthropogenen CO2-Emissionen. Insbesondere die Cryosphäre schmilzt nicht beschleunigt; der Anstieg des Meeresspiegels beschleunigt sich nicht. Es sind keine systematischen Änderungen hinsichtlich Verdunstung oder Regenmenge dokumentiert worden, auch nicht hinsichtlich der Größenordnung und der Intensität extremer meteorologischer Ereignisse. Die zunehmende Freisetzung von Methan in die Atmosphäre aus dem Permafrost oder untermeerischen Gashydraten ist unwahrscheinlich.

Kapitel 5: Policy Recommendations (Empfehlungen für die Politik):

Hier wird allgemein wiederholt, dass Klimawandel schon immer stattgefunden hat, dass nichts an der gegenwärtigen Lage ungewöhnlich oder noch nie da gewesen ist, und vor allem, dass sich die Politiker endlich aus unabhängigen Quellen informieren sollen, bevor sie Maßnahmen von einer Tragweite beschließen und einführen, wie es derzeit der Fall ist. Auf die Übersetzung im Einzelnen wird hier verzichtet.

Das letzte Kapitel in diesem Bericht mit dem Titel Conclusions wird hier wieder vollständig übersetzt:

Conclusions

Nur sehr wenige Wissenschaftler bestreiten, dass menschliche Aktivitäten einen  Einfluss auf das lokale Klima haben können oder dass die Summe solcher lokalen Auswirkungen hypothetisch zu einem beobachtbaren globalen Signal werden kann. Die Schlüsselfragen jedoch, die beantwortet werden müssen, lauten, ob das menschliche globale Signal groß genug ist, um gemessen werden zu können, und falls ja, stellt dieses Signal eine gefährliche Änderung außerhalb der bandbreite der natürlichen Variabilität dar, oder wird es dies in Zukunft tun?

Die Antwort des NIPCC, abgeleitet aus der umfassenden Begutachtung der wissenschaftlichen Beweise, lautet, dass jedwedes menschliches Klimasignal so klein ist, dass es innerhalb der Bandbreite der natürlichen Variabilität liegt und nicht gefährlich ist. Gleichzeitig ändert sich die globale Temperatur, wie sie es aus natürlichen Gründen schon immer getan hat. Eine Phase des Temperaturstillstands oder einer leichten Abkühlung hat die moderate Erwärmung des 20. Jahrhunderts abgelöst. Mit Sicherheit wird es weiterhin zu derartigen natürlichen Klimaänderungen kommen.

Angesichts dieser Tatsachen wäre die umsichtigste Klimapolitik, sich auf extreme Klimaereignisse vorzubereiten oder sich an diese anzupassen, unabhängig von den Gründen. Angemessene Planungen für gefährliche Klimaereignisse und –änderungen in der Zukunft sollten sofort stattfinden, um Antworten auf die [Auswirkungen] bekannten Raten, Größenordnungen und Risiken natürlicher Änderungen zu finden. Gibt es solche Pläne erst einmal, stellen sie auch eine Grundlage für jedwede anthropogene Klimaänderung dar, ob diese nun eintritt oder nicht.

Politische Entscheidungsträger sollten dem Druck von Lobbygruppen widerstehen, die Wissenschaftler zum Schweigen bringen, die die Autorität des IPCC in Frage stellen sowie dessen Behauptung, für die „Klimawissenschaft“ zu sprechen. Climate Change Reconsidered II: Physical Science enthüllt eine wissenschaftliche Gemeinschaft, die zutiefst verunsichert ist hinsichtlich der Zuverlässigkeit der IPCC-Computermodelle, dessen Forderungen und seiner Interpretation der Beweise. Diese Kritik stammt nicht von einer „Randgruppe“ der Gemeinschaft der Klimawissenschaftler: Sie wird direkt und wiederholt in tausenden Artikeln der begutachteten Literatur geübt.

Der berühmte britische Biologe Conrad Waddington schrieb im Jahre 1941:

Es ist … wichtig, dass Wissenschaftler darauf vorbereitet sind, dass sich ihre Lieblingstheorien als falsch herausstellen. Wissenschaft als Ganzes kann niemals zulassen, dass die Beurteilungen der Fakten durch Ideologie verzerrt werden können, die festlegt, was zu stimmen hat und was nicht; oder was man hofft, das zutreffend ist.

Dieses zukunftweisende Statement verdient eine genaue Betrachtung jener, die weiterhin den Mode-Glauben verbreiten, dass menschliche CO2-Emissionen zu einer gefährlichen globalen Erwärmung führen – trotz starker empirischer Beweise des Gegenteils.

Es folgt eine ausführliche Liste mit Literaturhinweisen, gefolgt von einer Auflistung aller am Bericht beteiligten Autoren.

Link zum gesamten Werk: http://heartland.org/media-library/pdfs/CCR-II/Summary-for-Policymakers.pdf

Zusammengefasst und in Auszügen übersetzt von Chris Frey EIKE




Globale Folgen der Schiefergas-Revolution: „schielen um die Ecke”

Eines der auf der Sitzung angesprochenen Themen wird Schiefergas sein. Mr. Newton zufolge ist noch nicht klar, dass die „Schiefergas-Revolution“ in Nordamerika die globalen Erdgasmärkte durcheinander wirbeln wird.

 „Die Auswirkungen schielen, um ein Sprichwort zu gebrauchen, vielleicht schon um die Ecke”, witzelte er und fügte hinzu: „Mit Sicherheit wird Schiefergas sehr große Auswirkungen auf die amerikanischen Energiemärkte haben, obwohl wir jedoch während der letzten Monate, vielleicht ziemlich überraschend, den Unterschied [the differential] von 20 Dollar gesehen haben, den es während der letzten Jahre zwischen NYMEX und Brent gegeben hat, wobei sich zahlreiche Infrastruktur-Ereignisse in den USA ereignet haben, das heißt mehr Ölerzeugnisse verlassen die USA“.

Inzwischen, sagt er, bleibt der gewaltige Preisunterschied für Erdgas bestehen, und erklärt weiter: „Als ich das letzte Mal bei Henry Hub Wholesale schaute, zahlte man um die 3,50 Dollar /TCF [TCF = Thousand Cubic Feet?]. Das steht in starkem Kontrast zu Mitte 2008, als man dafür etwa 10,50 Dollar zahlen musste“.

Während er einräumt, dass die Öl- und Gaspreise zu jener Zeit rekordhoch waren, stellten diese Preise eine deutliche Wegmarke dar, wenn man Faktoren wie die Wettbewerbsfähigkeit der USA in Betracht zieht, vor allem hinsichtlich der Energie- und der Chemieindustrie.

Ihm zufolge könnte sich wirklich alles ändern, falls die USA mehr Lizenzen vergeben, um sein unkonventionelles Gas zu exportieren. Inzwischen dürften die niedrigen Erdgaspreise dort wahrscheinlich nicht so niedrig bleiben.

„Es ist keineswegs klar, ob es besonders ökonomisch ist, es für 3,50 Dollar aus dem Boden zu holen”, kommentiert er. „Das ist der Grund, warum wir in den letzten eineinhalb Jahren ein viel größeres Interesse an herkömmlichem Öl [tight oil] als an Schiefergas gesehen haben, welches einen starken Auftritt in der Ölerzeugung der USA hatte – Ich denke an 190000 Barrel pro Tag, das ist nicht alles tight oil, aber man kann erkennen, dass jene Ölreserven kommerziell zunehmend attraktiv aussehen, wenn der Preis auf diesem Niveau verharrt“.

Aber immer noch, sagt er, ist es unwahrscheinlich, dass die Preise auf  den niedrigen Stand wie vor einem Jahrzehnt fallen werden. Aber wie wahrscheinlich ist es Mr. Newton zufolge, dass sich die Schiefergas-Revolution in anderen Gebieten der Welt wiederholt?

„Technisch gesehen wartet das Zeug nicht einfach darauf, aus dem Boden geholt zu werden. Nach meinem Verständnis hat jedes Feld seine eigenen Charakteristika, und das bedeutet, dass eine Technologie, die auf einem Feld wunderbar funktioniert, auf einem anderen Feld stark überarbeitet werden muss, um dort ebenfalls zu funktionieren.

Zweitens, Amerika ist signifikant führend hinsichtlich der Erfahrungen mit Technologien, mit denen man unkonventionelles Gas und Öl extrahieren kann, und wahrscheinlich dauert es eine Weile, bis man in der restlichen Welt auch diese Erfahrungen gesammelt hat – es sei denn, sie können die amerikanische Technologie importieren“, fügt er hinzu.

Drittens unterstreicht er, dass dies nicht allein eine USA-Angelegenheit ist, sondern eine in ganz Nordamerika. „Schaut man sich Projektionen der Selbstversorgung bzgl. Energie an einem ‚Tag X’ an, scheint es so, als könnten die USA bis zum Jahr 2035 energie-unabhängig werden, aber für Nordamerika könnte es schon früher soweit sein, vor allem, wenn der mexikanische Präsident Enrique Peña Nieto damit Erfolg hat, im mexikanischen Energiemarkt eine signifikante Liberalisierung einzuführen und ausländische Investitionen ins Land zu holen. Dies wäre notwendig zur Ausbeutung der mexikanischen Schiefergasreserven. Schätzungen der EIA zufolge belaufen sich diese Reserven auf die sechstgrößte Menge weltweit; wenn man bedenkt, dass die kanadischen Reserven an 5. und die USA an 4. Stelle stehen, unterstreicht dies, dass das ganze Thema ein nordamerikanisches ist und nicht eines der USA allein“.

Während Mr. Newton es für realistisch hält, dass Nordamerika in der Lage sein wird, große Mengen unkonventionellen Gases in die ganze Welt zu exportieren, verweist er auf die politischen Hindernisse. „Einige Lobbyisten argumentieren, dass die USA das Gas für sich selbst behalten sollten, das Öl noch viel mehr. Man braucht eine Lizenz des US-Energieministeriums, um Öl und Gas zu exportieren, und von denen wurden während der letzten Jahre nicht allzu viele ausgestellt.

„Es gibt klare Anzeichen, dass sich die USA dem Export immer weiter nähern, und das erste Ziel wird meiner Einschätzung nach Japan sein: Schon jetzt gibt es Verträge über japanische Investitionen in Flüssiggas (LNG) mit dem Ziel, Gas dorthin zu verschiffen, und es wäre für mich überhaupt keine Überraschung, ein sauber ausgehandeltes Rahmenabkommen zwischen den USA und dem über wenig Energie verfügenden Japan zu sehen. Man zahlt dort derzeit Preise für Gas, die signifikant über dem Marktraten liegen“.

Er verweist auf die diplomatischen Bemühungen Japans, mit Russland ins Gespräch zu kommen, um die gegenwärtig fehlende Energiesicherheit in Japan zu stärken. Hier wirken sich die Schwierigkeiten aus, die japanischen Kernkraftwerke nach Fukushima wieder anzufahren.

Mittlerweile macht Mr. Newton die Entwicklung von Schiefergas in China geltend, was die Energieszene im Nahen Osten, wenn nicht in ganz Asien grundlegend verändern könnte. Er stellt fest: „Die EIA schätzt, dass China über die größten Schiefergas-Reserven der Welt verfügt: über 1000 BCF [= Milliarden Kubikfuß]. Bislang war man in China nicht sehr erfolgreich damit, das Zeug aus dem Boden zu holen, aber ich denke, wir sollten nicht die Fähigkeit Chinas unterschätzen, dieses Problem auf die eine oder andere Weise rasch zu lösen“.

Mr. Newton erinnert daran, dass er und einer seiner Kollegen im Jahr 2001 vorhergesagt hatten, dass Energiesicherheit in China oberste Priorität sei, zumindest für die folgende Dekade.

 „Wir haben nur teilweise recht gehabt”, räumt er ein, „weil wir einen etwas zu engen Blickwinkel hatten. Realität ist, dass die wirtschaftliche Sicherheit – damit meine ich Energie, Rohstoffe und Nahrungsmittel – Chinas oberste Priorität hinsichtlich seiner Außenpolitik ist. Aber Energiesicherheit ist unabdingbar notwendig, um Chinas Wachstums-Maschinerie zu füttern, und das wird auch so bleiben, auch wenn die Wirtschaft im Verlauf des nächsten Jahrzehnts deutlich weniger energieintensiv wird“.

Die heimische Energiegewinnung hat angesichts schwindender konventioneller Ölreserven sehr hohe Priorität für das Land, vor allem auch, weil man sich saubereren Energiequellen zuwenden möchte als Öl oder Kohle.

Mr. Newton sagt, dass er viel von dem Argument hält, wonach die rasante Zunahme von Erdgasreserven die weitere Verbreitung von Erneuerbaren verlangsamen wird. „Nichtsdestotrotz stecken wir derzeit noch in einer auf Kohlenstoff basierenden globalen Ökonomie, und da muss man akzeptieren, dass Gas sauberer ist als Öl oder Kohle“.

Gefragt nach dem Nachhall des Gefühls, dass Erdgas die sauberste Kohlenstoff-Energiequelle ist, erwidert er, dass das davon abhänge, mit wem man redet. „Es gab jüngst einen Artikel in der FT über die Haltung der britischen Regierung zu Schiefer. Aber er bewirkte nicht viel, erlaubte er es doch im Grunde der Anti-Schiefer-Bewegung, die Medien mit ihren Botschaften zu dominieren. Es wird immer irgendwelche Neinsager geben, und es ist Sache der anderen, diese zu neutralisieren“.

Hinsichtlich der geopolitischen Lage Europas sagt Mr. Newton, dass ihn die Zusammenhanglosigkeit hinsichtlich Energie immer wieder überrasche. Als Beispiel führt er Deutschland an. Lange Zeit stand das Land an vorderster Front der Befürwortung erneuerbarer Energie, aber nach dem Unfall in Fukushima hat sich die Regierung entschlossen, sich aus der Kernkraft zurückzuziehen. „Und es scheint, als ob Deutschland als Folge davon in absehbarer Zukunft immer abhängiger von Kohle werde. Außerdem, den Deutschen vorzuschlagen, etwas Dramatisches hinsichtlich ihrer Autoabgase zu unternehmen ist in etwa so, als würde man die Amerikaner auffordern, das Recht zum Tragen von Waffen aufzugeben“.

Genauso verworren ist die Politik des Kontinents hinsichtlich Schiefer. Frankreich und Belgien haben Fracking verboten, Polen und UK sind nach wie vor enthusiastisch. „Obwohl die Polen in technische Schwierigkeiten geraten sind“.

Aber wird Europa von den russischen Erdgasquellen abhängig bleiben, und falls nicht, wohin wird das Gas strömen?

„Das oberste Problem Russlands ist, dass es tatsächlich derzeit nicht sehr viel neues Gas aus dem Boden holt. Eine große Zahl existierender Gasfelder leert sich. Zweitens, derzeit fehlen Russland sehr viele Kapazitäten durch Pipelines in Richtung Osten; drittens, bei allem Respekt der Bemühungen von Japans Premierminister Shinzo Abe, die Option offenzuhalten, von Russland Gas zu kaufen, lautet die Lektion der vergangenen Jahre, dass Russland als Versorger nicht so zuverlässig ist wie zu Sowjetzeiten, als die Gashähne praktisch niemals zugedreht worden waren. Es gibt also immer Fragezeichen“.

Inzwischen war China eifrig damit beschäftigt, starke Beziehungen mit anderen Gasversorgern in Mittelasien zu knüpfen. Beispielhaft hierfür stehen die aus Turkmenistan herausführenden Pipelines.

„Das nützt mit Sicherheit auch den mittelasiatischen Republiken, die nicht komplett von Russland als Transitkorridor abhängig sein wollen“, sagt Newton zum Schluss. Viel wahrscheinlicher sei es, dass nichtrussische Gasquellen in Ost- und Südostasien in den Brennpunkt rücken.

Link: http://www.naturalgaseurope.com/shale-gas-revolution-still-in-the-pipeline

Übersetzt von Chris Frey EIKE




Neuer IPCC-Bericht: Treibhausgase waren für 140% der Erwärmung seit 1951 verantwortlich

Bild 1: Der Datensatz HADCRU4 der globalen Mitteltemperatur zeigt zwischen 1951 und 2010 eine Erwärmung um 0,64°C mit einer linearen Steigung von 0,0107°C pro Jahr.

Der neue Bericht „macht für die beobachtete Verlangsamung der Erwärmung von 1998 bis 2012 – ein Phänomen, das von Skeptikern als Beweis angeführt wird, dass die Erwärmung nicht vom Menschen verursacht ist – einen vorübergehenden Abkühlungszyklus im Wettersystem und eine geringer als erwartete Sonnenaktivität verantwortlich“. Allerdings zeigen Satellitendaten, dass das, was das IPCC als „beobachtete Verlangsamung der Erwärmung“ nennt, in Wirklichkeit eine Abkühlung war. (Vielleicht sollte das IPCC den Terminus „negative Erwärmung“ übernehmen?).

Bild 2: Satellitendaten zeigen globale Abkühlung von 1998 bis 2012 mit einer Steigung von –0,0044°C pro Jahr.

Wachsende Sicherheiten zur globalen Erwärmung und die Rolle der Menschen
AFP, 21. September 2013

Während der vergangenen 23 Jahre haben die UN-Wissenschaftler immer sicherer werdende Erklärungen zur Klimaänderung veröffentlicht.

Anfangs war lediglich von einer oberflächlichen Warnung die Rede, dass Wärme zurückhaltende Kohlenstoffemissionen aus der Verbrennung fossiler Treibstoffe einen „Treibhauseffekt“ auslösen könne. Heute wird die Überzeugung geäußert, dass dieser Effekt inzwischen einen Einfluss auf das Klima der Erde ausübt.

Hier folgen Auszüge aus den IPCC-Zustandsberichten, der jüngste davon aus dem letzten Bericht.

Erster Zustandsbericht (1990):

„…Emissionen durch menschliche Aktivitäten lassen die atmosphärischen Konzentrationen von Treibhausgasen allmählich zunehmen… Diese Zunahme wird den Treibhauseffekt verstärken, was sich im Mittel in einer zusätzlichen Erwärmung der Erde bemerkbar macht“.

Zweiter Zustandsbericht (1995):

„Die meisten dieser Studien haben eine signifikante Änderung gefunden und zeigen, dass es unwahrscheinlich ist, dass der beobachtete Erwärmungstrend ausschließlich natürlichen Ursprungs ist… Die Vielfalt der Beweise zeigt, dass es einen wahrnehmbaren menschlichen Einfluss auf das globale Klima gibt. … Die mittlere Erwärmungsrate (in Projektionen für das 21. Jahrhundert) würde vermutlich größer sein als jemals während der letzten 10000 Jahre, aber die aktuellen und dekadischen Änderungen würden eine merkliche natürliche Variabilität einschließen“.

Dritter Zustandsbericht (2001):

„Es gibt neue und stärkere Beweise, dass der größte Teil der beobachteten Erwärmung während der letzten 50 Jahre auf menschliche Aktivitäten zurückzuführen ist … die projizierte Erwärmungsrate ist viel größer als die beobachteten Änderungen während des 20. Jahrhunderts und sehr wahrscheinlich ohne Beispiel zumindest während der letzten 10000 Jahre, basierend auf paläoklimatischen Daten“.

Weiter heißt es in dem Bericht, dass die Temperatur zwischen 1901 und 2000 um 0,6°C gestiegen ist. Menschliche Aktivitäten waren „wahrscheinlich“ der Grund für die Erwärmung, ein Terminus, der gewöhnlich eine Wahrscheinlichkeit über 66 Prozent ausdrückt.

Vierter Zustandsbericht (2007):

Die Erwärmung des Klimasystems ist eindeutig, wie inzwischen klar aus Beobachtungen der globalen Luft- und Wassertemperaturen hervorgeht sowie aus verbreitetem Schmelzen von Schnee und Eis und steigendem globalen Meeresspiegel. Der größte Teil der beobachteten Zunahme der globalen Mitteltemperatur seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich auf die beobachtete Zunahme anthropogener Treibhausgase zurückzuführen“.

Dem Bericht zufolge hatte die Erwärmung während der 100 Jahre zuvor 0,74°C betragen, und 11 der 12 vorhergehenden Jahre waren die wärmsten jemals.

Menschliche Aktivitäten waren „sehr wahrscheinlich“ der Grund der Erwärmung, was gemeiniglich eine Wahrscheinlichkeit über 90% bedeutet.

Fünfter Zustandsbericht (von AFP eingesehene Version):

In der Nordhemisphäre war der Zeitraum von 1983 bis 2012 sehr wahrscheinlich der wärmste 30-Jahres-Zeitruam der letzten 800 Jahre und wahrscheinlich die wärmste Periode der letzten 1400 Jahre.

„…Treibhausgase haben im Zeitraum 1951 bis 2010 wahrscheinlich zu einer globalen Erwärmung zwischen 0,5°C und 1,3°C beigetragen“.

„…Es ist sehr sicher [there is high confidence], dass dies zur Erwärmung der Ozeane geführt, Schnee und Eis geschmolzen hat, den globalen Meeresspiegel hat steigen lassen und zur Änderung einiger Klimaextreme in der zweiten Hälfte des 20. Jahrhunderts geführt hat“.

Menschliche Aktivitäten waren „äußerst wahrscheinlich“ der Grund dieser Erwärmung, was eine Wahrscheinlichkeit zwischen 95 und 100 Prozent bedeutet.

In der Version wird die beobachtete Verlangsamung der Erwärmung von 1998 bis 2012 – ein Phänomen, das von Skeptikern als Beweis für die nicht-anthropogene Ursache der Erwärmung angeführt wird – auf einen vorübergehenden Abkühlungszyklus im Wettergeschehen und auf eine geringer als erwartet auftretende Sonnenaktivität zurückzuführen ist.

Die Temperatur ist seit dem Jahr 1901 um 0,89°C gestiegen, heißt es darin.

Vier Projektionen zufolge, die auf der Menge des emittierten Kohlenstoffes basieren, wird die zusätzliche Erwärmung in diesem Jahrhundert abgeschätzt mit einem Bereich zwischen 1,0°C bis 3,7°C und einem Meeresspiegelanstieg von 40 bis 62 cm.

Wie in den vorherigen Berichten auch sind diese Schätzungen Mittelwerte. Jede Projektion zeigt eine große Bandbreite auf beiden Seiten des Graphen.

[Die Kommentare zu diesem Beitrag sind m. E. genauso beachtenswert. Daher füge ich deren Übersetzung hier an:]

Anonymus:

Einen Moment! Im 3. Zustandsbericht (gemeiniglich TAR genannt) heißt es, dass die Temperatur im Zeitraum 1901 bis 2000 um 0,6°C gestiegen ist.

Jetzt im 5. Zustandsbericht heißt es, dass die globale Mitteltemperatur (vermutlich bis 2012) um 0,89°C gestiegen ist.

Folglich hat die globale Mitteltemperatur der letzten 12 Jahre seit 2012 um 0,29°C zugenommen? Ich dachte, es hätte einen Stillstand gegeben?

Eco-Geek

„…ein vorübergehender Abkühlungszyklus im Wettergeschehen und einer geringer als erwartet auftretenden Sonnenaktivität”.

Moment, so wie ich das IPCC verstanden habe, wird die globale Temperatur hauptsächlich durch Treibhausgase und der Gesamt-Solarstrahlung bestimmt? Führt das nicht zu einer ganz neuen Wissenschaft? Ich meine, sie sagen jetzt zum Beispiel, dass geringere (das „als erwartet“ kann man ignorieren) Sonnenaktivität die globalen Temperaturen beeinflusst, oder?

Ich vermute, dass sie damit einräumen, dass alle Berichte zuvor signifikant fehlerhaft waren, weil man die Sonnenaktivität nicht beachtet hatte.

Na schön! Das IPCC veröffentlicht neue Zahlen, die auf neuen Modellen basieren, in denen die Sonnenaktivität enthalten ist.

Was? Das haben sie gar nicht getan? Sie behaupten, dass die Sonnenaktivität die Temperaturen signifikant beeinflusst, ohne sich damit befasst zu haben, in welchem Ausmaß?

In diesem Falle müssen wir alle „Maßnahmen zur Reduktion des globalen Kohlenstoff-Ausstoßes“ aufgeben, bis man etwas über Klimaänderung erfahren hat.

Link: http://hockeyschtick.blogspot.de/2013/09/new-ipcc-report-claims-greenhouse-gases.html

Übersetzt von Chris Frey EIKE




Angst und Fukushima

„Es ist wichtig zu verstehen, dass das Gesundheitsrisiko durch die Strahlung in Fukushima vernachlässigbar ist und das unangebrachte Sorgen über irgendwelche gesundheitlichen Auswirkungen viel schlimmer sind als die Strahlung selbst“.

Gerry Thomas, Imperial College, London

Werner Burkart, ein Professor der Strahlenbiologie an der Ludwig-Maximilian-Universität in München leitete seinen Brief mit den Worten ein: „Fast zweieinhalb Jahre nach Erdbeben und Tsunami im März 2011 ist es an der Zeit, über das Leid nachzudenken, aber auch über die Belastbarkeit der Betroffenen und Japan als Ganzes. Und darüber, Visionen für eine Zukunft ohne Ängste und Restriktionen zu entwickeln“.*

[*Ob es hierzu ein deutsches Original gibt, weiß ich nicht. Diese Übersetzung hier ist auf jeden Fall eine Rückübersetzung. A. d. Übers.]

Abel Gonzalez aus Argentinien arbeitete viele Jahre beim UN Scientific Committee on the Effects of Atomic Radiation (UNSCEAR). Er erklärte seine Schlussfolgerung so: „Es werden keine wahrnehmbaren zunehmenden strahlungsbedingten Auswirkungen auf die Gesundheit erwartet, und zwar unter den der Strahlung ausgesetzt gewesenen Mitgliedern der Öffentlichkeit und deren Nachkommen“. Der amerikanische Gesandte beim UNSCEAR Fred Mettler betonte, dass die Angst vor Auswirkungen auf zukünftige Generationen unbegründet ist: „Wir versichern Ihnen, dass viele wissenschaftlichen Studien gezeigt haben, dass dies bei den Menschen keine gravierenden Auswirkungen hat“.

Gerry Thomas vom Imperial College in London sagte: „Wir verfügen über viele Informationen aus Studien über hohe Dosen von Radioaktivität zur Behandlung von Krebs. Aber wir fanden, dass die geringste Strahlungsdosis, bei der wir gesundheitliche Auswirkungen durch Strahlung feststellen, bei 100 MilliSieverts liegt“. Im Gegensatz dazu erwartet das UNSCEAR, dass kein Anwohner in der Präfektur Fukushima mehr als 10 MilliSieverts Strahlung während ihres gesamten Lebens abbekommt. Gonzalez sagte: „Selbst Anwohner in der Nähe des beschädigten Kernkraftwerkes waren so geringen Dosen Strahlung ausgesetzt, dass wahrnehmbare gesundheitliche Auswirkungen nicht zu erwarten sind“.

Demnächst wird ein Bericht der International Atomic Energy Agency IAEA erscheinen, der auf genaueren Informationen der tatsächlichen Mobilität der Menschen zur Zeit des Unfalls basiert. Dieser wird sogar noch geringere Strahlendosen enthüllen, jedenfalls im Vergleich zu früheren Schätzungen, von denen Gonzalez sagte, dass sie „auf konservativen Modellschätzungen beruhten, die auf zu hohen Vermutungen des Ausgesetztseins der Strahlung basierten“.

Ebenfalls unter Verweis auf UNSCEAR erklärte Thomas: „die schlimmsten gesundheitlichen Auswirkungen durch Tschernobyl resultierten aus der Angst, was die Strahlung anrichten könnte, und nicht so sehr auf den tatsächlichen Strahlenschäden“. Sie fuhr fort: „Sich sorgen darüber, was geschehen könnte, kann sehr schlimme Auswirkungen auf die Lebensqualität haben und zu stressbezogenen Krankheiten führen. Alle wissenschaftlichen Beweise zeigen, dass niemand in Gefahr schwebt, durch Strahlung aus Fukushima selbst geschädigt zu werden, aber die Sorgen darüber, was geschehen könnte, kann zu signifikanten psychologischen Problemen führen“ [die durch die Anti-Kernkraft-Schreihälse natürlich noch erheblich verschlimmert werden! A. d. Übers.]

„Daher ist es wichtig zu verstehen, dass das Gesundheitsrisiko durch die Strahlung in Fukushima vernachlässigbar ist und das unangebrachte Sorgen über irgendwelche gesundheitlichen Auswirkungen viel schlimmer sind als die Strahlung selbst“.

Erholung

Die größten Auswirkungen der Strahlung waren die erzwungene Evakuierung der Menschen aus ihren Häusern nahe dem früheren Kernkraftwerk und die Verbote, Landwirtschaft in dem Gebiet zu betreiben sowie zu fischen. Beides hatte ernste Auswirkungen auf das Leben und die Lebensumstände vieler Familien. Japan ist dazu gezwungen, ein großes Gebiet zu dekontaminieren, bevor die Bewohner peu à peu zurückkehren können, und der Fortschritt ist nur gering.

Der Russe Mikhail Balonov, der daran gearbeitet hatte, die Öffentlichkeit vor der in Tschernobyl freigesetzten Strahlung zu schützen, lobte das japanische Dekontaminierungs-Programm. „Mit Mitteln spezieller Ausrüstung zur Dekontaminierung wuschen sie Asphalt- und Betonflächen, entfernten obere Bodenschichten um öffentliche Gebäude und Wohnhäuser sowie in Straßen und Wohngebieten. Unseren Strahlungsmessungen zufolge werden die zurück gekehrten Menschen nicht mehr substantiellen Strahlenrisiken ausgesetzt sein, wenn unsere Sanierung erst einmal abgeschlossen ist. Folglich verschwindet die Strahlung allmählich, und das Leben in den betroffenen Gebieten Japans wird zur Normalität zurückkehren“.

Balanov schloss: „Nur eine offene Informationspolitik hinsichtlich der Auswirkungen in den Medien und der Wissenschaftler-Gemeinschaft wird das Vertrauen erzeugen, dass zur Heilung erforderlich ist … und negative sozio-ökonomische Auswirkungen durch ungerechtfertigte Angst und Furcht verhindern“.

Die Veröffentlichung der Briefe der Experten fällt zufällig zeitlich zusammen mit einer Periode intensiver Untersuchungen und globalen öffentlichen Bedenken hinsichtlich durchgeführter Maßnahmen und der Kontamination am Kernkraftwerk Fukushima.

Link: http://www.world-nuclear-news.org/RS_Fear_and_Fukushima_0309131.html

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Mit Sicherheit wird es auch hierzu wieder die üblichen Polemiken geben. Selbst wenn man nun wirklich nicht genau weiß, was Sache ist: Warum nehmen die Anti-Kernkraft-Schreihälse immer nur für sich die absolute Wahrheit in Anspruch? Und warum kommen sie damit so durch?

Unstrittig ist jedoch wohl, welche haarsträubende und skandalöse, fast schon kriminelle Fahrlässigkeit der Betreiber Tepco an den Tag gelegt hat!

C. F.

Related Stories

WNA Links

Related Links




Neues zu Fracking in UK

<xml> </xml>

David Cameron: „Wir verpassen einen wichtigen Zug in Richtung billigen Schiefergases”

Kim Pilling

UK würde „einen riesigen Fehler machen”, wenn nicht sofort ernsthaft das Fracking in Betracht gezogen wird sowie die Aussicht auf billigere Gaspreise, hat der Premierminister gewarnt.

David Cameron zufolge „verpasst unser Land einen wichtigen Zug“. Er hatte die Anzahl von Schiefergas-Bohrungen in der Europäischen Union mit der in den USA verglichen. Aber er machte auch geltend, dass Sicherheitserfordernisse erfüllt sein müssen und das „ganz eindeutig“ Umweltprüfungen stattfinden müssten, bevor man Unternehmen genehmigt, mit dem Fracking zu beginnen.

Die Wirtschaft braucht eine Neuausrichtung, und ein Schlüsselfaktor hierfür ist die Notwendigkeit bezahlbarer Energie, fügte er hinzu. „Ich glaube, wir machen als Nation einen gewaltigen Fehler, wenn wir jetzt nicht intensiv darüber nachdenken, wie man das Fracking voranbringen kann mit der Folge niedrigerer Preise hier in UK“, sagte er bei einer Fragestunde [a Q&A-Session] in Crown Paints in Darwen, Lancashire.

„Wenn man sieht, was in Amerika durch die Einführung von Schiefergas und Fracking passiert, erkennt man, dass die Energiekosten dort für die Industrie und die Gaspreise etwa halb so hoch sind wie bei uns. Wir sehen Unternehmen, die schon nach Mexiko oder anderswohin abgewandert waren, in die USA zurückkehren.

Nichts passiert in diesem Land, es sei denn, es ist sicher für die Umwelt. Keine Frage, dass die Gefahr von Erdbeben und Feuer aus den Löchern oder so besteht. Es wird sehr eindeutige Umweltverfahren geben mit der Ausgabe von Zertifikaten, die man vorweisen muss, bevor man mit dem Fracking beginnt“.

Er sagte, dass Gemeinden in den USA schon jetzt die finanziellen Vorteile der Bohrung nach Schiefergas fühlen und dass Gemeinden in UK ähnliche Vorteile einfahren würden.

In der EU gibt es drei Viertel der Schiefergasmenge wie in den USA, so dass wir derzeit einen wichtigen Zug verpassen“, fügte er hinzu. „Ich möchte sicherstellen, dass wir in UK diesen Zug eben nicht verpassen!“

PA

Link: http://www.independent.co.uk/news/uk/politics/were-missing-out-big-time-on-cheaper-shale-gas-says-david-cameron-8752953.html

Ein Fracking-Fehlschlag

The Independent – Editorial

Regierung und Industrie haben die erste unabdingbare Aufgabe übersehen: nämlich die Öffentlichkeit zu überzeugen

Die Fronten des Krieges sind gezogen. 30 oder mehr Zelte sind in einem kleinen Dorf in West-Sussex aus dem Boden geschossen, als sich Demonstranten zusammen gefunden hatten, um gegen das Fracking zu protestieren. Cuadrilla, ein Unternehmen, das danach trachtet zu erkunden, ob es Schiefergas in den Gebiet gibt, macht aber trotzdem mit seinen Erkundungsbohrungen weiter. Aber die Protestierer – eine Mischung aus lokalen Anwohnern und hartgesottenen Aktivisten aus dem ganzen Land – ziehen sich auch nicht zurück. Es ist traurig sagen zu müssen, dass Balcombe lediglich der erste Schauplatz derartiger Proteste sein wird. Noch trauriger ist es zu sagen, dass das nicht hätte sein müssen.

Über Fracking ist schon lange kontrovers diskutiert worden. Flüssigkeiten werden unter hohem Druck in den Untergrund gepresst. Das bricht die Felsen auf und setzt das darin enthaltene Gas frei. Kritiker warnen vor Erdbeben, Verschmutzung des Grundwassers und Luftverschmutzung. Es gibt sogar aus den USA Märchen über Feuer, das aus Wasserhähnen kommt.

Die Technik weist sicher noch Kinderkrankheiten auf. Es war auch nicht hilfreich, dass die frühe Erkundung nahe Blackpool mit zwei seismischen Erschütterungen in Zusammenhang gebracht worden war. Aber die Beweise potentiell riesiger Gasmengen unter unseren Füßen können nicht ignoriert werden. Energie ist eines unserer drängendsten Probleme. Strompreise schrauben sich immer weiter in die Höhe, nähern sich doch die Lagerstätten in der Nordsee der Erschöpfung. Außerdem drückt die Klimapolitik immer stärker. Wir sind auch zunehmend der Unsicherheit von Aufkäufen im Ausland ausgesetzt. Eine neue heimische Quelle sauberen Gases würde diese Lage verändern, und zwar durchweg zum Besseren.

Lässt man rhetorische Ergüsse einmal außen vor, lag der Kanzler nicht sehr daneben, als er Schiefergas als „die Zukunft“ beschrieb. Es war richtig, dass er das Steuersystem zur Förderung der Erkundung optimiert hat. Der Vorschlag möglicher Zuckerhappen für lokale Anwohner, vielleicht in Gestalt niedrigerer Energiepreise, ist auch keine schlechte Sache. Angesichts der wohlbekannten – wenn auch auf Fehlinformationen beruhenden – Sorgen hinsichtlich Fracking (und die lange Tradition in UK nicht zu vergessen, gegen alles Neue zu opponieren), werden solche Leckerbissen jedoch niemals ausreichen. Und doch hat weder die Regierung noch die Industrie viel getan, um die Öffentlichkeit auf ihre Seite zu ziehen.

Es gibt Risiken hinsichtlich Fracking. Aber die Technologie ist ausgereift, und sorgfältige Regulierungen können eine Menge dazu beitragen, die Gefahren bei ersten Erfahrungen in den USA zu vermeiden. Das hätte man sorgfältig und eindeutig erklären sollen. Obwohl Lord Howell – zu Recht – ausgelacht worden ist für seinen Vorschlag, die Erkundung in den „desolaten“ Norden zu verlagern, enthält sein krasser Vorschlag doch einen Funken Sinnvolles. Es wäre vernünftig gewesen, ein erstes Schiefergas-Bohrloch in einer abgelegenen Gegend zu etablieren oder dort, wo es Unterstützung vor Ort gibt. Eine solche Einrichtung könnte dann als Beispiel angeführt werden, eine zögerliche, skeptische oder wirklich ängstliche Öffentlichkeit anderswo zu überzeugen.

Stattdessen gibt es Kriegsfronten in Balcombe. Fracking wird zu einer hoch politischen Angelegenheit, und die Besorgten, die Anhänger des St.-Florian-Prinzips und die Betonköpfe von Aktivisten werden zu einer unheiligen Allianz. Schiefergas hat das Potential, ein großer Segen für UK zu werden. Er wäre eine Tragödie, wenn man diese Gelegenheit nicht nutzen würde.

Link: http://www.independent.co.uk/voices/editorials/a-fracking-failure-8752145.html

Alles übersetzt und mit einer Einführung versehen von Chris Frey

AKTUALISIERUNG vom 14. August 2013: Fracking nach Schiefergas erfährt in UK starke Unterstützung

Michael Bird, City A.M.

Eine neue Umfrage zur Haltung der Öffentlichkeit gegenüber dem Fracking hat gezeigt, dass mehr Menschen Fracking unterstützen als ablehnen.

Die Umfrage, durchgeführt von ICM für den Guardian, zeigte, dass fast die Hälfte, 44%, sagte, dass Fracking in UK betrieben werden sollte. Die Ergebnisse zeigen, dass eine Mehrheit der Befragten in jeder Altersgruppe das Fracking befürworten.

Im Gegensatz dazu glauben nur 30%, dass man in UK überhaupt kein Fracking betreiben sollte.

Auf die Frage, ob sie dem Fracking nahe ihrer Wohnorte zustimmen, sagten 41% immer noch ja, beinahe genauso viel wie die 40%, die das abgelehnt haben.

Trotz des jüngsten Vorschlags von Lord Howell von den Tories, dass man Fracking in den „abgelegenen“ Gebieten im Nordwesten von England durchführen sollte, ist die Zustimmung zur Extraktion von Gas im Norden am höchsten, sind doch dort 45% der Menschen dafür und nur 28% dagegen.

Über das Wochenende hat Premierminister David Cameron seine Unterstützung für diese Technik bekannt gemacht, von der die Unterstützer hoffen, dass sie zu einem Rückgang der Energiepreise führt.

City A.M. 14 August 2013

Siehe auch: Brits give thumbs-up to shale gas slurping in university-run poll  – The more you scare us, the more we ignore you

Link: http://www.thegwpf.org/fracking-shale-gas-attracts-strong-support-uk/

Übersetzt von Chris Frey EIKE




Mittelalterliche Warmzeit in der Arktis – Zusammenfassung

Nach der Kleinen Eiszeit, berichten sie, ist die Temperatur erneut gestiegen, dass sie jedoch „während der letzten Jahrzehnte abgenommen hat“. Dies zeigt, dass die MWP in diesem Teil der Arktis signifikant wärmer war als vor der letzten Jahrtausendwende.

Auch Wagner and Melles (2001) arbeiteten über Grönland, wo sie einen 3,5 Meter langen Sediment-Bohrkern aus einem See (Raffels So) auf einer Insel (Raffels O) nahe Liverpool Land an der Ostküste Grönlands extrahiert hatten. Darin analysierten sie eine Anzahl von Eigenschaften in Bezug auf das Vorhandensein von Meeresvögeln. So erhielten sie eine 10000 Jahre lange Aufzeichnung, die ihnen viel über die Klimahistorie der Region verriet. Schlüsselpunkt der Studie waren biogeochemische Daten, welche den Worten der beiden Forscher zufolge „Variationen des Brutverhaltens von Seevogel-Kolonien im Einzugsgebiet belegen, die die Nährstoffversorgung und den Zufluss von Kadmium in den See“ spiegeln.

Diese Daten enthüllten scharfe Zunahmen der Werte der Parameter zwischen etwa 1100 und 700 Jahren vor heute. Das deutet auf die sommerliche Präsenz einer signifikanten Anzahl von Seevögeln während jener „MWP“ hin, wie Wagner und Melles es beschrieben haben. Vorangegangen war die Kaltzeit des Dunklen Zeitalters [the Dark Ages Cold Period] mit der Gegenwart nur weniger oder gar keiner Vögel. Und nach jener „MWP“ zeigten ihre Daten erneut „eine nachfolgende Kleine Eiszeit“, vor der sie sagten, dass es „die kälteste Periode seit dem frühen Holozän in Ostgrönland“ war.

Die Daten von Raffels So zeigten ebenfalls Anzeichen einer Wiederansiedlung von Seevögeln während des vorigen Jahrhunderts, gekennzeichnet durch eine Zunahme organischer Stoffe in den See-Sedimenten und bestätigt durch Vogelzählungen. Allerdings waren die Werte der jüngsten Messungen der Seevogel-Zahlen nicht so groß wie während der frühen MWP. Das zeigt, dass während langer Zeiträume in jener Periode von vor 1100 bis 700 Jahren höhere Temperaturen vorherrschend waren als während der letzten 100 Jahre.

Eine dritte Grönland-Studie wurde von Kaplan et al. (2002) durchgeführt, die eine klimatische Historie des Holozäns ableiteten durch eine Analyse physikalisch-chemischer Eigenschaften in den Sedimenten aus einem kleinen See im Südteil von Grönland. Diese Arbeit enthüllte, dass der Zeitraum von vor 6000 bis 3000 Jahren durch Wärme und Stabilität gekennzeichnet war, dass sich jedoch das Klima danach abgekühlt hatte bis zum Höhepunkt während der Kleinen Eiszeit. Vor 1300 bis 900 Jahren jedoch gab es eine teilweise Verbesserung während der MWP, die mit einem geschätzten Temperaturanstieg um 1,5°C verbunden war.

In einer nicht aus Grönland stammenden Studie haben Jiang et al. (2002) Ansammlungen von Diatomeen analysiert, und zwar aus einem hoch aufgelösten Kern, der aus dem Grund des Nordisland-Schelfs stammte. Dies führte sie zu ihrer Rekonstruktion der 4600-jährigen Geschichte der sommerlichen Wassertemperatur an dieser Stelle. Zum Startzeitpunkt vor 4400 Jahren lag der Wert etwa bei 8,1°C. Danach hat sich das Klima 1700 Jahre lang abgekühlt und noch konsistenter während der letzten 2700 Jahre dieser Aufzeichnung. Die dramatischste Abweichung dieser langzeitlichen Abkühlung konzentrierte sich um die Zeit vor 850 Jahren während der MWP, als die Temperatur um mehr als 1°C über die Linie gestiegen ist, die den langzeitlichen Abwärtstrend markiert. Das führte zu einer fast vollständigen Erholung von den kälteren Temperaturen der Dark-Ages-Kaltzeit. Danach haben die Temperaturen ihren Abwärtstrend fortgesetzt bis in die Kleine Eiszeit. Am Ende des Zeitraumes betrug die Temperatur noch 6,3°C. Folglich zeigen ihre Daten eindeutig, dass es in diesem Teil der Arktis während der MWP signifikant wärmer war als heute.

Und weiter! Moore et al. (2001) analysierten Sedimentkerne aus dem Donard See auf der Baffin-Insel in Kanada. Sie gewannen eine 1240 Jahre lange Aufzeichnung mittlerer Sommertemperaturen für diese arktische Region. Während der gesamten Periode von 750 bis 1990 lag die Mitteltemperatur bei etwa 2,9°C. Allerdings war es zu ungewöhnlich warmen Dekaden mit Sommertemperaturen bis zu 4°C um die Jahre 1000 bis 1100 gekommen, während der Donard-See zu Beginn des 13. Jahrhunderts „eine der längsten Klima-Übergangsphasen seit über einem Jahrtausend erlebt hatte“, als „die Sommertemperaturen rapide um 2°C zwischen den Jahren 1195 und 1220 angestiegen waren, was schließlich in die wärmste Dekade jemals mündete mit Temperaturwerten nahe 4,5°C.

Dieser rapiden Erwärmung des 13. Jahrhunderts folgte eine Periode ausgedehnter Wärme, die bis zu einem abrupten Abkühlungs-Ereignis um das Jahr 1375 anhielt. Diese Abkühlung machte die nachfolgende Dekade zu einer der kältesten jemals. Dieses Ereignis signalisierte das Einsetzen der Kleinen Eiszeit, die etwa 400 Jahr lang gedauert hat, bis um das Jahr 1800 ein gradueller Erwärmungstrend einsetzte. Diesem folge ein dramatisches Abkühlungs-Ereignis um das Jahr 1900, wobei die Temperaturen fast auf das Niveau während der Kleinen Eiszeit sanken. Diese Kaltzeit dauerte bis etwa zum Jahr 1950. Danach haben sich die Temperaturen etwa zwei Jahrzehnte lang erwärmt, danach jedoch wieder nach unten tendiert bis zum Ende der Aufzeichnungen im Jahr 1990. Folglich war es auch in diesem Teil der Arktis während der MWP wärmer als heute.

Im folgenden Jahr haben Grudd et al. (2002) Baumring-Weiten aus 880 lebenden, toten und subfossilen nordschwedischen Kiefern in eine ununterbrochene und präzise datierte Chronologie konvertiert, die die Periode von 5407 vor bis 1997 nach Christus abdeckt. Die starke Verbindung zwischen diesen Daten und der mittleren Sommertemperaturen (Juni bis August) der letzten 129 Jahre dieser Zeitspanne ermöglichte es ihnen, eine 7400 Jahre lange Historie dieser Aufzeichnung der mittleren Sommertemperatur im nördlichen Schwedisch-Lappland zu erstellen. Der zuverlässigste Abschnitt dieser Aufzeichnung basierend auf der Anzahl der gesammelten Bäume umfasst die letzten beiden Jahrtausende. Grudd et al. sagen davon: „Es zeigen sich Klimavariationen im Zeitscale von Jahrhunderten, die aus anderen Proxy- und historischen Quellen bekannt sind, einschließlich einer ‚römischen’ Warmzeit in den ersten Jahrhunderten nach der Zeitenwende und der allgemein kalten ‚Dunklen Zeitalter’ während der Jahre von 500 bis etwa 900“. Und weiter: „Die Warmzeit um das Jahr 1000 korrespondiert mit der sog. ‚MWP’, die aus einer ganzen Reihe von Proxies und anderer Quellen bekannt ist“. Und schließlich: „Die Klimaverschlechterung im zwölften Jahrhundert kann als Startzeitpunkt einer ausgedehnten Kaltzeit angesehen werden, die bis ins erste Jahrzehnt des 20. Jahrhunderts gedauert hat“. Ihren Worten zufolge zeigt sich dabei auch die „kleine Eiszeit“, die ebenfalls aus vielen anderen Quellen bereits bekannt ist. Geht man sogar noch weiter zurück in der Zeit, zeigen die Baumringe zahlreiche weitere dieser relativ wärmeren und kälteren Perioden. Und in einem aussagekräftigen Kommentar zu den gegenwärtigen klimaalarmistischen Behauptungen berichten sie, dass „die relativ warmen Bedingungen zum Ende des 20. Jahrhunderts nicht über die zahlreichen Warmzeiten hinausgehen, die in vielen früheren Epochen rekonstruiert worden sind“. Tatsächlich ging die Erwärmung in vielen der früheren Warm-Intervalle über die Erwärmung Ende des 20. Jahrhunderts hinaus.

Seppa and Birks (2002) verwendeten ein vor Kurzem entwickeltes, auf der Verteilung von Pollen basierendes Klimamodell sowie eine neue Pollen-Schichtenfolge aus dem Toskaljarvi-See – ein von Bäumen umstandener See im kontinentalen Sektor von Nord-Fennoskandien (wenig nördlich von 69°N) – um quantitative Schätzungen der jährlichen Niederschläge und der Mitteltemperatur für Juli abzuleiten. Und wie sie schrieben: „unsere Rekonstruktionen stimmen überein mit dem traditionellen Konzept einer ‚MWP’ und einer ‚LIA’ im Gebiet des Nordatlantik (Dansgaard et al.1975) sowie dem nördlichen Fennoskandien (Korhola et al. 2000)“. Außerdem berichten sie: „Es zeigte sich eine klare Korrelation zwischen (ihrer) Rekonstruktion der MWP und zahlreichen Aufzeichnungen aus grönländischen Eisbohrkernen“ und weiter: „Vergleiche einer geglätteten Temperaturaufzeichnung für Juli am Toskaljarvi-See mit gemessenen Bohrloch-Temperaturen des GRIP [?] und der Dye 3-Eisbohrkerne (Dahl-Jensen et al., 1998) sowie die ð18O-Aufzeichnung des Bohrkerns aus dem Crete-Eisbohrkern (Dansgaard et al., 1975) zeigen eine starke Ähnlichkeit des zeitlichen Ablaufs der MWP zwischen den Aufzeichnungen“. Und schließlich schreiben sie: „Die Juli-Temperaturen während der MWP (vor etwa 1400 bis 1000 Jahren) lagen um etwa 0,8°C höher als heute“, wobei mit ‚heute’ die letzten sechs Jahrzehnte des 20. Jahrhunderts gemeint sind.

Mit der Vorgabe, dass Temperaturänderungen in hohen Breiten erstens empfindliche Indikatoren globaler Temperaturänderungen sind und dass sie zweitens als Basis zur Verifikation von Klimamodellrechnungen verwendet werden können, haben Naurzbaev et al. (2002) eine 2427 Jahre lange Temperaturhistorie aus Proxies für den Teil der Taimyr-Halbinsel in Nordrussland entwickelt, der zwischen 70°30’N und 72°28’N liegt, und zwar basierend auf einer Studie von Baumring-Weiten lebender und konservierter Lärchen. Außerdem schreiben sie: „es ist gezeigt worden, dass der hauptsächliche Treiber der Variabilität von Baumringen an der polaren Waldgrenze“ (wo sie ihre Studie durchgeführt haben) „die Temperatur ist (Vaganov et al., 1996; Briffa et al., 1998; Schweingruber und Briffa, 1996)“. Dabei kamen sie zu dem Ergebnis, dass „die wärmsten Epochen der letzten zwei Jahrtausende in diesem Gebiet eindeutig im dritten (Römische Warmzeit), vom zehnten bis zum zwölften (MWP) und während des zwanzigsten Jahrhunderts waren“.

Hinsichtlich der zweiten dieser Epochen betonen sie, dass „die Wärme der beiden Jahrhunderte 1058 bis 1157 sowie 950 bis 1049 die Realität der relativen Wärme im Mittelalter in diesem Gebiet unterstreicht“. Ihre Daten zeigen auch drei andere wichtige Informationen: 1. Sowohl die römische als auch die Mittelalterliche Warmzeit waren wärmer als die gegenwärtige Warmperiode, 2. der „Anfang vom Ende“ der Kleinen Eiszeit lag irgendwo um das Jahr 1830 und 3. die gegenwärtige Warmperiode erreichte ihren Spitzenwert um das Jahr 1940.

Alle diese Beobachtungen stehen im Gegensatz zu der tausendjährigen Hockeyschläger– Temperaturhistorie von Mann et al. 1998, 1999) sowie der tausendjährigen globalen Ausdehnung von Mann und Jones 2003, worin 1. die gegenwärtige Warmzeit als die wärmste der letzten zwei Jahrtausende genannt wird, 2. die Erholung aus der Kleinen Eiszeit erst nach dem Jahr 1910 begonnen hat und 3. dass die höchsten Temperaturen der gegenwärtigen Warmperiode in der zweiten Hälfte der letzten Dekade des vorigen Jahrhunderts aufgetreten waren.

Zwei Jahre später haben Knudsen et al. (2004) klimatische Änderungen während der letzten 1200 Jahre dokumentiert mittels hoch aufgelöster Multi-Proxy-Studien von benthonischen [Das Benthos (auch Benthon, einzeln: der Benthont) ist die Gesamtheit aller in der
Bodenzone eines Gewässers, dem Benthal, vorkommenden Lebewesen. Quelle: Wikipedia] und planktonischer Ablagerungen von Foraminiferen, stabilen Isotopen und der Grundmoräne von Gletschern, die in drei Sediment-Bohrkernen aus dem Schelf von Nordisland stammen. Diese Arbeit zeigte, dass „der Zeitraum zwischen dem Jahr 1200 und 700 bis 800 Jahre vor heute einschließlich der MWP charakterisiert war durch relativ hohe Wassertemperaturen und Temperaturen am Meeresboden. Nach dieser Zeit markiert eine allgemeine Temperaturabnahme in dem Gebiet den Übergang … in die Kleine Eiszeit“. Sie betonen auch, „dass das Minimum der Wassertemperatur vor etwa 350 Jahren vor heute erreicht worden war, als zahlreiche Proxies sehr kalte Bedingungen zeigten“. Danach berichten sie „von einer modernen Erwärmung der Oberflächen-Gewässer … die nicht in den Proxy-Daten erscheint“ und dass es „keinen klaren Hinweis auf eine Erwärmung der Wassermassen in dem Gebiet während der letzten Jahrzehnte“ gibt, selbst bei den gemessenen Wassertemperaturen während des Zeitraumes 1948 bis 2002.

Weitere zwei Jahre später entwickelten Grinsted et al. (2006) ein „Modell der chemischen Aufspaltung im Eis basierend auf unterschiedlichen Auswaschungsraten für Ionenpaare … als Proxy für die sommerliche Schmelzperiode (1130 bis 1990). Grundlage waren Daten aus einem 121 Meter langen Eisbohrkern, gezogen aus dem höchsten Eisfeld in Svalbard (Lomonosovfonna: 78°51’53"N, 17°25’30"E). Dieses Modell wurde „mit den instrumentellen Aufzeichnungen des 20. Jahrhunderts und längeren historischen Klima-Proxies validiert“. Diese Historie zeigte, dass „im ältesten Teil der Bohrkerns (1130 bis 1200) die Auswaschungs-Indizes mehr als vier mal höher lagen als während des vorigen Jahrhunderts. Das zeigt eine hohe Rate abfließenden Schmelzwassers“. Weiter sagten sie, dass sie seit dem Jahr 1997 Schneedecken-Untersuchungen nahe der Bohrstelle durchgeführt hatten (Virkkunen 2004) und dass „der sehr warme Sommer 2001 zu einem ähnlichen Ionenverlust und Auswaschungsraten wie im ältesten Teil des Bohrkerns geführt habe“. Danach stellen sie fest: „Dies zeigt, dass die sommerlichen Bedingungen während der MWP in Svalbard genauso warm (oder wärmer) waren als heute. Das ist konsistent mit der Temperaturrekonstruktion der Nordhemisphäre von Moberg et al. 2005“. Sie folgerten: „der Grad der Sommerschmelze war während des Zeitraumes von 1130 bis 1300 signifikant größer als in den neunziger Jahren“. Mit anderen Worten, in der MWP war es lange Zeit signifikant wärmer als während der Wärmespitze (die neunziger Jahre) der gegenwärtigen Warmperiode.

Wieder zwei Jahre später haben Besonen et al. (2008) Tausend-Jahre-Abfolgen der Dicke von Tonablagerungen und Sediment-Akkumulationsraten für den Lower Murray-See in Kanada abgeleitet (81°20’N, 69°30’W). Dieser ist normalerweise 11 Monate im Jahr mit Eis bedeckt, das eine Dicke von 1,5 bis 2 Meter zum Ende jeden Winters erreichen kann. Unter Berücksichtigung dieser Parameter schreiben sie unter Berufung auf sieben andere Studien, dass „Messungen an Seen der Hocharktis klar zeigen, dass Sediment-Transporte und die Dicke von Tonschichten mit der Temperatur in der kurzen Sommerperiode zusammen hängen, die in diesem Gebiet vorherrschend ist, und es gibt keinen Grund für die Annahme, dass das am Lower Murray-See anders sein sollte“.

Was also haben sie nun gefunden? Wie es die sechs Wissenschaftler beschreiben, lautet die Geschichte, die die Tonschichten-Dicke und die Sediment-Akkumulationsraten schreiben, dass es am Lower Murray-See „während des 12. und 13. Jahrhunderts relativ warm war“, und in dieser Hinsicht muss man darauf hinweisen, dass es ihren Daten zufolge am Lower Murray-See und in der Umgebung während dieser Zeit (1080 bis 1320) oftmals viel wärmer war als zu irgendeinem Zeitpunkt im 20. Jahrhundert. Dies wurde auch für den Donard-See (66.25°N, 62°W) von Moore et al. 2001 nachgewiesen.

Zeitgleich haben Wagner et al. (2008) bei der Arbeit auf einer fließenden Plattform in der Mitte eines kleinen Sees (Hjort So) auf einer 80 km langen und 10,5 km breiten Insel (Store Koldewey) unmittelbar vor der Küste von Nordostgrönland zwei Sediment-Bohrkerne gezogen mit einer Länge von 70 bzw. 252 cm. Sie haben diese dann stufenweise analysiert auf Korngrößenverteilung, Makrofossilien, Pollen, Diatomeen, Gesamt-Kohlenstoff, Gesamt-organischer Kohlenstoff und viele andere Parameter. Die Sequenzen wurden mittels Massenbeschleunigungsspektrometrie [?] und der Radiokarbon-Methode nach Kalenderjahren vor heute datiert. Diese Arbeiten zeigten, wie sie es beschrieben, „eine Zunahme der auf Produktivität hinweisenden Proxies vor 1500 bis 1000 Jahren, die mit der mittelalterlichen Erwärmung korrespondiert“. Sie fügen hinzu: „Nach dieser mittelalterlichen Erwärmung spiegelt sich eine erneute Abkühlung in der Abnahme der Parameter“ sowie [and a higher abundance of oligotrophic to meso-oligotrophic diatom taxa]“. Und weiter: Und diese Periode, die Kleine Eiszeit, bildete den Höhepunkt kühler Bedingungen während des Holozäns und wird in vielen anderen Aufzeichnungen in Ost- und Nordost-Grönland dokumentiert, bevor die gegenwärtige Warmphase vor etwa 150 Jahren einsetzte“.

Zusätzlich zur offensichtlichen Bedeutung ihrer Beweise für die MWP zeigt das Statement der sechs Forscher, dass die Kleine Eiszeit der Höhepunkt kühler Bedingungen während des Holozäns war, und dass ein solches Abgleiten in extreme Kühle, gefolgt von einer ähnlich extremen Erwärmung nicht ungewöhnlich ist. Das wiederum zeigt, dass der Grad der folgenden Erwärmung im 20. Jahrhundert nicht ungewöhnlich ist, besonders angesichts der Tatsache, dass die Erde noch nicht den Grad der Wärme erreicht hat, der in den meisten Gebieten des Planeten während langer Zeiträume in jener vorigen Warmzeit geherrscht hat.

Ein Jahr später haben Vare et al. (2009) eine neue Methode der Klimarekonstruktion verwendet, die auf der Verwendung eines neuen Biomarkers (IP25) basiert, den sie als einen [mono-unsaturated highly-branched isoprenoid] beschrieben haben. Er wurde synthetisiert aus Diatomeen im Meereis, von denen gezeigt werden konnte, dass sie in Sedimenten unter dem arktischen Eis stabil waren. Zusammen mit „Proxy-Daten, gewonnen aus der Analyse anderer Biomarker, aus stabilen Isotopen-Zusammensetzungen großer Mengen organischer Materie, benthischen Foraminiferen, Größenanordnungen von Partikeln und Verhältnisse anorganischer Elemente“ haben sie eine Frühjahrs-Meereisaufzeichnung in diesem Teil des zentralkanadischen arktischen Archipels entwickelt. [Im Original ist dies vom ersten Wort an lediglich ein einziger Bandwurmsatz! A. d Übers.] Dabei haben sie Beweise entdeckt für eine Abnahme der frühjährlichen Eisbedeckung etwa vor 1200 bis 800 Jahren, was sie mit der „so genannten Mittelalterlichen Warmzeit“ in Verbindung brachten.

Gleichzeitig haben Norgaard-Pedersen and Mikkelsen (2009) bei Arbeiten mit einem Sediment-Bohrkern vom August 2006 aus dem tiefsten Becken des Narsaq Sound in Südgrönland verschiedene Eigenschaften des Materials analysiert, aus denen sie verschiedene „gletscher-maritime, umweltliche und klimatische Änderungen“ ableiteten, zu denen es während der 800 Jahre zuvor gekommen war. Diese Arbeiten zeigten die Existenz von zwei Perioden (vor 2300 bis 1500 bzw. 1200 bis 800 Jahren), die grob mit der Römischen und der Mittelalterlichen Warmzeit zusammen fallen. Die Kaltzeit vor der MWP identifizierten sie als die Kaltzeit der Dark Ages und die der MWP Folgende als die Kleine Eiszeit. Und unter Verweis auf die Arbeiten von Dahl-Jensen et al. (1998), Andresen et al. (2004), Jensen et al. (2004) and Lassen et al. (2004) sagten die beiden dänischen Wissenschaftler, dass die in den Arbeiten jener Forscher identifizierten Kalt- und Warmphasen in der Aufzeichnung aus dem Narsaq Sound wiedergefunden werden konnten. Das sind weitere Beweise für die Realität des aus natürlichen Gründen auftretenden Phänomens, dass diese Klima-Oszillation im Zeitscale von Jahrtausenden bestimmt.

Ein Jahr später haben Vinther et al. (2010) 20 Eisbohrkern-Aufzeichnungen von 14 verschiedenen Stellen analysiert, die allesamt zeitlich 200 Jahre zurück reichten, und dies zusammen mit Boden-Temperaturdaten an 13 Stellen entlang der südlichen und westlichen Küsten von Grönland, die etwa das gleiche Zeitintervall abdeckten (1784 bis 2005) plus einem ähnlichen Temperatur-Datensatz aus Nordwest-Island (wovon die Autoren sagten, dass er „als Klimaindikation östlich des grönländischen Eisschildes fungieren“ solle). Diese Arbeit zeigte, dass das Sauerstoffisotop ð18O „die beste Proxy der Temperaturen in Grönland“ darstellte. Basierend auf dieser Bestimmung und unter Verwendung dreier längerer ð18O-Aufzeichnungen aus Eisbohrkernen (DYE-3, Crete und GRIP) entwickelten sie eine Temperaturhistorie, die über 1400 Jahre zurück reicht.

Den Worten der sieben Wissenschaftler zufolge zeigte diese Historie, dass „die Temperaturen während der wärmsten Perioden der Mittelalterlichen Warmzeit“ – von ihnen definiert als vor 900 bis 1300 Jahren aufgetreten – „genauso warm oder wärmer waren als die heutigen Temperaturen“. Hinsichtlich der Bedeutung dieser Temperaturbedingungen merken sie an, dass eine weitere Erwärmung des heutigen Klimas in Grönland „zu Temperaturbedingungen führen wird, die wärmer sind als alles, was es während der letzten 1400 Jahre gegeben hat“, was natürlich bislang noch nicht geschehen ist. Außerdem haben Vinther et al. eingeräumt: „die Temperaturinversion im GRIP-Bohrloch zeigt, dass die Temperaturen in Zentral-Grönland immer noch um Einiges unter den hohen Temperaturen liegen, die während der MWP aufgetreten waren“.

Etwa zur gleichen Zeit haben Kobashi et al. (2010) eine Studie veröffentlicht, worin sie geschrieben haben: „In Grönland sind Sauerstoffisotope des Eises (Stuiver et al 1995) extensiv als Temperatur-Proxy verwendet worden, aber die Daten rauschen stark und zeigen nicht eindeutig Multi-Jahrhunderte-Trends während der letzten 1000 Jahre. Dies steht im Gegensatz zu den Temperaturaufzeichnungen aus Bohrkernen, die eine klare ‚kleine Eiszeit’ und eine ‚Mittelalterliche Warmzeit’ zeigen. Allerdings sagen sie weiter, dass das Isotopenverhältnis von Stickstoff und Argon – 15N/14N bzw. 40Ar/36Ar – benutzt werden kann, um eine Temperaturaufzeichnung zu rekonstruieren, die „nicht jahreszeitlich verzerrt ist und keine Kalibrierung mit instrumentellen Aufzeichnungen braucht. Außerdem werden dekadische und hundertjährige Temperatur-Fluktuationen aufgelöst“.

Nach der Beschreibung dieses neuen Verfahrens haben sie dieses benutzt, um eine Historie der letzten 1000 Jahre der Bodentemperaturen in Zentral-Grönland zu konstruieren, basierend auf den Werten der Isotopen-Verhältnisse von Stickstoff und Argon, die zuvor von Kobashi et al. 2008 abgeleitet worden waren, und zwar aus im GISP2-Bohrkern eingeschlossenen Luftblasen, die aus Zentral-Grönland extrahiert worden waren. Das Ergebnis zeigt die Abbildung:

Abbildung: Rekonstruktion der Bodentemperatur in Zentral-Grönland während des vorigen Jahrtausends. Übernommen von Kobashi et al. 2010.

Diese Abbildung zeigt die Rekonstruktion der Temperatur in Zentral-Grönland durch die sechs Wissenschaftler, und was man daraus am besten ablesen kann ist der Umstand, dass der Temperatur-Spitzenwert in der zweiten Hälfte der MWP – die tatsächlich schon einige Zeit vor Beginn ihrer Aufzeichnungen begonnen hat, wie die Arbeiten von Dansgaard et al. (1975), Jennings and Weiner (1996), Johnsen et al. (2001) and Vinther et al. (2010) gezeigt haben – um etwa 0,33°C höher lag als der Temperatur-Spitzenwert der gegenwärtigen Warmphase und etwa 1,67°C über der Temperatur der letzten Jahrzehnte des 20. Jahrhunderts.

Die Ton-Schichtdicken in jährlich abgelagerten Sedimenten im Hvitarvatn, einem kleinen Gletschersee im Hochland von Island, werden kontrolliert durch die Rate der Gletscher-Erosion und der Effizienz von Material-Abtransporten unter dem Gletscher der benachbarten Langjokull-Eiskappe. Unter Hinweis darauf haben Larsen et al. (2011) eine Reihe von in jene Sedimente eingelagerten Umwelt-Proxies heran gezogen, um die Klima-Variabilität des Gebietes und die Gletscheraktivität während der letzten 3000 Jahre zu rekonstruieren. Diese Proxies umfassen u. a. Ton-Schichtdicke, Änderungen derselben, vom Eis mitgeschleifte Trümmer, die Gesamtmenge organischen Kohlenstoffes (Massenfluss und Konzentration) sowie das C zu N-Verhältnis organischer Materie in den Sedimenten. Und als all das gesagt und getan war, zeigten diese Bemühungen, dass „alle proxy-Daten eine Veränderung hin zu verstärkter Gletschererosion und Destabilisierung der Landschaft spiegelten, und zwar von den Jahren 550 bis 900 und 1250 bis 1950, unterbrochen lediglich durch ein Intervall relativ milder Bedingungen“. Sie stellen weiter fest: „Das Timing dieser Intervalle fällt zusammen mit den gut dokumentierten Perioden der Klimaänderung, bekannt als die Kaltzeit der Dark Ages, der Mittelalterlichen Warmzeit und der Kleinen Eiszeit“.

Im Falle der MWP weisen sie zusätzlich darauf hin, dass “die Ton-Schichtdicken nach dem Jahr 950 abnehmen und kontinuierlich klein bleiben während des Mittelalters mit noch etwas dünneren jährlichen Ablagerungen als während jeder anderen vielhundertjährigen Periode der letzten 3000 Jahre“. Dies zeigt, dass die MWP die wärmste Periode der letzten drei Jahrtausende war. Und: „Die LIA war das stärkste vielhundertjährige Kaltereignis des späten Holozäns“ und „wahrscheinlich seit der letzten regionalen Vereisung vor 10000 Jahren“.

Für all jene, die zusätzlich kurze Berichte über die MWP in der Arktis lesen wollen: Gehen  Sie zu www.co2science.org und suchen Sie nach Hill et al. (2001), Joynt and Wolfe (2001), Hantemirov and Shiyatov (2002), Andersson et al. (2003), Helama et al. (2005), Mazepa (2005), Weckstrom et al. (2006), Jiang et al. (2007), Zabenskie and Gajewski (2007), Grudd (2008), Justwan et al. (2008), Scire et al. (2008), Axford et al. (2009), Bjune et al. (2009), Cook et al. (2009), Fortin and Gajewski (2010), Büntgen et al. (2011), Divine et al. (2011), Ran et al. (2011), Velle et al. (2011), D’Andrea et al. (2012) and Esper et al. (2012). Alle Referenzen finden sich auch in der langen Liste unten.

Abschließend zu dieser Zusammenfassung: Es ist klar, dass die in den Studien beschriebene Abfolge von Messungen allesamt zeigen, dass die Arktis – von der die Klimamodelle annehmen, dass sie super-sensitiv auf die Treibhausgas-induzierte Erwärmung reagiert – immer noch nicht so warm ist, wie es vor vielen Jahrhunderten während der MWP der Fall war, als es viel weniger CO2 und Methan in der Atmosphäre gab als heute. Diese Tatsachen zeigen des Weiteren, dass die gegenwärtige moderate Wärme des Planeten nicht notwendigerweise das Ergebnis historischer Zunahmen dieser beiden Spuren-Treibhausgase sein muss.

Link 1: http://www.co2science.org/printer1.3/print.php

Link 2: http://www.co2science.org/subject/m/summaries/mwparctic.php

Übersetzt von Chris Frey EIKE

References
Andersson, C., Risebrobakken, B., Jansen, E. and Dahl, S.O. 2003. Late Holocene surface ocean conditions of the Norwegian Sea (Voring Plateau). Paleoceanography 18: 10.1029/2001PA000654.

Andresen, C.S., Bjorck, S., Bennike, O. and Bond, G. 2004. Holocene climate changes in southern Greenland: evidence from lake sediments. Journal of Quaternary Science 19: 783-793.

Axford, Y., Geirsdottir, A., Miller, G.H. and Langdon, P.G. 2009. Climate of the Little Ice Age and the past 2000 years in northeast Iceland inferred from chironomids and other lake sediment proxies. Journal of Paleolimnology 41: 7-24.

Besonen, M.R., Patridge, W., Bradley, R.S., Francus, P., Stoner, J.S. and Abbott, M.B. 2008. A record of climate over the last millennium based on varved lake sediments from the Canadian High Arctic. The Holocene 18: 169-180.

Bjune, A.E., Seppa, H. and Birks, H.J.B. 2009. Quantitative summer-temperature reconstructions for the last 2000 years based on pollen-stratigraphical data from northern Fennoscandia. Journal of Paleolimnology 41: 43-56.

Briffa, K.R., Schweingruber, F.H., Jones, P.D., Osborn, T.J., Shiyatov, S.G. and Vaganov, E.A. 1998. Reduced sensitivity of recent tree-growth to temperature at high northern latitudes. Nature 391: 678-682.

Büntgen, U., Raible, C.C., Frank, D., Helama, S., Cunningham, L., Hofer, D., Nievergelt, D., Verstege, A., Timonen, M., Stenseth, N.C. and Esper, J. 2011. Causes and consequences of past and projected Scandinavian summer temperatures, 500-2100 AD. PLoS ONE 6: 10.1371/journal.pone.0025133.

Cook, T.L., Bradley, R.S., Stoner, J.S. and Francus, P. 2009. Five thousand years of sediment transfer in a high arctic watershed recorded in annually laminated sediments from Lower Murray Lake, Ellesmere Island, Nunavut, Canada. Journal of Paleolimnology 41: 77-94.

Dahl-Jensen, D., Mosegaard, K., Gundestrup, N., Clow, G.D., Johnsen, S.J., Hansen, A.W. and Balling, N. 1998. Past temperatures directly from the Greenland Ice Sheet. Science 282: 268-271.

D’Andrea, W.J., Vaillencourt, D.A., Balascio, N.L., Werner, A., Roof, S.R., Retelle, M. and Bradley, R.S. 2012. Mild Little Ice Age and unprecedented recent warmth in an 1800 year lake sediment record from Svalbard. Geology 40: 1007-1010.

Dansgaard, W., Johnsen, S.J., Gundestrup, N., Clausen, H.B. and Hammer, C.U. 1975. Climatic changes, Norsemen and modern man. Nature 255: 24-28.

Divine, D., Isaksson, E., Martma, T., Meijer, H.A.J., Moore, J., Pohjola, V., van de Wal, R.S.W. and Godtliebsen, F. 2011. Thousand years of winter surface air temperature variations in Svalbard and northern Norway reconstructed from ice-core data. Polar Research 30: 10.3402/polar.v30i0.7379.

Esper, J., Büntgen, U., Timonen, M. and Frank, D.C. 2012. Variability and extremes of northern Scandinavian summer temperatures over the past two millennia. Global and Planetary Change 88-89: 1-9.

Fortin, M.-C. and Gajewski, K. 2010. Holocene climate change and its effect on lake ecosystem production on Northern Victoria island, Canadian Arctic. Journal of Paleolimnology 43: 219-234.

Grinsted, A., Moore, J.C., Pohjola, V., Martma, T. and Isaksson, E. 2006. Svalbard summer melting, continentality, and sea ice extent from the Lomonosovfonna ice core. Journal of Geophysical Research 111: 10.1029/2005JD006494.

Grudd, H. 2008. Tornetrask tree-ring width and density AD 500-2004: a test of climatic sensitivity and a new 1500-year reconstruction of north Fennoscandian summers. Climate Dynamics: 10.1007/s00382-0358-2.

Grudd, H., Briffa, K.R., Karlen, W., Bartholin, T.S., Jones, P.D. and Kromer, B. 2002. A 7400-year tree-ring chronology in northern Swedish Lapland: natural climatic variability expressed on annual to millennial timescales. The Holocene 12: 657-665.

Hantemirov, R.M. and Shiyatov, S.G. 2002. A continuous multimillennial ring-width chronology in Yamal, northwestern Siberia. The Holocene 12: 717-716.

Helama, S., Timonen, M., Holopainen, J., Ogurtsov, M.G., Mielikainen, K., Eronen, M., Lindholm, M. and Merilainen, J. 2009. Summer temperature variations in Lapland during the Medieval Warm Period and the Little Ice Age relative to natural instability of thermohaline circulation on multi-decadal and multi-centennial scales. Journal of Quaternary Science 24: 450-456.

Hiller, A., Boettger, T. and Kremenetski, C. 2001. Medieval climatic warming recorded by radiocarbon dated alpine tree-line shift on the Kola Peninsula, Russia. The Holocene 11: 491-497.

Jennings, A.E. and Weiner, N.J. 1996. Environmental change in eastern Greenland during the last 1300 years: evidence from foraminifera and lithofacies in Nansen Fjord, 68°N. The Holocene 6: 179-191.

Jensen, K.G., Kuijpers, A., Koc, N. and Heinemeier, J. 2004. Diatom evidence of hydrographic changes and ice conditions in Igaliku Fjord, South Greenland, during the past 1500 years. The Holocene 14: 152-164.

Jiang, H., Ren, J., Knudsen, K.L., Eiriksson, J. and Ran, L.-H. 2007. Summer sea-surface temperatures and climate events on the North Icelandic shelf through the last 3000 years. Chinese Science Bulletin 52: 789-796.

Jiang, H., Seidenkrantz, M-S., Knudsen, K.L. and Eiriksson, J. 2002. Late-Holocene summer sea-surface temperatures based on a diatom record from the north Icelandic shelf. The Holocene 12: 137-147.

Johnsen, S.J., Dahl-Jensen, D., Gundestrup, N., Steffensen, J.P., Clausen, H.B., Miller, H., Masson-Delmotte, V., Sveinbjörnsdottir, A.E. and White, J. 2001. Oxygen isotope and palaeotemperature records from six Greenland ice-core stations: Camp Century, Dye-3, GRIP, GISP2, Renland and NorthGRIP. Journal of Quaternary Science 16: 299-307.

Joynt III, E.H. and Wolfe, A.P. 2001. Paleoenvironmental inference models from sediment diatom assemblages in Baffin Island lakes (Nunavut, Canada) and reconstruction of summer water temperature. Canadian Journal of Fisheries and Aquatic Sciences 58: 1222-1243.

Justwan, A., Koc, N. and Jennings, A.E. 2008. Evolution of the Irminger and East Icelandic Current systems through the Holocene, revealed by diatom-based sea surface temperature reconstructions. Quaternary Science Reviews 27: 1571-1582.

Kaplan, M.R., Wolfe, A.P. and Miller, G.H. 2002. Holocene environmental variability in southern Greenland inferred from lake sediments. Quaternary Research 58: 149-159.

Kobashi, T., Severinghaus, J.P., Barnola, J.-M., Kawamura, K., Carter, T. and Nakaegawa, T. 2010. Persistent multi-decadal Greenland temperature fluctuation through the last millennium. Climatic Change 100: 733-756.

Kobashi, T., Severinghaus, J.P. and Kawamura, K. 2008. Argon and nitrogen isotopes of trapped air in the GISP2 ice core during the Holocene epoch (0-11,600 B.P.): methodology and implications for gas loss processes. Geochimica et Cosmochimica Acta 72: 4675-4686.

Knudsen, K.L., Eiriksson, J., Jansen, E., Jiang, H., Rytter, F. and Gudmundsdottir, E.R. 2004. Palaeoceanographic changes off North Iceland through the last 1200 years: foraminifera, stable isotopes, diatoms and ice rafted debris. Quaternary Science Reviews 23: 2231-2246.

Korhola, A., Weckstrom, J., Holmstrom, L. and Erasto, P. 2000. A quantitative Holocene climatic record from diatoms in northern Fennoscandia. Quaternary Research 54: 284-294.

Larsen, D.J., Miller, G.H., Geirsdottir, A. and Thordarson, T. 2011. A 3000-year varved record of glacier activity and climate change from the proglacial lake Hvitarvatn, Iceland. Quaternary Science Reviews 30: 2715-2731.

Lassen, S.J., Kuijpers, A., Kunzendorf, H., Hoffmann-Wieck, G., Mikkelsen, N. and Konradi, P. 2004. Late Holocene Atlantic bottom water variability in Igaliku Fjord, South Greenland, reconstructed from foraminifera faunas. The Holocene 14: 165-171.

Mann, M.E., Bradley, R.S. and Hughes, M.K. 1998. Global-scale temperature patterns and climate forcing over the past six centuries. Nature 392: 779-787.

Mann, M.E., Bradley, R.S. and Hughes, M.K. 1999. Northern Hemisphere temperatures during the past millennium: Inferences, uncertainties, and limitations. Geophysical Research Letters 26: 759-762.

Mann, M.E. and Jones, P.D. 2003. Global surface temperatures over the past two millennia. Geophysical Research Letters 30: 10.1029/2003GL017814.

Mazepa, V.S. 2005. Stand density in the last millennium at the upper tree-line ecotone in the Polar Ural Mountains. Canadian Journal of Forest Research 35: 2082-2091.

Moberg, A., Sonechkin, D.M., Holmgren, K., Datsenko, N.M. and Karlenm, W. 2005. Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data. Nature 433: 613-617.

Moore, J.J., Hughen, K.A., Miller, G.H. and Overpeck, J.T. 2001. Little Ice Age recorded in summer temperature reconstruction from varved sediments of Donard Lake, Baffin Island, Canada. Journal of Paleolimnology 25: 503-517.

Naurzbaev, M.M., Vaganov, E.A., Sidorova, O.V. and Schweingruber, F.H. 2002. Summer temperatures in eastern Taimyr inferred from a 2427-year late-Holocene tree-ring chronology and earlier floating series. The Holocene 12: 727-736.

Norgaard-Pedersen, N. and Mikkelsen, N. 2009. 8000 year marine record of climate variability and fjord dynamics from Southern Greenland. Marine Geology 264: 177-189.

Ran, L., Jiang, H., Knudsen, K.L. and Eiriksson, J. 2011. Diatom-based reconstruction of palaeoceanographic changes on the North Icelandic shelf during the last millennium. Palaeogeography, Palaeoclimatology, Palaeoecology 302: 109-119.

Schweingruber, F.H. and Briffa, K.R. 1996. Tree-ring density network and climate reconstruction. In: Jones, P.D., Bradley, R.S. and Jouzel, J. (Eds.), Climatic Variations and Forcing Mechanisms of the Last 2000 Years, NATO ASI Series 141. Springer-Verlag, Berlin, Germany, pp. 43-66.

Sicre, M.-A., Jacob, J., Ezat, U., Rousse, S., Kissel, C., Yiou, P., Eiriksson, J., Knudsen, K.L., Jansen, E. and Turon, J.-L. 2008. Decadal variability of sea surface temperatures off North Iceland over the last 2000 years. Earth and Planetary Science Letters 268: 137-142.

Seppa, H. and Birks, H.J.B. 2002. Holocene climate reconstructions from the Fennoscandian tree-line area based on pollen data from Toskaljavri. Quaternary Research 57: 191-199.

Stuiver, M., Grootes, P.M. and Brazunias, T.F. 1995. The GISP2 ð18O climate record of the past 16,500 years and the role of the sun, ocean, and volcanoes. Quaternary Research 44: 341-354.

Vaganov, E.A., Shiyatov, S.G. and Mazepa,V.S. 1996. Dendroclimatic Study in Ural-Siberian Subarctic. Nauka, Novosibirsk, Russia.

Vare, L.L., Masse, G., Gregory, T.R., Smart, C.W. and Belt, S.T. 2009. Sea ice variations in the central Canadian Arctic Archipelago during the Holocene. Quaternary Science Reviews 28: 1354-1366.

Velle, G., Kongshavn, K. and Birks, H.J.B. 2011. Minimizing the edge-effect in environmental reconstructions by trimming the calibration set: Chironomid-inferred temperatures from Spitsbergen. The Holocene 21: 417-430.

Vinther, B.M., Jones, P.D., Briffa, K.R., Clausen, H.B., Andersen, K.K., Dahl-Jensen, D. and Johnsen, S.J. 2010. Climatic signals in multiple highly resolved stable isotope records from Greenland. Quaternary Science Reviews 29: 522-538.

Virkkunen, K. 2004. Snowpit Studies in 2001-2002 in Lomonosovfonna, Svalbard. M.S. Thesis, University of Oulu, Oulu, Finland.

Wagner, B., Bennike, O., Bos, J.A.A., Cremer, H., Lotter, A.F. and Melles, M. 2008. A multidisciplinary study of Holocene sediment records from Hjort So on Store Koldewey, Northeast Greenland. Journal of Paleolimnology 39: 381-398.

Wagner, B. and Melles, M. 2001. A Holocene seabird record from Raffles So sediments, East Greenland, in response to climatic and oceanic changes. Boreas 30: 228-239.

Weckstrom, J., Korhola, A., Erasto, P. and Holmstrom, L. 2006. Temperature patterns over the past eight centuries in Northern Fennoscandia inferred from sedimentary diatoms. Quaternary Research 66: 78-86.

Zabenskie, S. and Gajewski, K. 2007. Post-glacial climatic change on Boothia Peninsula, Nunavut, Canada. Quaternary Research 68: 261-270.

Last updated 14 August 2013




Riesige Offshore-Gasvorkommen vor Griechenland

Im Einzelnen sprach Samaras während seiner Gespräche mit der Obama-Administration eine geschätzte Gasmenge von 4,7 Trillionen Kubikmeter (TCM) in Griechenland an, eine Menge, die größer ist als die geschätzten Reserven von Zypern und Israel zusammen mit weiteren 4,5 tcm. Basierend auf diesen Zahlen versicherte er, dass das östliche Mittelmeer den Gasbedarf der Europäischen Union für die nächsten 30 Jahre zu 50% decken kann. Er betonte die Notwendigkeit der Konstruktion einer Pipeline-Infrastruktur, um diese Mengen nach Europa zu transportieren und es dem Kontinent so zu ermöglichen, seine Importen zu diversifizieren. Zum Vergleich: die nachgewiesenen Reserven von Aserbeidschan belaufen sich geschätzt auf 900 Milliarden Kubikmeter (bcm).

Griechenland hat dem norwegischen PGS [=Program Generation System, ?] gestattet, eine seismische Übersicht (MC2D) für Kohlenwasserstoffe in den westlichen und südlichen Landesteilen durchzuführen, zumeist aber an Stellen offshore. Obwohl bereits „optimistische Ergebnisse“ seitens des Unternehmens und Funktionären der griechischen Regierung durchgesickert waren, ist es das erste Mal, dass eine definitive und eindrucksvolle Zahl hinsichtlich der Reserven von höchster Regierungsebene Griechenlands genannt worden ist. PGS wird Ende 2013 seine eigenen Ergebnisse fertig gestellt haben, und danach werden interessierte Unternehmen die Daten kaufen und dann in bilaterale Gespräche mit dem griechischen Staat eintreten. Man spekuliert, dass Firmen wie Total, Noble Energy, Shell und Delek bereits inoffiziell ihr Interesse an diesem Prozess bekundet haben.

Nichtsdestotrotz führen die Kritiker an, dass es noch zu früh sei, die möglichen Reserven abzuschätzen, und sie merken an, dass die griechische Regierung danach trachtet, sein politisches Profil in den USA zu „schärfen“, als ob man die Bedeutung des Landes als Quelle substantieller Mengen von Kohlenwasserstoffen steigern wolle. Mehr noch, die Türkei, traditionell angesehen als ein Gegenspieler sowohl von Griechenland als auch von Zypern und seit Neuestem auch Israel, leistet in Washington starke Lobbyarbeit, als Quellenland hinsichtlich Gas angesehen zu werden, das sowohl von Zypern als auch von Israel ausgebeutet wird. Folglich könnten Samaras’ Verkündigungen als ein Versuch gesehen werden, potentielle Entscheidungen der USA zu diesem Thema zu verhindern, mit der Möglichkeit, dass Griechenland ebenfalls über größere Mengen verfügen würde. Folglich sollte man die Rolle als „Brückenland“ hinsichtlich des Gases ultimativ Athen zuordnen.

Inzwischen steckt das „Gasfieber” andere Länder rund um das Mittelmeer an. Libanon, Montenegro, Bulgarien Rumänien und Malta bereiten sich darauf vor, ihrerseits nach Offshore-Funden zu suchen, obwohl sicher ist, dass unabhängig von ausreichenden Mengen vordergründige ökonomische Aspekte wie Produktions- und Transportkosten zu den Märkten in den westlichen und zentralen Märkten Europas eine Rolle spielen. In dieser Hinsicht wird sich der „Hype“ in der Region des östlichen Mittelmeeres fast mit Sicherheit wieder beruhigen, wenn erst einmal die Ökonomie ins Kalkül gezogen wird sowie die schon jetzt gut ausgebaute Infrastruktur in Russland. Außerdem sind da noch die große Zukunft des Azeri-Gases [?] im europäischen Energiemix und die Alternative des Handels mit LNG [=Liquefied Natural Gas], dem die EU allmählich größere Priorität verleiht. Und zuletzt ist da noch das politische Risiko in Verbindung mit dem Gas aus dem östlichen Mittelmeer, das man in Betracht ziehen sollte, handelt es sich doch um eine Region mit Bürgerkriegen und politischer Instabilität.

Link: http://www.naturalgaseurope.com/greece-natural-gas-reserves

Übersetzt von Chris Frey EIKE




In den Nachrichten: Japan killt Klima-Agenda – Welches Kyoto?

Japan kehrt zur Kohle zurück und kippt Emissionsziele

Die japanische Regierung unternimmt derzeit alles, um den Prozess zum Bau neuer Kohlekraftwerke zu beschleunigen. Japanischen Medienberichten zufolge beabsichtigt die Regierung, diesen Prozess auf höchstens 12 Monate zu begrenzen, um mit dem Neubau derartiger Kraftwerke die in die Höhe schießenden Energiepreise anzugehen. Mit Überlegungen der Regierung, einen großen Teil der installierten Kernkraft-Energie mittelfristig zu schließen, gelangt die Kohle wieder in den Blickpunkt als die billigste Energiequelle, trotz der Pläne zur Reduktion von Kohlenstoff-Emissionen. Die Vorgabe, die Kohlenstoff-Emissionen bis zum Jahr 2020 um 25 Prozent verglichen mit dem Stand von 1990 zu reduzieren, wird im Oktober überarbeitet, heißt es in japanischen Zeitungsberichten. – Brian Robins, The Sydney Morning Herald, 26 April 2013

Dem Regierungssprecher der japanischen Regierung zufolge wird Japan wahrscheinlich ein ambitioniertes Versprechen, die Treibhausgas-Emissionen um ein Viertel zu kappen, rückgängig machen. Auf die Nachfrage, ob er bestätigen könne, dass die neue Regierung das Versprechen Tokios aus dem Jahr 2009 erneuern würde, sagte Kabinetts-Generalsekretär Yoshihide Suga, dass die Regierung „im Prinzip in diese Richtung geht“. „Ich habe schon eine ganze Zeitlang gesagt, dass dies ein gewaltiges Ziel ist und wahrscheinlich unerreichbar ist“. Dies sagte er in einer Routine-Pressekonferenz. Die industriefreundliche Liberale Demokratische Partei von Premierminister Shinzo Abe hat bei den Wahlen im Dezember die Demokratische Partei überflügelt. Diese hatte versprochen, die Ziele hinsichtlich Reduktion von Treibhausgasen angesichts des Wechsels zu fossilen Treibstoffen nach Fukushima zu erneuern. – AFP, 24 January 2013

Neue Technologien und eine wenig bekannte Energiequelle zeigen, dass fossile Treibstoffe unendlich sein könnten. Schätzungen des globalen Vorkommens von Methanhydrat reichen vom Äquivalent des Hundertfachen des gegenwärtigen jährlichen Energieverbrauchs in Amerika bis hin zu dem 3-Millionen-fachen. – Charles C Mann, The Atlantic, May 2013

In ganz Europa haben sowohl die politischen Entscheidungsträger als auch die Öffentlichkeit weiterhin Vorbehalte über die potentiellen Auswirkungen von Technologien wie Fracking auf die Umwelt. Eine Verlangsamung der Bemühungen Europas, seine Gasreserven auszubeuten, die etwa 10% der Weltvorräte ausmachen, könnte zu keiner schlechteren Zeit für die europäischen Unternehmen kommen, die ohnehin schon unter einer kontinentalen Schuldenkrise sowie kraftlosem Wachstum und zunehmenden Wettbewerbsnachteilen im Vergleich zu Rivalen in den USA leiden. – Mark Scott, The New York Times, 25 April 2013

Parlamentsmitglieder haben die Regierung kürzlich dafür kritisiert, dass sie ohne Not die Entwicklung von Schiefergas verzögert hätte, und wiesen darauf hin, dass sie vielmehr die Unternehmen jetzt ermutigen sollte, mit genaueren Schätzungen der förderbaren Vorräte herauszurücken. Das Fehlen von Fortschritten während der letzten zwei Jahre in UK ist enttäuschend und muss beschleunigt werden. Dies sagten Mitglieder des einflussreichen überparteilichen Energy and Climate Committee dem Parlament in einem Bericht. – Reuters, 26 April 2013

Das 18 Monate lange Moratorium der Bohrung nach Schiefergas war ein „Skandal“, sagte Peter Lilley, Mitglied des vom Unterhaus in UK eingesetzten Komitees zur Klimaänderung. Lilley sagte weiter, dass eine zweiwöchige Reise in die USA – dem Geburtsort der Schiefergas-Revolution – ausgereicht hätte, um alle Fragen hinsichtlich der Risiken des hydraulischen Brechens zu beantworten. Dann hätte die Schiefergas-Förderung schon längst begonnen haben können. „Die meisten Sorgen bestehen entweder aus Übertreibungen oder aus Lügen“, sagte er. – Platts, 24 April 2013

Die Europäer haben Hunderte Milliarden Euro für erneuerbare Energien ausgegeben – ultimativ getragen von den Steuerzahlern, den Verbrauchern und der europäischen Wettbewerbsfähigkeit – für nichts und wieder nichts. Angesichts der sich weiter ausbreitenden Schiefergas-Revolution versprechen die Erneuerbaren, die Wirtschaft mit grüner Energie zu ertränken und sie in Abhängigkeit von unbezahlbaren Subventionen zu belassen. – Rupert Darwall, City A.M. 25 April 2013

Link: http://wattsupwiththat.com/2013/04/26/newsbytes-japan-kills-climate-agenda/

Übersetzt und mit einer Einführung versehen von Chris Frey