1

Ein weiteres Jahr mit globaler Abkühlung

Bild rechts: Alexander Hunter/The Washington Times more >

In der ersten Januarwoche breitete sich eine brutale Kältewelle in den meisten Gebieten der USA aus. Zahlreiche Kälterekorde im ganzen Land wurden gebrochen. In manchen Gebieten war es zum letzten Mal im 19. Jahrhundert so kalt. In Chicago und New York City wurden jeweils Kälterekorde aus dem Jahr 1894 bzw. 1896 gebrochen. Diese Extreme waren kein Einzelfall, sondern stehen beispielhaft für die Bedingungen in weiten Gebieten des Kontinents. Im  Lincoln Park Zoo musste ein Eisbär vor der Kälte in Sicherheit gebracht werden.

Das Ausbrechen polarer Bedingungen in den USA erinnerte auch daran, dass kaltes Wetter allgemein für die Menschen viel schlimmere Auswirkungen hat als warmes Wetter. Der von Stromnetzen, Gaspipelines und Ölraffinerien wurde unterbrochen. Passagiere von Amtrak sind gestrandet, und Tausende Flüge waren verspätet, wenn sie nicht ganz ausgefallen sind. Bis zum Januar berichteten die Medien von mindestens 21 Todesopfern direkt verbunden mit der Kälte.

Der Frost im Januar [der aktuelle Schneesturm in den USA war hier noch nicht gemeint! A. d. Übers.] verursachte in den Weinbaugebieten in Ohio Schäden in Höhe von 3 Millionen Dollar. Die Zitrusplantagen in Florida sind diesem Schaden wohl entkommen, aber Kalifornien ist nicht so glimpflich davongekommen. Eine einwöchige Kältewelle Anfang Dezember hat etwa die Hälfte der Zitrusernte von 1,5 Milliarden Dollar vernichtet. Die Farmer in Kalifornien können sich vielleicht damit trösten (oder auch nicht), dass ihr Staat alles unternimmt, um das Klima weiter abzukühlen, indem eine Verringerung der Kohlendioxid-Emissionen angeordnet wird. [Die EU und vor allem Deutschland kann aber wohl in dieser Hinsicht nicht übertroffen werden! A. d. Übers.]

Angesichts dieser eisigen Bedingungen sind die Alarmisten der globalen Erwärmung in den Zustand vollständigen Leugnens gefallen. Wir wurden nachdrücklich belehrt, dass Einzelereignisse beim Wetter keinen hinreichenden Hinweis auf langfristige Klimatrends bieten. Das stimmt natürlich, aber wurde uns nicht auch wiederholt erzählt, dass Hurrikane wie Sandy und Katrina ein eindeutiger Beweis für die globale Erwärmung sind? Wenn wir wirklich mitten in einer „Klimakrise“ stecken, ist es dann nicht bemerkenswert, dass Kälterekorde aus dem 19. Jahrhundert unterboten worden sind?

Wetterextreme scheinen auch irrsinnige Randerscheinungen zu zeitigen. Wenn wir über die globale Erwärmung diskutieren, ist es natürlich schwierig zu sagen, wo der Mainstream aufhört und die Randzone beginnt. Wir wurden mit der widersprüchlichen Erklärung abgespeist, dass kaltes Wetter in Wirklichkeit durch die globale Erwärmung verursacht wird. Dem Time Magazin zufolge sind kalte Temperaturen in den USA die Folge der globalen Erwärmung, in deren Zuge sich der Polarwirbel südwärts verlagert hat. Aber im Jahre 1974 hat uns das gleiche Time Magazin darüber informiert, dass die Südverlagerung des Polarwirbels in gemäßigte Temperaturzonen der Vorbote einer neuen Eiszeit sei.

Es stimmt, dass die Meereisausdehnung am Nordpol etwas unter dem 30-jährigen Mittel liegt. Allerdings hat uns ein Ereignis in der Antarktis daran erinnert, dass die Ausdehnung des Meereises dort ein Allzeit-Hoch erreicht hat [seit Beginn von Satellitenbeobachtungen. A. d. Übers.] Ende Dezember ist ein Schiff voller globaler Erwärmungsforscher im antarktischen Meereis stecken geblieben. Das Eis war so dick, dass es auch zwei Eisbrecher nicht geschafft haben, zu dem Schiff vorzudringen. Die Passagiere mussten mit einem Hubschrauber ausgeflogen werden. Trotz all der Behauptungen über abschmelzende Pole und ertrinkende Eisbären verharrt die globale Ausdehnung von Meereis stur und signifikant über dem vieljährigen Mittel. Offensichtlich sorgt die Wärme durch die globale Erwärmung für verstärkte und nicht sich abschwächende Eisbildung, was im Widerspruch sowohl zu physikalischen Gesetzen als auch dem gesunden Menschenverstand steht.

Es scheint, als ob inzwischen jedermann qualifiziert ist, eine Meinung zur globalen Erwärmung zu haben. Vor Kurzem erklärte die Theologie-Professorin Susan Thistlewaite, dass „kaltes Wetter“ ein „Beispiel für die Art gewalttätiger und abrupter Klimaänderungen ist, die im Zuge der globalen Erwärmung auftreten“.

Manchmal fühle ich mich nur noch dumm. Ich dachte immer, dass das kalte Wetter gemeinhin einem Phänomen zugeordnet werden kann, dass unter der Bezeichnung „Winter“ bekannt ist. Die gute Professorin behauptete auch, dass kaltes Wetter in den USA Gottes Strafe für unser „sündhaftes Verhalten gegenüber der Schöpfung“ sei.

Falls sich der gegenwärtige Abkühlungstrend noch einige Jahre fortsetzt, steht die Theorie von der globalen Erwärmung unmittelbar vor dem Aussterben. Es wird dann auf einer langen Liste anderer ausgelaufener umweltlicher Untergangsprophezeiungen [environmental doom-and-gloom-predictions] landen, neben Begriffen wie Überbevölkerung, Peak Oil und nuklearer Winter.

David Deming ist Geophysiker, Professor für Kunst und Wissenschaft an der University of Oklahoma sowie Autor von „Black & White: Politically Incorrect Essays on Politics, Culture, Science, Religion, Energy and Environment” (CreateSpace, 2011).

Read more: http://www.washingtontimes.com/news/2014/jan/16/another-year-of-global-cooling/#ixzz2r7VVkeGd
Follow us: @washtimes on Twitter

Link: http://www.washingtontimes.com/news/2014/jan/16/another-year-of-global-cooling/

Übersetzt von Chris Frey EIKE




Energiewende wirkt: Gabriels Meseberg III Eckpunkte – Peanuts reloaded

Gabriel’s (Hornbergersches) Energiewende 2.0-Schießen – Meseberg

(zum Verständnis beachte man den Punkt „Große Koalition“ des NL1401, im Anhang)

Nach den unverbindlichen Statements der Koalitionsvereinbarung (Ausnahme 55%, Steigerung Ausbauziel 2030) ist trotz vieler Äußerungen in sehr vielen Medien außer dem Namen 2.0 nur Nebel, Bürgerverdummung (a) und Lobbyismus-Getöse der Energiewender (b) in der Luft. In Merseburg hat man mitnichten den Nebel gelichtet!

Die CDU hält sich logischerweise völlig zurück ausgenommen das markige aber nichtssagende Statement der Kanzlerin in Meseburg, hat sie doch diese heiße Kartoffel der SPD überlassen. Auch Seehofer macht inzwischen nur noch den Spagat zwischen „Konfrontation mit Gabriel vermeiden“ und Befriedung der Nimby’s (10h).

Das Statement unseres letzten NL, dass jetzt alles nur noch schneller geht, bleibt richtig:

a) i) Das Das Durchschnitts-EEG-Erlössatz-Absenkungsziel von 17 auf 12 Cent/kWh bis 2017 ist reine Augenwischerei, da ausnahmslos alle Einspeisesätze für Neuanlagen derzeit deutlich unter 13 Cent liegen, derzeit die jährliche %-Absenkung bei ca. 1,5 Cent liegt (weil die teuren Anlagen der frühen EEG-Jahre rausfallen) und Offshore Mengenmäßig nicht signifikant ist.

ii) Über die Altmaierschen Schnitte ausschließlich im Voltaik-Bereich hinausgehend sind keine weiteren Kürzungen der Einspeisesätze vorgesehen.

iii) Die Sinnhaltigkeit der Energiewende ist ausser Diskussion und durch die intensive Ausgestaltungsdiskussion ergibt sich implizite eine Forcierung der virtuellen Realität der Energiewende.

iv) Die Senkung der Windstromerlöse in hochprofitablen Regionen wird nicht quantifiziert und ist damit ebenfalls reiner Nebel.

v) Die angebliche Deckelung des jährlichen Windkraft-Ausbaus auf 2.500 MW jährlich liegt um 31% höher als der Installations-Durchschnitt der letzten 6 Jahre und ist damit fast schon als arglistige Täuschnung zu bezeichnen.

b) Die Interventionen der Lobbyisten sind ausschließlich unter Kaschierung, alternativ unter Profilierung zu buchen. Würden sie schweigen, würde man das implizit als Bestätigung der Richtigkeit der behaupteten (aber nicht angegriffenen) Überteuerung der EEG-Sätze ansehen. Man spielt sich also defacto zur Nutzenerhöhung einfach nur den Ball zu.

Etwas komplexer und undeutlicher ist die Lage bei Offshore. Hier hat sich primär die CDU exponiert und die ist nicht zuständig. Ausserdem ist reduzierte Publicity in diesem Hiobsbotschaften-trächtigen Segment allen Beteiligten Recht.

Zwar „eiert“ Minister Gabriel bei den Themen De-Industrialisierung und EEG-Privilegierung herum, aber solange Realität und Sinnhaftigkeit der Energiewende wie ein Pflock stehen, werden Medien und Bürger den Akteuren in jeder Richtung folgen nach dem Motto „für die Zukunft Deutschlands und für die Weltklimarettung müssen wir halt Opfer bringen“

*) Es liegt mit fern, die engagiert gegen die Energiewende wirkenden Antiwindkraftler zu diskreditieren, indem ich nur noch von Nimbys rede, aber leider haben fast alle neu gegründeten BI ihren Frieden mit der Energiewende gemacht.

Heinrich Duepmann

Vorsitzender NAEB e.V.

Spenden-Konto:
NAEB e.V., Forstweg 15, 14163 Berlin
Sparkasse Berlin, Kto. 6603157851, BLZ 10050000

(1) Auszug NL1401: Energiewende in der großen Koalition.
Wohin geht die Energiewende-Reise in der neuen großen Koalition?

In beiden großen Koalitionen liegt die Zuständigkeit für die Energiewende bei Gabriel (in der ersten als Umweltminister und nun als Wirtschaftsminister mit Zuständigkeit für Energie).
Schauen wir uns also das Wirken von Minister Gabriel an:
von den vier Aegiden Trittin, Gabriel, Dr. Röttgen, Altmaier waren die von Gabriel und Dr. Röttgen die mit den höchsten EEG-Kostensteigerungen und mit völlig ungezügeltem Ausbau der Energiewende-Typen.
Was ist derzeit an Fakten verfügbar?
– Einzige quantitative Absprache: Ausbauziel 2030 um 5% erhöht (55%), alle Kosten-Dämpfungsversprechen sind damit unglaubwürdig

– Zuständigkeit bei Minister Gabriel – wie in der ersten großen Koalition. Er ist überzeugter Energiewender und erklärter und bekennender Kernkraftgegner.

– In der ersten großen Koalition hat die Bundeskanzlerin ihm weitgehend freie Hand gelassen und er wiederum hat die Ministerien-Besetzung unverändert von Trittin übernommen (diese Personalstruktur ist heute noch praktisch unverändert vorhanden).

– Mit Rainer Baake’s (Grünen-Mitglied und Vater des 1. KK-Ausstiegskonzeptes) Ernennung zum Staatssekretär für Energie forciert Gabriel den Energiewende-Kurs. Seine gelegentlichen Äußerungen in den Medien zur Kosten-Anstiegs-Dämpfung sind als reine Lippenbekenntnisse zu werten – dazu zähle ich auch seine Aussage am 7.1.13 in Brüssel betreffend die zu befürchtende Deutsche Deindustrialisierung.

– Die Altmaierschen EEG-Novellierungsansätze sind wohl in der Schublade verschwunden.

– Mit Herrn Machnig will Gabriel im Sommer 2014 einen weiteren Energiewende-Treiber als Staatssekretär an Bord nehmen.

– Die Bundeskanzlerin enthält sich jeglicher Äußerungen zur Energiewende.

Dass im Lager der Energiewende-Gegner von Licht und Schatten gesprochen wird, ist mir völlig unverständlich. Ich sehe nur schwarz, schwärzer als der dunkelste Schatten.
Die Überführung des Energie-Referates aus dem BMU in das BMWI ist das trojanische Pferd, mit dem nun endgültig die Energiewender die Regierung okkupieren. In Ägypten (und demnächst hoffentlich auch in der Türkei) interveniert das Militär, wenn die Diktatur droht, wir hoffen da in Deutschland wohl vergeblich.

 




Nach Prokon ist vor Prokon -wenn man an das IWES in Kassel glaubt.

IDW Pressemitteilung vom 21.01.2014

Fraunhofer-Studie: Geschäftsmodell Energiewende

Uwe Krengel Pressestelle
Fraunhofer Institut für Windenergie und Energiesystemtechnik IWES

Derzeit dominiert in der Diskussion um die Energiewende die Kostenfrage. Diese Sichtweise greift nach Überzeugung der Experten vom Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) in Kassel jedoch zu kurz. In ihrer heute veröffentlichten Studie „Geschäftsmodell Energiewende“ zeigen die Wissenschaftler, dass Investitionen in die Energiewende durchaus rentabel sind und wie sie bis 2050 finanziert werden könnten.

„Unsere umfangreichen Berechnungen belegen, dass die Energiewende auch unter sehr konservativen Annahmen, insbesondere für institutionelle Anleger ein hochattraktives Geschäft ist“, erklärt IWES-Institutsleiter Prof. Clemens Hoffmann. Selbst ehrgeizige Ziele wie die Vollversorgung mit erneuerbaren Energien sind nach seiner Überzeugung wirtschaftlich darstellbar. „Das Kostenargument ist also für klimapolitische Entscheidungen nicht mehr zielführend.“
Fossile Energien kosten Deutschland 83 Milliarden Euro im Jahr
Grundidee ist es, den kapitalkostenintensiven Investitionen in die notwendigen neuen Technologien die Einsparungen gegenüber zu stellen, die durch den Rückbau der betriebskostenintensiven Technologien im Bereich der fossilen Brennstoffe erzielt werden. Denn damit sind sinkende Ausgaben für Primärenergie und deren Importe verbunden. Die Experten gehen davon aus, dass die Investitionen in die Infrastruktur der erneuerbaren Energien so gesteuert werden können, dass die Kosten für die fossile Primärenergie von derzeit 83 Milliarden Euro pro Jahr über einen Zeitraum von 40 Jahren praktisch auf Null abgesenkt werden können. Nach ihren Berechnungen wird auf diesem Weg in 15-20 Jahren der Punkt erreicht, an dem die Ausbaukosten für die erneuerbaren Energien und die Beschaffungskosten für die fossile Energie zusammen genommen die heutigen Primärenergiekosten unterschreiten.
Break-Even für erneuerbare Energien in 15-20 Jahren
„Nach Erreichung dieses Break-Even werden die Energiekosten kontinuierlich absinken und in rund 30 Jahren, wenn der Ausbau erneuerbarer Energien weitgehend beendet ist, sind Investitionen hauptsächlich für den Erhalt der neu aufgebauten Infrastruktur (Repowering) notwendig. Diese fallen damit pro Jahr deutlich geringer aus als während der Transformationsphase“, prognostiziert der Leiter der Studie, Norman Gerhardt. Rund 300-380 Milliarden Euro müssten nach seinen Angaben bis zum Break-Even vorfinanziert und in den folgenden Jahrzehnten getilgt werden. Selbst bei einem gleichbleibenden Preisniveau für fossile Energieträger rechnen die IWES-Experten bis 2050 mit einer inflationsbereinigten Verzinsung der Darlehen von 2,3 Prozent. Dieser Betrag könne sogar vier bis sieben Prozent betragen, wenn die Preise für Öl und Erdgas steigen. Dabei sind die Kosten für Treibhausgasmissionen noch nicht berücksichtigt.
Energiewende bietet attraktive Kapitalanlagen
„Eine Anlage, deren Rendite von der Leistungsfähigkeit der deutschen Industriegesellschaft abgesichert wird, gehört für potenzielle Kapitalgeber zu den attraktivsten Anlagen überhaupt“, sagt IWES-Chef Hoffmann. Attraktivität bedeutet Langzeitstabilität, Risikominimalität und hohe Renditeerwartung. Die Langzeitstabilität begründet sich darin, dass alle neuen Infrastrukturen Hochtechnologien sind. Die damit verbundene wirtschaftliche Kraft hängt ab von Standortfaktoren der industriellen Organisation, Rechtssicherheit und Qualität des Bildungswesens. Die Anlage ist unabhängig von schwer beeinflussbaren Veränderungen im Markt der fossilen Energieträger und damit risikoarm. Die Renditeerwartung knüpft sich zudem an ein globales Marktwachstum, in dem Deutschland derzeit eine Führungsposition behaupten kann. Ausgangspunkt der Studie ist ein Vollversorgungsszenario für Strom, Wärme und Verkehr für das Jahr 2050.

Weiterlesen: http://idw-online.de/de/news570066

Fachansprechpartner:
Prof. Dr. Clemens Hoffmann
Institutsleiter Fraunhofer IWES Kassel
Telefon +49 561 7294-494
clemens.hoffmann@iwes.fraunhofer.de

Dipl.-Ing. Norman Gerhardt
Gruppenleiter Energiewirtschaft und Systemanalyse
Telefon: +49 (0)561 7294-274
E-Mail: norman.gerhardt@iwes.fraunhofer.de




Mutter Natur zeigt: Die Party für das IPCC ist vorbei!

Ich gebe ja zu, ich bin kein Klimawissenschaftler. Nachdem ich dies gesagt habe, folgte ich dieser Debatte sehr genau während der letzten beiden Jahrzehnte. Ausgelöst wurde mein Interesse durch die Diskussion um die globale Abkühlung in den siebziger Jahren.

Der Klimakonsens der siebziger Jahre, genau wie in der Zeit nach Gründung des IPCC im Jahre 1988, wurde von Politik dominiert, nicht von Wissenschaft. Ich wurde erinnert, wie tief die Angst vor der Politik die heutigen Akademien infiziert hat, als ich eine Entschuldigung eines angesehenen Klimawissenschaftlers erhielt, der seinen eigenen öffentlichen Angriff auf mich korrigierte. Er sagte: „Ich versuche, politisch unvoreingenommen zu sein … ich versuche, einen mittleren Kurs als Wissenschaftler zu steuern“.

Wirklich? Geht es in der Wissenschaft nicht generell um Neutralität? Es geht doch um Beweise und Schlussfolgerungen, die sich ergeben, wann immer sie wollen. Wenn also ein international gefeierter Klimatologe wie Roy Spencer von der University of Alabama in Huntsville leidenschaftlich Klimamodelle analysiert, die über 33 Jahre gelaufen sind, und zu dem Ergebnis kommt, dass die Temperaturtrends sowohl nach Boden- als auch nach Satellitenbeobachtungen unterhalb der Projektionen von 87 der 90 Klimamodelle liegen, dann neutralisiert er diese Ergebnisse nicht politisch. Es sind empirische Tatsachen.

Möglicherweise wurden sie politisch, weil die Modelle, deren vollkommene Unbrauchbarkeit er nachgewiesen hatte, die Grundlage der IPCC-Wärmepropaganda bilden. Wie Spencer kürzlich sagte: „Die Modellierer und das IPCC haben absichtlich viele Jahre lang die Beweise geringer Klimasensitivität ignoriert … Die Diskrepanz zwischen den Modellen und den Beobachtungen ist nichts Neues … aber etwas, das mit der Zeit immer auffälliger wird“.

Genauso sieht es auch der gefeierte Klimatologe Richard Lindzen vom Massachusetts Institute of Technology. Er sagt: „Ich glaube, dass der letzte IPCC-Bericht (AR 5)  wirklich auf das Niveau urkomischer Inkohärenz abgesunken ist. Sie proklamieren zunehmendes Vertrauen in ihre Modelle zu einer Zeit, in der die Diskrepanzen zwischen ihren Modellen und den Beobachtungen zunehmen“. Und er wettet: „Ich wette, dass die globalen mittleren Temperaturen in 20 Jahren in Wirklichkeit niedriger liegen werden als heute“. Nimmt jemand die Wette an?

Der immer länger werdende Stillstand der globalen Erwärmung beeinflusst das politische Klima. Die Sprache hat sich bereits geändert, nämlich von „globaler Erwärmung“ zu dem allgemeineren Begriff „Klimaänderung“ und jetzt zu astrologischen „Extremwetterereignissen“, bei denen man universell sagen kann „habe ich doch gesagt!“ Zum Beispiel will man uns glauben machen, dass sowohl die jüngste Kältewelle in den USA als auch die Hitzewelle in Australien Beispiele für die globale Erwärmung sind. Und doch war das Jahr 2013 eines mit den „wenigsten Extremwetterereignissen“ in der Geschichte der USA.

Der politische Wille erlahmt ebenfalls. Vor fünf Jahren fand der Kopenhagen-Gipfel statt, und doch gibt es bis heute kein globales, rechtlich bindendes internationales Abkommen mit dem Ziel, Emissionen zu reduzieren. Nur Gespräche.

Die Umweltministerin Kanadas Leona Aglukkaq hat im vorigen Jahr einen Vorschlag aus ihrem Department gestrichen, öffentlich festzustellen, dass die Harper-Regierung wissenschaftliche Beweise dafür hat, dass die Menschen „zum größten Teil verantwortlich“ für die Klimaänderung sind und dass man diesen Rat „ernst“ nehmen sollte.

Und jetzt ist die Europäische Kommission drauf und dran anzuordnen, dass UK seine Subventionen für Windparks einstellen soll, zweifellos als Folge des politischen Rückschlags der ökonomischen Kosten grüner Schemata. The Telegraph in UK schreibt: „Die Kommission … wird dabei argumentieren, dass die Windparks an Land und die Solarindustrie ‚ausgereift‘ sind und man ihren Betrieb ohne Unterstützung durch den Steuerzahler durchführen sollte“. In Deutschland wurde die gesamte erneuerbare Industrie im Dezember praktisch eine Woche lang geschlossen, als nahezu 23000 Windturbinen und eine Million Solarpaneele nichts erzeugt haben.

Angesichts nicht wettbewerbsfähiger Strompreise und der Phantasie  billiger, zuverlässiger erneuerbarer Energie baut Deutschland während der nächsten zwei Jahre 10 neue Kohlekraftwerke und plant 15 weitere*. Die grüne Irreführung wird endlich mit der ökonomischen Realität konfrontiert.

[*Davon habe ich in hiesigen Zeitungen nichts gelesen! Zensur – oder ist das Oben gesagte eine Falschmeldung? A. d. Übers.]

Was wir derzeit erleben ist, wie sich Jahre schäbiger Wissenschaft und schlampigen Journalismus‘ in Nichts auflösen. Gäbe es nicht die unabhängigen Murdoch-Zeitungen auf der ganzen Welt, wären die Mainstream-Medien fast vollständig vom IPCC-Establishment gekapert worden. Mit Sicherheit gilt das für Australien. Sechs oder sieben Jahre lang wurden wir vom IPCC dazu getrieben zu akzeptieren, dass die IPCC-Zustandsberichte die Klimabibel seien. Dessen Vorsitzender, Rajendra Pachauri hat uns weisgemacht, dass sich das IPCC ausschließlich auf begutachtete Literatur stützt.

Dann haben die Murdoch-Zeitungen die wissenschaftlichen Skandale publik gemacht, und Donna Laframboise hat uns in ihrem Buch „Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurde“[hier bei Amazon] mit der außerordentlichen Enthüllung erstaunt, dass von 18000 Referenzen im IPCC-Bericht AR 4 ein Drittel nicht begutachtet worden waren. Bei einigen handelte es sich um Greenpeace-Presseerklärungen, bei anderen um Arbeiten von Studenten und Arbeitspapiere von einer Konferenz. In einigen Kapiteln war die Mehrheit aller Referenzen nicht begutachtet. Viele Leitautoren waren unerfahren oder mit Interessengruppen wie WWF und Greenpeace verbunden. Warum sind wir darüber nicht überrascht?

Das IPCC wurde gezielt gegründet, um von der grünen Bewegung gekapert zu werden. Es ist eine politische Institution. Es ist kein Gremium aus Wissenschaftlern, sondern von Regierungen, getrieben durch die UN. Sein einziges Ziel ist es, die Risiken einer vom Menschen verursachten Klimaänderung zu bestimmen. Es unterhält weit verbreitet Industrien. Eine dieser Industrien besteht aus Wissenschaftlern, die angewiesen worden waren, einen anthropogenen Grund zu finden. Eine andere besteht aus der Klima-Sanierung. Und natürlich gibt es eine Industrie, die die Steuermilliarden so verteilen soll, dass alles am Laufen bleibt. Mit Hunderten Milliarden Dollar, die auf dem Spiel stehen, wird dieses Kartell alle widersprechenden Beweise leugnen. Das blanke Überleben hängt davon ab. Aber die Tide kehrt sich um, und Mutter Natur hat schon ihre Absicht signalisiert, nicht zu kooperieren.

In der Zwischenzeit lassen kindische persönliche Angriffe auf diejenigen, die auf die Betrügereien des IPCC und seiner Ratschläge hinweisen, den Skeptizismus nur noch wachsen. Sie sind kein Ersatz für empirische Beweise und lassen die Angreifer immer kleiner aussehen. Die Party ist vorbei. [Hoffentlich! A. d. Übers.]

Maurice Newman ist Vorsitzender des Wirtschafts-Beratungsgremiums des australischen Premierministers.

The Australian, 15 January 2014 (paywalled)

Link: http://www.thegwpf.org/maurice-newman-mother-nature-suggests-partys-ipcc/

Übersetzt von Chris Frey EIKE




Deutschland: Wie Energiepolitik die Wirtschaft schädigen kann

Deutschlands Hinwendung zu erneuerbarer Energie war einst das Flaggschiff der Politik von Angela Merkel – inzwischen ist sie zu ihrem größten Problem geworden. „Für mich ist das drängendste Problem die Form der Energiewende“, sagte die deutsche Kanzlerin in ihrem ersten Fernsehinterview nach ihrer Wiederwahl. „Wir stehen unter enormem Druck. Die Zukunft der Arbeitsplätze und die Zukunft Deutschlands als Industriestandort hängt davon ab“.

Da hat sie nicht unrecht: Die größte Volkswirtschaft Europas steht vor einer Krise: Das Durcheinander hinsichtlich Energie ist so gewaltig, dass die Zukunft der vielgerühmten Wettbewerbsfähigkeit Deutschlands inzwischen ernsthaft in Gefahr ist.

Frau Merkel ist derzeit die populärste europäische Führungsfigur, aber der Rückschläge für ihre schlecht durchdachte Energiepolitik werden es immer mehr. Und als Clou obendrauf ist der Zweck, nämlich die Bekämpfung des Klimawandels durch weniger CO2-Ausstoß, direkt in sein Gegenteil verwandelt worden: die CO2-Emissionen sind gestiegen.

Der Plan nannte sich Energiewende*. Aber trotz der Hinwendung Deutschlands zu erneuerbarer Wind- und Solarenergie und mitten in einer Rezension sind die Kohlenstoff-Emissionen des Landes im vorigen Jahr um 1,8 Prozent gestiegen.

[*Auch hier steht das Wort im Original. Dort wird noch eine erklärende Übersetzung angefügt, auf die ich hier natürlich verzichte. A. d. Übers.]

Dem Centre for International Climate and Environmental Research in Oslo zufolge fielen die Emissionen in der Europäischen Union als Ganzes um 1,3 Prozent, hauptsächlich wegen der Rezession.

Frau Merkel kann dafür niemanden als sich selbst verantwortlich machen. Deutschlands Hinwendung zu den Erneuerbaren folgte den Normen des Europäischen Modells, wobei man päpstlicher als der Papst sein und noch über die EU-Ziele hinsichtlich CO2-Einsparung hinausgehen wollte. Dann folgten Fukushima und eine Welle antinuklearer Hysterie, die dem Tohoku-Erdbeben und dem Tsunami in Japan folgte.

Das in einem Jahrhundert einmalige Ereignis am Reaktor in Fukushima hat niemanden getötet, obwohl der Tsunami 16.000 Todesopfer forderte. Allerdings reichte es, um die grüne Mittelklasse Deutschlands in Panik zu versetzen.

Frau Merkel verstieg sich zu schrillen Forderungen, die Reaktoren in Deutschland zu schließen. Diese Entscheidung einer ehemaligen Physikerin, die persönlich pro-nuklear eingestellt ist, war ihr vielleicht wichtigster ökonomischer Ruf jemals. Aber sie ist eine Katastrophe.

Im März 2011, auf dem Höhepunkt der Rezession in der Eurozone, hat man in Deutschland acht der 17 Kernreaktoren abgeschaltet, was zu einem Rückgang der Stromerzeugung um 7 Prozent führte; im nächsten Jahrzehnt ist ein Rückgang um weitere 18 Prozent geplant. Die anderen neun Reaktoren werden von 2015 bis 2022 allesamt stillgelegt, was den ursprünglich geplanten Zeitpunkt 2036 um 14 Jahre vorverlegt.

Deutschland hat auch die Energiewende auf den Weg gebracht, will man doch bis zum Jahr 2050 in D 80 Prozent des Stromes aus Erneuerbaren, also Wind und Sonne erzeugen. Die mit Solarpaneelen überzogenen Felder und die Windparks in der Nordsee mögen die grünen Dünkel befriedigt haben, aber das zu horrenden wirtschaftlichen und sozialen Kosten. Nature zufolge, dem internationalen Wissenschaftsmagazin, werden die deutschen Verbraucher in diesem Jahr gezwungen, 20 Milliarden Euro für die Subventionierung von Windparks, Solar- und Biogas-Kraftwerken zahlen – für etwas, das es auf dem Markt schon für 3 Milliarden Euro gibt.

Um dieses grüne Abenteuer zu bezahlen, sind die Aufschläge auf die Stromrechnungen für die Haushalte um 47 Prozent oder 15 Milliarden Euro gestiegen, allein im vorigen Jahr. Deutschlands Verbraucher zahlen schon jetzt mit die höchsten Strompreise in Europa; nicht mehr lange, und ein durchschnittlicher Drei-Personen-Haushalt wird rund 90 Euro pro Monat für Strom ausgeben müssen, fast doppelt so viel wie im Jahr 2000. Gegenwärtig wird über 300.000 deutschen Haushalten pro Jahr der Strom abgeschaltet, weil sie ihre Rechnungen nicht mehr bezahlen können.

Zwei Drittel der Strompreissteigerung gehen auf die Sonderabgaben und Steuern der neuen Regierung zurück, die damit die erneuerbare Energie subventionieren will. Während die Strompreise in die Höhe geschossen sind und die Mittelklasse Anreize erhält, sich Solarpaneele auf das Dach zu pappen, sind Pensionen und Löhne nicht in gleicher Weise gestiegen, was die Ärmsten in Deutschland am härtesten trifft.

Link: http://www.thegwpf.org/germany-energy-polices-harm-economy/

Übersetzt von Chris Frey EIKE




Ex- IPCC-Leit-Autor Trenberth räumt jetzt ein: Pazifischer PDO-Ozeanzyklus hat zur Erwärmungsphase 1976-1998 beigetragen

Auch Trenberths Kumpel Rahmstorf hält dies nun plötzlich für eine gute Möglichkeit, wie er in seinem Klimalounge-Blog am 16. Dezember 2013 schrieb:

Der führende US-Klimatologe Kevin Trenberth forscht seit zwanzig Jahren zu diesem Thema und hat gerade einen ausführlichenerklärenden Artikel dazu publiziert. Trenberth betont die Rolle der längerfristigen Schwankungen der Klimaschaukel ENSO, genannt pazifisch-dekadische Oszillation (PDO). Etwas vereinfacht gesagt: es geht darum, dass Phasen mit häufigern El Niño und Phasen mit häufigeren La Niña Bedingungen (wie derzeit) im tropischen Pazifik bis zu zwei Jahrzehnte anhalten können. Letzteres bringt eine anhaltend etwas langsamere Erwärmung an der Oberfläche unseres Planeten, weil dafür mehr Wärme tiefer im Ozean gespeichert wird. Ein zentraler Punkt dabei: selbst wenn die Oberflächentemperatur stagniert nimmt unser Planet weiter netto Wärme auf.

Der andere “zentrale Punkt”, den Rahmstorf an dieser Stelle leider verschweigt, ist sogar noch wichtiger. Trenberth räumt nämlich in seinem neuen Paper explizit ein, dass die Erwärmungsphase 1976-1998 zu einem Teil auf die positive Phase der PDO zurückzuführen sei:

The picture emerging is one where the positive phase of the PDO from 1976 to 1998 enhanced the surface warmingsomewhat by reducing the amount of heat sequestered by the deep ocean, while the negative phase of the PDO is one where more heat gets deposited at greater depths, contributing to the overall warming of the oceans but cooling the surface somewhat. The Pacific Ocean appears to account for the majority of the decadal variability… Nevertheless, the events in the Pacific undoubtedly also affect the Atlantic, Indian, and Southern Oceans as the system acts collectively to equilibrate to these changes in the flow of energy.

Als wir das PDO-Modell Anfang 2012 in unserem Buch “Die kalte Sonne” als Mitauslöser der Erwärmung 1976-1998 ins Spiel brachten und die Ozeanzyklik als Pulsgeber für die Temperaturzyklen im Maßstab von mehreren Jahrzehnten, erlebten wir heftigen Widerstand beim deutschen Klimaestablishment. Knapp zwei Jahre später ist die kalte Sonne im Mainstream angekommen, bzw. vielmehr der klimatische Mainstream bei der kalten Sonne.

Eine ausführliche Besprechung des Trenberth & Fasullo 2013 Papers erschien von Leon Clifford auf reporting climate science.com.

—————–

Im Schulfernsehen der Dritten Programme läuft derzeit der 15-Minuten-Film “Grönland: Erdbeeren am Polarkreis”, der sich mit dem Klimawandel in dieser Region beschäftigt. Den Clip kann man sich hier anschauen. Thema sind die verbesserten landwirtschaftlichen Ernteerträge in Grönland aufgrund der Erwärmung der letzten Jahrzehnte. Hierdurch wurde u.a. ein ehemaliger Junkie zum Kartoffelbauern. Es ist begrüßenswert, dass auch endlich einmal Vorteile der Erwärmung dargestellt werden. Allerdings fehlt der historische Kontext. Zwar wird kurz auf Grönland=Grünland angspielt, aber die Tatsache, dass es zur Wikingerzeit bereits einmal genauso warm wie heute war, wird verschwiegen. Wer weiß, vielleicht haben die Wikinger damals sogar schon Erdbeeren angebaut.

Neben dieser fragwürdigen Auslassung, werden einige andere Dinge behauptet, die nicht den Tatsachen entsprechen. Es wird gesagt, das Grönlandeis wäre viele Millionen Jahre stabil gewesen und würde erst jetzt abschmelzen. Falsch. In der letzten Zwischeneiszeit war es wärmer als heute und das Eis musste kräftig Federn lassen (siehe unseren Blogartikel “Wo ist der ominöse Kipppunkt? Vor 120.000 Jahren war es 4 Grad wärmer und das grönländische Eis hielt stand“). Auch zur Zeit des holozänen Klimaoptimums war es deutlich wärmer als heute, worunter das Eis sehr zu leiden hatte (“Ein Thema das die Medien meiden wie der Teufel das Weihwasser: Vor 5000 Jahren war es in Grönland zwei bis drei Grad wärmer als heute“). Und vor 1000 Jahren, zur Zeit der Wikinger, als es so warm wie heute war, herrschte wieder Schmelzalarm (“Grönländische Istorvet-Eiskappe war während der Mittelalterlichen Wärmeperiode kleiner als heute“). Von Millionen-Jahre-stabilem-Grönlandeis kann nicht die Rede sein. An anderer Stelle wird im Film behauptet, dass die grönländische Eiskappe heute schneller schmilzt als zuvor. Falsch. Siehe “Universität Utrecht: Grönländische Gletscher hatten ihre intensivste Abschmelzphase bereits in der ersten Hälfte des 20. Jahrhunderts” und “Kehrtwende bei der grönländischen Eisprognose: Eine weitere Studie bestätigt ein langsameres Abschmelzen“. Wenn Sie Lehrer sind und den Film Ihren Schülern zeigen wollen, sollten Sie diese Defizite separat aufarbeiten. Falls Sie Material benötigen, können Sie sich gerne an uns wenden.




Kommentare zum Nature-Artikel ,,Climate Change: The Case of the Missing Heat”

Der Artikel in Nature Climate Change: The Case of the Missing Heat von Jeff Tollefson bekam bei WUWT und in der gesamten Blogosphäre sehr viel Aufmerksamkeit. Vieles in Tollefsons Artikel war eine vereinfachte Erklärung der Ergebnisse von Trenberth und Fasullo (2013) An apparent hiatus in global warming? Darüber haben wir bereits gesprochen. Siehe die Beiträge Trenberth and Fasullo Try to Keep the Fantasy Alive und More on Trenberth and Fasullo (2013) “An Apparent Hiatus in Global Warming?”

Anthony hatte völlig recht, als er die Aufmerksamkeit auf Tollefsons Artikel lenkte, zeigt dieser doch Argumente und Illustrationen, die schon vor Jahren von Skeptikern präsentiert worden waren; Argumente und Illustrationen, die von den Enthusiasten der globalen Erwärmung verworfen worden waren. Und Tollefson verlinkt ihn mit Trenberth und Fasullo.

Einen Punkt möchte ich von vornherein klarstellen. So weit ich das sagen kann hat niemand der von Nature interviewten Personen den Stillstand hinsichtlich der Erwärmung bestritten. Dieser Artikel ist ein Versuch, die zunehmenden Diskrepanzen zwischen den Modellsimulationen und den gemessenen globalen Temperaturen zu erklären. Und je mehr ich mich damit befasse, umso stärker gewinne ich den Eindruck, dass Tollefson manchmal ein wenig skeptisch ist.

Ein Problem bei Tollefsons Artikel: es geht darin nur um den Stillstand der Erwärmung. Er spricht nicht das Fehlen der Erwärmung im Pazifik und Nordatlantik bis zu Tiefen um 2000 m an, und zwar im Zeitraum 2003 bis 2012. Siehe Abbildung 1. Nur der Südatlantik und der Indische Ozean zeigen Erwärmung bis in die Tiefe. Abbildung 1 stammt aus diesem Beitrag:

Abbildung 1: Vom Menschen verursachte Treibhausgase können sich nicht entscheiden, welches Ozeanbecken sie erwärmen sollen. Und Tollefson vermittelt in seinem Artikel leider genauso viel Fehlinformationen wie Informationen.

Wie eben schon erwähnt, bestand das erste Problem des Artikels darin, dass er nicht die „fehlende Wärme“ in den Tiefen des Pazifiks während des letzten Jahrzehnts angesprochen hat. Genau dorthin sollte sich nämlich Trenberth und Fasullo (2013) zufolge die Wärme hin verzogen haben.

Das zweite Problem hat mit den PDO-Daten zu tun als Maßstab für die Stärke, Häufigkeit und Dauer von El Niño und La Niña-Ereignissen. Es ist der falsche Datensatz.

El Niño and La Niña-Ereignisse stehen im Brennpunkt des Artikels. Tollefson räumt das auch ein mit seinem Statement:

Und hier steht der äquatoriale Pazifik im Scheinwerferlicht.

Aber dann präsentiert er die PDO-Daten als das Maß aller Dinge für El Niño and La Niñas. Wahrscheinlich hat er das von Trenberth und Fasullo (2013) übernommen.

Zu El Niño und La Niña-Ereignissen kommt es im tropischen Pazifik, aber der PDO-Datensatz ist ein Abstraktum der Wassertemperaturdaten, abgeleitet aus dem außertropischen Nordpazifik und nicht aus dem tropischen Pazifik. Siehe Abbildung 2:

Abbildung 2

Die PDO-Daten repräsentieren im Grunde, wie eng die räumliche Verteilung der Wassertemperatur-Anomalien im Nordpazifik (nördlich von 20°N) die Verteilung während ENSO-Ereignissen durchmischt (wobei die räumliche Verteilung so aussieht, dass es während eines El Niño im Osten wärmer und in den zentralen und westlichen Gebieten kälter ist, während es bei einem La Niña genau umgekehrt ist). Weil diese räumliche Verteilung der Wassertemperatur im Nordpazifik auch noch auf den Luftdruck (und die damit zusammenhängende Verteilung der Windvektoren) reagiert, sind die PDO-Daten keine wahre Repräsentation der Häufigkeit, Größenordnung und Dauer von El Niño und La Niña-Ereignissen.

Weitere Informationen zur PDO, was sie repräsentiert und – noch wichtiger – nicht repräsentiert, gibt es in den Beiträgen hier, hier und hier.

Abbildung 3

Die große Überraschung des Nature-Artikels war die Abbildung, in der die PDO-Daten mit der globalen Temperatur verglichen worden waren. Dieser hatte man die Bezeichnung „The Pacific’s Global Reach” [etwa: Die globale Reichweite des Pazifiks] gegeben. Diese Abbildung zeige ich hier als Abbildung 3. Darin werden die JISAO PDO-Daten mit den globalen Temperaturanomalien verglichen. Im Text der Abbildung heißt es eindeutig:

Während der Perioden, in denen der PDO-Index positiv und der östliche Pazifik warm ist, sind die globalen Temperaturen rasch gestiegen. Während negativer Indexwerte hat die Erwärmung stagniert.

Außerdem heißt es in dem Artikel unter Verweis auf diese Abbildung:

Eine Analyse historischer Daten stützt diese Ergebnisse, zeigt doch eine solche, dass die Kaltphase der PDO zusammengefallen war mit einigen Jahrzehnten kühlerer Temperatur nach dem Zweiten Weltkrieg (siehe ‚The Pacific’s global reach’) und dass die Warmphase auf einer Linie mit einer starken Temperaturspitze der globalen Temperaturen zwischen 1976 und 1998 liegt.

Dies zeigt natürlich eindeutig, dass die Warmphase der PDO teilweise für die Erwärmung von 1976 bis 1998 verantwortlich ist. Wenn die PDO die Erwärmung anhalten kann, muss die PDO zur Erwärmung beigetragen haben. Das war jahrelang ein skeptisches Argument. Ich kann mich an ähnliche Graphiken schon vor 5 Jahren erinnern. Tatsächlich war diese Ansicht so populär, dass es bereits im Jahre 2008 bei SkepticalScience einen Artikel dazu gab.

Unglücklicherweise sind keine Mechanismen bekannt, mittels derer die PDO (wie sie durch den JISAO-Datensatz definiert wird) die globalen Temperaturen variieren kann. Die Wassertemperaturen des Nordpazifiks nördlich von 20°N sind umgekehrt proportional im Vergleich mit den PDO-Daten.

Jene Mechanismen existieren im tropischen Pazifik und zeigen sich in Gestalt von El Niños und La Niñas. Es gibt Indizes auf der Grundlage der Wassertemperatur hinsichtlich Stärke, Dauer und Häufigkeit von El Niños und La Niñas. Tatsächlich fordern Trenberth und Stepaniak (2001) in ihrem Artikel Indices of El Niño Evolution (online Ausgabe hier) die Verwendung der Wassertemperatur-Anomalien der NINO 3.4-Region des äquatorialen Pazifiks (in der Studie bezeichnet als N3.4). Siehe diese Abbildung für die genaue Örtlichkeit der N3.4-Region. Trenberth und Stepaniak (2001) haben den HadISST-Datensatz verwendet mit einem Anomalie-Vergleichszeitraum von 1950 bis 1979. Unglücklicherweise haben Trenberths und Stepaniak niemals eine Rechtfertigung für diese Basisperiode geliefert. Also wird es wohl besser sein, die gesamte Zeitspanne der Daten (1923 bis 2013) als Vergleichsbasis für die Temperaturanomalien in der N3.4-Region heranzuziehen.

Die Wassertemperaturdaten aus dem Gebiet NINO3.4 sind ein realistischer Index für Stärke, Häufigkeit und Dauer von El Niño und La Niña-Ereignissen. Daher wollen wir die mittleren Anomalien der Wassertemperatur in diesem Gebiet betrachten, und zwar für die zwei Erwärmungs- und die zwei Stillstandsperioden. Siehe Abbildung 4! Wir wollen die von Trenberth und Stepaniak (2013) festgelegten Zeiträume heranziehen:

Die monatliche Zeitreihe zeigt deutlich die multidekadische Struktur der PDO (dargestellt durch die schwarze Linie) mit positiven Phasen von 1923 bis 1942 und 1976 bis 1998 sowie negative Phasen von 1943 bis 1976 und nach 1999.

Komischerweise stimmen die von Trenberth und Fasullo (2013) festgelegten Perioden nicht mit jenen von Tollefson überein in seiner Abbildung ‚The Pacific’s Global Reach‘. Unabhängig davon zeigt meine Abbildung 4, dass die mittleren Anomalien der Wassertemperatur im NINO3.4-Gebiet während der beiden o. g. Warmphasen deutlich über Null lagen. Das bedeutet, dass El Niño-Ereignisse während dieses Zeitraumes dominiert haben. Die globalen Temperaturen sollten sich während solcher Zeiträume erwärmen, weil der tropische Pazifik mehr Wärme als „normal“ freisetzt und mehr Wasser, das wärmer als „normal“ ist, in die benachbarten Ozeanregionen gelangen lässt. Und während der beiden Stillstandsperioden von 1943 bis 1976 sowie nach 1999 liegen die mittleren Wassertemperatur-Anomalien im NINO3.4-Gebiet unter Null. Das bedeutet natürlich, dass der tropische Pazifik weniger Wärme als „normal“ freisetzt und auch weniger warmes Wasser in benachbarte Ozeanbecken gelangt. Und während dieser Zeiträume ist die globale Temperatur flach verlaufen oder hat sich leicht abgekühlt.

Abbildung 4

Nun könnte man sich fragen, warum hat Tisdale das alles gesagt, wenn es doch im Grunde die gleichen Ergebnisse zeitigt wie der PDO-Graph von Tollefson?

Der NINO3.4-Datensatz ist der richtige und PDO der Falsche. Die PDO repräsentiert nicht das Auftreten sowie Stärke und Dauer von El Niño und La Niña-Ereignissen. Die PDO ist lediglich eine El Niño und La Niña-Ereignissen folgende Erscheinung, zusammen mit dem Einfluss des Bodenluftdrucks im Nordpazifik.

Aber jetzt müssen wir betrachten, dass die NINO3.4-Daten nur die ENSO-Auswirkungen in einem kleinen Gebiet des äquatorialen Pazifik überdecken. Sie repräsentieren nicht die Prozesse von ENSO oder deren Folgeerscheinungen. Und auf keinen Fall können die NINO3.4-Anomalien der Wassertemperatur das warme Wasser zeigen, das nach starken El Niño-Ereignissen übrig bleibt. Dieses wird nach solchen Ereignissen in den benachbarten Ozeanbecken verteilt.

Weitere Fehlinformationen

Im Artikel heißt es (Fettdruck von mir):

Unmittelbar vor Eintritt des Stillstands war es in diesem Gebiet ungewöhnlich warm während des El Niño-Ereignisses von 1997/1998. Dieses sorgte auf der ganzen Welt für Wetterextreme, von Überschwemmungen in Chile und Kalifornien bis zu Dürren und Buschbränden in Mexiko und Indonesien. Aber es endete genauso schnell wie es begonnen hatte, und Ende 1998 hat sich im östlichen äquatorialen Pazifik wieder kälteres Wasser ausgebreitet – ein Anzeichen für die Schwester eines El Niño, nämlich La Niña. Noch wichtiger, der gesamte östliche Pazifik ist danach in eine Kaltphase gegangen, die mehr oder weniger bis heute anhält.

Der gesamte östliche Pazifik? Die PDO-Daten repräsentieren nicht den „gesamten östlichen Pazifik“. Wenn er an die Anomalien der Wassertemperatur denkt, liegt er ebenfalls falsch. Seit 1999 gab es eine ganze Reihe von El Niño-Ereignissen, und zwar 2002/2003 … 2004/05 … 2006/07 … und 2009/10. Folge: die mittlere Anomalie der Wassertemperatur (des Ostpazifiks) von Januar 1999 bis Dezember 2013 betrug +0,06°C im Vergleich zur Standard-Bezugsperiode der NOAA von 1971 bis 2000 für deren ReynoldsOI.v2-Daten. Und das ist weit entfernt von „einer Kaltphase, die mehr oder weniger bis heute anhält“. Siehe Abbildung 5!

Abbildung 5

Unsinn der Modelle

Weiter aus dem Artikel:

Zweitens, viele Forscher haben in den Simulationen der Klimamodelle eine entgegen gesetzte Verteilung gefunden. Sie spiegeln die gesamte Palette der Wechselwirkungen zwischen Ozean und Atmosphäre über den äquatorialen Pazifik hinaus. Sie tendieren dazu, einen Trend hin zu mehr El Niño-Ereignissen zu zeigen al seine Folge der globalen Erwärmung.

Klimamodelle können ENSO nicht angemessen simulieren, sind also irrelevant. Siehe die Beiträge von Guilyardi et al. (2009) Understanding El Niño in Ocean-Atmosphere General Circulation Models: Progress and Challenges sowie Bellenger et al. (2013) ENSO Representation in Climate Models: From CMIP3 to CMIP5. Einen Vorabdruck gibt es hier.

Dinge, die man übersehen hat

Das Folgende ist geschrieben worden für den Beitrag Comments on Stefan Rahmstorf’s Post at RealClimate “What ocean heating reveals about global warming. Die Diskussion dazu gilt auch für hier. Ich habe die Nummerierung der Abbildungen verändert und kleinere Überarbeitungen für diesen Beitrag vorgenommen.

Der Graph auf der linken Seite der Abbildung 6 zeigt, dass sich die Wassertemperaturen des Ostapzifiks kaum erwärmt haben, wenn überhaupt, und zwar während fast der gesamten letzten 32 Jahre … seit Beginn des ReynoldsOI.v2-Datensatzes der Wassertemperatur im November 1981. Der Ostpazifik (90°S bis 90°N; 180°W bis 80°W) macht etwa 33% der globalen Ozeanoberfläche aus. Die von Jeff Tollefson vorgelegten Studien gehen nicht auf dieses Fehlen der Erwärmung ein, und die Klimamodelle simulieren das nicht.

Abbildung 6

Das Gleiche gilt auch für das, was der Graph zur Rechten zeigt, nämlich die Anomalien der Wassertemperatur im Südatlantik sowie des Indischen und Westpazifischen Ozeans. Die Koordinaten stehen in der Bildüberschrift. Sie machen über 50% der globalen Ozeanoberfläche aus. Aus dieser Graphik sind einige Dinge erkennbar: (1) deren langzeitliche Erwärmung hängt ab von den El Niño-Ereignissen von 1986/87/88 sowie 1997/98 (und möglicherweise vom El Niño 2009/10); (2) sie kühlen sich nicht proportional ab während der Übergangsphasen zu den La Niñas von 1988/89 und 1998/01; aber (3) sie kühlen sich leicht ab über Jahrzehnte lange Perioden zwischen den El Niño-Ereignissen von 1986/87/88 und 1997/98 sowie zwischen 1997/98 und 2009/10.

Für eine Einführung in die Prozesse der natürlichen Erwärmung der globalen Ozeane gibt es den bebilderten Beitrag The Manmade Global Warming Challenge (42 MB).

Die Wassertemperaturen im Nordatlantik werden von einer anderen natürlichen Variabilität dirigiert, nämlich der Atlantischen Multidekadischen Oszillation AMO, die von Jeff Tollefson vollkommen übersehen worden ist. Wegen der AMO hat sich die Wassertemperatur dort mit einer viel größeren Rate erwärmt als die übrigen globalen Ozeane von Mitte der siebziger Jahre bis zu Beginn dieses Jahrhunderts. Aber die Wassertemperaturen des Nordatlantik deuten darauf hin, dass die AMO ihren Höhepunkt bereits überschritten hat. Siehe Abbildung 7! Falls sich die Geschichte wiederholt – und es gibt keinen Grund anzunehmen, dass sie das nicht tut – werden die Wassertemperaturen im Nordatlantik keine Erwärmung zeigen und sich tatsächlich noch ein paar Jahrzehnte lang abkühlen.

Abbildung 7

Anmerkung: Für weitere Informationen zur AMO siehe hier und meinen Blogbeitrag hier. Außerdem gibt es von mir hier eine Einführung zur AMO.

Schlussbemerkungen

Der Artikel von Jeff Tollefson zeigt, dass sich die klimawissenschaftliche Gemeinschaft in die richtige Richtung bewegen könnte – KÖNNTE!

Aber sie muss zu den Grundlagen zurückkehren: ENSO wird durch Sonnenlicht angetrieben. Und dafür gibt es, wie ich schon etliche Male zuvor erwähnt habe, die Arbeit von Trenberth et al. (2002) Evolution of El Niño–Southern Oscillation and global atmospheric surface temperatures. Darin heißt es:

Die negative Rückkopplung zwischen der Wassertemperatur und Flüssen an der Oberfläche kann so interpretiert werden: Sie zeigt die Bedeutung der Wärmefreisetzung während El Niño-Ereignissen und die Wärmeanreicherung während der La Niña-Ereignisse. Relativ klarer Himmel im zentralen und östlichen tropischen Pazifik erlaubt es der Sonnenstrahlung, in den Ozean einzutreten, was offensichtlich die unternormalen Wassertemperaturen beseitigt, aber die Wärme wird abtransportiert durch die Ekman-Spirale, Meeresströme und Wechselwirkungen zwischen Rossby- und Kelvin-Wellen, und die Wärme wird im tropischen Westpazifik gespeichert. Das ist nicht einfach nur eine Umverteilung der Wärme in den Ozeanen, sondern eine Widerherstellung der Wärme dort.

Mit anderen Worten, stärkere Passatwinde reduzieren die Wolkenbedeckung, was wiederum das Eindringen mehr Sonnenlichtes ermöglicht und zur Erwärmung des tropischen Pazifiks führt. Wenn also die stärkeren Passatwinde vermehrt zur Ansammlung warmen Wassers im westlichen tropischen Pazifik führen, bildet eine Zunahme der Sonneneinstrahlung den Treibstoff dafür. Noch viel detaillierter wurde dies behandelt unter der Überschrift abwärts gerichtete kurzwellige Strahlung im Gegensatz zu abwärts gerichteter langwelliger Strahlung während La Niña-Ereignissen in dem Beitrag Open Letter to the Royal Meteorological Society Regarding Dr. Trenberth’s Article “Has Global Warming Stalled?”

Link: http://wattsupwiththat.com/2014/01/18/comments-on-the-nature-article-climate-change-the-case-of-the-missing-heat/

Übersetzt von Chris Frey EIKE




Die gesammelten Märchen der Gebrüder Grün!

In den letzten Monaten hat sich in journalistischen Kreisen der Begriff der „Generation G“ etabliert, wobei G hier für Greenpeace, Gender und Gerechtigkeit steht. Etwas ironischer ist schon der Begriff des Bionade-Biedermeier, der von Henning Sussebach 2007 für die urbane Szene des Prenzlauer Bergs geprägt wurde.  Für das Massenphänomen der Vergrünung des Zeitgeistes sind das zwei passende Beschreibungen. Für den einzelnen Menschen erlaube ich mir jedoch, den Begriff der „grünen Seele“ zu prägen.

Man muss weder Mitglied bei Greenpeace sein, noch im Prenzlauer Berg wohnen, um sich selbst als grün und fortschrittlich zu halten. Ein ausgeprägter deutscher Ordnungssinn und die Überzeugung, die Welt vor der Klimakatastrophe retten zu müssen, reichen schon völlig aus, um das rechtschaffene grüne Gewissen unabhängig von Partei- und Milieuzugehörigkeit zu besitzen. Die grünen Seelen sind unter uns, einkommens- und schichtenübergreifend. Was alle grünen Seelen verbindet, ist der elitäre Standesdünkel zu den Gerechten, Engagierten und Wissenden zu gehören.

Es gibt einige Begriffe, die sind so deutsch, dass sie auch in andere Sprachen Einlass gefunden haben. Das Waldsterben gehört ebenso dazu wie der Begriff des Spießers. Nun verbindet man gemeinhin mit dem Spießer einen Menschen, meistens männlich, mit hässlichen Socken und fleischfarbenen Sandalen, der sich mit Inbrunst Regelwerken unterwirft und aus dieser Unterwerfung das Gefühl der eigenen Rechtschaffenheit zieht. Der Spießer ist ausgestattet mit dem Wohlgefühl des guten Gewissens, fühlt sich von den nachlässigen Menschen jedoch ständig bedroht und in Frage gestellt, weswegen sein gutes Gewissen sehr schnell in Aggressivität umschlagen kann, sollte er eines Regelverstoßes ansichtig werden.

Dieser deutsche Spießer wurde von den grünen Seelen perfekt internalisiert, verjüngt und modernisiert. Er trägt jetzt markenbewusst Treckingschuhe von Jack Wolfskin und das Regelwerk, dem er sich mit Inbrunst unterworfen hat, dient der Rettung der Welt: Mülltrennung, Energieersparnis, CO2-Vermeidung. Und eine weitere Veränderung ist eingetreten: der grüne Spießer ist mindestens so weiblich, wie er auch männlich ist. Das gute Gewissen, das sich ständig bedroht fühlt, und die jederzeit abrufbare Aggressivität sind geblieben.

Wie bei allen Seelenfragen, die das Innere des Menschen berühren, sind die Übergänge vom Wahn zum sozialen Konsens fließend. Erst der gesellschaftliche und parteiübergreifende Konsens des grünen Gewissens bereitet den Rahmen, in dem Wahnvorstellungen schleichend immer mehr Raum zugestanden wird, bis schließlich der Wahn als Konsens gilt. Die Vergrünung aller gesellschaftlichen Schichten und fast aller Parteien hin zum grünen Wahn ist die viel interessantere Geschichte, als die Grüne Partei als Singulärphänomen zu begreifen.

Der grünen Seele ist das Wahnmoment bereits eingepflanzt, lange noch bevor es gesellschaftlich konsensfähig ist. Es ist eine Mischung aus Verschwörungstheorie und Verfolgungswahn. Denn die grüne Seele wähnt sich zwar moralisch überlegen, mit ihrem durch und durch basisdemokratischen und moralisch- integrem Instrumentarium aber lebt sie in ständiger Angst vor den Mächtigen, die ja vermeintlich keine Moral haben, dafür aber – wie der Begriff schon vermuten lässt – die Macht. Denn eines der entscheidenden Merkmale der grünen Seele ist das der Rolle des verfolgten Opfers, das sich zu wehren beginnt. Erst dieses Merkmal gibt Greenpeace, Gender und Gerechtigkeit den „Drive“, den sie inzwischen gesellschaftlich erhalten haben. Es ist der Kampf Davids gegen Goliath, der vor allem in unseren postheroischen Zeiten noch den einzigen Anlass bietet, sich als Held fühlen zu können.

Anlässlich des schlechten Wahlergebnisses bei der Bundestagswahl 2013 meinte der Spitzenkandidat Jürgen Trittin erklären zu müssen, dass „in diesem Wahlkampf wir Grünen nicht nur von Seiten der politischen Konkurrenz, sondern auch und gerade von mächtigen Interessengruppen in diesem Lande einem massiven Gegenwind ausgesetzt“ waren. Dabei ignoriert er beflissentlich, dass nicht nur die deutsche Journaille überproportional grünenfreundlich eingestellt ist, sondern auch mit der Energiewende ein ständig wachsender ökologisch- industrieller Komplex entstanden ist, der durchaus gegen die im Verschwinden begriffene „Atom-Lobby“ anstinken kann.

Es ist nicht der reale Opferstatus, der die Grünen auszeichnet, sondern der gefühlte. So entsteht in der grünen Seele die merkwürdige Mischung, zum einen den Pazifismus als glücksbringendes Ideal ausgerufen zu haben, zum anderen aber – sozusagen als Triebabfuhr – sich in einem permanenten Kriegszustand mit den bösen Mächten aus Industrie und Politik zu befinden. Unter Zuhilfenahme der dem imaginierten Opfer spezifischen Angst vor Unterlegenheit wird ein schreckliches Zukunftsszenario an die Wand gemalt, das jeden Kampf in die religiöse Sphäre des „Gut oder Böse“ erhebt. Die emotionale Inbrunst, mit der selbst läppische Probleme angegangen werden – von der Mülltrennung bis hin zur Gendergerechtigkeit -, erinnert an die pubertär geführten Taschengeldauseinandersetzungen der Adoleszenz. Dieser leicht infantile Schrecken über die vermeintlichen Ungerechtigkeiten des Lebens lebt in der grünen Seele fort.

Dabei ist die grüne Seele nicht notwendigerweise jung. Definiert man Jungsein als Dynamik, unbändige Kraft und Bejahung aller Lebensprozesse, ist die grüne Seele eher sogar eine alte und verschlissene Seele, die dem Fortschritt und der Moderne kritisch gegenüber steht und in der Lebenslust etwas Gefährliches, Unmoralisches und Verschwenderisches sieht. Kein Wunder also, dass es die Partei der Grünen geschafft hat, vor allem in bürgerlichen Kreisen stark zuzulegen und die überwiegende Zahl ihrer Anhänger aus der Beamtenschaft rekrutiert.

Über den Autor

Markus Vahlefeld

geboren 1966 in Hong Kong – aufgewachsen in Hamburg – Abitur in Washington, D.C. – Studium der Philosophie in Bonn, Barcelona und Berlin – tätig als Fotograf, Texter und Autor vornehmlich in der Genussbranche – wohnhaft in Köln und einem beschaulichen Weindorf im Rheinhessischen

Mehr dazu auf: http://www.der-gruene-wahn.de




Sonnig, windig, teuer und schmutzig: Deutschlands neuer „Superminister“ für Wirtschaft und Energie hat seine Arbeit aufgenommen

[*Das Wort Zeitgeist steht kursiv gesetzt so im Original!]

Aber Herr Gabriel, der darüber nachdenkt, 2017 als Kanzlerkandidat anzutreten, wird dann nach einem waghalsigeren Projekt beurteilt. Als Teil des Koalitionsabkommens mit Frau Merkel ist er jetzt ein „Super-Minister“ und steht zwei Ministerien vor, nämlich Energie und Wirtschaft. Folglich liegt die Rettung der ambitioniertesten und riskantesten heimischen Reform in seiner Verantwortung: Der gleichzeitige Ausstieg aus der Kernkraft und fossiler Energie, gemeinhin bekannt unter dem Begriff Energiewende*, einer Bezeichnung, die Energie-„Wende“ oder –„Revolution“ bedeutet.

[*Auch dieser Begriff steht kursiv im Original, und zwar während des gesamten restlichen Artikels.]

Mehr ein Marketing-Slogan als kohärente Politik besteht die Energiewende hauptsächlich aus einem Zeitplan für das Erreichen verschiedener Ziele. Deutschlands letztes Kernkraftwerk soll planmäßig im Jahre 2022 abgeschaltet werden. Auch ist geplant, den Anteil erneuerbarer Energie aus Sonne, Wind und Biomasse bei der Stromerzeugung bis zum Jahr 2050 auf 80% und beim Energie-Gesamtverbrauch auf 60% zu steigern. Treibhausgas-Emissionen sollen relativ zum Jahr 1990 um 70% bis zum Jahr 2040 und 80 bis 95% bis zum Jahr 2050 fallen.

Die deutschen Verbraucher und Wähler lieben diese Ziele. Aber sie ärgern sich zunehmend über die Nebeneffekte. Da ist zunächst der steigende Strompreis. Dieser ist die Folge eines Gesetzes zu erneuerbarer Energie aus dem Jahr 2000. Dieses garantiert nicht nur 20 Jahre lang festgesetzte Preise für Wind- und Solarstromerzeuger, sondern es bestimmt auch, dass erneuerbarer Strom vorrangig ins Netz eingespeist wird. Als Folge glänzen die Dächer in Bayern mittlerweile durch Solarpaneele, und Windmühlen dominieren die gesamte Landschaft. Im vorigen Jahr erreichte der Anteil der Erneuerbaren an der Stromerzeugung den Rekordwert von 23,4%.

Diese Subvention ist kostspielig. Die Differenz zwischen dem Marktpreis für Strom und dem höheren festgesetzten Preis für Erneuerbare wird an die Verbraucher durchgereicht, deren Rechnungen seit Jahren steigen. Ein durchschnittlicher Haushalt zahlt heute zusätzlich 260 Euro pro Jahr, um die Erneuerbaren zu subventionieren: Die Gesamtkosten der Subventionen für Erneuerbare beliefen sich im Jahr 2013 auf 16 Milliarden Euro. Auch die Kosten für die Unternehmen steigen, was sie im Wettbewerb gegenüber ihren Rivalen in Amerika benachteiligt, profitieren diese doch vom Fracking-Boom.

Um die Abwanderung und Arbeitsplatzverluste zu verhindern, nimmt Deutschland daher Unternehmen von der Abgabe aus, die von Strom abhängig sind und die global im Wettbewerb stehen. Aber EU-Wettbewerbs-Kommissar Joaquín Almunia hat untersucht, ob das Gesamtpaket der Subventionen und Ausnahmen nicht gegen europäische Gesetze verstößt. Nur die konzertierte Lobbyarbeit Deutschlands in Brüssel kurz vor Weihnachten hat Almunia zurück gehalten, schon jetzt Strafzahlungen zu fordern.

Herr Gabriel sitzt also in der Zwickmühle. Neuesten Schätzungen des Beraterbüros McKinsey zufolge gibt es fast nichts, was er tun kann, um die Kosten der Subventionen zu reduzieren. Die Verfassung Deutschlands verbietet es, von einmal gemachten Versprechungen zurückzutreten. Eine Kürzung der Subventionen beispielsweise für neue Windmühlen um 15% während der nächsten beiden Jahre würde die Stromrechnung für einen durchschnittlichen Haushalt um lediglich 1 Cent billiger machen. Selbst wenn Herr Gabriel sich entscheiden sollte, die Unterstützung für Erneuerbare komplett zu stoppen (vollkommen unvorstellbar), würden die zusätzlichen Abgaben in den Stromrechnungen der Verbraucher kaum sinken. Und falls er hypothetisch alle Ausnahmen für die Industrie streichen würde (ebenfalls unvorstellbar), würde die durchschnittliche Stromrechnung nur geringfügig sinken.

Die Kosten sind nicht das einzige Problem bei der Energiewende. Sie hat im Endeffekt die gesamte deutsche Energieindustrie in eine Quasi-Planwirtschaft verwandelt, mit perversen Folgen. Zu bestimmten Zeiten an manchen Tagen können Sonne und Wind fast den gesamten deutschen Strombedarf decken. Aber die Sonne scheint nicht immer, vor allem im Winter, und das Verhalten des Windes ist nicht vorhersagbar. Und „Batterien“ – Speichertechnologien, die beispielsweise Strom in Gas verwandeln, das dann wieder in Strom umgewandelt wird – in einer Größenordnung, um eine Stadt zu versorgen, wird es noch viele Jahre lang nicht geben. Kernkraftwerke werden stillgelegt (das kürzlich ergangene Gerichtsurteil, dass die Schließung eines Kraftwerkes in Hessen illegal war, wird die Kosten sogar noch weiter steigen lassen, da der Betreiber Anspruch auf Schadenersatz haben könnte). Also müssen konventionelle Kraftwerke in Betrieb bleiben, um eine gleichbleibende Versorgung sicherzustellen.

Im Grunde hat die Energiewende die Ökonomie des Baus neuer konventioneller Kraftwerke auf den Kopf gestellt, besonders bzgl. von Gaskraftwerken, ist doch Gas sauberer, aber teurer als Kohle. Also müssen bestehende Kohlekraftwerke noch mehr erzeugen. Im vorigen Jahr erreichte die Stromerzeugung aus Braunkohle, die am wenigsten effiziente und schmutzigste Sorte, das höchste Niveau seit 1990. Gasbetriebene Stromerzeugung ging im Gegensatz dazu zurück (siehe Abbildung). Im Endeffekt haben die Emissionen von Treibhausgasen durch die Energiewende zu- und nicht abgenommen. [Wenigstens etwas! A. d. Übers.]

Dies alles bringt die SPD und Herrn Gabriel in eine schlimme Lage. Deutschland ist der weltgrößte Förderer von Braunkohle, und Kohlegürtel wie der in Nordrhein-Westfalen sind traditionelle Hochburgen dieser Partei. Herr Gabriel kann es sich daher nicht leisten, „anti-Kohle“ zu sein. Das ist jedoch genau das, was die ökologisch denkenden Grünen in der Opposition sind. Sie wollen, dass sich Herr Gabriel an Brüssel anlehnt, um den Emissionshandel in der EU zu reformieren, wobei CO2-Zertifikate teurer und Kohlekraftwerke folglich weniger attraktiv als Gaskraftwerke gemacht werden sollen. Ideologisch alliiert vor der Wahl im September vorigen Jahres werden die Grünen und die Sozialdemokraten jetzt immer mehr zu sich anschreienden Opponenten.

Bei der Planung seiner Rettung hat Herr Gabriel nur einen Vorteil im Vergleich zu seinen Vorgängern: Als Superminister hat er alle relevanten Verwaltungsbehörden unter seiner Kontrolle. Der damit einher gehende Nachteil besteht darin, dass die Wähler bei der nächsten Wahl genau wissen, wen sie für das Scheitern der Energiewende verantwortlich machen können. Falls das geschehen sollte, kann Herr Gabriel seine kleine Tochter sicher noch viel öfter von der Krippe abholen.

Link: http://www.economist.com/news/europe/21594336-germanys-new-super-minister-energy-and-economy-has-his-work-cut-out-sunny-windy-costly

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Rein nachrichtlich bringt dieser Artikel natürlich nichts Neues. Aber den ganzen Tenor der Berichterstattung aus angelsächsischer Sicht fand ich so interessant, dass ich diesen Artikel hier übersetzt habe.

Und was mir ‚off topic‘ noch auffiel: Beim Nennen der Namen wird grundsätzlich Mr. Bzw. Mrs. Vorangestellt – in D scheinbar undenkbar!

C. F.




Phil Jones-Video 2012: Globale Seewassertemperaturen „mussten“ um 0,3° bis 0,5 ° C nach oben korrigiert werden!

Anthony Watts schreibt dazu auf seinem Blog WUWT

Phil Jones, durch Climategate zu zweifelhaftem Ruhm gelangt, hat in diesem Vortrag einige außerordentliche Bemerkungen gemacht, die man bis jetzt anscheinend übersehen hat. Gemacht hat er sie bei einer Präsentation für Help Rescue The Planet’s St George’s House Consultations in Windsor im Jahre 2012.

Jones’ interessante Bemerkungen beginnen bei Minute 5:30. Er sagt, dass die mittlere Land- und Wassertemperatur „im globalen Mittel gar nicht so stark differieren kann“.

Video des Vortrags von CRU & IPCC Klimaforschers Phil Jones  zur Justierung (Erhöhung!!) der Seewassertemperaturen (SST), die als Ersatz für die noch viel schlechter bekannte Lufttemperatur über dem Meer verwendet wird. Das Englisch von Phil Jones ist akustisch oft schlecht zu verstehen. Doch genaues Hinhören lohnt.

Falls man die Wassertemperaturen nicht adjustiert, hätte man „große Unterschiede zwischen Wasser- und Landtemperaturen, die es natürlicherweise einfach nicht geben kann“.

Ich könnte zustimmen; der Wärmeinseleffekt UHI und der Landverbrauch können zu solchen Unterschieden führen und sind keine natürlich vorkommenden Ereignisse, aber warum korrigiert man die Wassertemperatur nach oben?…

Redaktion EIKE fügt hinzu: …..Und nicht die Landtemperaturen nach unten?

Übersetzt von Chris Frey EIKE




Roland Berger Studie sagt: Erdöl wird nicht knapp

Die Frage nach möglichen Engpässen bei der Ölversorgung wird weltweit im Energiesektor diskutiert. Das Thema bestimmt Grundsatzentscheidungen nicht nur in der Ölindustrie, sondern in der globalen Wirtschaft insgesamt. Roland Berger Strategy Consultants hat daher in der Studie "Are we running out of oil?" die aktuelle Lage auf dem weltweiten Erdölmarkt analysiert….

München – Die Kernbotschaft der Untersuchung zum Thema Ölversorgung: Versorgungsengpässe sind aufgrund zunehmender Ölreserven nicht zu erwarten. Gleichzeitig bleibt Öl als Energieträger für die EU-Staaten von entscheidender Bedeutung, um die Versorgungssicherheit zu gewährleisten – vor allem in Ländern wie Deutschland, deren Wirtschaft zu einem hohen Maß von Industriebetrieben geprägt ist. Doch der Ölpreis wird in den kommenden Jahren voraussichtlich die Marke von 70 US-Dollar pro Barrel allenfalls kurzfristig unterschreiten….

…  "Weil immer mehr Ölvorkommen durch immer bessere Fördertechnologien erschlossen werden können, erhöhen sich jedes Jahr die zugänglichen Gesamtreserven", begründet der Experte seine Einschätzung…

Lesen Sie hier den ganzen Beitrag

Mit Dank an Spürnase Dr. U. Wlecke




Die Gründe des Stillstands der globalen Erwärmung sind seit langem klar*

[*Der Origina-Titel ist ein Wortspiel: Cause of the Pause…]

Abbildung 1: Korrelation der Gletscher-Veränderungen am Mount Baker mit der Pazifischen Dekadischen Oszillation PDO und dem globalen Klima. (Easterbrook 2001, 2011)

Der vielleicht einfachste Weg, den Kausalzusammenhang zwischen globaler Erwärmung/Abkühlung einerseits sowie PDO und AMO andererseits zu verstehen, besteht darin zu rekapitulieren, wie diese Korrelationen entdeckt worden sind. Im Jahre 1999, als ich jüngste glaziale Fluktuationen am Mount Baker in der North Cascade Range untersuchte, zeichnete sich deutlich eine wiederkehrende Folge von Vorstößen und Rückzügen ab. Eines nachts fiel mir eine Studie von Mantua et al. (1997) in die Hände mit dem Titel A Pacific interdecadal climate oscillation with impacts on salmon production [etwa: Eine pazifische interdekadische Klima-Oszillation mit Einflüssen auf die Lachszucht]. Das war eine frühe Erkenntnis der Existenz der PDO. Die PDO ist ein Index, kein gemessener Wert und basiert auf etwa einem Dutzend Parameter, die in Beziehung stehen zu zyklischen Variationen der Wassertemperaturen im Nordost-Pazifik. Der Begriff „Pacific Decadal Oscillation“ (PDO) war von Steven Hare (1996) in den Ring geworfen worden. Sie hat zwei Zustände, warm und kalt, und schwingt zwischen diesen beiden Zuständen etwa alle 25 bis 30 Jahre hin und her.

Die Kurve von Mantua et al. ähnelte meiner Gletscherkurve so stark, dass ich beide überlagerte. Zu meiner Überraschung korrespondierten sie nahezu exakt. Danach verglich ich beide mit der globalen Temperatur, und alle drei zeigten diese bemerkenswerte Korrelation (Abbildung 1)

Die Bedeutung dieser Korrelation liegt darin, dass sich klar zeigt, dass die PDO der Treiber klimatischer und glazialer Fluktuationen am Mount Baker ist. Jedes Mal, wenn der Zustand der PDO von einem Zustand in den anderen wechselte, veränderte sich auch das Verhalten des globalen Klimas und des Gletschers. Diese Entdeckung war schon für sich allein bedeutsam, aber sie führte noch zu zahlreichen weiteren Entdeckungen. An diesem Punkt war aber bereits klar, dass die PDO das globale Klima beeinflusst hat (Abbildungen 2 und 3), aber was die PDO beeinflusst hat, war längst nicht so klar.

Abbildung 2: PDO-Kaltphase 1945 bis 1977 und Warmphase 1977 bis 1998 (Easterbrook 2011 aus D’Aleo)

Abbildung 3: PDO-Fluktuationen von 1900 bis August 2012. In jeder Warmphase der PDO erwärmte sich das globale Klima; in jeder Kaltphase kühlte es sich ab (modifiziert aus http://jisao.washington.edu/pdo/)

Im Jahr 2000 habe ich eine Studie vorgelegt mit dem Titel „Cyclical oscillations of Mt. Baker glaciers in response to climatic changes and their correlation with periodic oceanographic changes in the Northeast Pacific Ocean” [etwa: Zyklische Oszillationen der Gletscher am Mt. Baker als Folge von Klimaänderungen und ihre Korrelation mit periodischen ozeanographischen Änderungen im Nordostpazifik], und zwar beim Jahrestreffen der Geological Society of America (GSA). Auf dem Treffen im Folgejahr habe ich eine weitere Studie vorgestellt mit dem Titel: „The next 25 years: global warming or global cooling? Geologic and oceanographic evidence for cyclical climatic oscillations” [etwa: Die nächsten 25 Jahre: Globale Erwärmung oder globale Abkühlung? Geologische und ozeanographische Beweise für zyklische klimatische Oszillationen].

Da diese wiederkehrenden Vorgänge der PDO-Fluktuationen und des globalen Klimas während des gesamten vorigen Jahrhunderts zu beobachten waren, was könnte dann die Zukunft bereithalten? Falls sich diese Abfolge fortsetzt, können wir die gleiche Abfolge in die Zukunft projizieren und erkennen, wohin die Reise geht, d. h. die Vergangenheit ist der Schlüssel für die Zukunft. Falls wir wissen wollen, wohin die Reise geht, müssen wir wissen, wo wir schon waren. Jede der beiden Warmphasen (1915 bis 1945, 1978 bis 1998) und der drei Kaltphasen (1880 bis 1915, 1945 bis 1977, 1999 bis 2014) dauerte 20 bis 30 Jahre. Falls der Übergang in die Kaltphase im Jahre 1999 anhält, sollte sich das Klima während der nächsten Jahrzehnte abkühlen. Unter Verweis auf die Länge vergangener PDO-Phasen habe ich die Kaltphase zum Ende der Kurve aufgesplittet (ähnlich der Kaltphase von 1945 bis 1977) und dies in einer Studie auf einem GSA-Treffen 2001 in Boston gezeigt. In dieser Studie habe ich eine zu erwartende Abkühlung während der nächsten 25 bis 30 Jahre skizziert, basierend auf dem Zusammenhang schwingender PDO-Phasen der Vergangenheit und dem globalen Klima (Abbildung 4). Die Erinnerung an das zweitwärmste Jahr des vorigen Jahrhunderts 1998 war noch frisch, und vor diesem Hintergrund war das Auditorium wegen dieser Vorhersage perplex, vor allem, da diese Ergebnisse den IPCC-Vorhersagen einer katastrophalen globalen Erwärmung diametral widersprechen.

Abbildung 4 (oben): PDO-Fluktuationen und Projektion bis 2040, basierend auf dem Verhalten der PDO in der Vergangenheit.

(unten): Projizierte globale Abkühlung während der nächsten Jahrzehnte, basierend auf einer Extrapolation des PDO-Verhaltens.

Meine erste Projektion einer zukünftigen globalen Abkühlung basierte auf der Fortsetzung von PDO-Fluktuationen während des vorigen Jahrhunderts. Aber was ist mit früheren Klimaänderungen? Weil der GISP2-Eisbohrkern aus Grönland eine solch akkurate Chronologie aus jährlichen Schichtablagerungen aufwies, schien es eine perfekte Gelegenheit zu sein zu erkennen, ob es ähnliche Änderungen auch schon in früheren Jahrhunderten gegeben hatte. Darum habe ich Messungen der Sauerstoff-Isotope durch Stuiver und Grootes (1997) für die letzten 450 Jahre geplottet. Das Verhältnis von Sauerstoff-Isotopen ist eine Funktion der Temperatur, so dass dieser Plot eine Paläoklima-Temperaturkurve ergibt. Das war ein echter Augenöffner, weil die Kurve (Abbildung 4) etwa 40 regelmäßig verteilte Warm-/Kaltphasen mit einer mittleren Zykluslänge von 27 Jahren zeigte, sehr ähnlich dem ODO-Zyklus. Es gibt keine Möglichkeit, das Verhalten der PDO so weit zurück zu verfolgen, aber die Warm-/Kaltzyklen im GISP2 waren so konsistent, dass die Korrelation mit den PDO-Zyklen eine gute Annäherung zu sein schienen. Historisch bekannte Warm-/Kaltphasen tauchten im GISP2 auf, d. h. die Kaltphase 1945 bis 1977, die Warmphase 1915 bis 1945, die Kaltphase 1880 bis 1915, die Kleine Eiszeit, die Abkühlungen jeweils des Dalton-Minimums und des Maunder-Minimums und viele andere, was der Validität der GISP2-Messungen Glaubwürdigkeit verleiht.

Abbildung 5: Warm- und Kaltphasen seit 1480 aus Sauerstoff-Isotopen des GISP2-Eisbohrkerns aus Grönland. Die mittlere Länge einer Warm- bzw. Kaltphase beträgt 27 Jahre.

Als ich diese Erkenntnisse und meine Klimaprojektionen auf dem GSA-Treffen des Jahres 2006 in Philadelphia zeigte, saß auch Bill Broad von der New York Times im  Auditorium. Er schrieb ein Feature in dieser Zeitung mit meinen Daten und Vorhersagen, und die Nachrichtenmedien schnappten über. Alle großen Nachrichtenagenturen fragten nach Interviews, aber dann geschah etwas Merkwürdiges: komischerweise haben alle außer CNN, MSNBC und Fox News diese Interviews abrupt abgesagt, offensichtlich weil meine Erkenntnisse eine Bedrohung für die IPCC-Projektionen einer katastrophalen globalen Erwärmung darstellten.

Neun zusätzliche Studien, die die geologischen Beweise für eine globale Abkühlung stützen, wurden von 2007 bis 2009 präsentiert, ebenso verschiedene längere Studien von 2011 bis 2014 einschließlich:

Multidecadal tendencies in Enso and global temperatures related to multidecadal oscillations,” Energy & Environment, vol. 21, p. 436-460. (D’Aleo, J. and Easterbrook, D.J., 2010).

Geologic Evidence of Recurring Climate Cycles and Their Implications for the Cause of Global Climate Changes: The Past is the Key to the Future,” in the Elsevier volume “Evidence-Based Climate Science; p. 3-51. (2011)

Relationship of Multidecadal Global Temperatures to Multidecadal Oceanic Oscillations,” in the Elsevier volume “Evidence-Based Climate Science; p. 161-180. (D’Aleo, J. and Easterbrook, D.J., 2011)

Observations: The Cryosphere,” in Climate Change Reconsidered II, Physical Science (Easterbrook, D.J., Ollier, C.D., and Carter, R.M., 2013), p. 645-728.

Nachdrucke all dieser Veröffentlichungen können hier abgerufen werden oder durch eine E-Mail an dbunny@yahoo.com.

Während dieser Jahre hat Joe D’Aleo wichtige Beiträge geschrieben, zeigte er doch, dass während der Warmphasen warme El Nino-Ereignisse häufiger und intensiver auftraten als kühlere La-Nina-Ereignisse – und umgekehrt. Er dokumentierte auch die Rolle der Atlantischen Multidekadischen Oszillation AMO, die sich ähnlich verhält wie die PDO. Die AMO hat multidekadische Warm- und Kaltphasen mit Perioden von etwa 30 Jahren, genau wie die PDO.

Also stellt sich jetzt die Frage, wie meine Vorhersagen validiert werden können. Mit Sicherheit nicht durch irgendwelche Computer-Modelle, die sich als im Wesentlichen wertlos herausgestellt haben. Die auf der Hand liegende Antwort lautet, meine Vorhersagen mit dem Verhalten des Klimas über mehrere Jahrzehnte zu vergleichen. Wir befinden uns seit mehr als einem Jahrzehnt in dem von mir vorhergesagten Abkühlungszyklus, und was geschah? Es gab inzwischen 17 Jahre ohne globale Erwärmung (tatsächlich gab es eine leichte Abkühlung), und zwar trotz der IPCC-Vorhersage, dass es jetzt ~1°F wärmer sein sollte (Abbildungen 6, 7 und 8). Bislang scheint meine Vorhersage aus dem Jahr 1999 richtig zu liegen, was noch etwa 25 bis 30 weitere Jahre der Fall sein sollte.

Schlussfolgerungen

Der ‚mysteriöse Stillstand’ bei der globalen Erwärmung ist alles andere als mysteriös. Es handelt sich dabei einfach um die Fortsetzung klimatischer Zyklen, zu denen es schon seit Hunderten von Jahren gekommen war. Der Stillstand war bereits 1999 vorhergesagt worden, und zwar auf der Grundlage wiederholter Warm- und Kaltphasen der PDO. Er ist also weder mysteriös noch überraschend. Das Fehlen einer globalen Erwärmung seit 17 Jahren entspricht genau der Vorhersage. Eine fortgesetzte Abkühlung während der nächsten paar Jahrzehnte wird diese Vorhersage fundamental stützen. Zeit und Natur werden die endgültigen Richter dieser Vorhersagen sein.

Die Antriebe dieser ozeanischen bzw. klimatischen Zyklen bleiben nicht eindeutig. Korrelationen mit verschiedenen solaren Parametern scheinen ziemlich gut zu sein, aber der kausale Zusammenhang bleibt unklar. Mehr dazu später.

Abbildung 6: Temperaturtrend (°C pro Jahrhundert) seit 1996. Rot = Erwärmung, blau = Abkühlung

Abbildung 7: globale Abkühlung seit dem Jahr 2000 (Earth Observatory)

Abbildung 8: Wintertemperaturen in den USA von 1998 bis 2013. In 46 der 48 Staaten ist es signifikant kälter geworden.

REFERENCES

D’Aleo, J. and Easterbrook, D.J., 2010, Multidecadal tendencies in Enso and global temperatures related to multidecadal oscillations: Energy & Environment, vol. 21, p. 436-460.

Easterbrook, D.J. and Kovanen, D.J., 2000, Cyclical oscillations of Mt. Baker glaciers in response to climatic changes and their correlation with periodic oceanographic changes in the Northeast Pacific Ocean: Abstracts with Programs, Geological Society of America, vol. 32, p.17.

Easterbrook, D.J., 2001, The next 25 years: global warming or global cooling? Geologic and oceanographic evidence for cyclical climatic oscillations: Geological Society of America, Abstracts with Program, vol. 33, p. 253.

Easterbrook, D.J., 2005, Causes and effects of abrupt, global, climate changes and global warming: Geological Society of America, Abstracts with Program, vol. 37, p. 41.

Easterbrook, D.J., 2006a, Causes of abrupt global climate changes and global warming predictions for the coming century: Geological Society of America, Abstracts with Program, vol. 38, p. 77.

Easterbrook, D.J., 2006b, The cause of global warming and predictions for the coming century: Geological Society of America, Abstracts with Program, vol. 38, p.235-236.

Easterbrook, D.J., 2007a, Geologic evidence of recurring climate cycles and their implications for the cause of global warming and climate changes in the coming century: Geological Society of America Abstracts with Programs, vol. 39, p. 507.

Easterbrook, D.J., 2007b, Late Pleistocene and Holocene glacial fluctuations: Implications for the cause of abrupt global climate changes: Abstracts with Programs, Geological Society of America, vol. 39, p. 594.

Easterbrook, D.J., 2007c, Historic Mt. Baker glacier fluctuations—geologic evidence of the cause of global warming: Abstracts with Program, Geological Society of America, vol. 39, p.13.

Easterbrook, D.J., 2008a, Solar influence on recurring global, decadal, climate cycles recorded by glacial fluctuations, ice cores, sea surface temperatures, and historic measurements over the past millennium: Abstracts of American Geophysical Union annual meeting, San Francisco.

Easterbrook, D.J., 2008b, Implications of glacial fluctuations, PDO, NAO, and sun spot cycles for global climate in the coming decades: Geological Society of America, Abstracts with Programs, vol. 40, p.428.

Easterbrook, D.J., 2008c, Global warming’ is over: Geologic, oceanographic, and solar evidence for global cooling in the coming decades: 3rd International Conference on Climate Change, Heartland Institute, New York.

Easterbrook, D.J., 2008d, Correlation of climatic and solar variations over the past 500 years and predicting global climate changes from recurring climate cycles: Abstracts of 33rd International Geological Congress, Oslo, Norway.

Easterbrook, D.J., 2009a, The role of the oceans and the sun in late Pleistocene and historic glacial and climatic fluctuations: Abstracts with Programs, Geological Society of America, vol. 41, p. 33.

Easterbrook, D.J., 2009b, The looming threat of global cooling – Geological evidence for prolonged cooling ahead and its impacts: 4th International Conference on Climate Change, Heartland Institute, Chicago, IL.

Easterbrook, D.J., ed., 2011a, Evidence-based climate science: Data opposing CO2 emissions as the primary source of global warming: Elsevier Inc., 416 p.

Easterbrook, D.J., 2011b, Geologic evidence of recurring climate cycles and their implications for the cause of global climate changes: The Past is the Key to the Future: in Evidence-Based Climate Science, Elsevier Inc., p.3-51.

Easterbrook, D.J., 2011c, Climatic implications of the impending grand solar minimum and cool Pacific Decadal Oscillation: the past is the key to the future–what we can learn from recurring past climate cycles recorded by glacial fluctuations, ice cores, sea surface temperatures, and historic measurements: Geological Society of America, Abstracts with Programs

Easterbrook, D.J., 2010, A walk through geologic time from Mt. Baker to Bellingham Bay: Chuckanut Editions, 330 p.

Easterbrook, D.J., 2012, Are forecasts of a 20-year cooling period credible? 7th International Conference on Climate Change, Heartland Institute, Chicago, IL.

Easterbrook, D.J., Ollier, C.D., and Carter, R.M., 2013, Observations: The Cryosphere: in Idso,C.D., Carter R. M., Singer, F.S. eds, Climate Change Reconsidered II, Physical Science, The Heartland Institute, p. 645-728.

Grootes, P.M., and Stuiver, M., 1997, Oxygen 18/16 variability in Greenland snow and ice with 10-3- to 105-year time resolution. Journal of Geophysical Research, vol. 102, p. 26455-26470.

Hare, S.R. and R.C. Francis. 1995. Climate Change and Salmon Production in the Northeast Pacific Ocean: in: R.J. Beamish, ed., Ocean climate and northern fish populations. Can. special Publicaton Fish. Aquatic Science, vol. 121, p. 357-372.

Harper, J. T., 1993, Glacier fluctuations on Mount Baker, Washington, U.S.A., 1940-1990, and climatic variations: Arctic and Alpine Research, vol. 4, p. 332‑339.

Mantua, N.J. and S.R. Hare, Y. Zhang, J.M. Wallace, and R.C. Francis 1997: A Pacific interdecadal climate oscillation with impacts on salmon production: Bulletin of the American Meteorological Society, vol. 78, p. 1069-1079.

Link: http://wattsupwiththat.com/2014/01/17/cause-of-the-pause-in-global-warming/




Die sehr grüne Verzögerung der Keystone Pipeline in den USA

Kurz vor Ende des Jahres 2013 hat der Sierra Club eine E-Mail verbreitet, in der behauptet wird, dass „sich das Jahr 2014 als ein entscheidendes Jahr für die Umwelt herausstellen wird“, und vor „Superstürmen, Buschfeuern und Massenzerstörungen durch die Klimaänderungen gewarnt, die uns alle bedrohen. Zukünftige Generationen und gefährdete Spezies wie Wölfe und Bären zählen auf uns“. Das ist reine Angstmache. Im Jahre 2013 waren sämtliche angesprochenen Faktoren auf dem Rückzug.

Hier folgen ein paar Äußerungen vom ersten Earth Day im Jahre 1970:

„Wir haben nur noch etwa fünf weitere Jahre, um etwas zu tun!“ – Kenneth Watt, Ökologe

„Die Zivilisation wird in 15 oder 30 Jahren aufhören zu existieren, es sei denn, sofortige Aktionen werden gestartet, um den Problemen zu begegnen, vor denen die Menschheit steht“ – George Wald, Harvard-Biologe

„Wir stecken in einer Umweltkrise, die den Fortbestand dieser Nation gefährdet, ebenso wie den der Welt als geeigneter Ort für die Bewohnbarkeit durch Menschen!“ – Barry Commoner, Biologe an der Washington University

„Der Mensch muss mit der Verschmutzung aufhören und seine Ressourcen konservieren, nicht nur um seine Existenz zu festigen, sondern auch, um die menschliche Rasse vor untragbaren Schäden oder dem möglichen Aussterben zu bewahren“. – New York Times Editorial am Tag nach dem ersten Earth Day.

Am 29. Dezember 2013 feierte der Sierra Club die Schließung des 150. Kohlekraftwerkes, das Strom erzeugte. Sie wollen mehr Solar- und Windenergie, die am wenigsten zuverlässige Quelle der geringsten Erzeugung von Strom. Sie applaudierten den Plänen der Obama-Administration, jedwedes Bohren nach Öl in der Arktis zu untersagen und haben „neue EPA-Vorschriften zur Kohlenstoff-Verschmutzung gefordert“. Es gibt keine Kohlenstoff-Verschmutzung!

Wikipedia: Kohlenstoff steht an 15. Stelle der am meisten verfügbaren Elemente in der Erdkruste und nach Masse an vierter Stelle aller verfügbaren Elemente im Weltall nach Wasserstoff, Helium und Sauerstoff. Es ist in allen bekannten Lebensformen vorhanden, und im menschlichen Körper ist Kohlenstoff das zweithäufigste Element nach Masse (etwa 18,5%) gleich nach Wasserstoff. Diese Verfügbarkeit zusammen mit der einzigartigen Vielfalt organischer Materie und dessen ungewöhnlicher Fähigkeit zur Bildung von Polymeren bei Temperaturen, die allgemein auf der Erde vorherrschen, macht dieses Element zur chemischen Basis allen bekannten Lebens (Hervorhebungen hinzugefügt).

Wenn man Kohlenstoff als Bedrohung für das menschliche Leben bezeichnet, ist das so absurd, dass es die bekannte Wissenschaft auf den Kopf stellt, aber das ist auch genau die Basis für alle Lügen bzgl. der „globalen Erwärmung“, und zwar in Gestalt der Behauptung, dass Kohlendioxid die Erde erwärmt, wenn es diese Rolle in der Atmosphäre gar nicht spielt. Der Gedanke, dass die Menschen irgendeine Rolle bei der „Klimaänderung“ spielen, bildet die Grundlage für alle gesetzgeberischen Objektiven und Vorschriften der Obama-Administration, die den „Krieg gegen die Kohle“ erklärt hat, obwohl das in Wirklichkeit ein Krieg gegen die Stromerzeugung ist, dem wesentlichsten Element des Lebens in Amerika.

Mein Freund David Rothbard, Präsident des Committee for a Constructive Tomorrow (CFACT), einer Denkfabrik des freien Marktes, führte ein Team an, das Fort Murray in Kanada im Jahre 2012 besucht hatte, um aus erster Hand die Ölsande zu sehen, aus denen das Öl extrahiert wird. „Ich muss sagen – nicht nur die verwendete Technologie, um das sehr erwünschte Öl an die Oberfläche zu bringen ohne eine Spur von Auswirkungen auf die Umwelt, sondern auch der ansteckende Geist der Gelegenheit in dieser geschäftigen Frontstadt hat mich beeindruckt. Für mich ist Fort Murray ein Symbol der Art von Fortschritten und Wohlstand, zu dem es kommen kann, wenn die Menschen in der Lage sind, reichlich vorhandene natürliche Ressourcen zu entdecken und Zugang zu ihnen zu gewinnen auf eine Art und Weise, die der Gesellschaft dient und die Umwelt schützt“.

Die Grünen sehen im nördlichen Alberta und in Nebraska einen ökonomischen Boom, und zwar dank der Fracking-Technologie, die mehr Erdgas fördert und zu mehr Wohlstand und Freiheit, mehr Arbeitsplätzen und mehr Energie für den Rest von uns führt.

Pipelines in den USA

Die Pipeline and Hazardous Materials Safety Administration im US-Transportministerium: „Die über 26 Millionen Meilen Pipelines der Nation transportieren sicher Billionen Kubikfuß Erdgas und hunderte Milliarden Tonnen flüssigen Petroleums jedes Jahr. Sie sind unabdingbar: Das Volumen der Energieerzeugnisse, die sie transportieren, liegen weit über der Kapazität aller anderen Transportmöglichkeiten. Es würde einer konstanten Linie von Tanklastzügen, etwa 750 pro Tag, bedürfen, die 24 Stunden am Tag alle zwei Minuten beladen und bewegt werden müssen, an sieben Tagen in der Woche, um auch nur das Volumen einer einzigen mittleren Pipeline zu bewältigen. Das Eisenbahn-Äquivalent dieser einzelnen Pipeline wäre ein Zug von 75 Tanks mit jeweils 2000 Barrel pro Tag.

Pipeline-Systeme sind das sicherste Mittel, diese Produkte zu transportieren. Die Bundesregierung [der USA] besann sich selbst zur Pipeline-Sicherheit im Jahre 2006, als der PIPES-Gesetzentwurf unterzeichnet worden war. Er verlangt neue Methoden und verlangt Engagement in neue Technologien, um die Sicherheit der Pipelines der Nation zu managen und zu erhöhen“.

Warum aber hat Präsident Obama seit nunmehr fünf Jahren den Ausbau der Keystone XL-Pipeline bis zur amerikanischen Golfküste blockiert, wo viele unserer Raffinerien stehen? Weil das Arbeitsplätze und weitere wirtschaftliche Entwicklung bedeuten würde.

Das AFL-CIO [so etwas wie der amerikanische Gewerkschafts-Dachverband] möchte die Keystone XL-Pipeline gebaut sehen. „Die amerikanische Konstruktions-Industrie hat schwer gelitten. Die nationale Arbeitslosigkeit unter Konstruktions-Arbeitern verharrt bei 13%, und viel zu viele unserer Mitglieder haben ihre Wohnung verloren und kämpfen darum, satt zu werden. Für viele Mitglieder unserer Gewerkschaften ist Keystone XL nicht nur eine Pipeline, sie ist im Sinne des Wortes eine Lebensader“.

Typisch für die Lügen von Präsident Obama war dessen Meinung zur Keystone XL-Pipeline, als er sagte: „Sie reden weiter darüber – eine Ölpipeline aus Kanada, von der man schätzt, dass sie dauerhaft 50 Arbeitsplätze schafft – das ist kein Arbeitsbeschaffungsplan“. Sein eigenes Staatsministerium schätzte, dass durch den Bau der Pipeline 42000 Arbeitsplätze geschaffen werden würden.

Obama möchte keine weiteren Arbeitsplätze. Er möchte, dass mehr Amerikaner in der Arbeitslosen-Statistik gelistet werden und Nahrungsmittel-Marken beziehen. Er möchte keinen weiteren Strom, kein weiteres Gas und keinen weiteren Dieseltreibstoff für unsere Fahrzeuge. Er möchte das Gesundheitssystem der Nation zerstören. Er möchte das wirtschaftliche Wachstum in Amerika unterminieren, und zwar auf jede nur erdenkbare Weise.

Und dank der Demokratischen Partei und den Millionen, die immer noch an die „globale Erwärmung” oder die „Klimaänderung” glauben, ist er 2012 in eine zweite Amtszeit gewählt worden.

© Alan Caruba, 2014

Link: http://www.nationalanxietycenter.blogspot.de/2014/01/the-very-green-keystone-pipeline-delay.html

Übersetzt von Chris Frey EIKE

Bemerkungen des Übersetzers hierzu: Caruba schreibt hier natürlich wieder aus Sicht eines US-Staatsbürgers, aber wieder kann ich mich des Eindrucks nicht erwehren, dass die Machthaber bei uns ähnlich denken. Ganz allgemein finde ich es schade, dass nur die „Rechten“ das ganze Klimagedöns in Frage stellen. Nach wie vor bin ich nicht rechts und war es nie. Daher kann ich mich mit Carubas Weltsicht eigentlich nicht so richtig anfreunden. Aber dennoch…

Und die Zitate zu Beginn seines Artikels sprechen ja auch für sich!

C. F.




Mehr Spaß mit Öl und Gas

Hubbert sagte Reportern: „Ein Kind, das Mitte der dreißiger Jahre geboren worden ist, wird in seinem Leben den Verbrauch von 80% allen amerikanischen Öls und Gases erleben; ein Kind, das um 1970 geboren worden ist wird sehen, dass die meisten Reserven der Welt verbraucht worden sind“.

Da sich Mr. King Hubbert Sorgen darüber machte, dass viele der Reserven der Welt verbraucht worden sind, dachte ich mir einmal nachzuschauen, wie viele der US-Reserven während des letzten Drittels eines Jahrhunderts verbraucht worden sind. Das ist eine interessante Antwort…

Abbildung 1: Ein Vergleich der jährlichen Schätzungen der nachgewiesenen US-Ölreserven (rote Linie) und der kumulierten US-Ölerzeugung (blaue Linie) während des Zeitraumes 1980 bis 2012. Daten: 2013 BP Statistical Review of World Energy. „Nachgewiesene Reserven” in dem Datensatz sind wie folgt definiert: „Nachgewiesene Ölreserven – im Allgemeinen die Mengen, die mit hinreichender Gewissheit aus geologischer und ingenieurlicher Sicht entdeckt werden können, abgeleitet aus heutigen bekannten Reservoiren unter den bestehenden ökonomischen und bearbeitungstechnischen Bedingungen“.

Es scheint, dass wir seit 1980 keinerlei Glück mehr hatten. Zunächst verbrauchten wir vollständig die nachgewiesenen Reserven bis auf den letzten Tropfen.

Dann haben wir alles noch einmal verbraucht. Und dann zum dritten mal… und die nachgewiesenen Reserven sind immer noch dort, wo sie angefangen haben.

Da King sich auch Sorgen darüber machte, dass die Erdgasreserven der USA und global vollständig aufgebraucht seien, dachte ich mir, auch da einmal nachzuschauen.

Abbildung 2: Ein Vergleich der jährlichen Schätzungen der in den USA nachgewiesenen Gasreserven (rote Linie) und der kumulativen Gaserzeugung der USA (grüne Linie) für den Zeitraum 1980 bis 2012. Daten: 2013 BP Statistical Review of World Energy.

Und wir erkennen das Gleiche. Es begann im Jahre 1980 mit 6 Billionen Kubikmeter nachgewiesener Gasreserven. Seitdem haben wir etwa 10 Billionen Kubikmeter, etwa dreimal so viel wie unsere originalen Reserven. Der wesentliche Unterschied zwischen Gas und Öl besteht darin, dass die nachgewiesenen Reserven von Gas um ein Drittel höher liegen als 1980.

Ich erwähne das hier nur aus einem einfachen Grund: nämlich um zu zeigen, dass wir nicht genug wissen, um irgendwelche Fragen zu beantworten, wie viel Öl und Gas wir verbraucht haben; oder zu bestimmen, ob der King mit seinen Behauptungen recht hatte. All den Daten zufolge haben wir seit 1980 dreimal die nachgewiesenen Reserven von Öl und Gas verbraucht, und trotzdem sind die nachgewiesenen Reserven heutzutage immer noch genauso oder sogar größer als im Jahre 1980. Wie also können wir entscheiden, ob Hubbert recht hatte oder nicht?

Versuchen Sie jetzt bitte nicht, mir geduldig all die Gründe für dieses kuriose Phänomen zu erklären, weil ich die alle schon mal gehört habe. Ich versichere, ich verstehe alle Schwierigkeiten hinsichtlich der Schätzung nachgewiesener Reserven, und die Tatsache, dass die Daten von Ölgesellschaften stammen und sich die Technologie laufend verbessert und die Unternehmen dazu tendieren auszubeuten, bis sie Vorräte für etwa 20 Jahre angesammelt haben und dass die Wirtschaft eine große Rolle spielt und… Ich kenne alle Gründe für das, was ich oben gezeigt habe.

Ich möchte lediglich darauf hinweisen, dass es sehr, sehr schwierig ist vorherzusagen, was mit zukünftigen Reserven passiert, oder was deren Gesamtmenge betrifft, oder wieviel erschließbare Energie die Welt enthält.

Das zugrunde liegende Problem ist, dass die nachgewiesenen Reserven die Menge wirtschaftlich abbaubaren Gases und Öls repräsentieren… und das hängt natürlich komplett von den aktuellen Preisen und der gegenwärtigen Technologie ab. Mit anderen Worten, die Menge der „natürlichen Ressourcen“ der Welt ist nicht wirklich eine Funktion der natürlichen Welt – sondern eine Funktion menschlichen Erfindungsgeistes. Zum Beispiel lautete die große Sorge in den dreißiger Jahren, dass „Peak Magnesium“ erreicht werden würde, weil die nachgewiesenen Reserven von Magnesiums stark zurückgingen. Oder zurückgegangen waren, bis ein cleverer Chemiker bemerkte, dass man Magnesium aus Meerwasser extrahieren kann… und plötzlich waren die nachgewiesenen Reserven von Magnesium ins Unendliche gewachsen.

Hat sich nun die natürliche Welt verändert, als die nachgewiesenen Reserven von Magnesium von praktisch Null auf unendlich geschnellt sind? Wie ich sagte, die Menge der natürlichen Vorräte hängt von menschlichem Erfindungsgeist ab, und von sonst gar nichts!

Link: http://wattsupwiththat.com/2014/01/12/more-fun-with-oil-and-gas/

Übersetzt von Chris Frey EIKE




Fachzeitschrift ‘Climate of the Past’ lehnt Rahmstorfs Meeresspiegel-Manuskript von Rahmstorf-Gruppe ab: Gutachter finden fundamentale Fehler in der Methodik

Auch die politische Führung North Carolinas reagierte prompt und entschied, dass die von Rahmstorf vermutete enorme Steigerung des Meeresspiegels selbst für North Carolina nicht plausibel ist und daher in Planungen nicht zu berücksichtigen sei (siehe unseren Blogartikel „Senat von North Carolina erteilt Rahmstorfs beschleunigtem Meeresspiegel eine Absage“). Bereits in den Vorjahren hatte es in Fachkreisen Kritik an den überzogenen Prognosen des Potsdamers gegeben, so zum Beispiel anlässlich einer Analyse einer Arbeit von Vermeer und Rahmstorf aus dem Jahr 2009 auf Climate Sanity.

Die Rahmstorf-Truppe stellte auf stur. Sie blieben bei ihrer fragwürdigen Darstellung und hoffte offenbar, das eine oder andere Paper bei IPCC-freundlichen Journalen unterzubringen. Im Juli 2012 schickten Rahmstorf und Kollegen ein weiteres Manuskript zu den Salzwiesen in North Carolina auf die Reise durch die wissenschaftliche Begutachtung. Als Leitautor fungierte Martin Vermeer von der finnischen Aalto University.

Diesmal wollte man der Welt nicht nur neue klimatische Superlative bieten, nein, man wollte auch noch die Arbeit anderer Kollegen, die auf deutlich weniger dramatische Szenarien kamen, ausbremsen. Eingereicht wurde das Manuskript „On the differences between two semi-empirical sea-level models for the last two millennia“ beim Fachjournal Climate of the Past, wo es zunächst in der Diskussionssparte gebracht wurde. Im Diskussionstadium werden die Arbeit von Fachgutachtern bewertet. Zudem steht es auch jedem anderen Wissenschaftler oder Interessierten frei, Kritik zu äußern und Kommentare online zu hinterlassen, zu denen sich die Autoren dann wieder äußern können.

Im Manuskript schießen Stefan Rahmstorf und seine Mitstreiter scharf gegen die Studie einer Forschergruppe um Aslak Grinsted vom Niels Bohr Institut der Universität Kopenhagen. Der Däne hätte mit seinen Kollegen einen über hunderte von Jahren wirkenden, globalen Langzeitanstieg des Meeresspiegels nicht berücksichtigt. Daher wären die Grinsted-Prognosen für die kommenden 500 Jahre alle zu lasch und falsch. Als angeblichen Beweis führt die Rahmstorf-Gruppe drei einzelne Meeresspiegelrekonstruktionen an. Und wie könnte es anders sein: Eine dieser drei Referenzdatensätze stammt aus North Carolina.

War es Naivität oder realitätsferne Selbstüberschätzung? Dies ist schwer zu sagen. Die Gutachter hatten in diesem Fall leichtes Spiel. Da der überdurchschnittlich steigende Meeresspiegel in North Carolinas ganz offensichtlich nicht die weltweit gemittelte Situation widerspiegelt, taugt der Datensatz auch nicht als Kalibrierung für Modelle. Und da dies eine wichtige Stütze des Modells der Rahmtorf-Gruppe darstellt, stürzte sogleich die gesamte Argumentation zusammen.

Der Herausgeber der Zeitschrift hatte dies frühzeitig erkannt und Aslak Grinsted als Gutachter gewinnen können. Am 4. September 2012 veröffentlichte Grinsted sein öffentliches Gutachten, das fast länger ausfällt, als das zu begutachtende Manuskript. Gleich im zweiten Absatz fällt Grinsted ein vernichtendes Urteil über die Arbeit der Rahmstorfgruppe. Wörtlich heißt es im Gutachten:

Eines der größten Probleme der Arbeit ist, dass sowohl die Analyse als auch die Darstellung entschieden voreingenommen sind.

Während sich Rahmstorf in der deutschen Presse als Vertreter des Konsens und wissenschaftlichen Vernunft darstellt, machen internationale Fachkollegen keinen Hehl aus ihrem Ärger über Rahmstorfs fragwürdige Arbeitsweise. Im weiteren Verlauf des Reviews äußert sich Aslak nicht nur zur lediglich lokalen Relevanz der North Carolina-Meeresspiegelkurve, sondern gibt auch zu bedenken, dass die Rekonstruktion gar nicht zu den real an Küstenpegeln gemessenen Daten passt. Die Rahmstorf-Gruppe hätte zudem im Gegensatz zur Grinsted-Gruppe lediglich ein paar weitere Variablen in ihr Modell eingebaut, die jedoch kaum mit harten Daten zu rechtfertigen sind. Mit einer solchen Vielzahl von Parametern könne man schließlich auch einen Elefanten mit dem Rüssel wackeln lassen. Auch wundert sich Grinsted, dass das Rahmstorf-Meeresspiegelmodell die Hälfte der Kalibrierungsperiode, nämlich die Zeit von Christi Geburt bis 1000 n. Chr. überhaupt nicht in den Griff bekommt, obwohl es doch gerade für diese langen Zeiträume mit seiner starken Langfristanstiegskomponente geeignet sein soll. Lesen Sie hier einige Auszüge aus Grinsteds Gutachtenim englischen Original:

One of the major problems with this work is the decidedly biased analysis and presentation. […] One very problematic aspect of this work is that all the tests are against proxies of local records of sea level whereas the models are of global sea level. For example, the Kemp et al. North Carolina record has a very high 20th century rate of rise compared to tide gauge based estimates. […] Finally, the K11 model [der Rahmstorf-Gruppe] is the same as the G10 model [der Grinsted-Gruppe] with a few additional terms. It is therefore no surprise that it can mimic a wider range of behaviors and fit a greater range of curves. I do not need a study to show me that. However, I remain unconvinced that the additionally parameters can be meaningfully constrained by the proxy data. […] One philosophical issue I have with the comparisons in this manuscript is that the K11 model was formulated with prior knowledge of the Kemp et al. proxy record [Meeresspiegelrekonstruktion aus North Carolina] in mind, whereas the G10 model was not. I.e. we would expect K11 to fit this dataset better regardless of whether it really improves the model. […]The K11 hind-cast deviates strongly pre-1000 AD […]That is remarkable considering that the K11 model was formulated with the specific goal of fitting this record.

Auch Grinsteds Coautorin, Svetlana Jevrejeva äußert sich am 9. Oktober 2012 auf der Begutachtungswebseite des Artikels zur eingereichten Rahmstorf-Studie. Auch sie führt die fehlende globale Signifikanz der North Carolina-Daten an. Sie schreibt, dass die Daten von der US-Ostküste den Meeresspiegelanstieg des 20. Jahrhunderts um nicht unerhebliche 12 cm überschätzen und damit um 70% gegenüber dem globalen Durchschnitt zu hoch liegen. Die falsche Einschätzung des Anstiegs im 20. Jahrhundert pflanzt sich dann als laufender Fehler durch die im Modell berechneten 2000 Jahre fort. Lesen Sie hier einige Auszüge aus Jevrejevas Gutachten im englischen Original:

My question: is the local North Caroline proxy sea level the same as global sea level? It seems to me that NC proxy sea level is a local sea level. There is no evidence to suggest that NC sea level is the same as global sea level […] It seems that NC sea level curve (original curve, not K11 simulation) is overestimating the 20th century sea level rise by 12 cm […] During the 20th century NC proxy sea level shows 70% higher sea level rise than observed global sea level. This systematic bias could propagate back in time and there is no evidence that past sea level from NC is the same as the global.

Bereits am 21 August 2012 wunderte sich der zweite bestellte Gutachter, Robert Kopp vom Rutgers Climate Institute, über eine seltsame Passage im Manuskript der Rahmstorf-Gruppe (Punkt 1 auf S. 3562):

Model parameter values were tuned manually.

Was könnten die Modellierer mit diesem ‘manuellen Tuning’ bloß gemeint haben, fragt sich Kopp in seinem Gutachten.

Am 10. Oktober 2012 fiel dann die Entscheidung der Fachzeitschrift. Herausgeber Mark Siddall vom Institut für Erdwissenschaften der Bristol University teilte dem Leitautor der Rahmstorf-Gruppe, Martin Vermeer, mit, dass das Paper durchgefallen sei. Wörtlich heißt es in der Herausgeberentscheidung:

Da beide Begutachtungen und eine weitere Kommentierung negativ ausfielen und dabei auf fundamentale Fehler in der Methodik hinwiesen, die eine Wiederholung der Analyse erfordert, muss ich leider mitteilen, dass das Manuskript abgelehnt wurde. I empfehle dringend, dass die Autoren davon absehen, [zu diesem Manuskript] weitere Antworten [zu Kommentaren] zu erstellen oder etwa eine veränderte Fassung einzureichen.

Im Folgenden die Herausgeberentscheidung im englischen Original:

Dear Martin [Vermeer],

thank you for submitting to [Climate of the Past Discussions]. As you will note, the two reviewers have submitted their comments. One of the reviewers recommends major changes, the other recommends reject. In addition there are two comments, both of which are substantive and bring into question the validity of the method. I am aware of previous comments and responses on the subject of uplift effects on the extended sea-level record of Kemp et al in PNAS and so feel that the second comment could be dealt with satisfactorily with some added discussion about this uncertainty. However, in the light of the two negative reviews and one comment which all require new analyses and point to fundamental flaws in the methodology of the current paper, I regret to inform you that my conclusion is to support rejection. I strongly dissuade the authors from submitting responses and a revised version.

Although the outcome here has been negative, I hope that you will consider submitting other work in future.

Best regards,
Mark

Auf der Webseite der Diskussionsfassung des Manuskripts prangt seitdem eine interessante Notiz:

Review Status: This discussion paper has been under review for the journal Climate of the Past (CP). A final paper in CP is not foreseen.

Mit Dank übernommen von Die kalte Sonne