1

Deutschlands Experiment mit grüner Energie: eine vollkommene Katastrophe

Die Höhen und Tiefen der Energieerzeugung mit erneuerbaren Quellen in Deutschland führen zu großen Problemen für das deutsche Stromnetz. Um diese Volatilität auszugleichen, zahlt der selbsternannte grüne Führer der Welt seinen Einrichtungen Rekordsummen, um deren Beiträge in Echtzeit dem Bedarf des Landes anzupassen. Bloomberg berichtet:

Zwanzig Energieunternehmen, darunter die größten Versorger in Deutschland EON SE und RWE AG, bekommen inzwischen Ausgleichszahlungen, um innerhalb von Sekunden Elektrizität hinzuzufügen oder zu kappen, um das Energiesystem stabil zu halten, wobei sich die Summe im September verdoppelt hat. Dies geht aus Daten der vier Netzbetreiber des Landes hervor. Die Daten zeigen, dass Einrichtungen, die sich dem 800 Millionen Euro schweren Ausgleichsmarkt anschließen, bis zu 400 mal den Strom-Einkaufspreis gezahlt bekommen können.

Deutschlands Bestreben, die Energieerzeugung durch Erneuerbare bis zum Jahr 2035 zu verdoppeln, hat einem Betreiber zufolge dazu geführt, dass fünfmal so oft wie vor vier Jahren Störungen ausgeglichen werden mussten, was das Risiko von Stromausfällen in Europas größtem Strommarkt steigen lässt, während die Strom-Einkaufspreise auf ein Neun-Jahres-Tief fallen. Mehr Dienstleister treten dem Ausgleichsmarkt bei, da niedrige Preise die Umsatzrenditen im Mittel auf 5% haben sinken lassen; im Jahre 2004 waren es noch 15%. RWE hat zum ersten Mal in seiner Firmengeschichte seit 1949 einen Jahresverlust einräumen müssen.

Deutschlands Experiment mit grüner Energie war eine Katastrophe. Um die Entwicklung von Wind- und Solarenergie voranzutreiben, musste das Land den Erzeugern über dem Marktniveau liegende Preise garantieren, und die Kosten dieser Garantien – Einspeisetarife genannt – mussten weitergereicht werden an die Verbraucher in Gestalt von grünen Aufschlägen zu ihren Stromrechnungen. Das ist schlecht für Deutschlands Industrie, so dass viele Geschäftsbereiche bereits nach Produktionsstätten zu billigeren Preisen anderswo Ausschau halten (z. B. in das schiefergasreiche Amerika).

Aber noch sind wir nicht fertig mit der Litanei der Fehler im Namen von Berlins Energiewende*. Gleichlaufend mit der Stärkung erneuerbarer Energiequellen will Deutschland auch seine Kernreaktoren aus dem Energiemix entfernen, das heißt, man will eine Null-Kohlenstoff- und zuverlässige Quelle grundlastfähigen Stromes beseitigen, nur aus emotional geschürter Angst vor einer Kernschmelze in der Folge des Fukushima-Unfalls. Um die Kernkraft zu ersetzen, verbrennt Deutschland heute mehr Kohle als je zuvor während der letzten beiden Jahrzehnte, was kaum eine stolze Errungenschaft der so genannten grünen Energierevolution ist.

[*Auch in diesem Beitrag steht das Wort energiewende so kursiv gesetzt im Original]

Und wie uns die heutigen Verhältnisse zeigen, gibt es ein weiteres Hindernis, dass die deutsche grüne Energiepolitik unfähig zu überwinden scheint: Unberechenbarkeit. Solarpaneele und Windturbinen können nur Strom erzeugen, wenn die Sonne scheint und der Wind weht [und das muss er auch noch in der richtigen Stärke. Anm. d. Übers.]. Und ohne kosteneffektive Speichermöglichkeiten in großem Stil bedeutet das, dass man sich nur bei geeigneten Bedingungen auf Erneuerbare verlassen kann. Für die Versorgung mit grundlastfähigem Strom ist Berlin immer noch abhängig von fossilen Treibstoffen. Aber die fortwährenden abwechselnd fallenden und stark steigenden Beiträge der erneuerbaren Energie in das nationale Energienetz in Deutschland verlangt seinen Zoll, und die Versorger werden erheblich belohnt für ihr „Ausbalancieren“ des Energienetzwerkes.

Die Grünen lieben es, effiziente und nachhaltige Lösungen zu befürworten, besonders wenn es um Energie geht. Und doch scheinen sie blind und taub gegenüber der Ironie zu sein, wenn sie Deutschlands Energiewende als eine grüne Erfolgsstory hochhalten, obwohl sie das in Wirklichkeit ganz und gar nicht ist.

Die ganze Geschichte, in der aber lediglich noch zwei Sätze am Ende zusätzlich stehen, findet man hier.

Link: http://www.thegwpf.org/germanys-green-energy-experiment-an-unmitigated-catastrophe/

Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Das Rätsel der Eiszeiten, Teil 10, Global Circulation Models IV

scienceofdoom

Im Teil neun haben wir über eine GCM-Simulation der letzten 120.000 Jahre gesprochen, ein ziemlich ambitioniertes Projekt, das einige gemischte Ergebnisse zeitigte. Die größte Herausforderung ist einfach, ein ganzes GCM über eine so lange Zeit laufen zu lassen. Um das zu tun, hatte das Modell eine reduzierte räumliche Auflösung. Außerdem wurden alle Antriebe „beschleunigt“, so dass die Modellzeit tatsächlich über 1200 Jahre lief. Unter den Antrieben waren Größe, Ort und Höhe des Eisschildes ebenso wie Treibhausgase in der Atmosphäre. In der Realität handelt es sich dabei um Rückkopplungen, aber GCMs sind derzeit nicht in der Lage, diese zu erzeugen.

In diesem Beitrag betrachten wir eines der jüngsten GCMs, das jedoch nur über einen „Schnappschuss“-Zeitraum von 700 Jahren läuft. Das erlaubt die volle räumliche Auflösung, hat aber den Nachteil, dass ein vollständiger Eiszeit-Zyklus nicht einmal annähernd abgedeckt werden kann. Ziel dieses Artikels ist es, das Modell mit den orbitalen Bedingungen von vor 116.000 Jahren laufen zu lassen um zu sehen, ob sich eine permanente Schneedecke an den richtigen Stellen bildet. Dies ist ein Projekt ähnlich denen, die wir in Teil VII – GCM I (frühe GCMs) und Teil VIII – GCM II (GCMs vor einem Jahrzehnt) besprochen haben.

Die Studie kam zu einigen sehr interessanten Ergebnissen hinsichtlich der Rückkopplungen, die wir noch betrachten werden.

Jochum et al (2012)

Das Problem:

Modelle mittlerer Komplexität sowie flussbereinigte GCMs waren typischerweise in der Lage, eine Verbindung zwischen orbitalem Antrieb, Temperatur und Schneemenge zu simulieren. Bislang jedoch haben es vollständig gekoppelte, nicht flusskorrigierte, auf primitiven Gleichungen basierende Klimamodelle nicht vermocht, die Auslösung einer Eiszeit zu reproduzieren, ebenso wie die Abkühlung und Zunahme von Schnee- und Eisbedeckung, die von den warmen Zwischeneiszeiten zu den kalten eiszeitlichen Perioden überleiten.

Milankovitch (1941) postulierte, dass der Antreiber für diese Abkühlung die orbital bedingte Reduktion der Einstrahlung auf der sommerlichen Nordhalbkugel sei und die daraus folgende Zunahme permanenter Schneebedeckung. Die verstärkte permanente Schneebedeckung und seine positive Albedo-Rückkopplung sind natürlich nur Vorboten des Wachstums von Eisschilden. Das Scheitern der GCMs, die Auslösung der Eiszeiten nachzuvollziehen, zeigt ein Scheitern entweder der GCMs oder der Milankovitch-Hypothese.

Falls die Hypothese die Schuldige wäre, würde man sich natürlich fragen, ob das Klima in den GCMs überhaupt angemessen abgebildet werden kann. Wie auch immer, es scheint, als ob die Reproduktion der beobachteten Änderungen zwischen Eiszeit und Zwischeneiszeit hinsichtlich der Eismenge und der Temperatur einen guten Test darstellt, um die Genauigkeit einiger Schlüssel-Rückkopplungen zu evaluieren, die für Klimaprojektionen relevant sind.

Die potentiellen Gründe des Unvermögens der GCMs, die Auslösung der Eiszeit zu reproduzieren, sind vielfältig und reichen von der Numerik der GCMs bis zu vernachlässigten Rückkopplungen von Festlands-, atmosphärischen oder ozeanischen Prozessen auf der Theorie-Seite. Es ist allerdings ermutigend, dass es bei einigen GCMs nur geringer Modifikationen bedarf, damit diese eine Zunahme permanenter Schneebedeckung erzeugen (z. B. Dong und Valdes 1995). Nichtsdestotrotz muss es das Ziel der GCM-Gemeinde sein, das Auftreten zunehmender permanenter Schneebedeckung mit einem GCM zu erzeugen, das an das heutige Klima angepasst ist und ausschließlich Gegenstand von Änderungen des orbitalen Antriebs ist.

Ihr Modell:

Die numerischen Experimente wurden durchgeführt unter Verwendung der jüngsten Version des National Center for Atmospheric Research (NCAR) CCSM4, welches vollständig gekoppelte Atmosphären-, Ozean-, Festlands- und Meereismodelle enthält. CCSM4 ist ein hypermodernes Klimamodell, das in vieler Hinsicht Verbesserungen seines Vorgängers CCSM3 enthält. In unserem Zusammenhang hier besteht die wichtigste Verbesserung in der höheren atmosphärischen Auflösung, weil diese uns gestattet, die Höhe und die Schneebedeckung des Festlandes genauer zu repräsentieren.

Siehe Anmerkung 1 für einige weitere Modell-Einzelheiten aus der Studie. Und lange Zeit haben wir einige Grundlagen von CCSM3 betrachtet – Models, On – and Off – the Catwalk – Part Two. Grenzen des Modells – kein die Eisschilde betreffendes Modul (anders als das FAMOUS-Modell in Teil neun):

Das CCSM enthält immer noch nicht ein Eisschilde-Modul. Darum verwenden wir die Akkumulation von Schnee als das Hauptargument des Auslöse-Szenarios. Die Akkumulation von Schnee auf dem Festland wird berechnet aus der Summe von Schneefall, gefrierendem Regen, Schneeschmelze und dem Entfernen exzessiven Schnees. Exzessiver Schnee wird definiert als eine Schneemenge, die über 1 Meter Wasseräquivalent hinausgeht, also etwa 3 bis 5 m Schnee.

Das Entfernen des exzessiven Schnees ist eine sehr grobe Parametrisierung des Kalbens von Eisbergen, und zusammen mit dem Schmelzwasser wird exzessiver Schnee an das Netzwerk der Flüsse geliefert und eventuell den küstennahen Oberflächen-Gewässern der angrenzenden Ozean-Gitterpunkte zugefügt. Folglich werden die lokale Größe des Eisschildes und das globale Frischwasser-Volumen konserviert.

Probleme des Modells:

Eine weitere Bias, die für diese Diskussion relevant ist, ist die Temperatur auf dem Festland in hohen nördlichen Breiten. Wie im nächsten Abschnitt beschrieben wird, ist eine Menge der CCSM4-Reaktion auf orbitale Antriebe der reduzierten Schneeschmelze im Sommer geschuldet. Eine Kalt-Bias bei der Kontrolle wird es wahrscheinlicher machen, die Sommertemperatur unter dem Gefrierpunkt zu halten, so dass die Schnee-Akkumulation des Modells überschätzt wird. Im jährlichen Mittel sind Nordsibirien und Nordkanada um etwa 1°C bis 2°C zu kalt, Baffin-Insel sogar um etwa 5°C zu kalt (Gent et al. 2011). Die sibirischen Bias sind nicht so dramatisch, aber es ist ziemlich unglücklich, dass die Baffin-Insel, das Zentrum des Laurentide-Eisschildes, eine der stärksten Temperaturbias im CCSM4 aufweist. Ein genauerer Blick auf die Temperaturbias in Nordamerika zeigt jedoch, dass die Kalt-Bias dominiert wird von Bias im Herbst und Winter, während die Baffin-Insel im Frühjahr und Sommer um etwa 3°C zu kalt ist und der kanadische Archipel sogar eine geringe Warm-Bias aufweist.

Ihr Plan:

Die nachfolgenden Abschnitte werden zwei unterschiedliche Simulationen analysieren und vergleichen: einen Kontroll-Lauf 1850 (CONT), in welchem die orbitalen Parameter der Erde auf die Werte im Jahre 1900 gesetzt werden und die atmosphärische Zusammensetzung bei den Werten des Jahres 1850; und eine Simulation identisch mit CONT mit Ausnahme der orbitalen Parameter, die auf die Werte von vor 115.000 Jahren (OP115) gesetzt werden. Die atmosphärische CO2-Konzentration in beiden Experimenten beträgt 285 ppm.

Die Modelle wurden über 700 (simulierte) Jahre laufen gelassen. Dann folgen einige interessante Bemerkungen, warum sie keine Simulation über 120.000 Jahre durchführen können: Dieser experimentelle Aufbau ist natürlich nicht optimal. Idealerweise würde man gerne das Modell seit der letzten Zwischeneiszeit vor etwa 126.000 Jahren integrieren, für 10.000 Jahre in die Eiszeit mit sich langsam änderndem orbitalen Antrieb. Allerdings ist das nicht machbar; eine Integration über 100 Jahre CCSM auf den NCAR-Supercomputern würde etwa einen Monat dauern und einen substantiellen Teil der Computerbelegung der Klimagruppe beanspruchen.

Ergebnisse

Zunächst erzeugen sie in der Tat eine permanente Schneebedeckung in hohen Breiten. Die Studie bietet eine sehr gute Erklärung, wie die unterschiedlichen Klimafaktoren in hohen Breiten zusammenspielen, wo wir nach dem Einsetzen permanenter Schneebedeckung suchen. Es hilft uns zu verstehen, warum grundlegende Energiebilanzmodelle und selbst Modelläufe zwischenzeitlicher Komplexität (EMICs) keine zuverlässigen brauchbaren Antworten liefern können. Schauen wir mal:

 

Bildunterschrift: Abb. 2: Differenz des zonal gemittelten Flusses an der Obergrenze der Atmosphäre (OP115 vs. CONT). Schwarz: Einstrahlung. Blau: Einstrahlung mal Albedo aus CONT. Rot: Gesamt-Kurzwellenstrahlung bei klarem Himmel. Grün: Gesamt-Kurzwellenstrahlung (Jochum et al 2012)

Die Graphik vergleicht die jährliche Sonneneinstrahlung pro Breitenkreis von 115.000 Jahren und heute. Man beachte den zentralen Punkt: Die einfallende Sonnenstrahlung – also die schwarze Kurve – war an den Tropen höher, während die jährliche Einstrahlung in hohen Breiten niedriger war.

Konzentrieren wollen wir uns auf die Nordhemisphäre nördlich von 60°N, welche die Gebiete großräumiger Abkühlung und zunehmender Schneebedeckung überdeckt. Verglichen mit CONT ist die jährliche mittlere Einstrahlung über dieser Arktischen Domäne in OP115 geringer bei 4,3 W/m² (schwarze Linie), aber die hohe Albedo reduziert diesen Unterschied an der Obergrenze der Atmosphäre auf nur 1,9 W/m² (blaue Linie, siehe auch Tabelle 1).

In blau wird das Ergebnis gezeigt, wenn wir die bestehende Albedo berücksichtigen – das heißt, weil eine Menge Solarstrahlung schon in hohen Breiten reflektiert wird, werden sämtliche Änderungen der einfallenden Strahlung durch den Albedo-Effekt reduziert (bevor sich die Albedo selbst ändert). In grün wird das Ergebnis gezeigt, wenn wir die veränderte Albedo der größeren Schneebedeckung von 115.000 Jahren berücksichtigen.

Im CCSM4 führt diese größere Albedo im OP115 zu einer Kurzwellenstrahlung an der Obergrenze der Atmosphäre bei klarem Himmel, die um 8,6 W/m² geringer ist als im CONT – das ist 4 mal das ursprüngliche Signal. Die Schnee/Eis-Albedo-Rückkopplung wird dann berechnet mit 6,7 W/m² (8,6 bis 1,9 W/m²). Interessanterweise ist die Bedeckung mit tiefen Wolken im OP115 kleiner als im CONT, was die Differenz der Gesamt-Kurzwellenstrahlung an der Obergrenze der Atmosphäre um 3,1 bis 5,5 W/m² reduziert (grüne Linie). Zusammengefasst: ein Initial-Antrieb von 1,9 W/m² nördlich von 60°N wird um 6,7 W/m² verstärkt durch die Schnee/eis-Albedo-Rückkopplung und reduziert durch eine negative Wolken-Rückkopplung um 3,1 W/m².

Die zusammenfassende Tabelle:

 

Wegen der größeren meridionalen Temperatur- (Abbildung 1a) und Feuchtigkeits-Gradienten (Abbildung 4a) nimmt der atmosphärische Quer-Wärmefluss in die Arktis zu von 2,88 auf 3,0 PW. Dieser Unterschied von 0,12 PW bedeutet für die Arktis ein Mittel von 3,1 W/m²; das ist eine negative Rückkopplung, die genauso groß ist wie die Wolken-Rückkopplung und die 6 mal größer ist als die Zunahme des meridionalen Wärmetransportes im Ozean bei 60°N (nächster Abschnitt). Folglich kompensieren sich die negative Wolken-Rückkopplung und der meridionale Wärmetransport für die positive Rückkopplung fast vollständig. Übrig bleibt eine Gesamt-Rückkopplung von nur 0,5 W/m². Eine Möglichkeit, diese Rückkopplungen zu betrachten ist, dass das Klimasystem ziemlich stabil ist, wobei Wolken und meridionale Transporte den Einfluss von Albedo-Änderungen begrenzen. Dies könnte erklären, warum einige numerische Modelle Schwierigkeiten haben, die beobachtete Abkühlung in Verbindung mit dem orbitalen Antrieb zu erzeugen.

Ich glaube es ist wichtig zu beachten, dass sie ihre Ergebnisse durch einen unterschiedlichen Mechanismus zu einer der Studien bekommen, die wir in Teil 9 begutachtet haben:

Folglich ist die Zunahme von Schneefall im Gegensatz zu den Ergebnissen von Vetterotti und Peltier (2003) vernachlässigbar im Vergleich zur reduzierten Schneeschmelze.

Ihr Ergebnis:

Die globale Gesamt-Differenz hinsichtlich Schmelzen und Schneefall zwischen OP115 und CONT führt zu einer impliziten Schnee-Akkumulation, die äquivalent ist mit einem Rückgang des Meeresspiegels um 20 m innerhalb von 10.000 Jahren, einiges davon der Kaltverzerrung der Baffin-Insel geschuldet. Das ist weniger als die 50-m-Schätzung, die auf Rekonstruktionen des Meeresspiegels zwischen heute und vor 115.000 Jahren basiert, aber unabhängig davon zeigt sich, dass das Modell die richtige Größenordnung wiedergibt.

Atlantic Meridional Overturning Current (AMOC)

Diese Strömung hat enormen Einfluss auf die höheren Breiten im Atlantik, weil sie wärmeres Wasser aus den Tropen transportiert.

Der meridionale Wärmetransport der AMOC ist eine wesentliche Wärmequelle für den nördlichen Nordatlantik, aber man glaubt auch, dass er für kleine Störungen anfällig ist. Daraus ergibt sich die Möglichkeit, dass die AMOC den orbitalen Antrieb verstärkt oder sogar, dass diese Verstärkung für Vereisungen und Terminierungen der Nordhemisphäre notwendig ist. Tatsächlich zeigt JPML, dass eine Änderung des orbitalen Antriebs in mindestens einem GCM zu einer Abschwächung der MOC führen kann und zu einer daraus folgenden großräumigen Abkühlung der Nordhemisphäre. Hier beleuchten wir den Zusammenhang zwischen orbitalem Antrieb und Stärke der AMOC mit dem CCSM4, welches verbesserte Physik und eine höhere räumliche Auflösung als JPML aufweist.

Im Wesentlichen fanden sie eine begrenzte Änderung der AMOC in dieser Studie. Interessierte Leser können die Studie gerne einsehen. Dies ist ein wichtiges Ergebnis, weil frühere Studien mit geringerer Auflösung oder mit GCMs, die nicht vollständig gekoppelt sind, oftmals eine starke Rolle der MOC bei sich verstärkenden Änderungen gefunden hatten.

 Schlussfolgerung

Dies ist eine interessante Studie. Sie ist wichtig, weil sie ein hypermodernes GCM verwendet, um permanente Schneebedeckung von 115.000 Jahren zu simulieren, einfach mit vorindustriellen Treibhausgas-Konzentrationen und Einstrahlungsbedingungen vor 115.000 Jahren. Das Modell weist eine Kalt-Bias auf (und eine verstärkte Feuchte-Bias) in hohen Breiten der Nordhemisphäre. Dadurch erhebt sich die Frage nach der Signifikanz des Ergebnisses (für meinen skeptischen Verstand):

• Kann ein hoch auflösendes AO-GCM ohne Kalt-Bias in hohen Breiten eine permanente Schneebedeckung nur mit vorindustriellen Werten der Treibhausgas-Konzentration und orbitalem Antrieb vor 115.000 Jahren erzeugen?

• Kann dieses Modell mit dieser Kalt-Bias in hohen Breiten das Ende einer Vereisung reproduzieren?

Das heißt nicht, dass die Studie nicht sehr wertvoll ist, und die Autoren haben sicher nicht versucht, die Schwächen des Modells zu übergehen – tatsächlich haben sie diese sogar noch unterstrichen. Was die Studie ebenfalls zeigt – und was wir auch in früheren Artikeln gesehen haben – ist: wenn wir uns durch Generationen und Komplexitäten der Modelle wühlen, können wir Erfolg haben; dann scheitert ein besseres Modell, dann führt ein noch besseres Modell wieder zum Erfolg. Auch haben wir angemerkt, während das (ebenfalls kalt-bias) Modell von Vetterotti und Peltier (2003) eine permanente Schneebedeckung durch verstärkte Feuchtetransporte in  kritische Gebiete gefunden hatte (was sie als einen „Rückkopplungs-Mechanismus zwischen Atmosphäre und Cryosphäre“ bezeichnen), hat eine jüngere Studie mit einem verbesserten Modell keine Zunahme der Feuchtetransporte gefunden.

Die Details, wie unterschiedliche Modelle zum gleichen Ergebnis kommen, sind wichtig. Ich glaube nicht, dass irgendein Klimawissenschaftler dies anders sieht, aber es bedeutet, dass viele Studien mit „Erfolg“ nicht „Erfolg für alle“ bedeuten und nicht für einen „allgemeinen Erfolg“ stehen können. Die Details müssen untersucht werden.

Diese Studie aus dem Jahr 2012 zeigt die Bedeutung aller (derzeit bekannten) Rückkopplungen – eine Zunahme der Albedo durch verstärke Schneedeckenbildung wird fast vollständig durch negative Rückkopplungen  ausgebremst. Und schließlich zeigt die Studie auch, dass ihr Modelllauf über 700 Jahre  nicht die signifikante Abkühlung der Südpolarregion erzeugen kann:

Noch wichtiger ist jedoch das Fehlen jedweder Reaktion im Polargebiet der Südhalbkugel, die erforderlich sind, um Abbildung 1 zu erklären. Während Petit et al. 1999 zeigen, dass sich die Antarktis zu Beginn der letzten Eiszeit um 10°C abgekühlt hat, zeigt eine jüngere hoch aufgelöste Analyse von Jouzel et al. 2007, dass es nur wenig kälter war als heute (weniger als 3°C beim European Project for Ice Coring in Antarctica (EPICA), Stelle Dome C auf dem Antarktischen Plateau). Natürlich gibt es substantielle Unsicherheiten bei der Rekonstruktion der antarktischen Temperaturen.

Ich habe keinerlei Kommentare zu diesem speziellen Punkt, weil mir das Verständnis der jüngsten Arbeiten hinsichtlich Datierung und Korrelation mit EPICA fehlen (Eisbohrkerne aus Grönland und der Antarktis).

 

References

True to Milankovitch: Glacial Inception in the New Community Climate System Model, Jochum, Jahn, Peacock, Bailey, Fasullo, Kay, Levis & Otto-Bliesner, Journal of Climate (2012) – free paper

Notes

Anmerkung 1 – mehr zum Modell:

Die ozeanische Komponente hat eine horizontale Auflösung, die bei den Längengraden konstant 1,125° beträgt und hinsichtlich der Breite von 0,27° am Äquator bis etwa 0,7° in hohen Breiten reicht. In der Vertikalen gibt es 60 Schichten; die höchste Schicht hat eine Dicke von 10 m und die unterste Schicht eine solche von 250 m. Die atmosphärische Komponente verwendet eine horizontale Auflösung von 0,9° X 1,25° mit 26 Schichten in der Vertikalen. Das Meereis-Modell hat das gleiche horizontale Gitternetz wie das Ozean-Modell, und das Festlands-Modell hat das gleiche horizontale Gitternetz wie das atmosphärische Modell.

Link: http://scienceofdoom.com/2014/01/03/ghosts-of-climates-past-part-ten-gcm-iv/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/




Nachhaltige – d.h. endlose- Endlagersuche! Ein Erfahrungsbericht

Jeder Teilnehmer der gut besuchten Veranstaltung konnte sich in den drei Stunden zu Wort melden und den Hauptakteuren Fragen stellen. Diese agierten quasi auf einer Bühne, obwohl es tatsächlich in dem Saal keine Erhöhung gab.

Wer beantwortete die Fragen des Publikums? Geologen, Bergingenieure, Geochemiker, Physiker, Strahlenbiologen? Nein, solche Leute sind offenbar nicht glaubwürdig.

Die Akteure waren:

Stefan Wenzel, Niedersächsischer Umweltminister (Agrarökonom)

Sophie Kuppler (Sozialwissenschaftlerin)

Ralf Meister, evangelischer Landesbischof (Theologe)

Marc André Wiegand, Regierungsdirektor (Jurist)

Es moderierte Asta von Oppen, ehemalige Lehrerin

Allein der Jurist, Herr Dr. Wiegand, hielt einen seinem Fach entsprechenden Vortrag, nämlich über Gesetzgebungsverfahren. Unter anderem wies er darauf hin: Wenn man sich einigt, sind gar keine Gesetze nötig; diese braucht man, wenn es keinen Konsens gibt.

Herr Wenzel sprach in seiner Einführung in die Veranstaltung über die Vorteile der Einbeziehung möglichst vieler Betroffener; ein Verfahren, welches es ansatzweise schon in vordemokratischer Zeit gegeben hätte.

Beim Vortrag von Herrn Meister fühlte man sich ins Altertum versetzt, als es noch kaum naturwissenschaftliche Erkenntnisse gab und man über das Atom nur spekulieren konnte. Es gäbe keine Wahrheiten, nur Standpunkte, die man auch selbst immer wieder in Frage stellen müsste. Vielleicht hätte er zu den griechischen Philosophen gepasst. 

Sokrates, der alte Greis,

Sagte oft in tiefen Sorgen:

„Ach, wie viel ist doch verborgen,

Was man immer noch nicht weiß.“

(W. Busch)

Meinen Einwand, es gäbe doch gesicherte Erkenntnisse über Strahlenwirkungen, über die keine Diskussion mehr möglich ist, ließ er nicht gelten. Als ich noch hinzufügte, aufgrund der Ergebnisse von 100 Jahren strahlenbiologischer Forschung wären in Fukushima keine Gesundheitsschäden zu erwarten, erhob sich unter dem Publikum ein Sturm der Entrüstung. Ein Teilnehmer verlangte, die Moderatorin sollte mir das Wort entziehen, was sie aber nicht tat. 

Am Schluss der Veranstaltung zeigte sich, dass doch nicht nur Kernkraftgegner anwesend waren; ich wurde von einigen lobend angesprochen. Diese waren auch der Meinung, das ganze Verfahren würde nie zu einem Endlager führen.

Sonst gab es große Einigkeit. Im wesentlichen sprachen in der Diskussion Vertreter der verschiedenen Öko- und Antigruppen; das Wohlwollen des Publikums war ihnen sicher. Einer beklagte, dass aufgrund mangelhafter Ausstattung man gegenüber Institutionen sehr im Nachteil wäre; offenbar möchte der Mann Geld vom Staat bekommen.

Ein wenig Ärger machte ein Geologe, welcher die allzu laienhafte Darstellung einer Vertreterin der Asse-Begleitgruppe kritisierte. Außerdem erregte es Missfallen, dass ein ehemaliger Ministerialbeamter versuchte, die abenteuerliche Darstellung eines anderen Anti-Menschen zu widerlegen: Man hätte zu Gorleben amtlich erklärt, der Salzstock reiche nicht bis unter die DDR. 

Sonst ging alles sehr friedlich zu, Angriffe gegen die böse Atomindustrie und dergleichen fehlten ganz. Lediglich eine Vertreterin der IPPNW (Internationale Ärzte gegen Atomkrieg) verlangte die Stilllegung der Anreicherungsanlage URENCO.

Herr Wenzel betonte dann auch in seinem Schlusswort, wie schön es doch wäre, dass Menschen unterschiedlicher Ansichten so friedlich diskutieren und einander zuhören könnten. Natürlich wäre noch nicht viel erreicht, man müsste dies Verfahren der Öffentlichkeitsbeteiligung intensiv weitertreiben.




Die Qualität der FAZ-Berichterstattung im freien Fall

Gewählt sei diesmal die Form des Leserbriefs. Mit Leserbriefen an die FAZ macht man so seine Erfahrungen, meistens werden sie nicht veröffentlicht. In diesem Fall habe ich mich entschlossen etwas anders vorzugehen, damit die Kritik in meinem Leserbrief nicht völlig beiseite geschoben werden kann (EIKE hat eine Besucherzahl, die auch im Vergleich mit der der FAZ nicht verschwindend ist). Der Leserbrief ist abgeschickt worden und wird hier nachfolgend unverändert wiedergegeben. Einziger Unterschied ist eine zusätzliche kurze Literaturübersicht zum Inhalt. Damit wird der FAZ sozusagen die letzte Chance gegeben zu zeigen, dass noch rudimentäre Überreste eines kritischen Journalismus in ihr stecken – falls sie nämlich die Kritik abdruckt. Man darf vorsichtig pessimistisch sein.

Nun mein Leserbrief auf den Artikel von Andreas Mihm, der kaum ein Detail des üblichen Alarmisten-Sermons auslässt. Es ist unnötig, hierauf im Detail einzugehen, alles ist zumindest EIKE-Lesern hinreichend bekannt. Da Leserbriefe an Zeitungen nicht zu lang sein dürfen, konnten von mir natürlich nur die wichtigsten Punkte angesprochen werden:

Leserbrief „Klima-ALarm“, FAZ vom 29.Juli 2014

Heute fand ich ein Werbeexemplar der FAZ im Briefkasten, darin enthalten der Beitrag KLIMA-ALARM von Andreas Mihm. Er schreibt: „Der vergangene Monat war der wärmste Juni seit Beginn der Temperaturaufzeichnungen“. Das ist grob falsch. Die längste Thermometerreihe weltweit ist die „Mittelenglische Reihe“, die bis 1659 zurückreicht. Sie wird im Internet vom MET Office Center (GB) in Form von Monatsmittelwerten zur Verfügung gestellt, der Juni-Wert von 2014 ist 15,1 °C. Davor liegen sage und schreibe 83 höhere Juniwerte, das Jahr 1846 mit 18,2 °C führt diese Vorgänger an. Die Aussage „es gibt einen gefährlichen Temperaturanstieg“ ist nicht mit den jahrzehntelangen meteorologischen Messdaten vereinbar. Aber auch die weiteren Ausführungen von Mihm sind sachlich falsch. Die globale Mitteltemperatur steigt keineswegs seit Jahren in kleinen Schritten, sondern stagniert seit 1998. Extremwetter haben nicht zugenommen, das bestätigt sogar das wohl unverdächtige IPCC in Kap. 2.7 seines Sachstandsberichts von 2001 sowie in seinem speziellen Extremwetterbericht (SREX) von 2012.

Dass Versicherungen größer werdende  Schäden auflisten, verantworten nicht die Natur sondern steigende Sachwerte und die Tatsache, dass bei schwindenden Bauplätzen zunehmend in gefährdete Gebiete (Überschwemmungen, Erdrutsche, Lawinen) ausgewichen wird. All diese Fakten sind den von Mihm angeklagten „schlechten“ Vorbildländern Australien, Kanada und Japan wohlbekannt. Diese sind freilich keine „Klimasünder“ sondern Realisten. Sie nehmen zur Kenntnis, dass bis heute eine begutachtete wissenschaftliche Fachveröffentlichung, die einen anthropogenen Einfluss auf Klimawerte stringent nachweisen kann, immer noch auf sich warten lässt. Dass all dies an Herrn Mihm spurlos vorbeiging, ist wohl nur mit grünideologischem Tunnelblick und komplett verweigerter Recherche zu erklären. Ein ehemaliges Qualitätsperiodikum wie die FAZ sei daran erinnert, dass grobe sachliche Falschinformation nicht geeignet ist, die dringend benötigten neuen Leser zu gewinnen.

Literaturnachweise

1) Central England Temperatures (CET), hierhier

2) IPCC Sachstandsbericht 2001, hier

3) IPCC Extremwetterbericht 2012, hier

Für Leser, die sich näher informieren, mit den Daten herumspielen oder Grafiken erstellen möchten, habe ich den txt-File der CET-Reihe in EXCEL umgewandelt und hier beigefügt. Viel Vergnügen!

Anmerkung der EIKE-Redaktion: Der Artikel ist unter einer geänderten Überschrift jetzt auch im Internet verfügbar (hier). Man beachte die Leserkommentare! Ein wirkungsvolleres Selbstmordprogramm als das der FAZ ist schwer vorstellbar.

Admin

Related Files




Zum ersten Mal wurde ein mysteriöser Kerbfilter* beim Klima gefunden

[*Ein Kerbfilter {Englisch Notch Filter} ist in der Elektrotechnik eine scharfe (Frequenz-) Bandsperre. Weiteres <a href="http://de.wikipedia.org/wiki/Kerbfilter" target="_blank">hier</a> bei Wikipedia

In diesem Beitrag geht es außerdem um einen groben Umriss des neuen Solarmodells. Es ist ein Null-dimensionales Modell. Seine Stärke liegt in seiner Einfachheit – es ist ein Verfahren von oben nach unten. Dies löst eine Menge der Probleme, die die ambitionierteren GCMs aufweisen – sie sind ein Verfahren von unten nach oben und ertrinken im Endeffekt in Rauschen und Ungewissheit. Dieses Modell hier versucht gar nicht erst, regionale oder jahreszeitliche Auswirkungen in diesem Stadium vorherzusagen. Das Wichtigste zuerst – wir müssen die Haupttreiber des globalen Klimas herausfinden.

Im Folgenden erklärt David Evans, warum Sinuskurven so mächtige Instrumente sind. Einige der wichtigsten Graphiken hier sind Frequenzen – worauf wir Nicht-Elektroingenieure uns konzentrieren müssen. Man achte auf die logarithmische Skala unten. 1000-Jahres-Zyklen sind links und 1-Jahres-Zyklen rechts.

Es gibt eine Menge zu sagen. Gute Skeptiker werden an Kritiken denken und daran, Hypothesen in Frage zu stellen. Das ist alles wunderbar; man erinnere sich, dass wir diese Fragen ausführlich schon längst gestellt haben (z. B., ist es in Ordnung, Linearität zu vermuten?), und dies ist ein kurzer Artikel zur Einführung. Wir vermuten, jedoch nur zeitweise, dass die Sonnenstrahlung mit all der Erwärmung verbunden sein könnte (man beachte, ich habe nicht gesagt „verursacht“). Diese Hypothese ist für die Untersuchung verwendet und dann fallen gelassen und getestet worden. Das ist parallel zu dem was die CO2-getriebenen Modelle machen – sie vermuten, dass CO2 all diese Erwärmung verursacht hat. Sie sind einfach im Schritt „Testen“ hängen geblieben. Auch hat Evans eine Fourier-Analyse verwendet, um die Datensätze zu untersuchen und die Filter zu finden. Dann nutzte er diese Filter, um ein Modell zu konstruieren. Dieses Zwei-Schritte-Verfahren bedeutet, dass Skeptiker rote Flaggen zeigen können, die für einen Schritt relevant sind, aber durch den zweiten Schritt irrelevant werden. Ich sage dies zu Beginn in der Hoffnung, dass wir zu konstruktiverer Kritik kommen.

Wenn man es eilig hat, gehe man gleich zu den Abbildungen 5 und 6 im wichtigsten Abschnitt! Man betrachte die Spitze bei 11 Jahren und sehe, dass diese in allen Datensätzen auftaucht!

——————————————————————————————————

Den Filter entdecken

Dr. David Evans

Referenz: Cite as Evans, David M.W. “The Notch-Delay Solar Theory”, sciencespeak.com/climate-nd-solar.html, 2014.

Die Kohlendioxid-Theorie ist eindeutig ungeeignet, wie die Leser hier nur zu gut wissen. Also fragten wir uns, ob nicht die Sonne Ursache eines Teils der jüngsten globalen Erwärmung sein könnte. Das heißt die Erwärmung der letzten paar Jahrzehnte, vielleicht zurück bis zum Jahr 1800 oder so.

Solarstrahlung und Temperatur

Die besten und eindeutigsten solaren Datensätze sind jene der Gesamt-Solarstrahlung TSI, oder die Gesamtenergie von der Sonne in allen elektromagnetischen Frequenzen – hauptsächlich sichtbar als Licht, aber auch als UV und einige Infrarot-Frequenzen. Diese Datensätze schätzen die Gesamtenergie von der Sonne, die auf eine Fläche fällt, die sich an der Stelle der mittleren Entfernung der Erde von der Sonne befindet (1 Astronomische Einheit AE). Die TSI-Daten sind daher Jahreszeiten-bereinigt, so dass sie uns nichts darüber sagen können, was in Zeiträumen passiert, die kürzer sind als ein Jahr oder bei Häufigkeiten, die größer sind als ein Zyklus pro Jahr (das wird später noch wichtig). Die TSI wird in Watt pro Quadratmeter (W/m²) gemessen.

Die Temperatur, an der wir am meisten interessiert sind, ist die in unserer unmittelbaren Umgebung, die „globale mittlere Lufttemperatur an der Erdoberfläche“, also Lufttemperaturen auf oder nahe der Oberfläche, die über den gesamten Planeten gemittelt sind. Wenn wir den Begriff „Temperatur“ ohne weiteren Zusatz in diesem Beitrag verwenden, dann ist genau diese Temperatur gemeint. Die „globale Erwärmung“ ist der Anstieg dieser Temperatur.

Das Anfangsziel dieses Projektes ist es, eine Antwort auf die folgende Frage zu finden: Falls die jüngste globale Erwärmung fast durchweg der Solarstrahlung geschuldet ist und keinen Zusammenhang mit CO2 aufweist, welches solare Modell kann dies abdecken?

Konstruieren wir also dieses Solarmodell

Wir peilen eine Art Blackbox an, dessen Input die TSI und dessen Output die Temperatur ist.

Das Klimasystem ist angenähert linear hinsichtlich kleiner Störungen, wie sie seit dem Ende der letzten Eiszeit aufgetreten sind. In der Klima-Modellierung ist es üblich anzunehmen, dass das Klimasystem linear ist. Das Klimasystem ist auch „unveränderlich“, was einfach bedeutet, dass sich deren Eigenschaften nicht signifikant mit der Zeit ändern. Also nehmen wir an, dass das Klimasystem linear und invariant ist, zumindest während der letzten paar hundert Jahre (und vermutlich bis zurück zum Ende der letzten Eiszeit).

Der Weg, ein lineares und invariantes System zu analysieren erfolgt mittels Sinuswellen. Eine Sinuswelle hat eine Frequenz, eine Amplitude und eine Phase. Sinuswellen sind das Richtige für lineare invariante Systeme, weil:

• Falls der Input eine Sinuskurve ist, dann ist der Output eine Sinuskurve gleicher Frequenz.

• Bei jeder Frequenz ist das Verhältnis der Output- zur Input-Amplitude sowie die Differenz zwischen den Output- und den Input-Phasen immer die Gleiche.

• Das Verhalten bei einer Frequenz wird nicht beeinflusst von dem, was bei anderen Frequenzen passiert.

Viele Systeme sind linear und invariant, so wie freier Raum für elektromagnetische Fluktuationen. Darum sind Sinuswellen und die Fourier-Analyse so universell in unserer Analyse des Universums. Während man die Fourier-Analyse auch für bloße Kurvenanpassungen verwenden kann, liegt die wirkliche Bedeutung und Macht der Sinuskurven darin, dass sie Eigenfunktionen allerlinearen invarianten Systeme sind.

Analysieren wir also die TSIO- und Temperatur-Datensätze im Frequenzbereich. Das heißt, wir werden sie als Summe von Sinuskurven umformen.

1 Das Input-Spektrum (TSI)

Die TSI wurde von Satelliten erst seit Ende 1978 gemessen. Die Anzahl der Sonnenflecken wurde jedoch seit 1610 aufgezeichnet, und die TSI war rekonstruiert worden nach der Anzahl der Sonnenflecken (Lean 2000). Die wesentlichen TSI-Datensätze sind die PMOD-Satellitenbeobachtungen seit Ende 1978. Leans Rekonstruktion von 1610 bis 2008 und die Steinhilber-Rekonstruktionen aus Beryllium-Isotopen in Eisbohrkernen, die 9300 Jahre zurückreichen.

Die wesentlichen TSI-Datensätze sind verrauscht und widersprechen manchmal auch einander. Wir versuchen nicht, eine „beste“ empirische Aufzeichnung herauszupicken, sondern versuchen stattdessen, dasjenige Spektrum der TSI zu finden, das am besten zu fast allen wesentlichen TSI-Datensätzen passt. Wir kümmern uns hier nur um die Amplituden, weil die Phasen der Sinuskurven aus den Klimadatensätzen nicht zuverlässig bestimmt werden können.

Abbildung 1: Die zur Abschätzung des TSI-Spektrums verwendeten Datensätze seit 1600.

Die vielen Nicht-Übereinstimmungen der TSI-Datensätze stehen für ein verrauschtes kombiniertes Amplituden-Spektrum [Original: The many disagreements of the TSI datasets make for a noisy combined amplitude spectrum.]

Abbildung 2: Die Amplituden-Spektren der verschiedenen TSI-Datensätze (die Reihe farbiger Punkte) und die geglättete Kurve des Best Fit (orange Linie). Größere Punkte haben mehr Gewicht bei der Glättung. Man beachte die Spitze um 11 Jahre.

Das TSI-Amplitudenspektrum ist die orangene geglättete Kurve in Abbildung 2. Sie verläuft im Wesentlichen gerade über mehr als drei Größenordnungen der Frequenz-Magnitude, mit Ausnahme einer ausgeprägten Spitze um 11 Jahre, dessen Schärfe durch die geglättete Kurve unterschätzt wird.

Die Länge eines Sonnenfleckenzyklus’ beträgt im Mittel 11 Jahre, obwohl individuelle „Zyklen“ zwischen 8 und 14 Jahren variieren. Also würden wir stärkere Sinuskurven etwa alle 11 Jahre erwarten. Dieses Spektrum entspricht unseren Erwartungen.

2 Das Output-Spektrum (Temperatur)

Die wesentlichen Temperaturaufzeichnungen sind die Satellitenaufzeichnungen seit Ende 1978 (UAH und RSS), die Bodenbeobachtungen mit Thermometern seit 1850 oder 1880 (HadCrut4, GISTEMP und NCDC), die beiden umfassenden Proxy-Zeitreihen von Christiansen und Ljungqvist 2012, die bis zum Jahr 1500 zurückreichen mit 91 Proxys und bis zum Jahr Null mit 32 Proxys, sowie die Eisbohrkerne aus Dome C, die 9300 Jahre zurückreichen (um zu den TSI-Daten zu passen).

Die Haupt-Temperatur-Datensätze sind verrauscht und widersprechen einander manchmal. Auch hier haben wir nicht die „beste“ empirische Aufzeichnung herausgesucht, sondern einfach versucht, das Spektrum zu finden, das am besten zu allen Haupt-Datensätzen passt.

Abbildung 3: Die zur Abschätzung des Temperaturspektrums verwendeten Datensätze sind umso verrauschter und widersprüchlicher, je weiter sie zeitlich zurückreichen.

Das Temperatur-Amplitudenspektrum, die geglättete Kurve in Abbildung 4, verläuft im Wesentlichen gerade über mehr als drei Größenordnungen der Frequenz-Magnitude ohne weitere definitive Besonderheiten.

Abbildung 4: Die Amplituden-Spektren der verschiedenen Temperatur-Datensätze (die Reihe farbiger Punkte) und die geglättete Kurve des Best Fit (orange Linie). Größere Punkte haben mehr Gewicht bei der Glättung.

Man beachte den Großen Anhaltspunkt: Es gibt keine Spitze bei 11 Jahren!

Das kommt unerwartet, denn die TSI liefert die Energie, die die Erde erwärmt. Die TSI erreicht um 11 Jahre einen Spitzenwert, und doch gibt es keine korrespondierende Spitze bei der Temperatur, selbst wenn man unsere hinsichtlich Rauschens optimale Fourier-Analyse anwendet!

(Nennen wir hier einige Zahlen: Die TSI variiert normalerweise vom Minimum zum Maximum eines Sonnenfleckenzyklus’ um 0,8 W/m² von 1361 W/m². An der Erdoberfläche liegt der Wert bei 0,14 W/m² unreflektierter TSI. Falls dies eine langzeitliche Änderung war, würde die Stefan-Boltzmann-Gleichung eine Änderung der Strahlungs-Temperatur von etwa 0,05°C implizieren, was auf der Erdoberfläche zu einer Temperaturänderung von 0,1°C führen würde. Die Spitzen dauern lediglich ein oder zwei Jahre, so dass der Low-Pass-Filter im Klimasystem die Temperaturspitze zu irgendeinem Wert unter 0,1°C reduzieren würde. Die Fehler-Bandbreite der Temperaturaufzeichnungen liegt allgemein um 0,1°C, aber die Fourier-Analyse findet normalerweise sich wiederholende Beulen bis einem kleinen Bruchteil der Fehler-Bandbreite, vielleicht ein Zehntel. Allerdings sind diese Beulen nicht regelmäßig angeordnet, so dass die Nachweisbarkeit ein wenig höher wäre. In jedem Falle würden wir erwarten, dass die Temperatur nachweisbare Spitzen erreicht, wenn wir die Daten und Verfahren verwenden, wie wir es hier tun, wenn auch nicht mit einer gewaltigen Größenordnung. In einem späteren Beitrag zeigen wir eine physikalische Interpretation des Kerbfilters, der der TSI-Erwärmung entgegenwirkt, aber natürlich wäre es sehr unwahrscheinlich, dass ein solches Entgegenwirken die Temperatureffekte eines TSI-Spitzenwertes kompensieren würde. Aber angesichts dessen, dass die Bandbreite zum Auffinden eines TSI-Spitzenwertes nicht groß ist, ist es glaubhaft, dass die haupt-kompensierten TSI-Spitzen tatsächlich nicht auffindbar sind). Dieser Absatz wurde korrigiert.

Das ist ein wichtiger Hinweis. Es ist das Fehlen von etwas, das wir erwartet hatten. In der Elektronik nennt man einen Filter, der das Brummen in den Lautsprechern entfernt, einen Kerbfilter. Er eliminiert eine enge Bandbreite von Frequenzen, die wie ein Einschnitt in einer Frequenzgraphik aussehen. Ohne einen solchen Kerbfilter wäre das Brummen bei 50 oder 60 Hz oft hörbar. Es scheint, dass irgendetwas das 11-jährige „solare Brummen“ aus der Temperatur eliminiert, und darum nennen wir dieses Phänomen „den Filter“.

3 Die Transfer-Funktion

Eine Transfer-Funktion gibt an, wie eine Sinuskurve im Input durch das System transferiert wird, bis sie als Output wieder herauskommt. Hier geht es nur um Amplituden (das heißt nicht um Phasen), so dass deren Wert bei einer gegebenen Frequenz einfach die Output-Amplitude bei dieser Frequenz ist, dividiert durch die Input-Amplitude bei dieser Frequenz. Teilt man die orangene Linie in Abbildung 4 durch die orangene Linie in Abbildung 2, kommen wir zur empirischen Transferfunktion, die Abbildung 5 zeigt: 

Abbildung 5: Die Amplitude der empirischen Transfer-Funktion. Die graue Zone ist ein graphisches Hilfsmittel, um es einfacher zu machen, Orte auf und zwischen den Graphiken zu beurteilen und zu vergleichen – weil sie genau am gleichen Ort in allen Diagrammen in diesem Projekt liegen.

Die Transfer-Funktion ist ziemlich flach, außer für die Kerbe beim Zeitpunkt 11 Jahre und Hinweisen auf einen Abfall bei den höheren Frequenzen.

Die Kerbe ist robust. Wir berechneten die empirische Transfer-Funktion aus Sequenzen der Datensätze, wie die Daten vor 1945 oder nach 1945, und in jedem Fall ist die Kerbe klar erkennbar.

Abbildung 6: Die Amplituden der empirischen Transfer-Funktion, wenn die Daten in der markierten Weise begrenzt werden (das heißt, unter Verwendung einer Sequenz des Datensatzes, der zur Erstellung von Abbildung 5 verwendet wurde). Die schwarze Linie und die graue Zone sind entsprechend Abbildung 5.

Die Kerbe ist eine so prominente Erscheinung, dass wir sie verifizieren können einfach durch den Vergleich der TSI mit der Temperatur:

Abbildung 7: Die Solarstrahlung zeigt einen starken Ausschlag etwa alle 11 Jahre, die Temperatur aber nicht.

Im nächsten Beitrag wollen wir das Solarmodell konstruieren, beginnend mit einem Kerbfilter.

Link: http://joannenova.com.au/2014/06/big-news-part-ii-for-the-first-time-a-mysterious-notch-filter-found-in-the-climate/

Anm. d. Übers.: Es folgen jetzt noch einige technische Einzelheiten, die man sich gerne im Original anschauen möge. Dieser Beitrag ist offenbar einer in einer neunteiligen Reihe. Die alle zu übersetzen schaffe ich nicht, das würde auch zu weit führen. Hier gibt es jedoch eine Zusammenfassung aller neun Artikel, die hier in deutscher Übersetzung folgt:

The Notch-Delay Solar Theory

Eine neue Theorie zeigt, dass natürliche Einflüsse die jüngste globale Erwärmung erklären können. Die Theorie wird derzeit der Welt vorgestellt in einer Reihe von Blogbeiträgen auf dem Blog von Joanne Nova.

Teil I: historische Entwicklung – Einführung eines neuen solaren Klimamodells (hier)

Teil II: Zum ersten Mal – ein mysteriöser Kerbfilter beim Klima wurde gefunden. Falls die jüngste globale Erwärmung fast durchweg mit der Sonneneinstrahlung verknüpft war und keine Abhängigkeit von CO2 besteht – welches solare Modell würde dies abbilden können? Wir wollen dieses Modell konstruieren. Wir nehmen an, dass das System von der Gesamt-Sonneneinstrahlung (TSI) zur Temperatur linear und invariant ist. Also verwendeten wir Sinuskurven und Frequenzen für die Analyse. Die TSI erreicht alle 11 Jahre einen Spitzenwert, doch gibt es keinen korrespondierenden Spitzenwert bei der Temperatur, was unerwartet kommt. Dies impliziert, dass es einen natürlichen Kerbfilter  gibt, der das 11-jährige ‚Brummen‘ von der Sonne herausfiltert [siehe Übersetzung oben inkl. Link).

Teil III: Die Kerbe bedeutet eine Verzögerung. In der Literatur gibt es viele unabhängige Ergebnisse hinsichtlich einer Verzögerung um 11 Jahre zwischen Änderungen der Solarstrahlung und einer korrespondierenden Auswirkung auf die Temperaturen der Erde, und ohne eine Verzögerung ist kaum zu verstehen, wie solare Änderungen viel Einfluss auf die Temperatur an der Erdoberfläche haben können (z. B. Lockwood und Fröhlich 2007). Die Möglichkeit einer Verzögerung ist hoch, so dass wir sie in unser Solarmodell eingehen lassen (Ursprünglich hatten wir gedacht, dass eine Kerbe in einem linearen invarianten System notwendigerweise die Existenz einer damit verbundenen Verzögerung impliziert. Später stellte sich jedoch heraus, dass dies nicht der Fall war). Das Klimasystem gleicht einem Eimer voll Wärme, wobei unreflektierte Solarstrahlung oben hineinfließt und Abstrahlung in den Weltraum aus einem Loch im Boden erfolgt. Dieser Mechanismus hat dieselbe Gleichung wie ein Low-Pass-Filter in unserem Solarmodell, um das thermische Beharrungsvermögen des Klimasystems nachzuahmen (hier).

Teil IV: Ein großer Schritt zum Verständnis der 11-jährigen solaren Verzögerung. Physikalische Interpretation der Kerbe und der Verzögerung. Die Verzögerung ist eine echte Verzögerung, nicht bloß eine Zeitkonstante eines dissipativen Elementes wie die Speicherung ozeanischer Wärme. Soweit wir wissen, hat nichts auf der Erde ein vieljähriges Gedächtnis, aber ein Sonnenflecken-Zyklus hat eine mittlere Länge von 11 Jahren. Die Kerbe zeigt, dass es eine ausgleichende Kraft geben muss, der die TSI-Spitzen in der Temperatur wegbügelt. Diese Kraft muss synchron mit der Sonne laufen. Es ist wichtig, sich nicht im Vorhinein festzulegen, welcher Art dieser Einfluss ist, so dass wir sie hier vorläufig „Kraft X“ nennen wollen. … Obwohl wir die Existenz dieser Kraft in den Datensätzen wiederfinden und wir deren relevante Eigenschaften kennen, wissen wir im jetzigen Stadium nicht, was Kraft X ist (hier)

Teil V: Entweichende Wärme. Die drei-Kanäle-Theorie und der RATS-Vervielfältiger. Der Low-Pass-Filter ergibt die Änderungen der effektiven Temperatur, mit der die Erde in den Weltraum abstrahlt. Die korrespondierenden Änderungen der Temperatur auf der Erde im Zeitmaßstab von einem Jahr oder mehr kann mit einem sehr einfachen Modell berechnet werden, dem RATS-Vervielfältiger (hier)

Teil VI: Konstruktion eines neuen Solar-Klimamodells mit dem Kerbfilter. Der Kerbfilter, ein Verzögerungs-Filter, der Low-Pass-Filter und der RATS-Vervielfältiger werden in der korrekten Reihenfolge arrangiert. Es zeigt sich, dass die Kerb- und Verzögerungs-Filter die Albedo der Erde modulieren – wie viel Solarstrahlung wird in das Klimasystem eingelassen nach Reflektionen durch Wolken, Eis, Schnee und so weiter. Der unmittelbare Weg für TSI-Änderungen, die die Erde direkt erwärmen, wird hinzugefügt, und damit ist das Modell komplett. Die Einschwingphase des Modells wird untersucht (hier)

Teil VII: Nachhersage mit dem Solarmodell. Das Kerbfilter-verzögerte Solarmodell spiegelt die Temperaturen von 1770 bis 2013 ziemlich gut, platziert es doch die wesentlichen Wendepunkte etwa an den richtigen Stellen, einschließlich des „Stillstands“. Es reproduziert auch einige der kurzfristigen Schwankungen, bekannt als „natürliche Klimavariation“, was das CO2-Modell überhaupt nicht kann, weil der CO2-Gehalt gleichmäßig steigt. Das Kerbfilter-verzögerte Solarmodell ist ein quantifiziertes, physikalisches Modell – nicht bloß über den Daumen gepeilt, ohne eine grobe Berechnung, Kurvenanpassung oder unerklärte Korrelationen. Seine Existenz zeigt, dass die globale Erwärmung der letzten beiden Jahrhunderte hauptsächlich mit der TSI und nicht CO2 in Verbindung stehen könnte. Dies überführt einen der felsenfesten Glaubensgrundsätze zur anthropogenen globalen Erwärmung, nämlich dass die jüngste globale Erwärmung ausschließlich über das CO2 erklärlich ist. Die Kerbfilter-Verzögerungs-Theorie bietet eine zweite, alternative Lösung für das Klimaproblem [so es ein solches gibt, Anm. d. Übers.]. Klima ist nicht länger ein „einseitiges Rennen“, das einen darauf begrenzt, entweder die CO2-Theorie zu unterstützen oder sich auf deren Schwächen zu konzentrieren (hier).

Teil VIII: Die neue Solartheorie sagt eine unmittelbar bevorstehende globale Abkühlung voraus. Es gab drei große Rückgänge der Solarstrahlung während der 400 Jahre, aus denen Aufzeichnungen vorliegen. Der erste im 17. Jahrhundert führte zum Maunder-Minimum, der kältesten Periode der letzten 400 Jahre. Der zweite ereignete sich zu Napoleons Zeiten und führte zum Dalton-Minimum, der zweitkältesten Periode der letzten 400 Jahre. Der dritte begann im Jahre 2004, führte aber nicht zu einer Abkühlung… bisher jedenfalls. Die Kerbfilter-Verzögerungs-Theorie (ND) sagt, dass der Abfall der TSI-Signale ein Abfall der Kraft X ist, die nach einer Verzögerung wirksam wird, die 11 Jahre zu dauern scheint. Der Temperatur-Abfall wird also vermutlich 2004 + 11 Jahre = 2015 beginnen. Aber die Verzögerung ist an die Länge des Sonnenzyklus‘ gekoppelt, so dass die Abkühlung eher 2004 + 13 Jahre = 2017 beginnen wird. Die Abkühlung wird mindestens 0,2°C, vielleicht 0,5°C betragen, das wäre ausreichend, um die globale Erwärmung bis auf das Niveau des Jahres 1950 zurückzuschrauben. Kohlendioxid und ND-Solartheorie stimmten während des letzten Jahrhunderts überein, weil der CO2-Gehalt und die Sonneneinstrahlung parallel gestiegen waren, aber inzwischen divergieren sie scharf. Nur eine kann richtig sein, und bald werden wir wissen welche. Hier ist das Kriterium: Ein Rückgang von mindestens 0,1°C (auf 1-jähriger geglätteter Basis) der globalen mittleren Temperatur während des nächsten Jahrzehnts. Wird das Kriterium nicht erfüllt, ist die ND-Solartheorie Unsinn und sollte verworfen werden. Falls es doch dazu kommt, ist die CO2-Theorie Unsinn und sollte verworfen werden [da habe ich Zweifel, wenn das so sein sollte: Glaubenssätze werden von denjenigen, die damit Macht ausüben, sicher nicht weggeworfen, egal wie sehr sie Müll sind! Anm. d. Übers.] (hier)

Hinweis des Übersetzers: Diesen Teil 8 fand der Autor so bedeutsam, dass er ihn im Original rot gesetzt hat. Die Website-Textverarbeitung gibt das aber nicht her, weshalb der Abschnitt kursiv gesetzt ist.

Teil IX: Das Solarmodell! Die Tabelle mit allen Daten, dem Modell und den Berechnungen, alle in einer Excel-Datei, sind zum Download verfügbar, und zwar hier.

Link zu dieser Zusammenfassung: http://sciencespeak.com/climate-nd-solar.html

Alles übersetzt von Chris Frey EIKE




Umweltproblem Offshore Windpark

Langsam setzt sich auch beim größten Naturschutzverband NABU diese Erkenntnis durch und er bemüht nun die Gerichte. Nun streiten sich auch noch die Behörden, wer verantwortlich für dieses Desaster ist. Das Pikante: 2002 begutachtete des SH-Planungsbüro „Bio Consult“ den Windpark als „verträglich“ mit den Natura-2000-Richtlinien der EU, Inhaber von Bio Consult ist Dr. Nehls, damals stellv. NABU-Vorsitzender des NABU in SH:

* Offshore-Windkraftstandort „Butendiek“ / SH Ungereimtheiten beim Genehmigungsverfahren http://www.wattenrat.de/wind/wind12.htm

Darüber berichtete der Wattenrat bereits vor zwölf Jahren!

Nun, wo das Kind (oder Wal) in den Brunnen gefallen ist, wird der NABU aktiv. Aber auch andere Windparks in der Nordsee vertreiben oder schädigen Schweinswale, und ALLE Umweltverbände halten immer noch an den mit der Offshore-Industrie vereinbarten Schallgrenzwerten von 160 Dezibel (Artillerieabschus in unmittelbarer Nähe) 700m von den Rammstellen entfernt als „Kompromiss“ fest! Wie hoch sind die Lärmwerte direkt an der Baustelle?

Wattenrat-Links:

* Offshore-Windpark “Butendiek”: zweimal NABU

http://www.wattenrat.de/2014/02/19/offshore-windpark-butendiek-zweimal-nabu/

* Schweinswale und Windenergie: vereint gegen Schallschutzkonzept

http://www.wattenrat.de/2013/08/18/schweinswale-und-windenergie-vereint-gegen-schallschutzkonzept/

http://www.nabu.de/themen/meere/windparks/16939.html

Butendiek: Lärm vertreibt Schweinswale

Behörden-Hick-Hack wird zur Katastrophe für Deutschlands einzige heimische Walart

16. Juli 2014 – Deutschlands einzige heimische Wal-Art, der Schweinswal, flieht vor dem Baulärm des Offshore-Windparks Butendiek. Das zeigen aktuelle Flugbeobachtungen aus dem Sylter Außenriff. Für gewöhnlich halten sich hier im Juni die Schweinswale auf, um ihre Kälber aufzuziehen. Doch dieses Jahr wurden deutlich weniger Tiere gezählt als im Vorjahr. „Damit wird unsere größte Befürchtung zur traurigen Gewissheit: Der Baulärm des Windparks hat die Wale aus dem für sie eingerichteten Schutzgebiet vertrieben – und das mitten in ihrer Fortpflanzungszeit“, sagte NABU-Bundesgeschäftsführer Leif Miller. „Das wollten wir mit unserer Klage am Verwaltungsgericht Köln verhindern. Doch anstatt Verantwortung zu übernehmen, ringen die Behörden seit Monaten um Zuständigkeiten und versuchen, unsere Klage mit allen Mitteln zu behindern“, so Miller weiter.

Im Auftrag des Bundesamtes für Naturschutz führt die Tierärztliche Hochschule Hannover regelmäßig fluggestützte Schweinswalzählungen in der deutschen Nordsee durch. Die aktuellen Karten zeigen, dass fast jeder zweite Schweinswal aus dem FFH-Schutzgebiet Sylter Außenriff verschwunden ist. Besonders alarmierend ist die geringe Anzahl von Mutter-Kalb-Paaren, die sonst typisch für diese Jahreszeit sind. Im Radius von mehreren Kilometern um das Baugebiet des Windparks wurden während zweier Überflüge überhaupt keine Wale gesichtet. „Butendiek liegt mitten im FFH-Schutzgebiet, in der Kinderstube des Nordsee-Schweinswals“, kritisierte NABU-Meeresexperte Kim Detloff. 


„Trotzdem wurden die ohrenbetäubenden Rammungen vorsätzlich in die Fortpflanzungszeit von Mai bis August gelegt. Diese naturschutzpolitische Ignoranz vonseiten der Betreiber und der Behörden ist unfassbar. Schweinswale sind nach nationalem und europäischem Recht streng geschützt“, sagte Detloff.

Im April hatte der NABU auf Grundlage eines eigenen Rechtsgutachtens Klage nach Umweltschadensgesetz am Verwaltungsgericht Köln eingereicht. Angeklagt ist die Bundesrepublik Deutschland, vertreten durch das Bundesamt für Naturschutz (BfN). Das BfN jedoch lehnt die Verantwortung ab und verweist auf die rechtliche Zuständigkeit des Bundesamtes für Seeschifffahrt und Hydrografie (BSH), der Genehmigungsbehörde für Offshore-Windparks. Seitdem streiten sich die Juristen um die tatsächliche Verantwortlichkeit von BfN und BSH.

Um die Entscheidungsfindung zu beschleunigen, muss der NABU nun zwei getrennte Verfahren führen: zum einen die Klage auf Vermeidung weiterer Umweltschäden gegen das BSH am Verwaltungsgericht Hamburg, zum anderen die Klage gegen das BfN auf Sanierung des bereits eingetretenen Schadens am Verwaltungsgericht Köln. „Wäre das Thema nicht so traurig, könnte man über diese Posse nur den Kopf schütteln.

Doch die beiden zuständigen Behörden spielen auf Zeit und verweigern die inhaltliche Auseinandersetzung. Gleichzeitig geschieht im Sylter Außenriff eine ökologische Katastrophe“, warnte Detloff. Inzwischen fordert das BSH sogar das BfN zur Stellungnahme für das Hamburger Verfahren auf. „Das macht nicht nur die Verwirrung komplett, sondern zeigt auch, wie sehr sich die Behörden vor ihrer Verantwortung scheuen“, so der NABU-Meeresexperte.

Die nebulöse Umsetzung der europäischen Umwelthaftungsrichtlinie mit unklarer Zuständigkeit ist nach NABU-Meinung ein Fall für den Europäischen Gerichtshof (EuGH). „Die Splittung der Zuständigkeiten für das deutsche Umweltschadensgesetz entspricht ganz sicher nicht der Intention der europäischen Gesetzgebung“, sagte Kim Detloff. „Den Schweinswalen im Baugebiet Butendiek hilft eine Entscheidung des EuGH vermutlich nicht mehr. Aber möglicherweise kann noch der Schaden für die ebenfalls streng geschützten Seevögel im Baugebiet abgewendet werden, etwa für die Stern- oder Prachttaucher“, so Detloff.

Gleichzeitig erhofft sich der NABU von den Klagen in Hamburg und Köln, dass zukünftige Genehmigungsverfahren für Offshore-Parks den Anforderungen des geltenden Naturschutzrechts entsprechen.

Mit Dank an Leser Dr. Zielinski




Große Transformation – Rückwärtssehnsucht nach einer statischen Welt!

Sie alle kennen die „Neolithische Revolution“, die „Industrielle Revolution“, die „Französische Revolution“, die „Russische Revolution“, auch „Große Oktoberrevolution“ genannt, und die „Kultur-Revolution“ von 1968. Revolution bedeutet Umwälzung zum Positiven als auch Umsturz, der meist blutig verläuft und das „Schreckensbild an die Guillotine“ wachruft. Wer Systeme umstürzen will, muss nach unverfänglicheren Begriffen suchen, die keine Abscheu sondern Sehnsüchte wecken, wie die „Große Transformation“. Dahinter kann man alles verbergen und unendliche Wunschträume wecken, insbesondere nach einer heilen, paradiesischen Welt der allgemeinen Glückseligkeit und Gleichheit, wie sie Marx und Engels 1848 im „Kommunistischen Manifest“ vorschwebte.

Solche strategischen Gedankenspiele gelingen am besten, wenn man vorher die Welt in Angst und Schrecken versetzt, ihr die nahende Apokalypse vor Augen geführt hat. Dies passierte 1986 mit der „Warnung vor der drohenden Klimakatastrophe“, bei der zugleich jeder Einzelne in die moralische Pflicht genommen wurde, sich zum „Klimaschützer“ und damit zum „Weltretter“ zu erheben. Wer sich aktiv dazu bekannte, konnte sich über die Anderen erheben, sich als „Gutmensch“ brüsten. Mit derartigen psychologischen Tricks wurde die Masse zu „Klimarettern“ und kettete sich widerstand- und widerspruchlos an den Nasenring der „Klimaexperten“ wie der „Klimapolitiker“. Es wurden als jährliche Schauveranstaltungen „Weltklimagipfel“ unter Leitung der Vereinten Nationen in Gestalt des Weltklimarates IPCC inszeniert, Leitfiguren mit „Friedensnobelpreisen“ ausgezeichnet oder zu „Klimapäpsten“ erhoben.

Nachdem der ewige Klimaschutzappell nicht mehr richtig zog und sich auch mehr und mehr die Angst vor der Klimakatastrophe verflüchtigte, weil alle Prognosen schief lagen und das Wetter partout nicht mitspielte, wurde der „Klimawandel“ zum Schreckgespenst gemacht. Lange Jahre galt die Parole, dass seit der letzten Eiszeit vor gut 10 000 Jahren das Klima konstant gewesen sei, bis dieses von den „reichen“ Industriegesellschaften destabilisiert und aus dem „Gleichgewicht“ gebracht worden sei. Dieser unheilvolle „Klimawandel“ müsse gestoppt und eine globale Güterumverteilung inszeniert werden. Man verabschiedete sich klammheimlich von dem unbotmäßigen und ungehorsamen Wetter, das man ursprünglich zähmen wollte, und erklärte den „Wandel an sich“ zum Feind der Menschheit. Mit der „Großen Transformation“ ist ein weltweites Umerziehungsprogramm in Gang gesetzt worden, denn ohne vorherigen Bewusstseinswandel kann man keinen „Klimawandel“, der im Wortsinn ein „Neigungswandel“ ist, emotional unters Volk bringen.

Kann die Welt jemals in einen statischen Zustand versetzt werden?

Paul Hubschmid (1917-2002) hat einmal festgestellt: „Besserwisser sind meistens Schlechtermacher“. Wer eine Revolution oder Transformation will, muss zuerst die gegenwärtigen Zustände schlecht reden, um dann eine bessere Zukunft herbeireden zu können. Wer den „Klimawandel“ stoppen will, muss den „Wandel an sich“ schlecht reden und als gefährlich darstellen. Doch ist der Wandel schlecht oder ist er nicht völlig natürlich? Sind wir von Natur aus nicht Wanderer und wandeln durch die Welt, uns ständig von der Geburt bis zum Tode wandelnd und verändernd?

Sie alle kennen Sätze wie: „Alles fließt!“ – „Nichts ist so beständig wie der Wechsel!“ – „Wir steigen in denselben Fluss und doch nicht in denselben!“ – „Alle Dinge sind im ewigen Fluss, im Werden, ihr Beharren ist nur Schein!“ – „Die einzige Konstante im Universum ist die Veränderung!“ – „Viel Wissen bedeutet noch nicht viel Verstand!“ – „Eigendünkel ist Rückschritt des Fortschritts!“ Alle diese Lebens-Weisheiten stammen von Heraklit von Ephesos (535-475 v. Chr.), einem ionischen Naturphilosophen, von dem das „Bild vom Atom“ als Elementarbaustein aller Materie stammt.

Auch der Philosoph Platon (428-348 v. Chr.) stellte fest: „Alles bewegt sich fort und nichts bleibt!“ Alles lebt mit der Zeit, unterliegt dem „Zeitpfeil“ und verändert sich mit der Zeit. In der Natur gibt es keinen Stillstand, nur Wandel und Veränderung. Heraklit war ein Repräsentant der Dynamik der Natur. Alles Sein ist nicht statisch, sondern in ewigem Wandel und damit dynamisch zu denken.

Doch zu jeder These gibt es einen Antagonismus, die Antithese, die Gegnerschaft, den Widerstreit, nach Immanuel Kant „die ungesellige Geselligkeit“, die Gegensätze in der Gesellschaft. Die Antithese zu Heraklit formulierte Parmenides aus Elea (520-460 v. Chr.), der das Prinzip der Unveränderlichkeit, der außer der Zeit stehenden Ewigkeit, der Statik vertrat. Parmenides sah in der Vielfalt der äußeren Natur, welche die Sinne betrachten, das Unwahre, Täuschende und dagegen in der Einheit, dem Unvergänglichen, das der Gedanke ergreift, allein das Wahre. Doch wir können die Zeit weder aus der Natur noch unserem Leben eliminieren. Und das macht das Leben spannend, zu einer ewigen Herausforderung. Die „Klimaexperten“ sind die modernen Protagonisten des Parmenides, doch was sie wecken, sind nichts als Illusionen einer „heilen“ aber nie heil gewesenen Welt. Sie bewegen sich außerhalb jedweden Naturverständnisses, wie die permanente Beschäftigung mit der Fiktion „Erforschung mit den Folgen des Klimawandels“ klar zeigt.

Dennoch lieben wir Menschen als „träge Masse“ die Vorstellung von einem „statischen Dasein“ der Zufriedenheit und des Wohlergehens, wie es von der Politik permanent propagiert und versprochen wird. Auf diesem psychologischen Fundament ruht die These von der „Großen Transformation“. Doch die Natur richtet sich nicht nach unseren Wünschen! Dies gilt insbesondere vom Wetter, das macht, was es will, weil es dynamisch und damit vom Verhalten her chaotisch ist. Der Wunsch, den Augenblick und damit die Zeit festhalten zu wollen, ist eine gedankliche Illusion.  

Die „Große Transformation“ (1) und der „Tragödie zweiter Teil“

Der Höhenflug menschlicher Gedanken erhebt sich gerne über die Realitäten der Natur und hält nach möglichen Paradiesen Ausschau. Diese wandeln sich etwas mit der Zeit, dem historischen Umfeld, beruhen aber immer auf einer Vorstellung von der Erde als einem statischen „Schlaraffenland“.

Im Faust II. von Johann Wolfgang von Goethe (1749-1832) ist die Gefahr beschrieben, in die wir uns begeben, wenn wir Illusionen oder Wunschvorstellungen bedingungslos erliegen: „Werd ich zum Augenblicke sagen: Verweile doch! Du bist so schön! Dann magst du mich in Fesseln schlagen. Dann will ich gern zugrunde gehen. Dann mag die Totenglocke schallen, dann bist du deines Dienstes frei. Die Uhr mag stehen, der Zeiger fallen, es sei die Zeit für mich vorbei!“ Wann werden das PIK und der WBGU ihres unglückseligen Dienstes entbunden und wir befreit, uns wieder dynamisch zu entfalten, angstfrei zu leben?

Oppenheim, im Juli 2014; Dipl.-Met. Dr. phil. Wolfgang Thüne

(1) Wer sich um eine gut dotierte Stelle beim WBGU zur Vorbereitung der "großen Transformation" bewerben will möge die Stellenausschreibung des WBGU im Anhang herunterladen.

Einführungstext dort:

S t e l l e n a u s s c h r e i b u n g

Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU)

Für unsere Geschäftsstelle in Berlin-Mitte suchen wir zum nächstmöglichen Zeitpunkt eine/n

Wissenschaftliche/n Mitarbeiter/in

Politikwissenschaft/Global Governance

Die vollständige Stellenausschreibung ist in der Anlage (PDF) enthalten.

Related Files




Frau Merkel, Sie wollen den CO2-Ausstoß verringern?

Dummerweise kostet die Energiewende schmerzhaft mehr

Merkels „Energiewende“ bedeutet, wie Sie wissen: weg von der Stromerzeugung mit fossilen Energieträgern (Kohle, Erdgas, Erdöl), weg auch mit der Kernenergie (Uran) und hin zur Stromerzeugung mit Wind, Sonnenschein und pflanzlichen Stoffen. Alle drei Energieträger werden fälschlich „erneuerbare Energien“ genannt und der Strom daraus „Ökostrom“. Zutreffend sind sie alternative und unzuverlässige Energien zu nennen und der Strom aus ihnen Flatterstrom. Außerdem ist diese Energiewende, präziser gesagt, eine Stromerzeugungswende. Aber dummerweise kostet das Erzeugen von elektrischem Strom aus alternativen Energieträgern schmerzhaft mehr als aus fossiler Energie und aus Kernenergie.

Eine ziemlich unbekannte, aber grundlegende Untersuchung aus der Uni Stuttgart

Das ist zwar hinlänglich bekannt, kaum dagegen eine grundlegende Untersuchung dazu, die aus der Universität Stuttgart stammt (hier). Dort hat eine Arbeitsgruppe (S. Wissel et al.) die Herstellkosten für die verschiedenen Verfahren der Stromerzeugung nach den Regeln der Betriebswirtschaftslehre berechnet. Von Bedeutung dabei ist dies: Die Kosten sind – einheitlich bei allen Verfahren – für Neuinvestitionen berechnet (also nicht für schon bestehende Anlagen) und zwar so, als würden sie im Jahr 2015 stattfinden. Auf diese Weise hat die Wissel-Arbeitsgruppe, als sie im Jahr 2010 die Berechnungen anstellte, abgeschriebene Anlagen aus dem Kostenvergleich herausgehalten und verwirrende Diskussionen über die Höhe der Abschreibungskosten damit vermieden.

Ökostrom erzeugen kostet drei- bis siebenmal so viel wie Strom aus Braunkohle

Nach diesen Berechnungen kostet das Erzeugen von Strom aus Windenergie 11,8 bis 14,6 Cent je Kilowattstunde, für Strom aus Solarenergie (Sonnenschein, Fotovoltaik) 27,7 bis 31,8 Cent und Strom aus der Energie der Braunkohle 3,7 Cent je Kilowattstunde. Strom aus Windkraftanlagen ist also dreimal so teuer wie der aus einem Braunkohlekraftwerk und der Strom aus den Fotovoltaik-Anlagen siebenmal so viel. Ihn freiwillig zu kaufen, würde jeder für Blödsinn halten. Folglich wird dieser Strom in Deutschland subventioniert und zugleich mit staatlichem Abnahmezwang ins Netz gedrückt. Die Subvention, die sogenannte EEG-Umlage, müssen die Stromverbraucher zahlen.

Ein schwerwiegender Irrtum

Allerdings wollen die Flatterstrom-Befürworter und dessen Profiteure die Subventionierung nur als Anschubfinanzierung verstanden wissen. Daher behaupten sie, die fossilen Energieträger würden künftig immer knapper werden, folglich im Preis steigen und die Herstellkosten für den Strom daraus die Ökostrom-Herstellkosten übertreffen. Das ist nicht nur deswegen ein Irrtum, weil fossile Energieträger über hunderte und tausende von Jahren zur Verfügung stehen (hierhier und hier), aber vor allem ein schwerwiegender und wesentlicher Irrtum, weil die Ökostrom-Befürworter ein physikalisches Gesetz nicht kennen. Es heißt Kosten-Energie Äquivalenz-Gesetz (KEÄG).

Alles geht nur mit Energie

Auch Sie kennen dieses Gesetz nicht? Ist nicht schlimm, denn ich kannte es ebenfalls nicht. Doch hat mir jemand auf die Sprünge geholfen. Aber um das Gesetz zu erläutern und zu verstehen, muss ich etwas ausholen. Die Ausgangsüberlegung beginnt so: Alles menschliche Tun benötigt Energie. Was immer Menschen verrichten, sie müssen dafür Energie aufwenden. Um sich zu bewegen, um etwas herzustellen, überhaupt um zu leben, geht das nur mit Energie. Selbst um denken zu können, müssen sie zuvor Energie getankt haben, indem sie essen und trinken. Aber Essen und Getränke sind herzustellen, sind zu besorgen, sind zu transportieren, sind zu verteilen. Auch dafür wird Energie benötigt.

Abbildung 1: In Deutschland durch NIE (Nachhaltig Instabile Energien) erzeugte Elektroenergie in TWh und gleichzeitigrt CO2 Ausstoß von fossilen Kraftwerken in Mio t. Ein Einfluss der NIE auf den CO2 Ausstoß ist nicht feststellbar. Bild EIKE, Daten Statista

Nehmen wir als Beispiel unser täglich Brot

Um es anschaulicher zu machen: Nehmen wir als Beispiel unser täglich Brot. Wir essen es nicht nur, weil es uns schmeckt, sondern weil wir etwas zum Essen brauchen; unser Körper will stets versorgt sein, damit er funktioniert und uns am Leben hält. Brot also hilft daran mit, dass wir leben können. Aber bevor es vor uns auf dem Teller liegt, muss es gebacken werden. Der Backofen dafür lässt sich nur mit Energie erhitzen, zum Beispiel mit elektrischer Energie (gewonnen zum Beispiel aus Kohle, Erdöl oder Erdgas, also fossiler Energie) oder mit Strom aus Wasserkraft, Windkraft, Sonnenlicht oder „Biogas“ mittels Pflanzenmasse-Vergärung (letztlich alles Sonnenenergie) oder einem Holzfeuer (pflanzliche Energie, die sich letztlich ebenfalls aus der Sonnenenergie speist).

Die ganze Produktionskette von Brot ist eine Energiekette

Der Backofen musste gebaut werden. Er setzt sich aus Teilen zusammen, die ebenfalls herzustellen waren. Der Ofen musste von dort, wo er gebaut wurde, dorthin transportiert werden, wo er backen sollte. Zuvor waren seine Bauteile zum Ort seiner Herstellung zu transportieren gewesen. Ebenso hat das Brot eine Produktions- und Transportkette durchlaufen: erst das Saatgut, dann dessen Aussaat, zuvor und zwischendurch die Pflege des Ackers, das Düngen, die Schädlingsbekämpfung, dann das Ernten mit dem Mähdrescher, der Korntransport zur Mühle, das Mahlen, der Transport des Mehls zum Bäcker, das Herstellen des Brotteiges. Hergestellten werden mussten auch der Teller, der Strom, die Elektrizitätswerke, die Windkraftanlagen, die Solarzellen, die Transportmittel, das Saatgut die Ackergerätschaften, der Dünger, die Schädlingsbekämpfungsmittel, die Mühle, deren Bauteile …. Und nichts davon war ohne den Einsatz von Energie möglich. Alles, alles geht nur mit Energie. Diese Energie beziehen wir global weit überwiegend (zu über 90 Prozent) aus fossilen Rohstoffen.

Alle Kosten sind letztlich Energiekosten

Man sieht also: Sämtliche Kosten, die durch menschliches Tun und menschliche Bedürfnisse entstehen, lassen sich letztlich auf den dafür notwendigen Einsatz von Energie zurückführen. Das heißt, alle Kosten sind letztlich Energiekosten. Das ist wie ein Gesetz. Und es ist nicht nurwie ein Gesetz, sondern es ist ein Gesetz, ein physikalisches Gesetz. Einem solchen Gesetz kann sich der Mensch nicht entziehen, er muss es hinnehmen. Weil also alle Kosten = Energiekosten sind, also zwischen Kosten und Energie eine Gleichwertigkeit (Äquivalenz) besteht, heißt dieses Gesetz das Kosten-Energie-Äquivalenzgesetz (KEÄG). Formuliert hat es Heinz Schütte. Er hat ihm auch diesen Namen gegeben. Genau erklärt ist es hier und hier. Heinz Schütte (Jahrgang 1939), ist promovierter Chemiker, hat auch Physik und Pharmakologie studiert.

Sind auch die Entsorgungskosten von Kraftwerken berücksichtigt?

Was antwortet Schütte auf die Frage, ob die Entsorgungskosten von Kraftwerken in die Kosten- und CO2-Rechnung in die KEÄG-Überlegungen einbezogen sind? Seine Antwort: „Diese Frage ist in der ‚Wissel-Arbeit’ klar beantwortet: Sämtliche Kosten – wirklich sämtliche!! – sind in der ‚Wissel-Arbeit’ korrekt berücksichtigt. Damit sind selbstredend auch die Entsorgungskosten und der daraus resultierende CO2-Anfall für alle Kraftwerkstypen vergleichbar enthalten.

Die Schlussfolgerungen aus dem Kosten-Energie-Äquivalenz-Gesetz

Aber was bedeutet das KEÄG für die „alternativen Energien“, wenn diese – so lautet bekanntlich das politisch erklärte Ziel – bei der Stromerzeugung CO2 einsparen und damit das „Klima schützen“ sollen? Dieses Gesetz definiert nämlich die Kosten anders als gewöhnlich, und Heinz Schütte zieht daraus diese Schlussfolgerungen:

Auch die Flatterstrom-Kosten resultieren aus dem Verbrauch von Kohle, Öl und Gas

„Die weltweit auftretenden Kosten sind Kosten für Wirtschaftswerte, die in der Vergangenheit durch den Einsatz der Primärenergieträger geschaffen worden sind. Zu diesen Werten gehören Immobilien, Produktionsanlagen, Fahrzeuge, langlebige Gebrauchsgüter, Haushaltsausstattungen, Versicherungen, Sparguthaben, nicht zu vergessen das monetäre Gesamtvolumen der Weltwährungen und vieles mehr. Obwohl sich die Zusammensetzung der Primärenergieträger – Kohle/Öl/Gas – seit dem 2. Weltkrieg verändert hat, bestanden die Primärenergieträger stets und ununterbrochen zu mehr als 90 Prozent aus kohlenstoff-haltigen Fossilien.“ Das, so Schütte, sei auch heute noch so. Durch ihren physischen Einsatz in die Wertschöpfungskette werde ihre äquivalente Menge an CO2 in die Atmosphäre abgegeben. Damit bestünden die heutigen weltweiten Kosten zu über 90 Prozent aus dem Verbrauch von Kohle, Öl und Gas. Folglich resultierten die Kosten für Strom aus “alternativen Energien” ebenfalls zu über 90 Prozent aus dem Verbrauch dieser drei fossilen Energieträger – so, wie auch alle anderen weltweit auftretenden Kosten.

Für weniger CO2 wären zuerst die „Ökostrom“-Anlagen abzuschalten

Da aber die Stromerzeugung mit Wind dreimal so viel kostet wie die mit Braunkohle und die mit Sonnenschein siebenmal so viel, bedeutet das in der Schlussfolgerung von Schütte, dass Windkraftstrom demnach das 3-fache und Fotovoltaik-Strom das 7-fache an Kohle, Öl und Gas verbraucht, als ein Braunkohlekraftwerk benötigt. Dementsprechend betrage die CO2-Emission bei Windrädern das 3-fache und bei Fotovoltaik-Anlagen das 7-fache der CO2-Emissionen eines Braunkohlekraftwerks. Würde also das Klima wirklich durch Reduktion von CO2 „geschützt“ werden, so werde durch die Umstellung auf “alternative Energien” exakt das Gegenteil erreicht. Oder noch verblüffender ausgedrückt: Wenn denn der CO2-Ausstoß verringert werden soll, dann müssen als erstes die „Ökostrom“-Anlagen abgeschaltet werden, nicht die Braunkohle-Kraftwerke.

Höhere Kosten für fossile Energie machen „Ökostrom“ nicht wettbewerbsfähiger

Schütte weiter: Die ständige Verkündung, steigende Kosten für Kohle, Öl und Gas würden die Kostenstruktur zugunsten der dann kostengünstigeren Ökostrom-Anlagen umkehren, stelle sich als fundamentaler Irrtum heraus, denn auch in absehbarer Zukunft werde der Löwenanteil der Primärenergie weiterhin aus Kohle, Öl und Gas bestehen. Wenn also die Kosten für diese fossilen Energieträger stiegen, dann würden sich, weil das KEÄG gelte, zwangsläufig auch die Kosten für die „Erneuerbaren Energien“ (EE) erhöhen. Abhilfe sei nur dann zu erwarten, wenn es gelänge, die technische Effizienz der EE-Produktionsverfahren zu steigern. Dafür notwendig sei eine Effizienzsteigerung um den Faktor 3 und 7. Die aber sei – wegen der schon erreichten technischen Reife dieser Verfahren – physikalisch absolut ausgeschlossen.

Gibt es Widerlegungen?

Dass diese Überlegungen falsch oder nicht allgemein gültig sind, hat nach Schüttes Angaben noch niemand widerlegt. Auf Befragen antwortet er: „Eine seriöse Gegenargumentation ist bisher nirgends veröffentlicht worden. Das ist auch naheliegend, denn ich habe weder eine neue ‚These’ aufgestellt, noch habe ich neue, bisher nicht bekannte Gedanken oder Ideen in die Welt gesetzt. Ich habe lediglich – so, wie ich in meiner Arbeit auch ausdrücklich auf S. 141, Abs. 2, angemerkt habe – ein bekanntes, lehrbuch-gängiges, physikalisches Grundgesetz mit allgemeingültigem, wirtschaftswissenschaftlichem Basiswissen, wie es in entsprechenden Lexika enthalten ist, unter Anwendung gültiger Gesetze der Logik miteinander verknüpft. Ich habe absolut nichts ‚Neues’ erfunden.“

Eine Kritik, Schüttes Entgegnung, eine Zustimmung

Mit kritischen Äußerungen hat sich, worauf Schütte hinweist, bisher nur Dr. Manuel Frondel1) vom RWI Essen und Professor an der Ruhr-Universität in Bochum zu Wort gemeldet. Dazu hat Schütte eine Entgegnung verfasst (beides hier). Bestätigt dagegen wird Schütte von Prof. Dr. Carl Otto Weiss. Dieser schrieb am 16. April 2011 (hier): „… Für eine Einschätzung der Energie- und CO2-Verschwendung der EE muss man sich nur den Zusammenhang zwischen Energieverbrauch und Kosten vor Augen halten. Die Kosten fuer die Herstellung eines Produktes oder einer Dienstleistung sind nämlich fast ausschließlich die Kosten der Primärenergie, welche für ihre Herstellung aufgewendet werden muss. Heutzutage wird alles mit Hilfe von Energie hergestellt. …. Einwände der Art: „aber die Kosten für Kinderausbildung, Kultur, etc. sind ja auch enthalten“ sind nur scheinbar richtig. Auch diese Kosten sind letztlich nichts als Energiekosten. ….. Wenn man es konsequent zu Ende überlegt ‚besteht’ letztlich jedes Produkt/jede Dienstleistung nur aus Energie. Die Herstellungskosten geben also gerade die Energie an, welche zur Herstellung benötigt wurde. Die Erzeugungskosten von Windstrom liegen im Mittel bei ca. 8ct/kWh, also doppelt so hoch wie bei konventionellen Kraftwerken. Das bedeutet, dass für die Herstellung einer kWh Windelektrizität doppelt so viel knappe Primärenergie ( Kohle/Gas/ Öl/ Kernenergie ) erforderlich ist wie bei konventioneller Erzeugung. …“

Wind- und Solarstrom – eine sinnlose Verschwendung von Kohle, Gas und Öl

Professor Weiss verfasste am 22. Februar 2012 auch eine Einleitung zu einem Beitrag Schüttes über das KEÄG (hier). Der Titel des Beitrags lautet „Erneuerbare Energien beurteilt unter dem Aspekt des Kosten-Energie-Äquivalenzgesetzes“. Weiss schreibt: „Vor einiger Zeit argumentierte ich (hier), dass die Erzeugung von Elektrizität aus Wind- oder Sonnenenergie eine sinnlose Verschwendung von Energierohstoffen wie Kohle, Gas, Öl darstellt. Dieser Aussage lag die Vorstellung zugrunde, dass die Kosten zur Herstellung einer Ware oder Dienstleistung ausschließlich die Kosten der Energiemenge sind, welche für die Herstellung aufgewendet wird, welche also im Herstellungsprozess letztlich in Wärme umgewandelt (und als solche in den Weltraum abgestrahlt wird, damit endgültig verloren ist)… Gemäß dieser Vorstellung lassen sich die Energieverbräuche verschiedener Herstellungsverfahren einfach anhand der Herstellungskosten vergleichen, während die üblichen Berechnungen von Energieverbräuchen stets unsicher sind, da die Zurückverfolgung der Energieverbräuche bis auf die Rohmaterialgewinnung niemals im Detail möglich ist. …“

„Kosten als Energie-Äquivalent von Schütte klar nachgewiesen“

Weiss weiter: „Die Schlussfolgerung, dass Erzeugung von Elektrizität durch Wind und Sonnenenergie, angesichts von 3- bis 10-fachen Herstellungskosten, im Vergleich mit Erzeugung in konventionellen Verbrennungskraftwerken, eine gigantische Verschwendung von Primärenergierohstoffen darstellt und (wenn man denn schon mit Schädlichkeit von CO2-Emission argumentiert eine ebenso sinnlose wie gigantische CO2-Emission), wurde jedoch angezweifelt. Die zentrale Annahme, die Kosten seien ausschließlich Energiekosten, wurde in Frage gestellt. Die zentrale Vorstellung von Kosten als Energieäquivalent wurde jedoch kürzlich klar nachvollziehbar und auf naturwissenschaftlichen Prinzipien beruhend nachgewiesen von Dr. Heinz Schütte in der renommiertesten Zeitschrift der Energiewirtschaft „et-Energiewirtschaftliche Tagesfragen“ (Ausgabe 12/2011, Seite 32-37).“ Carl Otto Weiss ist Physiker und war Abteilungsdirektor an der Technischen Bundesanstalt Braunschweig und ist Autor bzw. Mitautor von weit über 200 Fachveröffentlichungen zur Laserspektroskopie. Er gehört auch zum Fachbeirat des Europäischen Instituts für Klima und Energie (EIKE).

Je teurer fossile Energie desto teurer auch der „Ökostrom“

In den „großen“ Medien war vom Kosten-Energie-Äquivalenz-Gesetz noch nichts zu lesen, aber im kleinen Mühlacker Tagblatt vor einem Jahr, jedenfalls in Form eines Leserbriefs (hier). Darin schreibt Balthasar Schmidt aus Ötisheim: „Im Dezemberheft 2011 der wissenschaftlichen Fachzeitschrift „et-Energiewirtschaftliche Tagesfragen“ wurde das „Kosten-Energie-Äquivalenzgesetz“ veröffentlicht, welches durch Anwendung eines naturwissenschaftlichen Grundgesetzes auf elementare Zusammenhänge des Wirtschaftsgeschehens hergeleitet wurde: ‚Ausnahmslos sämtliche im Weltwirtschaftssystem auftretenden Kosten sind zu 100 Prozent reine Energiekosten.’ Da bisher kein ernstzunehmender Wissenschaftler dieses Gesetz mit anerkannten Fakten und Argumenten widerlegt hat, besitzt es uneingeschränkte Gültigkeit. Die Aussagen von Politikern aller Couleur, die Energiewende sei die langfristige Garantie dafür, dass die Preissteigerungen aufhören, muss man als haltlosen Unfug ins Reich der Märchen verweisen. ‚Erneuerbare Energien’ werden mit steigenden Kosten fossiler Energien eben nicht kostengünstiger, sondern teurer, da ihre Kosten zu 100 Prozent aus Kosten für fossile Energien bestehen. …“

„So einfach sind die Zusammenhänge“

Leserbriefschreiber Schmidt weiter: „Bisher war es für die Protagonisten der „Energiewende“ relativ einfach, dem Volk einzureden, dass die anfangs sehr hohen Kosten für „Erneuerbare Energien“ sich schon bald durch Kostendegression auf ganz normale Weise auf ein vertretbares Maß reduzieren würden. Diese unzutreffende Begründung kann man der Öffentlichkeit indes nur so lange verkaufen, wie die Zusammensetzung der Kosten und speziell deren wahre Verursachung nicht explizit bekannt sind. Nachdem das „Kosten-Energie-Äquivalenzgesetz“ formuliert wurde, ist diese Argumentation ein für alle Mal vom Tisch. Wenn man also fossile Energieträger direkt in klassischen Wärmekraftwerken einsetzt, spart man ein Vielfaches an Primärenergie, setzt entsprechend weniger – angeblich schädliches – CO2 frei und verhindert sämtliche den ‚Erneuerbaren Energien’ zu recht angelasteten Umwelt- und sonstigen Nachteile. So einfach sind die Zusammenhänge! Die große Mehrheit des Volkes würde diese Zusammenhänge sofort begreifen, wenn man sie ihm denn erklären dürfte. Das wird aber geschickt verhindert.“
____________________________________________________________________________
1) Manuel Frondel ist Diplom-Physiker und Diplom-Wirtschaftsingenieur und seit Oktober 2003 Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI. Seit 2009 ist er zudem Professor für Energieökonomik und angewandte Ökonometrie der Ruhr-Universität Bochum. Von 2001 bis 2003 war er Wissenschaftlicher Mitarbeiter im Forschungsbereich Umwelt- und Ressourcenökonomik und Umweltmanagement des Zentrums für Europäische Wirtschaftsforschung (ZEW), Mannheim, und Vertretungsprofessor an der Fachhochschule Heilbronn. Er promovierte am Lehrstuhl Ökonometrie der Wirtschaftswissenschaftlichen Fakultät der Universität Heidelberg. Seine Forschungsinteressen liegen im Bereich der empirischen Wirtschaftsforschung (Quelle hier). Frondel zum Thema „Wie kann eine bezahlbare Energiewende gelingen?“ hier.

Der Beitrag erschiene zuerst auf K.P. Krauses Blog hier




Reale Klimawissenschaft gewinnt die Wissenschafts-Schlacht, verliert aber den Politik-Krieg

E-Mails, die im Jahre 2009 von der Climatic Research Unit CRU durchgesickert waren, haben die Praktiken der das IPCC kontrollierenden Wissenschaftler enthüllt. Bloßgestellt wurden auch deren Unterstützer und die Gefolgsleute dieses Schwindels. Viele dieser E-Mails waren offenbar harmlose Ereignisse oder Kommentare, aber sie bedurften Erklärungen und Zusammenhänge. Die Kommentare scheinen oft einfach, sagen aber bei längerem Nachdenken sehr viel. Der reiche kanadische Geschäftsmann Conrad Black wurde gefragt, warum er kein Politiker sei. Seine sechs Worte „Das muss ich doch gar nicht“ sprachen Bände.

Im Dezember 2011 schrieb Richard Littlemore, leitender Betreiber der kanadischen Website DeSmogBlog eine E-Mail an Michael Mann mit folgendem Inhalt:

Hi Michael [Mann],

ich bin ein Autor bei DeSmogBlog (Richard Littlemore), und ich versuche, die jüngste Ankündigung  abzuwehren, dass es eine globale Erwärmung im 20. Jahrhundert tatsächlich nicht gegeben hat.

Mir scheint, dass Gerd Burger versucht, die Klimaänderung zu leugnen, indem er die seit den siebziger Jahren gemessenen, tatsächlich flach verlaufenden Temperaturen „geglättet“, „korrigiert“ oder in anderer Weise gerundet hat, aber ich bin dem nicht gewachsen. (Ich bin sicher, dass Sie bemerkt haben: Wir alle sind PR hier und nicht viel Wissenschaft). Also frage ich mich, ob ihr hinsichtlich Burgers Einmischung in die Wissenschaft etwas getan habt oder noch tun werdet.

Diese E-Mail allein diskreditiert effektiv alles, was auf dem DeSmogBlog steht. Sie zeigt auch, dass die Klimawissenschaft, wie sie von der CRU und dem IPCC praktiziert wird, eine PR-Übung war. Der Ausdruck abwehren spricht Bände. Er illustriert, dass es bei der Schlacht um die Gedanken der Menschen ging, kompliziert durch die Tatsache, dass es wie bei Littlemore nicht viel um Wissenschaft geht.

Kunst und Wissenschaft

Ich habe einen Glaubwürdigkeits-Kursus bzgl. Wissenschaft für Kunststudenten seit 25 Jahren abgehalten. Ich weiß, wie wenige etwas über Wissenschaft wissen oder auch nur wissen möchten. Ich habe die Studenten gelehrt, indem ich ihnen sagte, dass es im Grunde darum geht zu verstehen, „wie die Erde funktioniert“, und als zukünftige Erdenbürger sollten sie etwas Verständnis haben, damit sie nicht so leicht ausgebeutet werden können hinsichtlich umweltlicher Themen. Auf jeder Seite umfassenderen Wissens studierte ich die ‚Historie der Wissenschaft‘ und habe häufig Vorlesungen dazu gegeben. Ein Kursus zur Historie der Wissenschaft sollte für alle Studenten verpflichtend sein. Ich füge die empirischen Beweise von hunderten öffentlicher Präsentationen oder Radioprogrammen mit Hörerbeteiligung seit über vierzig Jahren hinzu.

Etwa 25 Prozent der Amerikaner glauben, dass die Sonne die Erde umkreist. In Wirklichkeit spielt das für die meisten Menschen gar keine Rolle. Solange die Sonne aufgeht und ihrem ordnungsgemäßen Kreislauf folgt, hat das keine Konsequenzen. Ein Grund für dieses Desinteresse ist, dass Kopernikus seine Hypothese im Jahre 1543 vorgestellt hat, der Beweis aber erst 295 Jahre später erbracht worden ist, nämlich im Jahre 1838.

Newtons Theorie hat für die Meisten ebenfalls keine Konsequenzen, solange die Schwerkraft funktioniert und niemand abfällt. Noch weniger verstehen Albert Einstein, darunter viele Wissenschaftler. Die große Änderung kam mit Darwin, als Wissenschaft Eingang in die Empfindlichkeit von jedermann fand. In grob vereinfachender Weise argumentierten Gegner von Darwin, dass er sage, unser Großvater sei ein Gorilla gewesen. Das änderte die Akademia von zwei Fakultäten, humanistische und Naturwissenschaften, und fügte die dritte und inzwischen größte Fakultät hinzu, nämlich die Sozialwissenschaften.

Vor vielen Jahren wurde ich von einer Gruppe Wissenschaftler im Ruhestand in Calgary eingeladen, um eine in Opposition zu Kyoto stehende Gruppe zu bilden. Ihre Bedenken richteten sich gegen die unzureichende Wissenschaft hinter der geplanten Politik. Ansässig in Calgary und einige beschäftigt im Bereich Öl, standen sie vor einem Glaubwürdigkeits-Problem. Sie haben sich entschlossen, strikt bei der Wissenschaft zu bleiben – eine Entscheidung, die ich unterstützte. Sie haben ausgezeichnete Arbeit geleistet und Unterstützung erhalten und tun das immer noch, wurden aber schon bald marginalisiert, als eine sehr kleine Zuwendung von einem Ölunternehmen ihre Glaubwürdigkeit unterminierte. Es ist ein klassisches Beispiel der Macht von PR und der Politik über die Wissenschaft. Ein weiterer Beweis war der bemerkenswerte Erfolg von Gores in Hollywood produziertem Film, sind doch dort die Meister der PR-(Propaganda) aktiv.

Wissen der Öffentlichkeit über Klimawissenschaft

Eine Studie der Yale University kam zu alarmierenden Ergebnissen hinsichtlich des Wissensstandes der Öffentlichkeit zum Thema Klimawandel. Abbildung 1 zeigt die aktuellen Ergebnisse mit Zeugnisnoten für die Leute. Nur 8 Prozent bekamen eine Eins oder Zwei, während 77 Prozent eine Vier oder Fünf bekamen*.

[*Das Schulnoten-System in den USA besteht aus den Buchstaben A bis F an Stelle der in Deutschland üblichen Zahlen-Noten. A steht für Eins, F für Sechs ‚flunked = durchgefallen‘. Auch im Original und in der Abbildung stehen diese Buchstaben. Im Text habe ich das deutsche System angeführt, in der Abbildung ging das nicht. Anm. d. Übers.]


Abbildung 1. Quelle: Yale University

Das ist eigentlich alles, was man wissen muss, aber die Forscher waren damit nicht zufrieden. Sie entschlossen sich, weitere Adjustierungen vorzunehmen wegen der Schwierigkeit der Fragen, und zwar mit der Konstruktion einer gebogenen Einschätzungs-Skala als ein alternatives Bewertungssystem.

Für die Einführung einer gebogenen Einschätzungs-Skala gibt es keine Rechtfertigung. Abbildung 2 zeigt das Ergebnis. Jetzt fallen nur noch 27 Prozent durch und 33 Prozent haben eine Eins oder Zwei.

Wie können diese Fragen zu schwierig sein? Diese Adjustierung verurteilt und negiert die gesamte Studie. Einige der Fragen waren schlecht formuliert, und die Analyse war falsch, weil die Autoren nicht wussten, was Klimawissenschaft ist. Wie auch immer, die Ergebnisse sind definitiv und das Problem ist fälschlich hochgespielt durch Fragen, die angeblich schwierig sein sollen. Wer hat festgelegt, dass sie schwierig sind?


Abbildung 2

Ein Cartoon (Abbildung 3, siehe oben rechts!) erschien in der Ausgabe des New Scientist vom 1. September 1977.

Wie viele Menschen würden diesen Witz verstehen? Vielleicht die Wenigen, die den begleitenden Artikel über den Milankovitch-Effekt gelesen haben, aber nicht sehr viele andere. Tatsächlich sind Milankovitch-Effekte in den IPCC-Modellen nicht enthalten.

Wahrscheinlich würden höchstens 20 Prozent das verstehen. Abbildung 4 zeigt die Prozentzahl von Studenten mit wissenschaftlichen Fähigkeiten auf hohem Niveau in vielen Ländern.

Abbildung 4

Abbildung 5

Abbildung 5 zeigt etwas höhere wissenschaftliche Fähigkeiten bei Universitäts-Absolventen (hier) – eine willkürlich ausgewählte Gruppe.

Das Fehlen wissenschaftlicher Fähigkeiten oder der Übung beim Umgang damit erstreckt sich auf viele wichtige Bereiche, zum Beispiel auch auf Anwälte und Politiker. Abbildung 6 zeigt, dass 12 Prozent von Jurastudenten an der University of Michigan auch Abschlüsse in Wissenschaft und Mathematik hatten.

Figure 6.

Das Versagen der Medien

Die Mainstream-Medien sind die Hauptgruppe, die in der Debatte um die globale Erwärmung völlig versagt haben [und natürlich weiter versagen! Anm. d. Übers.]. Sie haben die Rolle des prüfenden, investigativen Journalismus‘, den die US-Gründungsväter von ihnen erwartet hatten, abgeschafft.

Wenige Journalisten haben wissenschaftliches Training und erzeugen zunehmend Sensations-Storys, um sich dem politischen Bias anzupassen – ihrem eigenen und dem ihrer Arbeitgeber. Sie sind jetzt die Klatschmäuler in Marshall McLuhans globalem Dorf. Wie alle Klatschtanten bemühen sie nur wenige Fakten, verbreiten falsche Informationen und erfinden Storys, die kombiniert Leben zerstören. Jonathan Swift, einer der größten Satiriker, sagte einmal: „Was einige einführen, vergrößert der Rest“.

Das IPCC hat absichtlich all diese Schwächen ausgenutzt, um die Menschen in die Irre zu führen. Differenzen zwischen den Wissenschaftlichen Berichten der Arbeitsgruppe I und der Summary for Policymakers sind zu groß, um zufälliger Natur zu sein. Der Betrug begann schon bei der Definition von Klimawandel. Die Medien und die Öffentlichkeit glauben, dass das IPCC den Klimawandel in Gänze studiert. Um die Menschen verantwortlich zu machen, wurde die Definition von Klimawandel in Artikel 1 der UNFCCC stark eingeengt.

„…eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zuzuordnen ist und die die Zusammensetzung der globalen Atmosphäre verändern, und dies zusätzlich zur natürlichen Klimavariabilität, die in beträchtlichen Zeiträumen beobachtet worden ist“.

Nichts wurde getan, um die Menschen von ihrem Missverständnis zu befreien. Tatsächlich wurde dieses Missverständnis weiter bekräftigt durch unrichtige Statements des IPCC:

„Das IPCC ist die führende internationale Einrichtung zur Erforschung des Klimawandels“.

Öffentliche Verwirrung, politische Reaktionen

Eine Umfrage des Pew Centers (Abbildung 7) ist repräsentativ für die öffentliche Meinung und platziert den „Umgang mit der globalen Erwärmung“ sehr weit unten (an 19. Von 20 Stellen) auf der Rangliste der Sorgen.

Dafür gibt es sehr viele Erklärungen, darunter:

•Fehlendes Verständnis

•Verwirrung durch sich widersprechende Beweise

•Allgemeines Misstrauen gegenüber den Regierungen

•Das Gefühl, dass man ohnehin nichts dazu tun kann.

All dies stellt die Politiker vor ein Dilemma. Sie haben immer noch Angst vor Vorwürfen, dass sie sich nicht um den Planeten kümmern, um die Kinder, die Zukunft oder irgendeine andere der emotionalen Bedrohungen, die angeführt werden, um den moralischen Hintergrund zu stehlen. Aus ihrer Perspektive stecken sie in der Zwickmühle zwischen Arbeitsplätzen und der Wirtschaft oder der Umwelt. Das scheint einfach und offensichtlich, aber Umweltschutz als Religion macht es zu einer großen Herausforderung.

Das fängt an mit der Abstimmung im US-Senat über die Ratifizierung des Kyoto-Protokolls. Zwar äußerten die Politiker ihre Bedenken hinsichtlich der Umwelt, wollten aber Arbeitsplätze und die Wirtschaft nicht aufs Spiel setzen.

…der US-Senat stimmte mit 95 zu Null gegen die Unterzeichnung jedweden Vertrages, der „der US-Wirtschaft ernste wirtschaftliche Schäden“ zufügen würde, selbst wenn dies einzig in der Welt sein sollte.

Abbildung 7

Westliche Politiker streiften sich den Deckmantel des Grünen über und blieben bei ihrer Angst davor, irgendetwas außerhalb davon zu diskutieren. Ein vom indischen Premierminister ins Leben gerufenes Gremium näherte sich dem Moral-Problem in unterschiedlicher Weise:

„…der Council of Climate Change des Premierministers sagte, dass Indien seine Bevölkerung eher vor der Armut bewahren würde als vor der globalen Erwärmung, weshalb man nicht das Wachstum beschneiden werde, um Gasemissionen zu verringern.

Es ist offensichtlich, dass Indien seinen Pro-Kopf-Energieverbrauch erhöhen muss, um ein Minimum eines akzeptablen Wohlergehens seiner Bevölkerung sicherzustellen.

Indien ist entschlossen, dass seine Treibhausgas-Emissionen pro Kopf an keiner Stelle den der entwickelten Länder übersteigen wird“.

Die wichtige Verbindung zwischen den beiden Voten ist die Opposition gegen Ungleichheit. Kyoto nahm Geld von entwickelten Ländern wegen ihrer Sünde der CO2-Erzeugung und reichte es weiter an Entwicklungsländer, um diesen zu helfen, mit den negativen Auswirkungen fertig zu werden. Nichts davon, weder die Behauptungen des IPCC noch die Gegenbehauptungen der Skeptiker haben irgendetwas mit Wissenschaft zu tun.

Regierungskontrollen mit dem Vorwand der Klimaänderung nehmen rasant zu

Maurice Strong und die Ersteller der Agenda 21 und das IPCC sind nicht besorgt. Die gesamte Struktur war darauf ausgerichtet, an der Politik und den Bedürfnissen der Menschen vorbeizugehen. Bürokratien implementieren immer schneller die Ziele, die anthropogenes CO2 erzeugenden Aktivitäten zu reduzieren. Der Schlüssel hierzu war die Rolle der Weltwetterorganisation WMO, die Wetterämtern in jedem Land die Verantwortung von Energiepolitik übertrug. Sie fahren fort mit Plänen, das Ziel zu erreichen. Abbildung 8 zeigt das Titelbild eines Klima-Aktionsplanes für die Provinz British Columbia:

Abbildung 8

Ein Klima-Aktionskomitee hat diesen Plan entworfen, wie die Website der Regierung beschreibt:

Das Klima-Aktionsteam in British Columbia wurde im November 2007 gegründet, um der Regierung zu helfen, die Treibhausgasemissionen der Provinz bis zum Jahr 2020 um 33 Prozent zu reduzieren. Dahinter stecken einige der besten Köpfe der Provinz einschließlich neun weltweit führenden Klimawissenschaftlern.

Unter diesen neun befand sich Andrew Weaver, beitragender Autor zum Abschnitt über Computer-Modellierungen in vier IPCC-Berichten (1995, 2001, 2007 und 2013).

Der Plan wird eingeführt durch Besuche der Regierung der Provinz bei Gemeinden. Nach einem solchen Besuch wurde ich von Anwohnern der Mayne Island  (eine der Golf-Inseln) zu einer Präsentation eingeladen. Sie waren erbost, weil der Regierungsbesuch eine Vorstellung des Gore-Films enthielt, gefolgt von Vorschlägen, die Politik und Praktiken auf ihrer Insel zu ändern. Darunter war auch die Diskussion um die Einstellung sämtlicher Fahrten mit Motorfahrzeugen und die Beseitigung von Straßen.

Abbildung 9.

Übersetzung: Was die Regierung von B.C. hier getan hat ist, dass sie erkannt haben, dass dies das Richtige ist, das man tun muss, es ist das Einzige, was man tun kann, um dem Problem zu begegnen, und wir werden nicht warten, bis die [kanadische] Bundesregierung oder irgendwer sonst etwas tut. Wir werden Führung in Nordamerika zeigen, und passen Sie auf: es wird ansteckend sein, und andere werden uns im Laufe der Jahre folgen.

Der Plan basiert ausschließlich auf den Ergebnissen des IPCC. Darunter sind neben anderen Dingen eine Kohlenstoff-Steuer und die Verpflichtung zu Smart Meters. Weaver präsentierte eine Einfügung, die Abbildung 9 zeigt.

Premierminister der Provinz bei der Einführung des Klima-Aktionsplanes war Gordon Campbell. Er wusste, dass Kontrolle und Macht den Bürokratien oblag. In seiner ersten Amtszeit hatte er weit reichende neue Gesetze eingeführt. Er wusste auch um die Lücke zwischen dem, was die Politiker beabsichtigten und dem, was die Bürokraten eingeführt haben, und beauftragte zwei Politiker, die Umsetzung in jedem Department [=Landkreis] zu überwachen. Bürokraten tolerierten dies, war ihnen doch klar, dass sie die Zeit der Politiker überdauern würden.

Maurice Strong hat genau das Gegenteil getan, als er die WMO-Bürokraten ins Boot holte für die Planung, Einführung und Produktion. Er kontrollierte effektiv die Politiker der Welt. Elaine Dewar berichtete in ihrem Buch Cloak of Green, dass es sein Ideal war, industrialisierte Nationen zu eliminieren. Sie fragte, ob er beabsichtige, ein Politiker zu werden, um das Vorhaben umzusetzen. Er antwortete nein, weil man als Politiker gar nichts tun könne; er mochte die UN, weil:

Er konnte seine eigenen Mittel einfordern, von jedem, von dem er sie wollte, und er konnte jeden, den er wollte, mit der Kontrolle der Agenda beauftragen.

Dewar fügte hinzu:

Strong nutzte die UN als Plattform, eine globale Umweltkrise und die Agenda einer Weltregierung auszubreiten.

Wie Strong geplant und Weaver vorhergesagt hatte, traten bald Andere bei. Informationen der EPA, wie Staaten und niedere Regierungsebenen einen Climate Action Plan eingeführt haben, sieht man hier:

Klimaänderungs-Aktionspläne

Erfahren Sie hier, wie Sie einen Klimaänderungs-Aktionsplan für Ihre Gemeinde entwickeln.

Regionaler Klimaänderungs-Aktionsplan

Ein Klimaänderungs-Aktionsplan entwirft eine Strategie einschließlich bestimmter Forderungen an die Politik, die eine lokale Regierung verwenden kann, um der Klimaänderung zu begegnen und die Emission von Treibhausgasen zu reduzieren. Beispiele für von lokalen Regierungen entwickelte Klimaänderungs-Aktionspläne sind unten nach US-Staaten gelistet:

AZ, AK, CA, CO, CT, FL, GA, IL, KY, LA, MD, MA, MN, MO, NH, NM, NY, NC, OR, PA, SC, TN, TX, UT, WA, All States

Grundlage des EPA-Planes ist ausschließlich die Wissenschaft des IPCC, die Skeptiker längst als falsch überführt haben. Die einzige Opposition gegen diesen Plan wird durch verlorene Arbeitsplätze und ökonomische Fehlschläge kommen.

Abbildung 10

Entweder ein britisches Poster wird Volk und Politiker überzeugen, oder das kluge Wortspiel eines Autoaufklebers (Abbildung 10) wird sich als wahr herausstellen.

Link: http://wattsupwiththat.com/2014/07/24/climate-science-winning-the-science-battle-but-losing-the-policy-war/

Übersetzt von Chris Frey EIKE




Klimaaktivist Toralf Staud und Misereor – Eine unheimliche Liaison

Dass Bischöfliche Hilfswerk MISEREOR e. V. (lat. misereor „Ich erbarme mich“) ist eines der größten Hilfswerke der römisch-katholischen Kirche in Deutschland und hat seinen Sitz in Aachen. Nach dem Prinzip der Hilfe zur Selbsthilfe unterstützte Misereor seit seiner Gründung im Jahr 1958 ca. 100.000 Projekte in Asien, Afrika, Ozeanien und Lateinamerika. Das selbsterklärte Ziel Misereors ist es, den Ärmsten der Armen zu helfen und gemeinsam mit einheimischen Partnern Menschen jedes Glaubens, jeder Kultur und jeder Hautfarbe zu unterstützen. Dies sind lobenswerte Anstrengungen, die es zu unterstützen gilt.

Weniger lobenswert ist hingegen eine spezielle Praxis der Spendenmotivierung, die Misereor bereits seit etlichen Jahren betreibt. Offenbar hatte man sich gedacht, dass man die Einnahmen deutlich erhöhen könnte, wenn man den Leuten einredet, sie hätten am Elend der Welt eine Mitschuld. Das verlotterte CO2-lastige Leben der Bürger der Ersten Welt würde auf dem Wege der Klimakatastrophe zu mehr Dürren, Stürmen, Überschwemmungen und anderem Wetterunbill im armen Afrika und Asien führen. Durch Presseartikel, Aktionen und Interviews wird den potentiellen Spendern ein schlechtes Gewissen gemacht. Der Effekt bleibt nicht aus: Durch Spenden an Misereor können die Sünder ihr Gewissen reinwaschen, eine Art moderner Ablasshandel. Einzig störender Faktor in diesem Geschäft sind diejenigen Wissenschaftler, die sich weigern, in das Alarmgeschrei der Klimakatastrophe einzustimmen. Unbequeme wissenschaftliche Fakten oder gar eine ergebnisoffene Fachdiskussion sind bei Misereor ausdrücklich unerwünscht.

Es ist schon erschreckend mitanzusehen, dass in der Vergangenheit mehr als eine halbe Millionen Euro an Spendengeldern von Misereor an klimaalarmistische Institute wie das Potsdam Institut für Klimafolgenforschung (PIK) weitergegeben wurden, mit dem Ziel, die Klimakatastrophe in der Öffentlichkeit noch präsenter zu machen und in der Folge die Spendenwilligkeit zu stimulieren (siehe unseren Blogartikel “Hilfswerk Misereor überweist PIK-Klimainstitut € 520,000 an Spendengeldern für fragwürdige Klimastudie“). Und wie kann es sein, dass sich Misereor in fragwürdigen Nebenthemen verliert, die so gar nichts mit dem ursprünglichen Gründergedanken der Organisation zu tun haben? Siehe unseren Beitrag “Anstatt gegen den Welthunger kämpfen Misereor und Brot für die Welt nun für die Verschärfung des Emissionshandels“.

Zur klimaalarmistischen Werbemasche von Misereor passt auch die Zusammenarbeit mit dem Journalisten Toralf Staud, der gelegentlich auch für das Greenpeace Magazin schreibt. Staud hatte sich seinerzeit heftig gegen unser Buch “Die kalte Sonne” publizistisch gewehrt und verfasste in der Zeit und im Klimaretter-Blog eine regelrechte Artikelkampagne. Er wollte nicht wahrhaben, dass seine liebgewonnene Klimakatastrophe ausfällt und natürliche Faktoren eine wichtige Rolle im Klimageschehen spielen könnten. Vielleicht fehlte ihm einfach der naturwissenschaftliche Hintergrund, den er in seinem Journalistik- und Philosophie-Studium natürlich nicht erlangen konnte.

Im Mai 2014 erschien nun das Jahresheft von Misereor mit dem Titel “Mut zu Taten”, das einen Überblick über die Arbeit der Organisation geben soll. Auf Seite 33 ist ein mehrseitiger Artikel von Toralf Staud mit dem Titel “Zweifel ist unser Produkt” abgedruckt. Der Artikel ist leider nicht online verfügbar. Das Heft kann aber kostenlos bei Misereor bestellt werden. Der Untertitel im Inhaltsverzeichnis gibt bereits die Richtung vor:

Bei der Wahrheit über den Klimawandel geht es um die öffentliche Meinung, um politischen Einfluss und um Geld. Eine Klarstellung.

Wiederum geht es nicht um klimatische Fakten, sondern um einen persönlichen Angriff auf die wissenschaftlich andersdenkenden Seite. Kurioserweise führt die Misereor-Redaktion bereits an dieser Stelle die vermutlichen Gründe an, weshalb Staud beauftragt wurde, diesen Artikel zu schreiben: Beeinflussung der öffentlichen Meinung und der Politik auf emotionaler Ebene unter Umgehung der fachlichen Diskussion, beides zur Verbesserung der eigenen Geldzuflüsse von privater und staatlicher Seite. Die Umkehr der Vorwürfe gegen die klimaskeptisch denkende Seite wirkt plump.

Gehen wir nun in den Artikel selbst. Direkt auf der Titelseite schreibt Staud:

Während die Forscher sich ihrer Erkenntnisse zum Klimawandel immer sicherer sind, werden Wissenschaftsleugner immer lauter. Sie führen einen weltweiten Kampf um die öffentliche Meinung, der inzwischen fast zum Selbstläufer geworden ist. Dessen Folgen sind auch schon in Deutschland zu spüren.

Bereits zu Beginn dieses Appetizers führt Staud die Leser hinter die Fichte: Nur die Wenigsten wissen, dass die CO2-Klimasensitivität in den letzten zwei Jahren von 3,0°C auf 2,0°C pro CO2-Verdopplung gesunken ist. Dies berücksichtigt die Ozeanzyklen, die 1977-1998 die Hälfte der Erwärmung beigesteuert hatten und seitdem kühlend wirken. Wie kann Staud bei einer solch massiven Reduktion der CO2-Klimawirkung von “immer sicherer” sprechen? Während Staud Durchhalteparolen ausgibt, werden anerkannte Fachleute in Deutschland nervös (siehe unsere Beiträge “2</sub>-Klimasensitivität ist vom IPCC zu hoch angesetzt worden">Mojib Latif im Fachvortrag in den USA: Die CO2-Klimasensitivität ist vom IPCC zu hoch angesetzt worden“, “Klimaforscher Hans von Storch: Klimamodelle berücksichtigen möglicherweise Änderungen der Sonnenaktivität zu wenig” und “2</sub>">Judith Curry prognostiziert Erwärmungspause bis in die 2030er Jahre: Hans von Storch fordert in einem solchen Fall Misstrauensvotum gegen CO2“).

Allein die Benutzung des Begriffs “Wissenschaftsleugner” disqualifiziert Staud. Vermutlich bewegt er sich mit dieser Betitelung bereits in juristischem Sperrgebiet. Der Artikel beginnt dann mit einer Attacke gegen Fritz Vahrenholt. Was fiele ihm bloß ein, einen Klimavortrag auf einer Veranstaltung der Wirtschaft in München zu halten? Es sollte doch allgemein bekannt sein, dass die IPCC-Meinung die einzig wahre und reine Lehre darstellt. Außerdem ist Vahrenholts Buch “Die kalte Sonne” ganz doof. Dass Vahrenholt bei Shell und RWE in der Erneuerbaren Energie-Sparte tätig war unterschlägt Staud glatt. Staud schreibt:

Der Auftritt zeigt, was noch vor ein paar Jahren undenkbar schien: Das Bestreiten des menschengemachten Klimawandels wird auch in Deutschland salonfähig.

Wieder so eine Peinlichkeit. Staud hat auch nach zwei Jahren offenbar noch immer nicht unser Buch gelesen. Denn dort steht, dass das CO2 durchaus eine nicht zu unterschätzende Klimawirkung hat. Es wird dort u.a. ein menschengemachtes Klimawandel-Szenario mit einer CO2-Klimasensitivität von 1,5°C pro CO2-Verdopplung vorgestellt. Vahrenholt und Lüning bestreiten keineswegs die anthropogene Erwärmung. Stauds Behautung im Text ist schlicht unwahr. Staud offenbart zudem Probleme bei der Lektüre des 5. IPCC-Berichts (“AR5″). Er möchte dort gelesen haben:

…warnt der IPCC deutlicher als je zuvor vor einer gefährlichen Erwärmung der Erde.

Man möchte Staud zurufen: Hättest Du Dir doch vor dem Verfassen des Artikels Expertenrat hinzugezogen, dann wäre Dir diese Panne erspart geblieben. Denn die bekannte Klimaforscherin Judith Curry erläuterte kürzlich in ihrem Blog, was wirklich im IPCC AR5 enthalten ist (siehe unseren Blogartikel “Lesen lohnt: IPCC-Klimabericht von 2013 relativiert Hitzeprognosen von 2007“).

Staud wirft dann Vahrenholt vor, sein Universitäts-Chemie-Abschluss samt Promotion würde ihn nicht zur Teilnahme an der Klimadiskussion befähigen. Dies sagt wohlgemerkt ein Toralf Staud, der keinerlei universitäre naturwissenschaftliche Lorbeeren vorweisen kann. Dazu schauen wir auf der Webseite der schweizerischen Berufsberatung vorbei, die aufzählt, aus welchen Einzeldisziplinen die Klimawissenschaften bestehen:

Am [klimawissenschaftlichen] Studiengang beteiligt sind:

·       der Fachbereich Geowissenschaften

·       der Fachbereich Physik

·       der Fachbereich Mathematik

·       der Fachbereich Chemie

·       der Fachbereich Biologie

·       das Volkswirtschaftliche Institut

·       das Historische Institut.

Zum mitschreiben, Herr Staud: Die Chemie ist ein integraler Bestandteil der Klimawissenchaften. Und Fritz Vahrenholt ist ausgebildeter Chemiker. Das Buch hat er übrigens zusammen mit einem Geologen geschrieben, Sebastian Lüning. Auch Lüning ist diplomiert und promoviert, außerdem habilitiert. Und die Geologie bzw. die Geowissenschaften sind ebenfalls ein integraler Bestandteil der Klimawissenschaften. Nicht beteiligt sind hingegen die Fachbereiche Philosophie und Journalistik.

Auf Seite 36 des Artikels meckert Staud über die angeblich so üppige Finanzierung der Klimaskeptiker. Nun ja, diese Geldzuwendungen sind mittlerweile wohl ausgetrocknet bzw. fiktiv. Das kalte-Sonne-Blog wird zum Beispiel ganz ohne finanzielle Vergütung auf freiwilliger Basis erstellt. Dies steht ganz im Gegensatz zum Klimaretter-Blog, in dem die Autoren in der Regel Honorare für ihre Texte erhalten. Wieviel hat Staud übrigens von Misereor für seinen Artikel im Jahresheft bekommen? Neben üppig ausgestatteten Presseabteilungen des PIK und anderer Institute gibt es seit Anfang diesen Jahres auch noch einen US-amerikanischen Milliardär, der Geld in die Beförderung klimaalarmistischen Gedankenguts pumpt. Tom Steyer will zusammen mit anderen Spendern 100 Millionen Dollar in eine Kampagne investieren, die der US-Politik klimaalarmistische Impulse geben soll.

Auf Seite 37 seines Artikels bemängelt Staud, dass es bei den Klimaskeptikern so wenige aktive Klimaforscher gäbe. Warum erwähnt er nicht Judith Curry, Roy Spencer, Henrik Svensmark, Nir Shaviv, William Gray, Nicola Scafetta, Willie Soon, Don Easterbrook, Robert Carter, Habibullo Abdussam, Stanley Goldenberg, Nils-Axel Mörner oder Lennart Bengtsson? Und warum trauen sich wohl die jungen Kollegen nicht, klimaskeptisch mitzudiskutieren? Natürlich, weil ihnen sonst der Geldhahn und der Weg zur Festanstellung bzw. Beförderung versperrt wird. Singe das IPCC-Lied, und es wird Dir gutgehen. Singe ein anderes, stirb.

Dann wettert Staud gegen EIKE, die wichtigste klimaskeptische Organisation in Deutschland. Er mag das Layout der EIKE-Webseite nicht. Und er mag die Tagungen nicht. Und alle sind viel älter als Toralf Staud, das kann er nun wirklich nicht ab. Bei Greenpeace sind alle viel jünger. Die Anhänger dort stellen auch keine unbequemen Fragen. Vielleicht hat es damit zu tun, dass die jungen Herrschaften ihr naturwissenschaftliches ABC noch nicht ganz drauf haben, gerne dem gemütlichen Groupthink frönen. Der EIKE-Pressesprecher Horst-Joachim Lüdecke kann Staud jedenfalls nur noch als Komiker ertragen. Er enttarnt zudem Stauds Misereor-Artikel als schlechte Kopie eines bereits in der Zeit erschienenen Textes. In einem Beitrag auf EIKE zum Misereor-Stück schreibt Lüdecke am 31. Mai 2014:

Kommen wir nun zu dem eingangs erwähnten T. Staud. Es geschieht ihm fraglos zuviel der Ehre, hier auf seine Schreibergüsse einzugehen. In den besprochenen Zusammenhang von Misereor, Kirchen und Profit gehört es aber hinein. Das bemühte, schwerfällige Pamphlet von T. Staud mit der Überschrift „Zweifel ist unser Produkt“ kann freilich als müde Wiederholung seines Artikels zs. mit Benjamin Reuter „Die Gehilfen des Zweifels“ (hier) angesehen werden. Aber auch die Qualitäts-Redakteurinnen Anita Blasberg und Kerstin Kohlenberg von der ZEIT haben sich mit „Die Klimakrieger“ (hier) an dem Thema “Klimaskeptiker” verhoben. Wenn eine literarische Wertung des Autors erlaubt sei, so hat zum Trost wenigstens „Die Gehilfen des Zweifels“ einige amüsante Stellen und liest sich  stellenweise unterhaltsam. Zweifellos ist dies dem Hauptredakteur B. Reuter zu verdanken, denn der Aufguss “Zweifel ist unser Produkt” von T. Staud im Misereor-Magazin von 2014 erzeugt nur grausame Langeweile. Das gleiche trifft für den Artikel „Die Klimakrieger“ der beiden o.g. Qualitätsredakteurinnen zu. Daher an dieser Stelle eine herzliche Bitte: Liebe ZEIT, falls noch einmal ein Thema über „Klimaskeptiker“, dann bitte von Redakteuren, die wenigstens unterhaltsam zu schreiben verstehen, lass uns nicht noch einmal unter den Staud’s, Blasberg’s und Kohlenberg’s vor Langeweile sterben!

Und weil wir mit unserem Buch “Die kalte Sonne” vermutlich genau den wunden Punkt des wackeligen IPCC-Gedankengebäudes getroffen haben, kehrt Staud dann im Text noch ein weiteres Mal zu Vahrenholt zurück. Staud schreibt:

Vahrenholt ist ein geübter Redner. Seine Thesen untermauert er mit wissenschaftlich wirkenden Zitaten und Graphiken – dass die oft irreführend sind oder gar manipuliert, bemerken nur Fachleute.

Könnte es sein, dass die Thesen deshalb wissenschaftlich wirken, weil sie von Vahrenholt plausibel und sauber – also wissenschaftlich – erläutert werden? Vielleicht fehlt es hier Staud wiederum am naturwissenschaftlichen Rüstzeug, um der Thematik einigermaßen folgen zu können. Die Behauptung “irreführend…oder gar manipuliert” ist frech und aus juristischer Sicht sicher grenzwertig. Hier müsste Staud endlich einmal Beispiele nennen, insbesondere für Graphiken, die angeblich manipuliert wurden. Welche Fachleute meint Staud, die sich über Inhalte beschwert hätten? Meint er Latifs erfolglosen Versuch bei einem Hamburger Extremwetterkongress, die Klimabeteiligung der Sonne abzustreiten? (Siehe unseren Beitrag “Extreme Ansichten auf dem Extremwetterkongress: Anti-Sonnen-Beweisführung à la Latif“). Ähnlich scheiterte ein Versuch einer deutschen Wissenschaftssendung (siehe “Wissenschaftssendung Nano lässt der Sonne keinen Nanometer Klimawirkung: Fehlende Neutralität in der Berichterstattung wirft Fragen auf“).

Komödiantisch endet dann auch der Staudsche Misereor-Artikel:

Seriöse Forscher formulieren stets vorsichtig, sie müssen jede Aussage beweisen – ihre Gegner machen kurze Sätze und sagen, was sie wollen. “Es ist als wenn Pfadfinder gegen Elitesoldaten antreten”, sagt der US-Klimaforscher Michael Mann.

Meint Staud hier “vorsichtig formulierte” Studien der folgenden Art?:

·       Neue Studie im Journal of Environmental Economics and Management: Klimakatastrophe wird in den USA bis 2099 zu einer halben Millionen zusätzlicher Autodiebstähle führen

·       Klimaalarmist schlägt genetische Manipulation des menschlichen Erbguts vor, um die Bevölkerung vor der Klimakatastrophe zu schützen

·       NASA-Klimaforscher James Hansen 1986 in der New York Times: Bis 2010 wird sich der Planet um bis zu 3 Grad Celsius aufheizen

Vielleicht sollten die ‘Pfadfinder’ auch einmal kurze Sätze versuchen. Elitesoldaten muss man hier sicher als Kompliment sehen. Seltsam nur, dass noch niemals ein Klimarealist den Climate Communications Prize der American Geophysical Union gewonnen hat. Das Geheimnis des klimarealistischen Erfolges könnte auch einfach in der Tatsache stecken, dass Klimaskeptiker keinen Maulkorb verpasst bekommen haben, daher in der Tat “sagen, was sie wollen”. Liebe Freunde des IPCC, versucht es einfach mal mit ergebnisoffener Diskussion und freier Meinungsäußerung.

Fazit: Vielleicht hat es etwas zu bedeuten, dass Toralf Staud seit seinem persönlichen Kampf gegen die kalte Sonne im Wochenmagazin Die Zeit nur noch über Rechtsextremismus schreiben darf. Der Hilfsorganisation Misereor ist auf jeden Fall anzuraten, schnellstmöglich Abstand von der plumpen Klimahetze zu nehmen. Mit dem Artikel “Zweifel ist unser Produkt” verschafft Misereor einem bekannten Aktivisten eine fragwürdige Bühne, die er anderswo nicht mehr erhält. Die Klimadiskussion ist bei weitem nicht so schwarz-weiß wie sie von Toralf Staud dargestellt wird. Der Wegfall der Klimakatastrophe bedeutet übrigens nicht, dass man den armen Menschen in der ganzen Welt nicht helfen sollte. Im Gegenteil. Wieviel Gutes könnte man zum Beispiel mit den 100 Millionen Dollar tun, die Tom Steyer in den klimaalarmistischen Propagandakampf stecken möchte?

Der Beitrag erschien zuerst bei Die kalte Sonne




Die Tiefsee kühlt sich ab inmitten eines Meeres von Modell-Unsicherheit: Neue Forschungen zum ozeanischen Wärmegehalt

Als Nebenergebnis ihrer Analyse haben sie 1) festgestellt, dass sich die Tiefsee abkühlt, 2) eine viel geringere Rate der Erwärmung der Ozeane geschätzt, 3) aufgezeigt, wo die größten Unsicherheiten bestanden infolge der sich stets ändernden Örtlichkeiten von Erwärmung und Abkühlung und 4) Bedenken hinsichtlich früherer Verfahren spezifiziert, die zur Konstruktion von Änderungen des ozeanischen Wärmegehaltes angewendet worden waren, wie die Re-Analyse von Balmasede und Trenberth (siehe unten) (13). Sie kamen zu dem Ergebnis: „Die direkte Bestimmung der Änderungen des ozeanischen Wärmegehaltes während der letzten 20 Jahre stehen nicht im Widerspruch zu Schätzungen des Strahlungsantriebs, aber die Unsicherheiten bleiben zu groß, um z. B. den offensichtlichen „Stillstand“ der globalen Erwärmung vernünftig zu erklären“.

Wunsch und Heimbach (2014) räumen bescheiden ein, dass ihre „Ergebnisse im Detail und in numerischen Werten von anderen Schätzungen abweichen, aber die Bestimmung, ob irgendeine dieser Schätzungen korrekt ist, ist wahrscheinlich mit den existierenden Datensätzen nicht möglich“.

Sie schätzen die Änderungen des Ozeans mittels Synthetisierung diverser Datensätze mit Hilfe von Modellen, entwickelt vom Konsortium zur Abschätzung der Zirkulation und des Klimas der Ozeane [Consortium for Estimating the Circulation and Climate of the Ocean, ECCO]. Die ECCO-„Zustandsschätzungen“ haben die Schwächen früherer Modelle eliminiert, und sie behaupten: anders als die meisten Produkte zur „Daten-Assimilation“ genügt ECCO den Modellgleichungen ohne irgendwelche künstlichen Quellen oder Senken oder Kräften. Die Zustands-Abschätzung stammt von dem freilaufenden, aber adjustierten Modell und genügt infolgedessen allen bestimmenden Modellgleichungen, einschließlich derjenigen für die grundlegende Konservierung von Masse, Wärme, Moment, Vorticity usw. bis hin zu numerischer Genauigkeit“.

Ihre Ergebnisse (Abbildung 18 unten) zeigen eine Abflachung oder leichte Abkühlung der oberen 100 m seit dem Jahr 2004. Dies stimmt überein mit der Abkühlung von -0,04 W/m² von Lyman (2014) (6). Der Konsens früherer Forscher war, dass sich die Temperaturen der oberen 300 m seit 2003 (4) abgeflacht oder abgekühlt haben, während Wunsch und Heimbach (2014) fanden, dass sich die oberen 700 m noch bis zum Jahr 2009 erwärmten.

Die tieferen Schichten enthalten doppelt so viel Wärme wie die oberen 100 Meter und zeigen einen eindeutigen Abkühlungstrend seit 2 Jahrzehnten. Anders als die oberen Schichten, die von dem jährlichen Zyklus von Erwärmung und Abkühlung dominiert werden, muss die Tiefsee als Teil des langzeitlichen ozeanischen Gedächtnisses gesehen werden, das immer noch auf „meteorologische Antriebe von vor Jahrzehnten bis Jahrtausenden reagiert“. Falls das Modell der Tiefsee-Erwärmung von Balmaseda und Trenberth korrekt wäre, muss jedwede Zunahme des ozeanischen Wärmegehaltes zwischen 700 und 2000 Metern erfolgt sein, aber die Mechanismen, die jene „mittlere Schicht“ erwärmen würden, bleiben schwer fassbar.

Die entdeckte Abkühlung der Tiefsee ist angesichts der geothermischen Erwärmung aus dem Ozeanboden ziemlich bemerkenswert. Wunsch und Heimbach (2014) schreiben: „Wie bei anderen noch bestehenden Schätzungen gilt für die jetzige Zustands-Abschätzung, dass sie noch nicht den geothermischen Fluss  am Meeresboden ausweisen, dessen mittlere Werte (Pollacvk et al. 1993) in der Größenordnung 0,1 W/m² liegen. Das ist wenig, aber „nicht vernachlässigbar im Vergleich zu irgendeinem vertikalen Wärmetransport in die Tiefe“ (3). (Interessant als Nebenergebnis ist eine Zunahme der Wärme am Meeresboden, die kürzlich in Verbindung gebracht worden ist mit der verstärkten Basaltschmelze des Thwaite-Gletschers in der Antarktis (hier)). Da erwärmtes Wasser aufsteigt, stammt jede Erwärmung der „mittleren Schichten“ vermutlich von Wärme, die in der Tiefsee vor Jahrzehnten bis Jahrtausenden gespeichert worden ist.

Wunsch und Heimbach (2014) betonen die vielen Unsicherheiten bei der Zuordnung des Grundes der Änderung zum Gesamt-Wärmegehalt und kommen zu dem Ergebnis: Wie bei vielen Klimaaufzeichnungen lautet die unbeantwortbare Frage hier, ob diese Änderungen wirklich separat [secular] auftreten und/oder eine Reaktion auf den anthropogenen Antrieb sind, oder ob sie stattdessen Fragmente eines allgemeinen Rauschens sind während Zeitperioden, die viel zu kurz sind, um die langzeitlichen Maßstäbe der Abbildungen 6 und 7 darzustellen, oder Folge von Verzerrungen bei Datensammlung und –messung sind oder Änderungen der temporären Datendichte.

Angesichts dieser Unsicherheiten kommen sie zu dem Ergebnis, dass den Ozeanen viel weniger Wärme zugeführt wird als in früheren Studien behauptet (siehe Tabelle unten). Es ist interessant, dass im Vergleich zu Hansens Studie, die im Jahre 2003 endete vor der beobachteten Erwärmungspause, nachfolgende Studien ebenfalls zeigen, dass weniger Wärme in die Ozeane eingeht. Ob diese abnehmenden Trends ein Ergebnis verbesserter Methoden oder einer kühleren Sonne sind oder beides, muss mit noch mehr Beobachtungen geklärt werden.

Kein Klimamodell hat die dramatisch steigenden Temperaturen in der Tiefsee vorhergesagt, die sich nach der Re-Analyse (13) von Balmaseda/Trenberth zeigen, und Ozeanographen glauben, dass ein so scharfer Anstieg wahrscheinlicher ein Artefakt anderer Meßsysteme ist. Tatsächlich korreliert die ungewöhnliche Erwärmung mit der Einführung des ARGO-Beobachtungssystems. Wunsch und Heimbach (2013) (2) schrieben: „In der Literatur sind klare Warnungen aufgetaucht, dass unechte Trends und Werte Artefakte sind einer Änderung der Beobachtungssysteme (siehe Elliott and Gaffen, 1991; Marshall et al., 2002; Thompson et al., 2008). Die Re-Analysen werden selten angemessen verwendet, was bedeutet, dass sie große Fehler enthalten können“ (3).

Noch spezifischer warnten Wunsch und Heimbach (2014): „Daten-Assimilations-Verfahren, die Jahrzehnte lang dauern, werden normalerweise als „Re-Analysen“ bezeichnet. Unglücklicherweise können diese nicht verwendet werden zu Zwecken der Wärme- und andere Budgetierungen, weil sie fundamentale Erhaltungsgesetze verletzen; siehe Wunsch und Heimbach (2013) mit weiteren Ausführungen zu diesem wichtigen Punkt. Das Problem erfordert eine genaue Untersuchung der behaupteten Erwärmung in der Tiefe mit einer Genauigkeit von 0,01 W/m² mit derartigen Methoden als Grundlage (Balmaseda et al. 2013) (3).

Wem also soll man glauben?

Weil sich die Ozeanwärme asymmetrisch ansammelt und sich diese Wärme 24/7 verschiebt, wird jedes Datensammel-Schema von großen Verzerrungen und Unsicherheiten durchlöchert. In Abbildung 12 unten zeigen Wunsch und Heimbach (2014) die ungleichen Dichten der regional gespeicherten Wärme. Offensichtlich in Zusammenhang mit dem größeren Salzgehalt speichert der zentrale Nordatlantik zweimal so viel Wärme als irgendein Gebiet im Pazifischen und Indischen Ozean. Regionen mit starken Wärmegradienten erfordern größere Bemühungen bei der Datensammlung, um irreführende Ergebnisse zu vermeiden. Sie warnten: „Der relativ große Wärmegehalt des Atlantischen Ozeans könnte, falls sie sich umverteilt, große Änderungen anderswo in dem System hervorrufen welche, falls diese nicht gleichmäßig beobachtet werden, künstliche Änderungen des globalen Mittels zeigen“ (3).

Des Weiteren, infolge des konstanten, mit der Zeit variierenden Wärmetransportes werden Regionen mit Erwärmung normalerweise kompensiert durch Regionen mit Abkühlung, wie es aus ihrer Abbildung 15 hervorgeht. Sie bietet eine wunderbare Visualisierung des gegenwärtigen Status‘ jener natürlichen Ozean-Oszillationen durch Vergleiche der Änderungen des Wärmegehaltes zwischen 1992 und 2011. Diese Anordnung von Wärme-Umverteilungen lassen enorme Wärmemengen entstehen und machen das Auffinden von Änderungen des Wärmegehaltes, die um viele Größenordnungen kleiner sind, extrem schwierig. Auch hier würde eine ungeeignete Datensammlung räumlich und zeitlich zu „künstlichen Änderungen des globalen Mittels“ führen.

Abbildung 15 zeigt die jüngsten Auswirkungen von La Nina und der negative Pazifischen Dekadischen Oszillation. Der Ostpazifik hat sich abgekühlt, während simultan die sich intensivierenden Passatwinde mehr warmes Wasser in den Westpazifik haben strömen lassen, wodurch es sich dort erwärmt hat. Genauso hat sich im mittleren Atlantik gespeicherte Wärme wahrscheinlich nordwärts bewegt, so dass sich jene Region abgekühlt und die subpolaren Meeresgebiete erwärmt haben. Diese nordwärts gerichtete Änderung des Wärmegehaltes stimmt überein mit früheren Diskussionen über Zyklen von Intrusionen warmen Wassers, die das Arktische Meereis beeinflusst haben, die Klimamodelle der Arktis durcheinandergebracht (hier) und die Verteilung der maritimen Organismen kontrolliert haben.

Am Interessantesten ist die Abkühlung in den oberen 700 Metern der Arktis. Es gab 2 unterschiedliche Erklärungen für die ungewöhnlich warme Lufttemperatur in der Arktis, die das globale Mittel stark beeinflusst. Auf CO2 basierende Hypothesen argumentieren, dass die globale Erwärmung das polare Meereis reduziert hat, das zuvor das Sonnenlicht reflektiert hatte, und dass das jetzt offene, dunkle Wasser mehr Wärme absorbiert, was zum Anstieg der Wasser- und Lufttemperatur führt. Aber eine eindeutige Abkühlung der oberen Schichten des Arktischen Ozeans zeigt, dass jedwede absorbierte Wärme nicht signifikant ist. Trotz stärkeren Zuflusses warmen atlantischen Wassers stützt der abnehmende Wärmegehalt der oberen 700 m die konkurrierende Hypothese, dass wärmere Arktistemperaturen zumindest teilweise das Ergebnis verstärkter Zirkulation der Wärme sind, die zuvor unter einer dicken isolierten Eisschicht lag (7). Diese zweite Hypothese stimmt auch überein mit ausgiebigen Beobachtungen, dass sich die Arktis in den achtziger und neunziger Jahren abgekühlt hat. Die Erwärmung erfolge, nachdem milde Winde, umgelenkt durch die Arktische Oszillation, dickes vieljähriges Eis von der Arktis weggetrieben haben (11).

Regionale Abkühlung findet man auch entlang der Zugbahnen von Stürmen in der Karibik und vor der Ostküste der USA. Diese Tatsache widerspricht Spekulationen, wonach Hurrikane im Atlantik infolge steigender Wassertemperatur stärker werden oder geworden sind. Dies bestätigt auch frühere Analysen von Bob Tisdale und anderen, dass Superstorm Sandy keine Folge wärmerer Ozeane war.

Um ihre Behauptung zu stützen, dass die Tiefsee dramatisch Wärme absorbiert, müssen Balmaseda/Trenberth einen Mechanismus und regionale Beobachtungen präsentieren, bei denen Wärme von der Oberfläche in diese Tiefen transportiert worden ist. Aber da findet man kaum etwas. Erwärmung in großen Tiefen und gleichzeitige Abkühlung der Oberfläche ist eine Antithese zu den Vorhersagen der Klimamodelle. Die Modelle hatten vorhergesagt, dass die globale Erwärmung zuerst in der oberen Schicht ablagern würde, und ebnen diese Schicht. Die Diffusion würde hunderttausende Jahre dauern, kann also nicht der Mechanismus sein. Trenberth, Rahmstorf und andere haben argumentiert, dass Winde die Wärme unter die Oberfläche treiben könnten. Tatsächlich können Winde Wärme nach unten treiben in einer Schicht, die die Ozeanographen Misch-Schicht [mixed layer] nennen. Aber die Tiefe, bis zu der die Durchmischung durch Wind stattfindet, liegt grob bei 10 bis 200 Metern in den meisten Gebieten der Tropen und der Mittleren Breiten (hier). Und diese Tiefen haben sich leicht abgekühlt.

Der einzige andere mögliche Mechanismus, der Wärmetransporte in die Tiefsee vernünftig erklären könnte wäre, dass die Winde die Thermokline [?] kippen könnten (hier). Die Thermokline beschreibt eine rapide Transition zwischen der warmen oberen Schicht und der kalten unteren Schicht in den Ozeanen. Wie in Abbildung 15 gezeigt, sammelt sich während eines La Nina warmes Wasser im Westpazifik und vertieft die Thermokline. Aber die kippende pazifische Thermokline reicht normalerweise nicht tiefer als 700 m, wenn überhaupt (8).

Unglücklicherweise sagt die Analyse von Wunsch und Heimbach (2014) nichts über Änderungen der Schicht zwischen 700 m und 2000 m. Basierend auf Änderungen des Wärmegehaltes unter 2000 m (ihre Abbildung 16 unten) sind tiefere Schichten des Pazifik praktisch frei von irgendeiner Erwärmung in der Tiefe.

Die einzige Region, in der die größte Menge Wärme in die Tiefsee transportiert wird, sind die Regionen mit Eisbildung rings um die Antarktis, vor allem in der östlichen Weddell-See, wo sich das jährliche Meereis ausdehnt (12). Anders als die Arktis ist die Antarktis relativ isoliert von eindringendem subtropischen Wasser (wie hier diskutiert), so dass jede Erwärmung der Tiefsee zumeist von oben kommt mit einem kleinen Beitrag durch Geothermie.

Eine dagegen haltende stärkere Meereisbildung kann relativ warmes Wasser unter der Oberfläche in die Tiefe bringen. Wenn der Ozean gefriert, wird das Salz ausgeschieden und bildet eine dichte Lake mit einer Temperatur, die immer um den Gefrierpunkt schwankt. Typischerweise nennt man dieses unmodifizierte Wasser Schelf-Wasser [Brackwasser?]. Dichtes Schelf-Wasser sinkt auf den Grund der polaren Meere. Auf dem Weg in die Tiefe muss dieses Schelf-Wasser durch Schichten unterschiedlich modifizierten warmen Tiefenwassers oder des antarktischen zirkumpolaren Wassers sinken. Turbulente Durchmischung bringt ebenfalls einen kleinen Teil des warmen Wassers in die Tiefe. Warmes Tiefenwasser komprimiert typischerweise 62% des durchmischten Wassers, das schließlich den Grund erreicht. Jedwede Änderung dieser Dynamik (wie zunehmende Meereisbildung oder Zirkulationseffekte, die einen größeren Teil warmen Tiefenwassers durchdringen) können mehr Wärme in die Tiefe umverteilen (14). Infolge der antarktischen Oszillation wurde beobachtet, dass das von der antarktischen zirkumpolaren Strömung transportierte Wasser in Wellen südwärts vordringt, was dieses Wasser näher an Regionen mit Eisbildung bringt. Schelf-Wasser  hat sich allgemein abgekühlt, und es gab keine erkennbare Erwärmung des warmen Tiefenwassers. Daher ist die Tiefsee-Erwärmung in diesem Gebiet wahrscheinlich lediglich eine Umverteilung von Wärme und kein Zusatz zum ozeanischen Wärmegehalt.

Also bleibt unklar, falls und wie Trenberths „fehlende Wärme“ in die Tiefsee hätte absinken können. Die Darstellung eines dramatischen Anstiegs der Wärme des Tiefenwassers ist hoch fragwürdig, obwohl hartgesottene Alarmisten es als Beweis der Kraft von CO2 zur Schau gestellt haben. Wie Dr. Wunsch schon zuvor gewarnt hat: „Bequeme Hypothesen sollten nicht vorschnell in ‚Tatsachen‘ verwandelt werden, und Ungewissheiten und Mehrdeutigkeit nicht unterdrückt werden“. … „Ein Modell kann jeder schreiben: die Herausforderung besteht darin, dessen Genauigkeit und Präzision zu zeigen… Anderenfalls wird die wissenschaftliche Debatte kontrolliert durch die schillerndsten oder hartleibigsten Mitspieler“ (1).

Zur Wiederholung: Die Unsicherheiten bleiben zu groß, um z. B. den offensichtlichen „Stillstand“ der Erwärmung vernünftig zu erklären.

Jim Steele is Director emeritus Sierra Nevada Field Campus, San Francisco State University and author of Landscapes & Cycles: An Environmentalist’s Journey to Climate Skepticism

—————————————————————————–

Literature Cited

1. C. Wunsch, 2007. The Past and Future Ocean Circulation from a Contemporary Perspective, in AGU Monograph, 173, A. Schmittner, J. Chiang and S. Hemming, Eds., 53-74

2. Wunsch, C. and P. Heimbach (2013) Dynamically and Kinematically Consistent Global Ocean Circulation and Ice State Estimates. In Ocean Circulation and Climate, Vol. 103. http://dx.doi.org/10.1016/B978-0-12-391851-2.00021-0

3. Wunsch, C., and P. Heimbach, (2014) Bidecadal Thermal Changes in the Abyssal Ocean, J. Phys. Oceanogr., http://dx.doi.org/10.1175/JPO-D-13-096.1

4. Xue,Y., et al., (2012) A Comparative Analysis of Upper-Ocean Heat Content Variability from an Ensemble of Operational Ocean Reanalyses. Journal of Climate, vol 25, 6905-6929.

5. Lyman, J. et al, (2010) Robust warming of the global upper ocean. Nature, vol. 465,334-337.

6. Lyman, J. and G. Johnson (2014) Estimating Global Ocean Heat Content Changes in the Upper 1800m since 1950 and the Influence of Climatology Choice*. Journal of Climate, vol 27.

7. Rigor, I.G., J.M. Wallace, and R.L. Colony (2002), Response of Sea Ice to the Arctic Oscillation, J. Climate, v. 15, no. 18, pp. 2648 – 2668.

8. Zhang, R. et al. (2007) Decadal change in the relationship between the oceanic entrainment temperature and thermocline depth in the far western tropical Pacific. Geophysical Research Letters, Vol. 34.

9. Hansen, J., and others, 2005: Earth’s energy imbalance: confirrmation and implications. Science, vol. 308, 1431-1435.

10. von Schuckmann, K., and P.-Y. Le Traon, 2011: How well can we derive Global Ocean Indicators

from Argo data?, Ocean Sci., 7, 783-791, doi:10.5194/os-7-783-2011.

11. Kahl, J., et al., (1993) Absence of evidence for greenhouse warming over the Arctic Ocean in the past 40 years. Nature, vol. 361, p. 335‑337, doi:10.1038/361335a0

12. Parkinson, C. and D. Cavalieri (2012) Antarctic sea ice variability and trends, 1979–2010. The Cryosphere, vol. 6, 871–880.

13. Balmaseda, M. A., K. E. Trenberth, and E. Kallen, 2013: Distinctive climate signals in reanalysis of global ocean heat content. Geophysical Research Letters, 40, 1754-1759.

14. Azaneau, M. et al. (2013) Trends in the deep Southern Ocean (1958–2010): Implications for Antarctic Bottom Water properties and volume export. Journal Of Geophysical Research: Oceans, Vol. 118

Link: http://wattsupwiththat.com/2014/07/21/deep-oceans-are-cooling-amidst-a-sea-of-modeling-uncertainty-new-research-on-ocean-heat-content/

Übersetzt von Chris Frey EIKE




Fernsehmoderator Wickert : „Dämmen lohnt sich!“ Doch er verschweigt für wen!

Die  FAZ hat sich diese durchsichtige Werbemasche des U. Wickert und ihre Hintermänner genauer angesehen und unter den Titel: „Angriff der Umerzieher“-  Dämm-Agentur „Dena“ einen Bericht dazu veröffentlicht. Herauskam – wie so oft- dass der Old Boys Verein ("Frogs" Friends of Gerhard Schröder) des Altbundeskanzlers Gerhard Schröder, bei der Gründung der DENA die Fäden zog.

Angriff der Umerzieher

„Dena“ heißt eine Staatsagentur, die uns zum Dämmen bekehren will. Die Industrie findet es prima. Und der Bürger zahlt die Rechnung.

19.07.2014, von GEORG MECK

Ulrich Wickert hat eine neue Aufgabe: Der geschäftstüchtige Ex-Tagesthemen-Moderator mit einem Hang zum Guten verschönerte schon die Fußball-WM mit TV-Spots, nun läuft seine Werbung zur teuersten Sendezeit. „Dämmen lohnt sich!“, lautet die Botschaft: „Häuser sind wie Menschen.“ Das stattliche Honorar („Superstars kosten Geld!“) für solch zarte Lyrik zahlt ein Verein namens Qualitätsgedämmt e.V.. Dahinter steckt die einschlägige Industrie, was nicht verwundert, schließlich wollen die Firmen ihr Zeug verkaufen – unter welcher Tarnung auch immer. Warum aber ist der Staat mit an Bord? Was hat die öffentliche Hand hier zu suchen? Anfangs war die Agentur eine rein staatliche Veranstaltung, heute hält der Bund – zusammen mit den 26 Prozent der KfW – noch 76 Prozent, den Rest teilen sich die Minderheitseigner Allianz, Deutsche Bank, DZ-Bank. Die Idee klang so abwegig nicht: Wenn das Land auf die Kernenergie verzichtet, Öko-Strom die Lücke so schnell nicht schließt, muss Energie gespart werden. Stichwort: Energieeffizienz. Das Volk mit Gesetzen dazu zu zwingen ist schwer, vor allem politisch unklug. Die Leute allein mit finanziellen Anreizen zu ködern, wird irgendwann zu teuer. Also wählte man den vermeintlich sanfteren Weg einer breit eingebetteten Umerziehung – auf diesem Pfad ist die Dena unterwegs. „Gutmenschentum zur Drangsalierung Dritter“, nennen das Lästermäuler in Berlin.

Weiterlesen in der FAZ hier




Professor für Klimastatistik wird aus Politik-Institut ausgeschlossen: Er hatte bezweifelt, dass der Klimawandel das wichtigste Problem der Menschheit sei

Bild rechts: © Thorben Wengert  / pixelio.de

Im Mai 2013 schrieb der Professor für Klimastatistik, Caleb Rossiter, in seinem Blog, dass er sich in Zukunft nicht mehr zur Klimadebatte öffentlich äußern würde, da eine vernünftige Diskussion mit den Anhängern der Klimakatastrophe nicht möglich ist:

Ich flüchte vor dem Klimakrieg. Ich werde nie wieder einen Artikel über Klima schreiben oder für ein Gespräch zum Thema Klima zur Verfügung stehen. Eher werde ich mir in die Zunge beißen und oooooooooooooom sagen, wenn ich die Art von Übertreibungen und Gewissheiten sehe oder höre über die Gefahren Wärme einfangender Gase, die dazu neigen, mein Blut ob deren Absurdität zum Wallen zu bringen. Ein Jahrzehnt lang war ich ein eifriger Befolger der wissenschaftlichen Methode und folglich ein „Skeptiker“ hinsichtlich des Klima-Alarmismus‘. Ich habe alles gesagt, was ich zu diesem immer wiederkehrenden unlösbaren Komplex denke und weiß.

Dies ist nicht so, wie ich meiner Frau nach einem Marathon versprochen habe, „niemals wieder!“. Dies ist real. Es gibt einfach zu wenig Spielraum für eine echte Debatte, weil die Politik von Leuten dominiert wird, die sich diesem Thema nicht wie Beweise abwägende Gelehrte zuwenden, sondern wie Anwälte, die eine Jury mit verdächtigen Daten sowie unlogischen und emotionalen Argumenten bombardieren.

Ein Jahr später, am 4. Mai 2014 brach Rossiter mit seinem Vorhaben und veröffentlichte im Wall Street Journal doch noch einen letzten Beitrag, in dem er die Über-Fokussierung auf das angebliche zukünftige CO2-Problem anprangert, während es in Afrika eine große Anzahl von wahrhaftigen aktuellen Problemen gibt, die viel leichter zu lösen wären:

Afrika wird für den Klimawandel geopfert

Die westliche Politik scheint mehr an dem Niveau des Kohlendioxids interessiert zu sein als an Lebenserwartung.

Leider befindet sich der Essay hinter einer Paywall. Climate Depot bringt jedoch eine Komplettversion (am Ende der verlinkten Seite). Im Folgenden einige Auszüge via Climate Depot:

In dem OpEd im ‘Wall Street Journal’ von Rossiter heißt es: „Die Linke möchte die Industrialisierung anhalten – selbst wenn die Hypothese einer katastrophalen, vom Menschen verursachten globalen Erwärmung falsch ist. John Feffer, mein Kollege am Institute for Polar Studies, schrieb am 8. Dezember 2009 in der ‚Huffington Post‘: ‚Selbst wenn die Temperaturen nicht steigen, sollten wir die Entwicklungsländer in nachhaltiger Manier in das postindustrielle Zeitalter bringen‘. Er sieht die Klimakrise als genau den riesigen Hebel, mit dem wir Archimedes folgend die Welt in eine grünere, gerechtere Richtung dirigieren können“.

“Dazu werden die Computermodelle einfach, wie es geschehen ist, mit der Hypothese konstruiert, dass fossile Treibstoffe der Schuldige sind, wenn die Temperaturen steigen, sogar obwohl es von 1900 bis 1940 zu einer ähnlichen Erwärmung gekommen war, also bevor die fossilen Treibstoffe die Ursache sein konnten. Das IPCC behauptet auch, dass die Erwärmung, aus welchen Gründen auch immer, die Länge von Dürren, die Häufigkeit von Überschwemmungen und die Intensität von Stürmen hat zunehmen lassen sowie den Anstieg des Meeresspiegels bewirkt hat. Es projiziert, dass diese Auswirkungen katastrophal zunehmen werden. Und doch räumt selbst das IPCC ein, dass die globale mittlere Temperatur heute seit 2000 unverändert ist und nicht um ein Grad gestiegen ist, wie es die Modelle vorhergesagt hatten.

„Aber als wie ein Afrika-Kenner und nicht wie ein Statistiker bin ich stärkstens gegen die ‚Klima-Gerechtigkeit‘. Wo bleibt die Gerechtigkeit für Afrikaner, wenn Universitäten von Energie-Unternehmen beraubt werden, was ihre Fähigkeit schwächt, in Afrika nach Ressourcen zu suchen? Wo bleibt die Gerechtigkeit, wenn die USA sich gegen Gelder der Weltbank für Stromerzeugungs-Projekte in Afrika stemmen, worunter auch fossile Treibstoffe sind, und wenn die Europäische Union eine Steuer für ‚globale Erwärmung‘ auf Frachtflüge erhebt, die verderbliche Güter aus Afrika importieren?“

Rossiter spricht ein wichtiges Problem an. Wir könnten heute den Menschen in Afrika leicht helfen: sauberes Trinkwasser, Ausbildung, gute Staatsführung… Aber das würde ja bedeuten, dass man jetzt sofort tatkräftig anpacken müsste. Sehr viel einfacher ist es, den abstrakten CO2-Geist zu jagen. Die simplistische Formel: Reduziert Euren CO2-Ausstoß, verzichtet, leidet, dann wird alles gut. Ein mittelalterlich anmutender, religiös-geprägter Gedanke.

Die Quittung für Caleb Rossiters vernünftigen Beitrag kam sofort. Nach 23 Jahren Zusammenarbeit beendete das Institute for Policy Studies (IPS) aufgrund des Wall Street Journal-Artikels kurzerhand die Zusammenarbeit mit Rossiter. Die Kündigungs-Email des IPS ist lesenswert (Fettsetzung ergänzt):

From: John Cavanagh
Sent: May 7, 2014 9:51 PM
To: Caleb Rossiter
Cc: Emira Woods, Joy Zarembka
Subject: Ending IPS Associate Fellowship

Hallo Caleb,

Wir möchten Sie davon in Kenntnis setzen, dass wir Ihnen in Ihrer Position als assoziiertes Mitglied des Institute for Policy Studies (IPS) kündigen. Wie Sie wissen, wird das IPS gesponsert von einem IPS-Projektleiter oder vom Direktor. In Ihrem Falle haben wir beide Ihre Mitgliedschaft gesponsert. Unglücklicherweise haben wir jetzt den Eindruck, dass Ihre Ansichten zu zentralen Themen, darunter Klimawissenschaft, Klimagerechtigkeit und viele Aspekte der US-Afrikapolitik so signifikant von unseren Ansichten abweichen, dass eine weitere produktive Zusammenarbeit unhaltbar ist. Die anderen Projektleiter am IPS denken genauso.

Ich (John) habe mit Ihnen seit zwei Jahrzehnten immer wieder zusammengearbeitet, und ich bewundere das unter Ihrer Federführung durchgeführte Projekt zu Demilitarisierung und Demokratie durch das IPS. Ich bewundere auch Ihre Arbeit mit dem Republikaner Delahunt auf dem Capitol Hill. Wir beide haben mit Ihnen auch bei anderen Themen zusammengearbeitet mit starkem gegenseitigem Respekt. Wir danken Ihnen für diese Arbeit und wünschen Ihnen alles Gute für zukünftige Unternehmungen.

Falls Sie sich mit uns persönlich treffen wollen, stehen wir zur Verfügung. John wird ein paar Tage in Berlin sein, aber danach könnten wir uns treffen. Emira wird hier sein, falls Sie sich schon früher treffen wollen.

Freundliche Grüße

John und Emira

Rossiter wollte dies nicht so einfach hinnehmen und mit der Leitung des IPS über die Gründe des Ausschlusses sprechen. Dort hieß es jedoch nur lapidar: “Caleb, dafür habe ich nun wirklich keine Zeit.” Im Original sagt Rossiter im Interview mit Climate Depot:

,,Ich habe versucht, das IPS dazu zu bringen, ihre Zurückweisung meiner Analyse zu diskutieren und zu erklären“, sagte Rossiter bei Climate Depot. „Als ich einer Behauptung einer ‚sich rapide beschleunigenden‘ Temperaturänderung widersprach, weil die eigenen Daten des IPCC den seit fast 20 Jahren andauernden Stillstand der Temperatur (hier) zeigen, war die einzige Antwort, die ich bekam ‚Caleb, dafür habe ich jetzt wirklich keine Zeit!‘“.

In einem weiteren Interview mit The College Fix erläuterte Rossiter seine Frustration über die wissenschaftlichen Denkverbote in der Klimadebatte:

„Ich bin einfach jemand, der davon überzeugt worden ist, dass die behauptete Sicherheit über die Gründe der Erwärmung und die Auswirkungen derselben ungemein und unverantwortlich übertrieben worden sind“, sagte er in einem Exklusiv-Interview mit The College Fix. „Ich bin nicht jemand, der sagt, dass es keine Erwärmung gegeben habe und dass diese keine Auswirkungen habe. Ich kann lediglich nicht erkennen, warum so viele Menschen glauben, dass sie eine katastrophale Bedrohung für unsere Gesellschaft und für Afrika sein soll“.

Link: http://www.kaltesonne.de/?p=19211

Bei Pierre Gosselin gibt es dazu wie oben erwähnt zahlreiche internationale Stimmen:

Fallout der Caleb S. Rossiter-Affäre: Akademiker auf der ganzen Welt verurteilen den „Dark Age“-Intellekt des Institute For Policy Studies

P Gosselin

Es gibt großen Aufruhr um die Kündigung der Mitgliedschaft von Caleb S. Rossiter, Assistenzprofessor, Department of Mathematics and Statistics and School of International Service, American University. Die ganze Geschichte steht bei Climate Depot hier.

Die selbst verliehene Aufgabe des Institute for Policy Studies (IPS) ist es, ‚Gedanken umzusetzen hinsichtlich Frieden, Gerechtigkeit und der Umwelt‘. Das sind noble Ziele, die aber nur mit guten Lösungen erreicht werden können – Lösungen, die nur erreicht werden können durch offene und ehrliche Diskussionen. Ich wollte Reaktionen anderer führender Wissenschaftler, Journalisten und Akademiker hierzu in Erfahrung bringen und habe sie in E-Mails um ihre Meinung gebeten. Sehr zu meiner Genugtuung haben die meisten auch geantwortet. Ihre Kommentare zur Rossiter-Kündigung folgen hier:

Willie Soon (USA)
Professor of Astrophysics
Harvard-Smithsonian Center for Astrophysics
Für jeden objektiven Leser und Bürger dieser Welt ist diese Art von Schikane geeignet, jeden davon in Kenntnis zu setzen, dass Wissenschaft und deren Durchführung nicht länger frei und unabhängig ist. Tatsächlich werden wir fortwährend terrorisiert und bedroht durch Forschungen fördernde Ausbeuter [gravy trains] und große Ressourcen, die die Wissenschaft braucht, um Fortschritte zu erzielen und aufzublühen. Dies ist ein wissenschaftliches Dunkles Zeitalter, in dem wir leben, weil keine Wissenschaftler vom Format Rossiters mehr ihre Stimme erheben und die ganze Wahrheit zu jedwedem wissenschaftlichen Thema aussprechen. Der Gedanke, dass das atmosphärische CO2 der einzige sichere Kontrollknopf ist hinsichtlich des Klimas und zukünftiger Katastrophen ist ausgesprochen falsch – nicht nur aus wissenschaftlichen Gründen, sondern auch aus den moralischen und ethischen Gründen, die Prof. Rossiter in seinem OpEd im WSJ angesprochen hat. Gott sei Dank werden die UN und die vielen wissenschaftlichen Institutionen nie in der Lage sein, uns ruhig zu stellen, weil wir dies niemals zulassen werden“.

Lennart Bengtsson (Schweden)
Professor of Meteorology, climate scientist

,,Wie ich selbst vor Kurzem erfahren musste, liegt die Schwelle der Toleranz bzgl. der Klimaänderung deprimierend niedrig; ich würde fast sagen, sie ist nicht mehr existent. Dies ist höchst besorglich hinsichtlich einer gesunden Wissenschaft. Ich finde die Kommentare von Prof. Rossiter sehr vernünftig, und es ist offensichtlich, dass es für Afrika ohne eine gesunde ökonomische Entwicklung etwa so, wie wir es in China gesehen haben, nicht viel Hoffnung gibt, und dass es wenig Hoffnung gibt, dass die Menschheit jemals ihre Umweltprobleme wird lösen können. Die Direktoren des IPS sollten sich fragen, wie das Leben in Europa und den USA heute aussehen würde ohne Zugang zu billiger Energie in Form von Kohle während der letzten 250 Jahre. Ich empfinde die Art, wie man mit Prof. Rossiter umgeht, sowohl unintelligent als auch undankbar“.

Fritz Vahrenholt (Deutschland)
Professor of Chemistry, co-author of The Neglected Sun

„Das Recht freier Meinungsäußerung und die Freiheit der Wissenschaft sind die absolute Grundlage demokratischer Gesellschaften. Geht es allerdings um die Ideologie des Klima-Alarmismus‘, gilt dies mit Sicherheit nicht für Institutionen wie das IPS. Das ist bedauerlich. Caleb Rossiter hat Recht: die internationale Klimapolitik hat bisher mehr Schaden als Nutzen für die Menschheit der Welt gebracht“.

[Falls Vahrenholt das auf Deutsch gesagt hat, handelt es sich hier um eine Rückübersetzung. Vermutlich hat er aber Gosselin direkt auf Englisch geantwortet. – Auch alle anderen Kommentare deutscher Wissenschaftler unten sind aus Zeitgründen einfach Rückübersetzungen. Anm. D. Übers.]

Judith Curry (USA)
Professor of Earth and Atmospheric Sciences
Georgia Tech

„Wikipedia beschreibt das IPS als eine linkslastige Denkfabrik. Es ist nicht klar, ob Rossiter eine bezahlte Position innehatte oder nicht. Es kommt für mich nicht überraschend, dass eine Denkfabrik mit einer eindeutigen Agenda jemanden loswerden will, der gegen diese Agenda handelt. Falls Rossiter eine von der Regierung bezahlte Position verloren hat nur wegen seiner Ansichten, stünde das auf einem anderen Blatt“.

S. Fred Singer (USA)
Professor of Atmospheric Physics

„Ich kenne Prof. Rossiter. Vor vielen Jahren hat er mich eingeladen, eine Vorlesung zum Thema Klimawissenschaft vor seinen Studenten an der American University zu halten. Ich hatte den Eindruck, dass er hinsichtlich dieses Themas offen war – und einfach die Beweise kennenlernen wollte, sowohl für als auch gegen den menschlichen Einflusses auf den Klimawandel. Ich habe mich über das Treffen mit ihm gefreut. Ich gedachte ihn auf den neuesten Stand zu bringen. Ich kenne auch das IPS. Wie viele linke Gruppierungen hat es eine feste Position zu bestimmten Themen und bestärkt Orthodoxie. Daher bin ich nicht überrascht – selbst wenn das Klima nichts mit Krieg in Vietnam zu tun hat“.

Lubos Motl (Tschechische Republik)
Professor of Physics

„Wie in so vielen anderen Fällen bin ich besorgt, wenn ich derartige Nachrichten über Wissenschaftler höre, die wegen ihrer Ansichten gefeuert werden. Aber in diesem Falle bin ich nicht überrascht oder beeindruckt, weil es sich um eine linksgerichtete Denkfabrik handelt – die natürlich nicht toleriert, dass jemand mit der zugrunde liegenden Orthodoxie nicht übereinstimmt. Diese Denkfabrik nimmt hoffentlich nicht für sich in Anspruch, eine offene öffentliche Organisation zu sein mit einem Monopol auf etwas, dass für alle Menschen offen sein sollte. Das ist Rosinenpickerei wie bei einer politischen Partei, nur Menschen mit bestimmten Meinungen zu akzeptieren. Ich bin nicht sonderlich besorgt oder schockiert über diesen Vorgang“.

Klaus-Eckart Puls (Deutschland)
Meteorologe im Ruhestand am Europäischen Institut für Klima und Energie,

„Seine Mitgliedschaft wurde beendet, weil er einen abweichenden Standpunkt vertrat. Sie haben es selbst gesagt. Das ist Dogmatismus und nicht Wissenschaft oder das Suchen nach Lösungen. Dies führt uns zu der Frage, ob das IPS überhaupt eine seriöse Organisation ist“.

Dr. Sebastian Lüning (Deutschland)
Spezialist für Geologie in Afrika
Co-author of The Neglected Sun

„Das ‚Institute for Policy Studies’ sollte seinen Namen ändern zu ‚Church [Kirche] for Policy Studies‘, falls die Direktoren ihren Wissenschaftlern die Meinungsfreiheit absprechen. Prof. Rossiter spricht in seinem Kommentar einen sehr richtigen Punkt an, der detaillierte Diskussionen verdient. Afrika leidet aktuell unter einer Vielzahl von Problemen, wobei die Klimaänderung aber ziemlich nahe dem Ende der Liste steht“.

Tim Ball (Canada)
Professor of Geology

,,Ich habe kein Mitleid mit Caleb Rossiter. Er ist kein Opfer. Er wurde in einen kleinen Club von Menschen geworfen, die dämonisiert worden sind, weil sie es gewagt haben, Fragen zu stellen, weil sie es gewagt haben, skeptische Wissenschaft zu praktizieren, weil sie es gewagt haben, sich gegen die Vorgaben auszusprechen. Das Traurige daran ist, dass wir nie von ihm gehört hätten, wenn es die Beendigung seiner Mitgliedschaft nicht gegeben hätte.

Wo war er, als Rachel Carson mindestens 90 Millionen Afrikaner zum Tode verurteilt hat, weil sie fälschlich behauptet hatte, dass DDT Krebs und den Tod ihres Mannes verursachte? Wo war er, als ich mit Paul Driessen (EcoImperialism) über Tausende Afrikaner geschrieben habe, die infolge hoher Lebensmittelpreise gestorben sind, weil die US-Landwirte mit Subventionen der Regierung Mais in Treibstoff umgewandelt haben, um amerikanische Autos anzutreiben?

Jetzt hören wir von seinen Sorgen, als ob er der Erste ist, der entdeckt, was seit Jahren vor sich geht. Die Lage in Afrika und auf der Welt ist eine Folge der Linkspolitik, die er unterstützt und ohne Zweifel auch seinen Studenten vermittelt hat. Man stelle sich der Realität, dass er nicht nur Ihr Leben verschwendet hat, sondern dies auch im Stile einer Rachel Carson getan hat.

Es ist viel zu spät, um mit einem mea culpa oder selbst einem mea maxima culpa zu kommen. Vermutlich würde er immer noch seine Linksagenda vorantreiben, falls seine Mitgliedschaft nicht beendet worden wäre. Wird er jetzt herausstellen, was an der Botschaft des IPS von jetzt an falsch ist?“

Nicola Scafetta (Italien)
Professor of Physics, Duke University

„In der Wissenschaft werden Probleme gelöst durch Anwendung der wissenschaftlichen Methode. Jene, die glauben, dass eine vorgebrachte Theorie falsch ist, präsentieren ihre Argumente mit anschließender Diskussion. Die wissenschaftliche Methode ist so strukturiert, dass die Wissenschaft sich von den falschen Theorien lösen kann. Daher haben die Befürworter der Theorie der anthropogenen globalen Erwärmung nichts zu befürchten, falls sie an Wissenschaft interessiert sind und auf der Seite der Natur stehen, wie sie behaupten. Sie müssen einfach Geduld haben und mittels der wissenschaftlichen Methode die Kritik widerlegen.

Im Gegenteil, die Kampagne zur Ruhigstellung der Dissidenten der Theorie von der anthropogenen globalen Erwärmung hat nichts mit Wissenschaft zu tun. Es ist einfach eine politische Intrige, Wissenschaftler einzuschüchtern mit dem Ziel, sie an ihrer Arbeit zu hindern. Der einzige positive Aspekt dieser traurigen Situation ist, dass die Politik die wissenschaftliche Methode nicht substituieren oder stoppen kann. Die Politik kann höchstens den wissenschaftlichen Fortschritt verlangsamen mit einigen schädlichen Auswirkungen auf die Gesellschaft, aber sie kann ihn nicht wirklich aufhalten. Seit dem Jahr 2009 habe ich über 20 Studien zur natürlichen Klimavariabilität und den möglichen physikalischen Gründen veröffentlicht. Die jüngste Aktualisierung ist hier; viele Studien behandeln auch verwandte Themen, und eine zunehmende Anzahl davon kommen zu der gleichen Schlussfolgerung wie im Jahre 2009, dass mindestens die Hälfte der seit 1950 beobachteten Erwärmung natürlichen Gründen geschuldet ist, verursacht durch klimatische Oszillationen (z. B durch eine 60-jährige plus andere Oszillationen). Es scheint mir eindeutig, dass die Theorie der anthropogenen globalen Erwärmung wie vom IPCC proklamiert keine Zukunft hat.

Das Verstehen, wie das Klima wirklich funktioniert, wäre für jedermann von Vorteil. Also kann nicht nichts anderes tun als hoffen, dass die Wissenschaftler die volle Freiheit haben, die Klimaänderung zu erforschen ohne die unangemessene politische Einmischung, und dass sie die verdiente Anerkennung und den Dank  für echte wissenschaftliche Arbeit bekommen.

Hans Labohm (Holland)
Economist/publicist

„Dies ist das x-te Beispiel eines von seinen Kollegen exkommunizierten Wissenschaftlers, weil er es ablehnt, Fakten zu ignorieren oder der Parteilinie zu folgen. Während all der Jahre bin ich in meinem eigenen Land, den Niederlanden, Zeuge vieler ähnlicher Vorkommnisse geworden und habe auch von vielen Fällen im Ausland gehört. Es ist Teil eines hässlichen Lysenkoismus auf dem Gebiet der Klimawissenschaft. Es ist inkonsistent mit dem Geist der Suche nach Wahrheit, die eigentlich die treibende Kraft hinter der Wissenschaft sein sollte. Jeder Wissenschaftler oder jede Wissenschaftlerin, seien sie nun in der Klimatologie tätig oder anderswo, seien sie pro oder kontra AGW, sollten sich laut zu Wort melden gegen diese Praktiken, und sie sollten diese einstimmig verurteilen“.

Dirk Maxeiner (Deutschland)
Wissenschafts-Journalist/Publizist

„Der Umgang mit Caleb S. Rossiter ist ein Ausdruck einer seltsamen neuen Anbetung von Stars, die vor nichts haltmacht. (…) Die Aufmerksamkeit wird von den konkreten Problemen der heute lebenden Menschen auf zukünftige Generationen gelenkt. Vielen Menschen in Afrika leiden unter furchtbaren Bedingungen, schmutzigem Wasser und schmutziger Luft. Dies findet sich unter den führenden Gründen für den Tod von Kindern. Ihnen sollte man heute helfen. Aber die Öffentlichkeit macht sich mehr Sorgen über die Afrikaner als Klimaopfer in 100 Jahren. Die einfachste Regel für nachhaltige Aktionen scheint vergessen. Sie lautet: „Wer auch immer morgen überleben möchte, muss erst einmal heute überleben“.

Mehr: http://notrickszone.com/2014/06/15/caleb-s-rossiter-fallout-academics-worldwide-condemn-dark-age-intellect-of-institute-for-policy-studies/#sthash.zzExQghy.dpuf

Link: http://notrickszone.com/2014/06/15/caleb-s-rossiter-fallout-academics-worldwide-condemn-dark-age-intellect-of-institute-for-policy-studies/

Übersetzt von Chris Frey EIKE




Europa riskiert den Verlust von 30 Millionen Arbeitsplätzen infolge des US-Schieferbooms

Bild rechts: © Dieter Schütz  / pixelio.de

Hersteller von Petrochemikalien, Aluminium, Dünger und Plastik verlassen Europa, um von der boomenden Erdgaserzeugung in den USA aus Schiefergestein zu profitieren. Dies sagte Fatih Birol, leitender Ökonom der in Paris ansässigen IEA, die als Berater für 29 Nationen fungiert. „Viele petrochemische Unternehmen in Mitteleuropa ziehen weg”, sagte Birol. „Dreißig Millionen Arbeitsplätze sind in Gefahr“.

Die USA sind mittlerweile zum weltgrößten Erzeuger von Öl und Gas geworden, halfen doch hydraulisches Brechen und waagerechte Bohrungen bei der Extraktion der Ressourcen aus dem Schiefer. Die Raffinerien des Landes produzierten vorige Woche ein Rekordvolumen von  Rohöl, weil die Kraftwerke den Vorteil billiger heimischer Rohstoffe ausnutzten. Chemiehersteller von der BASF SE in Deutschland bis zu Braskem SA in Brasilien planen Investitionen bis zu 72 Milliarden Dollar in US-Kraftwerke, um von den Vorteilen billiger Erdgasreserven zu profitieren.

Intermediate Crude in West-Texas handelten mit einem Rabatt von 5,85 Dollar pro Barrel verglichen mit dem Bezugswert der europäischen Marke Brent auf der ICE Futures Europe-Börse in London [?]. US-Erdgas wurde für 3,96 Dollar pro Million thermischer Einheiten (MMBtu) an der New York Mercantile Exchange-Börse gehandelt im Vergleich zu 6,49 Dollar pro MMBtu für den äquivalenten UK-Vertrag zu ICE in London.

US-Raffinerien stehen im Wettbewerb um Marktanteile und profitieren von den Differenzen, die im Vergleich zu den europäischen Konkurrenten auftreten und die bis zu 10 Dollar pro Barrel wegen des billigeren Rohöls ausmachen.

To contact the reporters on this story: Priyanka Sharma in London at psharma142@bloomberg.net; Lananh Nguyen in London at lnguyen35@bloomberg.net

Link: http://www.bloomberg.com/news/2014-07-17/europe-risks-losing-30-million-jobs-to-u-s-shale-boom.html

Zum gleichen Thema findet sich auch etwas bei der GWPF:

Billiges US-Schiefergas bedroht die europäische Chemieindustrie

Rubber News

Der Union of Chemical Industries zufolge könnten Dutzende Industriestandorte und tausende Arbeitsplätze verloren gehen wegen der Auswirkungen des US-Schiefergases auf die Wettbewerbsfähigkeit der französischen Chemieindustrie.

Der französische Industrieverband UIC appelliert dringend an seine Regierung, eine „Gas-Strategie“ zu starten, um dem zwei- bis dreifachen Preisvorteil der USA zu begegnen, die die US-Erzeuger hinsichtlich Kosten für Energie und Rohstoffe haben.

Um sein Anliegen zu untermauern, hat die UIC die Forschungsfirma Carbone 4 beauftragt, die Auswirkungen der Preisdifferenz zwischen Frankreich und den USA auf die Chemieerzeuger zu untersuchen. Die Studie kam zu dem Ergebnis, dass der Schiefergas-Boom Investitionen anlockt im Wert von 117 Millionen Dollar in den USA, wobei diese neue Kapazität viele Unternehmen anderswo in Europa bedroht.

Der UIC zufolge könnten 32 Industriestandorte in Frankreich schließen, einhergehend mit dem Verlust von 10.000 Arbeitsplätzen als Folge der Verfügbarkeit billigerer US-Produkte und der Abnahme der französischen Wettbewerbsfähigkeit. Die Carbone-4-Studie untersuchte vier hauptsächliche Wertschöpfungs-Ketten: Ammonium, Äthylen/Polyäthylen, Chlor-Kalium und Polyamid 6.6. Es stellte sich heraus, dass von diesen vier die Äthylen-Kette durch zunehmende US-Ausfuhren dem stärksten Druck ausgesetzt ist – mit zusätzlichen 11 Millionen Tonnen Äthylen, ein Drittel der gegenwärtigen Kapazität – erwartet bis zu den Jahren 2017/2018.

Alles in Allem schätzt die Carbone-4-Studie, dass die gesamte US-basierte chemische Industrie mindestens doppelt so wettbewerbsfähig ist hinsichtlich der Gaspreise und der benötigten Rohstoffe.

Full Story

Link: http://www.thegwpf.org/cheap-u-s-shale-gas-threatens-european-chemical-industry/

Übersetzt von Chris Frey EIKE




Klimakatastrophe abgesagt: Widerlegung des NOAA-Klimaberichtes Punkt für Punkt

Bild rechts: Geologe Prof. Don J. Easterbrook

Klimabehauptung: Der Planet befand sich im Jahre 2013 deutlich außerhalb des normalen Niveaus und erreichte neue Rekorde hinsichtlich der Treibhausgase.

Prof. Easterbrook: STIMMT NICHT! Das CO2-Niveau lag während der letzten 500 Millionen Jahre durchweg über 3000 ppm. 400 ppm ist außerordentlich wenig.

Links von Climate Depot: CO2 at 400ppm: Wissenschaftler zeigen, dass die Erde geologisch gesehen derzeit CO2-hungrig ist und dass die geologischen Aufzeichnungen enthüllen, dass es zu Eiszeiten gekommen war, als der CO2-Gehalt bei 2000 ppm bis zu sogar 8000 ppm lag (hier). Außerdem haben begutachtete Studien dokumentiert, dass es Temperaturen ähnlich denen von heute gab, als der Kohlendioxidgehalt bis zu zwanzigmal höher lag als heute (hier). Und eine weitere begutachtete Studie aus diesem Jahr zeigte, dass der heutige CO2-Gehalt von 400 ppm übertroffen worden ist – ohne jeden menschlichen Einfluss – vor 12.750 Jahren mit einem CO2-Gehalt bis zu 425 ppm (hier).

Klimabehauptung: Zum ersten Mal in diesem Jahr erreichte der CO2-Gehalt der Erdatmosphäre den Messsungen am Mauna-Loa-Obersvatorium zufolge 400 ppm. Das weltweite Mittel erreichte 395,3 ppm, das ist eine Zunahme um 2,8 ppm gegenüber 2012, heißt es bei NOAA.

Kommentar von Prof. Easterbrook: Der CO2-Gehalt der Atmosphäre hat sich seit dem Beginn der jüngsten globalen Erwärmung (1978 bis 2000) nur um 0,004% geändert.

Klimabehauptung: „Die wesentlichen Treibhausgase erreichten 2013 neue Rekord-Höchstwerte“, sagte Jessica Blunden, eine Klimawissenschaftlerin am ERT und Mitautorin des NOAA-Berichtes.

Kommentar von Prof. Easterbrook: Na und? Wenn man nichts verdoppelt (0,004%), hat man immer noch nichts!

Klimabehauptung: Der Meeresspiegel steigt weiter: Getrieben durch warme Wassertemperaturen im Pazifik (welche zur Ausdehnung des Wassers führen) und schmelzende Eisschilde stieg der Meeresspiegel um 3,8 Millimeter, also genauso viel wie im langzeitlichen Trend von 3,2 mm pro Jahr während der letzten 20 Jahre.

Prof. Easterbrook: STIMMT NICHT! Die Rate des Meeresspiegel-Antriebs hat leicht abgenommen und liegt etwa bei 1,7 mm pro Jahr. Der Meeresspiegel ist mit einer relativ konstanten Rate von lediglich etwa 7 inches [ca. 18 cm] pro Jahrhundert – das sind 3,5 inches [ca. 9 cm] während der nächsten 50 Jahre.

Dazu passende Links: New paper finds global sea level rise has decelerated 31% since 2002 along with the ‘pause’ of global warming – Published in Nature Climate Change

Latest NOAA mean sea level trend data through 2013 confirms lack of sea level rise acceleration

New paper finds sea level rise has decelerated 44% since 2004 to only 7 inches per century – Published in Global and Planetary Change

Global sea level rise from tide gauges (1.6 mm/year) is half of that claimed from satellites (3.2 mm/year). Which is right? – ‘There is no acceleration of the increase’

New study finds sea levels rising only 7 in. per century – with no acceleration

Klimabehauptung: Das Klima ändert sich heutzutage schneller als zu jeder Zeit seit der modernen Zivilisation.

Prof. Easterbrook: STIMMT NICHT! Außer während der Kleinen Eiszeit war es während der letzten 10.000 Jahre 2,5 bis 5,5°F [ca. 1 bis 3°C] wärmer als heute einschließlich von Perioden mit einer viel stärkeren Erwärmung. Während des Mittelalterlichen Klimaoptimums war es wärmer und das Klima änderte sich schneller als in letzter Zeit. Das gilt auch für ein halbes Dutzend anderer Warmzeiten.

Dazu passende LinksRoman & Medieval Warm Periods Were Warmer Than Previously Thought – Eine in Nature Climate Change veröffentliche Studie zeigt, dass frühere Temperatur-Rekonstruktionen aus Baumringen ‚die Temperaturen vor instrumentellen Aufzeichnungen (vor 1850) einschließlich während des Römischen und des Mittelalterlichen Klimaoptimums unterschätzt worden sein könnten‘. Viele Rekonstruktionen zeigen, dass die Temperaturen während der Mittelalterlichen Warmzeit höher lagen als heute, und diese Studie zeigt, dass sie sogar noch höher gelegen haben könnten als ursprünglich angenommen.

‘More than 700 scientists from 400 institutions in 40 countries have contributed peer-reviewed papers providing evidence that the Medieval Warm Period was real, global, & warmer than the present’

Klimabehauptung: In den meisten Gebieten des Planeten gab es 2013 höhere jährliche Mitteltemperaturen als im Mittel, sagten NOAA-Funktionäre. In Australien war es zum wärmsten Jahr jemals gekommen, während in Argentinien das zweitwärmste und in Neuseeland das drittwärmste Jahr verzeichnet wurde.

Prof. Easterbrook: Aber nur nach massiven Manipulationen der Temperaturaufzeichnungen.

Dazu passender Link: Global Temperature Standstill Lengthens: No global warming for 17 years 10 months – Since Sept. 1996 (214 months)

Klimabehauptung: Es gab einen neuen Wärmerekord am Südpol mit minus 47°C.

Prof. Easterbrook: minus 47°C? das muss ja eine Menge Abschmelzen verursacht haben!

Klimabehauptung: Das Meereis um die Antarktis erreichte eine weitere Rekordmarke: am 1. Oktober überdeckte es 19,5 Millionen km². Dies übertraf die alte Rekordmarke aus dem Jahr 2012 um 0,7%. Obwohl das antarktische Meereis zunimmt, sind jedoch die Gletscher auf den Kontinenten geschrumpft.

Prof. Easterbrook: STIMMT NICHT! Das Eis um die Antarktis nimmt insgesamt zu. Es gibt KEIN Abschmelzen des ostantarktischen Eisschildes, das über 90% des antarktischen Eises enthält.

[Frage: was heißt eigentlich ‚östlich‘ oder ‚westlich‘, wenn am Südpol doch in alle Richtungen nur Norden ist? Anm. d. Übers.]

Dazu passende Links: Earth’s All Time Record High Temp Set in 1913 — Earth’s All Time Record Low Set in 2010 & 2nd All Time Record Low Set in 2013 — ‘What would warmists say if the dates were reversed?’

New paper finds East Antarctic ice sheet will have negative contribution to sea levels over next 200 years – Published The Cryosphere – Die Studie untersucht einen der größten Eisschilde in der Ostantarktis und sagt eine zunehmende Akkumulation von Eis und Schnee auf der Oberfläche des Eisschildes vorher. Dies wird insgesamt einen Beitrag zum Sinken des Meeresspiegels im 21. Und 22. Jahrhundert leisten.

Oops. New Study finds West Antarctic Ice Sheet outlet glacier being melted by magma – not co2 global warming after all – Published in the Proceedings of the National Academy of Sciences

Climate alarmists make major blunder in reporting Antarctica ice loss results: ‘Total ice loss from latest study is ‘consistent’ with, not ‘double’ prior study measurements’

Klimabehauptung: Eisausdehnung in der Arktis: Die Ausdehnung des arktischen Meereises war das sechstniedrigste seit Beginn von Satellitenbeobachtungen im Jahre 1979. Die von Meereis bedeckte Fläche nimmt um 14 Prozent pro Dekade ab.

Prof. Easterbrook: Nicht im vorigen Jahr – es dehnt sich wieder aus.

Klimabehauptung: Die Temperaturen auf dem Festland steigen in der Arktis schneller als in anderen Gebieten des Planeten. In Fairbanks, Alaska, gab es einen Rekord von 36 Tagen mit einer Temperatur bei 27°C oder mehr. Allerdings war der Sommer in Grönland kälter als im Sommermittel.

Prof. Easterbrook: STIMMT NICHT. In den zwanziger und dreißiger Jahren des 20. Jahrhunderts war es in der Arktis wärmer als heute. Derartige Behauptungen können nur aufgestellt werden, wenn man die Aufzeichnungen aus der Vergangenheit manipuliert.

Klimabehauptung: Schmelzender Permafrost: Zum zweiten Mal nacheinander wurden in Permafrost-Gebieten im nördlichen Alaska und in den Brooks-Bergen rekordhohe Temperaturen gemessen.

Prof. Easterbrook: Das waren Wetterbedingungen aufgrund einer Verschiebung des Jet Streams, der in den USA zu einer Rekord-Winterkälte geführt hatte.

Dazu passende Links: Alaska Dispatch Dec. 2012: ‘In the first decade since 2000, the 49th state (Alaska) cooled 2.4 degrees Fahrenheit’

New paper finds 4 Alaskan glaciers are about the same size as during the Medieval Warm Period

Alaskan Villages Have Been Sinking Into Permafrost For 70 Years

Climatologist Dr. Judith Curry: Arctic surface temperature anomalies in the 1930’s were as large as the recent temperature anomalies.’

Arctic ‘sea ice extent has varied naturally over the decades with some Russian data suggesting similar or even greater ice loss in some local areas in the 1930s’ – Analyse des arktischen Meereises: russische Daten zeigen, dass das arktische Eis im Jahre 1940 ähnlich dünn war wie heute. Die Modelle haben die Rekordmenge des antarktischen Meereises nicht vorhergesagt.

Arctic Study Countered: ‘Studies have found that Arctic temperatures have fluctuated, and are now around the same level as they were in the mid-1930s’ – Der Wissenschaftler Igor Polyakov vom International Arctic Research Center an der University of Alaska hat die arktischen Temperaturaufzeichnungen von Ende des 19. Jahrhunderts bis zur letzten Dekade zurückverfolgt und fand heraus, dass die dreißiger Jahre des 20. Jahrhunderts die wärmste Periode in diesem Zeitraum waren.

Klimabehauptung: Extremwetter: Der tödliche Supertaifun Haiyan wies die höchste jemals gemessene Windgeschwindigkeit in einem tropischen Zyklon auf, wobei der Spitzenwert 315 km/h betragen hatte. Überschwemmungen in Europa haben Milliardenschäden angerichtet und 24 Todesopfer gefordert.

Prof. Easterbrook: Das ist Wetter und nicht Klima.

Dazu passender Link: UN Climate Summit Rejects Its Own Science – Links Typhoon Haiyan to Global Warming – UN Summit Degenerates Into Unscientific Claims to Advance Political Agenda – Climate Depot Special ReportAuszüge daraus:

Der Meteorologe Dr. Ryan Maue widerlegt Behauptungen, dass Haiyan der ‚stärkste Sturm jemals‘ war: Faktum: Haiyan ist der 58. Supertaifun seit 1950, dessen Kerndruck auf 900 hPa oder niedriger gefallen ist. 50 dieser 58 Supertaifune mit einem derartig niedrigen Kerndruck gab es von 1950 bis 1987 – während der letzten 25 Jahre waren es lediglich 8.

Stärkster Sturm jemals? Haiyan steht in der Rangfolge von Stürmen, die die Philippinen heimgesucht haben, an 7. Stelle.

Extremwetter: Prof. Roger Pielke Jr. in seiner Aussage vor dem Environment and Public Works Committee des US-Senats: „Es ist irreführend und einfach falsch zu behaupten, dass Katastrophen in Verbindung mit Hurrikanen, Tornados, Überschwemmungen oder Dürren im Klima-Maßstab zugenommen haben, weder in den USA noch global.

Hurrikane: Hurrikane haben an Häufigkeit, Intensität oder normalisierten Schäden in den USA seit 1900 nicht zugenommen.

Tornados: Tornados und tropische Zyklone sind ebenfalls nicht stärker oder häufiger aufgetreten als zwischen 1950 und 1970.

Überschwemmungen und Dürren: Prof. Pielke Jr.: In den USA haben Überschwemmungen an Häufigkeit oder Intensität seit 1950 nicht zugenommen. Dürren sind während des vorigen Jahrhunderts kürzer, weniger häufig und geringer aufgetreten. Im globalen Maßstab haben sich Überschwemmungen während der letzten 60 Jahre kaum verändert.

Klimabehauptung: Die Erwärmung der Oberfläche der Ozeane setzt sich fort: Vier unabhängige Datensätze zeigen hinsichtlich der Wassertemperaturen, dass sich das vorige Jahr unter den 10 wärmsten Jahren jemals befand. Im Nordpazifik gab es einen neuen Rekord.

Dazu der Klimatologe Dr. Tim Ball: Die Daten vor der Satelliten-Ära sind extrem fragwürdig. Beispielsweise gibt es schon Unterschiede hinsichtlich der gemessenen Wassertemperatur, wenn man Thermometer hineinhält oder das Wasser zur Messung mit Leder-, Holz- oder Metalleimern schöpft. Selbst die ersten paar Jahre der Satelliten-Ära waren noch problematisch, zeigten sie doch bis zu 6°C höhere Temperaturen als nach Bodenmessungen zu erwarten. Soweit ich mich erinnere, bestand das Hauptproblem in der Abschätzung der Auswirkungen von Partikeln in der Atmosphäre. Auch Auswirkungen der Messung der molekularen Schicht an der Wasseroberfläche waren ein Thema, von wo die Moleküle im ständigen abkühlenden Verdunstungsprozess in die Luft entweichen. Dann gibt es da noch die Frage, wie viele Daten der Wasseroberfläche durch Wolken hindurch verfügbar sind.

Daher können wir bestenfalls Satellitendaten ab 1970 nutzen. Wie Don Easterbrook und Andere schon gesagt haben, ist das kaum eine signifikante Länge von Temperaturaufzeichnungen, können doch die Temperaturen Zyklen von hunderten oder sogar tausenden Jahren durchlaufen, verursacht entweder durch Änderungen der solaren Einstrahlung oder der Zirkulation innerhalb der Ozeane. Jemand sagte einmal, dass Ökonomen versuchen, die Tide mittels der Messung einer einzigen Welle vorherzusagen. Bei Klimawissenschaftlern ist es viel schlimmer. Und doch, trotz all dem wird es die Schlagzeile von Mr. Karl von der NOAA sein, die die Nachrichten dominiert und im Gedächtnis der Öffentlichkeit hängen bleiben wird.

Der Klimatologe Dr. Roy Spencer hierzu: Das Jahr 2014 wird lange nicht so warm wie beim letzten Mal, als wir in El Nino-Bedingungen gerutscht sind (2009).

Satelliten-Mikrowellen-Wassertemperaturen (global) seit Mitte 2002, aktualisiert bis Mitte Juli 2014.

Link: http://www.climatedepot.com/2014/07/18/climate-catastrophe-cancelled-geologist-debunks-noaa-climate-report-point-by-point/

Übersetzt von Chris Frey EIKE