1

Warnung Deutschland: Grüne Träume zeugen braune Alpträume

Jawohl, erneuerbare Energie boomt in Deutschland, nachdem man den Erzeugern von Wind- und Solarenergie langzeitliche, über dem Marktpreis liegende Vergütungen versprochen hatte, Einspeisetarife genannt. Aber die Kosten dieser Subventionen wurden an die Verbraucher durchgereicht in Gestalt von grünen Aufschlägen. Für die Industrie beeinflusst dies Grundlinien, und viele deutsche Firmen schauen sich nach Produktionsplätzen im Ausland um, wo die Energie viel billiger ist (in den schiefergasreichen USA zum Beispiel). Für Haushalte waren diese Aufschläge eine schlimme regressive Steuer, wie vor allem die Ärmeren an ihren stetig steigenden Stromrechnungen bemerken.

Aber das Wachstum der Erneuerbaren im deutschen Energiemix war eine Renaissance für eine ausgesprochen braune Energiequelle: Kohle. In den Nachwehen der Fukushima-Havarie hat Deutschland angefangen, seine Kernreaktoren auszumustern. Berlin hat unter Verweis auf jene Krise die Kernkraft, eine Null-Kohlenstoff-Energiequelle, aus dem Energiemix eliminiert, und zwar trotz der Tatsache, dass Deutschland weit entfernt liegt von den Bruchlinien, die die japanischen Reaktoren bedrohen. Solarpaneele und Windturbinen können die Kernkraft nicht ersetzen; sie liefern zwei klar unterschiedliche Arten von Energie. Bei Kernkraft kann man sich darauf verlassen, dass sie konstant ins Netz eingespeist wird, 24 Stunden am Tag, 7 Tage pro Woche, 365 Tage pro Jahr. Wind und Solar vermögen dies nur, wenn die Sonne scheint und der Wind weht. Um den Grundlast-Bedarf zu decken, wandte sich Deutschland seinen heimischen Lagerstätten von Braunkohle zu, einer besonders schmutzigen Form von Kohle. Ein Bericht im Wall Street Journal beschrieb, auf welche Art und Weise die vermeintlich grün gedachte Energiewende den deutschen Kohleverbrauch regeneriert hat:

Die Berliner „Energie-Revolution“ ist großartig – falls man eine Kohlemine besitzt. Die deutsche Hinwendung zu erneuerbaren Energiequellen, die im Jahre 2000 begonnen hatte, hat den grünen Anteil an deutschem Strom um etwa 25% zunehmen lassen. Aber der übrige Energiemix konzentrierte sich mehr denn je auf Kohle, die inzwischen 45% zur Energieerzeugung beiträgt, Tendenz weiter zunehmend. Empörenderweise für ein so ökobewusstes Land ist Deutschland drauf und dran, seine Ziele zur Reduktion von Kohlenstoffemissionen bis zum Jahr 2020 zu verfehlen. (…)

Otto Normalverbraucher in Deutschland ist die Grundlage für diese Marktverzerrungen, musste er doch seit dem Jahr 2000 bislang schätzungsweise 100 Milliarden Euro zusätzlich zu seinen Stromrechnungen zahlen,, um den erneuerbaren Schub zu finanzieren. Die Regierung schätzt, dass sich diese Zusatzkosten bis 2040 auf 1 Billion Euro belaufen könnten.

Berlin fährt einige der Subventionen der Steuerzahler für grüne Energie zurück. Aber die Deutschen zahlen immer noch für die Energie-Revolution, wenn Arbeitsplätze schaffende Investitionen sich in Länder mit niedrigeren Energiekosten verlagern, wie es schon früher beim Chemieunternehmen BASF der Fall war. Das Unternehmen hat verkündet, dass es Investitionen in Deutschland auf ein Viertel der globalen Investitionen (bisher ein Drittel) kürzen werde, und zwar auch dann, wenn schlechte Anreize die Energieerzeugung hin zu schmutziger Kohle anstatt des saubereren Erdgases verlagern.

Ist es das, was den Grünen vorschwebte, als sie den Beginn der Energiewende durchdrückten und als wichtigen politischen Erfolg feierten? Es ist schwierig, sich noch schlimmere Folgen für Deutschland vorzustellen – höhere Strompreise, eine zunehmende Abhängigkeit von der schmutzigsten Energiequelle überhaupt (Kohle), ein beschleunigter Ausstieg aus der einzigen grundlastfähigen Null-Kohlenstoff-Energiequelle überhaupt (Kernkraft) und ein deutlich weniger sicherer Energiemix, was Deutschland den Machenschaften von Exporteuren wie Russland aussetzt.

Das Bahnen von Wegen sollte eigentlich Beispiele für Nachfolger geben, und in dieser Hinsicht war Deutschlands Energiewende ein Erfolg: Politiker auf der ganzen Welt können die Berliner Fehler beobachten und daraus lernen.

Link: http://www.thegwpf.com/german-warning-green-dreams-beget-brown-nightmares/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Auch hier wird die Kohle als „schmutzigste Energiequelle überhaupt“ bezeichnet. Das kann nur jemand schreiben, der noch nie ein modernes Kohlkraftwerk von innen gesehen hat. Also von den Verhältnissen dort keine Ahnung hat. Für den empfiehlt sich ein solcher Besuch dringend. Und auch sich noch nie Gedanken darüber machte, wie denn die Rohstoffe, die für den Bau von Windkraft- oder PV Anlagen gewonnen und verarbeitet werden. 

C. F.




Abschätzung der globalen Erwärmung durch CO2 und solaren Einfluss

Anmerkung der Redaktion:

Die "Klimasensitivität" genannte Größe  wurde erfunden, um der Vermutung auf sinnvolle Weise Rechnung zu tragen, dass die globale Mitteltemperatur der Atmosphäre evtl. auf eine bestimmte Weise durch Anwachsen der Kohlendioxid-Konzentration in die Höhe getrieben werden könnte. Zu diesem Zweck wurden Kräfte definiert (postuliert) sog. "Forcings", deren Einfluss, mittels bestimmter physikalisch begründeter und überwiegend plausibler Annahmen, diese Erhöhung als Abwanderung aus dem Gleichgewicht bewerkstelligen sollen. Einer der dafür erforderlicher Faktoren ist die Klimasensitivität. Sie besagt um wieviel K (°C) die Erwärmung bei Verdopplung der CO2 Konzentration ansteigt.

Abschätzung der globalen Erwärmung durch CO2 und solaren Einfluss

Hermann Harde

Helmut-Schmidt-Universität Hamburg, Holstenhofweg 85, 22043 Hamburg

Unser Verständnis der zurückliegenden und aktuellen Veränderungen unseres Klimas basiert einerseits auf Beobachtungen, aber ebenso auf Untersuchungen von Rückkopplungsprozessen sowie Modellrechnungen zum Klima.

In dieser Arbeit wird ein weiterentwickeltes Zweilagen-Klimamodell vorgestellt, das speziell darauf ausgerichtet ist, den Einfluss der ansteigenden CO2 -Konzentration in der Atmosphäre auf die globale Erwärmung sowie die Auswirkungen einer sich ändernden Solaraktivität auf unser Klima zu berechnen.

Das Modell beschreibt die Atmosphäre und die Erdoberfläche als zwei Lagen, die gleichzeitig als Planck’sche Absorber und Strahler wirken. Im Gleichgewicht geben dabei die Erde wie die Atmosphäre über Strahlung sowie den Wärmeaustausch zwischen den Lagen genauso viel Leistung wieder ab, wie sie von der Sonne und der Nachbarlage aufnehmen.

Eine externe Störung, die ihre Ursache in einer Änderung der Solaraktivität oder der Konzentration von Treibhausgasen haben kann, verändert das Gleichgewicht und führt damit zu veränderten mittleren Temperaturen der Erde und der Atmosphäre.

Das Modell berücksichtigt die kurzwellige und langwellige Streuung von Strahlung in der Atmosphäre und an Wolken, insbesondere wird Mehrfach-Streuung und Reflexionen zwischen der Erdoberfläche und den Wolken einbezogen. Es berücksichtigt ebenfalls die üblichen Rückkopplungsprozesse wie Änderungen in der Wasserdampfkonzentration, des Temperaturgefälles mit der Höhe (lapse rate) oder der Erdalbedo. Zusätzlich werden aber auch die von der Temperatur abhängigen Wärmeflüsse durch Konvektion und Evapotrans­piration sowie die durch Temperatur und solaren Einfluss induzierten Änderungen des Bewölkungsgrades und deren Rückwirkungen auf das Gleichgewicht mit einbezogen.     

Während Klimamodelle Strahlungsverluste und deren Auswirkungen auf die Energiebilanz üblicherweise über den Strahlungsantrieb beschreiben, werden in dieser Arbeit Änderungen von Treibhausgaskonzentrationen direkt auf die kurz- und langwellige Absorption dieser Gase zurückgeführt, die damit die Schlüsselparameter in dem hier dargestellten Modell repräsentieren. Die Absorptionen durch die wichtigsten Treibhausgase Wasserdampf, Kohlenstoffdioxid, Methan und Ozon werden ermittelt aus Einzel-Linien-Berechnungen, die zurückgreifen auf die HITRAN08-Datenbank und für die Solarstrahlung den Spektralbereich von 0,1 – 8 µm, für den infraroten Bereich das Spektrum von 3 – 100 µm abdecken.

Da sich die Konzentration der Treibhausgase und der atmosphärische Druck mit der Umgebungstemperatur und der Höhe über dem Erdboden ändern, werden die Berechnungen für bis zu 228 Unterschichten von der Erdoberfläche bis in 86 km Höhe und zusätzlich für drei Klimazonen, die Tropen, Mittleren Breiten und die Polarregionen, durchgeführt. Um dann die Absorptionsänderung mit wachsender CO2-Konzentration zu erfassen, werden diese Rechnungen für 14 verschiedene Konzentrationen von 0 – 770 ppm bei sonst identischen Bedingungen wiederholt.

Die sich ändernde Ausbreitungslänge des Sonnenlichts in einer Unterschicht, die abhängt vom Einfallswinkel der Strahlung zur Atmosphäre und damit von der geographischen Länge und Breite, wird berücksichtigt durch die Darstellung der Erde als abgestumpftes Ikosaeder (Bucky Ball), das aus 32 Flächenelementen mit wohldefinierten Winkeln zur einfallenden Strahlung besteht und dann jede dieser Flächen einer Klimazone zugeordnet wird.

Die Ausbreitung der langwelligen Strahlung, insbesondere die von der Atmosphäre selber emittierte Strahlung in Abwärts- und Aufwärtsrichtung, die wesentlich von der Temperaturverteilung in vertikaler Richtung abhängig ist, wird mit einem erweiterten Modell zum Strahlungstransfer für jede Klimazone getrennt berechnet.

Die kurz- und langwelligen Spektren zeigen ein ausgeprägtes Sättigungsverhalten mit wachsender Wasserdampf- und CO2-Konzentration sowie eine starke gegenseitige Überlappung. Beide Effekte führen zu einer erheblichen Abschwächung des Treibhauseffektes mit wachsender Konzentration.

Das hier vorgestellte Klimamodell greift auf die in dieser Arbeit berechneten kurz- und langwelligen Absorptionen zurück, um hiermit die Oberflächentemperatur sowie die untere Troposphärentemperatur als Funktion der CO2-Konzen­tration zu ermitteln. Der Temperaturanstieg bei verdoppelter CO2-Konzentration liefert dann unmittelbar die CO2 Gleichgewichts-Klimasensitivität.

Unterschiedliche Szenarien für wolkenfreien und regulär bewölkten Himmel werden ausführlich untersucht, dies unter Berücksichtigung aller wesentlichen Rückkopplungseffekte sowie solaren Einflüsse. Entsprechende Simulationen zeigen den dominanten Einfluss einer Bewölkungsänderung auf die globale Erwärmung, dies ausgelöst durch eine thermisch und/oder solar induzierte Wolken-Rückkopplung. Insbesondere wird aufgrund dieses starken Wolkeneinflusses deutlich, dass die gemessene Erwärmung im letzten Jahrhundert nur zufrieden stellend erklärt werden kann, wenn ein wesentlicher Anteil dabei einer erhöhten solaren Aktivität zugeordnet wird.

Die Simulationen ergeben eine CO2 initiierte Erwärmung von 0,2 °C (100 ppm CO2-Anstieg) und einen solaren Anteil von 0,54 °C über diesen Zeitraum. Dies entspricht einer CO2 Klimasensitivität von 0.56 °C (Verdopplung von CO2) und einer Solarsensitivität von 0.54 °C (0.1 % Anstieg in der Solarkonstanten). Diese Ergebnisse stehen im klaren Widerspruch zu den Darstellungen des IPCC, der den Temperaturanstieg über das letzte Jahrhundert ausschließlich anthropogenen Emissionen von Treibhausgasen (95 % Wahrscheinlichkeit) zuordnet und von einer Klimasensitivität zwischen 1,5 °C und 4,4 °C ausgeht, während jeglicher Einfluss durch die Sonne geleugnet wird.

Besonderheiten und Unterschiede zu anderen Untersuchungen

Spektrale Berechnungen

Die spektrale Absorption der Treibhausgase ebenso wie die zum Boden gerichtete und ans All abgegebene langwellige Strahlung stellen die Schlüsselparameter für ein Klimamodell dar, um hiermit die CO2 Klimasensitivität zu berechnen. Daher werden in dieser Arbeit zunächst die wesentlichen Grundlagen und Ergebnisse dieser Berechnungen zusammengestellt. Hierzu zählen insbesondere:

–   Neue Linien-Linien-Spektralberechnungen der Absorption (nicht Strahlungsantrieb):
      kurzwellige Absorption von 0.1 – 8 µm für Wasserdampf, CO2, CH4,
      langwellige Absorption von 3 – 100 µm für Wasserdampf, CO2, CH4 und O3,
      alle wesentlichen Berechnungen mit hoher Spektralauflösung (besser 1 GHz),
      mit hoher lokaler Auflösung für 228 atmosphärische Schichten über 86 km Höhe
      und für 3 Klimazonen.

–   Detaillierte Strahlungstransferberechnungen für die abwärts und aufwärts gerichtete Infrarotstrahlung, gestützt auf ein neues und verallgemeinertes Strahlungstransfer-Modell.  

Klimamodell

Das Modell berechnet den Einfluss einer wachsenden CO2-Konzentration sowie einer erhöhten Solaraktivität auf die globale Erwärmung:

–   Es ermittelt die Energiebilanz durch Strahlungs- und Wärmetransfer zwischen Erdoberfläche und Atmosphäre unter Gleichgewichtsbedingungen.

–   Es verwendet die berechnete kurz- und langwellige Absorption sowie die auf- und abwärts gerichteten Strahlungsflüsse in der Atmosphäre als Schlüsselparameter für das Klimamodell.

–   Es berücksichtigt Wolkeneinflüsse und Vielfachstreuung von kurz- und langwelliger Strahlung an Wolken sowie an der Atmosphäre.

–   Die Strahlungs- und Wärmeflüsse sind an entsprechenden Satellitendaten kalibriert.

–   Das Modell reagiert auf Bewölkungs-Änderungen mit einer Bodentemperatur-Änderung, die an die ISCCP-Beobachtungen über den Zeitraum 1983 – 2010 angepasst sind.

–   Es berücksichtigt die bekannten Rückkopplungsprozesse durch Wasserdampf, Änderungen in der vertikalen Temperaturverteilung der Atmosphäre sowie durch Reflexionsänderungen an der Oberfläche.

–   Zusätzlich wird ein temperaturabhängiger Wärmetransport durch Konvektion und Evapotranspiration einbezogen, Prozesse, die in anderen Klimamodellen nicht betrachtet werden.

–   Das Modell berücksichtigt ebenfalls eine thermisch verursachte Bewölkungsänderung als Rückkopplungs­prozess, der angetrieben wird sowohl durch die Treibhausgase wie durch eine veränderte Strahlungsintensität der Sonne und maßgeblich die Klima- ebenso wie die Solarsensitivität bestimmt.

–   Alternativ wird eine nicht-thermisch verursachte, rein solar stimulierte Bewölkungsänderung betrachtet, die ausschließlich auf die Solarsensitivität wirkt und die Klimasensitivität unverändert lässt.

Ergebnisse

Als wesentliche Ergebnisse dieser Arbeit sind anzuführen:

–   Die Spektralberechnungen zeigen sehr stark gesättigte Absorptionen für Wasserdampf und CO2 sowie eine deutliche Überlappung und gegenseitige Beeinflussung dieser Gase, die den Anteil von CO2 am Treibhauseffekt wesentlich begrenzen.

–   Aus den Strahlungstransfer-Berechnungen für die drei Klimazonen lässt sich das Verhältnis der von der Atmosphäre abgegebenen Wärmestrahlung zum Boden und zum All ermitteln.

–   Es werden erstmals Berechnungen zum Einfluss von Wolken auf die globale Temperatur vorgestellt, die sich an den ISCCP-Beobachtungen orientieren.

–   Die vorgestellten Simulationen erlauben eine klare Unterscheidung von Ergebnissen, die für wolkenfreien und bewölkten Himmel gelten und den dominanten Einfluss der Bewölkung auf die globale Temperatur wie auf die Klimasensitivität wiedergeben.

–   Die Klimasensitivität bei mittlerer Bewölkung (66 %) ist nur halb so groß wie unter wolkenfreien Bedingungen.

–   Rückkopplungen:

Wasserdampf-Rückkopplung: Sie wird ermittelt aus den Spektralberechnungen für die drei Klimazonen und liefert einen deutlich niedrigeren Beitrag als in den  IPCC-Berichten aufgeführt. Sie besteht aus einem stärkeren positiven Anteil, verursacht durch die mit der Temperatur ansteigende langwellige Absorption, und einem kleineren, dämpfenden Anteil durch die kurzwellige Strahlung.
Der lineare Anstieg der Absorptionen mit der Temperatur ergibt sich aus dem exponentiellen Anstieg der Wasserdampfkonzentration entsprechend dem Clausius-Clapeyron-Gesetz und andererseits einer logarithmischen Zunahme der Absorptionen mit der Dampfkonzentration aufgrund der spektralen Sättigungseffekte.

Vertikale Temperaturänderung: Aufgrund der sich ändernden Strahlungsflüsse in Abwärts- oder Aufwärtsrichtung bei veränderter vertikaler Temperaturverteilung  in der Atmosphäre (lapse rate) ergibt sich ein resultierender positiver Rückkopplungsbeitrag im Unterschied zu Angaben in der Literatur, wo i.a. von einer leicht negativen Rückkopplung ausgegangen wird.

Oberflächen-Albedo: Vom IPCC übernommen.

Konvektion: Bei wachsender CO2-Konzentration steigt die Temperatur der unteren Troposphäre weniger rasch an als die Bodentemperatur. Als Folge nimmt der Wärmefluss durch Konvektion und Wärmeleitung vom Boden zur Atmosphäre weiter zu und trägt zu einer negativen Rückkopplung bei.

Evapotranspiration: Ebenso erhöht sich mit zunehmender Bodentemperatur der latente Wärmefluss und trägt damit zu einem deutlich negativen Rückkopplungsbeitrag bei.

Thermisch induzierte Bewölkungsänderung: Eine thermisch angetriebene Änderung der Bewölkung kann verursacht werden durch Treibhausgase, hier dem CO2, und ebenso durch Schwankungen in der solaren Strahlungsleistung. Änderungen in der Bewölkung verursachen eine starke positive Rückkopplung, die sich in diesem Fall sowohl auf die Klima- wie auf die Solarsensitivität auswirkt.

Nicht-thermische solar induzierte Bewölkungsänderung: Der Bewölkungsgrad kann ebenfalls beeinflusst werden durch kosmische Strahlung und/oder erhöhte UV-Strahlung, die beide ihre Ursache in Änderungen der Solaraktivität haben. Diese Rückkopplung wirkt nur auf die Solarsensitivität und lässt die Klimasensitivität unbeeinflusst.

–   Aufgrund der unterschiedlichen Auswirkungen der zwei Bewölkungseffekte auf eine globale Erwärmung erlauben die Simulationen eine Unterscheidung von thermisch und solar induzierten Bewölkungsänderungen sowie eine Angabe über die Wichtung dieser Beiträge.

–   Berechnete Klima- und Solarsensitivitäten:

o  Ohne jede thermisch oder solar verursachte Bewölkungsänderung, aber unter Berücksichtigung aller weiteren relevanten Rückkopplungsprozesse (Wasserdampf, vertikale Temperaturverteilung, Albedo, Konvektion und Evapotranspiration) berechnet sich die Klimasensitivität zu CS = 0.43°C.
Dieser sehr niedrige Wert ergibt sich aufgrund der stark gesättigten Wasserdampf- und CO2-Absorption, der niedrigen Wasserdampf-Rückkopplung und der negativen Rückkopplungen durch Konvektion und Evapotranspiration.

o  Mit CO2 induzierter thermischer Bewölkungs-Rückkopplung (in Übereinstimmung mit den ISCCP-Beobachtungen zur Bewölkungsänderung), aber ohne Berücksichtigung eines thermischen Solaranteils ergibt sich eine maximale Klimasensitivität von CS = 1.73°C.
Ein Anstieg um 100 ppm CO2 über das letzte Jahrhundert würde unter diesen Annahmen dann zu einer globalen Erwärmung von 0.6 °C beitragen.

o  Mit thermisch induzierter Bewölkungs-Rückkopplung, verursacht durch CO2 sowie einer erhöhten Solaraktivität von 0.2 % über das letzte Jahrhundert würde sich eine unrealistisch hohe globale Erwärmung von 1.32 °C (0.6 + 0.72 °C) ergeben.

o  Ohne thermische aber solar induzierte Bewölkungs-Rückkopplung (in Übereinstimmung mit den ISCCP-Beobachtungen zur Bewölkungsänderung) wird eine Klimasensitivität von CS = 0.43 °C und eine Solarsensitivität von SS = 0.32 °C errechnet.
Bei einer erhöhten Solaraktivität von 0.2 % über das letzte Jahrhundert steuert dann die Sonne eine Erwärmung von 0.64 °C und CO2 nur 0.1 °C bei in Übereinstimmung mit der gemessenen globalen Erwärmung von 0.74 °C.

o  Für eine niedrigere Solaraktivität von nur 0.1 % und ebenfalls einer kleineren zugrunde gelegten negativen Konvektions- und Evapotransipirations-Rückkopplung ergibt sich eine Klimasensitivität von CS = 0.56 °C, die Solarsensitivität zu SS = 0.54 °C.
Dann steuert CO2 0.2 °C und die Sonne 0.54 °C zur Erwärmung bei.
Um alle Randbedingungen einer erhöhten Solaraktivität und CO2-Konzentration über das letzte Jahrhundert erfüllen zu können, und dies in Übereinstimmung mit der beobachteten Erwärmung sowie der Änderung der Wolkenbedeckung in der Zeit 1983 – 2010, wird eine Kombination beider die Bewölkung beeinflussenden Mechanismen herangezogen mit einem thermischen Anteil von 9 % und einem dominierenden Solarbeitrag von 91 %.

o  Ein Wert für die Gleichgewichts-Klimasensitivität von ~ 0.6 °C stellt dabei eher eine obere Grenze hierfür dar. Wird eine Solaranomalie von 0.2% zugrunde gelegt, reduziert sich dieser Wert auf nur ~ 0.4 °C.

Anmerkung des Autors

in New York wurde vor kurzem der Klimagipfel von Ban Ki-Moon eröffnet mit dem Ziel, weiter die Staaten auf eine Reduzierung von Treibhausgas-Emissionen einzuschwören. All dies basiert auf den phantastisch aufgeblähten Werten des IPCC zur Klimasensitivität.

Wie Sie wissen, beschäftige ich mich seit geraumer Zeit mit einer möglichst soliden und auch nachvollziehbaren Berechnung dieser Größe, bei der ich zu deutlich niedrigeren Werten komme.

Das Spektakel in New York möchte ich daher zum Anlass nehmen, Sie auf einen neuen Artikel von mir aufmerksam zu machen, der als Open Access in der Zeitschrift Open Journal of Atmospheric and Climate Change seit Anfang September auf der Webseite http://www.scipublish.com/journals/ACC/recent  einzusehen ist.

Um Sie zu motivieren, den etwas umfangreicheren Artikel auch zu Ende zu lesen, füge ich eine Zusammenfassung bei, in der die Besonderheiten, Neukeiten und Unterschiede zu anderen Untersuchungen zusammengestellt sind.




Wie deutsche „Qualitätsmedien“ Ruf und Auflage ruinieren

1983: Der „stern“ muss zugeben, dass die angeblichen Hitler-Tagebücher gefälscht sind. Unter den Nachwirkungen des Presseskandals leidet die Illustrierte noch heute.

1986: Der Spiegel verkündet –  wieder einmal –  den nahen Weltuntergang. 28 Jahre später dreht die Welt sich immer noch. Aber die Auflage des Spiegel kennt nur einen Weg: Den nach unten.

Heute möchte man beim Spiegel an die reisserische Titelschichte aus dem Jahre 1986 wohl lieber nicht mehr erinnert werden.

23. September 2014, der Sommer ist vorbei, die CO2-Sekte veranstaltet in New York einen grossen Menschenauflauf.

Und im ARD-Morgenmagazin tut WDR-„Moderatorin“ Anne Gesthuysen das, was sie am besten kann. Mit betroffenen Gesichtsausdruck Menschen, die die gleiche Meinung wie sie haben, Stichworte zu geben.

Eine phantastische Chance für Martin Kaiser  (Martin Kaiser (@martinkaisergp) | Twitter ),

Kaiser: Klimagipfel kann wichtige Signale bringen | DasErste.de

vorgestellt als Mitglied von Greenpeace, die Sendezeit im durch Zwangsgebühren  finanzierten öffentlich-rechtlichen Fernsehen für eine Werbeverkaufsveranstaltung des Öko-Konzerns zu benutzen.

Dafür wurde Herr Kaiser aus New York in die Sendung zugeschaltet,

Frau Gesthuysen wertete das Greenpeace-Mitglied (Fördermitglied ohne Stimmrecht oder eines der erlesenen „echten“ Mitglieder?) zunächst einmal als „Delegations-Mitglied“ zur UNO-Klimakonferenz auf, das klingt ja schliesslich seriös und fast amtlich.

Wenn drei Kegelbrüder abends einen trinken gehen, bilden sie ja auch eine Kneipen-Delegation. Möglicherweise ist einer sogar „Delegationsleiter“.

Einmal auf Sendung verbreitet der „Leiter Internationale Klima- und Waldpolitik“ bei Greenpeace dann seine wenig überraschenden Ansichten über Klimawandel, Treibhausgase und CO2.

Kritische Nachfragen der sich doch sonst immer besonders kritisch gebenden ARD-Dame? Fehlanzeige. Einmal mehr entpuppt sich der WDR als weitgehend recherchefreie Zone.

Man stelle sich vor, Frau Gesthuysen hätte Herrn Kaiser von Greenpeace gefragt, was eigentlich Klima sei? Ob es dann ähnliche peinlichen Antworten aus dem Hause Greenpeace gegeben hätte wie bei den denkwürdigen Interviewfragen, die Lord Monckton an die UMweltaktivisten richtete?

Video einer Straßenbefragung von Greenpeace Anhängern gegen eine Klimakonferenz von EIKE vom Dezember 2010 

Hier der Link Monckton vs Greenpeace

 

Da darf Springers WELT natürlich nicht fehlen. Wenn es ALLE machen, wollen wir auch dabei sein, scheint man sich dort zu denken. Und legt den Spiegel-Titel von 1986 neu auf.

Macht der Klimawandel London zum zweiten Venedig?

Der Artikel in der WELT zeigt, dass es bei angeblichen Qualitätsmedien selbst für einfachsten Google-Journalismus nicht mehr reicht.

Dabei hätte Frau Nina Trentmann eigentlich nur einmal „Climategate“ (1,54 Mio. Treffer bei Google) das in Verbindung mit „University of East Anglia“ (190.000 Treffer beri  Google) googeln müssen.

Muss mal wieder ein rabenschwarzer Tag für Springer-Chef Döpfner sein, dass so etwas immer wieder bei der WELT passiert.

Ob es einen Zusammenhang gibt zwischen diesen Pleiten des angeblichen Qualitätsjournalismus und den Auflagenzahlen?




Klimaforscher, die neuen Weltuntergangspropheten und ihre Kirche und willige Gefolgschaft

Und hier kommt die Klimaforschung ins Spiel. Einige Klimawissenschaftler haben sich inzwischen von der seriösen Klimaforschung abgewandt und präsentieren der willigen Gefolgschaft ein Weltuntergangsszenario nach dem anderen. Eines noch schrecklicher als das andere. Und das nicht ganz uneigennützig, wie ich meine, sondern auch um ihre persönliche politische Agenda durchzusetzen und die eigene Karriere voranzubringen.

Jüngstes Beispiel ist ein Artikel von Stefan Rahmstorf in seinem Klimablog der KlimaLounge: “Westantarktis überschreitet den Kipppunkt”.

CO2 und Umweltangst: Video über einen physisch Kranken der sich für Umweltschäden voll verantwortlich fühlt

Dort verkündet er:

“Jetzt ist der Westantarktische Eisschild instabil geworden und hat seinen unaufhaltsamen Zerfall begonnen. Das wird den Meeresspiegel deutlich steigen lassen. Eine Zäsur der Menschheitsgeschichte. […] Damit sind mehrere Meter Meeresspiegelanstieg und der Untergang von Küstenstädten und ganzen Inselstaaten vorprogrammiert und praktisch unausweichlich geworden.”

Und die Medien und die treue Gefolgschaft greifen diese Botschaft willig auf und verkünden sie.

Video einer 3Sat-Sendung zur zur Kirche avancierten Klimaangst

Hans Joachim Schellnhuber, der Leiter vom Potsdam Institut für Klimafolgenforschung (PIK) und Klimaberater der Kanzlerin,präsentierte im ZDF heute journal am 23.09.2014 Stefan Rahmstorfs Weltuntergangsszenario vom unaufhaltsamen Zerfall des Eisschildes der Westantarktis. Mehre Meter Meeresspiegelanstieg, der Untergang von Ganzen Küstenlinien und Völkerwanderungen seinen damit vorprogrammiert. Und die Schuld daran trägt natürlich die vom Menschen ausgelöste Klimaerwärmung! “Deutlicher kann die Natur nicht mehr zu uns sprechen!”, sagt Schellnhuber.

Ja früher, früher wären, wenn die Natur zu einem spricht, vielleicht noch die Leute in den weißen Kitteln gekommen. Heute ist das eine weltbewegende Botschaft.

Geht man dem Weltuntergangsszenario von Rahmtorf und Schellnhuber auf den Grund, so stellt man sehr schnell fest, dass es sich hierbei um eine maßlose Übertreibung handelt, die so kein anderer, außen stehender Glaziologe, oder Ozeanograph getätigt hat, oder sogar veröffentlicht hat. Eine derartige Aussage würde ein Peer-Review-Verfahren in einem seriösen Fachjournal nicht überstehen. Und auch eine Schuld des Menschen nicht nicht nachweisbar. Denn das Wasser, welches vermehrt vor der Antarktis durch eine verstärke Westwinddrift aufsteigt und das Schefeis der Westantarktis von unten antaut und zum Aufschwimmen und Abbrechen bringt ist altes Tiefenwasser, dessen Temperatur unterm Eis bei nur +1°C liegt. Dieses Wasser ist über 100 Jahre alt, hatte also vor über 100 Jahren zuletzt Kontakt mit der Atmosphäre gehabt. Die sogenannte Kleine Eiszeit war zu diesem Zeitpunkt gerade erst abgeklungen und der Mensch hatte erst angefangen vermehrt Treibhausgase zu produzieren.

Die Gläubigen kaufen die Botschaft von Rahmstorf und Schellnhuber aber bereitwillig ab. Zweifel sind nicht erlaubt und Abtrünnige werden angegangen und diskreditiert.

“Ich war am weltweiten Treffen der Geophysiker in diesem Winter in San Francisco. Al Gore sprach. Und seine Botschaft lautete: “Haben Sie den Mut, dem Konsens beizutreten, machen Sie das öffentlich, und nehmen Sie sich die Freiheit, Abtrünnige zu unterdrücken.” Das Publikum war begeistert.” (Richard Lindzen 2007)

Der halbwegs aufgeklärte Mensch sollte bei derartigen Weltuntergangs-Botschaften glauben, jetzt ist das Kind endgültig in den Brunnen gefallen und alle weiteren Rettungsmaßnamen für das Klima vergebens. Aber weit gefehlt. Es werden neue, noch erschreckendere Szenarien aus den Hut gezogen, die gerade noch verhindert werden können. Ja wenn, wenn der Mensch noch einschneidendere Gegenmaßnahmen trifft und für seine getätigten Sünden noch mehr Buße tut.

Anders Levermann, Kollege von Rahmstorf und Schellnhuber vom PIK verkündete am 24.09.2014 in den Potsdamer Neuste Nachrichten:

“Auch im Osten des Eiskontinents tut sich etwas. „Wir haben entdeckt, dass es auch dort eine ähnliche Situation gibt, die allerdings noch nicht gekippt ist“, erklärt der Klimaforscher. Das Abschmelzen eines Eisbeckens im Wilkes-Land könnte einen Meeresspiegelanstieg auslösen, der nach Einschätzung der Wissenschaftler ebenso stark das Gesicht unseres Planeten verändern würde wie der Prozess im Westen. Mit großer Wahrscheinlichkeit wäre dann auch für Küstenstädte wie Tokio, Mumbai und Dublin ein erhebliches Risiko der Überflutung gegeben.

Die Wissenschaftler haben berechnet, dass ein Abschmelzen des relativ kleinen „Eiskorkens“, der ein Eisfeld an der ostantarktischen Küste derzeit zum Meer hin begrenzt, einen unaufhaltsamen Prozess auslösen würde. Große Eismassen würden dann für mehrere Jahrhunderte in den Ozean fließen und damit den Meeresspiegel weiter ansteigen lassen. Dadurch würden zu den drei Metern Anstieg des Meeresspiegels durch den Eisschild der Westantarktis noch einmal weitere drei bis vier Meter hinzukommen – zusammengenommen also bis zu sieben Meter.”

Spätestens hier sollten alle Alarmglocken leuten und zwar jene, die einem sagen, kann das wirklich alles angehen? Aber nichts da. Die Verkündungen der Weltuntergangspropheten werden von der treuen Anhängerschaft bis aufs Messers Schneide verteidigt, auch hier im Blog.

Aber es geht noch weiter. Stefan Rahmstorf hat am 06.09.2014 in climatestate eine Botschaft an die Menschen gerichtet, die den Klimawandel ernst nehmen:

Chris Machens: Hast du eine Nachricht für die Menschen die den Klimawandel ernst nehmen?

Stefan Rahmstorf: Darüber sprechen. In der Familie, im Freundeskreis, am Arbeitsplatz. Die norwegische Sozialwissenschaftlerin Kari Norgaard hat schön herausgearbeitet, wie bewusst wir die Klimakrise aus unseren Alltagsdiskursen verdrängen.(3) Weil wir uns hilflos und mitschuldig fühlen oder auch nicht als Moralapostel und Spielverderber daherkommen wollen.

Trotzdem müssen wir Wege finden, darüber zu sprechen und auch in unserem Wirkungskreis das Thema positiv anzupacken. Aufs Rad umsteigen, Ökostrom beziehen, im Nahbereich Ferien machen usw., und dabei auch merken und weitersagen, dass dies nicht Verzicht bedeutet. Ein nachhaltiger Lebensstil mit Entschleunigung und weniger Konsum bringt auch Freude und Lebensqualität.

Es geht also um Jene, die sich hilflos und mitschuldig fühlen. Solche Schuldgedanken plagen aber nur die wirklich Gläubigen. Skepsis an den Weltuntergangsszenarien ist also gar nicht erst gefragt, oder vorgesehen und geduldet. Es gilt sich schuldig zu fühlen, oder eine solche Schuld zu vermitteln.

Und mal ehrlich, Radfahren, Ökostrom beziehen und Ferien in Nahbereich machen, sind nur Alibihandlungen, echter Klimaschutz sieht anders aus. Spätestes an diesem Punkt sollte jeder echte Klimaschützer merken, dass es hier nicht um dem Klimaschutz geht.

Währen ein Herr Rahmstorf, Schellnhuber und Levermann von ihren Botschaften überzeugt, würden sie sofort das Fliegen einstellen und sich selbst und ihren Familien ein Leben in CO2-Verzicht auferlegen. Das können aber dann doch lieber die anderen tun.

Viel besser ist es da doch, sich durch den Erwerb von CO2-Pins, wie sie Stefanie Rahmstorfs anbietet, Ablass von seinen CO2-Sünden zu erkaufen.

Offenbar sind sich die Weltuntergangspropheten auch nicht darüber bewusst, oder sie nehmen es billigend in Kauf, dass labile Menschen besonders anfällig für solche Weltuntergangs-Botschaften sind und das zu schweren psychischen Erkrankungen bis hin zum Suizid führen kann. Hier nur ein Beispiel dafür:

Die Weltuntergangspropheten verkünden statt dessen immer weitere und noch erschreckendere Schreckensszenarien.

Auf der AGU-Tagung in Dezember 2008 erklärte James Hansen gar einen venusartigen “Runaway Greenhouse Effect” für möglich. Ein sich verselbstständigender Treibhauseffekt, bei dem sich verschiedene Rückkopplungsmechanismen im Klimasystem soweit aufschaukeln, dass es zu weitaus höheren Temperaturen kommt, als bisher angenommen (Venus-Syndrom).

Ein weiteres Szenario sieht ein sich verselbstständigendes Abtauen des grönländischen Eisschildes und einen Meeresspiegelanstieg von mehreren Metern vor, wenn eine bestimmte Schwelle erst überschritten wird.

Auch über ein mögliches Versiegen des Nordatlantikstroms und einer damit einhergehende großen Abkühlung in Europa wird noch spekuliert, erneut von Stefan Rahmstorf.

Es gibt noch etliche solcher Kipppunkte, die einige Klimaforschung parat haben, um einen weiteren noch radikaleren Klimaschutz zu fordern und rechtfertigen.

Ich hätte da auch noch ein Szenario parat:

Aus Steven Hawkins Idee eines möglichen, mathematischen Modells machen einige Leute ein Weltuntergangsszenario. Genauer: aus dem Vorwort zu einem Buch, in dem Hawkins schrieb: “Das Higgs-Potential hat die beunruhigende Eigenschaft, bei Energien über 100 Milliarden Gigaelektronenvolt möglicherweise metastabil zu werden. Das könnte bedeuten, dass das Universum einen katastrophalen Vakuumzerfall erleben könnte, wobei eine Blase des echten Vakuums sich mit Lichtgeschwindigkeit ausdehnt. Das könnte jederzeit geschehen und wir würden es nicht kommen sehen.”

In dem Sinne, frohes Spekulieren.

Anmerkung der Redaktion:

Passend dazu das Wort der österreichischen Dichterin Marie-Luise Ebner Eschenbach: „Wer nichts weiß muss alles glauben“ 

Dass diese Analyse die Realität beschreibt zeigt glasklar der Artikel: “Spiritualität statt Naturwissenschaft: Theologische Analysen zum Klimadiskurs Angst als moderne Form der Gottesfurcht” in der jüngsten Ausgabe der „Jungen Freiheit“ in der diese Auffassung ausführlich als überwiegende Meinung der katholischen Kirche zitiert wird. Siehe Zitat unten. Unser Leser Elmar Oberdörfer hat an den Verfasser, dem Prof. für (katholische) Moraltheologie Michael Rosenberg einen Brief dazu geschrieben. Sie finden ihn als pdf im Anhang

Artikel über Prof. Rosenberg

Spiritualität statt Naturwissenschaft: Theologische Analysen zum Klimadiskurs 

Angst als moderne Form der Gottesfurcht

Für Michael Rosenberg, Professor für Moraltheologie an der Katholisch-Theologischen Privatuniversität in Linz, ist der Klimadiskurs „mehr ein ethisch-spiritueller als ein naturwissenschaftlich-technischer Diskurs“. Das heißt, „es geht nicht primär um Klimadaten und deren Deutung, sondern um Weltanschauungen und Wertorientierungen“ (Gaia – Ökologische Perspektiven für Wissenschaft und Gesellschaft, 2/2014). Deshalb befürwortet der erklärte Gegner „klimaskeptischer“ Positionen auch den apokalyptischen Duktus der Apologeten des Klimawandels: „Angst rüttelt wach, reine Vernunft schläfert ein. Klimaschützerische Positionen wollen aus diesem Grund gezielt und mit guten Gründen Angst wecken.“ Das gleiche gelte für die Sorge vor Radioaktivität und Ressourcenerschöpfung: Infolge all dieser Ängste entstehe jetzt unter den Menschen eine moderne Form der Gottesfurcht, welche nach alttestamentarischem Verständnis als Mutter der Weisheit gelte. Damit liegt nun erstmals das explizite Eingeständnis eines akademischen Theologen vor, daß der Glaube an den Klimawandel tatsächlich eine zutiefst religiöse Dimension hat. Zugleich erklären die Ausführungen Rosenbergs den bemerkenswerten Eifer der Deutschen Bischofskonferenz und des katholischen Hilfswerkes Misereor in Sachen „Klimaschutz und Energiewende“. (wk)

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

♦  Rahmstorf in 3sat nano – Fehler ändern die Botschaft des IPCC-Berichts nicht

  Die Gletscher lügen nicht

  Das Klima-Kartell? Von Storch, Latif und Rahmstorf äußern sich zu Climategate

Der Beitrag wurde von Science Sceptical (hier) übernommen

Related Files




Bestandsaufnahme von Hide-The-Decline: der schwarze Dienstag der Klimawissenschaft

Heute möchte ich die zeitliche Abfolge der Entstehung der Hockeyschläger-Graphik aus dem Jahr 1999 beleuchten, und zwar im Lichte der bis jetzt bekannten Klimagate-Mails. Zu den grundlegenden Ereignissen war es am Dienstag, dem 16. November 1999 gekommen.

Die Dinge kamen gegen 9 Uhr (UK-Zeit) ins Rollen, als Tim Osborn die neuen Briffa- und die nachgeeichten Jones-Zeitreihen an Phil Jones gesendet hatte, zusammen mit dem Vorschlag, den Rückgang zu verstecken.

Es sind fertig geeichte Werte in Grad Celsius von 1961 bis 1990 im Vergleich zu den mittleren Temperaturen auf dem Festland der Nordhemisphäre nördlich von 20°N. Diese reichen von 1402 bis 1994 – aber man sollte wegen des Rückgangs wirklich die Werte nach 1961 durch die gemessenen Temperaturwerte ersetzen.

Zwanzig Minuten später schreibt Jones an das MBH-Team (mit cc an Briffa und Osborn) und erklärt die WMO-Pläne und wie genau die Graphik aussehen wird.

Jones erklärte, dass die Graphik auf dem Cover des jährlichen WMO-Berichtes erscheinen soll, welcher eine Print-Auflage von 10.000 hat. Jones sagte, dass er sich gegen den Gebrauch der Jahrtausend-Reihe in der Promotion ausgesprochen habe, weil er wusste, dass er „die Forschritte in der Paläoklimatologie überreizt hatte“:

Das nachhaltigste Thema aus Genf betrifft den WMO-Zustandsbericht des Klimas 1999. Die WMO hat diese Berichte während der letzten 6 Jahre ausgegeben, jedes Mal mit einer Auflage von 10.000 Exemplaren. Es gab zwei Möglichkeiten der Cover-Gestaltung (1998 wurde die instrumentale Aufzeichnung seit 1856 gezeigt) – nämlich einmal die tausendjährige Temperaturreihe oder die kontrastierenden Zugbahnen von Stürmen der Jahre 1998 und 1999. Ich habe als Einziger für Letzteres gestimmt – teils weil ich wusste, dass ich Ersteres organisieren musste. Ich wurde mit 12 zu 1 überstimmt, vielleicht weil ich in einer kurzen Präsentation die Fortschritte überreizt hatte, die während der letzten Jahre im Bereich Paläoklimatologie gemacht worden sind!

Jones erklärte die geplante Abbildung für MBH so:

Die WMO möchte die tausendjährige Reihe auf dem Cover bringen, und ich sagte, dass ich etwas erstellen würde, zusammen mit etwas Text. Die Abbildung wird die 3 Kurven enthalten (die von Mike, meine und die von Keith/Tim). Tim erstellt diese Kurve (alle Werte von 1961 bis 1990 und über 50 Jahre geglättet). Jede Kurve wird bis 1999 ausgeweitet durch instrumentelle Daten der Zonen/Jahreszeiten, die sie repräsentieren.

Dabei ist auch der Entwurf des kurzen Textes, der auf Seite 4 des Berichtes für die Kommentare erscheinen soll. Jones riskiert außerdem eine große Lippe hinsichtlich der Wichtigkeit der WMO-Veröffentlichung:

Der vollständige Text des Berichtes wird dann im Februar 2000 gedruckt – im vorigen Jahr ging er über 12 Seiten. Er wird am 15. März in Genf veröffentlicht, um zusammenzufallen mit dem Weltwettertag und auch den Feiern zum 50. Jahrestag der WMO. Die WMO plant, mindestens zwei mal so viele Ausgaben zu drucken als gewöhnlich und sprach von 25.000! Kopien gegen an alle WMO-Mitglieder und werden auf zahllosen Treffen verteilt, ebenso wie an eine Unmenge von verfügbaren gelisteten Adressen.

Danach fängt Jones offensichtlich an, mit der Zeitreihe zu arbeiten. Um 13.30 Uhr war er fertig und sendet die infame Trick-E-Mail. (Bradley scheint bereits dazu etwas gesagt zu haben, aber diese E-Mail ist in dem Dossier nicht zu finden):

Wenn ich Tims Diagramm erst einmal habe, werden wir dieses entweder noch heute oder als Erstes morgen versenden.

Ich bin gerade fertig geworden mit Mikes Nature Trick, nämlich die realen Temperaturen jeder Reihe der letzten 20 Jahre hinzuzufügen (d. h. ab 1981) und seit 1961 für die Daten von Keith, um den Rückgang zu verstecken. Mikes Reihe enthielt die jährlichen Werte von Festland und Ozeanen, während die anderen beiden die Werte von April bis September für das Festland der Nordhemisphäre nördlich von 20°N enthielten. Letztere sind real für 1999, während die Schätzung der Nordhemisphäre für 1999 zusammen +0,44°C ausmacht von 1961 bis 1990. Die globale Schätzung für 1999 mit Daten bis Oktober beträgt +0,35°C verglichen mit 0,57 für 1998.

Danke für die Kommentare, Ray.

Man beachte, dass Jones genau erklärt, was er mit „Mikes Nature Trick“ meint. Mann hat behauptet, dass sein „Nature Trick“ nichts weiter war als die klare Abbildung von Beobachtungen und Rekonstruktionen in der gleichen Graphik mit geeigneter Beschriftung. Aber der direkte Vergleich von Beobachtungen mit Rekonstruktionen ist so alt wie die Statistik selbst – und Jones und Briffa haben selbst solche Vergleiche in früheren Artikeln gezogen, ohne eine angemessene Beschriftung als mehr zu betrachten als elementare Hygiene. In dieser E-Mail (die oftmals verkürzt zitiert wird) sagt Jones, dass Manns „Nature Trick“ die „realen Temperaturen zu jeder Reihe der letzten 20 Jahre hinzufügt (d. h. seit 1981) und ab 1961 zu denen von Keith“, wie ursprünglich im November 2009 hier erklärt.

Zwei Stunden später antwortet Michael Mann, der seinen legalen Dokumenten zufolge „absolut nichts mit der Graphik zu tun hatte“ (was in seinem Lebenslauf immer noch der Erwähnung wert ist). Er stimmt dem Text vollständig zu und ergänzt, dass er „helfen wird, die im IPCC-Bericht AR 3 gemachten Behauptungen zu stärken“:

Der Text sieht gut aus, und ich stimme allem zu, was darin steht. Ich glaube, dass es ein starkes, aber vertretbares Statement ist, das helfen wird, die Behauptungen, die das IPCC aufstellen wird, zu stärken. Die Zahlen von 1999 sind sehr interessant und sollten helfen, die manchmal aufgestellten dubiosen Behauptungen zu durchkreuzen, dass El Nino der einzige Verantwortliche der anomalen jüngsten Wärme ist.

Es wird nichts gegen den Graphen gesagt, welcher Manns Märchenbuch zufolge eindeutig irreführend ist (und für den vollständig Jones verantwortlich gemacht wird):

…und die Cover-Graphik von Jones auf dem WMO-Bericht 1999 mit den Temperaturtrends der Vergangenheit wurde kritisiert als potentiell „irreführend“, weil Proxy-Daten und instrumentelle Daten in eine einzige Kurve gepresst worden sind – eine Schlussfolgerung, die niemand wirklich in Frage stellte.

Mann versucht weiter zu helfen, indem er „zum Vergleich“ die Entwurfsversion der Abbildung 2-21 im IPCC-AR 3 versendet, und erklärt einen netten „Trick“, wie man angesichts des Rückgangs grundsätzlich damit umgehen könnte:

Nur zum Vergleich mit dem, was Tim erzeugt, füge ich den Plot an, von dem Sie sich erinnern werden, dass wir (die Mitarbeiter am Met.Office) uns auf die Endversion des Kapitels 2 vorbereiten (pdf). Um Ihrer Erinnerung auf die Sprünge zu helfen, haben wir den Zeitraum 1961 bis 1990 für die absolute Anomalie-Skala herangezogen, aber wir haben die Reihen mit der Grundlage eines früheren Intervalls mit Instrumentenmessungen (1931 bis 1960) angeglichen. Diese gehen zum größten Teil dem jüngsten Rückgang in der Reihe von Briffa et al. voraus. Ich glaube, dass dies zu einem ähnlichen Bild führt, aber wenn Sie meinen, dass es irgendwelche signifikanten Diskrepanzen zu dem gibt, was Tim vorbereitet, sollten wir darüber reden.

Zehn Minuten später sendet Osborn die Entwurfsgraphik an Jones, der sie eine halbe Stunde später weiterleitet an die Mannschaft mit einer Erklärung der Grundlinie.

Das Diagramm von Keith und Tim ist das neue Diagramm, das nicht Eingang gefunden hat in den gegenwärtigen IPCC-Entwurf. Für die anderen beiden sind 0,12°C hinzugefügt worden, um die Basisperiode von 1902 bis 1980 auf den Zeitraum 1961 bis 1990 zu korrigieren (ich erinnere mich nicht an die genauen Daten). Für meine Graphik hat Tim einen Mittelwert benutzt und eine Standardabweichung berechnet auf der Grundlage der mittleren Temperaturen von April bis September auf dem Festland der Nordhemisphäre nördlich von 20°N.

Es gab keinen Protest der MBH-Mannschaft nach der Sichtung der Abbildung, und nur Malcolm Hughes kommentiert eine Stunde später:

Hallo Phil, der Text sieht m. E. gut aus. Ich habe keine starke Vorliebe hinsichtlich der Diagramme, außer dasjenige, das Mike in Umlauf gebracht hat wegen des Vorteils einer Schätzung von Unsicherheiten.

Bis hier scheint nur Keith Briffa keine Kommentare zu der Veröffentlichung abgegeben zu haben. Allerdings erkennt man seine Akzeptanz aus dem Brief, den er am nächsten Morgen an eine Herausgeberin von Elsevier geschrieben hat mit der Nachfrage, ob die neue Version von Briffas QSR (2000) Abbildung 5 ersetzt worden ist:

Amanda,

mit Bezug auf meinen vorherigen Brief – können Sie bestätigen, dass die neue Abbildung ersetzt worden ist, da ich inzwischen die Absicht habe, diese in einer kommenden WMO-Veröffentlichung zu erwähnen, die weit verbreitet wird.

QSR (2000) steht als Referenz für Briffas Reihe in der WMO-Veröffentlichung und später im IPCC-AR 3. Die E-Mail ist schon für sich allein wichtig, erklärt sie doch die Schwierigkeiten, die ich und George Kukla 15 Jahre später hatten.

Unabhängig von Jones war Manns Verteidigungslinie dieser „übermäßig vereinfachten Darstellung“ (per Manns Antwort-Memorandum), dass die „vereinfachte“ Abbildung erstellt worden ist mit einem „großenteils nichttechnischen Publikum“ im Hinterkopf. Die moderne Arabian Nights schreibt:

Das war, kurz gesagt, Maikes „Trick“, den Jones gewählt hat, um die Proxy-Temperaturreihe in seinem Vergleich bis zur Gegenwart zu aktualisieren, obwohl die Proxy-Daten selbst schon viele Jahrzehnte zuvor aufhörten. Es gab jedoch eine Sache, die Jones in seiner WMO-Graphik getan hat, die über das hinausging, was wir in unserem Nature-Artikel getan haben: Er hat nahtlos die Proxy- und die instrumentellen Daten zusammengeführt in eine einzige Kurve, ohne zu erklären, welche Kurve was zeigte. Das war potentiell irreführend, wenn es nicht Absicht war: Er trachtete lediglich danach, das Bild zu vereinfachen für eine großenteils nichttechnische Leserschaft des WMO-Berichtes.

Wie man jedoch aus Obigem erkennt, gab es keine Überlegung bzgl. der speziellen Zuhörerschaft, als die Graphik erstellt worden ist. Stattdessen argumentierte Mann, dass sie „helfen wird, die Behauptungen zu stützen“, die man vor der IPCC-Zuhörerschaft aufgestellt hatte.

Außerdem scheint aus den CG-Briefen hervorzugehen, dass die „übermäßig vereinfachte und künstlerische Darstellung“ unter ihren Kollegen für die wissenschaftlichen Ziele weiter verbreitet worden ist. Im Februar 2000 erbittet Bradley die Abbildung für eine mögliche Verwendung in dem PAGES-Synthesebericht:

…können Sie mir eine weitere Kopie der WMO-Abbildung zuschicken, die Sie vorbereitet haben – zumindest falls sie sich nach dem 16.11.1999 geändert hat. Bei einer erneuten Durchsicht Ihrer Anmerkungen zu derjenigen Abbildung, die Sie verschickt haben, scheint es so, als ob sie immer noch mit 40- oder 50-Jahres-Filtern herumgespielt haben, so dass vielleicht diejenige, die ich habe, nicht die Letzte ist. Es könnte dazu führen, dass wir dies im PAGES-Synthese-Kapitel verwenden – ich glaube, dass sie unterschiedlich ist im Vergleich zu der von Keith verwendeten Abbildung in Science ist (7. Mai 1999 – v284, Seite 927).

Im April 2000 sendet Jones die Abbildung zusammen mit der gesplitteten Zeitreihe an Curtis Covey:

Im Anhang finden Sie die von Ihnen gewünschten Daten. Es gibt 5 Spalten (meine, Mike Mann, Keith, jährlich Nordhemisphäre und Juni, Juli, August Nordhemisphäre). Die letzten beiden sind instrumentell und beginnen erst in den fünfziger Jahren des 19. Jahrhunderts. Keith‘ Reihe beginnt etwa um das Jahr 1400. Alle beziehen sich auf 1961 bis 1990. Sie werden sehen, dass dieser File für die 3 Multiproxy-Reihen bis 1999 ausgeweitet wurde, indem instrumentelle Daten pro Jahreszeit und Region hinzugefügt wurden, die sie repräsentieren sollen. Der andere Anhang enthält eine Abbildung der ersten 3, die auf dem Cover des WMO-Statements für 1999 erschienen war.

Und später im Oktober 2000 an Jim Hurrell:

Tim kann Ihnen etwas schicken, das alle Reihen enthält. Es war auf dem Cover des WMO-Statements 1999 erschienen. Darin wurden die Reihen ausgeweitet mit äquivalenten instrumentellen Daten bis 1999.

Tatsächlich scheint es, dass sie so stolz auf ihre Abbildung waren, dass sie die Graphik auf der Rückseite des offiziellen CRU-T-Shirts platzierten. Mann hat diese dann überglücklich bestellt:

p. s. Ich trage ein Medium 😉

Die WMO-Abbildung erscheint ein weiteres Mal, diesmal im CG-Dossier. In einem bemerkenswerten Brief, der es wert ist, in Gänze dargestellt zu werden, schreibt später George Kukla im Januar 2001 an Keith Briffa und befragt ihn hinsichtlich der Inkonsistenz zwischen der WMO-Präsentation der Daten und des Rückgangs, erkennbar in Briffas technischen Studien. Er nennt die WMO-Präsentation „nicht sehr verantwortlich“:

Hallo Keith,

Sie sind der Einzige, der wissen kann, was in den nördlichen Wäldern passiert ist und passiert. In dieser Hinsicht glaube ich nicht, dass das WMO-Statement #913 zum Status des globalen Klimas 1999 ein hinreichend zuverlässiges letztes Wort ist. Zum Einen: die Ihnen zugeschriebene Kurve scheint mit keiner der Abbildungen Ihrer 2000 QSR-Studie zu schwingen. Woher nehmen Sie die 0,6 Grad Abweichung um das Jahr 1600?

Ein weiteres Problem: Die Ringdichte und -breite während der letzten Jahrzehnte nehmen beide ab, was zu jeder anderen Zeit als ein Anzeichen von Abkühlung interpretiert werden würde. Warum also wird daraus im WMO-Bericht eine beispiellose Erwärmung? Wie Sie angemessen in Ihren Studien diskutieren wissen wir einfach nicht, wie genau die Baumringe mit dem Wetter zusammenhängen. Meiner Ansicht nach haben wir folgende Optionen:

1) Die Kalibrierungen der Ringe mit der Temperatur vor 1950 sind verzerrt, möglicherweise wegen der geringen Abdeckung mit Temperaturstationen.

2) Etwas Anderes als die Temperatur beeinflusste die Bäume während der letzten Jahrzehnte, und wir wissen nicht, was.

In jedem Falle ist es nicht sehr verantwortungsvoll, die Kurven mit dem globalen Klima in Zusammenhang zu bringen, wie die WMO es getan hat. Sie sagen das, wenngleich irgendwie indirekt, aber ziemlich klar in allen Ihren Studien. Unglücklicherweise scheint es so, als ob diese viel zu lang sind, um von der WMO gelesen zu werden.

Grüße

Ich denke, man kann mit Fug und Recht feststellen, dass Georg Kukla der erste war, der Hide-The-Decline entdeckt hat.

Und so sehen die Bilder „vorher“ und „nachher“ aus:

Siehe oben rechts!

Link: http://climateaudit.org/2014/09/22/black-tuesday-of-climate-science/

Übersetzt von Chris Frey EIKE




Energiewende: Verzicht auf Nutzung der Kernenergie und Substitution durch alternative Energien?

Sie waren Basis für sechs Ausstiegsgesetze. Eine Diskussion mit Energieexperten entsprechender  Industrien, Inhaber  kerntechnischer Universitätsinstitute und führenden Kernforschungszentren wurde nur sehr vereinzelt geführt. Gegner wurden  bespöttelt. Wissenschaftlich fundierte Argumente, kritische Warnungen, Kostenkalkulationen und Machbarkeitsstudien wurden völlig ignoriert.

Die Ethik – Kommission übersah, dass vor 1,8 Milliarden Jahren in Oklo/Gabun ca. 6 Reaktoren  kritisch wurden. Diese liefen eine Million Jahre. Sie waren  Vorläufer unserer 17 Leichtwasser  –  Reaktoren. Endlagerung erfolgte bis heute problemlos. In der ca. 50 jährigen Geschichte gab es gemäß einer achtstufigen Bewertungsscala (INES der Internationale Atomenergiebehörde (IAEA), ab 2000 drei registrierte Störfälle der Stufe 2; Weitere Meldungen wurden von den Behörden ausnahmslos niedriger eingestuft.                                                                                                                      

Die pauschalen Forderungen, unsere KKW abzuschalten, sind aus den genannten Gründen nicht  nachvollziehbar. Fukushima ist kein Kronzeuge für die Behauptung, die  Technologie sei nicht  beherrschbar.

 

Der THTR -300 wurde als universell einsetzbare Energiequelle entwickelt und als 30 MW AVR 30 Jahre getestet. Als Prototyp mit einer Leistung von 2 x 109 kWh a-1 in Hamm-Uentrop 1970 bis 1983 fertig gestellt und bis1989 betrieben. 

Der Paradigmenwechsel bestand im Austausch der Brennstäbe durch Graphitkugeln. Zwei Sicherheitsprüfung in Jülich haben  eindrucksvoll bewiesen, das der Reaktor inhärent ist. Erfinder und Betreiber haben Mai 1999 einen Lizenz- und Kooperationsvertrag mit dem Energieversorger ESKOM in Südafrika geschlossen. Mit Design-Verbesserungen wird der Pebble Bed Modular Reactor (PBMR) gebaut und global erfolgreich betrieben.

Unser Brutreaktor wurde im KFZ Karlsruhe in Anlehnung an den in Frankreich betriebenen Superphenix, Bauweise POOL-System, (s. Abb.) – entwickelt und in Kalkar seit 1985 gebaut.  Er erfüllte nicht, die in der BRD geforderten Sicherheitsbestimmungen und musste umgebaut werden. Das neu entwickelt LOOP System wurde in Kalkar seit 1985 gebaut, fertiggestellt und nach sechsjähriger behördlicher Prüfung die Betriebsgenehmigung verweigert. Neue LOOP Anlagen wurden in Russland, Indien, USA, GB, China und Südafrika gebaut.

Den sicheren European Preassureized Reaktor, später in Kooperation mit Framatom Fr., entwickelte Siemens. Der leistungsfähigere Reaktor (1600 MW), ist effektiver (15∙109 kWh a-1) als  zuvor gebaute und wird den geforderten Sicherheitsmaßnahmen gerecht.

Reaktoren der 4. Generation  

Argentinien, Brasilien, Canada, Frankreich, Japan, Republik Korea, Süd-Afrika, England und USA arbeiten im Generation IV International Forum (GIF) zusammen, um die Entwicklung  einer vierten Generation kerntechnischer Systeme für die Zeit nach 2050 vorzubereiten. Hinzu kamen 2002 die Schweiz, 2003 Euratom, 2006 China und Russland. Nach strengen Kriterien sollten sechs Reaktortypen bzw. vier Technologielinien gemeinsam untersucht werden.

Aktuelle Kommentare zur Misere der Energiewende sind technologischer Rückschritt, ökologisch Illusionen, finanziell und volkswirtschaftlich ruinös, beschäftigungspolitisch eine Pleite. Ähnlich die Kritik des Bundesrechnungshofes zur Energiewende. Moniert werden ausufernden Kosten, keinen hinreichenden Überblick über die finanziellen Auswirkungen.       

Die eingesetzte Expertenkommission der Bundesregierung rät der Politik das  EEG komplett abzuschaffen, da es 1. Kein kosteneffizientes Instrument für Klimaschutz 2. Keine messbare Technologie relevante Innovationswirkung hat und  3. Steigende Kosten zuletzt 22 Milliarden €, bewirkt.

Die 50 jährige Diskussion um das  Endlager Gorleben zur Lagerung  strahlender Spaltrückstände von 450 Tonnen (ca. 22,5 m³) pro Jahr, diente  Grüne und Gegner die Endlagerung zu verhindern. Deutschland verfügt  über keine brauchbaren monolytischen Ton- und Granitlagerstätten sondern über zahlreiche, geeignete Salzlager.

Die Endlagerfrage muss politisch offen gehalten werden, um den Ausstieg aus der Kernenergie zu begründen.

Im MPG Teilinstitut Greifswald konzentriert man sich, basierend auf Erfolge mit Fusionsreaktoren in Garching auf die Weiterentwicklung des Stellarators und baut den Nachfolger WENDELSTEIN 7-X. Der Bau wurde im April 2000 begonnen und am 20.07.2014 fertiggestellt und zuvor am 20.05.2014 feierlich eingeweiht*

Nach Stand vom 18. Januar 2013 betreiben 30 Länder weltweit 437 KKW´s mit einer gesamten elektrischen Nettokapazität ca. 372 Gigawatt. Gegenwärtig sind 438 in Betrieb, 71 im Bau und 170 in der Planung. Einen herben Dämpfer erhielt der Ausstieg am 3. Gedenktag der Fukushima – Katastrophe. Präsident Shinzo Abe verkündete Kernenergie zu nutzen und von den 48 stillgelegten KKW erste zu reaktivieren und neue zu bauen.

Der gesamte Aufsatz zum Thema kann als pdf im Anhang heruntergeladen werden.

Über den Autor:

Als ehemaliger Hochschullehrer und Wissenschaftler sah der Autor  sich  daher gefordert, Fakten zusammenzutragen und den neuesten Kenntnisstand in Vorträgen und Veröffentlichungen darzulegen, zumal der Autor vierzig Jahre lang als ordentlicher Professor den  Lehrstuhl für Anorganische Chemie II an der Ruhr- Universität Bochum leitete und damit dieses Fachgebiet in Lehre und Forschung vertrat. Die Elementreihe der Actinoide mit Thorium, Uran und Plutonium sind ein wichtiger Bestandteil des Fachwissens.

Zu Person:

Prof. Dr. rer. nat. habil. PhD, DSc (Cantab). Dr h.c. mult. Honorarprofessor. an der Tong – Ji – Universität in Shanghai. Der Autor dieses Beitrags zur Problematik der Energieversorgung mit Kernenergie stützt sich mit seinen Erfahrungen der öffentlichen Wahrnehmung auf viele Teilnahmen an Veranstaltungen der Konrad-Adenauer Stiftung, dem Bildungswerk Potsdam sowie dem Forum Wirtschaft etc. wo Vertreter von Regierungen, Politik und  anderen Institutionen  mit einem interessierten Publikum dieses Thema diskutierten. 

* Mit Dank an Leser P. Herbst für die Richtigstellung 

Related Files




Die politischen Implikationen des fallenden Ölpreises

Der Preis für Brent-Öl ist jetzt in weniger als drei Monaten um 15 Prozent gefallen (hier; siehe auch Bild rechts) und liegt derzeit unter der psychologisch bedeutsamen Marke von 100 Dollar pro Barrel. Vorige Woche habe ich über die Reaktionen der Industrie darauf berichtet (hier). Aber allmählich zeigen sich auch politische Konsequenzen dieses Vorgangs.

Auf der ganzen Welt sind Öl erzeugende und exportierende Länder auf hohe und idealerweise steigende Preise angewiesen Einige Länder sparen das Einkommen für eine Notzeit, aber die meisten, vor allem jene mit steigender Bevölkerungszahl, tendieren dazu, das Geld auszugeben. Die Umstände ändern sich, ebenso wie realistische Optionen zur Anpassung, aber die Sorge derzeit ist real und wird politische Maßnahmen weit über den Ölsektor hinaus beeinflussen.

Dazu drei Beispiele:

Das erste ist Iran. Sanktionen haben die Exporte verringert, aber nicht eliminiert. Der Handel mit Asien geht weiter, jedoch mit einigen Rabatten, denn jeder Preisrückgang ist eine schlechte Nachricht für das Regime in Teheran. Die Wirtschaft ist bereits schwach, und ein rückgängiges Einkommen bedroht die Fähigkeit des Regimes, seine fragile Koalition zu erhalten. Das Überleben des Regimes ist alles, einschließlich der Hardliner um den obersten Führer Ayatollah Ali Khamenei. Die Diskussionen um einen möglichen Deal rund um die iranischen nuklearen Ambitionen sind über den Sommer weitergegangen – verblüffenderweise fand es jeder angebracht, ursprüngliche Ultimaten verstreichen zu lassen und einfach weiterzumachen (hier). Die Bedrohung durch ISIS verschafft den USA und Iran so etwas wie ein gemeinsames Interesse (hier). Falls die Ölpreise niedrig bleiben, hat ein nuklearer Deal noch vor Ende dieses Jahres große Chancen.

Zweites Beispiel ist Russland. Präsident Putin erfreute sich fast 15 Jahre lang an hohen Preisen, die die Regierung in Moskau gestützt haben. Das Einkommen wurde nicht dazu benutzt, die russische Wirtschaft zu modernisieren, und Russland bleibt ein Kohlenwasserstoff-Staat, der von Exporterlösen abhängig ist. Jetzt sieht sich Mr. Putin einem ähnlichen Preissturz bei Öl und Gas konfrontiert. Gasabkommen mit China (hier) sind noch Jahre davon entfernt, irgendwelche Einkommen abzuwerfen. Russland wird sich einschränken müssen, und da die Kosten von Sanktionen den Wirtschaftsführern, von deren Unterstützung Mr. Putin abhängig ist, immer drängender werden, muss alles darauf hinauslaufen, dass der Konflikt in der Ukraine nicht eskaliert. Der Streit ist nicht vorbei, aber für den Moment sind die Kosten für Russland einer offenen Konfrontation und sogar noch schärferen Sanktionen zu groß. Der wahrscheinlichste Ausgang ist ein eingefrorener Konflikt.

Das dritte Beispiel ist Schottland. Der Preisverfall ist im Lärm der Referendums-Kampagne fast untergegangen, aber deren Auswirkung könnte gewaltig sein. Der Bericht von Sir Ian Wood umreißt das Potential, das in der Nordsee noch entwickelt werden kann – meist ist es marginal und erfordert sowohl eine Neuorganisation der Art und Weise, wie dieser Sektor reguliert wird, als auch einen hohen Preis. Abseits der Politik wird die Industrie keine neuen Investitionen vornehmen, falls die Preise niedrig bleiben.

Full post

Link: http://www.thegwpf.com/nick-butler-the-political-implications-of-the-falling-oil-price/

Übersetzt von Chris Frey EIKE




Gouverneur der US-Republikaner bezeichnet Obamas Energie-Team als ,Wissenschafts-Leugner‘

Noch steht nicht fest, ob Governeur Bobby Jindal aus Louisiana im Jahre 2016 als Präsidentschaftskandidat antreten wird, aber seine jüngsten Kommentare in Washington sollten vielleicht in diesem Zusammenhang gesehen werden. Mr. Jindal war kürzlich in Washington, um unter Anderem seinen nationalen Energieplan vorzustellen. Das Umreißen einer nationalen Energiepolitik ist für den Gouverneur von Louisiana ungewöhnlich, so dass die Wahrscheinlichkeit hoch ist, dass ein großer Teil der Reise von Mr. Jindal darin bestand, einem möglichen Rennen um die Präsidentschaft beizutreten.

In einem Bericht mit dem Titel „America’s Next Energy Plan-Organizing for Abundance“ [etwa: Amerikas nächster Energieplan – Organisation des Überflusses], der von America Next, einer konservativen, nicht profitorientierten Politikergruppe erstellt worden ist, die Mr. Jindalls Ansichten unterstützt, wird die gegenwärtige Energiepolitik der Administration beschrieben als „basierend auf linksradikaler Ideologie, wodurch Amerika Sieg in Niederlage verwandelt“. Und weiter: „Energiemangel und in den Himmel schießende Energiepreise resultieren aus einer gescheiterten Politik, nicht aus unserem beispiellosen Energie-Überfluss“.

Dies sind normale konservative Standardansichten über die Energiepolitik der Obama-Administration; und die Kritik der Republikaner an den Demokraten, weil diese nicht ausreichend genug nach Öl bohren, ist nichts Neues. Aber die Bemerkungen des Gouverneurs gehen darüber hinaus. „Die Realität derzeit sieht so aus: Wir haben eine Administration innerhalb der Obama-Administration, die aus Wissenschafts-Leugnern besteht, wenn es darum geht, die amerikanischen Energie-Ressourcen auszubeuten und um das Potential, gut bezahlte Arbeitsplätze zu schaffen für unsere Wirtschaft und unsere Zukunft“. Der Gebrauch des Ausdrucks „Wissenschaftsleugner“ durch Mr. Jindall zur Beschreibung der Politik der Administration ist verblüffend, vor allem im Zusammenhang mit dem derzeitigen politischen Umfeld. Wir haben uns daran gewöhnt, dass Demokraten und progressive Kräfte den Republikanern und konservativen Kräften vorwerfen, anti-wissenschaftlich zu sein, aber der umgekehrte Fall ist sehr selten. Dies umso mehr, weil es von einem Politiker kommt, dessen Politik als Gouverneur eine gewisse Ambiguität um wissenschaftliche Konzepte wie die Evolution reflektiert. (…)

Mit der Bezeichnung der Obama-Administration als „Wissenschaftsleugner“ hat Mr. Jindall den Spieß und die relative Position der beiden Parteien umgedreht. Oberflächlich betrachtet scheint es seltsam, dass die Differenzen von Mr. Jindall mit dem Weißen Haus hinsichtlich Energie eindeutig politischer und nicht wissenschaftlicher Natur sind. Dennoch ist dieser Vorgang signifikant. Falls auch andere Republikaner anfangen, so zu sprechen, wird es die Grenzen in der politischen Diskussion verwischen, was es den Demokraten schwerer macht, sich als die Partei der Wissenschaft zu gerieren. Dies wiederum wird den Republikanern helfen, ihr Image als antiwissenschaftliche Partei abzustreifen. Außerdem – falls es den Republikanern gelingt zu argumentieren, dass die Energiepolitik des Präsidenten das Ergebnis schlechter Wissenschaft ist und nicht politischer Standpunkte, wird es viel einfacher sein, die Unterstützung der Öffentlichkeit für die Energiepolitik der Republikaner zu gewinnen.

Link: http://www.thegwpf.com/us-republican-governor-blasts-obama-energy-team-as-science-deniers/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: In den USA geht es also immer mehr zur Sache. Vielleicht schwappt auch davon bald etwas nach Europa über. D scheint allerdings ein hoffnungsloser Fall.

C. F.




Woher stammen die Gelder der European Science Foundation? Ausschuss des US-Senats beklagt fragwürdige Einflussnahme durch umweltaktivistischen Milliardärsclub

In den USA haben die U.S Environment and Public Works (EPW) Committee Republicans Ende Juli 2014 die Ergebnisse einer Untersuchung veröffentlicht, in der die Geldströme der links-extremen Umweltbewegung recherchiert wurden. Das Resultat ist erschütternd: Angeblich unabhängige Umweltorganisationen entpuppten sich als von Milliardären gesteuerte Marionetten. Zudem flossen enorme staatliche Zuwendungen in Aktivistengruppierungen. Ähnlich wie in Deutschland ist das US-amerikanische Bundesumweltamt in erschreckender Weise eng mit der links-extremen Umweltbewegung verbandelt. Den Gesamtbericht finden Sie als pdf hier. Auszug aus der Pressemitteilung:

The Chain of Environmental Command

Zentrale Punkte des Berichtes u. A.:

Der „Milliardärs-Club“, eine exklusive Gruppe von wohlhabenden Individuen dirigiert die Linksaußen-Umweltbewegung. Die Mitglieder dieses elitären liberalen Clubs kanalisieren ihre Schicksale durch private Stiftungen, um ihre persönliche politische Agenda durchzusetzen, in deren Mittelpunkt die Beschränkung der Verwendung fossiler Treibstoffe in den USA steht.

Öffentliche Wohlfahrtsverbände versuchen, das maximale Maß an Bevorzugung für ihre Spender durch steuerliche Förderung zu sichern. Es sind aber rechtlich bedenkliche Innovationen, die auch nur von linker Seite kommen. Wobei aber diese Wohlfahrtsverbände ihren gemeinnützigen Status einer Gruppe tatsächlich gegen eine Gebühr verkaufen.

Öffentliche Wohlfahrts-Aktivistengruppen propagieren die falsche Vorstellung, dass sie unabhängig sind und als von Bürgern finanzierte Gruppen uneigennützig arbeiten. In Wirklichkeit arbeiten sie eng zusammen mit wohlhabenden Spendern, um die Höhe der steuerbefreiten Spenden zu maximieren. Sie sprechen sich ab hinsichtlich ihrer kombinierten Ressourcen zur Einflussnahme auf Wahlen und politische Entscheidungen mit dem Schwerpunkt auf der EPA

Die Environmental Grantmakers Association EGA ist eine Stelle, an der sich wohlhabende Spender treffen und die Verteilung der Zuwendungen koordinieren, um die Umweltbewegung zu fördern. Die EGA ermutigt zum Gebrauch vorgeschriebener Zuwendungen [EGA encourages the use of prescriptive grantmaking]. Es ist eine verschwiegene Organisation, die es ablehnt, ihre Mitgliederliste dem Kongress vorzulegen

Die Obama-Administration hat unverfroren eine sich grün drehende Tür [a green-revolving door] unter leitenden EPA-Funktionären installiert, welche zu einem wertvollen Aktivposten für die Umweltbewegung und deren wohlhabende Spender geworden ist.

Ehemalige für die EPA arbeitende Umweltaktivisten kanalisieren Geld in Gestalt von Zuwendungen an ihren früheren Arbeitgeber und ihre früheren Kollegen.

Unter Präsident Obama hat die EPA über 27 Millionen Dollar an steuerfinanzierten Zuwendungen an bedeutende Umweltgruppen gezahlt. Im Einzelnen haben der Natural Resources Defense Council (NRDC) und der Environmental Defense Fund (EDF) – zwei zentrale Aktivistengruppen mit bedeutenden Verbindungen zu leitenden EPA-Funktionären – jeweils über 1 Million Dollar an Zuwendung erhalten.

Die EPA fördert auch weniger bekannte Gruppen. Zum Beispiel erhielt die Louisiana Bucket Brigade hunderttausende Dollar unter der ehemaligen Administratorin Lisa Jackson, obwohl staatliche Kontrolleure den Gebrauch derartiger Zuwendungen bereits in Frage gestellt hatten.

In New York und Colorado hat eine Pseudo-Initiative Bemühungen zur Verhinderung von hydraulischem Brechen mit massiven Zuwendungen seitens der in New York ansässigen Park Foundation finanziert, ebenso wie die in Kalifornien ansässigen Schmidt Family Foundation und Tides Foundation.

Nebraska ist ein weiteres Beispiel künstlich geschaffener Basisgruppen, wo eine angeblich lokale Organisation in Wirklichkeit ein Arm des Milliardärs-Clubs ist. Diese Gruppen sind nichts weiter als ein Schutzschild für wohlhabende und nichts mit Nebraska zu tun habende Interessen, die danach trachten, eine politische Agenda voranzubringen, ohne auf die Tatsache aufmerksam zu machen, dass sie ebenfalls Außenstehende sind, die kaum Verbindungen zu diesem US-Bundesstaat haben.

Die Umstände der Geldflüsse von 501(c)(3) und 501(c)(4)-Gruppen und die Wahrscheinlichkeit einer laxen Aufsicht werfen die Frage auf, ob nicht-profitorientierte Foundations und Wohlfahrtsverbände indirekt politische Aktivitäten finanzieren.

Der Green Tech Action Fund erhält Millionen Dollar von grünen Organisationen und verteilt diese Gelder an andere Gruppen, die dann für politische Kampagnen spenden.

Der Milliardärs-Club arbeitet wissentlich mit fragwürdigen Finanziers der Offshore-Aktivitäten zusammen, um die Unterstützung für die Linksaußen-Umweltbewegung zu maximieren.

In Europa wird die links-extreme Klimabewegung durch die European Climate Foundation (ECF) gesteuert. Laut eigenem Jahresabschlussbericht (S. 42), hatte die ECF im Jahr 2013 üppige 23,2 Millionen Euro zur Verfügung. 15,3 Millionen Euro gingen an Aktivisten und Projekte. Woher kommen bloß diese enormen Gelder? Bei der kalten Sonne beläuft sich das Jahresbudget auf etwa 25 Euro.  Die ECF hat also ca. eine Millionen mal mehr Gelder für ihre Aktionen zur Verfügung als unser Blog.

Die ECF führt auf ihrer Webseite sechs Hauptsponsoren für 2013 auf: The Children’s Investment Fund Foundation, ClimateWorks Foundation, McCall Macbain Foundation, Oak Foundation, Velux Fonden und die Nationale Postcode Loterij. Das hört sich zum Teil ziemlich amerikanisch an. Lesen wir daher im EPW-Bericht auf Seite 47 etwas näher nach:

Aktivisten-Organisationen dienen als Passier-Organe, die zusätzlichen Einfluss durchsetzen, während sie diverse Unterstützungen erzeugen.

Die Energy Foundation ist ein primäres Beispiel eines öffentlichen „Durchreich“-Wohlfahrtsverbandes, welcher massive Zuwendungen von privaten Foundations erhält. Die Energy Foundation fördert dann eine ganze Palette von Aktivisten-Organisationen. Im Gegensatz zu einem Geldgeber, der eine Abgabe zum Geldsammeln bewertet im Namen unerkannter Gruppen, verteilt eine „Durchreich“-Foundation Geld an bekannte Wohlfahrtsverbände. Die Energy Foundation wurde gegründet als als eine solche Passier-Organisation mit einer Aussteuer von 20 Millionen Dollar, gespendet von den Pew Charitable Trusts, der Rockefeller-Foundation und der John D. & Catherine T. MacArthur Foundation. Gegenwärtig werden auf der Website der Energy Foundation die folgenden Partner gelistet: ClimateWorks Foundation, Children’s Investment Fund Foundation, David and Lucile Packard Foundation, Grantham Foundation, Lakeshore Foundation, The McKnight Foundation, Oak Foundation, Pisces Foundation, Robertson Foundation, Schmidt Family Foundation, Tilia Fund, TomKat Fund, TOSA Foundation, The William and Flora Hewlett Foundation und Yellow Chair Foundation.

In den USA dient die ‘Energy Foundation’ als Geldsammel- und Durchreicheplatz. Von Milliardären kontrollierte kleinere Stiftungen pumpen Geld in die Foundation, von wo die Mittel dann an die Aktivistenprojekte verteilt werden. Auf dem alten Kontinent wurde mit der European Climate Foundation offenbar nun ein europäisches Pendant zur Energy Foundation geschaffen. Gleich drei US-Stiftungen sind bei der ECF als Hauptsponsoren aktiv, ClimateWorks Foundation, Children’s Investment Fund Foundation und Oak Foundation. Offensichtlich wollte man hier von den USA ausgehend ein weltweites Klimaaktivisten-Netzwerk schaffen, um die globale Energiepolitik zu beeinflussen.

Wo gehen die vielen ECF-Gelder eigentlich konkret hin? Auf der ECF-Webseite heißt es dazu:

Beispiele für geförderte Projekte
Mehr in kürze!

Das ist schon etwas dürftig und geheimnisvoll, wenn man bedenkt, dass die ECF bereits 2008 gegründet wurde, also vor 6 Jahren. An anderer Stelle der Webseite lässt man die Katze dann doch ein Stück weit aus dem Sack:

Die ECF fördert in Deutschland eine Vielzahl an zivilgesellschaftlichen Akteuren, zum Beispiel den WWF, den Naturschutzbund (NABU), die Deutsche Umwelthilfe (DUH), Germanwatch, das Forum Ökologisch-Soziale Marktwirtschaft und die Klima-Allianz. Außerdem unterstützen wir progressiv eingestellte Unternehmensorganisationen, wie etwa die Stiftung 2° und die Deutsche Unternehmensinitiative Energieeffizienz e. V. (DENEFF).

Der WWF stellt bekanntlich eines der Hauptprobleme in der transparenten Klimaberichterstattung des IPCC dar, hatte es die Organisation doch in der Vergangenheit geschafft, eine Vielzahl von WWF-Aktivisten in das IPCC-Autorenteam einzuschleusen. Anstatt ergebnisoffen die wischenschaftliche Faktenlage zu berichten, ging es dem WWF-Team vor allem darum, eine Gefahrenkulisse aufzubauen, um das Ziel der Eliminierung der Kohlenwasserstoff-Energieträger durchzuknüppeln. Die kanadische Journalistin Donna Lafromboise beschrieb das ganze Ausmaß der IPCC-Unterwanderung durch Umweltaktivisten in einem Beitrag im September 2013 im Wall Street Journal:

Das Problem ist, dass viele IPCC-Mitarbeiter Verbindungen zu Umweltgruppen haben, von denen viele durch den vermeintlichen Hype um die Gefahr der Klimaänderung Geld einsammeln. Diese Beziehungen wirft die legitime Frage nach ihrer Objektivität auf. Die Beispiele sind eine Legion. Donald Wuebbles, einer der beiden Leitautoren des einführenden ersten Kapitels der Arbeitsgruppe 1, hatte ein Jahrzehnt lang Alarmstimmung erzeugende Berichte zur Klimaänderung für die aktivistische Union of Concerned Scientists geschrieben. Ein weiteres Kapitel des Gesamt-IPCC-Berichtes über „offene Ozeane“ wird geleitet durch den australischen Meeresbiologen Ove Hoegh-Guldberg, der eine Reihe von Berichten geschrieben hat mit Überschriften wie „Pazifik in Gefahr“ für Greenpeace und den World Wildlife Fund WWF.

Der Astrophysiker Michael Oppenheimer, verantwortlich für ein anderes Kapitel im IPCC-Bericht über „steigende Risiken und Schlüssel-Verwundbarkeiten“, berät den Environmental Defense Fund (nachdem er über zwei Jahrzehnte lang auf dessen Gehaltsliste stand). Der Wissenschaftler Richard Moss von der University of Maryland ist ein ehemaliger Vollzeit-Vizepräsident des WWF, während Jennifer Morgan die leitende WWF-Sprecherin bzgl. Klimawandel ist. Beide sind gegenwärtig IPCC-Herausgeber von Begutachtungen – eine Position, die eigentlich sicherstellen soll, dass Feedbacks von externen Begutachtern angemessen berücksichtigt werden. Meine eigene Untersuchung des IPCC-Berichtes 2007 ergab, dass unter den Autoren von zwei Dritteln der 44 Kapitel darin zumindest ein Autor mit Verbindungen zum WWF war. Einige waren ehemalige Mitarbeiter oder sind es noch, andere waren Mitglied des Beratungsgremiums beim WWF, dessen Ziel es war, den Sinn für Dringlichkeit in der Öffentlichkeit um die Klimaänderung zu erhöhen.

Letztendlich fördert die ECF auch diese dubiosen Aktivitäten, obwohl die Aufgabe des IPCC eigentlich eine neutrale wissenschaftliche Darstellung und Abwägung sein sollten, unabhängig von der politischen Sichtweise. Es verwundert kaum, dass auch Projekte beim Potsdamer PIK-Institut durch die ECF gefördert wurden, wie der Förderliste zu entnehmen ist. An einer wirklichen wissenschaftlichen Aufarbeitung des Klimaproblems scheint man bei der ECF nicht interessiert zu sein. Ansonsten hätte sich die Stiftung wohl bereits beim kalten-Sonne-Team gemeldet, um dort wegen Förderung von Projekten zu natürlichen Klimafaktoren wie Ozeanzyklen und solaren Aktivitätsschwankungen anzufragen. Unser Kontaktformular ist übrigens hier.

Link: http://www.kaltesonne.de/?p=20772

Bericht zuerst erschienen bei www.kaltesonne.de. Übersetzung der englischen Auszüge (kursiv) von Chris Frey EIKE




Kohle, Gas, Öl, Kernenergie? — Teil 2

Das Mengenproblem

Zumindest solange die Weltbevölkerung noch weiter wächst, wird der Energieverbrauch weiter steigen müssen. Er wird sogar überproportional steigen, da Wohlstand und Energieverbrauch untrennbar miteinander verknüpft sind. All das Geschwafel von “Energieeffizienz” ist nur ein anderes Wort für Wohlstandsverzicht und schlimmer noch, für eine neue Form des Kolonialismus. Woher nimmt z. B. ein “Gutmensch” in Deutschland das Recht, Milliarden von Menschen das Leben vor enthalten zu wollen, das er für sich selbst beansprucht? Das wird nicht funktionieren. Nicht nur China, läßt sich das nicht mehr gefallen.

Wenn aber der Energieeinsatz mit steigendem (weltweiten) Wohlstand immer weiter steigen muß, welche Energieträger kommen in Frage? Die additiven Energien Wind, Sonne etc. werden immer solche bleiben. Dies liegt an ihrer geringen Energiedichte und den daraus resultierenden Kosten und ihrer Zufälligkeit. Die fossilen Energieträger Kohle, Öl und Erdgas reichen zwar für (mindestens) Jahrhunderte, führen aber zu weiter steigenden Kosten. Will man z. B. noch größere Mengen Kohle umweltverträglich fördern, transportieren und verbrennen, explodieren die Stromerzeugungskosten weltweit. Dies ist aber nichts anderes als Wohlstandsverlust. Man kann nun mal jeden Dollar, Euro oder Renminbi nur einmal ausgeben!

Um es noch einmal deutlich zu sagen, das Problem ist nicht ein baldiges Versiegen der fossilen Energieträger, sondern die überproportional steigenden Kosten. Je mehr verbraucht werden, um so mehr steigt z. B. die Belastung der Umwelt. Dem kann aber nur durch einen immer weiter steigenden Kapitaleinsatz entgegen gewirkt werden. Ab einer gewissen Luftverschmutzung war einfach der Übergang vom einfachen Kohleofen auf die geregelte Zentralheizung, vom einfachen “VW-Käfer” auf den Motor mit Katalysator, vom “hohen Schornstein” auf die Rauchgaswäsche nötig… Jedes mal verbunden mit einem Sprung bei den Investitionskosten.

Der Übergang zur Kernspaltung

Bei jeder Kernspaltung – egal ob Uran, Thorium oder sonstige Aktinoide – wird eine unvergleichbar größere Energiemenge als bei der Verbrennung frei: Durch die Spaltung von einem einzigen Gramm Uran werden 22.800 kWh Energie erzeugt. Die gleiche Menge, wie bei der Verbrennung von drei Tonnen Steinkohle,13 barrel Öl oder rund 2200 Kubikmeter Erdgas.
Man kann gar nicht nicht oft genug auf dieses Verhältnis hinweisen. Auch jedem technischen Laien erschließt sich damit sofort der qualitative Sprung für den Umweltschutz. Jeder, der schon mal mit Kohle geheizt hat, weiß wieviel Asche 60 Zentner Kohle hinterlassen oder wie lange es dauert, bis 2000 Liter Heizöl durch den Schornstein gerauscht sind und welche Abgasfahne sie dabei hinterlassen haben. Wer nun gleich wieder an “Strahlengefahr” denkt, möge mal einen Augenblick nachdenken, wie viele Menschen wohl momentan in Atom-U-Booten in den Weltmeeren unterwegs sind. So schlimm kann die Sache wohl nicht sein, wenn man monatelang unmittelbar neben einem Reaktor arbeiten, schlafen und essen kann, ohne einen Schaden zu erleiden. Der größte Teil der “Atomstromverbraucher” wird in seinem ganzen Leben nie einem Reaktor so nahe kommen.

Die nahezu unerschöpflichen Uranvorräte

Allein in den Weltmeeren – also prinzipiell für alle frei zugänglich – sind über 4 Milliarden to Uran gelöst. Jedes Jahr werden etwa 32.000 to durch die Flüsse ins Meer getragen. Dies ist ein nahezu unerschöpflicher Vorrat, da es sich um einen Gleichgewichtszustand handelt: Kommt neues Uran hinzu, wird es irgendwo ausgefällt. Würde man Uran entnehmen, löst es sich wieder auf.
Bis man sich diesen kostspieligeren – weil in geringer Konzentration vorliegenden – Vorräten zuwenden muß, ist es noch sehr lange hin. Alle zwei Jahre erscheint von der OECD das sog. “Red book”, in dem die Uranvorräte nach ihren Förderkosten sortiert aufgelistet sind. Die Vorräte mit aktuell geringeren Förderkosten als 130 USD pro kg Uranmetall, werden mit 5.902.900 Tonnen angegeben. Allein dieser Vorrat reicht für 100 Jahre, wenn man von der weltweiten Förderung des Jahres 2013 ausgeht.

Der Uranverbrauch

Die Frage, wieviel Uran man fördern muß, ist gar nicht so einfach zu beantworten. Sie hängt wesentlich von folgenden Faktoren ab:

·       Wieviel Kernkraftwerke sind in Betrieb,

·       welche Reaktortypen werden eingesetzt,

·       welche Anreicherungsverfahren zu welchen Betriebskosten und

·       wieviel wird wieder aufbereitet?

Im Jahre 2012 waren weltweit 437 kommerzielle Kernreaktoren mit 372 GWel in Betrieb, die rund 61.980 to Natururan nachgefragt haben. Die Frage wieviel Reaktoren in der Zukunft in Betrieb sind, ist schon weitaus schwieriger zu beantworten. Im “Red book” geht man von 400 bis 680 GWel im Jahre 2035 aus, für die man den Bedarf mit 72.000 bis 122.000 to Natururan jährlich abschätzt. Hier ist auch eine Menge Politik im Spiel: Wann fährt Japan wieder seine Reaktoren hoch, wie schnell geht der Ausbau in China voran, wie entwickelt sich die Weltkonjunktur?
Der Bedarf an Natururan hängt stark von den eingesetzten Reaktortypen ab. Eine selbsterhaltende Kettenreaktion kann man nur über 235-U einleiten. Dies ist aber nur zu 0,7211% im Natururan enthalten. Je nach Reaktortyp, Betriebszustand usw. ist ein weit höherer Anteil nötig. Bei Schwerwasserreaktoren kommt man fast mit Natururan aus, bei den überwiegenden Leichtwasserreaktoren mit Anreicherungen um 3 bis 4 %. Über die gesamte Flotte und Lebensdauer gemittelt, geht man von einem Verbrauch von rechnerisch 163 to Natururan für jedes GWel pro Kalenderjahr aus.

Das Geheimnis der Anreicherung

Diese Zahl ist aber durchaus nicht in Stein gemeißelt. Isotopentrennung ist ein aufwendiges Verfahren. Standardverfahren ist heute die Zentrifuge: Ein gasförmiger Uranstrom wird durch eine sehr schnell drehende Zentrifuge geleitet. Durch den – wenn auch sehr geringen – Dichteunterschied zwischen 235-U und 238-U wird die Konzentration von 235-U im Zentrum etwas höher. Um Konzentrationen, wie sie für Leichtwasserreaktoren benötigt werden, zu erhalten, muß man diesen Schritt viele male in Kaskaden wiederholen. So, wie sich in dem Produktstrom der Anteil von 235-U erhöht hat, hat er sich natürlich im “Abfallstrom” entsprechend verringert. Das “tails assay”, das ist das abgereicherte Uran, das die Anlage verläßt, hat heute üblicherweise einen Restgehalt von 0,25% 235-U. Leider steigt der Aufwand mit abnehmendem Restgehalt überproportional an. Verringert man die Abreicherung von 0,3% auf 0,25%, so sinkt der notwendige Einsatz an Natururan um 9,5%, aber der Aufwand steigt um 11%. Eine Anreicherungsanlage ist somit flexibel einsetzbar: Ist der aktuelle Preis für Natururan gering, wird weniger abgereichert; ist die Nachfrage nach Brennstoff gering, wie z. B. im Jahr nach Fukushima, kann auch die Abreicherung erhöht werden (ohnehin hohe Fixkosten der Anlage).
Hier tut sich eine weitere Quelle für Natururan auf. Inzwischen gibt es einen Berg von über 1,6 Millionen to abgereicherten Urans mit einem jährlichen Wachstum von etwa 60.000 to. Durch eine “Wiederanreicherung” könnte man fast 500.000 to “Natururan” erzeugen. Beispielsweise ergeben 1,6 Millionen to mit einem Restgehalt von 0,3% 235-U etwa 420.000 to künstlich hergestelltes “Natururan” und einen neuen “Abfallstrom” von 1.080.000 to tails assay mit 0,14% 235-U. Man sieht also, der Begriff “Abfall” ist in der Kerntechnik mit Vorsicht zu gebrauchen. Die Wieder-Anreicherung ist jedenfalls kein Gedankenspiel. In USA ist bereits ein Projekt (DOE und Bonneville Power Administration) angelaufen und es gibt eine Kooperation zwischen Frankreich und Rußland. Besonders vielversprechend erscheint auch die Planung einer Silex-Anlage (Laser Verfahren, entwickelt von GE und Hitachi) zu diesem Zweck auf dem Gelände der stillgelegten Paducah Gasdiffusion. Die Genehmigung ist vom DOE erteilt. Letztendlich wird – wie immer – der Preis für Natururan entscheidend sein.

Wann geht es mit der Wiederaufbereitung los?

Wenn ein Brennelement “abgebrannt” ist, ist das darin enthaltene Material noch lange nicht vollständig gespalten. Das Brennelement ist lediglich – aus einer Reihe von verschiedenen Gründen – nicht mehr für den Reaktorbetrieb geeignet. Ein anschauliches Maß ist der sogenannte Abbrand, angegeben in MWd/to Schwermetall. Typischer Wert für Leichtwasserreaktoren ist ein Abbrand von 50.000 bis 60.000 MWd/to. Da ziemlich genau ein Gramm Uran gespalten werden muß, um 24 Stunden lang eine Leistung von einem Megawatt zu erzeugen, kann man diese Angabe auch mit 50 bis 60 kg pro Tonne Uran übersetzen. Oder anders ausgedrückt, von jeder ursprünglich im Reaktor eingesetzten Tonne Uran sind noch 940 bis 950 kg Schwermetall übrig.
Hier setzt die Wiederaufbereitung an: In dem klassischen Purex-Verfahren löst man den Brennstoff in Salpetersäure auf und scheidet das enthaltene Uran und Plutonium in möglichst reiner Form ab. Alles andere ist bei diesem Verfahren Abfall, der in Deutschland in einem geologischen “Endlager” (z. B. Gorleben) für ewig eingelagert werden sollte. Interessanterweise wird während des Reaktorbetriebs nicht nur Uran gespalten, sondern auch kontinuierlich Plutonium erzeugt. Heutige Leichtwasserreaktoren haben einen Konversionsfaktor von etwa 0,6. Das bedeutet, bei der Spaltung von 10 Kernen werden gleichzeitig 6 Kerne Plutonium “erbrütet”. Da ein Reaktor nicht sonderlich zwischen Uran und Plutonium unterscheidet, hat das “abgebrannte Uran” immer noch einen etwas höheren Gehalt (rund 0,9%) an 235-U als Natururan. Könnte also sogar unmittelbar in mit schwerem Wasser moderierten Reaktoren eingesetzt werden (DUPIC-Konzept der Koreaner). Das rund eine Prozent des erbrüteten Plutonium kann man entweder sammeln für später zu bauende Reaktoren mit schnellem Neutronenspektrum oder zu sogenannten Mischoxid-Brennelementen (MOX-Brennelement) verarbeiten. Im Jahr 2012 wurden in Europa 10.334 kg Plutonium zu MOX-Brennelementen verarbeitet. Dies hat rund 897 to Natururan eingespart.
Man kann also grob sagen, durch 1 kg Plutonium lassen sich rund 90 kg Natururan einsparen. Setzt man den Preis für Natururan mit 100 USD (entspricht ungefähr dem derzeitigen Euratom-Preis) an, so ergibt diese einfache Abschätzung Kosten von höchstens 9.000 USD pro kg Plutonium bzw. 900 USD für eine Tonne abgebrannter Brennelemente. Dies ist – zugegebenermaßen mit einem dicken Daumen gerechnet – doch eine brauchbare Einschätzung der Situation. Es wird noch eine ganze Zeit dauern, bis die Wiederaufbereitung in großem Stil wirtschaftlich wird.
Wegen der hohen Energiedichte sind die Lagerkosten in einem Trockenlager sehr gering. Außerdem hat “Atommüll” – im Gegensatz z. B. zu Quecksilber oder Asbest – die nette Eigenschaft, beständig “weniger gefährlich” zu werden. Die Strahlung ist aber der Kostentreiber beim Betrieb einer Wiederaufbereitungsanlage (Abschirmung, Arbeitsschutz, Zersetzung der Lösungsmittel etc.). Je länger die Brennelemente abgelagert sind, desto kostengünstiger wird die Wiederaufbereitung.

Erdgas- oder Kernkraftwerke?

Kraftwerke mit Gasturbinen und Abhitzekesseln erfordern die geringsten Investitionskosten. Sie sind deshalb der Liebling aller kurzfristigen Investoren. Ihre guten Wirkungsgrade in der Grundlast (!!) von fast 60% werden gern als Umweltschutz ausgegeben, sind jedoch wegen der hohen Erdgaspreise (in Deutschland) eher zwingend notwendig.
Auch hier, kann eine einfache Abschätzung weiterhelfen: Geht man von den 163 to Natururan pro GWael aus (siehe oben), die ein Leichtwasserreaktor “statistisch” verbraucht und einem Preis von 130 USD pro kg Natururan (siehe oben), so dürfte das Erdgas für das gleichwertige Kombikraftwerk nur 0,51 USD pro MMBtu kosten! Im letzten Jahr schwankte der Börsenpreis aber zwischen 3,38 und 6,48 USD/MMBtu. Dies ist die Antwort, warum sowohl in den USA, wie auch in den Vereinigten Emiraten Kernkraftwerke im Bau sind und Großbritannien wieder verstärkt auf Kernenergie setzt. Ganz nebenbei: Die Emirate haben 4 Blöcke mit je 1400 MWel für 20 Milliarden USD von Korea gekauft. Bisher ist von Kosten- oder Terminüberschreitungen nichts bekannt.

Vorläufiges Schlusswort

Das alles bezog sich ausdrücklich nicht auf Thorium, “Schnelle Brüter” etc., sondern auf das, was man auf den internationalen Märkten sofort kaufen könnte. Wenn man denn wollte: Frankreich hat es schon vor Jahrzehnten vorgemacht, wie man innerhalb einer Dekade, eine preiswerte und zukunftsträchtige Stromversorgung aufbauen kann. China scheint diesem Vorbild zu folgen.
Natürlich ist es schön, auf jedem Autosalon die Prototypen zu bestaunen. Man darf nur nicht vergessen, daß diese durch die Erträge des Autohändlers um die Ecke finanziert werden. Die ewige Forderung, mit dem Kauf eines Autos zu warten, bis die “besseren Modelle” auf dem Markt sind, macht einen notgedrungen zum Fußgänger.

Der Beitrag wurde übernommen von Nukeklaus hier




Das 50-Milliarden-Dollar-Klima-Event

Es geht wieder mal um die Verhinderung des „Klimawandels“, um den Kampf gegen das „Klimakillergas“ CO2, das uns Wetterkatastrophen, Hunger und Seuchen bescheren soll. Und das natürlich auch den armen Eisbären wegen abschmelzender Polkappen dem Hungertod preisgibt.

Prominenz verbreitet Horrorszenarien

Das mediale Aufgebot ist riesig, und hochrangige Prominenz drängt es mit Macht zum Rampenlicht. Leonardo di Caprio und UNO-Generalsekretär Ban Ki-moon schritten Arm in Arm mit dem durch seine „Klimaschutz“-Aktivitäten zum vielfachen Millionär avancierten ehemaligen US-Vizepräsidenten Al Gore fernsehgerecht in der ersten Reihe einer riesigen Demonstration durch New York. Schilder wurden hochgehalten mit verdorrten Feldern, Flutkatastrophen oder toten Tieren in den Dürreregionen Afrikas.

Ohne Rücksicht auf wissenschaftliche Erkenntnisse

Dass all diese Horrorszenarien nicht dem tatsächlichen Stand wissenschaftlicher Erkenntnisse entsprechen oder zumindest unter Wissenschaftlern höchst kontrovers diskutiert werden, ficht die Demonstranten und diejenigen, die sich an die Spitze der Bewegung gestellt haben, nicht im geringsten an. In Wahrheit geht es nämlich um etwas ganz anderes: Um Big Money, um den Zugriff auf mindestens 50 Mrd. US-Dollar an Geldern, über die zahlreiche Stiftungen verfügen. In diesen Stiftungen haben reiche Familien ihr Vermögen untergebracht, um es so ihren Erben steuerbegünstigt zukommen zu lassen. So wie die Rockefeller Foundation, über welche der längst verstorbene Ölmagnat des 19. Jahrhunderts seinen Nachfahren ein Vermögen von rund 860 Mio. US-Dollar hinterlassen hat [BBC]. Und just über diese Stiftung kann man bei der britischen BBC nachlesen, dass sie zusammen mit 800 (!) anderen Stiftungen, die zusammen über rund 50 Mrd. US-$ Vermögen gebieten, jetzt beschlossen hat, ihr Kapital aus „dreckigen“ Branchen wie Erdöl oder Kohle abzuziehen und stattdessen in „saubere“, „erneuerbare“ Energien zu investieren. Dieser „Koalition der Willigen“ in Sachen Klimaschutz haben sich rund 650 weitere Einzelpersonen sowie 180 andere Institutionen angeschlossen. Die Öffentlichkeitsarbeit der NGO’s hat offensichtlich dazu geführt, dass diese die Verfügungsgewalt über Vermögenswerte errungen haben, die selbst bei der internationalen Drogenmafia Neidgefühle hervorrufen dürften.

Betrug im Größtmaßstab

Genau darin liegt die Antriebskraft dieser weltweiten Kampagnen. Vermögenswerte von mehr als 50 Mrd. $, die man anderen Marktsegmenten entziehen und in die Taschen der eigenen Anhänger umlenken kann, sind ein mächtiger Antrieb. Für soviel Geld finden sich im Handumdrehen die erforderlichen Schlangenölverkäufer und Heilsapostel, die bereit sind, das Blaue vom Himmel herunter zu versprechen, wenn man ihnen nur die Verfügungsgewalt über diese Summen einräumen möge. Und von der Öffentlichkeit kann man zugleich nochmals ungezählte Milliarden zusätzlich ins Portemonnaie lotsen, indem man über die Medien und die Prominenz solange Druck auf die öffentliche Meinung und auf die Politik ausübt, bis genügend superteure und extrem unsinnige, aber angeblich der „Klimagerechtigkeit“ dienende Programme beschlossen und finanziert werden.
Fred F. Mueller

Quellen
[BBC] http://www.bbc.com/news/world-us-canada-29310475




Der Klimaklamauk des ZDF anlässlich des New Yorker Gipfels

Vorausgeschickt sei eine Anmerkung zum Stil der ZDF-Nachrichten: Leider erfolgt in ihnen inzwischen eine implizite Einmischung der Nachrichtensprecher, die jedes erträgliche Maß überschreitet. Offenbar ist unbekannt, dass es AUSSCHLIEßLICH auf den nackten Sachinhalt der Nachricht ankommt. Kommentierung des Sprechers mit den Mitteln aufgesetzter Emotionen stellt eine unzulässige Verdrehung des Nachrichteninhalts dar. Inzwischen müssen wir Ego-Hähne wie Claus Cleber oder Thomas Roth ertragen, die schon Nachrichten-"Vorträge" zelebrieren und sich in Belehrung des Zuschauers und Gestelztheit überbieten. Man kann nur abschalten, wenn C. Cleber auf der Mattscheibe erscheint, seine Wirkung ist die von Allergiepollen im Frühjahr.

Leider fangen mit diesem Unsinn nun auch noch die ZDF-Damen an. Frau Slomka pflegt seit einiger Zeit bemühte Ironie, was vielleicht nicht ganz so unerträglich ist wie das Gehabe ihrer männlichen Kollegen. Ihr Kommentar zum New York Gipfel "Weltrettung muss es mindestens sein" war tatsächlich amüsant, hat aber in einer Nachrichtensendung auch nichts zu suchen. Daher ein Appell ans ZDF: Wir wollen Nachrichten neutral-sachlich hören, ohne Senkung der Stimme ins Sakrale, wenn wieder einmal das Böse in der Welt überhand nimmt. Wir wollen Qualitätsredakteure, die sich mit keiner Sache gemein machen und sei es auch eine vermeintlich gute.

Nun zum ZDF-Bericht über den Klimagipfel: Es lohnt kaum noch, den stets wiederholten Unsinn zu kommentieren. So etwa die regelmäßig gezeigten harmlosen, weißen Wasserdampfwolken aus Kraftwerkskühltürmen, die als Synonym für die Klimaschädlichkeit des industriellen menschlichen Tuns herhalten müssen und gleichzeitig noch in gewünschter Verdrehung und dem Laien unkenntlich das anthropogene CO2 darstellen. Von diesem Naturgas (CO2 ist Hauptbestandteil der Photosynthese) weiß zwar heute schon jedes Schulkind, dass es ebenso unsichtbar wie auch (in diesen und wesentlich größeren Mengen) völlig ungiftig ist – das schert aber keinen Journalisten. Hauptsache ein stimmiges Katastrophenbild entsteht.

Ist es tatsächlich unbekannt, dass sogar das IPCC über die Extremwetterentwicklung längst Entwarnung gegeben hat, mehrfach nachzulesen, zum letzten Mal im Extremwetterbericht SREX (hier), aber auch schon im IPCC-Bericht von 2001, the scientific basis, Chapter 02, Abschnitt 2.7, S. 155 (hier)? Dass dies den Fachredakteuren bzw. dem ZDF unbekannt sein sollte, ist unglaubwürdig, daher muss man wohl bei den üblichen Meldungen von an Zahl und Stärke ansteigenden Extremwettern von vorsätzlicher Täuschung des Zuschauers ausgehen.

Nehmen wir jetzt stellvertretend zwei Kernaussagen der Sendung her! So behauptete beispielsweise Frau Slomka, dass die globale Mitteltemperatur im August 2014 die höchste seit Beginn der Temperaturaufzeichnungen gewesen sei – ohne die Quelle zu nennen. Hmmm, das nach immerhin 17 Jahren globaler Abkühlung? Nun ist es mit "globaler Mitteltemperatur" so eine Sache. Sie ist ein wohlfeiles theoretisches Konstrukt. Eine räumliche Temperaturmittelung über Bereiche mit unterschiedlichen Wärmekapazitäten kennt die Physik nicht (hier, hier). Außerdem zeigen lokalen Temperaturreihen zum Teil extrem unterschiedliche Verläufe. So weisen beispielsweise weltweit rund ein Viertel aller 100 Jahre langen Temperaturreihen Abkühlung und nicht Erwärmung auf (hier, hier). Davon hat  anscheinend kein Journalist Kenntnis.

Greifen wir einfach auf eine sehr prominente und weitgehend lokale Reihe zu. Es ist die CET-Reihe (Central England Temperatures), die im Jahre 1659 beginnt und laufend bis zum aktuellen Tag fortgesetzt wird. Sie kann von jedermann aus dem Netz heruntergeladen werden (hier) und bietet nicht nur Jahreswerte sondern sogar Tageswerte und Monatswerte. Was will man mehr? Ich habe daher zur Überprüfung der ZDF-Behauptung die CET – Augusttemperaturen seit 1659 in einem Diagramm dargestellt (Bild).

Bild: Augusttemperaturen seit 1659 bis 2014 in Mittelengland. Der August 2014 (roter Pfeil) liegt in der unteren Hälfte aller Werte. Offenbar hat die kühle Augusttemperatur Mittel-Englands in 2014 nichts zum hohen globalen Mittelwert des ZDF beigetragen – mein Gott, wie heiß muss es im August 2014 dann erst andernorts gewesen sein!

Um näher Interessierten das nicht ganz triviale Herunterladen und ins EXCEL-Transponieren der Reihe zu ersparen, liegt der EXCEL-File bei. Jeder kann jetzt selber nach Belieben herumspielen, zum Beispiel sich andere Monate ansehen usw.

Fazit: Zumindest aus der CET-Reihe geht eindeutig hervor, dass die ZDF-Behauptung über eine in 2014 noch nie vorgekommene "globale" Augusttemperatur fragwürdig ist – um es freundlich auszudrücken.

Weitere Fragwürdigkeiten in der ZDF-Sendung betrafen den westantarktischen Eisschild, dessen katastrophales Rutschen – verbunden mit mindestens 3 m Meeresspeigelanstieg – an die Wand des aktuellen Geschehens gemalt wurde. Immerhin wurde am Schluss des Beitrags nebenbei darauf hingewiesen, dass das Ereignis noch viele Hundert Jahre auf sich warten lässt. Nun gut. Was aber wohl das erst in vielen hundert Jahren drohende Rutschen eines mehrere km dicken Eisschildes und die in dieser Tiefe vorherrschende Wassertemperatur mit dem bis heute und auch in Zukunft verschwindenen menschgemachtem Einfluss auf Erdtemperaturen zu tun haben soll, haben sich mitdenkende Zuschauer sicher erstaunt gefragt. Eine EIKE-News von Lubos Motl (Fachberatsmitglied von EIKE) sagt zum Thema "Antarktis" Näheres (hier).

Eine weitere Besonderheit der ZDF-Sendung war, dass wieder einmal der Klima-Chef-Alarmist H.-J. Schellnhuber zu Wort kam. Was diesen Mann antreibt, ist vielen ein Rätsel. Modellszenarien als Realität zu verkaufen, wobei diese Modelle noch nicht einmal den Eintrittszeitpunkt des El Nino vorhersagen können, ist schon kühn. Eine El-Nino-Vorhersage-Publikation zs. mit Armin Bunde als Hauptautor hat sich als Flop herausgestellt, sie traf nicht zu. Der Presserummel (hier) darüber erscheint daher im Nachhinein etwas peinlich. Noch erstaunlicher, wie die Medien den sachlichen Unsinn über extrem hohe zukünftige Erdtemperaturen, die nur in fiktiven Modellen erkennbar sind, auch noch als "Realität" schlucken und unter die Leute streuen.Wie hat es einmal ein Experte ironisch ausgedrückt: "Klimamodelle sind zuverlässige Mittel um die Klimazukunft zu prognostizieren, nur mit der Klimavergangenheit hapert es leider noch".

Schellnhuber erweist sich bei persönlichem Kennenlernen als ein sympathischer und zuvorkommender Zeitgenosse – zumindest ich schätze ihn so ein. Seine zweite Seite (Dr. Jekil – Mr. Hyde) ist aber nicht tolerierbar. Die von ihm propagierte "große Transformation" ist ein undemokratischer, im Grunde sogar faschistoider Ansatz zur "Weltrettung". Und von "Weltrettung" hatten wir schon in der Vergangenheit genug. Die Politik sollte sich von solchem Unsinn endlich distanzieren und nicht deren Vertreter auch noch zu Direktoren des WBGU machen.

Kann man gegen die Volksverdummung des ZDF etwas tun? Leider nur wenig, Proteste, auch solche beim Rundfunkrat etc. laufen erfahrungsgemäß ins Leere. Wir können aber an dieser Stelle beispielsweise an alle Eltern mit Kindern in naturwissenschaftlichen Gymnasialklassen appellieren, einmal mit den betreffenden Lehrern (Lehrerinnen) zu reden, damit solche Meldungen wie die des ZDF thematisiert und versachlicht werden. Dabei lernen die jungen Leute auch gleich noch nebenbei, was reale Propaganda bedeutet. Freilich ist eine vorherige Erkundigung ratsam, ob es sich bei dem betreffenden Lehrkörper nicht etwa um einen strammen Grünen handelt. In diesem Fall ist "Klappe halten" zum Schutz des Sprösslings das Beste, denn solchen Leuten ist mit rationalen Argumenten nicht beizukommen. Wir können weiter an alle Leser dieses Beitrags appellieren, beim ZDF zu protestieren. Die Masse macht’s.

Nun ist schlussendlich aber auch eine kleine Ehrenrettung des ZDF angebracht. Die dem heute-journal nachfolgende Sendung "aus der Anstalt", die in neuer Form und mit neuen Akteuren an Niveau fast unendlich gegenüber dem Vorgänger unter Priol und Pelzig zugelegt hat, ließ erstaunen. Dass das ZDF solch eine hervorragende, schonungslose Kritik der deutschen Politik zuließ, darf als Medien-Sternstunde gelten. Ich gestehe meine permanente Befürchtung freimütig ein, dass plötzlich der Bildschirm schwarz würde. Nichts derartiges geschah, so dass wir hoffen dürfen, die Zensur schlägt auch zukünftig nicht zu und uns bleibt "aus der Anstalt" in dieser Bissigkeit und Schonungslosigkeit noch weiter erhalten. Wer’s versäumt hat, kann die Sendung in der ZDF-Mediathek ansehen.

Vielleicht liest ja einer der Kabarettisten diesen Beitrag hier, oder ein Leser, der zu den Kabarettisten Kontakt hat, macht sie auf ihn aufmerksam. Mein Vorschlag dann: Wie wäre es mit einem Klimabeitrag "aus der Anstalt", der die Weltrettung durch "Aufhalten" des Klimawandels mit CO2-Vermeidung aus Korn nimmt, denn Klima kann man schließlich ebensowenig wie das Wetter schützen. Immerhin gibt es bereits Klimacomedy-Ansätze – so bei Dieter Nuhr, der in einer Sendung das Ergrünen der Erde durch zunehmendes menschgemachtes CO2 erwähnte, aber auch Vince Ebert nimmt kein Blatt vor den Mund. Ein Zuschauerapplaus anlässlich der Anmerkung von D. Nuhr fiel aus, offenbar hat die permanente Katstrophenpropaganda bereits so gewirkt, dass nur die wenigsten kapiert haben, was D. Nuhr meinte. Eine satirische Klimasendung "aus der Anstalt" wird natürlich ein frommer Wunsch bleiben, denn da hört der Spaß auf, sie käme niemals durch.

Auch die darauf folgende Sendung von Harald Lesch "Leschs Kosmos" war übrigens tadellos. Ob sich H. Lesch noch an seine "Nacht des Klimas" erinnert. Vermutlich nicht, denn sie war einfach zu peinlich (hier). Wir wollen ihm vergeben, jeder von uns baut schon mal "Mist". Was er jetzt auf seinem ureigenen Forschungsgebiet im ZDF an Populärsendungen macht, ist dagegen einwandfrei, gelungen und gut. 

Related Files




Die Antarktis ist auch ein Klimaleugner

Schaut man heute einmal bei Cryosphere Today und besonders einer Graphik der absoluten Meereis-Bedeckung auf der Südhemisphäre (hier) nach, wo die Pinguine leben, erkennt man dieser Tage, dass die Eisbedeckung über einen neuen Allzeit-Rekord hinausgeht. Nun, „Allzeit“ heißt hier die letzten 35 Jahre, aber auch diese Zeitspanne ist länger als das Gedächtnis der Menschen.

Möglicherweise ist es politisch inkorrekt, wenn sich das Eis akkumuliert und sagt „Ihr könnt mich mal, ihr Alarmisten!“. Ein sich wohl verhaltendes Eis mit ziviler Achtung sollte dahinschmelzen und schreien „helft den Planeten zu retten und führt eine neue Steuer und neue Verbote ein!“.

Auf der Südhemisphäre geht gerade der Winter zu Ende, und genau zu dieser Jahreszeit erreicht die Eisausdehnung ihren höchsten Wert im Jahresverlauf.

Die Eisausdehnung auf der Südhemisphäre stieg dieser Tage über 16,7 Millionen Quadratkilometer, der bisherige Rekord stand unter 16,5 Millionen Quadratkilometer. Relativ zum jährlichen Maximum vor fünf Jahren beläuft sich diese Zunahme auf 10%. Also kann man die IPCC-Verfahren nutzen – genau die gleichen Verfahren, die das IPCC bezüglich des arktischen Eises anwandte – um zu dem Ergebnis zu kommen, dass die Ozeane um die Antarktis in einer Prognose vor 50 Jahren jetzt komplett eisfrei sein sollten.

Es gibt massenhaft Stories über diese neue Rekordausdehnung, und nahezu alle diese Storys, geschrieben in englischer Sprache, erwähnen die „globale Erwärmung“ als Lehre für geistig behinderte Bürger. Das ist zutiefst empörend für die gesamte angelsächsische Welt. Man findet Titel wie „Antarctica Sets New Sea Ice Record Despite Rising Global Temperature“.

Ach wirklich? Die globalen Temperaturen steigen? Der Graph bei Cryosphere Today ist nur seit Beginn der „Satelliten-Ära“ Ende der siebziger Jahre verfügbar. Er ist lediglich 35 Jahre lang. Weil der Trend der globalen Mitteltemperatur nur gering und negativ war während der letzten 18 Jahre und 18 mehr als die Hälfte von 35 ist, sollte man beachten, dass die globale Temperatur während des größten Teils der Zeit von Satellitenaufnahmen nicht gestiegen ist.

Während der letzten Wochen ist die globale Mitteltemperatur auch wie ein Stein gefallen. Das liegt daran, dass die Temperaturvariationen über dem Festland stärker sind als über den Ozeanen und weil die Kontinente zumeist auf der Nordhemisphäre liegen. Die globale Mitteltemperatur variiert in einer Weise, die korreliert ist mit den Temperaturen auf der Nordhemisphäre. Der Sommer geht hier gerade zu Ende, und die Temperatur nimmt allgemein ab. Also kann man sicher sein, dass dies auch für die globale Mitteltemperatur gilt.

Die Konfrontation bzgl. der Propaganda zur „globalen Erwärmung“ wird oftmals auf das Problem der Beiträge dazu reduziert. Wer hat die globale Erwärmung verursacht? Man erzählt den Menschen oft, dass alle Experten hinsichtlich der Existenz von etwas übereinstimmen, das man „globale Erwärmung“ nennen könnte. In Wirklichkeit gibt es seit 18 Jahren keinen positiven Trend der globalen Mitteltemperatur – ein Zeitraum, der länger ist als das Alter einiger RTF-Leser* – also gibt es nichts Beitragendes.Aber die Psychopathen der Klimaänderung reden weiter von der „globalen Erwärmung“, als ob diese jedes Jahr die ganze Zeit über stattfindet; und sie nutzen diese falsche Hypothese als Grund für ihre weiteren Spekulationen oder Entschuldigungen. [*RTF = Read The FAQ = lies die oft gestellten Fragen {Chatslang}].

Die globale Erwärmung kann nichts, aber auch gar nichts mit der von Satelliten gemessenen Rekord-Eisausdehnung in der Antarktis zu tun haben, einfach weil diese globale Erwärmung gar nicht existiert.

Einige Spinner der Klimaänderung sind psychopathologischer als andere. Zum Beispiel informiert uns Nude Socialist rundweg, dass die Rekord-Eisausdehnung um die Antarktis der globalen Erwärmung geschuldet ist (hier).

Mann! Diese Schwachköpfe können nicht nur die Diskrepanz nicht erkennen – das Abschmelzen beider Polkappen wurde lang und breit in der gesamten klimahysterischen Literatur vorhergesagt –, sondern sie sind auch unfähig, die Gelegenheit auszunutzen, um einige der größten offensichtlichsten Wahnvorstellungen auszuräumen und einige der am klarsten falsifizierten Theorien über Bord zu werfen. Sie sind so arrogant, diese Beobachtung als ein Argument für ihre Wahnvorstellungen zu gebrauchen.

Es gibt viele detaillierte Unterschiede zwischen Arktis und Antarktis. In Ersterer gibt es einen Ozean, in Letzterem einen Kontinent. Dieser Unterschied hat viele zusätzliche Konsequenzen. Die Antarktis ist „isolierter“ von der globalen Dynamik, und so weiter. Allerdings gibt es einfach keine kohärente Theorie, die den Schluss zulässt, dass das sich ausbreitende Eis auf der Südhemisphäre die Klimapanik verstärkt.

Viele der Artikel schreiben Dinge wie Die Zunahme des Eises im Süden war verbunden mit einer höheren Windgeschwindigkeit und dem erhöhten Wassereintrag des schmelzenden Inlandeises der Antarktis.

Aber das ist nur eine Entschuldigung am Rande. Solche „einfachen Erklärungen“, die nur a posteriori abgegeben werden können – aber niemals dazu benutzt werden können, um irgendetwas vorherzusagen – sind ähnlich vielen Äußerungen in Artikeln zum Aktienmarkt. Sehen Sie, der Aktienmarkt ging gestern aufwärts oder abwärts. Also schreiben einige Finanzakteure Artikel wie Aktien höher (niedriger), weil (obwohl) (etwas passierte), was implizit heißt, dass das „Etwas-Passierte“-Ereignis entweder eine ultimative (oder überwältigende) Erklärung der Änderung des Aktienindex‘ ist, oder es ist wirklich schockierend, falls die Änderung des Aktienindex‘ mit der Änderung, die man naiv von „etwas passierte“ erwartet, antikorreliert ist. In Wirklichkeit ist die Erklärung in allen Fällen so gut wie unbekannt. Die Änderungen des Aktienindex‘ haben normalerweise hunderte Ursachen – einschließlich wichtiger Ursachen, die der Öffentlichkeit komplett verborgen bleiben –, und außerdem spielt auch der reine Zufall eine große Rolle.

In politischer Hinsicht ist wir können es nicht vorhersagen viel wichtiger als die Existenz einer gut definierten Ursache – wir können diese Entschuldigungen nur einführen, nachdem uns gesagt worden ist, was eigentlich passiert ist. Aus diesem Grunde können wir auch nicht Dinge vorhersagen, wie ob die Eisausdehnung in Arktis oder Antarktis im Jahre 2050 höher oder niedriger als heute sein wird. Ein Ganove könnte viele Entschuldigungen anführen und sagen, dass die Dynamik immer die vorherigen Proklamationen bestätigt, aber nur ein leichtgläubiger Trottel wird nicht bemerken, dass der Ganove schummelt und es wirklich keine Substanz zum Vorhersagen gibt.

Also bitte, lassen wir das Eis auf beiden Hemisphären das tun, was immer es tun möchte oder was immer es bestimmt ist zu tun; und hören wir auf, diese Dynamik zu politisieren. Weder die Zunahme noch die Abnahme des Eises um Arktis und Antarktis ist eine Rechtfertigung für die Einführung neuer Steuern oder neuer Verbote, und jeder, der etwas anderes zu behaupten versucht und dafür Macht und Geld bekommt, sollte sein Leben im Gefängnis verbringen.

Und das ist die Botschaft!

Link: http://motls.blogspot.de/2014/09/antarctica-is-climate-denier-too.html

Übersetzt von Chris Frey EIKE




Immer am Rand eines großen Stromausfalls

Sie erinnern sich doch sicher noch an jene Zeit, als unser Strom nur mit Kohle, Kernkraft, Erdöl, Erdgas und Wasserkraft erzeugt wurde. Dann werden Sie auch noch wissen, dass wir damals nicht durch Berichte über drohende Stromausfälle erschreckt worden sind, dass stromintensive Betriebe staatlich nicht zur Produktionsunterbrechung veranlasst wurden, um Netzzusammenbrüche zu vermeiden, und dass es keine drastische programmierte Stromverteuerung gab, die staatlich durch Gesetz verordnet war. Es ist eine preiswerte, eine sichere, eine schöne Zeit gewesen in der Versorgung mit Strom. Wollen Sie, dass die wirklich vorbei sein soll? Wenn nicht, dann wehren Sie sich doch endlich.

Kein Wind, Spannungsabfall – ein Aluminiumwerk musste seine Produktion abwürgen

Vor kurzem war aus Essen zu lesen: „Die Essener Aluminium-Hütte Trimet hat das deutsche Stromnetz in den letzten zwölf Monaten durch Herunterfahren der Produktion gleich zweimal vor dem Zusammenbruch bewahrt.“ Die Westfälische Rundschau (hier) zitierte am 17. September den Trimet-Vorstandsvorsitzenden Martin Iffert mit den Worten: „Wir sind darauf vorbereitet, dass so etwas im Zuge der Energiewende passieren kann, waren aber überrascht, dass wir die Notbremse gleich zweimal ziehen mussten.“ Nach Ifferts Angaben hätten die Stromnetze nach einem plötzlichen Abfall der Windenergie „kurz vor dem Kollaps“ gestanden. Die Produktion habe man für jeweils eine Stunde herunterfahren müssen, „bis andere Kraftwerke den Spannungsabfall ausgleichen konnten“. Aber die Bürger erfahren von solchen Folgen der „Energiewende“ fast nie etwas. Sie sollen die Wende lieben, nicht ablehnen.

Der Produktionsausfall wird bezahlt – zwangsweise von allen Stromverbrauchern

Die Trimet Aluminium SE ist ein konzernunabhängiges Familienunternehmen und in Deutschland Marktführer. Sie stellt Primäraluminium in drei Hütten her – in Essen, in Hamburg und in Voerde. Ihr Strombedarf für die Produktion von Aluminium ist immens. Die Westfälische Rundschauschreibt: „Trimet frisst so viel Strom wie die Städte Essen, Dortmund und Bochum zusammen. Eine Abschaltung wirke wie die Entlastung durch zwei Kraftwerke, so Trimet-Eigner Heinz-Peter Schlüter. Seit Beginn der Energiewende wird diskutiert, ob die Abschaltung konventioneller Kraftwerke zugunsten von Wind- und Solarkraftwerken zu Blackouts in der Stromversorgung führen kann. Das Herunterfahren der Trimet-Produktion, das mit einer Bereitschaftspauschale und zusätzlich mit bis zu 400 Euro pro Megawatt vergütet wird, gehört dabei zum Notfallplan.“ Die Vergütung wird abgewälzt auf alle übrigen Stromverbraucher.

Blackout-Gefahr schon auf 3500mal im Jahr gestiegen

Die Gefahr solcher Netzzusammenbrüche besteht erst, seitdem Deutschland begonnen hat, seine Stromerzeugung auf Windkraft und Sonnenschein (Fotovoltaik) umzustellen. Diese „Blackouts“ drohen nicht nur bei plötzlich zu wenig Strom, weil der Wind nachgelassen hat oder dicke Wolken den Sonnenschein unterbrechen, sie drohen auch, wenn Wind und Sonne zuviel Strom liefern und das Netz überlasten. Situationen wie diese gibt es technisch zwangsläufig immer häufiger. Damit also ist die Stromversorgung in Deutschland nicht mehr sicher genug. Sie ist sogar hochgefährdet. Jeden Tag kann es zu einem Stromausfall kommen. Noch ist es bisher gelungen, durch blitzschnelle Eingriffe einen Netzzusammenbruch abzuwenden, aber die Zahl dieser Notfälle hat erheblich zugenommen und tut es weiter. 2011 hat es (geschätzt) rund 500 solche Eingriffe gegeben, 2014 werden es (geschätzt) rund 3500 werden (siehe Grafik rechts).

Auch Privatverbraucher müssen auf Stromabschaltungen gefasst sein

Längst besteht auch die Gefahr von Stromabschaltungen für private Stromverbraucher – ebenfalls eine Folge der „Energiewende“. So war schon 2012 in der FAZ zu lesen: „Stromengpässe könnten in Zukunft gelegentlich auch zu Stromabschaltungen für alle Verbraucher führen. Jeweils eineinhalb Stunden wären dann jeweils genau definierte Regionen komplett vom Strom abgehängt. Danach gäbe es wieder 13,5 Stunden Strom, bevor eine abermalige Abschaltung vorgenommen würde, sagte Martin Konermann, Vorstandsmitglied der ENBW Regional AG während eines Journalisten-Workshops in Wendlingen. Auf diese Weise könnte der Stromverbrauch um 5 Prozent reduziert werden. Müsste die Entlastung stärker sein, würden die Pausen zwischen den Stromabschaltungen in den einzelnen Regionen kürzer ausfallen. „Das ist nur die Ultima Ratio“, schränkte Konermann ein. Auf diese Weise könnte ein Blackout vermieden werden, wenn alle anderen Maßnahmen zur Stabilisierung des Netzes schon ergriffen wurden, einschließlich der freiwilligen, entlohnten Lastreduzierung durch Wirtschaftsbetriebe, die durch die Abschaltverordnung geregelt werden soll.“ (FAZ vom 6. Dezember 2012, Seite 13).

Künftig mehr Angst vor Stromausfall? Ja!

Auf die Frage „Muss man künftig mehr Angst vor Stromausfällen haben?“ hat Jochen Homann, Präsident der Bundesnetzagentur, abwiegelnd und unzutreffend zunächst geantwortet: „Diese Sorge ist unbegründet. Mit Blick auf die Maßnahmen, die von den Übertragungsnetzbetreibern getroffen werden, lässt sich sagen, dass niemand in Deutschland Angst vor zunehmenden Stromausfällen haben muss.“ Dann jedoch räumte er ein: „Durch die Abschaltung von Kernkraftwerken und den Zubau von lastferner erneuerbarer Erzeugung ist das bestehende Netz aber deutlich mehr unter Stress geraten. Die Übertragungsnetzbetreiber, die für den funktionierenden Netzbetrieb zuständig sind, müssen viel häufiger in die Netznutzung eingreifen, um den sicheren Betrieb des Netzes zu gewährleisten.“ (FAZ vom 25. Juni 2014 in einem ganzseitigen Inserat, bezeichnet als „Verlagsspezial Zukunft Energie und Technik“).

Der Energiewende geopfert: die bisher einzigartige Verlässlichkeit des Stroms

Die Stromverbraucher-Schutzvereinigung NAEB schreibt in ihrem jüngsten Mitglieder-Newsletter vom 19. September unter dem Stichwort Netzstabilität – volatiler Strom: „Seit 120 Jahren betreiben wir Drehstromnetze in Europa. Seit 80 Jahren erfreuen die sich hoher Stabilität dank Ingenieurleistung, Groß-Generatoren jenseits 250 Megawatt Leistung und verbrauchsortnaher Kraftwerke gemäß der 400 kV/ 200 km-Regel. Das Ergebnis ist die einzigartige Stabilität im europäischen Netz. Deutschland ist wegen seiner Mittenlage mit Koppelstellen zu allen Seiten der Nutznießer. Diese Stabilität wird ohne Not und unverantwortlich der Energiewende mit all ihren Störfaktoren geopfert, wobei die Schäden sogar gesamt Mitteleuropa betreffen: 2006 gab es bei einer geplanten Abschaltung einen Windkraft bedingten Stromausfall mit europa-weiten Folgen (jedoch minimalen bei uns); Polen und Belgien beginnen mit Querreglern den volatilen deutschen Stromes abzuwehren und berauben damit Deutschland des Mittenlagen-Vorteils; der Steuerungsaufwand (Personal und Technik) in den Netzregelzentralen wächst ins Unermessliche; die gesetzlichen Regelungen zur EEG-Abrechnung, Direkt-Vermarktung dieses Stromes und zur Abwicklung der gesetzlichen Ersatzansprüche bei sicherheitsbedingten Abschaltungen ziehen in den nächsten Jahren noch weitere Kostensteigerungen nach sich.“

Ein Untersuchungsauftrag über die Folgen von Stromausfall

Die Blackout-Gefahr als Folge von Wind- und Sonnenstrom dämmerte schließlich auch den Politikern. Denn ohne Strom läuft schon lange nichts mehr, und die Abhängigkeit von ihm wird immer größer. Daher hatte der Bundestagsausschuss für Bildung, Forschung und Technikfolgenabschätzung das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) mit einer Untersuchung beauftragt. Er sollte feststellen, „wie sich ein langandauernder und großflächiger Stromausfall auf besonders kritische Infrastrukturen wie z. B. Trinkwasser, Abwasser, Informations- und Kommunikationssysteme, Finanz- und Gesundheitsdienstleistungen auswirken könnte, insbesondere im Fall eines Kaskadeneffekts über Länder und nationale Grenzen hinweg“. Versorgungsengpässe, Störungen der öffentlichen Sicherheit und Beeinträchtigungen im Straßen- und Schienenverkehr hätten auch schon bei Naturkatastrophen einen Eindruck von der Verletzbarkeit moderner Gesellschaften gegeben sowie höchste Anforderungen an das Gesundheits-, Notfall- und Rettungswesen gestellt. Wegen der großen Abhängigkeit nahezu aller kritischen Infrastrukturen von der Stromversorgung, sei ein großflächiger und längerfristiger Stromausfall mit massiven Versorgungsstörungen, wirtschaftlichen Schäden sowie Gefährdungen der öffentlichen Sicherheit von zentraler Bedeutung.

Das Ergebnis: die Folgen kommen einer nationalen Katastrophe zumindest nahe

Veröffentlicht hat der Ausschuss den TAB-Bericht als Bundestagsdrucksache 17/5672 vom 27. April 2011. Der Bericht zeige, „dass die Folgen eines solchen Stromausfalls einer nationalen Katastrophe zumindest nahekommen könnten“. Es bedürfe einer Mobilisierung aller internen und externen Kräfte des Bevölkerungsschutzes, um die Auswirkungen zumindest zu mildern. In der Zusammenfassung des Berichts heißt es unter anderem: „Aufgrund der nahezu vollständigen Durchdringung der Lebens- und Arbeitswelt mit elektrisch betriebenen Geräten würden sich die Folgen eines langandauernden und großflächigen Stromausfalls zu einer Schadenslage von besonderer Qualität summieren. Betroffen wären alle Kritischen Infrastrukturen, und ein Kollaps der gesamten Gesellschaft wäre kaum zu verhindern.“

Zu vielen Bürgern ist das Katastrophen-Potential von Stromausfall nicht bewusst

Und dann: „Trotz dieses Gefahren- und Katastrophenpotenzials ist ein diesbezügliches gesellschaftliches Risikobewusstsein nur in Ansätzen vorhanden. Die Stromversorgung als Kritische Infrastruktur ist für die Bevölkerung kein Thema, die Möglichkeit von Stromausfällen und die Folgen einer Unterbrechung der Stromversorgung werden ausgeblendet. Erlebte Stromausfälle werden meist schnell vergessen.“ In der Bevölkerung fehlt dieses Risikobewusstsein offensichtlich bis heute.*) Dabei genügt es schon, nur die Zusammenfassung zu lesen, um zu erkennen, was uns blüht, wenn der Strom ausfällt. Es sind auch die dann gesetzlich festgelegten staatlichen Eingriffe. Der Bericht konzentriert sich zwar auf die Folgen eines längeren Stromausfalls. Aber selbst wenn er nur einige Stunden oder wenige Tage dauert und Notstrom-Aggregate an besonders wichtigen Stellen Überbrückungshilfe leisten, sind sie schon schlimm genug. Hier nur ein kleiner Ausschnitt aus der Zusammenfassung:

Was bei Stromausfall alles nicht mehr funktioniert

„Die Folgen eines Stromausfalls treten abrupt auf und sind massiv. Aus einer Vielzahl von Unfällen, liegengebliebenen Zügen und U-Bahnen, umzulenkenden Flügen sowie Lkw- und Güterstaus in Häfen ergeben sich erhebliche Einschränkungen der Mobilität und des Gütertransports. Insbesondere in Metropolen und Ballungsräumen führen Staus und Unfälle im Straßenverkehr zu chaotischen Zuständen. Brandbekämpfung, Notrettung und Krankentransporte, Einsätze zur Sicherstellung der Notstromversorgung sowie eine Vielzahl weiterer Maßnahmen zur allgemeinen Schadensbewältigung werden erheblich behindert. Da alle Tankstellen ausgefallen sind, wird der Treibstoff für die Einsatzfahrzeuge knapp. Darüber hinaus drohen erhebliche Engpässe bei der Versorgung der Bevölkerung, beispielsweise mit Lebensmitteln oder medizinischen Bedarfsgütern.“ Alles in allem lautet das Ergebnis: Der große „Blackout“ hätte katastrophale Folgen.

Die Wahrscheinlichkeit von Stromausfall nimmt zu

Der Bericht beschreibt auftragsgemäß aber nur die Folgen eines Stromausfalls, eines länger dauernden, eines schwerwiegenden, nicht seine Ursachen. Dennoch geht er auf „mögliche und plausible Ursachen“ kurz ein und nennt Extremwetterereignisse (Stürme, Schnee, Eis, Hochwasser), kriminelle oder terroristische Aktionen, Epidemien und Pandemien. Er erwähnt aber auch, dass durch die „Zunahme dezentraler und stochastischer Stromeinspeisung“ das Risiko des Netzversagens und höherer Ausfallraten steigt. Damit sind Wind – und Sonnenstrom gemeint. Ebenso vergisst er nicht, dass hierbei „technisches oder menschliches Versagen bei der Netzsteuerung und Netzkontrolle“ möglich ist. Doch er vermeidet es, als Ursache hierfür die Klimaschutz- und Energiewendepolitik samt des unzuverlässigen Wind- und Sonnenstroms zu benennen. Folglich findet sich im Bericht auch nicht die naheliegende Idee, vor diesen Folgen der Energiewende zu warnen, geschweige denn, dazu aufzufordern, sie wenigstens zu stoppen. Jedenfalls liest man, insgesamt sei mit guten Gründen davon auszugehen, dass künftig die Ausfallwahrscheinlichkeit zunehmen werde. Der vollständige Bericht hier.

Deutschland hat sich ohne Not zusätzlich hochverletzlich gemacht

Steffen Hentrich, Mitarbeiter im Liberalen Institut der Friedrich-Naumann-Stiftung für die Freiheit, schrieb vor einem Jahr (hier): Es ist kein Geheimnis mehr, dass der nahezu ungebremste Ausbau der sogenannten erneuerbaren Energieträger im Kontext eines technisch und ökonomisch völlig überforderten Stromnetzes zum Risiko für die Versorgungssicherheit in Deutschland und zunehmend auch bei unseren europäischen Nachbarn wird.“ Deutschland ist wie alle modernen Industriestaaten durch mögliche Stromausfälle ohnehin hochverletzlich geworden. Aber mit seiner Energiewende-Politik erhöht Deutschlands politische Führung diese Gefahr zusätzlich und ohne Not auf mutwillige, unverantwortliche Weise.

Wie war’s in Deutschland doch vordem
ganz ohne Windstrom so bequem
und ohne Strom aus Fotozellen.
Da kam es nicht zu schlimmen Fällen
wie Stromausfall durch zuviel Wind
und zuviel Sonne. Denn technisch blind
und ökonomisch auch
verlässt man sich auf Windeshauch
und ebenso – auch das nicht fein –
auf hin und wieder Sonnenschein.
Drum droht seitdem so Knall auf Fall
nun in der Tat stets Stromausfall.

_______________________________________________________________________
*) Im Dezember 2012 hat das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe eine Untersuchung zur Vorbeugung von Stromausfällen vorgestellt. Deutschland sei für die Folgen eines großen Blackouts bisher kaum gerüstet. Die Bevölkerung sei darauf nicht vorbereitet. Für einen solchen Fall habe kaum jemand vorgesorgt. Zusammen mit dem TÜV Rheinland, dem Energieversorger Eon und anderen Partnern hat das BKK mögliche Gefahrensituationen für das Stromnetz analysiert, um Ansätze für einen besseren Schutz vor großflächigen und lang anhaltenden Stromausfällen zu entwickeln. (FAZ vom 4. Dezember 2012, Seite 16). Laut einer Umfrage des Landes Nordrhein-Westfalen aus dem Jahr 2012 sind die Bürger kaum auf einen Notfall vorbereitet. Die wenigsten horten Lebensmittel, Wasser, Batterien oder besitzen gar Notstromaggregate, so Behörden-Sprecherin Ursula Fuchs. “Je städtischer die Menschen leben, desto schlechter sind sie für eine Krise gerüstet.” Viele Menschen gingen fälschlich davon aus, zwei Wochen ohne Strom gut überstehen zu können. “Die wenigsten wissen, dass relativ schnell die Abwasserversorgung zusammenbricht und auch das Handynetz nicht mehr funktioniert”, so Fuchs. (Quelle hier).

Übernommen von K.P. Krauses Blog hier




Wenn Emotionen den Journalismus fressen – Die „Tagesthemen Nachrichten“ und die Klimakonferenz in New York

Sorry, Kollege Roth: Was Sie da ankündigten war leider, um es auf direktem amerikanischen Slang zu sagen: „Bullshit.“ Da wurde der Eindruck erweckt, als ob die Klimaerwärmung Katastrophen ausgelöst hätte, die den Menschen Angst machen. Ja, Angst haben die Menschen, weil ihnen solch unreflektierte Nachrichten vorgesetzt werden. Wie bitte schön erklären Sie sich, dass wir es mit Katastrophenschäden dank der Erderwärmung zu tun haben, wenn alle, wirklich alle Institute, auch und gerade die, die für den IPCC, auf deutsch: „Weltklimarat“ arbeiten, seit 17 Jahren einen leichten Temperaturrückgang messen.(Video hier)

Also das müssen, Sie mir erklären: Wir haben einen realen Temperaturrückgang, aber die Katastrophen nehmen wegen der Erderwärmung zu? Nun kann es sein, dass Sie keine Zeit haben, sich so im Detail mit der Materie zu beschäftigen. Dafür sollten dann in der Redaktion unabhängige, nachfragende Fachkollegen sitzen. Aber der Beitrag wurde von Isabel Schayani, die aus der Monitor Redaktion in Köln stammt, gefertigt. Nun habe ich fast alle Konferenzen besucht, die sich kritisch mit der Menschen gemachten Klimaerwärmung beschäftigen. Isabel Schayani habe ich da nie gesehen. Sie ist mir als sehr gute Kennerin des Iran bekannt und in dieser Frage teile ich fast komplett ihre Ansichten. Von 1979 bis 1983 habe ich nämlich auch regelmäßig als Journalist im Iran gearbeitet und wundere mich, mit welcher Nonchalance wir über die Realitäten in den islamischen Ländern hinweg schauen. Aber als Klimaexpertin ist sie mir noch nie aufgefallen.

Schon in der Anmoderation erwähnten Sie den Hurrikan „Sandy“, der vor zwei Jahren große Schäden in New York anrichtete. Sind sie sicher, dass es ein Hurrikan war? Meine letzte Information lautete, dass die Einstufung strittig war, ob es sich um einen Hurrikan der Stufe 1, als der niedrigsten Klassifizierung handelte oder doch nur um einen sehr starken Sturm. Das ist nämlich in den USA sehr wichtig. In einem Falle müssen die Versicherungen zahlen (Sturm), im anderen Falle hilft die Regierung mit ihrem Katastrophenfond. Sandy wurde nur deshalb so berühmt, weil er die medial gut vernetzte Stadt New York traf. Tage bevor er die Küste erreichte, berichteten auch die deutschen Fernsehsender, wo Sandy jetzt ist. Liveschaltungen und fast stündliche Berichte bliesen so auch durch die deutschen Wohnzimmer. An der Spitze Manhattans stand das Wasser sogar knietief – aber nicht tief genug, um die Reporter zu vertreiben. Für ein spektakuläres Bild sorgte dann Gott sei Dank ein durchgebrannter Trafo. Aber: Sie kennen doch auch die Leitungen und Trafos in den USA. Der deutsche TÜV wurde die halbe Nation in Amerika aus Sicherheitsgründen stilllegen.

Aus noch einem Grund taugt Sandy nicht zur Panikmache. Die langjährige Statistik zeigt, dass seit einigen Jahren die Zahl der Hurrikane abgenommen haben, die letzte Saison fiel ganz aus und damit stimmt auch die zweite Behauptung nicht: Sie seien jetzt stärker geworden. Wo es keinen gibt, kann er auch nicht stärker werden – das müssen Sie mir zugeben. Wo das Ihre Redaktion erfahren kann? Einmal natürlich bei der zuständigen Behörde in den USA aber ich vermittle gern einige Forscher in Deutschland, die Sie je nach Bedarf, sogar wöchentlich mit den neuesten Informationen über unsere Temperatur, die Katastrophen in der Welt und auch das Klima an den Polen informieren.

Im Text hat Isabel Schayani dann formuliert: „die zerbrechliche Schicht der Zivilisation, Sandy hat sie weggespült“, schöner Text, fast poetisch. Aber ein aus Emotionen geborener Quatsch. Zu den Horrorbildern, in denen der Kölner Dom bis auf die Turmspitzen im Wasser steht hat sich auch das Bild des abgesoffenen New Yorks gesellt. Wissen Sie, wie oft die Spitze Manhattans schon unter Wasser stand? Ich nicht. Seit 1969 war ich immer wieder dort und verfolge ziemlich genau, wenn Schneestürme im Winter oder brütende Hitze im Sommer die Ostküste der USA heimsuchen. Einige habe ich selbst erlebt. Das gehört zur Normalität. Früher hat sich auch kein Mensch um die Temperaturen in den USA gekümmert. Heute bestehen unsere Nachrichten aus allen Wetterkapriolen rund um den Globus und erwecken so den Eindruck, das sei neu. Vor allem Hitzewellen und Trockenheiten sind beliebt. Haben Sie auch gemeldet, dass in der Antarktis ein neuer Kälterekord mit -93Grad gemessen wurde? Spannend wäre dann noch die Frage: Wie das Eis bei diesen Temperaturen schmilzt.

Einen kleinen Wink hat Isabel Schayani dem Zuschauer dann doch gegeben, um was es bei der Klimafrage geht. Sie stellte den niederländischen Unternehmer Edgar Westerhof vor, der einen Plan ausgearbeitet hat, wie New York zu schützen sei, denn das was die Stadt bisher gemacht habe, sei lächerlich. Leider so der Nachrichtentext, ist der Auftrag für 20 Milliarden Dollar noch nicht an Herrn Westerhof erteilt. Eine Nachricht für die Hauptsendezeit der wichtigen deutschen Nachrichtensendung?  Wir Zuschauer dürfen uns wundern, was für uns alles wichtig sein soll.

Bei der Beurteilung der Demonstranten gab es zwischen Frau Schayani und der amerikanischen Öffentlichkeit auch ein sehr unterschiedliches Wahrnehmungsvermögen. In „The American Interest“, einem radikalen zentristischen Blog schrieb der angesehene Demokrat und bekennende Obama Wähler Walter Russell Mead: „Es war der gewöhnliche postkommunistischen Marsch der „Leftie“, also der Linksgedrehten. Das ist das Kleinbürgertum, mit seinen bedeutungslosen Ritualen, das damit jene beeindrucken will, die keine Ahnung haben, emotional aufgeregt sind, zu ungebildet, um reflektieren zu können, wie nutzlos und ermüdend solche konventionellen Aufmärsche mittlerweile sind“.

Das Wall Street Journal stellte lapidar fest: „Das einzige was sie erreicht haben, ist den Verkehr durcheinander zu bringen“ und dass die New Yorker Konferenz schon jetzt gescheitert ist, wie alle andern davor auch, wenn es darum geht ein international bindendes Abkommen zur Verringerung der Treibhausgase geht. 

Über die Organisatoren und Finanziers dieser „weltweiten“ Erhebung im Allgemeinen und in New York im Besonderen erfahren wir bei der ARD nichts. Dafür wieder ein emotionaler Einstieg in die Story. Gleich zu beginn stellt Schayani den Aktivisten Roger Peet vor. Der „durch ganz Amerika“ reist, in New York eine Plastikbombe mit CO2-Ballons füllt und dazu erklärt: „Der größte Umweltverschmutzer der Welt ist das US-Militär. Es verbraucht das meiste Öl.“  Da stockt mir schon der Atem. Wir erleben zur Zeit die totale Zerstörung ganzer Landstriche von Nordnigeria bis nach Syrien und dem Irak. Wir sind Zeuge eines globalen Versagens in den Nahostkriegen und der Ebola-Katastrophe. Selbst in Europa, in der Ostukraine werden Städte in Schutt und Asche gebombt, und dann ist es ein solcher Spinner wert, in den Hauptnachrichten der ARD aufzutreten – auch noch wohlwollend vorgestellt. Wie tief muss die Angst von Isabel Schayani vor der nicht stattfindenden Erderwärmung sein, dass Sie solche journalistische Fehlleistungen gebärt.

Al Gore hätte ich mir als Gutmensch unter den Demonstranten auch verkniffen. Vielleicht fällt dem einen oder anderen Zuschauer noch ein, dass er einen mittleren zweistelligen Millionen Dollar Gewinn an der mittlerweile eingestellten CO2-Börse in Chicago eingestrichen hat. Für ihn hat sich sein Klimaengagement gelohnt. Das können die deutschen Rentner und Haushalte ohne eigenes Dach nicht von sich behaupten, die den Ökostrom bezahlen müssen.

Mir wäre auch als Autor dieses Beitrags ein Satz zu UNO-Generalsekretär Ban Ki Moon eingefallen. Würde er nicht dringender gebraucht, um die UN besser auf Krisen, wie die Ebola-Epidemie vorzubereiten, wo die Weltgemeinschaft bisher versagt. Müsste er nicht alles unternehmen, um die Menschen zu schützen, die im Irak und Syrien vertrieben, ermordet und versklavt werden. Wo sind die UN-Kontingente, die in der Ostukraine für Frieden sorgen. Alles sehr komplizierte Aufgaben, sehr dringend, von deren Lösung aber akut Menschenleben abhängen. Er aber marschiert in New York gegen eine Bedrohung, die vor allem seine Organisation, der IPCC, dieser verlogene Weltklimarat aufbläst. Aber an diese Geschichte glaubt halt auch fast die ganze ARD.