1

Wüstenstromprojekt Desertec steht vor dem Aus

Deutsche Technologie- und Baukonzerne wie Siemens, Bosch, Eon oder Bilfinger haben sich schon abgewandt, genauso wie die ursprünglich namensgebende Desertec-Stiftung. Das Unternehmen Desertec steht vor dem Aus.

Bis 2050 sollte Desertec den Weg für den Bau Hunderter Öko-Kraftwerke in Nordafrika und dem Nahen Osten ebnen, die zusammen den Strombedarf der Region zu großen Teilen decken könnten und dazu noch rund 15 Prozent des europäischen Verbrauchs. Dieses Vorhaben ist jetzt offensichtlich gescheitert.

Am Montag treffen sich die beteiligten Firmen, darunter die Deutsche Bank, Munich Re und mehrere europäische Energiekonzerne, um eine Entscheidung über die Zukunft zu treffen. Es gilt als sehr wahrscheinlich, dass sie dem Projekt den Geldhahn zudrehen werden. ScienceSceptical hier

Die FAZ schreibt dazu

Der vor fünf Jahren mit großen Hoffnungen gestarteten internationalen Wüstenstrominitiative Desertec Industrial Initiative (Dii) droht einem Medienbericht zufolge das Aus. Der Zusammenschluss von 35 internationalen Konzernen kann sich nach Angaben aus Gesellschafterkreisen nicht auf eine Fortführung in bisheriger Form einigen, wie die „Süddeutsche Zeitung“ berichtet. Ende des Jahres laufen die Verträge mit den Gesellschaftern aus. Das Überleben sichern könnte nur eine rasche verbindliche Zusage für einen neuen Etat von rund zwei Millionen Euro. Doch die sei nicht in Sicht.

Weiterlesen bei FAZ hier

Anmerkung der Redaktion:

Was haben sich die jetzt aussteigenden Gesellschafter dieser Luftnummer -genannt "Desertec-Projekt"- nur bei ihrer Teilnahme gedacht? Wollten sie nur einen PR Gag landen, um endlich mal wieder aus den Negativschlagzeilen, nach den Pleiten mit der Solartechnik (Bosch) und den falschen Prognosen über zunehmende Extremwetter (Münchner Rück) u.ä.m. herauszukommen. Dann war ihr Beitrag zwar nicht teuer, aber wieder mal völlig daneben investiert. Regelrecht in den Sand gesetzt. Denn jetzt gibt es wieder Negativschlagzeilen, weil man wieder mal falschen Propheten aufgesessen ist. Und sie stehen erneut da als die Gelackmeierten, die über den Tisch Gezogenen. Und mit ihnen die Heerscharen von "Journalisten" die sich im Feiern und Hochjubeln diese Projektes auf allen Kanälen überboten hatten.

Oder glaubte man, dass die fröhliche Abkassiererei von Verbrauchergeldern so weiter geht, wie sie durch das EEG und seine weltweiten Ablegern zwanghaft auch bei diesem Projekt von den Staaten den schutzlosen Verbrauchern, für ein "höheres" Ziel, auferlegt würde ? Weil ja, wie die Süddeutsche Zeitung schreibt: "Kanzlerin Angela Merkel (CDU) das Projekt lobte, der Siemens-Chef sah die Mission in einer Reihe mit der Mondlandung." Da hätten an sich schon sämtliche Alarmglocken läuten müssen.

Oder, was noch weniger vorstellbar ist, glaubten sie wirklich an den Budenzauber, den ihnen grüne Ideologen von der Riesenkraft der Sonne und ihrem einfachen Abzapfen in der Wüste vorgegaukelt haben? Und dann, dass alle Anrainer dieser Wüste – nah und fern- über tausende von Kilometern, erzeugt in politisch chronisch instabilen wie unterentwickwelten Ländern- sich an diesem Strom würden laben können? 

Wo waren denn all die Fachleute, Techniker, Finanziers und Politologen, die ihnen diesen Unsinn beizeiten hätten ausreden müssen? Durften sie nicht reden oder wollten sie nicht reden, um evtl. ihren Job nicht zu gefährden. Wir wissen es nicht. Irgendwann wird dann jemand ein Enthüllungsbuch über die "wahren" Beweggründe schreiben. Bis dahin freuen wir uns über die gute Nachricht. Eine drohende riesige Zwangsabgabe weniger. Aber wenigstens der Initiator dieser Schnapsidee, der Niederländer  Paul van Son, hat sich vorübergehend in Sicherheit gebracht. Er geht zum Jahreswechsel zur hochverschuldeten RWE. Ob dort seine Kenntnisse beim Aufbau von Luftnummern hilfreich sind, darf allerdings bezweifelt werden. Eher brauchte man dort bald die Kenntnisse und Fähigkeiten eines Sanierers, munkelt man in der Branche.




Ist Wood for Trees (WTI) tot? Und Hadley CRU (HadCRUT) korrigiert nach oben, wieder einmal…

WoodForTrees.org – Paul Clark

…jetzt mit den Daten für August außer für HadCRUT4.2 und HadSST3.

Es gibt Einige, die ,Rosinenpickerei‘ schreien, wenn ein bestimmter Datensatz gewählt wird, z. B. RSS, um die Länge des Stillstands zu zeigen. Daher bietet der WTI ein gutes Mittel der Datensätze, um dieser Kritik zu begegnen. Bis Mai 2014 zeigte der WTI seit Januar 2001 eine leicht negative Neigung. Und da die Anomalien seitdem abgenommen haben, ist es sehr gut möglich, dass die Periode ohne Erwärmung Ende August 13 Jahre und 8 Monate lang wäre, falls der WTI die Daten aus allen Datensätzen zur Verfügung hätte.

Das ist aber nicht der Fall. Was also ist los mit HadCRUT3? Hier folgen ein paar Zitate von vor Jahren, die etwas Licht in dieses Dunkel bringen können:

„Das Hadley Center des Met.-Office hat ein neues System eingeführt, um das Klima für ein Jahrzehnt im Voraus vorherzusagen. Das System simuliert sowohl die vom Menschen verursachte Klimaänderung als auch die Evolution langsamer natürlicher Variation, die bereits in das System eingeschlossen ist“.

„Derzeit benutzen wir das System, um Änderungen bis zum Jahr 2014 vorherzusagen. Am Ende dieses Zeitraumes wird erwartet, dass die globale Temperatur um etwa 0,3°C gestiegen ist im Vergleich zu 2004, und es wird vorhergesagt, dass die Hälfte der Jahre nach 2009 wärmer ausfallen wird als das gegenwärtig wärmste Jahr 1998“. – Met Office Hadley Centre 2007

„Im Hadley Center des Met.-Office arbeitet die höchste Konzentration absolut hervorragender Fachleute, die absolut herausragende Arbeit leisten, die sich über die Modellierung, Zuordnung und Datenanalyse erstreckt. Dies gilt im Vergleich zu irgendwo sonst auf der Welt“. – Dr Susan Solomon, Co Chair IPCC AR4 WGI

Schauen wir also mal, wie „absolut herausragend“ sich die Vorhersage des Hadley Center aus dem Jahr 2007 macht. Die Anomalie 2004 betrug 0,447. Nach 5 Monaten 2014 betrug die mittlere Anomalie 0,472, was nicht einmal annähernd bei „etwa 0,3°C“ Anstieg von 0,447 liegt. Und was ist mit „der Hälfte der Jahre nach 2009, die wärmer vorhergesagt werden als das gegenwärtig wärmste Jahr 1998“?. Was das Jahr 2013 betrifft, wurde der Rekord im HadCRUT3-Datensatz nicht gebrochen. Wir wissen nicht, was im restlichen Jahr 2014 noch passiert, allerdings folgte HadCRUT3 sehr nahe HadCRUT4. Falls wir also in HadCRUT3 die gleiche Änderung annehmen, wie sie aus HadCRUT4 für 2014 im Vergleich zu 2013 hervorgeht, bekommen wir die folgenden Ergebnisse. HadCRUT wies 2013 eine Anomalie von 0,492 auf. Das Mittel bis Ende August 2014 beträgt 0,555. Die Differenz beträgt 0,063. Addieren wir also 0,063 zur HadCRUT3-Anomalie von 0,457 im Jahre 2013, erhalten wir 0,52. Mit dieser Anomalie nach 8 Monaten wäre eine mittlere Anomalie von 0,604 erforderlich, um einen Rekord zu setzen. Diese Zahl wurde im Jahre 1998 fünf mal gebrochen und drei mal danach. Folglich lässt sich also mit Fug und Recht sagen, dass nach HadCRUT3 2014 keine Chance hat, den 1998 gesetzten Rekord zu brechen.

Was uns zu HadCRUT4 und einigen neuen Adjustierungen bringt. Die HadCRUT4-Daten für diese Aktualisierung können nicht aus HadCRUT4.2 gewonnen werden, weil dieser seit Juli offenbar nicht mehr existiert. Stattdessen haben wir HadCRUT4.3. Weder HadCRUT4.2 noch HadSST3 wurden bis zum 3. Oktober mit den Werten für August aktualisiert, und seit die neuen HadCRUT4.3-Zahlen da sind, möchte ich vermuten, dass wir HadCRUT4.2 nie mehr sehen werden. Über HadSST3 weiß ich nichts.

Nicht überraschend wurde HadCRUT4 nach oben korrigiert, wieder einmal. Walter Dnes zeigt die folgende Einsicht hinsichtlich des neuen [Datensatzes] HadCRUT4.3: Die Anomalie hat auf +0,669 zugenommen. Der längste Negativ-Verlauf reicht jetzt von November 2001 bis August 2014. Der November 2001 (und der Januar 2002) zeigen kaum negative Neigung. Falls der Septemberwert bei +0,513 oder höher liegt, befinden sich die nächsten negativen Zahlen Ende 2004.

Hier folgt eine Graphik der HadCRUT4-Neigungen für alle Monate für den Zeitraum ab jenem Monat bis zu den jüngsten verfügbaren Daten:

Walter Dnes

Man beachte: zwischen 2007 und Ende 2008 einerseits und vor Ende 2000 andererseits war die Neigung () größer als .004°C pro Jahr und damit buchstäblich „außerhalb des Graphen“. Obige Graphik zusammen mit jenen für GISS, UAH5.6, RSS und NCDC/NOAA ebenso wie die damit verbundenen Daten sind verfügbar von dieser Google-Tabelle.

Das Folgende sind die „diagnostischen Plots und zeigen Vergleiche globaler und hemisphärischer Zeitreihen für HadCRUT4.3.0.0 (diese Version) und HadCRUT4.2.0.0 (die vorige Version von HadCRUT4)“. Es ist keine Überraschung, dass das Met.-Office noch mehr Erwärmung fand:

Met Office Hadley Center

Es scheint, als hätte man dort mehr Erwärmung während der letzten 18 Jahre in der Nordhemisphäre gefunden:

Met Office Hadley Center

Hingegen fand man auf der Südhemisphäre offensichtlich lediglich etwas Erwärmung, die sich seit dem Ersten Weltkrieg versteckt hat:

Met Office Hadley Center

Die monatlichen Werte des neuen Datensatzes HadCRUT4.3 stehen hier und die neuen jährliche Mittelwerte hier.

Obiges wirft die Frage auf, warum diese Korrekturen angebracht worden sind. Es wäre schön gewesen, wenn man Äpfel mit Äpfeln verglichen hätte, um herauszufinden, ob HadCRUT3 endlich den Rekord des Jahres 1998 gebrochen hätte. Aber dann wurde der Apfel zu einer Banane, als der neue Datensatz HadCRUT4 herauskam, wie man hier erkennt. Jetzt wurde der rote Pfeffer zu einer Jalapeño-Chilischote, als HadCRUT4.2 herauskam. Die Anomalie der ersten 7 Monate bei HadCRUT4.2 ergab ein Mittel von 0,535 und lag an dritter Stelle zu jener Zeit, aber die ersten 7 Monate bei HadCRUT4.3 ergaben ein Mittel von 0,539, und das Mittel für 8 Monate im neuen HadCRUT4.3 beträgt jetzt 0,555 und würde mit dem bisherigen Spitzenreiter 2010 gleichziehen mit ebenfalls einem Wert bei 0,555.

Warum ändern sie alles so schnell? Wollen sie vielleicht etwas von der Hitze bei GISS entfernen? Sind sie empört, dass Dr. McKitrick seit 19 Jahren keine signifikante Erwärmung gefunden hat und wollen sie ihn widerlegen, noch bevor die Tinte für diesen Bericht getrocknet ist? Wollen sie festlegen, dass 2014 auf Biegen und Brechen einen neuen Rekord setzen wird?

Im vorigen Jahr habe ich die folgenden Bemerkungen gemacht:

Von 1997 bis 2012 sind es 16 Jahre. Hier folgen die Änderungen in Tausendstel Grad mit der neuen Version von HadCRUT4, die in allen Fällen höher liegt als die alte Version. Die Zahlen mit Beginn im Jahre 1997 lauten 2, 8, 3, 3, 4, 7, 7, 7, 5, 4, 5, 5, 5, 7, 8 und 15. Die Zahl 0,015 steht für 2012. Wie groß ist die Wahrscheinlichkeit, dass die mittlere Anomalie 16 Jahre hintereinander zunimmt durch die reine Wahrscheinlichkeit allein, falls eine Anzahl neuer Messorte entdeckt wird? Nimmt man eine solche von 50% an, dass die Anomalie in beide Richtungen gehen kann, beträgt die Wahrscheinlichkeit von 16 Jahren ununterbrochenen Anstiegs 1 zu 2↑16 oder 1 zu 65,356. Natürlich beweist dies keinen Betrug, aber wenn man in Betracht zieht, dass „HadCRUT4 im März 2012“ erschienen ist, stellt sich die Frage, warum dieser Datensatz nur ein Jahr später einer gründlichen Überholung bedurfte.

Und was glauben Sie hinsichtlich des Verlaufs während der letzten 16 Jahre vor dieser jüngsten Revision? Hier folgen die letzten 16 Jahre rückwärts ab 2013. Die erste Zahl nennt die Anomalie in HadCRUT4.2 und die zweite Zahl die Anomalie in HadCRUT4.3: 2013(0.487, 0.492), 2012 (0.448, 0.467), 2011 (0.406, 0.421), 2010(0.547, 0.555), 2009 (0.494, 0.504), 2008 (0.388, 0.394), 2007(0.483, 0.493), 2006 (0.495, 0.505), 2005 (0.539, 0.543), 2004(0.445, 0.448), 2003 (0.503, 0.507), 2002 (0.492, 0.495), 2001(0.437, 0.439), 2000 (0.294, 0.294), 1999 (0.301, 0.307) und 1998(0.531, 0.535). Erkennen Sie etwas Seltsames? Es gibt eine Gleichheit im Jahre 2000. Alle anderen 15 Jahre sind größer. Es gibt also in 32 verschiedenen Vergleichen keine einzige Abkühlung. Falls ich mich nicht irre, beträgt die Wahrscheinlichkeit nicht einer einzigen Abkühlung in 32 Versuchen 2↑32 oder 4 X 10↑9. Ich bin nicht sicher, wie die Gleichheit da hereinkam, aber wie auch immer man das betrachtet, in jeder Revision werden unglaubliche Wahrscheinlichkeiten gebrochen. Was haben sie bis 2014 in Erfahrung gebracht, was sie 2013 noch nicht wussten?

In der Tabelle kann man die Statistik von HadCRUT4.2 neben der von HadCRUT4.3 sehen. Die Wahrscheinlichkeit ist hoch dafür: falls die Zahlen von August bei HadCRUT4.2 schon verfügbar gewesen wären, würde er ebenfalls an erster Stelle rangieren.

Nachtrag: RSS für September betrug 0,206. Dies senkt den Mittelwert auf 0,252, so dass das Jahr 2014 an 7. Stelle der wärmsten Jahre steht, falls es so bleibt. Die zeitliche Dauer ohne Erwärmung nimmt zu auf 18 Jahre und 1 Monat.

In den folgenden Abschnitten werden wir wie in früheren Beiträgen die jüngsten Fakten präsentieren. Diese Information kommt in drei Abschnitten und einem Appendix. Im ersten Abschnitt wird gezeigt, wie lange es in vielen Datensätzen keine Erwärmung mehr gegeben hat. Im zweiten Abschnitt wird gezeigt, wie lange es in vielen Datensätzen keine statistisch signifikante Erwärmung mehr gegeben hat. Im dritten Abschnitt wird gezeigt, wie es 2014 im Vergleich zu 2013 sowie den wärmsten Jahren und Monaten bisher aussieht. Im Appendix werden die Abschnitte 1 und 2 in unterschiedlicher Weise illustriert, und zwar mit Graphiken und einer Tabelle.

Abschnitt 1

Diese Analyse verwendet als letzten Monat denjenigen, für den Daten bei WoodForTrees.com (WFT) verfügbar sind. Alle Daten bei WFT sind auch unter den spezifischen, unten genannten Quellen zu finden. Wir beginnen mit dem gegenwärtigen Datum und gehen zum letzten Monat in der Vergangenheit, in dem der Graph zumindest etwas negativ ist. Falls also die Neigung ab September 4 X 10↑-4, aber ab Oktober -4 X 10↑-4 ist, nehmen wir die Zeit ab Oktober, so dass uns niemand vorwerfen kann, unehrlich zu sein, falls wir sagen, dass die Neigung flach verläuft ab einem bestimmten Monat.

1. Für GISS ist die Neigung flach seit Oktober 2004 oder 9 Jahre, 11 Monate (bis August)
2.Für Hadcrut4 ist die Neigung flach seit Februar 2001 oder 13 Jahre und 6 Monate (bis Juli, könnte abgebrochen werden)

3.Für Hadsst3 ist die Neigung flach seit März 2009 oder 5 Jahre und 5 Monate (bis Juli, könnte abgebrochen werden)

4.Für UAH ist die Neigung flach seit Januar 2005 oder 9 Jahre, 8 Monate (bis August, Version 5.5)

5.Für RSS ist die Neigung flach seit Oktober 1996 oder 17 Jahre, 11 Monate (bis August).

Die nächste Graphik zeigt lediglich die Linien, um Obiges zu illustrieren. Man betrachte es als Graphik am Rande, in der die Länge der Linien die relativen Zeiten zeigt, in denen die Neigung 0 ist. Zusätzlich zeigt die aufwärts weisende braune Linie oben, dass CO2 stetig während dieser Periode zugenommen hat.

www.WoodForTrees.org – Paul Clark

Wenn zwei Dinge geplottet sind, wie ich es getan habe, zeigt sich links lediglich eine Temperatur-Anomalie.

Die tatsächlichen Zahlen sind bedeutungslos, da alle Neigungen im Wesentlichen Null betragen. Außerdem habe ich sie abgesetzt geplottet, so dass sie gleichmäßig verteilt sind. Für CO2 sind keine Zahlen angegeben. Allerdings bietet WFT diese Option nicht. Die aufwärts weisende CO2-Linie zeigt nur, dass das CO2 während der letzten 18 Jahre zugenommen hat, während die Temperaturen in verschiedenen Zeiträumen in verschiedenen Datensätzen flach verlaufen sind.

Die nächste Graphik zeigt Obiges, aber diesmal sind die tatsächlich geplotteten Punkte zusammen mit den Neigungslinien gezeigt, und das CO2 ist weggelassen.

WoodForTrees.org – Paul Clark

Abschnitt 2

Für diese Analyse wurden Daten von Nick Stokes Trendviewer genommen, die auf seiner Website verfügbar sind. Diese Analyse zeigt, wie lange es Nicks Kriterien zufolge keine statistisch signifikante Erwärmung mehr gegeben hat. Die Daten reichen in jedem Datensatz bis zur jüngsten Aktualisierung. In jedem Falle ist der untere Fehlerbalken negativ, so dass eine Neigung von Null nicht bei dem gekennzeichneten Monat ausgeschlossen werden kann.

Bei den verschiedenen Datensätzen zeigt sich Nicks Kriterien zufolge seit 16 bis 21 Jahren keine statistisch signifikante Erwärmung mehr.

Dr. Ross McKitrick hat zu diesen teilen ebenfalls Stellung genommen und kam zu etwas anderen Zahlen für die drei analysierten Datensätze. Ich werde seine Ergebnisse auch nennen.

Die Details für viele Datensätze sehen so aus:

For UAH: Since April 1996: CI from -0.015 to 2.311
(Dr. McKitrick says the warming is not significant for 16 years on UAH.)
For RSS: Since December 1992: CI from -0.018 to 1.802
(Dr. McKitrick says the warming is not significant for 26 years on RSS.)
For Hadcrut4: Since December 1996: CI from -0.026 to 1.139
(Dr. McKitrick says the warming is not significant for 19 years on Hadcrut4.)
For Hadsst3: Since August 1994: CI from -0.014 to 1.665
For GISS: Since October 1997: CI from -0.002 to 1.249

Man beachte, dass alle oben genannte Zeiträume länger als 15 Jahre sind, unabhängig von der Quelle. Darum hielt es die NOAA für notwendig, „eine Diskrepanz zu erzeugen mit der erwarteten Erwärmungsrate von heute“.

Abschnitt 3

Dieser Abschnitt zeigt Daten von 2014 und andere Informationen in Form einer Tabelle. Die Tabelle zeigt die fünf Datenquellen oben und auch noch an anderen Stellen, so dass sie überall erkennbar sind. Die Quellen sind UAH, RSS, Hadcrut4, Hadsst3 und GISS.

Die einzelnen Spalten zeigen Folgendes:

    1.13ra: Dies ist die finale Stellung des Jahres 2013 in jedem Datensatz.

2.13ra: Hier zeige ich die mittlere Anomalie für 2013

3.year: Dies zeigt das bislang wärmste Jahr jemals für diesen bestimmten Datensatz. Man beachte, dass in zwei Datensätzen das Jahr 2010 und in drei Datensätzen das Jahr 1998 als das jeweils wärmste gelistet wird.

4.ano: Dies ist das Mittel der monatlichen Anomalien des wärmsten Jahres in der vorigen Zeile.

5.mon: Dies ist der Monat, wo dieser bestimmte Datensatz die höchste Anomalie aufweist. Die Monate werden gekennzeichnet durch die ersten drei Buchstaben des Monats und die letzten beiden Ziffern der Jahreszahl. Man beachte, dass darin noch nicht die bislang in diesem Jahr 2014 gesetzten Rekorde enthalten sind wie in HadSST3 im Juni.

6.ano: Dies ist die Anomalie des in der vorigen Zeile genannten Monats.

7.y/m: zeigt den längsten Zeitraum ohne positive Neigung in Jahren/Monaten. 16/2 bedeutet also beispielsweise, dass die Neigung 16 Jahre und 2 Monate lang im Wesentlichen Null ist.

8.sig: Dies ist der erste Monat, in dem die Erwärmung Nicks Kriterien zufolge nicht statistisch signifikant ist. Den ersten drei Buchstaben des Monats folgen die letzten beiden Ziffern der Jahreszahl.

9.sy/m: NEU: dies sind die Jahre und Monate für Zeile 8. Abhängig vom Zeitpunkt der letzten Aktualisierung können die Monate um einen Monat abweichen.

10.McK: NEU: Dies sind die Zahlen von Dr. Ross McKitrick für drei der Datensätze.

11.Jan: Dies ist die Anomalie für Januar 2014 für jeden einzelnen Datensatz.

12.Feb: dito für Februar 2014, und so weiter.

19.ave: Dies ist die mittlere Anomalie aller Monate bis heute, indem alle Zahlen addiert und durch die Anzahl der Monate dividiert wurden. Falls jedoch die Daten selbst jenes Mittel zeigen, kann ich diese Zahl verwenden. Manchmal differiert die Zahl ein wenig in der dritten Stelle nach dem Komma, vermutlich weil nicht alle Monate die gleiche Anzahl von Tagen haben.

20.rnk: Dies zeigt die Rangfolge der einzelnen Datensätze, falls die o. g. Anomalien für den Rest dieses Jahres so bleiben. Das wird nicht der Fall sein, aber ich denke darüber als eine Aktualisierung von 40 Minuten in einem Spiel. Infolge der unterschiedlichen Basisperioden ist die Rangfolge bedeutsamer als die mittlere Anomalie.

Ich kenne die Zukunft von HadCRUT4.2 und HadCRUT3 nicht. Sie wurden bis zum 3. Oktober nicht gezeigt, und ich glaube, dass sie auch nicht mehr kommen seit ein neuer HadCRUT4.3 existiert, der auch den Monat August enthält. Unglücklicherweise befindet sich HadCRUT4.3 nicht auf WFT. Als Folge gibt es viele Lücken bei HadCRUT4.2 und HadSST3.

Falls man alle der jüngsten Anomalien verifizieren will, schaue man hier:
For UAH, version 5.5 was used since that is what WFT used.
http://vortex.nsstc.uah.edu/public/msu/t2lt/tltglhmam_5.5.txt
For RSS, see: ftp://ftp.ssmi.com/msu/monthly_time_series/rss_monthly_msu_amsu_channel_tlt_anomalies_land_and_ocean_v03_3.txt
For Hadcrut4, see: http://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.3.0.0.monthly_ns_avg.txt
For Hadsst3, see: http://www.cru.uea.ac.uk/cru/data/temperature/HadSST3-gl.dat
For GISS, see:
http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt

Um alle Punkte seit Januar 2014 in Form einer Graphik zu sehen:

WoodForTrees.org – Paul Clark

Wie man sieht, beginnen alle Linien an der gleichen Stelle im Januar 2014. Dies macht es einfach, den Januar 2014 mit der jüngsten Anomalie zu vergleichen.


Anhang

Hier fassen wir die Daten für jeden Datensatz separat zusammen:

[Ich bitte um Vergebung, dass ich diesen Wust nicht mit übersetze. Die Zahlen sprechen für sich. Anm. d. Übers.]

RSS

The slope is flat since October 1996 or 17 years, 11 months. (goes to August)
For RSS: There is no statistically significant warming since December 1992: CI from -0.018 to 1.802.
The RSS average anomaly so far for 2014 is 0.258. This would rank it as 6th place if it stayed this way. 1998 was the warmest at 0.55. The highest ever monthly anomaly was in April of 1998 when it reached 0.857. The anomaly in 2013 was 0.218 and it is ranked 10th.

UAH

The slope is flat since January 2005 or 9 years, 8 months. (goes to August using version 5.5 according to WFT)
For UAH: There is no statistically significant warming since April 1996: CI from -0.015 to 2.311. (This is using version 5.6 according to Nick’s program.)
The UAH average anomaly so far for 2014 is 0.197. This would rank it as 7th place if it stayed this way. 1998 was the warmest at 0.419. The highest ever monthly anomaly was in April of 1998 when it reached 0.662. The anomaly in 2013 was 0.197 and it is ranked 7th.

HadCRUT4.2

The slope is flat since February 2001 or 13 years, 6 months. (goes to July and may be discontinued)
For HadCRUT4: There is no statistically significant warming since December 1996: CI from -0.026 to 1.139.
The HadCRUT4 average anomaly so far for 2014 is 0.535. This would rank it as 3rd place if it stayed this way. 2010 was the warmest at 0.547. The highest ever monthly anomaly was in January of 2007 when it reached 0.829. The anomaly in 2013 was 0.487 and it is ranked 8th.

HadSST3

For HadSST3, the slope is flat since March 2009 or 5 years and 5 months. (goes to July and may be discontinued) For Hadsst3: There is no statistically significant warming since August 1994: CI from -0.014 to 1.665.
The HadSST3 average anomaly so far for 2014 is 0.439. This would rank it as 1st place if it stayed this way. 1998 was the warmest at 0.416 prior to 2014. The highest ever monthly anomaly was in July of 1998 when it reached 0.526. This is also prior to 2014. The anomaly in 2013 was 0.376 and it is ranked 6th.

GISS

The slope is flat since October 2004 or 9 years, 11 months. (goes to August)
For GISS: There is no statistically significant warming since October 1997: CI from -0.002 to 1.249.
The GISS average anomaly so far for 2014 is 0.65. This would rank it as third place if it stayed this way. 2010 was the warmest at 0.67. The highest ever monthly anomaly was in January of 2007 when it reached 0.93. The anomaly in 2013 was 0.61 and it is ranked 6th.

Schlussfolgerung

Für den Moment ist WTI tot. Allerdings kann man es auf eine oder zwei Wegen wiederbeleben. Entweder muss HadCRUT3 aktualisiert werden, oder WFT muss von HadCRUT3 zu HadCRUT4.3 wechseln. Und falls man dies tut, sollte anschließend UAH ebenfalls aktualisiert werden von Version 5.5 auf Version 5.6. Aber hoffentlich wird die UAH-Version 6 bald herauskommen. Wir warten auch auf HadCRUT5 mit angehaltenem Atem…

Link: http://wattsupwiththat.com/2014/10/05/is-wti-dead-and-hadcrut-adjusts-up-again-now-includes-august-data-except-for-hadcrut4-2-and-hadsst3/

Übersetzt von Chris Frey EIKE




Meinungsbeitrag: Warum wir aus der heutigen und unausgereiften Kernenergie aussteigen sollten … und warum Klima- und Kernenergieskeptiker vieles gemeinsam haben

Siehe auch im Internet mit Diskussionsforum: www.klimanotizen.de/html/klima-_und_kernenergieskepsis.html

Fossile Energien leisten den überwiegenden Anteil an der weltweiten Energieversorgung. Eine Welt im Wohlstand ohne sie ist auf längere Zeit nicht vorstellbar. Und die Ressourcen sind dabei auch auf lange Zeit gesichert.

Warum sollte man nun Energieformen in großem Umfang einsetzen, die im Vergleich schlechter abschneiden, als die Fossilen?

Jede andere Energieform muss sich an den Fossilen messen lassen. Dabei interessieren vor allem  Wirtschaftlichkeit, Verfügbarkeit, Versorgungssicherheit, Gesundheit/Umweltverträglichkeit und Sicherheit (bspw. Terrorismusgefahr).

Heutige Kernkraftwerke liefern auch nur Strom wie die Fossilen und das zu einem höheren Preis und großer Gefährdung der Sicherheit und Belastung zukünftiger Generationen.

Ein oft angeführter Vorteil der Kernenergie – die Energiedichte – ist gleichzeitig auch die eigentliche Ursache ihrer Sicherheitsprobleme.

Im Folgenden wird gezeigt, wie die heutige und real existierende Kernenergie bei einem Vergleich mit den Fossilen in relevanten Punkten deutlich schlechter abschneidet.

Es wird auch gezeigt, dass Klima- und Kernenergieskeptiker (eigentlich) natürliche Verbündete sind.

Besonders gravierend: ein starker Ausbau der Kernenergie wäre ein Eldorado für den Islamischen Staat und andere Terroristen.

Hinweis: Einige Anmerkungen zur Radioaktivität im Anhang

Inhalt

1. Sechs Mindestanforderungen an die Kernenergie

2. Gibt es  Alternativen?

3. Fukushima, der aktuelle Anlass

4. Heutige KKWs haben kaum lösbare Sicherheitsprobleme

5. Sichere KKWs wären zu teuer und schaffen sich daher selber ab

6. KKWs sind die wichtigste Voraussetzung zur Verbreitung von Atomwaffen

7. KKWs werden nicht benötigt, da es ausreichend saubere fossile Energie für einen langfristigen Übergang gibt

8. Wie wird die Kernenergie verteidigt?

9. Vollversorgung durch KKWs?

10. Heutige KKWs sind Folge eines  Versagens der Fachwelt – ähnlich wie beim Klima und anderen Themen

11. Klima- und Kernkraftskeptiker sind natürliche Verbündete

12. Für die Kernenergie – zum Schaden der Klimaskepsis und des Fortschritts

1. Sechs Mindestanforderungen an die Kernenergie

Leitgedanke: So sicher wie moderne Fossile Energie

Angewandt auf die Besonderheiten der Kernenergie müssen folgende sechs Bedingungen gestellt werden, um bei einem Vergleich mit den Fossilen bestehen zu können:

Kernenergie …

♦  muss inhärent sicher sein,

  muss eine zuverlässige Folgenbegrenzung bei Angriffen (Terror, Krieg) und Havarien haben,

  darf nur geringe Mengen radioaktiver Abfälle hinterlassen,

  darf keine Weiterverbreitung von Atomwaffen ermöglichen,

  darf auch bei maximalen gesellschaftlichen Umbrüchen (Krieg, Failed State) nur geringe, begrenzte Folgen haben und

  muss die dauerhafte Funktionssicherheit vorstehender Bedingungen im Dauerbetrieb nachgewiesen haben.

Wird auch nur eine dieser Bedingungen nicht zuverlässig erfüllt, dann kann die reale Kernenergie keine Alternative zu den Fossilen sein. Die Risiken wären groß.

Keine der real existierenden Kernenergietechnologien ist jedoch in der Lage alle vorstehenden Bedingungen zu erfüllen.

Daher ist die derzeitige realexistierende Kernenergie in Sicherheitsfragen gegenüber den Fossilen ein Rückschritt und sollte bei neuen Kraftwerken nicht mehr eingesetzt werden.

2. Gibt es  Alternativen?

Es gibt ausreichend fossile Brennstoffe für mehr als 200, vielleicht sogar für 1.000 Jahre7. Eine realistische Alternative zu den Fossilien im Großmaßstab gibt es derzeit nicht. Ein Klimaproblem wegen den CO2-Emissionen ist nicht vorhanden5. Die Energiewende mit den Erneuerbaren kann bereits als gescheitert6 betrachtet werden.

Alle über die real existierende Kernenergie hinausgehenden Konzepte sind mehr oder weniger reine Theorie ohne ausreichende Bewährung in der Praxis.

Menschlicher Erfindergeist wird jedoch im Laufe des 21. Jahrhunderts attraktive Alternativen entwickeln: vielleicht auf solarer oder aber auch auf atomarer Basis.

Die Zeit für die Menschheit ist dafür in ausreichendem Umfang vorhanden.

3. Fukushima, der aktuelle Anlass

Zusätzlich zum Erdbeben und dem Tsunami  in Japan hat die Havarie des Kernkraftwerkes Fukushima die Bevölkerung dort hart getroffen. Der dort verwendete Siedewasserreaktor (SWR) ist nicht inhärent sicher.

Evakuierung aus der 30 und mehr Kilometerzone, unverkäufliche landwirtschaftliche Produkte, Belieferungsschwierigkeiten der lokalen Supermärkte aus Angst vor Strahlung, Exportschwierigkeiten, etc.. Die weltweite Aufmerksamkeit ist vom eigentlichen Erdbeben abgelenkt. Am KKW haben die Zuständigen nicht viel im Griff und machen einen unbeholfenen  und unvorbereiteten Eindruck. Währenddessen war es nicht absehbar, ob das Schlimmste überstanden ist oder erst noch bevorsteht. Vor allem wegen der fehlenden inhärenten Sicherheit geriet das KKW außer Kontrolle.

Wäre dort ein fossiles Kraftwerk mit der reichlich vorhandenen Kohle gebaut worden, ginge es den Menschen dort heute deutlich besser.

Die heutige Kenenergie ist kein Ausdruck technologischen Fortschritts, da sie unausgereift ist. Die Glaubwürdigkeit der Kernindustrie bezüglich Sicherheit ist mittlerweile dramatisch geschrumpft.

Immer deutlicher wird, was Klima- und Kernenergieskeptiker gemeinsam haben: Sie stehen unausgereiften und u.a. vom Staat in den Markt gedrückten Konzepten und Technologien gegenüber, die großen Schaden anrichten.

4. Heutige KKWs haben kaum lösbare Sicherheitsprobleme

Die Terrorgefahr ist hochaktuell. Die Attentäter vom 11. September 2001 hätten sich auch ein KKW als Ziel aussuchen können, was im Erfolgsfalle zu einer dauerhaften großräumigen radioaktiven Verseuchung geführt hätte. Ein kräftiger Beschuss durch Raketen o.ä. würde jederzeit das gleiche bewirken.

Außergewöhnliche Naturereignisse wie Erdbeben, Fluten und Erdrutsche würden viele KKWs überfordern und zu ähnlichen oder schlimmeren Ergebnissen führen wie in Fukushima. Warum sollte man den stets abwiegelnden und beschönigenden Erklärungen der Betreiber noch Glauben schenken?

In anderen Technologiebereichen wie der Automobilindustrie ist es üblich, Sicherheit praktisch und glaubwürdig zu demonstrieren (bspw. Crashtests). Warum entfällt das bei den KKWs?

Realistische Sicherheitstest mit Flugzeugen, Geschossen, Sabotage, etc. unterbleiben, weil ihre Durchführung nicht nur überaus teuer wäre, sondern auch zu großräumiger Verstrahlung führen könnte.

Daher stellt der Umgang mit der Sicherheit bei der Kernenergie einen Rückschritt dar, da auf einen solchen realitätsnahen Nachweis verzichtet wird. Berechnungen und Modellierungen gelten als ausreichend. Das erinnert an die analoge Praxis beim Klimaalarmismus.

Das Haftungsrisiko für die Betreiber von KKWs wird in Wirklichkeit nach der Wirtschaftlichkeit definiert und deckt bei Weitem längst nicht alle Kosten ab.

Kernenergie erfordert kurz- und langfristig ununterbrochene, stabile Verhältnisse weltweit. Wer hätte sich vor einigen Jahrzehnten noch archaische Ideologien mit Selbstmordterrorismus in einer modernen Welt vorstellen können? Die Risiken der heutigen Kernenergie passen nicht in diese real existierende Welt.

Solange die Sicherheit der Kernenergie nicht praktisch und der Öffentlichkeit gegenüber nachvollziehbar demonstriert wird, kann eine ausreichende Sicherheit als nichtexistent gelten. Warum sollten nicht Kohlekraftwerke als Referenz für ein akzeptables Sicherheitsrisiko für die Kernenergie gelten?  Das wäre auch in Übereinstimmung mit dem Fortschrittsbegriff.

Wir Deutschen haben seit Jahrzehnten eine kritische und aktive Öffentlichkeit gegenüber der Kernenergie, während die Japaner eher unkritisch gewesen sind.

Ein derart anfälliges KKW wie in Fukushima wäre höchstwahrscheinlich in Deutschland wegen der kritischen Öffentlichkeit nicht gebaut worden.

5. Sichere KKWs wären zu teuer und schaffen sich daher selber ab

Allein die umfassende Sicherung gegen Terroranschläge dürfte so hohe Kosten verursachen, dass keine KKWs mehr gebaut werden würden. Ein seinerzeit diskutiertes Ministeriumspapier4 zur Sicherheitsüberprüfung dürfte bei konsequenter Umsetzung das Aus vieler KKWs bedeuten.

6. KKWs sind die wichtigste Voraussetzung zur Verbreitung von Atomwaffen

Die Verbreitung von Atomwaffen gehört zu den größten weltweiten Problemen.

Iran, Nordkorea, Pakistan und früher der Irak, u.a. binden dabei die internationale Aufmerksamkeit und Ressourcen. Die vorhandenen oder erstrebten Atomwaffen dieser Länder verhindern langfristig Problemlösungen und sichern menschenverachtende Diktaturen. Was passiert, wenn in Pakistan die Islamisten den atomaren Bereich übernehmen? Das ist inzwischen realistisch geworden.

Ohne die Kernenergie hätten wir diese Probleme mit der Weiterverbreitung von Atomwaffen und ihren Folgen nicht.

7. KKWs werden nicht benötigt, da es ausreichend saubere fossile Energie für einen langfristigen Übergang gibt

Alle gegenwärtigen und zukünftigen Probleme durch die heutige Kernenergie sind vermeidbar, wenn beispielsweise auf die reichlich vorhandenen Fossilen  Kohle und Gas gesetzt wird. Dabei können problemlos Übergangszeiten von mindestens 200 Jahre überbrückt werden bis es etwas Besseres gibt. Heutige Kohlekraftwerke sind im Gegensatz zu früher sauber, was einen echten Fortschritt darstellt.

Kohle ist auch die vergleichsweise günstigste Energie. Die Erzeugungskoste n1 für Strom aus Kraftwerken, die 2010 fertig wurden, betragen pro kWh: Braunkohle 2,5 ct, und Steinkohle 3,3 ct. Die Alternativenergien liegen astronomisch darüber.

Die Stromerzeugungskosten bei der Kernenergie für Neubauten müssen wohl deutlich nach oben korrigiert werden und liegen inzwischen sogar in der Größenordnung der Erneuerbaren.

So vereinbarte Großbritannien einen auf 30 Jahre festgelegten Garantiepreis von 11 ct/KWh für neu zu errichtende Kernkraftwerke.  Das ist mehr als es bei Windenergieanlagen (9 ct/KWh) in Deutschland üblich ist.

Bei den unterschiedlichen Energiearten gibt es normalerweise unterschiedliche Anzahl von Opfern durch verschiedene Einflüsse. Dabei werden jetzt Statistiken2 in die Diskussion gebracht, bei denen die Kohle mit relativ viel angegebenen Opfern (161 Tote pro TWh) oben und die Kernenergie (0,04 Tote pro TWh) ganz unten rangiert. Klimaskeptiker haben jedoch leidvolle Erfahrungen gemacht, wie Statistiken so aufbereitet werden können, dass sie einen gewollten Eindruck hinterlassen. In diesem Fall sind die Angaben für Kohle grob irreführend, denn es sind dort Tote weltweit durch Abgase gemeint. Da alle Kohlekraftwerke in Deutschland über eine Rauchgaswäsche verfügen, sind solche Angaben irrelevant.

8. Wie wird die Kernenergie verteidigt?

Klimaschutz ist inzwischen das zentrale Argument zum Bau von KKWs weltweit geworden. Die früheren Argumente wie „Die Lichter gehen aus!“ und für saubere Luft gegen schmutzige fossile Energien sind längst überholt oder waren nie zutreffend.

Desweiteren wird mit Ressourcenschutz und nur geringen Gefahren argumentiert. Fukushima sei bald vorbei und dann wenig dramatisch ausgegangen. Gerade wir in Deutschland seien hysterisch und voller Zukunfts- und Fortschrittsängste. Die Medien wären voller Unwahrheiten in wesentlichen Punkten. Diese Sichtweisen mögen zur subjektiv empfundenen Entspannung beitragen, begründet aber nicht die Notwendigkeit von Kernenergie.

Über Kernenergie wird von ihren Verteidigern in der Regel nicht ganzheitlich diskutiert. Das Restrisiko durch überraschend große Naturereignisse (Erdbeben, Fluten)  wird als gering eingeschätzt. Fukushima ist jedoch  ein Beispiel, dass die Betreiber nicht mit einem Ereignis dieser Größenordnung gerechnet hatten. Ebenfalls werden der Terrorismus und Kriegsereignisse wenig einbezogen. Auch die Verbreitung von Atomwaffen besonders an Schurkenstaaten spielt bei den Betrachtungen der Verteidiger kaum eine Rolle.

Zur ganzheitlichen Betrachtung gehören auch die Bewertung  von Alternativen und die Frage, ob die heutige Kernenergie angesichts des Restrisikos überhaupt gebraucht wird.

Nirgends gibt es einen Beleg, dass die Kernenergie unverzichtbar sei.

Auch hier gibt es meiner Beobachtung nach eine Vermeidungshaltung in der Diskussion.

Die fossilen Energien erleben gerade einen Aufschwung. Neue Fördermöglichkeiten bei Schiefergas haben einen Trend ausgelöst und auch die Kernenergie preislich stark unter Druck gesetzt. Vor allem, wenn Nachrüstungen angeordnet werden. Es gibt eine Abschätzung, wonach die USA über die meisten Energiereserven weltweit verfügen und sogar zum Nettoexporteur werden können. Es ist derzeit viel in Bewegung bei den fossilen Energien.

9. Vollversorgung durch KKWs?

Wie bei den Erneuerbaren wird auch bei der Kernenergie fast immer nur über die Stromversorgung geredet. Dabei macht diese nur ca. 20% des Primärenergiebedarfes Deutschlands aus.

Entscheidend ist jedoch:

Wie groß wäre der Aufwand, wenn Deutschland eine Voll- oder Teil- (50%) Versorgung des Primären Energiebedarfs aus KKWs hätte?

Folgende Rechnung9 ist dabei – erst einmal vorläufig  – entstanden:

100%-Lösung: 357 KKWs ständig in Betrieb, à 2.000 MW.

Danach müssten jedes Jahr 7 KKWs fertig gestellt werden und gleich viele abgeschaltet und entsorgt werden.

50%-Lösung: wie vor, jedoch 178 KKWs in Betrieb, 4 KKWs müssten jährlich neu gebaut und gleich viele abgeschaltet und entsorgt werden.

Plus zusätzliche Infrastruktur mit allem was dazu gehört.

Fazit: Eine derartige Energieinfrastruktur wäre ein Eldorado für Terroristen und andere Feinde des Fortschritts!

Gerade für den “Islamischen Staat” dürfte das ein “gefundenes Fressen” sein.

10. Heutige KKWs sind Folge eines  Versagens der Fachwelt – ähnlich wie beim Klima und anderen Themen

Die Kernenergie ist nicht im freien Markt eingeführt worden wie Autos oder Computer. Sie war das Ergebnis einer Anstrengung gesellschaftlicher Gruppen und des Staates aufgrund „höherer“ Einsicht. Die Energiewirtschaft war ursprünglich skeptisch. Politischer Druck hat die Kernenergie durchgesetzt und das erinnert an den Klimaschutz und die Erneuerbaren Energien.

Arnolf Baring in der FAZ3:

Die Anfänge der deutschen Kernenergie-Debatte
Blickt man zurück auf die Anfänge der Kernenergie-Debatte, stellt man fest, dass in den fünfziger und sechziger Jahren unter Politikern aller Parteien und Publizisten aller Richtungen Euphorie herrschte, ein wahrer Atomenthusiasmus. Diese Euphorie war Ausdruck einer allgemeinen Aufbruchsstimmung im Deutschland der Nachkriegszeit, zumindest in der Bundesrepublik. Wirtschaftswachstum und technologische Innovation waren damals Inbegriffe des gesellschaftlichen Fortschrittsdenkens. Dem entsprach die rückhaltlose Bejahung neuer Technologien, die eine gute, eine bessere Zukunft verhießen.
Ausgelöst wurde die Atombegeisterung durch die berühmte "Atoms for Peace"- Rede des amerikanischen Präsidenten Eisenhower vor den Vereinten Nationen 1953. Diese Ausführungen weckten in der Weltöffentlichkeit die Hoffnung, nach dem nuklearen Schrecken von Hiroshima und Nagasaki werde die Kernenergie nunmehr für friedliche Zwecke eingesetzt.
Skepsis gegenüber der Kernenergie wurde in diesen frühen Jahren ausgerechnet von jenen geäußert, bei denen man es am wenigsten erwarten würde: von der Energiewirtschaft. Zu einer Zeit, in der die fossilen Energieträger im Übermaß zur Verfügung standen, beugten sich die Erzeugergesellschaften nur zögerlich dem politischen Druck, in die teure und komplexe neue Energietechnik zu investieren. Interessanterweise wurden die Risiken der Kernenergie gerade in Betreiberkreisen zu jener Zeit noch recht offenherzig diskutiert – etwa die gesundheitsschädlichen Wirkungen der radioaktiven Strahlungen oder das Problem der Entsorgung radioaktiver Abfälle.
Bis in die sechziger Jahre hinein fanden solche kritischen Stimmen jedoch keinen bedeutsamen öffentlichen Widerhall.

Aus der Fachwelt gab es bis Ende der 70er kaum Kritik an der Sicherheit der Kernenergie. Sie war bereit das große Restrisiko zu verteidigen oder durch Schweigen zu tolerieren. Darin liegt das Versagen der Fachwelt.

So schrieb die Kernindustrie damals in der Broschüre „66 Fragen, 66 Antworten“:  „Ernsthafte Wissenschaftler haben sich nicht auf die Seite der Gegner gestellt“. Zehn Jahre später war das schon anders. Die Klimaskeptiker machen inzwischen eine analoge ähnliche Erfahrung.

11. Klima- und Kernkraftskeptiker sind natürliche Verbündete

Beides sind soziale Bewegungen und haben den gleichen Gegner: den Klimaalarmismus.

Klimaskeptiker sehen darin nicht nur ein falsches wissenschaftliches Konzept für die Zukunft. Wenn es nur um Wissenschaft ginge, dann wäre die Auseinandersetzung eine rein akademische, wie es sie in der Wissenschaftsgeschichte immer wieder gab.

Klimaskeptiker sehen darin jedoch vielmehr eine Fehlorientierung der Gesellschaft, die dabei ist großen Schaden zu nehmen: in Wirtschaft, Politik/Demokratie und Wissenschaft. Der Klimaalarmismus zeigt fundamentalistische Tendenzen.

Kernkraftskeptiker sehen die Sicherheit großräumig gefährdet und sind mit den Argumenten des Klimaalarmismus konfrontiert, der dabei ist weltweit KKWs wieder durchzusetzen. Das Hauptargument dabei ist die Reduktion menschengemachter Treibhausgase wie CO2 zur Vermeidung einer vorausgesagten Klimakatastrophe.

Bisher gibt es zwischen diesen beiden Bewegungen eine große Distanz. Viele Klimaskeptiker meinen, dass die Kernkraftgegner fortschrittsfeindlich sind und viele von ihnen gesellschaftlich radikale Ziele verfolgen. Die meisten Kernkraftskeptiker selbst jedoch würden dieses vehement bestreiten.

Die allermeisten Kernkraftgegner meinen, dass sie ihre Ziele auf Abschaltung der KKWs mit dem Klimaschutz und den Erneuerbaren Energien erreichen müssen. Sie haben noch nicht erkannt, dass sie die falschen Partner haben.

Zwischen diesen beiden Bewegungen gibt es bisher so gut wie keine Kontakte. In einer Zusammenarbeit würden jedoch riesige Chancen für beide Seiten liegen.

12. Für die Kernenergie – zum Schaden der Klimaskepsis und des Fortschritts

Inzwischen sind weltweit einige bekannte Ökoaktivisten von ihrer Kritik an der Kernenergie abgerückt und sehen nun die Klimazukunft bei der Kernenergie besser aufgehoben, als dagegen zu sein.

Viele Klimaskeptiker, die die Kernenergie befürworten, sehen sich jetzt bestätigt. Wenn sogar bekannte Ökoaktivisten die Kernenergie befürworten, dann muss es ein starkes Argument für sie sein. Wird jedoch nicht eher umgekehrt ein Schuh daraus?

Liegt es nicht nahe, dass es Leute sind, die aus Sicht der Klimaskepsis schon einmal grob danebenliegen und nur wegen dem Kimaalarmismus nun für die Kernenergie sind? Folgt nicht eher aus dem einen Irrtum der nächste? Erleben wir bald gemeinsame Resolutionen und Demos von kernenergiebefürwortenden Klimaskeptikern und Klimaalarmisten? Sind diese vielleicht sogar auch natürliche Verbündete?

In einer aktuellen Broschüre von EIKE (8) wird faktisch ein allererster Schritt in Richtung Zusammenarbeit von Klimaschützern und klimaskeptischen Kernenergiebefürwortern getan. Dor8t (, S. 24) heißt es:

Wer allerdings die Klima-CO2-Warnungen ernst nimmt, sei darauf hingewiesen, dass die weltweit arbeitenden Kernkraftwerke 2012 etwa 2,4 Milliarden Tonnen CO2 –Emissionen (von insgesamt ca. 33 Mrd t) vermieden haben.” Auch anderen Stellen dieser Broschüre wird die Treibhausgasvermeidende Rolle der Kernenergie immer wieder fast lobend hervorgehoben.

Von einer weltweiten positiven Wirkung von CO2 auf das Pflanzenwachstum ist im Gegensatz zu sonst bei EIKE in dieser Broschüre nun keine Rede mehr.

Jedenfalls spielte und spielt die unausgereifte Kernenergie den Wachstums- und Fortschrittskritikern seit 40 Jahren in die Hände. Und viele Freunde des Wachstums und des Fortschritts spielen den unfreiwilligen nützlichen Aktivisten für die Kernenergie und deren Gegner gleichzeitig.

Es ist nicht fortschrittlich für die Verbreitung einer unausgereiften Technologie zu sein. Im Gegenteil.

Vielleicht ist es jetzt an der Zeit die Sprachlosigkeit, Informationsblockaden und die teilweise Diskursunfähigkeit der Lager zu überwinden.

Klaus Öllerer
Publizist
www.KlimaNotizen.de, 0170 92 60 771, Klaus.Oellerer@oellerer.net

Letzte Änderung: 16.09.2014

Siehe auch >> Antworten auf “Hundert gute Antworten

Anhang

Grundsätzliche Anmerkungen zur Gefährlichkeit der Radioaktivität

* Diese wird von Kernenergiegegnern oft masslos übertrieben und von Befürwortern manchmal unterschätzt.

* Diese kann möglicherweise in geringem Ausmaß sogar nützlich sein.

* Die reale Möglichkeit der umfassenden Freisetzung des radioaktiven Inventars einer Kernenergieanlage ist nicht hinnehmbar (Tschernobyl, Fukushima). Große Landstriche würden ggfs. unbewohnbar. Es gibt genügend Energiealternativen.

Quellen

1) Stromerzeugungskosten
http://www.klimanotizen.de/2010.10.16_Stromerzeugungskosten_www.energie-verstehen.de_-_Das_Informationsportal_des_BMWi_fur_Verbraucher.pdf

2) Tote nach Energiearten
Bei Kohle werden Abgastote gezählt. In Deutschland haben jedoch alle Kohlekraftwerke eine Rauchgaswäsche.
http://nextbigfuture.com/2011/03/deaths-per-twh-by-energy-source.html

3) Die Anfänge der deutschen Kernenergie-Debatte
http://www.faz.net/s/Rub0E9EEF84AC1E4A389A8DC6C23161FE44/Doc~EAD3C1D5168B74DC2A201DA0EAB23CB52~ATpl~Ecommon~Scontent.html

4) Internes Papier – Regierung erwägt strengere Vorschriften für AKW
http://www.spiegel.de/wissenschaft/technik/0,1518,751741,00.html

5) Kein Klimaproblem mit CO2-Emissionen

Siehe bei folgenden Links:

www.kaltesonne.de,  www.eike-klima-energie.eu, www.wattsupwiththat.com, www.KlimaNotizen.de  

6) Scheitern der Erneuerbaren

Energiewende und die Kosten

http://tiny.cc/v858mw

7) Genügend Fossile Energien sind vorhanden

„Energie – Beam me up, Scotty“

http://www.klimakontroverse.de/2013.10.31_Energie_Beam_me_up_Scotty.pdf

8) Energiepolitisches Manifest

Argumente für die Beendigung der Energiewende

http://www.eike-klima-energie.eu/uploads/media/Energiepolitisches_Manifest_31-01-2014_23_10.pdf

9) Vollversorgung durch KKWs?

Annahmen:

Primärenergiebedarf Deutschland: ca. 4.000 Mrd KWh

Pro KKW: 2 Mio KW, 7.008 h jährliche Verfügbarkeit (80%), Anzahl Reservekraftwerke: 25%, angenommene Lebensdauer: 50 Jahre., Bedarf bei 100%-Versorgung: 357 KKWs, jährlicher Neubau und Entsorgung von jeweils 9 KKWs

Der Einfachheit halber ohne Berücksichtigung von Grund- und Spitzenlast.

Stellungnahme von Dr. Dietmar Ufer vom 12.10.14

Herrn Öllerers Ausführungen sind von einer einzigartigen Besessenheit geprägt: Von Angst! Und damit befindet er sich in bester Gesellschaft mit großen Teilen der deutschen – und leider nicht nur der deutschen – Politik. Die einen haben Angst vor der Kernenergie („Nuklearphobie“), andere Angst vorm Klimawandel („Klimaphobie“), weitere haben Angst vorm Ende der Energieressourcen („Energiemangelphobie“) – ohne irgend eine oder zwei dieser Ängste oder sogar aller drei gleichzeitig (wie in der Bundesregierung) lässt sich offenbar keine „moderne Energiepolitik“ mehr betreiben. (Ich bin mir natürlich darüber im Klaren, dass es noch viel mehr Ängste gibt, mit Hilfe derer die Menschheit „regiert“ und dirigiert wurde und wird…) 

Wenn derartige Ängste, wie sie hier von Herrn Öllerer formuliert wurden, schon immer die Menschheit beherrscht hätte, würden wir heute noch Feuersteine sammeln, um sie zu Faustkeilen umzuarbeiten – und hätten Angst davor, dass Feuersteine bald nicht mehr zu finden sein könnten.

Natürlich sollte auch berücksichtigt werden, dass Angst zu großen Teilen auch aus Unwissenheit entspringt: Es ist ja auch schwierig, ein Kernkraftwerk zu verstehen… Noch schwieriger zu verstehen sind neue technische Entwicklungen zur friedlichen Nutzung der Kernenergie, wie sie in vielen Ländern der Erde betrieben werden – trotz der Warnungen von Herrn Öllerer. Die Tatsache, dass Deutschland auf die gegenwärtig sichersten Kernkraftwerke der Welt verzichten will und sogar weitere Forschung zur Weiterentwicklung nicht mehr fördert, sogar verbietet sind, zeugt vom erkennbaren Niedergang des Wissenschaftsstandortes D. und vom zu erwartenden Untergang des Wirtschaftsstandortes D. Man könnte auch von Dekadenz eines Landes sprechen, dass sich einbildet, so wohlhabend zu sein, dass es keinen energietechnischen Fortschritt mehr braucht… (Das gilt sinngemäß auch für andere Fachgebiete, z. B. die Stammzellforschung oder die Gentechnik!) Herr Öllerer bekämpft die gegenwärtigen Kernkraftwerke – will aber auch keine neuen, die noch sicherer, noch kostengünstiger sind. Öllerer und die deutsche Energiepolitik – vereint in die Steinzeit zurück?

Viele der hier genannten Contra-Öllerer-Argumente kann man nur unterstreichen, auch das Argument von Hanna Thiele, wonach die Begründung für die Kernenergie in Deutschland Hand in Hand ging (und leider immer noch geht) mit der „Klimaphobie“. Wenn der deutschen Nuklear-Wissenschaft und -Industrie (Deutsche Physikalische Gesellschaft, Deutsches Atomforum etc.) zu ihrer Rechtfertigung nichts anderes einfällt als die Angst vor der Klimakatastrophe zu schüren, dann muss das als ein mit abgrundtiefer Dummheit gepaarter Opportunismus gebrandmarkt werden, auch wenn damit namhafte Persönlichkeiten angeprangert werden. Falsch ist es aber, nur wegen dieses durch nichts zu rechtfertigenden Fehlverhaltens der deutschen Kernenergielobby die gesamte Nuklearwirtschaft ins Abseits zu stellen! Nebenbei bemerkt: Die Kernenergietechnik in der DDR, zu der ich (auf Grund meiner fachlichen Vergangenheit) beste Beziehungen hatte, hat sich nie einer solchen Argumentation bedient! Unsere Sorge waren die immensen Schwefeldioxid-Emissionen der Braunkohlenkraftwerke. Der Begriff „Klimaschutz“ spielte weder in der wissenschaftlichen Debatte noch in der Praxis eine Rolle. Dass Kohlendioxid ein Schadstoff sei, habe ich erst nach 1990 „gelernt“!

Abschließend noch ein Faktum aus einem untergegangenem Land: Das KKW Lubmin lieferte auch Fernwärme zur Beheizung der Neustadt des benachbarten Greifswald.

 




Neuer Bericht: Klimapolitische Implikationen des Stillstands der globalen Erwärmung

Die Studie Climate Policy Implications of the Hiatus in Global Warming beleuchtet den Erwärmungsstillstand und was dieser für die öffentliche Politik in Kanada und auf der ganzen Welt bedeutet.

„Viele Politiker, Journalisten und Andere behaupten, dass sich das Klima rascher erwärme als erwartet. Aber während der letzten beiden Jahrzehnte hat sich die Erwärmung tatsächlich so stark verlangsamt, dass sie mittlerweile deutlich unterhalb fast aller Modellprojektionen liegt. Die Implikationen für die Klimapolitik sind bislang nicht angemessen diskutiert worden“, sagt Ross McKitrick, Autor der Studie, führendes Mitglied am Fraser Institute sowie Wirtschaftsprofessor an der University of Guelph.

Es gab keine statistisch signifikante Temperaturänderung während der letzten 15 bis 20 Jahre (die genaue Länge des Stillstands hängt davon ab, welche Datenquelle man verwendet). Und dies trotz einer Zunahme des atmosphärischen Treibhausgas-Niveaus um 11 Prozent seit 1995, hauptsächlich durch CO2-Emissionen von Autos, Kraftwerken und anderen anthropogenen Quellen.

Entscheidend ist, dass die Politik bzgl. Treibhausgasen in Ländern wie Kanada ganz stark auf den Klimamodell-Ergebnissen basiert, (Erwärmungstrends simulierende Computerrechnungen), welche Temperaturänderungen auf der Grundlage des Treibhausgasniveaus projizieren.

Aber viele wissenschaftliche Studien aus jüngster Zeit, merkt McKitrick an, kamen zu dem Ergebnis, dass Treibhausgase viel weniger Auswirkungen auf das Klima haben, als viele Klimamodelle projizieren. Und die Lücke zwischen den Klimamodellen (mit ihren projizierten Temperaturen) und der Wirklichkeit (tatsächlich gemessene Temperaturen) wird weiterhin immer größer.

Folge? Politiker riskieren eine Überbewertung der schädlichen Auswirkungen von CO2 und könnten als Folge unangebrachte Politikziele setzen. McKitrick sagt auch, dass klimapolitische Maßnahmen (Kohlenstoffsteuern zum Beispiel) oftmals langzeitliche Verpflichtungen involvieren ohne die Möglichkeit, diese Maßnahmen bei neuen Informationen oder neuen wissenschaftlichen Entwicklungen zu ändern.

Was also sollten Politiker im Lichte des Erwärmungs-Stillstandes machen?

„Während der nächsten paar Jahre könnten sich angesichts einer immer drückender werdenden Beweislast die Klimamodelle radikal ändern. Falls politische Entscheidungsträger wirklich gute Klimapolitik machen wollen, sollten sie das Ergebnis dieses Prozesses abwarten, und jeder langfristig angelegte Plan sollte an neue Daten hinsichtlich der Auswirkungen von CO2-Emissionen anpassbar sein“, sagte McKitrick.

„Der Stillstand der globalen Erwärmung ist real und zeitigt Implikationen für die Politik, die noch nicht in Betracht gezogen worden sind. Sollten die wissenschaftlichen Beweise weiterhin nicht ernst genommen werden, könnte sich dies als sehr kostspielig für Kanada und andere Länder auf der ganzen Welt erweisen“.

Full paper [Achtung, der Link geht nicht!]

Link: http://www.thegwpf.com/new-report-climate-policy-implications-of-the-hiatus-in-global-warming/

Übersetzt von Chris Frey EIKE




Unverbesserliche Weltverbesserer

Ihr Bio-Wahn ernährt die Großstadt-Ratten. Sie zwingen uns Energiesparlampen und fragwürdige  Wärmedämmung auf: Die Plage der selbsternannten Weltverbesserer.

Zwar steht der seriöse Beweis noch aus, aber nehmen wir einfach mal an, es würde auf der Erde durch menschlichen Einfluss wirklich kontinuierlich wärmer, was können wir tun? Dieselbe Wissenschaft, die uns erst ermöglichte, unseren Planeten zu missbrauchen, bietet uns dafür etliche patente Pläne: Ein Sonnenschirm im All könnte Sonnenenergie abfangen, Dünger im Meer könnte CO2 neutralisieren, Aerosole in der Atmosphäre sollte einen Treibhauseffekt minimieren, neue Kunststoffschäume müssten CO2 binden.

Klingt alles gut, ist auch gut, aber nur, wenn es funktioniert. Bei den meisten der oben genannten Projekte haben andere Wissenschaftler aber so massiv vor schlimmen Folgen für das Gleichgewicht der Natur gewarnt, dass sie uns wohl erspart bleiben. Was bleibt, ist die Angst vor dennoch auf uns wartenden Erfahrungen, wie sie die Australier beispielsweise mit der Aga-Kröte gemacht haben, die als biologisches Ungezieferbekämpfungsmittel angesiedelt wurde, und nun zur furchtbaren Plage wird. Nicht nur hier wurde der Bock zum Gärtner gemacht. Tatsächlich tendiert der Mensch dazu, mit den besten Absichten den größten Schaden anzurichten.

Bestialisch stinkende Flure

Beim Versuch, der Umwelt nachhaltig zu helfen, müssen wir also nicht nur auf Profiteure aufpassen, die Panik schüren, um davon zu profitieren, sondern schlicht und einfach auch mit unserer aller Dummheit rechnen. Je unübersichtlicher die Welt wird, desto mehr wird der Irrtum zu einer dominierenden Entwicklungskraft.

Denken wir nur an die vom nächsten Jahr an gesetzlich vorgeschriebene Biotonne inklusive Zwangsmülltrennung. 70 Kilo Essensreste pro Einwohner und Jahr könnten so gerettet werden, hat ein Think-Tank errechnet, der auf den lustigen Namen Witzenhausen-Institut hört. All die schönen Nahrungsmittel, die die Überflussgesellschaft in den Müll befördert, könnten doch, so kommt die naive Idee beim gutwilligen Verbraucher an, wenn schon nicht ins hungerleidende Afrika gebracht so doch wenigstens recycelt werden.

In der Praxis hat sich stattdessen schon längst gezeigt, dass die Hausflure und Wohnungen bestialisch zu stinken beginnen und dass Ungeziefer und Krankheiten einen perfekten Nährboden finden. Natürlich gibt es geruchsbindende Chemikalien, denn die kommerzbegleitende Wissenschaft hat schließlich immer eine Lösung zu bieten. Nur ob diese Chemikalien zu einer positiven Ökobilanz beitragen, wage ich vage zu bezweifeln. Und werden wir dann bald mit der Tonne auch eine Müllpolizei bekommen, die Trennverweigerer verfolgt und ihrer gerechten Strafe zugeführt? Man erinnere sich nur an die Klima-Polizei, die die Grünen unter Kindern rekrutieren und ausbilden wollten, um Umweltfrevler direkt an die Behörden zu melden.

Gemüse für die Ratten

Doch reden wir über Fakten, beispielsweise über die Inhalte. Laut Inhaltskatalog des Bundesumweltministeriums dürfen sich die häuslichen Ratten auf Gemüse, Milchprodukte (keine Milch), verdorbene Speisereste und Fisch freuen. Da sieht man bestätigt, dass der Fisch am Kopf zu stinken beginnt. Sägespäne sind erlaubt, aber nur von unbehandeltem Holz. Was für eine praktikable Unterscheidung. Und schließlich gehört auch Grasschnitt zum Biomüll. Jeder Kleingärtner weiß, wie sehr Rasenschnitt nach kürzester Zeit stinkt. Menschen mit geschwächter Atemfunktion bekommen Dauerhusten und Asthmaanfälle. Die extreme Hitzeentwicklung des Vergärungsprozesses könnte übrigens auch zur Selbstentflammung führen. Eine zündende Idee also.

Ein nachhaltiges Problem bei der Biotrennung ist die Tatsache, dass die doofen Deutschen mehrheitlich ihren Biomüll in Plastiktüten zur Tonne bringen, wo die kostbare Substanz bis zur Abholung vor sich hin reifen muss. Diese Tüten müssen die Abfallentsorger dann mühsam wieder aus der Pampe klauben. Doch sind die Deutschen wirklich so doof? Ist es ökologisch sinnvoller, die faulenden Substanzen in der Wohnung im Eimer zu sammeln, diesen Eimer auszuschütten und ihn dann in der Wohnung mit Trinkwasser und Spülmittel zu säubern?

Doch die Wissenschaftler von BASF und anderswo bieten uns natürlich eine Lösung an: die recycelbare Biotüte. 10.000 Tonnen teure Tüten warten auf die Verbraucher. In Berlin wurden im Modellversuch solche Beutel an 21.000 Haushalte verteilt. Trotz unentgeltlicher Tüten sank der orthodoxe Plastikbeutelanteil aber nur von 19 auf 7%.

Ökologisches Perpetuum Mobile

Ist dieses Ergebnis im biofreundlichen Yuppie-Bezirk Prenzlauer Berg schon nicht wirklich überzeugend, so kulminieren die Zweifel angesichts der fragwürdigen Biotüten an sich. Diese werden aus Polyester, Maisstärke, Zellulose und Polymilchsäure hergestellt. Der versprochene Zerfallsprozess findet nur bei einer bestimmten Wärmeentwicklung in Kompostieranlagen statt. „Wenn Sie die Tüte in den Wald oder ins Meer schmeißen, passiert gar nichts”, sagt selbst Helge Wendenburg vom Biotonnen-Umweltministerium. Auch zur Wiederverwertung von Bioabfällen etwa als Dünger würden die Biokunststoffe keinen positiven Beitrag leisten.

Und schließlich wird die Produktion der Biotüte weitere Mais-Einöden in der Landwirtschaft produzieren mit all ihren bekannten Nachteilen wie Monokultur, giftige Schädlings- und Unkrautbekämpfung, versauerte Böden und landschaftliche Hässlichkeit. Man erinnere sich nur an die Debatte um das Bio-Benzin. „Biologisch abbaubare Kunststoffe für Verpackungen, die aus nachwachsenden Rohstoffen hergestellt werden, haben keinen ökologischen Vorteil”, bringt es der Fachbereich für Kreislaufwirtschaft im Umweltbundesamt auf den Punkt. Wie praktisch, dass die Inhalte der Biotonne in der Hauptsache zu Dünger verarbeitet werden: geradezu ein ökologisches Perpetuum Mobile.

Dumm gelaufen, könnte man meinen, wenn die Müll-Idee ein Einzelfall wäre. Doch das Phänomen des Verschlimmbesserns lässt sich durch alle Bereiche unserer zivilisatorischen Ver- und Entsorgung durchdeklinieren. Bei Energiesparlampen, die sich als so physiologisch und psychologisch schädlich wie unpraktikabel erwiesen haben, fängt die Aufzählung an. Ein Dauerbrenner (beim Ärgern, nicht beim Funktionieren) sind die Windmühlen, die ihr bisschen Strom meist dann produzieren, wenn ihn keiner braucht. Doch weit mehr ebenso katastrophale Öko-Irrtümer werden meistens ignoriert. Hier und heute aber zwei weniger.

Zwei Million Euro Leibrente

Wärmedämmung hat allein schon durch die Herstellung der Materialien eine negative Ökobilanz, ganz zu schweigen von Schimmelbildung in den Räumen und erheblicher Entsorgungsprobleme. Nicht genug damit: Schon 1985 hatte die Fraunhofer-Gesellschaft ermittelt, dass die Verwendung von Dämmstoffen, die die einstrahlende Sonnenwärme ja reflektieren, im Vergleich zu den vorhandenen Massivwänden den Heizenergieverbrauch nicht senkt, sondern in die Höhe treibt.

Britische Forscher haben auch noch errechnet, dass die deutschen Heizwertberechnungen um 30-40% an der Realität vorbeigehen. Entsprechend weit lag nämlich der tatsächliche Verbrauch bei wenig gedämmten Häusern niedriger als in der offiziellen Kalkulation. Man ahnt es schon: Bei den sogenannten Niedrigenergiehäusern, war der Verbrauch dafür deutlich höher als vorher berechnet. Zu entsprechenden Ergebnissen kam auch eine Studie der staatlichen Förderbank KfW.

Die Politik der Bundesregierung fordert davon unbeeindruckt jährlich steigende Dämmleistungen im Interesse der Bauindustrie. Deshalb kostet das bauliche Energiesparen den Bürger und den Steuerzahler laut einer Prognos-Studie bis zum Jahr 2050 rund 838 Milliarden Euro. Das Energieeinsparpotenzial hingegen liege bei nur 370 Milliarden. Angesichts dadurch gesicherter 250.000 Arbeitsplätze könnte man weniger umweltschädlich jedem dieser Bauarbeiter auch zwei Million Euro Leibrente auszahlen. Doch moderne Umverteilung im ökologischen Gewand funktioniert eben anders. Für ihre Rente sollen die Arbeiter gefälligst viele (arbeitslose) Kinder machen. Aber das ist ein anderes Thema.

Steigendes Grundwasser

Nicht eingerechnet in die Aufwandskalkulation ist die Tatsache, dass erste signifikante Bauschäden an den Dämmungen nach ungefähr 20 Jahren auftreten. Gesamtkosten in Höhe von weiteren Hunderten von Milliarden Euro bis 2050 sind die Folge. Dabei sind schon derzeit mehr als ein Viertel der Baukosten eines Einfamilienhauses auf Energiesparrichtlinien zurückzuführen. Und dieselben Leute, die diese Form von Öko cool finden, demonstrieren dann gegen Mietpreiserhöhungen.

Wärmedämmung hilft sowieso nicht viel gegen durch steigendes Grundwasser verursachte Wasserschäden. Allein in Berlin sind 200.000 Menschen von dem Phänomen bedroht, dass anscheinend durch ökologisch korrekten Wasserverbrauch verursacht wird. Seit 25 Jahren hat sich der Wasserverbrauch in Berlin halbiert und entsprechend stieg das Grundwasser, obwohl die Experten bis vor kurzem unbeirrt prognostizierten, dass die Spree bald aus Wassermangel rückwärts fließen werde. In Sachsen-Anhalt gibt es sogar bereits ein Notprogramm zur Grundwasser-Schadensabwehr. Bekannt dürfte inzwischen sein, dass die Wasserbetriebe wegen der (wasser-)sparsamen Bürger seit längerem die Kanalisation mit Trinkwasser spülen müssen, weil sich die Rohre sonst zusetzen würden. Paradoxe Umwelt-Welt.

Natürlich sind all das ausgewählte Beispiele, die in keiner Weise die grundsätzliche Notwendigkeit von Umweltmaßnahmen infrage stellen sollen. Die Politik war hier solange außerordentlich berechtigt und erfolgreich – bis der Umweltwahn mehr und mehr dysfunktionale Lösungsansätze zur Realisierung kommen ließ. Hier geht es stattdessen darum, das Bewusstsein dafür zu schärfen, dass es im Umgang mit der Natur oder auch nur einer komplexen Zivilisation keine Patentrezepte gibt.

„Lust an der Angst“

Auffällig ist, dass die Menschen, je unübersichtlicher die Probleme werden, zu immer einfacheren Lösungen tendieren. Das ist ein bisschen wie der von Psychologen beschriebene Effekt, bei dem sich Leute bei Anschaffungen desto weniger Gedanken machen, je teurer das Objekt ist. Für den umstrittenen Öko-Warner Alexander Neubacher haben wir es aber auch mit einem Irrationalismus zu tun, der aus der „Lust an der Angst“ genährt und von „parareligiösen Phänomenen“ in der Szene der Umweltaktivisten gepflegt wird.

Fakt ist, dass wir eben oft nicht wirklich wissen, welche Probleme wir überhaupt haben – und zwangsläufig können wir nicht wissen, was gegen sie zu unternehmen ist. Befördert durch den von mir schon mehrfach beklagten Aufklärungspositivismus, nach dem man alle Probleme zu meistern fähig zu sein glaubt, vor allem wenn man Experten und Wissenschaftlern vertraut, wird der Mensch immer unmündiger gehalten und verhält sich auch entsprechend. Auch hier bedarf es dringend des kybernetischen Denkens oder wenigstens einer Reaktivierung des gesunden Menschenverstandes. Besonders die Projekte, die offensichtlich auf die Qualität oder in die Milliarden gehen, sollten wir doch aufzuspüren in der Lage sein.




Klima-Wissenschaftler sehen „97%-Konsens“ und „99%-Gewissheit“ – aber 0% der Wissenschaftler wollen Wetten mit eigenem Geld darauf abschließen

Meine Wette lautet: die mittlere Meereis-Ausdehnung im September der Jahre 2017 bis 2022 wird größer sein als das entsprechende September-Mittel der Jahre 2007 bis 2012.

Ich war nicht überrascht, keine Antwort zu bekommen.

Ich habe Versionen dieser E-Mail auch anderen Instituten zukommen lassen, von denen einige die Angewohnheit haben, Alarm zu schreien, wenn es um das globale Meereis geht. Meine E-Mail:

Dear —

mit großem Interesse habe ich die jüngste AWI-Presseerklärung zum globalen Meereis gelesen. www.awi.de/en/news/pressreleases/de3

Man bekommt leicht den Eindruck, dass die Experten glauben, das arktische Meereis werde seinen Abwärtstrend während der kommenden Jahre fortsetzen. Das überrascht mich. Ich selbst denke, dass sich das arktische Meereis tatsächlich erholen wird während der nächsten ein bis zwei Jahrzehnte. Davon bin ich so überzeugt, dass ich 1000 Dollar darauf wetten möchte. Ich glaube, dass die Meereisausdehnung im Septembermittel der Jahre 2017 bis 2022 größer sein wird als das Septembermittel der Jahre 2007 bis 2012.

Würden Sie mir empfehlen, eine solche Wette nicht einzugehen? Würden Sie wetten? Sicher kann doch die Wissenschaft hier eine Wahrscheinlichkeit nennen. Ihre kurze Antwort hierauf würde ich sehr begrüßen.

Freundliche Grüße Pierre Gosselin

Eine entsprechende E-Mail habe ich an folgende Wissenschaftler/Institute geschickt:

1. Marcel Nicolaus, AWI
2. Lars Kaleschke, University of Hamburg
3. Stefan Rahmstorf, PotsInstitute
4. NSIDC
5. Dirk Notz, Max Planck Institute
6. Leif Riemenschneider, Max Planck Institute
7. Rebecca Rolf, Max Planck Institute
8. Frank Sienz, Max Planck Institute
9. Peter Wadhams, University of Cambridge
10. Dr. Andrey Proshutinsky, Woods Hole Institute
11. Anders Levermann, Potsdam Institute
12. Mojib Latif,

Wer mir geantwortet hat, ist in Fettdruck genannt, und ich bedanke mich bei diesen Personen, sich Zeit für eine Antwort genommen zu haben, besonders Dr. Dirk Notz und Dr. Andrey Proshutinsky. Sie haben sich beide die Zeit genommen, eine wirkliche Antwort zu schreiben, siehe hier und hier.

Drei der vier Antwortenden empfahlen, nicht darauf zu wetten, dass die Arktis schmelzen würde, weil dabei die natürliche Variabilität eine zu große Rolle spielt. Dr. Andrey Proshutinsky wies sogar darauf hin, dass die Arktis in Wirklichkeit genau das Gegenteil tun könnte.

Mojib Latif hat ebenfalls kurz geantwortet und sich gegen eine Wette ausgesprochen mit Verweis auf die „natürliche dekadische Variabilität“. Er schrieb:

Ich wette nicht. Es gibt natürlich die natürliche dekadische Variabilität, welche dem langfristigen Abwärtstrend der Meereisausdehnung überlagert ist, aber diese dekadische Variabilität ist schwer vorherzusagen.

Lisa vom NSIDC sandte ebenfalls eine Antwort und nannte zwei Links: hier und hier. Wissenschaftler am NSIDC haben es ebenfalls abgelehnt zu wetten.

Die anderen acht Wissenschaftler haben nicht einmal geantwortet. Es sieht so aus, als schreie jemand auf dem Dach lauthals, dass uns der Himmel auf den Kopf falle, aber echt wirklich still wird bei der Aufforderung, Geld darauf zu setzen.

Zusammengefasst: Niemand hat irgendwelches Interesse bekundet, obige Wette anzunehmen, und nicht einer hat empfohlen, dies zu tun. Ergebnis: Aus einer Wissenschaft mit einem „97%-Konsens“ und einer „99%-Sicherheit“ sind 0% der Wissenschaftler bereit, darauf zu wetten.

Drei der 4 Wissenschaftler, die geantwortet haben, sagten, es sei nicht möglich das Verhalten des arktischen Meereises für die nächsten 8 Jahre vorherzusagen (und doch behaupten viele Wissenschaftler, dass die Vorhersage in der Arktis in 50, 100 oder 200 Jahren „zu 99% sicher“ ist. Todsicher?)

Natürlich ist das Zögern der Wissenschaftler verständlich, Wetten hinsichtlich des arktischen Meereises abzuschließen. Andererseits, warum bestehen so viele dieser Wissenschaftler darauf, dass der Rest von uns unseren modernen Wohlstand aufgrund ihrer Modelle aufs Spiel setzen soll, wenn offensichtlich sie selbst nicht einmal einer Vorhersage für 8 Jahre vertrauen?

Das alles schmeckt mir sehr nach Schwindel.

Link: http://notrickszone.com/2014/09/30/science-with-97-consensus-and-99-certainty-sees-0-of-its-scientists-willing-to-bet-on-it/

Übersetzt von Chris Frey EIKE




Neue Studie sagt: Internet-Trolle gehören zu den Schlimmsten…gehören Klimatrolle auch dazu?

Ich habe immer geglaubt, dass Menschen, die andere verhöhnen, während sie sich hinter erfundenen Namen verstecken, nichts zu einem Thema beitragen außer ihrem eigenen Hass. Die beiden Personen, an die ich nach der Lektüre dieses Artikels sofort dachte, waren Dr. Joshua Halpern von der Howard University alias „Eli Rabett“ und Miriam O’Brien alias Sou Bundanga/Hotwhopper. Diese Menschen sind vermeintlich Profis, gebärden sich aber trotzdem als kindische Feiglinge, die aus der Sicherheit der Anonymität heraus Schimpfworte hinaus posaunen, während sie Menschen verhöhnen, die die Integrität und den Mut haben, ihren wirklichen Namen unter ihre Beiträge zu setzen. Der beste Weg, Menschen dieser Art zu bekämpfen ist, jedes mal ihren Namen auszurufen, wenn sie ihre dunklen Machenschaften praktizieren. Um das zu tun, und zwar nicht nur wegen dieser beiden Loser, moderiere ich WUWT. Falls man aus der Bequemlichkeit der Anonymität heraus verbal randalieren möchte, sollte man das anderswo tun, weil ich, offen gesagt, derzeit in einer Lebenslage stecke, in der ich keine Zeit habe, mich mit dieser Art jugendlichem Mist herumzuschlagen. Moderatoren, aufgepasst!

Bild rechts: Die Ansicht von Josh des unter dem Namen „andthentheresphysics” bekannten Trolls, für den es sehr bald ein böses Erwachen geben könnte.

Aus Psychology Today: Internet Trolls Are Narcissists, Psychopaths, and Sadists

Veröffentlicht am 18. September 2014 von Jennifer Golbeck, Ph.D. in Your Online Secrets

Eine neue Studie zeigt, dass Internet-Trolle wirklich einfach nur schreckliche Menschen sind.

In der diesmonatigen Ausgabe von Personality and Individual Differences wurde eine Studie veröffentlicht, die bestätigt, was wir alle vermutet haben: Internet-Trolle sind schreckliche Menschen. Beginnen wir mit einer Klärung unserer Definitionen. Ein Internet-Troll ist jemand, der sich in eine Diskussion einschaltet und Kommentare postet, die dazu gedacht sind, die Konversation zu unterbrechen oder ausufern zu lassen. Oft scheint es so, als ob kein wirkliches Motiv hinter ihren Kommentaren steckt außer jeden Beteiligten in Rage zu bringen. Trolle werden lügen, übertreiben und provozieren, um eine Antwort zu bekommen.

Welche Art von Menschen würde so etwas tun?

Kanadische Forscher wollten das ergründen. Sie führten zwei Internet-Studien durch mit über 1200 Personen. Sie gaben zu jedem Thema Persönlichkeitstests zusammen mit einem Überblick über das Verhalten bei Internet-Kommentaren. Sie suchten nach Beweisen, die das Troll-Unwesen mit dem dunklen Viergespann einer Persönlichkeit in Zusammenhang bringen: Narzismus, Machiavellinismus, Psychopathie und eine sadistische Veranlagung.

Sie kamen zu dem Ergebnis, dass dieses Dunkle Viergespann bei den Menschen am stärksten ausgeprägt war, die sagten, dass trollen ihre Lieblings-Internetaktivität sei. Um eine Ahnung davon zu bekommen, wie vorherrschend diese Eigenschaften bei Internet-Trollen sind, betrachte man die folgende Abbildung aus der Studie:


Man schaue, wie lang die Balken für jeden sind außer den Internet-Trollen! Ihre Balken für alle vier schlimmen Persönlichkeits-Eigenschaften stechen aus der Abbildung hervor. Die Beziehung zwischen diesem Dunklen Viergespann und dem trollen ist so signifikant, dass die Autoren Folgendes in ihrer Studie schreiben:

Die Assoziationen zwischen Sadismus und GAIT (Global Assessment of Internet Trolling) sind so stark, dass man sagen kann, dass Online-Trolle prototypisch Alltags-Sadisten sind“ (Hervorhebung hinzugefügt).

Die Trolle befriedigen sich zutiefst daran, andere auf die Palme zu bringen. Hier noch ein Zitat der Autoren (weil es ein wirklich zitierbarer Artikel ist):

Sowohl Trolle als auch Sadisten empfinden sadistische Freude angesichts der Not von Anderen. Sadisten wollen Spaß haben … und das Internet ist ihre Spielwiese“.

Der ganze Artikel: http://www.psychologytoday.com/blog/your-online-secrets/201409/internet-trolls-are-narcissists-psychopaths-and-sadists?tr=MostViewed

————————————————————-

Die Studie: Trolls just want to have fun [etwa: Trolle wollen einfach nur Spaß haben]

Erin E. Buckels ,Paul D. Trapnell, Delroy L. Paulhus

Abstract

In zwei Online-Studien haben Probanden einen Bestand ihrer Persönlichkeiten und einen Überblick über ihr Verhalten im Internet komplettiert. Allgemein kam es zu starken positiven Assoziationen unter der Häufigkeit von Online-Kommentaren, Freude am Trollen und der Identität der Trolle, was auf ein gemeinsames Gedankengut hinweist, das diesen Eigenschaften zugrunde liegt. Beide Studien ergaben ähnliche Relationen zwischen trollen und dem Dunklen Viergespann der Persönlichkeit: trollen korrelierte positiv mit Sadismus, Psychopathie und Machiavellinismus. Von allen persönlichen Eigenschaften zeigte Sadismus die stärksten Assoziationen mit dem Trollen und – wichtig – die Relation war für Troll-Verhalten eigentümlich. Die Freude an anderen Online-Aktivitäten wie chatten und diskutieren zeigte keine Relation zu Sadismus. Folglich scheinen Cyber-Trolle eine Internet-Manifestation von alltäglichem Sadismus zu sein.

Link: http://wattsupwiththat.com/2014/10/02/and-climate-internet-trols-are-some-of-the-worst/

Übersetzt von Chris Frey EIKE




Auswertung der Energiedaten des Bundeswirtschaftsministeriums und Bundesumweltministeriums- Darstellung der CO2-Zahlen

In dieser Auswertung werden die Erfolge der deutschen Klimaschutzpolitik dargestellt.

Seit der Einführung des EEG gab es eine weltweit einmalige Fokussierung der deutschen Ressourcen auf den Ausbau der so genannten „Erneuerbaren Energien“.

Die in diesem Dokument gezeigten Grafiken basieren auf eine Auswertung der Veröffentlichungen des Bundesministeriums für Wirtschaft und Energie, so wie des Bundesumweltministeriums.

Hierzu wurde auf folgende veröffentlichte Exceltabellen zugegriffen:

BMWi: http://www.bmwi.de/DE/Themen/Energie/Energiedaten-und analysen/Energiedaten/gesamtausgabe,did=476134.html

BMU:   2014-Feb_agee-stat-zeitreihen_EE.xlsx    (Ist zur Zeit nicht erreichbar)

Bild 1 (rechts, zum Vergrößern anklicken) zeigt die Darstellung der BMU Zeitreihe Tabellen 11 bis 33. Hier wurde die, meines Erachtens, errechnete und nicht eine gemessene Vermeidung von CO₂ dargestellt. Da die Zahlen eine Einsparung darstellen sollen, habe ich mir erlaubt, diese auch negativ darzustellen. Da die Wind und Solarenergie im Fokus stehen, werde ich mich auch nur auf diese „Energieträger“ konzentrieren.

Wie aus dem grünen Balken zu erkennen ist, wurde eine errechnete Einsparung von 0,1 Megatonnen = 100.000to CO₂ im Jahr 1990, eine Einsparung von 63,2 Megatonnen (63.200.000to) im Jahr 2013 erreicht.

Diese Zahl wird als Beleg und Argument für den Ausbau der „Erneuerbaren“ herabgezogen. Doch merken Sie sich den grünen Balken. Dieser wird in den nächsten Darstellungen einfließen.

Rechnet man die Zahlen um, erkennt man einen Trend, der meines Erachtens zeigt, daß in den ersten Jahren nach der Einführung der des EEG, die besten Standorte besetzt wurden. Die Anlagen, die zur Zeit und in der Zukunft installiert werden, senken aber tendenziell die Effektivität des Kraftwerkparks aus Wind und Solar.

Dies ist im Bild 2 dargestellt.

Das nun folgende Bild 3 zeigt, welch geringer Einfluss der Einsatz von Wind und Solarenergie auf die Emissionen Deutschlands hat. Die Absenkung der CO₂-Emissionen ist eher dem Niedergang der Industrie in den neuen Bundesländern, sowie der wirtschaftlichen Entwicklung Deutschlands geschuldet.

Bild 4 (innen Bild 5) zeigt die Bemühungen Deutschlands zur CO₂-Vermeidung im Vergleich zu den größten Emittenten China und den USA. 

Endgültig zur Farce verkommt die „Vorreiterrolle Deutschlands“  wenn man sich das Bild 5 (innen Bild 6) betrachtet.

Warum geht den Ministern Gabriel und Hendriks nicht ein Licht auf, wenn sie diese Zahlen aus den eigenen Ministerien anschauen? Kann es sein, daß die Ministerialbeamten ihre Chefs nicht erschrecken wollen oder liegt es an der ideologischen Brille der Klimarettung, die einen nüchternen Blick auf die Zahlen verhindert?

Die Emissions-Sparbemühungen Deutschlands jedenfalls, verschwinden im statistischen Rauschen.

Der Anteil Deutschlands an den weltweiten CO₂-Emissionen, sank von 1990 = 4,6% auf  2,4% im Jahr 2013 , ohne das dieser Anteil, auch nur ansatzweise, durch Deutschland beeinflußt wurde.

Den größten „Erfolg“ des EEG liegt aber auf einer anderen Seite. Deutschland steht im Begriff, das teuerste Land weltweit für den Strompreis der Haushalte zu werden. Zum Vergleich: Die Haushalte in den USA zahlen ca. 9 bis 10 Ct/kWh. Siehe Bild 7

 

Gleichzeitig wird mit dem Bild 8 (unten) deutlich gezeigt, wie weit man von einer 100% EE-Stromversorgung ist.

Die verteufelten Energieträger Kernkraft und Kohle lieferten im Jahr 2013 die 4,5-fache Energie bei einer vergleichbaren installierten Leistung von ca. 66 GW.

Fazit:

Die Ziele der Politik, aus Deutschland ein Vorbild für eine CO₂-freie Gesellschaft zu transformieren,  hat dieselbe volkswirtschaftliche Vernichtung noch Volksvermögen zur Folge, als ob wir einen Krieg führen und verlieren würden.

Wird diese Entwicklung nicht gestoppt, so droht Deutschland auf das Niveau eines Drittweltlandes abzusinken, ohne irgendeinen Effekt auf den weltweiten CO₂ Ausstoß zu erreichen.

Was dies bedeuten kann, erkennt man zur Zeit in dem von Ebola betoffenen Afrika, südlich der Sahara.

Der Pro Kopf-Verbrauch an elektrischer Energie liegt bei 124 Kilowattstunden im Jahr. Dies bedeutet aber auch, keine Kühlschränke, keine Infrastruktur zur Wasser Ver.- und Entsorgung, keine industrielle Arbeitsplätze in einer effizienten und arbeitsteiligen Volkswirtschaft, die eine Voraussetzung ist, sich eine teure medizinische Infrastruktur leisten zu können.

Gleichzeitig zerstören wir unsere letzten naturbelassenen Flächen durch den Zubau mit den von mir so genannten SoDa-Kraftwerken und SoDa Stromleitungen, die quer durch die Republik verlegt werden.

( SoDa = Diese Anlagen stehen die längste Zeit des Jahres einfach so da.) 

Politik, Medien, und auch die Kirchen argumentieren, daß ich an die Zukunft meiner Kinder denken soll.

Daran denke und arbeite  ich jeden Tag.

Denn diese Entwicklung verfrühstückt meine zukünftige Rente und treibt gleichzeitig die wertschöpfenden industriellen Arbeitsplätze meiner Söhne in das Ausland.

Rolf Schuster im Oktober 2014




Entgegnung zu den Kommentaren „Abschätzung der globalen Erwärmung durch CO2 und solaren Einfluss“

Link zum Harde Beitrag hier

Herrn Urbahn (#15) möchte ich nur antworten, dass ich hier nicht etwas erzähle, was die Politik hören möchte. Ich denke, eher das Gegenteil ist hier der Fall. Ich kann Ihnen auch versichern, dass ich meine Publikationen zur Klimathematik in meiner Freizeit mache als Pensionär (siehe #117) und sämtliche Publikationskosten (open access) selber trage. Auch wundere ich mich sehr, woher Herr Paul so genau weiß, dass ich ein AGW-Vertreter wäre (#25). Ich versuche nicht, einen unmöglichen "CO2-Treibhauseffekt" zu retten, sondern betrachte ausschließlich  physikalische Gesetzmäßigkeiten, um mir hierüber ein eigenes Urteil bilden zu können, ob und in welchem Maße eine globale Erwärmung durch CO2 überhaupt möglich ist. Ein gleiches Vorgehen würde ich auch einigen Anderen in dieser Runde empfehlen, statt mit bösen Unterstellungen zu agieren.

Wehlan und Paul sollten lieber erst ein bisschen nachdenken, bevor sie so unqualifizierte Statements – nicht nur über meine Arbeit, sondern generell über den Treibhauseffekt – in diese Runde posaunen. Es ist ziemlicher Unfug, von einem Selbsterwärmungsmechanismus oder Perpetuum Mobile zu reden (#2, 24). Dazu sollte man sich erst einmal die Gesamt-Energiebilanz anschauen. Ebenso ist es Unfug, dass Gase in der unteren Troposphäre nicht strahlen sondern nur absorbieren würden (#115). Moleküle ebenso wie schwarze Körper, die absorbieren, emittieren auch. Diese Emission nennt man bei Gasen spontane Emission, und sie stellt die von der Atmosphäre in Auf- und Abwärtsrichtung abgegebene Wärmestrahlung dar, die in ihrer Intensität bestimmt wird durch die Temperatur der Gase über die Absorptionslänge, die in der Tat etwas mit Sättigung zutun hat. In der Nähe der Erdoberfläche ähnelt die Gegenstrahlung über weite Bereiche einem Planck’schen Strahler, bis auf einen starken Einbruch um 10 µm (optisches Fenster, siehe Abb. 7c meiner Arbeit).

Zu #16: Dass die CO2-Konzentration verzögert ansteigt (nach Prof. M. Salby ca. 9 Monate) aufgrund einer Erwärmung, ausgelöst vor allem durch eine erhöhte Solaraktivität, bestreitet niemand in diesem Kreis. Dies hat nur zur Konsequenz, dass sich damit die Klimasensitivität zusätzlich als Rückkopplung oder Verstärkung auf die Solarsensitivität auswirken wird.

Wer hier versucht, Nebel zu verbreiten (#18) und laienhafte Thesen in die Welt setzt, dürfte ziemlich klar sein. Hierzu zählt insbesondere auch unser weiterer THE-Leugner und Mikroturbulenz -Experte Kramm, der nur Rechnungen und Modelle akzeptiert, bei der die Turbulenzerscheinungen mit berücksichtigt werden, die jede Ameise bei ihrem Lauf auf der Erdoberfläche hinterlässt. Um so verwunderlicher ist es, dass sich dieser Experte in drei eigenen Veröffentlichungen ausführlich mit dem trivialen Zweilagen-Modell beschäftigt, wenn es doch gar keinen Treibhauseffekt und nach seiner singulären Meinung auch keine Klimasensitivität gibt.

Ebenso verwunderlich ist deshalb, dass er hier die GCMs so großartig herausstellt, die alle samt und sonders nicht in der Lage waren und sind, die Klimaentwicklung der letzten 17 Jahre und auch für die nähere Zukunft anzugeben, aber von einer Klimasensitivität im Mittel von 3,2 °C ausgehen, die es ja aber nach Kramm überhaupt nicht gibt.

Was sollen also all die länglichen Ausführungen hier und an anderer Stelle. Kramm sollte das alles erst einmal klären mit seiner eigenen Innung, bevor er hier nur persönliche Diffamierungen, Beleidigungen und Nebelgranaten versprüht. Wie Frau Mayr in #74 richtig feststellt, wäre es schön zu sehen, wo der große Unterschied liegt zwischen meinem "blühenden Unsinn" und Kramms Großartigkeit.

Eine Gegenstrahlung wird von Kramm nicht geleugnet, aber eine Absorption und Temperaturerhöhung der Erdoberfläche hierdurch soll nicht möglich sein. Offensichtlich wird der 1. Hauptsatz der Thermodynamik ausgeschaltet. Dafür wird der 2. Hauptsatz aber bemüht, der für diese Situation gar nicht zutrifft (siehe hierzu die treffenden Ausführungen in #86-Landvoigt, #96-Holtz und #118-Mayr).

Zu der Diskussion über die Berücksichtigung von ENSO, PDO oder AMO ist nur anzumerken, das ich in der hier diskutierten Arbeit ausschließlich die Gleichgewichts-Klimasensitivität (equilibrium climate sensitivity – ECS) und nicht die transiente Klimasensitivität (TCS) berechne. Oszillationsperioden mitteln sich heraus und haben keine Auswirkungen auf die Angabe der Gleichgewichts-Klimasensitivität. Einschränkungen hierzu gibt es lediglich bei einer zugrunde gelegten thermisch induzierten Wolken-Rückkopplung, bei der sich Oszillationen überlagern und den Rückkopplungs-Koeffizienten verändern können. Hierbei wird in meinen Abschätzungen jeweils von dem worst-case ausgegangen, dass die beobachtete Erwärmung in den 80er und 90er Jahren nur durch CO2 induzierte thermische Bewölkungsänderung verursacht wird. Im Text weise ich explizit darauf hin, ebenso dass es bei der Berechnung der Erwärmung über das letzte Jahrhundert kleinere Abweichungen geben kann, da mein Modell vom Gleichgewichtsfall ausgeht im Unterschied zur Realität.

Zu #41- Urbahn: Wer die Arbeit gelesen hat, wird feststellen, dass zwar die zunächst berechneten Werte mit zwei Stellen hinterm Komma aufgeführt sind, aber die Angabe der Endresultate nur eine Kommastelle enthalten. Eine Angabe über die Unsicherheit ist ebenfalls nachzulesen.

 Zu #45,60,93-Fischer: Ich will nur daran erinnern, dass bei einer Verdopplung von CO2 die Absorption der terrestrischen Strahlung in der Atmosphäre um gerade einmal 1,5 % ansteigt, und die Gegenstrahlung bei mittlerer Bewölkung weniger als 1 %. Wenn dann die Gegenstrahlung über den TE grob eine Temperaturerhöhung von 33 K bewirkt, inklusive aller Rückkopplungseffekte, dann kann – vereinfacht gerechnet – eine Verdopplung von CO2 gerade einmal ein weiteres % hiervon erzeugen, also aufgerundet 0,4 °C. Durch solch eine einfache Überschlagsrechnung mag die Größenordnung der Klimasensitivität verdeutlicht werden. Zu Frage 3: Wie richtig bemerkt unter #65-Robel und #66-Landvoigt, ist das vorgestellte Modell ausgerichtet auf die Ermittlung der ECS, nicht auf den Verlauf oder die Vorhersage des Klimas.

Zu #64-Schönfeld: Ist das so schwer, dass im Gleichgewicht die Erde so viel Leistung abstrahlen muss (über die gesamte Oberfläche) wie sie aufnimmt von der Sonne (Projektionsfläche)?

Zu #67-Kramm: Arbeiten, die einen grundsätzlichen Treibhaus(Atmosphären)-Effekt und die physikalische Sinnhaftigheit der Klimasensitivität infrage stellen, sind in der Tat in diesem Kontext nicht zitierfähig. Weil Kramm überfordert ist, Flüsse von sensibler und latenter Wärme anhand von lokalen Temperatur- und Feuchteverteilungen selber zu berechnen, führt er sie einfach als externe Größen in sein abgespecktes Modell ein und orientiert sich hinsichtlich deren Größen an Trenberth et. al. Nichts anderes mache ich auch für die Festlegung eines "Arbeitspunktes", um den dann allerdings eine kleine Störung von 1 % in der Absorptionsänderung durch CO2 betrachtet wird. Es dürfte doch wohl jedem mit einem Minimum an physikalischem Grundverständnis klar sein, dass sich die Absolutwerte von sensibler und latenter Wärme mit einer veränderten Bodentemperatur ebenfalls leicht verschieben. Bei 1 % Absorptionsänderung nehme ich hierfür einen linearen Zusammenhang an. Dabei ist es gleichgültig, ob eine potentielle Temperatur oder die absolute Temperatur betrachtet wird. Beide sind bis auf die 2. oder sogar 3. Stelle hinter dem Komma in der bodennahen Übergangsschicht identisch. Solch eine T-Abhängigkeit führt zu einer deutlichen negativen Rückkopplung, die in anderen Modellen nicht berücksichtigt wird und ein Grund von vielen für eine niedrigere Klimasensitivität liefert.

Zu #91-Kramm: Mehrfach musste ich schon feststellen, dass Kramm erst losposaunt, bevor er eine Arbeit richtig ließt, wenn überhaupt. Wie ich das von mir vorgestellte Zwei-Schichten-Modell definiere, sollte Kramm bitte mir überlassen. Die Erdoberfläche kann sehr wohl eine Schicht oder Lage darstellen, die Energie aufnimmt und abgibt. Für eine Gleichgewichtsbetrachtung spielt die Wärmekapazität einer Wasser- oder Landoberflächenlage (Aqua-Planet) überhaupt keine Rolle. Auch seine Ausführungen zur zeitlichen Änderung der Gesamtenergie sind in diesem Zusammenhang vollständig irrelevant und nur wieder Nebelgranaten.

Zirkulationen und Austausch zwischen verschiedenen Zonen behandele ich nicht, da hier eine globale ECS und keine Klimasensitivitäten von Einzelzonen betrachtet werden.

Ich muss nicht mit irgend einem Tunen von vorne beginnen, da Trenberth’s Energie- und Strahlungsbilanz nur einen Arbeitspunkt definiert. Abweichungen hierum durch CO2-Konzentrationsänderungen zur Ermittlung von ECS werden maximal in der 2. Stelle hinterm Komma beeinträchtigt.

Ich verwende in der Tat einige wenige zusätzliche Parameter, um eine realistische Abbildung der relevanten Atmosphärenprozesse zu beschreiben, die für die Berechnung der ECS sinnvoll sind, und verzichte auf 1000 anderer Parameter, die in den GCMs verwendet werden, die Rechnungen chaotisch werden lassen und für die Ermittlung von ECS sowieso keine Bedeutung haben.

Auch sollte sich Kramm einmal den Text zu Abb. 13 der Arbeit durchlesen, dann würde er vielleicht entdecken, dass diese Graphik für wolkenfreien Himmel gilt und gerade den Unterschied zu einer mittleren Bewölkung sowohl für die mittlere Bodentemperatur wie für die Klimasensitivität darstellt.

Zu #105-Bäcker: Mir ist kein Modell für die Berechnung von Spektren bekannt, bei dem auf 228 Schichten zurückgegriffen wird. Es werden üblicherweise nur 13 – 45 Schichten verwendet, die zudem noch mit grob strukturierten Spektralbändern durchgeführt werden und eine gegenseitige Überlappung sowie Interferenz von Wasserdampf und CO2 nicht vernünftig abbilden können. Zudem wird dabei von einer um einen Faktor 2 zu geringen Wasserdampf-Konzentration ausgegangen, die für gemäßigte Breiten zutrifft aber nicht global.

Zu #113-Heß: Und Hajo Lange gibt auch ein einfaches Modell für den Treibhauseffekt an.

Zu #126-Kramm: Den Ausführungen ist nichts hinzuzufügen (ist ja auch Lehrbuchwissen). Nur der letzte Satz stellt alle Logik wieder auf den Kopf. So ist das, wenn man sich einmal verrannt hat.  




Eine Übersicht der Klimadebatte

Bild rechts: Autor S. Fred Singer ©Heartland Institute

Die Null-Hypothese

Die Existenz der Klimavariabilität seit Milliarden Jahren ist unumstritten – ohne jeden möglichen menschlichen Einfluss. Wir nennen das die ,Null-Hypothese‘. Logischerweise liegt also die Beweislast beim IPCC, glaubwürdige Beweise für die Behauptungen der anthropogenen globalen Erwärmung (AGW) durch die vom Menschen freigesetzten Treibhausgase vorzulegen. Wie weiter unten ausgeführt, war das IPCC bislang nicht in der Lage, solche Beweise vorzulegen: es hat seine Beweise für die „Zuordnung“ aufgegeben, die noch in den ersten drei Zustandsberichten (1990, 1996, 2001) genannt worden waren und hat in den Berichten AR 4 (2007) und AR 5 (2013) einen ,Beweis‘ angeführt, der die Logik verletzt.

Klimasensitivität

Wenn es um die globale mittlere Temperatur (GAST) geht, scheint die Hauptsorge darin zu bestehen, unter 2°C zu bleiben. Man sollte zur Kenntnis nehmen, dass dieses Limit völlig willkürlich ist. Es gibt keine etablierte wissenschaftliche Grundlage, diesem Limit spezielle Signifikanz zuzuordnen, es ist einfach eine „Goldglöckchen“-Zahl. Damit meine ich Folgendes:

Wählt man ein Limit von 0,5°C, werden die Leute sagen „das haben wir bereits erlebt, und nichts ist passiert“. Wähle ich jedoch 5°C, werden die Leute sagen „Eine solche Erwärmung werden wir niemals erleben – daher hat sie keine Bedeutung“. Darum vermutlich fiel die Wahl der Alarmisten auf die 2°C.

Bei der wirklichen Frage geht es um die Klimasensitivität (CS) – definiert als der Temperaturanstieg, der durch eine Verdoppelung des CO2-Gehaltes ausgelöst wird. (Diese Definition ist bei verschiedenen Autoren etwas unterschiedlich). Wie effektiv wirkt das Treibhausgas CO2 beim Anstieg der GAST? Wie realistisch sind die aktuellen Klimamodelle?

Das IPCC hat ursprünglich eine sehr große CS behauptet. Aber nach dem ersten Zustandsbericht 1990 nahm man die CS von 4,5 auf etwa 2,5°C zurück. Seitdem betrachtete das IPCC nur noch die Erwärmung im letzten Teil des 20. Jahrhunderts als vom Menschen verursacht und nicht mehr die Erwärmung von 1910 bis 1940. (Bild 1)

Bild 1: (a) globale mittlere Temperatur. (b) Man beachte, dass die höchsten Temperaturwerte in den USA in den dreißiger Jahren aufgetreten waren. Quelle: GISS

Meiner Ansicht nach kann die CS tatsächlich nahe Null liegen. Das bedeutet, dass CO2 nur einen sehr geringen Einfluss auf Klimaänderungen hat – möglicherweise wegen negativer Rückkopplungen. Jedoch gibt es immer noch Diskussionen darüber, welche Art negativer Rückkopplungen man erwarten kann: durch Wasserdampf oder durch Wolken?

Die sich immer ändernden, nicht existenten Beweise des IPCC für AGW

Ich kritisiere alle IPCC-Berichte von Nr. 1 (1990) bis Nr. 5 (2013). Als so genannter ,Experten-Begutachter‘ durfte ich mich an einer einmaligen Plattform für die Beobachtung aufeinanderfolgender IPCC-Entwürfe erfreuen. Es ist ziemlich erheiternd, dass die IPCC-Summaries über eine zunehmende Gewissheit für AGW sprechen – während gleichzeitig die modellierten Temperaturen immer weiter von den aktuell gemessenen Temperaturen divergieren (Bild 2).

Bild 2: Gewissheit des IPCC für AGW: 50% (1996), >66% (2001), >90% (2007), >95% (2013)

Wir nehmen zur Kenntnis, dass jede „Summary“ eines Berichtes durch einen politischen Konsens erzeugt wird, anders als im zugrunde liegenden wissenschaftlichen Bericht (wer das nicht glaubt, kann auf der website des IPCC nachschauen). Wie schon öfter erwähnt worden ist, lautet das Mandat des IPCC: „Verständnis der wissenschaftlichen Grundlage des Risikos einer vom Menschen induzierten Klimaänderung…“. Es gibt kein Mandat, irgendwelche anderen Ursachen in Betracht zu ziehen wie etwa natürliche Ursachen in Verbindung mit solaren und/oder ozeanischen Zirkulationszyklen – nur vermeintliche menschliche Gründe, hauptsächlich fossile Treibstoffe. Das IPCC erkennt überall einen menschlichen Klima-Fingerabdruck, weil dies das Einige ist, wonach zu suchen es beauftragt worden ist.

Im Besonderen nennt der IPCC-Bericht AR 1 eine Klimasensitivität von 4,5°C, wobei beide im 20. Jahrhundert beobachteten Erwärmungen (1910 bis 1940 sowie 1975 bis 1997) als anthropogen verursacht betrachtet werden. Nach heftiger Kritik an diesen ,Beweisen‘ hat das IPCC die Klimasensitivität auf 2,5°C zurückgefahren, indem nur noch die letzte Erwärmung im 20. Jahrhundert als anthropogen verursacht betrachtet wird. Die erste Erwärmung (1910 bis 1940) wird jetzt als natürlichen Ursprungs angesehen.

Nachdem man den anthropogenen Antrieb für 1910 bis 1940 aufgegeben hatte, betrachtete das IPCC zwei unterschiedliche Beweistypen als Unterstützung für AGW von 1975 bis 2000. In seinem Bericht von 1996 (AR 2) „fabrizierte“ Ben Santer den so genannten „Hot Spot (HS)“, eine berechnete maximale Erwärmung der oberen Troposphäre (Bild 3) und stellte die Behauptung auf, dass dieser ein Fingerabdruck von AGW sei. Dies ist aus zwei Gründen falsch: Der HS ist keineswegs ein Fingerabdruck von AGW – und er existiert nicht einmal. Er wurde als Rosinenpickerei herausgesucht aus der Temperaturaufzeichnung einer Radiosonde, wo es in einem Bereich eine kurzfristige leichte Erwärmung gab. Es gibt jedoch keine langfristige Zunahme (Bild 4)

Bild 3: Modellierter Hot Spot in der tropischen Troposphäre.

Bild 4: Kein beobachteter Hot Spot

Es ist einer Bemerkung wert, dass CCSP 1.1 (2006), dem Wissenschaftsbericht zur Klimaänderung für die US-Regierung mit Santer als Leitautor, einen HS in den Modellen zeigt (Bild 3), es dafür aber keinen Beleg aus Beobachtungen gibt (Bild 4). Der Gegensatz zwischen Modell und Beobachtungen ist gewaltig. Er illustriert sehr gut die Hauptquelle wissenschaftlicher Uneinigkeit – zwischen jenen, die sich auf Modellberechnungen verlassen und jenen, die sich auf Beobachtungen stützen.

Im AR 3 (2001) des IPCC taucht der HS nicht mehr auf, doch kam stattdessen der unsägliche Hockeyschläger von Mike Mann – dessen Behauptung zufolge während der letzten 1000 Jahre im 20. Jahrhundert eine ungewöhnliche Erwärmung aufgetreten war (Bild 5)

Bild 5: Oben: aus AR 1 des IPCC. Unten: „Hockeyschläger“ aus dem AR 3, wobei eine Proxy-Analyse ruckartig im Jahre 1979 aufhört und danach eine Thermometer-Aufzeichnung eingebracht wird. Man beachte, dass die Proxydaten keine ungewöhnliche Erwärmung im 20. Jahrhundert zeigen.

Eine genaue Untersuchung der im Hockeyschläger verwendeten Proxy-Daten zeigt, dass die Erwärmung überhaupt nicht ungewöhnlich war und möglicherweise geringer ausgefallen ist als vor 1000 Jahren. Eine wesentliche Erwärmung taucht nur auf durch das Hinzufügen der Temperaturkurve aus den Instrumenten (Bild 5). Man beachte auch, dass Mann seine Proxy-Daten nach 1979 verschweigt, die wahrscheinlich keine solche Erwärmung zeigen.

Wegen der vielen fundierten Kritik ist das Hockeyschläger-Argument vom IPCC inzwischen als Stütze für AGW fallen gelassen worden. Stattdessen warten jeweils die Berichte AR 4 (2007) und AR 5 (2013) in ihren Kapiteln über ,Zuordnung‘ auf mit sehr eigenartigen Zirkelschlüssen zur Unterstützung für AGW.

Beide Berichte passen sich an eine berechnete Kurve der Temperaturdaten in der zweiten Hälfte des 20. Jahrhunderts an. (Das kann man immer machen, indem man einen geeigneten Wert der Klimasensitivität wählt sowie einen vermuteten Aerosol-Antrieb). Nachdem man eine vernünftige Anpassung gefunden hatte, entfernten sie den Antrieb durch Treibhausgase und erhielten natürlich eine ,nicht angetriebene‘ Modellkurve, die keinen Temperaturanstieg mehr zeigte (Bild 6). Aber dann behaupteten sie, dass diese Lücke hinsichtlich der Daten ein eindeutiger Beweis für AGW sei. Diese Behauptung vergewaltigt die Logik und ist absolut sinnlos. Sie haben einfach ihre berechnete Kurve modifiziert und dann behauptet, dass die resultierende Lücke einen Beweis für die anthropogene Erwärmung darstellt.

Bild 6:  Unforced model (red). Quelle: IPCC-AR5 Chap 10 (‘Attribution’)
Der Anstieg des Meeresspiegels (SLR) zeigt im 20. Jahrhundert keine Beschleunigung

Es ist allgemein anerkannt, dass der Meeresspiegel um etwa 120 Meter gestiegen ist seit dem Höhepunkt der jüngsten Eiszeit vor etwa 18.000 Jahren. Die besten Werte stammen aus Korallen in der Karibik.

Das IPCC hat in seinen fünf Zustandsberichten versucht, den bis zum Jahr 2100 erwarteten SLR abzuschätzen. Wie man in Bild 7 erkennt, haben diese Schätzungen laufend abgenommen mit den niedrigsten Werten im Entwurf des AR 4 (2007). Allerdings zeigt die Endversion des AR 4 etwas höhere Schätzungen.

Bild 7: SLR-Schätzungen der fünf IPCC-Berichte. Die Werte aus dem AR 5 (2013; schwarz, bei ,other‘) passen zu Rahmstorf.
AR 4 (2007) zeigt immer noch vernünftige SLR-Werte. Aber als dann AR 5 erschien, können wir in etwa eine Verdoppelung sowohl der niedrigsten als auch der höchsten Schätzung ausmachen, wie Bild 7 (schwarz) zeigt.

Jetzt betrachten wir das Summary-Ergebnis (aus Kapitel 13 im AR 5) detaillierter in Bild 8 – und stellen die Schlüsselfrage: Gibt es zuverlässige Beweise für eine Beschleunigung des SLR in Zusammenhang mit Temperaturanstieg und CO2-Zunahme während des 20. Jahrhunderts? Wie wir sehen werden, lautet die Antwort NEIN.

Bild 8: SLR. Quelle: IPCC-AR5, Chap 13 (SLR).

Die erste Frage, die man zu Bild 8 stellen könnte, lautet: warum beschleunigt sich der SLR plötzlich im Jahre 1880 von Null auf etwa 18 cm pro Jahrhundert? Die Antwort könnte lauten, dass die IPCC-Daten nicht mit anderen Daten übereinstimmen, die keine solche Beschleunigung zeigen.

Weiter! Warum wird in Bild 8 im Jahre 1993 eine Beschleunigung gezeigt? Die Antwort könnte lauten, dass sich das IPCC einer neuen Beobachtungsmethode zugewandt hat, und zwar basierend auf Radar von Satelliten. Wie Dr. Willie Soon aber überzeugend erklärte, ist der neue Datensatz problematisch und stimmt nicht überein mit den traditionellen Daten von Tidenpegeln. Letztere zeigen während der letzten Jahrhunderte keinerlei Beschleunigung. Im Gegenteil, einige Analysen von Tidenmessungen zeigen eine Verlangsamung um das Jahr 1960 (Bild 9). Der Grund hierfür ist unbekannt, aber die Realität ist nicht in Frage gestellt worden. Sie widersprechen jedoch mit Sicherheit dem von Satelliten gezeigten stärkeren Anstieg.

Bild 9: Analyse von Tidenmessungen. Sie zeigen Verlangsamung unabhängig von der Ozeantemperatur und dem CO2. Quelle: Holgate GRL 2007
Schlussfolgerung: Meine eigene Beste Schätzung für das Jahr 2100 beläuft sich auf einen SLR von etwa 15 cm (siehe Bild 7) und einem weiteren Anstieg danach mit etwa dem gleichen Wert (18 cm pro Jahrhundert) – unabhängig von jedweden kurzfristigen Temperatur-Fluktuationen. Meiner Meinung nach gibt es nichts, was wir gegen diesen natürlichen Anstieg tun können, der sich bis zur nächsten Eiszeit fortsetzen wird, wenn der Meeresspiegel sinken wird durch die Eisakkumulation in den Polargebieten und auf Gletschern. Zwischenzeitlich sollten wir dem holländischen Beispiel folgen: Deiche bauen.

S. Fred Singer is professor emeritus at the University of Virginia and director of the Science & Environmental Policy Project. His specialty is atmospheric and space physics. An expert in remote sensing and satellites, he served as the founding director of the US Weather Satellite Service and, more recently, as vice chair of the US National Advisory Committee on Oceans & Atmosphere. He is a Senior Fellow of the Heartland Institute and the Independent Institute. He co-authored NY Times best-seller Unstoppable Global Warming: Every 1500 years. In 2007, he founded and has chaired the NIPCC (Nongovernmental International Panel on Climate Change), which has released several scientific reports [See www.NIPCCreport.org]. For recent writings see http://www.americanthinker.com/s_fred_singer/ and also Google Scholar.

(Zur übersetzten Biographie von S. Fred Singer siehe die zahlreichen Beiträge von ihm auf diesem Blog)

Übersetzt von Chris Frey EIKE




Japanische Unternehmen schließen sich zusammen zur Forschung an Methanhydraten

Bild rechts: brennende Methanhydrate. Bild: EIKE

Unter Führung der Japan Petroleum Exploration (Japex) und mit einem Startkapital von umgerechnet 2,8 Millionen Dollar wird das Unternehmen Japan Methane Hydrate Operating Co. (JMH) während der mittel- und langfristigen Erzeugungstests Unternehmerdienste ,[contractor services] zur Verfügung stellen und Feldoperationen durchführen, was von der Regierung gesponsert wird.

Alle JV-Partner werden ihr Expertenwissen und ihre Technologie einbringen, um die Erkundung und das Testen zu unterstützen, sagte JMH kürzlich in seiner ersten Presseerklärung.

„Es wird geschätzt, dass sich eine substantielle Menge von Methanhydraten vor den Küsten Japans befindet. Um die neue heimische Energieressource zu erschließen, die das Potential eines wesentlichen Beitrags zu einer stabilen nationalen Energieversorgung hat, ist die technologische Entwicklung zur Kommerzialisierung unabdingbar. Darin enthalten ist auch das Establishment von Erzeugungstechnologien“, hieß es seitens des Unternehmens.

Die japanische Regierung hat erfolgreich im März 2012 die weltweit ersten Methanhydrate gefördert, nachdem man ein Loch in einem experimentellen Feld im Nankai-Graben gebohrt und einen Produktionstest durchgeführt hatte, der die Erwartungen noch deutlich übertraf (siehe hier).

Zwei Monate später folgte ein stetiger Fluss von Gas aus Methanhydraten bei North Slope in Alaska. Beteiligt war eine Partnerschaft zwischen dem Energieministerium der USA (DOE), ConocoPhillips und der staatlichen japanischen Firma JOGMEC. Man hat es einen „beispiellos erfolgreichen Test von Technologie“ genannt.

Andere Regierungen forschen und erkunden ebenfalls die neue Ressource. Indien und die USA haben ein Memorandum zur Zusammenarbeit bei der Entwicklung von Methanhydraten von 2014 bis 2017 unterzeichnet. In diesem Zeitraum plant das DOE, 40 Bohrungen niederzubringen und Pilot-Produktionstests in der Andaman-See bei Indien durchzuführen.

Vollständiger Artikel

Link: http://www.thegwpf.com/japanese-companies-band-together-to-test-methane-hydrates/

Übersetzt von Chris Frey EIKE




Schweiz: Wasser fällt Wind und Sonne zum Opfer

An praktisch allen einigermaßen geeigneten Schweizer Flüssen wurden bereits ab dem späten 19. Jahrhundert Staustufen errichtet und mithilfe von Turbinen Strom erzeugt. Heute liefern solche Laufwasserkraftwerke rund 1/4 des Schweizer Strombedarfs von etwa 65 Terawattstunden (TWh) im Jahr. Da sie keine teuren Brennstoffe benötigen, können sie relativ preisgünstig produzieren. Nicht zuletzt deshalb lagen die Strompreise in der Schweiz trotz der allgemein hohen Lebenshaltungskosten des Landes noch vor wenigen Jahren im europäischen Vergleich eher im Mittelfeld als im oberen Bereich.

Bild rechts:Schweizer Laufwasserkraftwerk an einem der Nebenflüsse des Rheins (Symbolbild)

Deutsche EE-Überproduktion drückt die Erzeugerpreise auch im Nachbarland

Das deutsche Erneuerbare-Energien-Gesetz ist Grundlage für die Subventionierung „erneuerbarer Energien“ wie Wind- und Solarstrom mit aktuell rund 23 Mrd. € pro Jahr. Das hat zu einem planlosen Boom bei der Errichtung entsprechender Anlagen geführt, mit einer besonderen Schwerpunktbildung von Solaranlagen in den sonnenreichen südlichen Bundesländern und von Windenergieanlagen im Norden. Insbesondere in den Mittagsstunden speisen Solaranlagen im Verein mit Windanlagen inzwischen so viel gar nicht benötigten Strom ins Netz, dass dieser teils mit Zuzahlungen ins Ausland verschenkt werden muss, Bild 1.

Bild 1. Am 11.5.2014 wurde in Deutschland Strom wegen der chaotischen Überproduktion aus Wind- und Solaranlagen mit Geldgeschenken bis zu 65 € pro MWh in die in- und ausländischen Märkte gedrückt (Grafik: Rolf Schuster)

Diese Praxis nannte man früher Dumping, sie ist insbesondere in Indien und China sowie anderen asiatischen Ländern bis heute in äußerst unguter Erinnerung. Noch verheerender ist jedoch der langfristige Effekt der durch die subventionierte EE-Erzeugung immer weiter nach unten gedrückten Börsenstrompreise, die inzwischen gegen 30 €/ MWh (3ct/ kWh) tendieren, Bild 2. Aufgrund des international liberalisierten Strommarktes verhageln diese Preise auch den Betreibern von Wasserkraftanlagen in der Schweiz das Geschäft.

Bild 2: Die Strompreise an der EPEX sind mit dem Ausbau der deutschen Solar- und Windanlagen immer tiefer gefallen (Grafik: Proteus Solutions GbR)

Strompreisentwicklung eines typischen Schweizer Laufwasserkraftwerks

Bei diesem Preisniveau können Wasserkraftwerke schon längst nicht mehr mithalten. Für Deutschland mit seinem im Vergleich niedrigeren Preisniveau liegen die Gestehungskosten für Strom aus Wasserkraft bei 10,2 €/ MWh [WAKO]. Dennoch konnte das hier beispielhaft betrachtete Laufwasserkraftwerk noch 2002 bei einem Abgabestrompreis von 7,5 CHF/ MWh mit zufriedenstellendem Ertrag wirtschaften. Dieser Strompreis muss jedoch in regelmäßigen Abständen mit den Abnehmern – regionalen Netzbetreibern, Gemeinden usw. – neu ausgehandelt werden. Da sich diese inzwischen auch am internationalen Markt orientieren, ist er aufgrund des aus Deutschlands hereindrängenden Dumpingstroms in den letzten Jahren kontinuierlich zurückgegangen. Aktuell kann das Wasserkraftwerk für sein Produkt deshalb nur noch 6 CHF/ MWh (umgerechnet 4,9 €/ MWh) erzielen. Berücksichtigt man die seit 2002 fortschreitende Inflation, so sind die realen Einnahmen des Kraftwerks für sein Produkt „Strom aus Wasserkraft“ seit 2002 um 25 % zurückgegangen.

Zukunftsperspektiven

Der Blick auf diese Zahlen zeigt, dass sich Schweizer Betreiber von Laufwasserkraftwerken bisher im Prinzip hervorragend geschlagen haben. Bis jetzt war es ihnen möglich, Strom für knapp die Hälfte des vergleichbaren Preises in Deutschland zu erzeugen. Mit dem tendenziell immer weiter sinkenden Niveau ist jetzt jedoch das Ende der Möglichkeiten erreicht. Zum einen drückt aufgrund der langen Abschreibezeiträume der Kapitaldienst selbst für Investitionen, die bereits vor 30 Jahren vorgenommen wurden. Hinzu kommen erhebliche laufende Kosten für Reparatur und Instandhaltung, da ein solches Kraftwerk im Betrieb einem erheblichen Verschleiß unterliegt. Dies betrifft sowohl die eigentlichen Generatoren als auch periphere Einrichtungen wie die Reinigungsanlagen für die Rechen, welche Schwemmgut aus den Turbineneinlässen heraushalten. Hinzu kommt der Instandhaltungsaufwand für die Baulichkeiten und sonstigen Einrichtungen über und unter Wasser, die durch Strömung und Erosion ständig Schäden erleiden und instandgesetzt werden müssen. Zudem muss für die Einrichtungen ausreichend Personal vorgehalten werden, sowohl für die laufende Überwachung und Instandhaltung als auch für den Bereitschaftsdienst bei Notfällen. Ein Ausdünnen der Personaldecke ist aufgrund der meist ohnehin geringen Belegschaftsgröße solcher Kraftwerke kaum denkbar.

Mit dem langfristig weiter sinkenden Preisniveau an den Strombörsen ist daher ein „Kipppunkt“ erreicht, ab dem der Betrieb nicht mehr sehr viel länger aufrechterhalten werden kann. Es drohen Schließungen und der Verlust von Arbeitsplätzen. Die völlig überzogene Förderung sogenannter erneuerbarer Energien in Deutschland ist dabei, die umweltfreundliche Wasserkraft in der Schweiz aus dem Markt zu drängen. Und in den Belegschaften wächst die Sorge um die Sicherheit der Arbeitsplätze.

Fred F. Mueller

Quellen:

[PROT] http://www.proteus-solutions.de/~Photovoltaik/Strompreis:tM.F06!sM.EX1.asp

[WAKO] http://www.stromerzeugung-stromverbrauch.de/Stromerzeugung/Stromerzeugungskosten/Stromerzeugung-Kosten.html




Neues aus der wunderbaren Welt der Temperaturdaten-Korrekturen

Aber wo endet die wissenschaftlich berechtigte „Korrektur“ und wo beginnt die fragwürdige Manipulation? Die Klimawissenschaften haben sich in den letzten Jahrzehnten zu einem hochpolitisierten Fach entwickelt, indem kleine Eingriffe in die Datenbasis eine große politische Wirkung entfalten können. Sollten sich einige „Korrekturen“ bei einer unabhängigen Überprüfung als unnötig und ideologisch getrieben herausstellen, könnte dies durchaus eine Straftat sein. Bereits 1907 hatte der US-amerikanische Wettdienst vor solchen Manipulationen gewarnt (Scan mit Dank an Real Science):

Übersetzung des Textes rechts aus dem Jahr 2007:

Monthly Weather Review

Januar 2007

Ist Ehrlichkeit nicht die klügste Politik?

Es ist falsch, die Aufzeichnungen eines beobachteten Naturphänomens zu verstümmeln oder zu unterdrücken, aber es ist auch falsch, die Aufzeichnung zu missbrauchen. Tatsächlich ist es der Missbrauch meteorologischer Daten, nicht die Beobachtung oder die Veröffentlichung, ein Verbrechen gegen die Gemeisnchaft. Beobachtung und sorgfältige Forschung müssen als nützlich ermutigt werden. Die Independent Press sollte als „Stimme des Volkes“ nicht nur „Vox Populi“ sein, sondern „Vox Dei“ und alle Schummeleien und Betrügereien unterlassen. Sie sollte die Wahrheit und die Interessen zum Wohle der ganzen Nation gegen Eigeninteressen verteidigen

Vor etwa zwei Jahren, Mitte 2012, haben wir an dieser Stelle eine Einführung in das Thema gegeben (siehe unseren Blogartikel „Die wunderbare Welt der Temperaturdaten-Korrekturen: Und plötzlich hatte sich der Trend ins Gegenteil verkehrt…”.). Der Artikel wird auch heute noch regelmäßig über Google gefunden und gelesen und hat bereits vielen Lesern die Augen geöffnet. Nein, es handelt sich leider nicht um eine Verschwörungstheorie der „Klimaskeptiker“, es ist ein reales Problem, das zu lange unter dem Radar geblieben ist. Im Folgenden wollen wir uns anschauen, wie sich die Diskussion zur Temperaturdaten-Korrektur in den letzten 24 Monaten weiterentwickelt hat.

Am 7. Juli 2014 veröffentlichte Zeke Hausfather auf Judith Currys Klimablog Climate Etc. unter dem Titel „Understanding adjustments to temperature data“ einen Rechtfertigungsversuch, weshalb alle Korrekturen als legitim zu betrachten wären. Zeke Hausfather ist ein Energiesystem-Analyst und Umweltökonom, der einst an der BEST-Temperaturstudie der University Berkeley beteiligt war. Hausfather räumt gleich zu Beginn seiner Abhandlung ein, dass die modifizierten US-Temperaturen stark von den ursprünglichen Messwerten abweichen:

Adjustierungen haben große Auswirkungen auf die Temperaturtrends in den USA und auch gewisse Auswirkungen auf globale Festlands-Temperaturtrends. Die große Menge von Adjustierungen auf US-Temperaturtrends im Zeitmaßstab von Jahrhunderten verleiht aus sich selbst heraus das unglückliche Narrativ, dass die „Regierungs-Bürokraten die Bücher fälschen“.

Die Materie ist technisch und schwierig. Bereits zuvor hatten Hausfathers Ansichten auf WUWT Kritik hervorgerufen (Beiträge von Bob Dedekind und Willis Eschenbach im Juni 2014). Wer liegt richtig, wer liegt falsch? Im Mai 2014 hatten Anthony Watts und Hausfather auf WUWT sogar einen gemeinsamen Artikel, der Diskrepanzen im Temperaturdatensatz des United States Historical Climatology Network (USHCN) zum Thema hatte. Im Gegensatz zu Steve Goddard sieht Klimaskeptiker Watts einen Teil der Temperaturkorrekturen durchaus als gerechtfertigt an. Trotzdem gab es im Juni 2014 dann doch einen Vorfall bei dem Watts Goddard Recht gab und USHCN in die Pflicht nahm. Die Fronten in dieser Diskussion sind daher alles andere als klar. Ende Juni 2014 brachte Judith Curry eine gute und wohlgewichtete Bestandsaufnahme der für Außenstehende verworrenen Diskussion.

Grundsätzlich ist es schon etwas verdächtig, wenn stets die Vergangenheit künstlich kälter gemacht wird als ursprünglich gemessen. Ohne „Korrektur“ würden die heutigen Temperaturen der USA lediglich auf dem Niveau der 1930er Jahre liegen. Eine Erwärmung wäre dann für die letzten 80 Jahre nicht erkennbar. Im Gegenteil, es wäre sogar eine Abkühlung eingetreten.

In einem Manuskript bemängelte 2012 auch Frank Lansner die erheblichen Modifikationen, die am US-Temperaturdatensatz durchgeführt wurden:

Temperaturentwicklung in den USA von 1880 bs 2010 aus nicht adjustierten GHCN V2-Daten

Weltweite Temperaturtrends werden verwendet, um ein Erwärmungssignal infolge des zunehmenden CO2-Gehaltes zu schätzen. Sie sind folglich die Schlüsselparameter für die Grundlage einer angemessenen Klimapolitik. Trotz der Tatsache, dass das zusammenhängende Gebiet der USA die beste Verfügbarkeit von Temperaturdaten in der Welt aufweist, gibt es eine große Differenz zwischen jüngst (2) und früher (1) veröffentlichten Temperaturdaten von GISS. Dies wirft die Fragen nach der Robustheit der Daten auf. Der aus den nicht adjustierten Daten des Global Historical Climate Network (GHCN) berechnete Temperaturtrend in den USA zeigt, dass die dreißiger Jahre die wärmste Dekade waren, etwa 0,2 K wärmer als 2000 bis 2009. Der berechnete Temperaturtrend basiert auf Daten von 826 Stationen und ist praktisch identisch mit dem von Hansen et al. (1) berechneten Temperaturtrend. Der berechnete Temperaturtrend von 1930 bis 2010 ist etwa 0,5 K kälter als der aktualisierte GISS-Temperaturtrend in den USA (2) und etwa 0,4 K kälter als der aus den HadCRUT-Stationen berechnete Temperaturtrend. Der in den HadCRUT-Daten gefundene verstärkte Erwärmungstrend scheint mehr auf die Auswahl der Messstationen als auf die Adjustierungen der Stationsdaten zurückzuführen zu sein.

Bereits Balling & Idso hatten 2002 auf das Problem in den Geophysical Research Letters hingewiesen. Eine weitere Betrachtung steuerte 2013 Paul Homewood bei. Jim Steele führt auf Landscapes & Cycles eine ganze Reihe an fragwürdigen Korrekturbeispielen aus den USA an.

Die Diskussion erstreckte sich auch auf die Behandlung einzelner Monate, so etwa den Juli-Wert (Real Science, WUWT). Walter Dnes wies am 23. August 2014 auf WUWT darauf hin, dass die verschiedenen Monate offenbar in unterschiedlicher Weise korrigiert werden. US-Temperaturen der jüngeren Jahre sind offenbar besonders stark nach oben korrigiert worden (hier, hier, hier). Auch wird die Korrektur mit jeder neu eingeführten Datensatzversion auf mysteriöse Weise stärker. Zum Teil scheinen die offiziell mitgeteilten Korrekturen nicht einmal in der hauseigenen Datenbank enthalten zu sein.

Noch Ende der 1980er Jahre hatte man die Wärme der 1930er Jahre klaglos anerkannt. In der New York Times war am 4. Februar 1989 Erstaunliches zu lesen:

Kürzlich haben Wissenschaftler der NOAA gesagt, dass eine Studie von Temperaturmessungen für die 48 Kernstaaten der USA während des vorigen Jahrhunderts gezeigt haben, dass es während dieser Zeit keine signifikante Änderung der mittleren Temperatur gegeben hat. Dr. Phil Jones sagte in einem Telefoninterview, dass seine eigenen Ergebnisse für die 48 Staaten mit diesen Ergebnissen übereinstimmen.

Selbst zehn Jahre später, 1999, konnte James Hansen über die US-Temperaturgeschichte nichts anderes berichten:

Empirische Beweise unterstützen die Aussage nicht, dass sich das Klima plötzlich hin zu extremerer Hitze und Dürre bewegt (…) In den USA gab es während der letzten 50 Jahre, also dem Zeitraum rapide zunehmender Treibhausgas-Konzentrationen, kaum eine Änderung der Temperatur – tatsächlich gab es sogar eine leichte Abkühlung in den meisten Gebieten der Nation.

Mysteriöse Vorgänge auf Island

Ähnlich wie in den USA liegen in Island die heutigen Temperaturen auf dem Niveau der 1930er/40er Jahre. So berichtet es der Isländische Wetterdienst, und der sollte es wissen. Die globalen Datenkorrektoren sehen dies jedoch anders und haben kräftig mit ihrem Zauberstock in der Datensuppe herumgerührt. Schaut man sich die korrigierten Daten des Global Historical Climatology Network (GHCN) an, dann könnte man glauben, Island hätte sich in den letzten 70 Jahren erwärmt. Vormals harte Daten bekommen weiche Knie. Paul Homewood hat im Oktober 2012 auf WUWT die Misere detailliert protokolliert. Kurz darauf meldete sich auch David Stockwell auf der Webplattform zu Wort und zweifelte ebenfalls die Korrekturmethoden an. Wibjörn Karlén, ehemaliges Mitglied Royal Swedish Academy of Sciences, wirft GISS und NASA regelrechte Manipulation vor und geht auf das Island-Beispiel in einem Manuskript auf geoclimate.se ein. Im Tallbloke-Blog beschäftigte sich auch Roger Andrews mit den fragwürdigen Vorgängen auf Island. Zudem erschien im Dezember 2013 auf der Webseite der Swedish Stockholm’s Initiative ein Beitrag von Magnus Cederlöf, in dem die isländische Temperatur-Manipulation Schritt für Schritt enthüllt wurde.

Ganz ähnlich sieht die Situation übrigens in Norwegen aus. Hier eines der bekannten Vorher-Nachher-Charts von Steven Goddard:

Auch in den Niederlanden wurde kräftig korrigiert, wie Frank Lansner 2012 auf WUWT darlegte.

Asien, Ozeanien und Antarktis

In China sind Zhang et al. 2014 ebenfalls auf Korrekturprobleme gestoßen, die die Erwärmung offenbar stärker aussehen lassen, als sie in Wirklichkeit wohl ist. Eine ausführliche Diskussion des Papers gibt es auf WUWT von Anthony Watts. Auszug aus der Kurzfassung der Arbeit:

Auswirkunen der Daten-Homogenisierung auf die Schätzung des Temperaturtrends: Der Fall der Huairou-Station in der Stadt Peking

Unsere Analyse zeigt, dass Daten-Homogenisierungen für Stationen, die aus den Innenstädten an den Stadtrand verlegt wurden, zu signifikanten Überschätzungen steigender Trends der Lufttemperatur führen kann, und dies erfordert eine sorgfältige Evaluierung und Adjustierung der städtischen Verzerrungen, bevor man die Daten für Analysen der lokalen und regionalen Klimaänderung verwendet.

Interessanterweise liegen die Originalmessungen des japanischen Wetterdienstes JMA (hellblaue Kurve) deutlich unter den korrigierten Japan-Werten der internationalen Temperaturdatenbanken:

Gehen wir nun nach Australien. Roger Andrews berichtet aus dem Outback 2012, wie dort per Korrekturformel theoretische Erwärmung herbeigerechnet wurde. Im November 2013 publizierte Alberto Boretti im Fachjournal Theoretical and Applied Climatology eine Untersuchung zur Temperaturentwicklung im Northern Territory für die letzten 130 Jahre. Boretti fand, dass kaum eine Erwärmung feststellbar ist, wenn man die Datenkorrektur solide durchführt. Hier die Kurzfassung (mit Dank an The Hockey Schtick):

Das Nördliche Territorium von Australien befindet sich in der einmaligen Lage, eine Ausdehnung größer als Frankreich zu haben mit einer Bevölkerung von 200.000 und nur drei meteorologischen Stationen, die seit über 40 Jahren in Betrieb sind. Das sind die Stationen Darwin (DW), Alice Springs (AS) und Tennant Creek; und nur zwei davon, nämlich DW und AS, messen seit über 100 Jahren. Diese Stationen liegen 500 km voneinander und über 1000 km von benachbarten Stationen in Australien entfernt. Die Homogenisierung von Daten zwischen unterschiedlichen Messstellen an der gleichen Stelle ebenso wie die Methode, die fehlenden Daten abzuleiten, um mindestens 100 Jahre mit Daten abzudecken, werden detailliert analysiert, und die Auswirkungen auf die Temperaturtrends werden gleich danach untersucht. Die Verwendung ordnungsgemäß homogenisierter Daten aus über 130 Jahren und eine lineare Anpassung (fitting) ergibt hinsichtlich der Maximum- und Minimum-Temperaturen einen Trend von +0,009°C und +0,057°C pro Dekade für Alice Springs sowie -0,025°C und 0,064°C pro Dekade für Darwin. Mit den verfügbaren Daten besteht die einzige Option zur Erzeugung von Erwärmungstrends darin, die kalten Jahre Mitte der siebziger Jahre überzubetonen, was die Rückkehr zu wärmeren Temperaturen erhöht. Die Berechnung von Trends mit Beginn im Jahre 1980 zeigt immer noch eine klare Erwärmung in Alice Springs, aber ebenso klar eine Abkühlung in Tennant Creek, und ein gemischtes Verhalten mit steigenden Höchsttemperaturen und fallenden Tiefsttemperaturen in Darwin.

Schöne australische Vorher-Nachher-Bilder gibt es im Hockey-Schtick Blog zu bewundern. Hier zwei Beispiele:


Am 23. August 2013 griff dann die Tageszeitung The Australian die fragwürdige Datenmanipulation in zwei Artikeln auf (Artikel 1, Artikel 2), was große Wellen schlug:

Heiße Debatten zum Thema ,Wetteramt homogeniesiert Temperaturaufzeichnungen‘

Als im Januar 2011 Brisbane von einer Überschwemmung heimgesucht worden war, haben die Wassermassen in der Tiefgarage eines Gebäudes in dem Vorort St. Lucia am Fluss ein Corvette Sportauto absaufen lassen. Vergleicht man es mit dem Maßstab der Schäden von Dollar in Milliardenhöhe, zu der es in der Stadt durch diese vom Menschen verursachte Flut gekommen ist, scheint der Verlust eines Sportwagens nicht viel zu sein. Aber dieser Verlust fungierte als Katalysator für wachsende Zweifel und ernste Fragen an das staatliche australische Wetteramt hinsichtlich seiner Kompetenz und Integrität, die weit über die Sommerunwetter hinausgehen. Es geht bis ins Herz der Debatte um die Klimaänderung und im Besonderen darum, welche Computermodelle besser sind als reale Daten und ob die Temperaturaufzeichnungen manipuliert worden sind in einer Weise, dass jedes Jahr wärmer erscheint als das voran gegangene.

Wetteramt ,verändert Klimaangaben‘

Dem Wetteramt BOM ist vorgeworfen worden, historische Temperaturaufzeichnungen manipuliert zu haben, so dass sie danach zu einer vorbestimmten Ansicht bzgl. der globalen Erwärmung passen. In einem Streit mit BOM, dessen Anfänge bis zurück zur Brisbane-Flut im Januar 2011 reichen, hat die Forscherin Jennifer Marohashy behauptet, dass die adjustierten Temperaturreihen mehr „Propaganda“ als Wissenschaft seien.

Auszüge aus den nur für Abonnenten zugänglichen Artikeln finden Sie bei JoNova. Auch The Daily Caller griff das Thema auf. Im Laufe der sich daraufhin entwickelnden Diskussion kamen krasse Datenbehandlungsfehler durch den Australischen Wetterdienst ans Licht, so dass der Ruf nach personellen Konsequenzen laut wurde. Unter anderem redet sich der Dienst mit Wetterstationsverlegungen heraus, die er jedoch nicht belegen kann. Wiederum lohnt es sich, die Details bei JoNova nachzulesen.

Auch aus der Antarktis sind beeindruckende und erwärmende Korrekturen zu vermelden. Roger Andrews brachte dazu im Tallbloke-Blog eine schöne Vorher-Nachher-Graphik:

Globaler Korrekturwahn

Wenn man die Vielzahl der lokalen Korrekturen zusammenrechnet, kommt in der globalen Summe ein schöner Batzen zusammen. Ole Humlum von Climate4you zeigte im Juni-2014-Klimarundschreiben eine überraschende Graphik, in der die Entwicklung des Korrekturfaktors im Laufe der letzten 6 Jahre dargestellt wird (Abbildung unten). Während der Januar 2000 stetig künstlich wärmer gemacht wurde, gedachte man dem Januar 1915 das genaue Gegenteil an, nämlich man kühlte ihn immer weiter ab. Das National Climatic Data Center (NCDC) wird sicher eine gute Erklärung dazu haben?

Steven Goddard fand eine ganze Reihe von weiteren Korrekturen bei der NASA, angeregt durch den ehemaligen GISS-Chef und Klimaaktivisten James Hansen (hier, hier). Zum Teil wurden bereits frühere Archivversionen von der NASA vom Netz genommen bzw. gesperrt, damit die Entwicklung des Korrekturfaktors nicht mehr zurückverfolgt werden kann. Auch WUWT fand immer wieder Hinweise auf derlei mysteriöse Datenmodifikationen (hier, hier, hier, hier). Greg Goodman verfasste in Judith Currys Blog eine längere Analyse zur Problematik unter dem Titel „On the adjustments to the HadSST3 data set“. Goodman schlussfolgert, dass mit Ausnahme einiger Korrekturen für Werte aus dem Zweiten Weltkrieg, keine solide Basis für den Korrekturaktivismus vorliegt. Viele Veränderungen der Originaldaten basieren auf reiner Spekulation, die den Datensatz eher verschlechtern als verbessern. Die hinfort korrigierten “Anomalien” stellen vermutlich oftmals reale Temperaturentwicklungen dar. Hier Goodmans Schlußfolgerungen im Orginal:

HadSST3 enthält eine Reihe von Adjustierungen. Mit Ausnahme der Störungen zu Kriegszeiten sind sie auch durch Studien der Reihen nicht offensichtlich. Ihre Existenz basiert auf Spekulation und Hypothesen. Die Berechnung der Verzerrungen involviert eine Umkehrung eines wichtigen Teils der geschriebenen Metadaten der Aufzeichnung während der Periode hauptsächlicher Adjustierungen und ignoriert detaillierte Studien zum Verhältnis und der zeitlichen Abfolge der Änderungen bei der Datensammlung ebenso wie eine Spekulation hinsichtlich der Größenordnung der verschiedenen Effekte. Der hauptsächliche Effekt dieser Adjustierungen ist es, selektiv den größten Teil der langzeitlichen Variation aus den früheren zwei Dritteln der Datenreihe zu entfernen und deutlich in den Daten erkennbare etwa 10 bis 11-jährige Verteilungen zu unterbrechen. Diese Änderungen verändern den Charakter der Originaldaten fundamental. Die große Ähnlichkeit der Form zwischen den Variationen in den originalen ICOADS-Daten und den als notwendig erachteten Korrekturen bei der Stichprobe der Verzerrungen ist bemerkenswert. All dies gilt noch stärker vor dem Hintergrund, dass dokumentarische Informationen über die Grundlage der geschätzten Größenordnung und zeitlichen Abfolge der Adjustierungen fehlen. Die hier präsentierte Analyse zeigt, dass außerhalb der Zeit unmittelbar während des Krieges diese Adjustierungen die Daten verzerren und wertloser machen anstatt sie zu verbessern. Eine Anzahl verschiedener Analysen zeigt, dass eine einfache Korrektur der Kriegszeit (wie sie vor Gründung des Hadley Centers angewendet worden war) ein viel kohärenteres und glaubwürdigeres Ergebnis zeitigt. Ein Vergleich mit Studien von Nicht-Wassertemperatur-Daten [non SST data] zeigt, dass vieles der Variationen in den ICOADS-Daten ziemlich sicher realen Klimasignalen geschuldet sind und nicht Verzerrungen von Instrumenten. Diese Variationen müssen angemessen untersucht werden, anstatt sie a priori aus den Klimaaufzeichnungen zu entfernen.

Quo vadis Temperaturkorrektur? Wann platzt die Blase?

Link bei der „kalten Sonne“: Neues aus der wunderbaren Welt der Temperaturdaten-Korrekturen

Übersetzung der englischen Passagen von Chris Frey EIKE

Hinweis des Übersetzers: Dieser Artikel enthält mehrere Vorher – Nachher – Graphiken. Diese sind im Original einsehbar, ließen sich aber hier nicht übernehmen. Darum habe ich die Abbildungen als Standbilder nach dem Prinzip vorher – nachher dargestellt.

C. F.




Motive der Wissenschaft für die Energiewende: EU finanziert 14 Doktorandenstellen zur Förderung der Windenergie

Meine Antwort darauf ist immer dieselbe. Wissenschaftler sind eben auch nur Menschen. Einige glauben an das, was sie da sagen oder schreiben und meinen es daher ehrlich und ernst und können partout nicht einsehen, dass sie einem unwiderlegbarem, aber trotzdem Dogma erliegen, dass durch ihre Wissenschaft nicht bestätigt werden kann. Andere wiederum heulen mit den Wölfen und tragen durch stillschweigendes Mitmachen zur Verfestigung des Dogmas bei, sichern aber damit ihre Jobs evtl. sogar ihre Karriere.

Als ein Beleg dafür wie solche Karrieren entstehen oder verfestigt werden zitiere ich aus einer Mail eines mir Bekannten, dazu Windkraft-Unternehmers, der – und dafür gebührt ihm Achtung und Anerkennung- sein zuvor sauer verdientes eigenes Geld in die Entwicklung neuer Formen der Ernte der Windenergie steckt, nämlich durch den Einsatz von Drachen die in 500 m Höhe den dortigen Wind abernten sollen. Eine Teststrecke dazu in Friedland (Mecklenburg Vorpommern) hat er (vermutlich) weitgehend privat finanziert. Sie ist wieder in Betrieb, wie er stolz in der Mail verkündete.

In seiner letzte Rund-Mail u.a. auch an mich, berichtete er deshalb von Fortschritten in der Sensorik, und anderen Komponenten, die die Zuverlässigkeit  seiner Erfindung steigern würde. Und dann kommt der Satz, der zu diesem Artikel führt.

Drei Millionen neue EU Fördergelder für die Erforschung der Höhenwindenergien

Gefolgt von der Mitteilung:

Zitat: Gute Nachrichten aus Brüssel: Die EU hat gerade ein Förderprogramm genehmigt, mit dem die Forschung an Höhenwindtechnologien weiter Fahrt aufnimmt. In das Programm "Airborne Wind Energy System Modelling, Control and Optimisation" investiert die EU drei Millionen Euro an Fördergeldern. Bei unserem Partner, der Technischen Universität Delft in Holland, werden dafür insgesamt 14 Doktorandenstellen geschaffen. (Hervorhebung vom Autor) NTS profitiert als Mitglied des Konsortiums von den Forschungsergebnissen. Darüber hinaus steigt die öffentliche Wahrnehmung für Höhenwindenergie als wirtschaftlich hochinteressante Energiequelle. Zitatende

Dieser kurze Hinweis ist symptomatisch für das ganze System. Mittels Steuergeldern – und etwas anderes sind EU Mittel auch nicht- wird nur nach Gusto der herrschenden Systemmeinung, auch in der lt. Grundgesetz (Freiheit der Wissenschaft) unabhängigen Forschung eine feste Abhängigkeit geschaffen, die zu 100 % sicher stellt, dass die so Begünstigten schon das Gewollte, das zum „Richtigen“ per Geld definiert wird, "erforschen".  Und das lässt sich auch an allen deutschen Hochschulen und Forschungs-Instituten erkennen. Diese Meldung hier ist daher leider nur ein Beispiel von vielen.

Wie weit dieses „Förderung“ geht, böse Zungen könnten auch Bestechung dazu sagen, bewies mir vor wenigen Tagen ein verdienter Vertreter der Wissenschaft, Physiker und Universitätsprofessor (em), allseits akzeptiert, in vielen Gremien aktiv und hoch anerkannter Fachmann, sowie nach eigener Auskunft auch Politikberater. Der stellte in einem Fachvortrag unmissverständlich und schonungslos die wichtigsten – weitgehend nicht mal im Ansatz gelösten- Probleme vor, die samt und sonders erst durch die Energiewende entstanden sind. Sie gefährden aufs Ernsteste unsere bis dato weltweit beste Energieversorgung.

Doch nachdem er all dies unmissverständlich verkündet hatte, war seine Schlussfolgerung nicht etwa wenigstens ein Moratorium, oder gar eine totale Umkehr von diesem Irrweg zu fordern, sondern er forderte einzig und allein mehr Mittel für die Forschung. Seine Begründung: Die Energiewende sei richtig und gut -auch zur Bekämpfung des Klimawandels, somit höherwertig, alles andere sei unverantwortlich.

Soweit zu den Motiven vieler in der Wissenschaft

Falls Sie sich an den oben genannten Drachen-WKA beteiligen wollen

Hier der Rest der Email des Windkraft Unternehmers:

Unterstützen Sie uns mit Förderdarlehen!

Wir haben ein Modell entwickelt, mit dem Sie ein Teil unserer Idee werden und finanziell von unserem Erfolg profitieren können. Für Ihr Darlehen an uns, bieten wir Ihnen eine garantierte Verzinsung von bis zu 8%. Zusätzlich können Sie eine Ergebnisbeteiligung sowie einen Bonuszins erhalten. Jeder Investor wird darüber hinaus auf einem von uns errichteten „Monument“ verewigt.Um unseren nächsten großen Schritt gehen zu können, benötigen wir insgesamt rund 3,5 Mio. EUR. Mit diesem Geld werden wir einen 700m langen Rundkurs errichten, auf dem wir mehrere Elektrowagen im Parallelbetrieb fahren lassen können. Ein wichtiger Baustein auf dem Weg zur Markteinführung.

Viele von Ihnen haben uns bereits auf diesem Weg unterstützt. Wir möchten die Gelegenheit nutzen und uns hier nochmals herzlich bedanken. Das Geld hat uns geholfen, die oben beschriebenen Entwicklungsschritte zu realisieren. 

Helfen Sie uns weiter zu wachsen und werden Sie ein Teil unserer Vision! 

>Mehr Information zum Förderdarlehen




Das „Treibhaus“ treibt Journalisten in die Glaubwürdigkeitskrise- „Diese Welt braucht mutige Journalistinnen und Journalisten“

Weitere Forderungen zwecks Rückgewinnung von Vertrauen in die Arbeit von Journalisten sind: „Wir dürfen niemals die Regeln unseres Handwerks verlassen.“ Oder: „Gründliche Recherche, richtig geht immer vor schnell. Das ist der Unterschied zwischen einem Gerücht und einer Nachricht.“ Nur so könne der Leser lernen zu unterschieden, ob etwas relevant oder irrelevant ist. Doch kann dies ein Journalist, wenn die Überbringer von Botschaften wissenschaftliche Gremien oder Arbeitsgruppen von Experten sind, die Themen oder Probleme ansprechen, die völlig neuartig sind und zwecks Überprüfung ein Fachwissen erfordern, über das auch ein qualifizierter Journalist nicht verfügt. Wichtig ist es, bei Pressepräsentationen eine emotionale Distanz und damit seine Kritikfähigkeit zu wahren.

Am 26. August 2014 erging eine Presseeinladung der Michael Otto Stiftung für Umweltschutz, des Potsdam-Instituts für Klimafolgenforschung und der Technischen Universität Berlin durch das PIK in Potsdam. Ort waren die Mozartsäle in Hamburg. Der Titel der Veranstaltung lautete: „Klimawandel und Klimaschutz: zwischen globaler Transformation und nationalen Herausforderungen“. Als Anreiz wurde angeboten eine Podiumsdiskussion mit Bundesumweltministerin Hendricks. Zelebriert wurde der Abschluss der Förderung der Professur „Ökonomie des Klimawandels“ an der Technischen Universität Berlin. Doch kein Journalist entzog sich der „Gleichförmigkeit der Meinung“. Keiner hatte den Mut zu fragen, wie man das Klima, das ein Konstrukt darstellt und von langjährigen Wetterbeobachtungen abhängt, schützen könne. Das Wetter gehört zu den irreversiblen Naturvorgängen. Es kann weder rückgängig noch ungeschehen gemacht werden und seinen Wandel, der jedwedem Klimawandel zugrunde liegt, kann auch kein Mensch beeinflussen, nicht einmal eine Weltmacht wie die Vereinigten Staaten vor Amerika oder die Vereinten Nationen. Die Ohnmacht vor dem Wetter wird zu kaschieren gesucht durch eine angebliche Macht über das Klima. Aber auch eine „globale Transformation“ und die Schaffung einer „Weltregierung“ würde an der Allgemeinen Zirkulation mitsamt der Wettervielfalt auf der Erde nichts ändern.

Mögen sich auch Deutsche Unternehmer mitsamt ihrer „Stiftung 2°“ für Klimaschutz aussprechen und sich dem staatlichen Diktat „Klimaschutz“ wohlgefällig beugen, das Wetter nimmt dies nicht zur Kenntnis und macht weiter, was es will. Es ist nach wie vor als „chaotisches System“ so unverstanden und unberechenbar, dass es sich jeder mittelfristigen Vorhersage entzieht. Wie das Weihnachtswetter regional in Deutschland ausfallen wird, das steht sprichwörtlich „in den Sternen“!

„Die Katastrophen sind die Saturnalien der Journalisten“

Die Saturnalien waren ein römischer Festtag am 17. Dezember zu Ehren des Gottes Saturn, der als Herrscher des urzeitlichen „goldenen Zeitalters“ galt. Wichtigster Aspekt der Saturnalien war die Aufhebung der Standesunterschiede. Auch Sklaven wurden an diesem Tag von ihren Herren wie Gleichgestellte behandelt. An einigen Universitäten wie Göttingen, Kiel und Köln werden „Saturnalien“ als studentisches Fest veranstaltet, bei dem man in der Vorweihnachtszeit mit den Dozenten „abrechnet“. Wenn Gerd Ruge als Journalist „Katastrophen“ als „Saturnalien“ der Journalisten bezeichnet, dann fand so ein Ereignis am 22. Januar 1986 im Hotel Tulpenhof in Bonn statt.

An diesem Tag hatte die Deutsche Physikalische Gesellschaft e. V. zu einer Pressekonferenz eingeladen, um den Journalisten die „Warnung vor der drohenden Klimakatastrophe“ zu präsentieren. Unter Aufhebung der Standesunterschiede wurde von Professoren den Pressevertretern Einblick in die Geheimnisse moderner physikalischer Forschung gegeben. Erläutert wurde die Rolle des CO2 als potentielle Gefahrenquelle für weltweite Klimaveränderungen. Die Wirkung des CO2 wurde mit der Wirkung der Glasabdeckung eines nur durch Sonneneinstrahlung „beheizten“ Treibhauses verglichen. Bei Verdoppelung des CO2-Gehaltes sollte die Temperatur in äquatornahen Breiten um 2°C, in „unseren Breiten“ um 4°C und in polnahen Breiten um 8°C steigen und eine Verschiebung der Klimazonen bewirken. Verschwinde das schwimmende Eis am Nordpol und auch das Eis über der Antarktis, dann würde der Meeresspiegel sukzessive bis zu 60 Meter ansteigen.

Dies wäre die ideale Stunde für kritischen Journalismus gewesen, doch dieser erstarrte aus Ehrfurcht vor der Weisheit der physikalischen Prominenz, repräsentiert durch die Physikprofessoren K. Heinloth (Bonn) und J. Fricke (Würzburg). Kein Journalist wagte zu fragen, was die Physiker das „Klima“ anginge, das statistisch vom Wetter abgeleitet werde und daher lediglich den historischen Wetterwandel abbilde und widergebe. Im Gegensatz zum Wetter, das auf physikalischen Vorgängen in der Atmosphäre beruhe, sei „Klima“ kein Naturvorgang, der in irgendeiner Weise vom Menschen beeinflusst werden könnte. Zudem ist Wetter so komplex und vielfältig, dass es bis heute keine Definition von Wetter gibt. Und was das Wetter betrifft, so kann der Mensch dieses nicht verändern, indem er in die Allgemeine Zirkulation lenkend eingreift und die Winde so wehen lässt, wie es ihm gefällt.

Noch peinlicher wäre es für die Herren Physiker geworden, wenn ein Journalist die Courage gehabt hätte zu fragen, wie es nachts in dem „durch Sonneneinstrahlung beheizten Treibhauses“ aussieht. Warum es darin mit Sonnenuntergang empfindlich kalt wird, sich an den Scheiben sogar Eisblumen bilden und im Winter der Großteil der Treibhäuser leer steht, weil die Heizkosten unerschwinglich hoch sind und einen Gemüseanbau gänzlich unrentabel machen. Mit Glas kann man zwar ein Gewächshaus oder einen Wintergarten bauen, doch Glas ist ein guter Wärmeleiter und führt zu einer schnellen Auskühlung des Treibhauses. Mittels Doppel- und Dreifachverglasung kann man die Wärmeleitfähigkeit verringern, doch nur wegen der zwischen den Glasscheiben eingesperrten Luft. Luft, die stillgestellt ist, ist der schlechteste Wärmeleiter in der Natur.

 Die Propagandisten beziehen die „Prügel“, die die Protagonisten verdienen!

Journalisten sind wie Boten und schon in der Antike galt: Der Überbringer schlechter Nachrichten wird geköpft. Daher forderte Sophokles: „Töte nicht den Boten!“ Abstrakt ist ein Journalist der Überbringer einer Botschaft auf Veranlassung eines Senders an einen Empfänger. Der Sender ist die Deutsche Physikalische Gesellschaft. Sie lädt zu einer Pressekonferenz,  füttert Journalisten mit Informationen, die diese über die Medien an ein breiteres Publikum, das Volk als Empfänger, weitergeben und das politische Klima, den „Zeitgeist“, beeinflussen sollen. Bei Unglücks- oder Katastrophenbotschaften hat sich der Ausdruck „Hiobsbotschaft“ eingebürgert. Derartige Hiobsbotschaften sollen zum Nachdenken, zur Umkehr und Verhaltensänderung führen. Sie erfüllen einen politisch-pädagogischen Zweck, sind ein gesellschaftliches Regulativ. Doch sie müssen sinnvoll sein und es muss ein konkretes Schutzobjekt geben. Bisher hat noch kein Jurist das Schutzobjekt „Klima“, das nur als Abstraktum existiert, umreißen können.

Der Journalist steht vor der Gewissensfrage: Soll er die Botschaft ungeprüft übernehmen und weitergeben? Dann ist er nichts als ein Handlanger. Soll er die Botschaft kritisch werten, Fragezeichen setzen? Er würde damit die Entscheidung den Lesern, Zuhörern oder Zuschauern als mündige Bürger übertragen. Das könnte ihm Kritik eintragen. Oder soll er die Botschaft nehmen und dramatisieren, um Aufmerksamkeit zu erhöhen und den Absatz zu steigern? Das würde ihm sicher positiv angerechnet. Das Nachrichtenmagazin Der Spiegel wählte die dritte Variante und ließ auf der Titelseite am 11. August 1986 den Kölner Dom in der blauen Nordsee versinken. Der Spiegel bediente damit die mythische Angst vor der „Sintflut“ als Strafe Gottes für uns sündigen Menschen.

Der Journalist ist in einer durchaus tragisch-zwieträchtigen Rolle. Ist er nur ein Instrument und wie weit reichen seine Gestaltungsmöglichkeiten? Das Schlimmste wäre, wenn er als „nützlicher Idiot“ missbraucht würde. Ihm musste eine positive und wichtige Rolle zugewiesen werden. Und dies taten die „Experten“. In einem Aufsatz „Der Treibhauseffekt als journalistische Herausforderung“ beschrieben 1998 H.-P. Peters vom Forschungszentrum Jülich und M. Sippel vom Südwestfunk ihre Gedankengänge: „Umweltprobleme sind generell attraktive Themen für die journalistische Berichterstatten. So können sich Journalisten wegen des hohen Umweltbewusstseins sicher sein, dass das Thema interessierte Leser, Zuhörer und Zuschauer findet. Der Einsatz für den Umweltschutz gilt weithin als „sozial wünschenswert“. Journalisten, die sich dieser Themen annehmen, können daher mit sozialer Anerkennung rechnen. Der Journalist als „Warner“ vor Risiken und als Aufdecker von Missständen dürfte die beliebteste Rolle sein, in der sich Journalisten gefallen“. Die Journalisten konnten der Versuchung nicht widerstehen, erfüllten die in sie gesetzten Erwartungen, betrieben die „Skandalisierung“ von Umweltproblemen, prangerten die „Schuldigen“ öffentlich an und inszenierten im Muster simpler Mythen ein Schauspiel „das Gute im Kampf mit dem Bösen“, bei dem der Leser sich immer auf die moralisch richtige Seite der „Guten“ schlagen konnte.

Die „Klimaproblematik“ wurde mit dem sprachlichen Unwort „Klimakatastrophe“ durch die Deutsche Physikalische Gesellschaft eingeführt und vom Spiegel popularisiert. Über die Magazine Spiegel wie Stern wurde das Thema aktiv in die öffentliche Debatte eingespeist, bis es 1987 die mediale die politische Bühne eroberte und als „Klimapolitik“ einen Parteienwettbewerb entfachte darüber, wer in diesem unseren Lande der beste „Klimaschützer“ sei.

Peters und Sippel fassen zusammen: „Bei der Entstehung des Themas haben offenbar Wissenschaftler eine ungewöhnlich aktive Rolle gespielt. Nicht Umweltschutzbewegung, nicht Katastrophe, sondern die Warnungen von Wissenschaftlern, die bereit waren, sich auch öffentlich und politisch zu exponieren, waren international Pate der Klimadebatte. Auch in Deutschland fällt die aktive Rolle der Wissenschaftler auf“. In der amerikanischen Berichterstattung fällt zudem auf, dass die Zahl der Beiträge über den Treibhauseffekt mit der Lufttemperatur stieg. In den heißen Sommermonaten berichteten die Medien überproportional häufig über den Treibhauseffekt. Besonders der heiße Sommer 1988 wurde von James Hansen (NASA) genutzt, um die Folgen des Treibhauseffekts zu dramatisieren und im Kongress das psychologische Klima zu manipulieren. Das Wetter konnte und kann sich nicht wehren gegen solch unverschämten Missbrauch! Der amerikanische Kommunikationswissenschaftler L. Wilkins kritisierte 1993, dass die Treibhaus-Hypothese unhinterfragt übernommen wurde. Sie ist bis heute nicht durch Messungen belegt und muss mit dem Verweis auf eine „Konsensmeinung unter Experten“ geglaubt werden. Dabei sollte gerade der Glaube in der Wissenschaft verpönt sein. Wo sind die mutigen Journalisten, die den „Klimaexperten“ die entscheidenden Fragen stellen und sie wie den Kaiser in seinen neuen Kleidern entzaubern?

Die Journalisten sollten sich mit ihrer Rolle als Verbreiter einer Botschaft bescheiden und sich nicht auf das glatte Parkett der Erfinder und Propagandisten des „Treibhauseffektes“ samt „Klimakatastrophe“ begeben. Etwas mehr Bescheidenheit würde ihr Ansehen wie ihre Glaubwürdigkeit erhöhen.

Oppenheim, den 2. Oktober 2014                                                             

Dipl.-Met. Dr. phil. Wolfgang Thüne