1

„Todesgewitter“ – Ein unverantwortliches Bild-Spiel mit Ängsten!

Die Tatsache, dass bei einer Hitzewelle mit hoher Labilität Gewitter auch gehäuft auftreten, gibt jedoch noch keinen Grund, Panikstimmung zu erzeugen. Die Riesenschlagzeile von BILD am 11. Juni 2014 „Drohen uns solche Todesstürme jetzt häufiger?“ ist daher unverantwortlich und reine Sensationsgier, der sich seriöse Medien enthalten sollten. Wenn dann noch der „Wetter-Experte Jörg Kachelmann“ zitiert wird, der per Twitter verkündete „Achtung, Unwettergedöns im Westen/Nordwesten wahrscheinlich. Die Gewitter von heute Abend verstehen keinen Spaß und es ist nicht notwendig, einen Blödtod zu sterben,…“, dann ist das einfach „blöd“!

„Blöd“ ist auch, wenn Peter Hoffman vom Potsdam-Institut für Klimafolgenforschung (PIK) auf die Frage, ob „wir jetzt jeden Sommer mit solchen Todes-Stürmen rechnen“ müssen, fabuliert: „Klar ist: Deutschland wird sich künftig auf schlimmere Wetterextreme einstellen“ müssen. Das ist dummes Geschwätz, denn nichts ist klar. Das ist unverantwortlich. Das ist völlig spekulativ. Es gibt nicht den geringsten Hinweis für die Vermutung, solche speziellen Großwetterlagen könnten zukünftig zu einem sommerlichen Dauerzustand werden. Das ist Spökenkiekerei und hat mit seriöser Wissenschaft nichts zu tun, eher mit politisierter Wissenschaft.

Doch offensichtlich ist das die Arbeits-Maxime des staatlich geförderten PIK, dessen Existenz-Auftrag war und ist, der Politik und den Medien „Horrorszenarien“ zu liefern, um dem „Klimaschutz“ ein quasi-wissenschaftliches Mäntelchen umzuhängen und sich dem Volk zu zeigen wie der Kaiser in seinen neuen Kleidern. Was den Staat antrieb, im Jahre 1992 das PIK zu gründen, hat Friedrich Nietzsche (1844-1900) treffend formuliert: „Dem Staat ist nie an der Wahrheit gelegen, sondern nur an der ihm nützlichen Wahrheit, noch genauer gesagt, überhaupt an allem ihm Nützlichen, sei dies nun Wahrheit, Halbwahrheit oder Irrtum.“ Es wäre schön, wenn es nur „Irrtum“ wäre, was das PIK so alles hinausposaunt.

An uns gerichtet empfahl Nietzsche. „Wollt ihr hoch hinaus, so braucht die eigenen Beine! Lasst euch nicht empor tragen, setzt euch nicht auf fremde Rücken und Köpfe!“ Das erinnert stark an Immanuel Kant, der uns empfahl, den Mut zu haben, den eigenen Verstand zu benutzen, um uns aus der selbstverschuldeten Unmündigkeit zu befreien.

Spiele mit der Sehnsucht nach dem vorindustriellen Klimagleichgewicht

Seit im Jahre 1986 über die Deutsche Physikalische Gesellschaft das Wortungetüm „Klima-Katastrophe“ in die Deutsche Sprache eingeführt wurde und flugs zum modischen Schlagwort aufstieg, hat die eigens dafür installierte „Klimaforschung“ die Daueraufgabe, uns vor allen möglichen Klimagefahren zu warnen. Da das Klima eine abstrakte Größe ist und der Mensch sich alles und nichts darunter vorstellen kann, wurde der Begriff „Wetterextreme“ geprägt. Da dem „Klimawandel“ über die „Erderwärmung“ Richtung und Ziel vorgegeben wurden, müssen folgerichtig auch die „Wetterextreme“ zunehmen. Doch alle Versuche, anhand des Wetters diese Behauptung zu belegen, sind gescheitert. Das Wetter verhält sich chaotisch (!) und kennt keinen linearen Trend. Alle diesbezüglichen Prognose-Versuche sind kläglich gescheitert. Weder hat sich die Zahl der Sturmtiefs stetig erhöht, noch die Zahl der Sturmfluten, wie bei den Hitze- und Eistagen. Es ist ein unregelmäßiges Auf und Ab wie bei dem bis heute nicht erklärten und damit nicht verstandenen Wechsel von „Eis- und Warmzeiten“. Das Wetter kann man nicht nach der Uhr stellen!

Wenn solche Angstszenarien von staatlichen Forschungsinstituten produziert werden, dann ist „Ruhe die erste Bürgerpflicht“, dann empfiehlt sich immer eine Blick in die Geschichte. Da fiel mir aus der Kosmos-Bibliothek ein Büchlein „Sturmfluten“ in die Hand. Es wurde 1962 von Jürgen Hagel geschrieben. Zu Beginn wird ausführlich die Sturmflutkatastrophe vom 16./17. Februar 1962 und deren Schäden entlang der Nordseeküste beschrieben. War sie schon eine Folge der „Erderwärmung“, des „Klimawandels“? Solche Betrachtungen wurden gar nicht angestellt, denn sie standen noch nicht auf der „Agenda“ der Klimapolitik. Erst musste der Popanz vom „Klimakiller CO2“ aufgebaut werden, um ihm alle Schuld an allen Wettern, nein, nur den Unwettern, aufbürden zu können. Schauen wir nun in das Büchlein.

Der Wandel der Küstenlinie am Beispiel „Jade – Jadebusen“

„Die Bildung der Jade setzte mit der Julianeflut (17. 2. 1164) ein, die mit dem Rüstringer deich auch die durchgehende Küstenlinie durchbrach. Beide Rüstringen wurden dadurch voneinander getrennt. Neue Landverluste brachte die Marzellusflut von 1219. Mit der Clemensflut vom 23. 11. 1334 erhielt die Jade eine Verbindung mit der Weser, die Heete. Butjadingen wurde zur Insel. Drei Kirchdörfer verschwanden. Die zweite Marzellusflut (16. 1. 1362) setzte das Werk fort: Von Weser und Jade kommend, schuf sie zwischen beiden eine zweite Verbindung, das Lockfleth. Nun war auch das Stadland eine Insel. Gleichzeitig vergrößerte sich die Bucht im Westen, vor allem am Schwarzen Brack, und im Süden. Immer wieder mussten Gebiete ausgedeicht, d. h. die Deiche zurückverlegt werden. So sind für 1427/28, um 1491-1495, 1511, 1686, 1784 Landverluste oder Ausdeichungen belegt.“

An dieser Stelle möchte ich abbrechen, zumal den meisten von Ihnen die örtlichen Verhältnisse unbekannt sind. Das ist auch nicht wichtig. Wichtig ist an dieser Stelle folgende Bemerkung, die sich im historischen Rückblick stellt. Ziel aller Klimaschutzmaßnahmen ist ja, die verheerenden Folgen der Industrialisierung ab etwa 1800/1850 auf das Wetter und Klima zu beseitigen, die „Erderwärmung“ möglichst zu begrenzen, den CO2-Gehalt der Atmosphäre auf ein erträgliches vorindustrielles Niveau zurückzuführen und die Zunahme an tödlichen  „Wetterextremen“ einzudämmen. Bei der Häufung an Sturmfluten in vorindustrieller Zeit, wo der CO2-Gehalt der Luft ein konstantes Idealniveau von etwa 0,03 Prozent hatte, drängt sich die ketzerische Frage auf, wer dann, wenn das CO2 als „Sünder“ ja „Klimakiller“ nicht in Betracht kommt, diese ganzen Sturmfluten ausgelöst hat. Außerdem traten sie sowohl im warmen „Klimaoptimum des Hochmittelalters“ wie der „Kleinen Eiszeit“ auf.

Diese Frage richte ich speziell an alle Klima-Experten weltweit, insbesondere die namhaften und die Elite ihres Faches darstellenden Experten in Diensten des Weltklimarates IPCC, der 2007 für seine sehr engagierte Friedensmission im zunehmend bedrohlicher werdenden „Klimakrieg“ von dem Preisgericht in Oslo mit dem Friedensnobelpreis ausgezeichnet wurden.

Oppenheim, den 13. Juni 2014                                            Dipl.-Met. Dr. phil. Wolfgang Thüne

===================================================

Anmerkung EIKE-Rdaktion:  Zum Unwetter 9. Juni 2014 auf EIKE-home auch hier:

http://www.eike-klima-energie.eu/news-cache/das-unwetter-vom-9-juni-2014-ein-co2-klima-signal/

===================================================




Warum automatische Temperatur-Adjustierungen nicht funktionieren

In einem Kommentar auf Lucias Blog The Blackboard, hatte Zeke Hausfather Folgendes über die Adjustierungen der Temperaturen des NCDC zu sagen:

„Der Grund, warum Stationswerte in fernerer Vergangenheit adjustiert wurden, ist eine Auswahl seitens NCDC für die Vermutung, dass die gegenwärtigen Werte die ‚wahren‘ Werte sind. Jeden Monat lässt das NCDC beim Eintreffen der neuen Stationsdaten seinen paarweisen Homogenisierungs-Algorithmus laufen, der nach nicht-klimatischen Bruchpunkten sucht, indem er jede Station mit den Stationen der Umgebung vergleicht. Sind diese Bruchpunkte erst einmal gefunden, werden sie entfernt. Beispiel: Wird im Jahre 2006 ein kleiner Sprung in einer 100-jährigen Reihe entdeckt, werden alle Werte dieser Station vor dem Jahr 2006 mit dem Wert des eliminierten Bruchpunktes nach oben bzw. unten korrigiert. Solange neue Daten zur Entdeckung neuer Bruchpunkte führen, werden die Temperaturen an dieser Station um den Betrag des Bruchpunktes korrigiert”.

Mit anderen Worten, ein automatischer Computer-Algorithmus sucht nach Bruchpunkten und adjustiert dann automatisch die gesamte Aufzeichnung vor diesem Bruchpunkt nach oben bzw. unten um den Betrag des Bruchpunktes.

Das ist nichts Neues; es wird seit jeher so gemacht, aber irgendetwas dabei hat mich immer gestört. Es ist etwas, um das sich auch NCDC kümmern sollte, aber ich habe den Verdacht, dass ein Bias sie daran gehindert hatte, auch nur nach Fehlern zu schauen.

Es ist nämlich so: das Verfahren der automatischen Adjustierung erzeugt fast unter Garantie eine falsche künstliche Erwärmung, und zwar so:

Abschirmung

Abschirmung tritt an vielen Wetterstationen auf der ganzen Welt auf. Dazu kommt es, wenn etwas (irgendetwas) die Luftströmung an der Meßstelle stoppt oder behindert. Die häufigsten Gründe sind wachsende Vegetation oder vom Menschen errichtete Hindernisse wie Gebäude. Ein Musterbeispiel hierfür ist die Meßstelle Albert Park in Auckland, Neuseeland. Photos aus dem Jahr 1905 zeigen eine nur mit Gras bewachsene Hügelkuppe mit neu angepflanzten Blumenbeeten in der Umgebung, und genau auf der Kuppe lag die Meßstelle.

Spaziert man heute durch Albert Park, zeigt sich ein gänzlich anderes Bild. Der Park selbst ist mit hohen ausgewachsenen Bäumen bedeckt, und die Hochhäuser der Stadt Auckland liegen verstreut darum herum. Wir wissen aus der wissenschaftlichen Literatur, dass die Windgeschwindigkeit an dieser Stelle zwischen 1915 und 1970 um 50% abgenommen hat (Hessell 1980). Die Stationsgeschichte von Albert Park erwähnt das Abschirmungs-Problem seit 1930 fortwährend. Im Jahre 1989 wurde die Station für Temperaturmessungen für immer geschlossen.

Welche Auswirkung hat nun also die Abschirmung auf die Temperatur? McAneney et al. (1990) zufolge erhöht jeder einzelne Meter des Wachstums der Abschirmung die Maximum-Temperatur um 0,1°C. Für 10 Meter hohe Bäume können wir also ein ganzes Grad Celsius Temperaturzunahme erwarten. Siehe Abbildung 5 aus McAneney:

Es ist wichtig anzumerken, dass die Bäume in der McAneney-Studie innerhalb von nur sechs Jahren um 10 m gewachsen sind. Aus diesem Grunde wird die Vegetation um die Wetterstationen periodisch entfernt. Ein Beispiel hierfür ist Kelburn in Wellington, wo es solche Rodungen in den Jahren 1949, 1959 und 1969 gegeben hatte. Dies bedeutet, dass sich an einigen Stationen (nicht an allen) eine Sägezahn-ähnliche Temperaturhistorie ergibt, wobei die Temperatur langsam zunimmt wegen der wachsenden Abschirmung und dann plötzlich zurückgeht, wenn die abschirmende Vegetation entfernt wird.

Was also geschieht nun, wenn der automatische Computer-Algorithmus die Bruchpunkte der Jahre 10 und 20 findet? Sie werden automatisch wie folgt reduziert:

Was also haben wir getan? Wir haben einen Erwärmungstrend an dieser Station erzeugt, der gar nicht existiert.

Nun gibt es nicht an jeder Station ein Abschirmungs-Problem, aber es sind doch genug, um einen bestimmten Erwärmungsbetrag zu erzeugen. Der wichtige Punkt ist, dass es keinen gegenläufigen Mechanismus gibt – es gibt keinen Prozess, der eine allmähliche Abkühlung erzeugt, gefolgt von einer plötzlichen Erwärmung. Daher wird es diese Adjustierungen nur in einer Richtung geben – nämlich hin zu mehr Erwärmung.

Städtische Wärmeinseln (UHI)

Das UHI-Problem ist ähnlich (Zhang et al. 2014). Ein Diagramm von Hansen (2001) illustriert dies sehr gut:

Abbildung 1(a) schematische Illustration einer Temperaturaufzeichnung an einer Stelle mit städtischer Erwärmung und eine Stationsverlagerung aus der Innenstadt an den Stadtrand. (b) Die Temperaturaufzeichnung adjustiert für die Diskontinuität weist einen stärkeren Erwärmungstrend auf als in der ungestörten Umgebung.

In diesem Falle hat man die Station aus dem Stadtzentrum entfernt und in eine ländlichere Umgebung verlagert. Und wieder wird ein automatischer Algorithmus höchstwahrscheinlich einen Bruchpunkt ausmachen und die Adjustierung durchführen. Es gibt auch keinen gegenläufigen Mechanismus, der einen langzeitlichen Abkühlungstrend erzeugt. Selbst falls lediglich relativ wenige Stationen in dieser Weise betroffen sind (sagen wir 10%), wird das ausreichen, um den Trend zu verbiegen.

References

1. Hansen, J., Ruedy, R., Sato, M., Imhoff, M, Lawrence, W., Easterling, D., Peterson, T. and Karl, T. (2001) A closer look at United States and global surface temperature change. Journal of Geophysical Research, 106, 23 947–23 963.

2. Hessell, J. W. D. (1980) Apparent trends of mean temperature in New Zealand since 1930. New Zealand Journal of Science, 23, 1-9.

3. McAneney K.J., Salinger M.J., Porteus A.S., and Barber R.F. (1990) Modification of an orchard climate with increasing shelter-belt height. Agricultural and Forest Meteorology, 49, 177-189.

4. Lei Zhang, Guo-Yu Ren, Yu-Yu Ren, Ai-Ying Zhang, Zi-Ying Chu, Ya-Qing Zhou (2014) Effect of data homogenization on estimate of temperature trend: a case of Huairou station in Beijing Municipality. Theoretical and Applied Climatology February 2014, Volume 115, Issue 3-4, 365-373

Link: http://wattsupwiththat.com/2014/06/10/why-automatic-temperature-adjustments-dont-work/

Übersetzt von Chris Frey EIKE




Kernkraft, nein danke?

Die Angst der Deutschen vor der Kernkraft

Der hastige, panikartige Beschluss der Bundesregierung von 2011, aus der Stromerzeugung mittels Kernkraft auszusteigen (Stichwort Fukushima), war falsch, ist falsch und wird falsch bleiben. Aber die wohl meisten Deutschen haben vor der Kernkraft Angst. Mit Tatsachen ist ihr schwer beizukommen. Wer es versucht, stößt sofort auf Ablehnung, Tatsachen sind unerwünscht. Schon der Versuch wird wahrgenommen als Angriff auf die persönliche Meinung. Die steht unerschütterlich fest: Meine Angst gehört mir, die lasse ich mir nicht nehmen. Weil diese Angst besteht, müssen Politiker sie ernst nehmen. Aber sie ist irrational, sie ist geschürt, über Jahrzehnte, von Medien, von Politikern, an der Spitze die „Grünen“. Verantwortungsvolle Politiker hätten nicht mitschüren, sondern aufklären sollen. Das ist leicht gesagt und schwer getan. Politiker riskieren Wählerverlust, den Rückhalt ihrer Partei, den Mandatsverlust. Jetzt wird die Angst weitergeschürt. Der Anlass ist der Abschlussbericht über den Versuchsreaktor in Jülich.

Der Auftrag, die Betriebsgeschichte des Versuchsreaktors zu untersuchen

Dieser Reaktor ist längst stillgelegt, seit 21 Jahren. Betrieben worden war er von 1967 bis 1988. Niemand ist zu Schaden gekommen. Nicht stilllegen ließ sich jedoch die Diskussion über ihn und über die mit ihm zusammenhängenden technischen Fragestellungen. Dabei ging es auch um überhöhte Temperaturen im Reaktorkern, die seinerzeit angeblich nicht erkannt worden seien, und um angeblich hohe Freisetzungen von Spaltprodukten aus den Brennelementen. Die beiden für den Reaktor verantwortlichen Gesellschaften „nahmen dies schließlich zum Anlass, die Betriebsgeschichte des Versuchsreaktors durch externe Experten untersuchen zu lassen“. Weiteres dazu hier. Diese Expertengruppe hat ihre Arbeit aufgenommen im Sommer 2011. Ihr Bericht liegt mit dem Datum 26. März 2014 inzwischen vor. Morgen am 10. Juni findet dazu eine öffentliche Veranstaltung statt.*)

Feststellungen in der Untersuchung medial zum Skandal aufgeblasen

Doch schon vor der Veranstaltung wurde der Bericht medial instrumentalisiert, um gegen die Kernkraft im allgemeinen und gegen den Versuchsreaktor im besonderen zu polemisieren und dasjenige zum Skandal aufzublasen, was die Expertengruppe in ihrem Bericht beanstandet oder glaubt, beanstanden zu müssen. Ein Beispiel dafür liefert die Aachener Zeitung vom 26. April. Unter der Überschrift „Blindflug durch ein hochgefährliches Experiment“ teilte sie ihren Lesern mit, der Versuchsreaktor sei auf ganzer Breite gescheitert. Es habe Manipulationen, Vertuschungen, Täuschungen, Beschwichtigungen und einen sehr ernsten Störfall gegeben, der hochgefährliche Folgen hätte haben können. Durch den Bericht über den Reaktorbetrieb ziehe sich die mangelnde Kontrolle in vielen Bereichen wie ein roter Faden – eben wie eine Art Blindflug durch eine gefährliche Technologie. Den Vorsitzenden der Expertengruppe, Christian Küppers, zitiert das Blatt mit dessen Fazit „Vorher habe ich mir nicht vorgestellt, dass man an so eine gefährliche Technik in Deutschland so herangeht.“ Dem Expertenbericht selbst ist diese alarmistische Feststellung nicht zu entnehmen; er ist wissenschaftlich kühl und nüchtern gehalten. Seine Kurzfassung hier, seine Langfassung hier, der vollständige Zeitungsbericht hier.

Pannen, Störfälle, Eingriffe – ein Versuchsreaktor arbeitet nie gleich störungsfrei

Aber „gescheitert auf ganzer Breite“ ist der Versuchsreaktor keineswegs, jedenfalls nicht an sich selbst, nicht technisch. Wohl hat es Pannen und Störfälle gegeben, wohl zum Beispiel die Eingriffe per Hand in die Sicherheitsschaltung für eine zu hohe Kühlgasfeuchte, wodurch die Messbereiche umgestellt wurden, damit es nicht zu einer Schnellabschaltung kam. Aber für dergleichen war es schließlich ein Versuchsreaktor, und für Versuche, für das Erkennen möglicher Pannen und für das Beheben von Störfallen ist so ein Reaktor schließlich vorgesehen. Neue Technik, die in der Praxis erprobt wird, funktioniert nie gleich störungsfrei. Fehler werden gefunden, Schwächen werden erkannt – und behoben. Ebendies war die Aufgabe des Reaktors.

Ein Opfer der aufgeheizten Stimmung gegen die Kernkraft

Nicht deswegen also ist für den Reaktor in Jülich das Ende gekommen. Letztlich wurde er ein Opfer des Reaktorunfalls von Three Mile Island (1979) und von Tschernobyl (1986) und der damit gegen die Kernkraft politisch aufgeheizten Stimmung in der breiten Öffentlichkeit. Die hat bei zu vielen Menschen das Vertrauen in die Sicherheit von Kernkraftwerken zerstört. Dass es sich bei beiden Katastrophen um ganz andere Reaktortypen handelte als beim Jülicher Versuchsreaktor spielte in dieser Stimmung keine Rolle. Die Politiker bekamen Fracksausen Da nützten ihm auch seine überragenden und unbestreitbaren sicherheitstechnischen Eigenschaften nichts, obwohl sie, wie es im Expertenbericht heißt, „mit beträchtlichem Aufwand gegenüber Politik und Fachöffentlichkeit herausgestellt“ wurden. Zusätzlich, so ist dort ebenfalls zu lesen, hätten ihm „die schlechten Betriebsergebnisse“ und „das Ausbleiben neuer Aufträge“ geschadet.

Der Versuchsreaktor mit dem Kugelhaufen und das Ziel mit ihm

Wie ist es überhaupt zu dem Versuchsreaktor gekommen? 1959 hatten sich fünfzehn kommunale Elektrizitätsversorgungsunternehmen zur Arbeitsgemeinschaft Versuchsreaktor GmbH (AVR GmbH) zusammengeschlossen. Ihr Ziel war, die Machbarkeit und Funktionsfähigkeit eines gasgekühlten, graphitmoderierten Hochtemperaturreaktors (HTR) zu demonstrieren. Dieser AVR-Versuchsreaktor, kurz dann meist nur „der AVR“ genannt, wurde in unmittelbarer Nachbarschaft zur damaligen Kernforschungsanlage Jülich (KFA) gebaut, die sich seit 1990 Forschungszentrum Jülich (FZJ) GmbH nennt.

Die drei großen Vorteile des Reaktors in Jülich

Dieser AVR in Jülich war ein Kugelhaufenreaktor. Erfunden hat solche Reaktoren der amerikanische Chemiephysiker Farrington Daniels (1889 bis 1972). Den Jülicher Kugelhaufenreaktor der AVR GmbH entwickelt hat in den 1950er Jahren der deutsche Physiker und Nukleartechniker Rudolf Schulten (1923 bis 1996) an den (damaligen) Kernforschungsanlagen Karlsruhe und Jülich. Im Kugelhaufenreaktor wird das Brennmaterial (Thorium, Uran oder Plutonium) in Graphitkugeln eingeschlossen. Etwa 5 Prozent der Masse einer tennisballgroßen Kugel besteht aus Körnern des radioaktiven Materials. Durch diesen Einschluss ergeben sich drei große Vorteile. Leicht verständlich hat sie der Physiker Jörg Ringshier beschrieben. Vor allem ist der Reaktor inhärent sicher.

Der Fachleute-Protest gegen den Zeitungsbericht

Gegen den Bericht in der Aachener Zeitung (AZ) vom 26. April und gegen andere ähnliche skandalisierende Darstellungen haben drei ehemalige Mitarbeiter und Studenten von Rudolf Schulten am 2. Mai in einem Brief an die AZ Einspruch erhoben und protestiert: Urban Cleve, Reinhard Böhnert und Helmut Alt, alle drei promovierte Ingenieure. Cleve hat an der RWTH Aachen Energietechnik studiert und dort auch promoviert und war Hauptabteilungsleiter für Technik der BBC/Krupp Reaktorbau GmbH, Böhnert emeritierter Professor für Anlagenbau und Verfahrenstechnik und Helmut Alt emeritierter Professor für Elektrotechnik und Informationstechnik. Die BBC/Krupp Reaktorbau GmbH war es, die den AVR geplant, konstruiert, montiert und in Betrieb genommen hat.

„Es war der Betrieb des sichersten Kernkraftwerks der Welt“

In ihrem Brief schreiben die drei mit dem AVR vertrauten Fachleute unter anderem: „Der Störfall von 1978 wurde nicht verschwiegen, sondern wissenschaftlich analysiert und bewertet, so, wie sich das für den Forschungsauftrag dieses Atom-Versuchs-Reaktorprojektes gehörte. Diese Analyse hatte mit Zustimmung aller zuständigen Aufsichtsgremien den Weiterbetrieb bis zum 31.12.1988 unter der Betriebsleitung von Egon Ziermann zur Folge.“ Es folgen ein paar technische Erläuterungen zu den grundlegenden Konstruktionsdaten des Reaktors, die aber nur Fachleuten etwas sagen. Dann als ein Fazit: „Es war also kein Blindflug durch eine der gefährlichsten Technologien, sondern der Betrieb des sichersten Kernkraftwerks der Welt. Der Dampferzeugerstörfall war kein Störfall sondern, nach der, allerdings erst später eingeführten, INES-Bewertungsskala der IAEA eine Störung nach INES 1 (das bedeutet: Störung, Abweichung vom normalen Betrieb der Anlage).“

„Kein anderes KKW hätte zweimal diesen Test-GAU überstanden“

Und ferner: „Alle weiteren Ereignisse die in dem Bericht erwähnt werden, waren Ereignisse nach Ines 0, (keine oder sehr geringe sicherheitstechnische Bedeutung), waren also zum Teil noch nicht einmal meldepflichtige Vorgänge. Es wurde also nichts vertuscht und das FZ-Jülich braucht sich auch für nichts zu entschuldigen.“ Im Übrigen sei der Jülich-Reaktor das einzige Kernkraftwerk in der Welt, mit dem zweimal ein “Test-GAU” durchgeführt worden sei. Niemand habe davon etwas gemerkt, und der Reaktor habe nach einigen Tagen der Abkühlung völlig problemlos weiterbetrieben werden können. „Er ist also das Kernkraftwerk mit der allerhöchst-denkbaren Sicherheit, kein anderes KKW in der Welt hätte einen solchen Test überstanden.“ Der vollständige Brief hier. Zugleich wendet er sich gegen das, was am 27. April Spiegel-Online vom Expertenbericht über den Reaktor geschrieben hatte. Der Bericht beschreibe haarsträubende Zustände: „Gefährliche Pannen wurden vertuscht, Strahlungsaustritte nur zufällig entdeckt.“ Der Spiegel-Bericht hier.

Was der Mit-Erbauer Urban Cleve im Expertenbericht alles vermisst

Einer der vier Experten, die den Bericht über den AVR verfasst haben, war der (am 27. April 2014 gestorbene) Leopold Weil, promovierter und habilitierter Ingenieur und zuletzt Leiter des Fachbereichs “Sicherheit in der Kerntechnik” des Bundesamtes für Strahlenschutz (BfS). Ihm hatte der Energietechniker Urban Cleve als einer der Mit-Erbauer des Reaktors am 26. März 2014 folgendes geschrieben: „Nach einer ersten Durchsicht vermisse ich:

1.) Den Hinweis, daß der AVR für eine Primärgasaktivität von 10 hoch 7 Curie ausgelegt und konstruiert worden ist. Gemessen wurden später im Durchschnitt 360 Curie, das ist fast der Faktor 1:1 Million. Damit relativieren sich alle beschriebenen “überhöhten Ereignisse und Messungen von Spaltprodukten”.

2.) Den Hinweis auf: – siehe Abb. 3 atw-Heft 12/2009 und atw. 5.1966 S. 269 -271 – Versuche mit der Kugelbettschüttung. Hieraus ergibt sich die Erklärung, daß einzelne BE an den “Einbuchtungen der Grafitwand” nur partiell gekühlt werden. Die ‚geschmolzenen Monitor-Kugeln’ haben wahrscheinlich, und das war bekannt, an diesen ‚Einbuchtungen’ gelegen und konnten nicht vollständig gekühlt werden. Die erwarteten höheren Temperaturen konnten, da sie weder festigkeitsmäßig noch in Bezug auf Spaltproduktdurchtritte hätten gefährdet werden können, oder eine Gefährdung hätte eintreten können, bewußt in Kauf genommen. Diese etwas geringer gekühlten Elemente wurden beim weiteren Durchlauf durch das Core dann wieder vollständig gekühlt. Im Verhältnis zu der Gesamtzahl der Elemente lagen sie bei sicher unter 1%. Das im 1:1 Experiment ermittelte “Kühl-Strömungsprofi” des Cores war erstaunlich gleichmäßig von Wand zu Wand. (Erläuterung kpk: Mit Core ist der Reaktorkern gemeint, mit BE Brennelemente)

3.) In diesem Zusammenhang fehlt auch der Hinweis, daß in 21 Betriebsjahren nur 210 BE wegen Bruchs ausgeschleust werden mußten.

4.) Aus einer Undichtigkeit im Überhitzer des Dampferzeugers kann kein “Wasser” austreten, sondern nur Dampf. Hier liegt der alles bestimmende Gedankenfehler des Herrn Dr. Moormann. Die Darstellung in Ihrem Bericht ist also falsch. Das gefundene Wasser kondensierte erst nach Abschaltung des Reaktors an den kalten Stellen. Es handelte sich daher auch nicht um einen “Störfall” sondern um eine “Störung” nach Ines 1.

5.) Bei allen Kritikpunkten fehlt mir der Hinweis auf eine mögliche Gefährdung der Anlage. Sie hätten dann objektiverweise erwähnen sollen, daß alle beschriebenen kritischen Ereignisse /Störungen Ines 0-1 entsprachen, ja meist keinerlei Einfluß auf einen sicheren Betrieb des AVR hatten.

Dies nur zu den wichtigsten Punkten. Bitte informieren Sie hierzu auch Ihre Kollegen der Expertengruppe. Für eine kurze Stellungnahme wäre ich Ihnen dankbar, vielleicht überarbeiten Sie dann Ihren Bericht noch einmal, bevor Sie diesen übergeben.“

Leopold Weil hat darauf zwar am 30. März kurz geantwortet, aber zu keinem der Einwendungen von Cleve Stellung genommen – wohl deswegen, weil ihn seine Krankheit schon zu sehr mitgenommen hatte. In der postwendenden Antwort schreibt Cleve unter anderen:

„Warum nur diese negative Darstellungen?“

„Der Bericht ist zwar wissenschaftlich hochinteressant, nur, alles was beschrieben ist, war untersucht und die konstruktiven Maßnahmen waren getroffen. Auch fehlt der Hinweis, daß der AVR ein Versuchsreaktor war. Sie haben richtig geschrieben, daß zahlreiche Brennelemente (BE) verschiedener Konsistenz und Fertigung in diesem Reaktor untersucht worden sind. Alle waren noch in der Entwicklung!! Wegen der hochsicheren Auslegung für 10 hoch7 Curie Primärgasaktivität war der AVR ja hierzu auch bestens geeignet. Warum dann diese negative Darstellung? Die Aktivität im THTR war so gering, daß eine Totalemission des Kühlgases keine Evakuierung der Umgebung erforderlich gemacht hätte. Das war sicher auch ein Erfolg, der auf den Experimenten mit BE im AVR zurückzuführen ist. Auch dies hätte man erwähnen können. Warum nur diese negative Darstellungen? Wenn ein Nichtfachmann dies liest, kann er nur denken: “waren die von allen guten Geister verlassen?” dabei war der Betrieb des AVR ein toller, ja man kann fast sagen, einmaliger Erfolg. Politisch kann man alles schlechtreden, vor allem, wenn man keine Verantwortung für das trägt, was man schreibt. Ein Auto fährt ja auch noch, wenn mal eine Birne aus der Beleuchtung ausfällt, das sind in einem KKW schon meldepflichtige Ereignisse. Daß es nur 46 waren, ist phänomenal gut, oder?“ (Erläuterung kpk: Mit THTR ist der Thorium-Hoch-Temperatur-Reaktor vom Typ Kugelhaufenreaktor in Hamm gemeint).

„Die grundlegenden Fehler schon in der Aufgabenstellung“

Gleich am 2. April schrieb Cleve an Weil nochmals: „Mir ist nicht klar, warum von der Expertenkommission niemand vom alleinigen Planer und Konstrukteur des AVR gehört wurde. Der AVR wurde ausschließlich von der damaligen BBC/Krupp Reaktorbau GmbH geplant, konstruiert, montiert und in Betrieb genommen. Da die grundlegenden Fehler schon in der Aufgabenstellung der Einleitung stehen, kann der ganze Bericht nicht den tatsächlichen Gegebenheiten entsprechen. Ich habe während der ganzen Zeit meiner Tätigkeit mit Verantwortung für all diese Fragen, weder bei Besprechungen intern, noch mit dem Kunden AVR noch mit den Genehmigungsbehörden oder den zuliefernden Gesellschaften je einen einzigen Mitarbeiter der damalig KFA als Teilnehmer erlebt. Daher kann die KFA überhaupt keine Kenntnisse von der wichtigen Zeit der Erstellung des AVR-KKW haben. Die KFA hatte auch nichts mit dem/der AVR zu tun. Ausgenommen hiervon war nur Prof. Dr. R. Schulten als ehemaliger GF der BBK, er hatte noch einen Beratervertrag mit BBC.“ (Erläuterung kpk: Kunde AVR = Kunde Arbeitsgemeinschaft Versuchsreaktor GmbH, KFA = Kernforschungsanlage Jülich, KKW = Kernkraftwerk, GF = Geschäftsführer, BBK = Bundesanstalt für Bevölkerungsschutz und Katastrophenhilfe)

„China baut seine neuesten Reaktoren heute noch so“

Und weiter: „Ich vermag beim besten Willen in dem ganzen Bericht nichts erkennen, was zu einer Gefährdung des AVR hätte führen können. Die hohe Verfügbarkeit von ztw. über 92 % ist doch ein Zeugnis hiervon, ganz abgesehen von den zweimaligen “Test-GAU” Experimenten. Auch die Funktion der Helium-Gasreinigungsanlagen wurde nicht erwähnt. Auch diese waren für die “Erstauslegung des AVR” mit einer Aktivität des Primärgases von 10 hoch 7 Curie ausgelegt, also völlig überdimensioniert und mit einer Doppelummantelung viel zu sicher gebaut. Probleme gab es erst durch Herrn Dr. R. Moormann,**) der bislang allen Diskussionen ausgewichen ist. In meinem Vortrag vor dem ICAPP in Nizza habe ich erklärt, daß der Moormann-Report der KFA eine Schande für die KFA darstellt. Diese Formulierung habe ich Herrn Dr. Moormann und auch Prof. Dr. Bachem***) zuvor mitgeteilt, da kein Einwand kam, habe ich das auch so vorgetragen, mit Zustimmung der EU-FZ-Petten. Siehe auch meine Ausführungen mit Dialog mit Dr. Moorman im ‚Zukunfsdialog der Bundeskanzlerin’. China baut seine neuesten Reaktoren heute noch so, daß der erfundene “Moormann-Störfall” eintreten könnte. Sind die alle soviel ‚dummer’ als Herr Dr. Moormann, es waren ja überwiegend seine Kollegen, die er damit heute noch ‚an den Pranger’ stellt.“ (Erläuterungen kpk: ICAPP = International Congress on Advances in Nuclear Power Plants im Mai 2011, EU-FZ-Petten = EU-Forschungszentrum – Institut für Energie – im niederländischen Petten).

“Der erdachte Moormann-Störfall”

Am 6. Juni hat Cleve auch an die FAZ geschrieben und zu Moormann dies: „Ich, und nicht nur ich, haben Herrn Dr. Moormann mehrfach um ein Gespräch gebeten. Er hat dies stets verweigert. Seine These wird weltweit von keinem Nuklearphysiker geteilt. Sein erdachter Störfall ist so trivial, daß wohl kaum jemand das nicht von selbst erkennt. Er wurde schon in den 50iger Jahren, als Dr. Schulten noch Mitarbeiter bei BBC in Mannheim war, von allen denkbaren Forschungsinstituten und TÜV untersucht. Ohne eine positive Stellungnahme wäre die AVR nie gegründet worden. Die beiden im Bau befindlichen KKW in China werden nach dem gleichen Prinzip gebaut, heute noch, auch hier könnte also der Moormann-Störfall eintreten. Die maßgeblichen Nuklearphysiker in China haben an der KFA studiert, sind, genauso wie er, Schüler von Prof. Dr. Schulten. Sie kennen den Bericht genau und bauen seit 6 Jahren weiter.“ Die FAZ hatte am 6. Juni eine ganze Seite über den Expertenbericht geschrieben und zog dieses Fazit: „Vor 36 Jahren kam es im Forschungsreaktor Jülich zu einem Störfall. Die Grünen sagen, Deutschland sei nur um Haaresbreite einem GAU entgangen. Doch Belege dafür gibt es nicht.“ Der ganze FAZ-Bericht hier.

Cleves Darstellungen gehören zur Beurteilung zwingend dazu

Cleve ist nach eigener Aussage der letzte noch Lebende aus der oberen Führung von der Erbauerfirma BBC/Krupp. Er hat am 2. Mai auch an Nordrhein-Westfalens Ministerpräsidentin Hannelore Kraft geschrieben hier, ferner an den Leiter des Forschungszentrums Jülich Professor Bachem hier sowie an die Expertengruppe hier. Mir liegen Stellungnahmen von Urban Cleve auch aus den Jahren 2008 bis 2013 vor, die hier nicht alle aufzuführen sind. Man mag zu seinen Einwendungen und Erklärungen sagen, ein damals Mitverantwortlicher versuche, sich von der Kritik im Expertenbericht reinzuwaschen. Nichtfachleute können das zwar schwerlich beurteilen. Auch ich bin einer von ihnen. Aber diese Einwendungen gehören zur Beurteilung zwingend dazu, denn sie klingen vernünftig, plausibel und nicht abwegig. Daher müssen auch sie öffentlich werden.

In Deutschland entwickelt, aber Deutschland hat nichts davon

Als Erkenntnis bleibt, wie Jörg Rings (a.a.O.) schreibt, „dass diese Technik zwar in Deutschland erfunden wurde, aber Deutschland fast nichts davon hat“. Und aus heutiger Sicht müsse man das echt bedauern: „Wenn noch 20 Jahre daran geforscht worden wäre, könnte man heute nochmal für Kernenergie sein und solche neuen Reaktoren bauen statt neuer Kohlekraftwerke.“Kernkraft ade, o weh, o weh.

__________________________________________________________________________

*) Um 18 Uhr im Technologiezentrum Jülich (TJZ). Eine vorherige Anmeldung ist nicht erforderlich (Anfahrt hier). Bis zum 5. Juni bestand die Möglichkeit, Fragen zum Bericht einzusenden. Die Experten wollen sie bei der Veranstaltung beantworten. Kontakt zur Expertengruppe: avr-expertengruppe@fz-juelich.de

**) Wer ist R. Moormann? Bei Wikipedia findet sich dies über ihn: hier

***) Wer ist Prof. Dr. Bachem? Siehe hier. Die Stellungnahme des Forschungszentrum Jülich vom 28. April 2014 zum Expertenbericht hier.

Haftungsausschluss / Disclaimer siehe hier




Das Unwetter vom 9. Juni 2014 – ein „CO2-Klima-Signal“ ?

Klaus-Eckart Puls

(1)  Sind derartige Unwetter-Ereignisse etwas ganz Neues ?

          N E I N !

Die Archive der Wetterdienste beweisen es:

Solche Wetterlagen gab und gibt es im Juni über Europa immer mal wieder – glücklicherweise nicht „alle Tage“.       W a r u m  ?? 
Zunächst: 

Wir sind dem Sonnen-Höchststand am 21. Juni schon sehr nahe, haben also in der ersten Juni-Hälfte in Mitteleuropa schon 15 Stunden Sonnenschein bei klarem oder gering bewölkten Himmel, wie es in den Tagen vor dem 9. Juni 2014 auch der Fall war.

==================================================

E i n s c h u b  EIKE-Redaktion:

Stefan Rahmstorf darf wieder groß ausholen (mit Dank für diesen Ausschnitt an den Solarkritiker im Exil R. Hoffmann). Hier ein Ausschnitt aus der MoMa-Sendung vom 11.6.14 mit dem PIK Experten Prof. Rahmstorf. Der Widerspruch zu den hier genannten Fakten wird mal wieder überdeutlich. Doch man muss genau hinhören. Wie grob falsch – unterlegt mit Beispielen, die etwas ganz anderes darstellen (Spitzenwerte gegen Mittelwerte, flacher Verlauf der globalen Mitteltemperatur mit Null Anstieg, gegen ..sie (die Temperatur) ist aber gestiegen, um dann das Jahre 2010 herauszupicken, usw. usw. usw) aber für die Begründung des anthropogenen induzierten Klimawandels immer wieder herhalten müssen. Und Frau Halali schaut gläubig zu ihm auf.

Ein Beispiel auf Anregung von Leser u. Langer : Kleiner Faktenscheck zum Pfingstwetter.

Prof. Rahmstorf: „Wir haben ja Rekordhitze erlebt für das erste Junidrittel…“
Na dann mal schnell einen Blick auf die Maximaltemperaturen der Säkularstation Potsdam für das erste Junidrittel geworfen:
1) 10.6.1915 – 35,0°C
2) 10.6.1937 – 34,5°C
3) 05.6.1982 – 34,0°C
4) 06.6.1984 – 33,9°C
5) 01.6.1947 – 33,8°C
6) 08.6.1996 und 08.6.2014 – 33,6°C

7) 9.6.2014 – 31,7 °C, 10.6.14 -31,2 °C. (Quelle: Wetterkontor hier)

Lügen haben kurze Beine!
Von 122 Jahren der Datenreihe in Potsdam gab es in 36 Jahren im 1. Junidrittel Hitzeperioden mit über 30°C. Dass wir dieses Jahr am Pfingstwochenende so hohe Temperaturen hatten – aber unter den Maximalwerten früherer Jahre- ist kein seltenes Extremwetter, welches vom menschgemachten Klimawandel verursacht wird, wie uns Prof. Rahmstorf weismachen will, sondern der Normalfall!

Hinweis: Für den Fall dass das Video "verschwunden" sein sollte (Grund unbekannt) Hier der link http://www.youtube.com/watch?v=5P_g11nl0vg&feature=youtu.be

E i n s c h u b  Ende

=================================================

Damit heizte sich die Luft über Mitteleuropa von Tag zu Tag auf.

Hinzu  kam

in den Tagen vor dem 09.06.2014 (Unwetter-Tag) eine keineswegs extrem seltene Wetterlage (vgl. Abbildungen) : Über der Biskaya lag ein „orts-festes“ Tief mit einem weit nach Süden ausgreifenden Trog (Abbildung 1).

Abb. 1 ; http://www2.wetter3.de/Archiv/GFS/2014060900_1.gif

Auf der Vorderseite dieses Troges wurde sehr warme Luft aus Nordafrika mit südlichen Höhen-Winden nach West- und Mittel-Europa geführt.

Diese Luft nahm über der Biskaya und dem westlichen Mittelmeer viel Feuchtigkeit auf, wodurch dann über West-Europa eine stark ausgeprägte Luftmassen-Grenze – eine "Wetterfront" – entstand (vgl. Abbildung 2).

Abb. 2 ; http://www2.wetter3.de/Archiv/GFS/2014060900_1.gif

An dieser Wetterfront kam es dann zu sehr starken vertikalen Umlagerungen, in der Meteorologie spricht man von „Feucht-Labilität“:

Sehr starke Gewitter entstanden, infolge der extrem starken vertikalen Umlagerungen auch Orkan-Böen!

So geschehen auch am vergangenen 9. Juni 2014 : 

Meteorologisch nichts Neues, aber – glücklicherweise – selten !

(2)  Werden solche Unwetter durch die Treibhaus-Gase verursacht ?

Auf eine solche Idee können nur Leute kommen, welche entweder die über wenigstens 150 Jahre zurück reichenden Statistiken der Wetterdienste nicht kennen, oder die eine einzelne(!) –  Wetter-historisch nicht ungewöhnliche – Wetterlage für ihre politisierten Klima-alarmistischen Zwecke mißbrauchen wollen.

Hinzu kommt:

Selbst der zu Klima-Alarmismus neigende Klimarat IPCC findet keine Trends zu mehr Extremwetter, wie er in früheren Berichten, aber auch ganz aktuell auf seiner Herbst-Tagung 2013 in Stockholm festgestellt hat:

IPCC 2013 :

 

IPCC 2001

Die Hochschul-Professoren Kraus und Ebel haben ein ganzes Buch dazu geschrieben,     Ergebnis :   

 

Auch in Deutschland findet niemand einen Trend zu mehr Unwettern, auch der Deutsche Wetterdienst nicht :

 

…und ganz aktuell (FAZ-net 11.06.2014) sagt der DWD versachlichend und vernüchternd gegenüber dem nahezu hysterischen medialen Klima-Alarmismus nach dem Pfingst-Unwetter:

F a z i t :
Wieder einmal wird von den Klima-Alarmisten im Verbund mit den Medien ein einzelnes Wetter-Ereignis dazu mißbraucht, Angst und Schrecken zu verbreiten. Wieder einmal wird eine im langjährigen Maßstab keineswegs ungewöhnliche Wetterlage zum CO2-Treibhaus-Signal hoch gejubelt. Die meteorologischen Statistiken und die aktuelle Wetterlage geben das nicht her.

====================================================

Anm. EIKE-Redaktion:

Der Aufsatz kann als PDF runter geladen werden, ==> w. unten

============================================

Related Files




Unsere Gesellschaft ist grundsätzlich unehrlich

Christian Schlüchter war Forscher und Lehrer an der ETH Zürich, wo er 1990 die Lehrbefugnis erwarb. Von 1993 bis 2012 war er Inhaber des Lehrstuhls für Umwelt- und Quartärgeologie an der Universität Bern. Schlüchter forschte in den Alpen, in der Antarktis, in Neuseeland, auf dem Plateau von Tibet und in der Türkei. Auf der Home Page der Universität Bern werden über 2000 wissenschaftliche Publikationen von ihm aufgeführt (hier).

Der Bund, eine Schweizer Tageszeitung der Stadt Bern, hat ein längeres Interview mit Christian Schlüchter veröffentlicht, das wir nachfolgend in voller Länge veröffentlichen. Wir danken dem Bund für die freundliche Genehmigung für diese Veröffentlichung. Der Artikel des Bund selber ist auch im Internet (hier) aufzufinden. Nun das Interview:

Herr Schlüchter, Sie haben aufgrund der Analyse von Holzfunden im Vorfeld von Gletschern herausgefunden, dass Hannibal bei der Überquerung der Alpen meist durch den Wald, aber nie über Gletscher ging.
Das ist pointiert ausgedrückt. Mit Hannibal wurde ich im Laufe meiner Forschungen aber tatsächlich konfrontiert. Ein Freund sagte mir, dass ich die Öffentlichkeit darauf vorbereiten sollte, vom hehren Bild der Alpen mit Gletschern im Abendrot Abschied zu nehmen – zugunsten einer «hannibalistischen Welt».

Was meinen Sie mit «hannibalistischer Welt»?
Die Waldgrenze lag viel höher als heute, Gletscher gab es kaum. In keinem der detaillierten Reiseberichte aus der Römerzeit werden Gletscher erwähnt.

Den ersten Holzfund machten Sie am Steingletscher im Sustengebiet. Es habe sie «tschuderet», sagten Sie später. Wie haben Sie das gemeint?
Bis in die 90er-Jahre beschränkte sich die Gletscherforschung auf eine Datierung der Gletschervorstösse und Moränenstände. Dabei ging vergessen, was zwischen den Vorstössen geschah. Man kannte nur 50 Prozent der Gletschergeschichte. Und plötzlich stiess ich auf dieses Holz, wenige Meter vor dem Gletscher. Es war zerschlissen, als ob jemand mit einem stumpfen Beil daran gearbeitet hätte. Mir war sofort klar: Das ist ein Dokument, wie man es bisher noch nie gefunden und analysiert hatte. Der Baum musste älter sein als die Kleine Eiszeit (1400 bis 1850). Ich liess ihn umgehend im Labor datieren.

Und wie alt war er?
Knapp über 4000 Jahre alt.

Was haben Sie sich dabei gedacht?
Ich müsse weitere Belege finden. Kurz darauf war ich mit Studierenden im Val Malenco im Veltlin, wo wir auf ein Seelein vor einem kleinen Gletscher stiessen. Das Gewässer wurde gestaut von einer Moräne aus der Kleinen Eiszeit. In deren Erosionsrillen fanden wir zusammengedrückte Sedimente eines weiteren Sees mit organischen Spuren. Diese waren praktisch gleich alt wie das Holz am Steingletscher. Das heisst: Vor der Kleinen Eiszeit gab es bereits ein Seelein, das dann vom Gletscher zugedeckt wurde. Zwei Jahre später fand ich zahlreiche Hölzer am Unteraargletscher. Seither habe ich mehr oder weniger regelmässig weitere Belege gefunden.

Dort, wo heute der Unteraargletscher liegt, war einst grüne Fläche?
Es war eine Landschaft mit einem breiten, verwilderten Fluss. Wir fanden auch viele über 2000-jährige Torfstücke.

Haben Sie je daran gedacht, dass 10’000 Jahre Erdgeschichte neu geschrieben werden müssten?
Nein, nein. Das wäre vermessen. Die holozäne Gletschergeschichte war ja nicht mein primäres Forschungsgebiet.

Aber bis dahin ging man ja von einem Rückgang der Gletscher seit dem Ende der Eiszeit aus?
Ja, mehr oder weniger, mit etwas oszillierenden Gletscherzungen. Man hat sich aber nicht überlegt, was zwischen den Vorstössen geschehen ist. Es hat mich fasziniert, mehr über die Rückzugsphasen der Gletscher zu erfahren.

Die Reaktionen auf Ihre Entdeckungen waren harsch. Der Berner Klimaforscher Heinz Wanner hielt Ihnen vor, aus Holz- und Torfanalysen alleine könne man keine Rückschlüsse auf die Bewegungen der Gletscher schliessen. Dazu brauche es Energie- und Massenbilanzen.
Ich hätte das Holz gar nicht finden dürfen, weil ich nicht zum engeren Kreis der Holozän- und Klimaforscher gehöre. Meine Funde haben daher viele Experten auf dem falschen Fuss erwischt: Jetzt hat ein «Laie» etwas gefunden, was die Holozän- und Klimaforscher hätten finden müssen.

Also ging es bloss um Forscherneid, und die Einwände waren haltlos?
Ich würde das nicht so ausdrücken. Wir hatten am Anfang aber Mühe, Publikationsmöglichkeiten in wissenschaftlichen Zeitschriften zu finden. So mussten wir die ersten Beiträge in methodischen Publikationen unterbringen. Wieso sollte es Massenbilanzen brauchen, wie Wanner sagte? Ein Gletscher geht zurück, wenn die Masse schwindet. Wenn die Masse wieder zunimmt, stösst auch der Gletscher vor. Die Lage der Gletscherzunge ist ein leicht verzögertes Abbild der Massenbilanz.

Haben Sie das Gespräch mit Herrn Wanner gesucht?
Wir haben uns öfters darüber unterhalten. Er hat mir schliesslich anvertraut, dass er aus einem unserer Aufsätze zitiert habe. Das ist eine Ehre für uns.

Sie standen in einem fremden Gärtchen herum?
Das ist etwas zugespitzt formuliert. Ich habe ein Leben lang geforscht, was Gletscher mit ihrer Unterlage machen. Dabei habe ich mir zwangsläufig auch Gedanken über die Gletschergeschichte gemacht. Wir haben zum Beispiel eine andere Datierungsmethode entwickelt als die gängige C-14-Methode, die auf organischen Materialien basiert. Mit unserer Methode kann man das Alter einer geologischen Oberfläche bestimmen.

Das waren die Forschungen an der Felskante des Rhonegletschers beim Hotel Belvédère?
Genau. Diese Publikation hatte für grosses Aufsehen gesorgt. Wir wollten prüfen, ob die vom Rhonegletscher freigegebene Felsfläche schon einmal der kosmischen Strahlung ausgesetzt war. War der Gletscher schon einmal so klein wie heute? Ist das messbar anhand der Isotopen an der Oberfläche des Gesteins? Die Resultate waren klar und eindeutig. Die Felskante war in den letzten 10’000 Jahren während 5800 Jahren eisfrei.

Dann ist der heutige Zustand des Gletschers der Normalfall?
Der Gletscher war mehrheitlich gar noch kleiner. Vorher hiess es bei unseren Publikationen jeweils: «Der Schlüchter ist wieder einmal holzen gegangen.» Nun war klar, dass unsere Forschungsergebnisse sich nicht nur auf die Altersbestimmung von Holz stützten. Von da an konnten wir ungehindert publizieren. Ein Jahr später fanden wir im Vorfeld des Glacier du Mont Miné im Wallis riesige Stämme. Bei der Altersbestimmung konnte festgestellt werden, dass diese Bäume innerhalb eines Jahres gestorben sind. Das war das zweite Mal, dass es mich «tschuderet» hat.

Der Gletscher stiess sehr rasch vor?
Vielleicht wurden die Bäume nicht vom Gletscher direkt, sondern von Murgängen gefällt. Das Todesjahr konnte exakt auf 8195 Jahre vor heute datiert werden. Die Sauerstoffisotope im grönländischen Eis zeigen um 8200 Jahre vor heute eine markante Abkühlung. Damals stiessen die meisten Gletscher in Grönland rasch vor. Unsere Funde am Glacier du Mont Miné zeigten, dass dieses Kälteereignis offenbar auch die Alpen erfasste.

Deshalb kamen Sie zum Befund, dass die Bewegungen der Gletscher vor allem von der Aktivität der Sonne abhängen?
Nein, darauf kam ich schon vorher. Aber von da an konnten unsere Forschungen nicht mehr negiert werden.

Der UNO-Weltklimarat prophezeite 2001, dass die Alpengletscher im Jahr 2100 weitgehend verschwunden sein werden. Ihre Forschungen stehen da quer in der Landschaft?
Ich würde das nicht so formulieren. Wir haben Folgendes gezeigt: Erdgeschichtliche Erwärmungsphasen waren stets intensiv, rasch und von Katastrophen begleitet. Heute befinden wir uns immer noch in einer exponentiellen Zunahme der Erwärmung nach der Kleinen Eiszeit.

Laut UNO-Weltklimarat kommt zusätzlich zur erdgeschichtlichen Erwärmung aber noch die vom Menschen gemachte dazu?
Richtig. Aber es gilt zu bedenken, dass das System extrem dynamisch ist und nicht linear funktioniert. Die Gletscher rücken nicht friedlich vor, bleiben eine Weile liegen und gehen dann zurück.

Warum bewegten sie sich in den letzten 200 Jahren denn viel dynamischer als vorher?
Das trifft so nicht zu. Man kannte früher nur Bruchstücke der Geschichte und wusste nicht, dass das System so dynamisch ist. Mitte des 19. Jahrhunderts war der Höchststand der Kleinen Eiszeit, die Gletscher waren vorgerückt. Dann fielen sie zurück. In den 1980er-Jahren gab es aber erneut Vorstösse.

Der Rückgang Mitte des 19. Jahrhunderts fiel doch mit dem Beginn der Industrialisierung zusammen?
Diese Frage ist bis heute nicht beantwortet: Wieso gingen die Gletscher Mitte des 19. Jahrhunderts zurück, obwohl der grosse CO2-Anstieg in der Atmosphäre erst später kam? Warum «kippte» die Erde in derart kurzer Zeit in eine Erwärmungsphase? Warum gab es in den 1880er-, 1920er- und 1980er-Jahre wieder Vorstösse? Ein berühmter Klimaforscher liess in den 1980er-Jahren in «Bund» und BZ verlauten, uns stehe die nächste Eiszeit bevor.

Es schleckt aber keine Geiss weg: Der Gletscherschwund ist rasant.
Ja. So katastrophal wie am Ende der letzten Eiszeit. Aber das System funktioniert nicht linear. Früher oder später muss die Klimaforschung die Frage beantworten, warum der Rückgang der Gletscher am Ende der Kleinen Eiszeit um 1850 derart rasch eingesetzt hat.

Das CO2 spielte keine Rolle für den Gletscherschwund?

CO2 spielt eine Rolle. Aber man kann es nicht zur alleinigen Ursache erklären, ohne die Vorstösse der Gletscher in den 1980er-Jahren zu erklären. Zudem müsste man erklären, welche Rolle das CO2 bei den grossen erdgeschichtlichen «Wendepunkten» zum Beispiel vor 115’000 Jahren spielte.

Da gab es ja noch keine Menschen.
Eben. Warum wurde es da kälter? Warum wurde es vor 17’500 bis 18’000 Jahren wieder wärmer? Ich negiere nichts, ich will aber wissenschaftliche Antworten auf diese Fragen.

Sie führen die Gletscherbewegungen auf die Sonnenaktivität zurück. Da müssten wir heute in einer Phase grosser Sonnenaktivität sein.
Auf der Nordhalbkugel sind wir heute in einer Phase mit Abkühlungstendenzen. Trotzdem gehen die Gletscher zurück. Viele sind überzeugt, dass der Mensch dafür verantwortlich ist. Für mich persönlich ist das nicht die zentrale Frage. Unsere Gesellschaft ist grundsätzlich unehrlich. Man spricht immer vom «Hockey-Stick», der eine lange Phase konstanter Temperaturen mit einer exponentiellen Erwärmung in den letzten 100 Jahren anzeigt. Aber es ist eigentlich ein «Double-Stick», weil man auch die Bevölkerungszunahme zeigen müsste. Darüber spricht aber niemand. Der Konnex zwischen Erderwärmung und Bevölkerungszunahme wird nicht gemacht.

Warum ist eine menschliche Ursache der Klimaerwärmung für Sie nicht zentral? Sind Sie ein Zyniker?
Nein, ganz im Gegenteil. Aber wir wissen noch so wenig, wenn wir nicht erklären können, warum die alpinen Gletscher am Ende der Kleinen Eiszeit zurückgingen. Und warum die Kleine Eiszeit überhaupt angefangen hat. Haben die Römer mit Heizen aufgehört, sodass es weniger CO2 in der Atmosphäre gab?

Nach dem Untergang des Römischen Reiches ging es kulturell ja schon etwas bachab.
Das ist jetzt aber auch zynisch. Die Zeit, die wir betrachten, ist doch viel zu kurz.

Beim sogenannten Klimagate vor ein paar Jahren wurde ein Mail eines Wissenschaftlers publik, der schrieb, man müsse die Kleine Eiszeit wegdefinieren.
Genau diese Diskussion berührt mich nicht, weil sie nicht ehrlich ist.

Es geht wohl um Geld.
Es geht auch um Geld für Forschung und Renommee.

Unterstellen Sie den Forschern des UNO-Weltklimarates politisches Kalkül?
Ich wurde einmal aus Versehen an ein Meeting in England eingeladen. Die Diskussion dort war sehr denkwürdig. Sie wurde von jemandem des East Anglia Climate Center geführt, das wegen der publizierten E-Mails im Zuge von «Klimagate» in die Kritik geraten war. Der Gesprächsleiter sprach als eine Art Vater. Er setzte sich auf einen Tisch vor der versammelten Gemeinde und nahm die Messages entgegen. Diese kommentierte er entweder wohlwollend oder ablehnend. Zuletzt ging es um Tipps, wie man welches Gesuch an welcher Stelle für bestimmte Forschungen formuliert. Für mich war es beeindruckend, zu sehen, wie der Gesprächsleiter Informationen gesammelt und selektioniert hat. Mir geht es auch um die Glaubwürdigkeit der Naturwissenschaft.

Die Naturwissenschaft wird korrumpiert?
Viele Naturwissenschafter sind heute Zudiener von Politikern, aber nicht mehr Naturwissenschafter, denen es um neues Wissen und Daten geht. Und das macht mir Sorge. Es gibt in der Geschichte viele Beispiele für das Versagen der Naturwissenschaft, weil der Mut gefehlt hat. Dasselbe gilt auch für andere Disziplinen, aktuell zum Beispiel für die Ökonomie.

Und heute sind wir wieder in einer Situation, in der man gewisse Möglichkeiten im Voraus ausschliesst?
Es gibt schon Fragen, die tendenziell (noch) ausgeblendet werden. Mehr und mehr jungen Forschern wird aber bewusst, dass der Stellenwert der Forschung sinkt, je mehr sie sich der Politik ausliefert.

Laut einem weiteren Berner Klimaforscher, Thomas Stocker, haben wir nur noch die Wahl zwischen einer Erderwärmung um zwei oder um vier Grad. Ist das Hysterie?
Die Erfindung des Teufels war die grandioseste Erfindung, die die Menschheit je gemacht hat. Man kann viel Geld machen, wenn man ihn an die Wand malt. Andererseits wären die möglichen Auswirkungen einer Erwärmung auf eine so komplexe und verwöhnte Gesellschaft wie die heutige gravierend – vergleichbar mit der Situation, die die Völkerwanderung ausgelöst und das Römische Reich zum Einsturz gebracht hat.

Ist es nicht beängstigend, wenn die Gletscher im Jahr 2100 weg sind?
Sie kommen wieder, weil wir auf der Nordhalbkugel noch im Modus der Eiszeit sind. Die Gleichgewichtslinie, also die Linie zwischen Nähr- und Zehrgebiet eines Gletschers, lag zu Zeiten Hannibals mindestens 300 bis 350 Höhenmeter höher als heute. Die Durchschnittstemperatur lag anderthalb Grad über jener von 2005. Erdgeschichtlich ist die jetzige Entwicklung nicht neu.

Gab es in der Römerzeit auch aufgetaute Permafrostböden, Murgänge und gefährdete Verkehrswege?
Murgänge gibt es in der Phase des Übergangs von kalt zu warm. Danach sind diese Böden wieder stabil. Das geht oft vergessen. Unsere Infrastruktur heute ist aber viel verletzlicher als damals.

Die Alpen ohne Permafrostböden wären kein Drama?
Mittelfristig nicht. Kurzfristig ist es für Bauten in diesen Böden dramatisch.

Ist die Wasserversorgung durch den Gletscherschwund nicht gefährdet?
Auf die Reserven der Wasserversorgung hätte das einen Einfluss, da der Gletscher als Speicher entfällt. Auf die Wasserversorgung als solche nicht. Es ist unwahrscheinlich, dass es in den Alpen keinen Niederschlag mehr gibt.

Werden die Kinder Ihrer Enkel dereinst noch Gletscher erleben?
Ich versuche meinen Enkeln zu vermitteln, dass der Mensch nicht der Herr des Universums ist. Ich ermahne sie zu einem schonenden Umgang mit unseren Ressourcen, zum Beispiel dem Wasser. Man muss nicht jeden Tag duschen. Und ich versuche ihnen zu zeigen, dass sich die Umwelt verändert.

Trotzdem traten Sie als Kronzeuge gegen die Klimaerwärmung in der «Weltwoche» auf.
Ich habe mich nie politisch eingemischt.

Sie traten an SVP-Versammlungen als Gastreferent auf.
Ich habe vor allen Parteien gesprochen – nicht immer über «Eis und Holz».

Nochmals: Was steckt hinter den Gletscherschwankungen? Am Hebel der Veränderungen steht die Sonnenaktivität. Zudem spielen tektonische Bewegungen und die Verschiebung der Jahreszeiten in der Nordhemisphäre eine Rolle. Ein Auslöser können auch Vulkane sein.

Dieser Beitrag erschien zuerst in "Der Bund" 




Ende eines Irrtums

Inzwischen zweifelt kein ehrlicher Wissenschaftler mehr daran, dass die offiziellen Schätzungen der Klimasensitivität, auf deren Grundlage die Regierungen Billionen locker machen, Übertreibungen sind. Und doch verstärken die Regierungen – vor allem die hart Linken – noch ihre Bemühungen, die Steuerzahler auszurauben und die Finanziers ihrer politischen Opponenten, der Unternehmen fossiler Treibstoffe, durch unmäßige Vorschriften ihre Existenzgrundlage zu entziehen.

Klima-extremistische Regierungen sind dabei, den Bankrott anzustreben – oder vielmehr Sie und mich bankrott zu machen – weil sie ebenfalls nur zu genau wissen, dass unser Einfluss auf das Klima viel zu gering ist, um es tatsächlich oder potentiell gefährlich werden zu lassen. Aber nach all ihrer widerlichen, weinerlichen Rhetorik hinsichtlich der dringenden Notwendigkeit, den Planeten zu retten [im Original groß geschrieben: to Save The Planet], können sie nicht als vollkommen falsch gesehen werden. Ihre Zaubereien dürfen nie an das Tageslicht kommen. Man ignoriere den Mann hinter dem Vorhang. Man schenke jedwedem Beweis aus der realen Welt keinerlei Aufmerksamkeit!

Die einzige Fluchtmöglichkeit für linke Regierungen und ihre akademischen Kumpane in der wissenschaftlichen Gemeinschaft sowie bei den Medien für die Demütigungen, die sie verbreiten, wäre anderenfalls unvermeidlich die Konfrontation mit Vorwürfen des Betrugs seitens der umschmeichelten nicht-linken Regierungen, die kollektiv weltweit die CO2-Konzentrationen kappen sollen. Dann, wenn sich die Temperatur weigert, weiter zu steigen – und sie wissen inzwischen, dass sie sich weigert – werden sie behaupten, dass ihre Maßnahmen zur CO2-Reduktion den Planeten gerettet haben, obwohl dieser von Anfang an gar nicht in Gefahr war. Es ist eine einfache, aber gefährliche Strategie, die in den marxistischen Main-Stream-Medien* niemals beschrieben, geschweige denn in Frage gestellt wird.

[*Unübersetzbares Wortspiel. Im Original steht statt ‘mainstream-media’ der Begriff ‘Marxstream media]

Sie könnten damit durchkommen. Nächstes Jahr in Paris (falls sie keinen Erfolg damit haben, uns überraschend schon in diesem Jahr zu erreichen), werden sie hoffen, die Regierungen überreden zu können, einen bindenden Klimavertrag zu unterzeichnen, der sich in keiner Hinsicht von dem unterscheidet, was in Kopenhagen gescheitert ist.

Alle Personen, die dies eventuell stoppen könnten, werden in Las Vegas sein. Falls Sie auch darunter sind, werden Sie sofort ein Zimmer im Mandalay Bay Resort and Casino buchen müssen (siehe Bild). Mehr Details bei www.heartland.com.

•••

Anmerkung des Übersetzers: Es folgen noch einige Absätze über die Spielernatur des Tagungsortes Las Vegas. Für die Thematik hier sind diese nicht so relevant, weshalb ich hier auf die Übersetzung verzichte. Anders als normal hat Monckton hier in einem recht einfach zu verstehenden Englisch geschrieben.

Link: http://wattsupwiththat.com/2014/06/06/end-of-an-error/

Übersetzt von Chris Frey EIKE




Teil II Videos von der VII. IKEK Mannheim jetzt verfügbar: heute Prof. Henryk Svensmark und Prof. Nir Shaviv

Prof. Hernryk Svensmark vom Centre for Sun-Climate Research of Danish National Space Centre, berichtet über neue Erkenntnisse über den Einfluss der kosmischen Höhenstrahlung -moduliert durch den Sonnenwind, auf das globale Klima. Seine grundlegende Idee dieser Modulation, letztendlich der Wolkenbildung und durch diese die Lufttemperatur, durch die Höhenstrahlung und den Sonnenwind erfährt immer mehr Unterstützung durch Beobachtungen. 

Für alle Ipad-Iphone Safari Nutzer: Hier die URL zum Direktanwählen: http://www.youtube.com/watch?v=EDTmM74nDcw

Die Frage, die es nun zu klären gilt, ist, wie die Kondensationskerne, die zu Bildung von Wolken unbedingt erforderlich sind, durch Sonnenwind und Höhenstrahlung gebildet werden. Wie auch einige andere ist die Vortragssprache Englisch. Wir bedauern dass wir die deutsche Übersetzung nicht verwenden dürfen.

Auch Prof. Nir Sahviv vom Racah Institute of Physics – The Hebrew University of Jerusalem war schon häufig Gast auf den EIKE Klima- und Energiekonferenzen. Er liefert die astrophysikalische Ergänzung der Theorie von Svensmark zur Steuerung der Entstehung von Wolken durch die Modulation der kosmischen Höhenstrahlung durch den Sonnenwind.

Für alle Ipad-Iphone Safari Nutzer: Hier die URL zum Direktanwählen: https://www.youtube.com/watch?v=bs0UWctZ7hU


Zusätzlich beschreibt er, wie auch die Höhenstrahlung beim Wandern des Sonne durch den äußeren Bereich der Milchstraße selbst moduliert wird und damit massiven Einfluss auf die längerfristige Groß-Klima-Entwicklungen nimmt. 
Auch dieser Vortrag ist in Englisch. Die deutsche Übersetzung steht uns leider nicht zur Verfügung




Was Obama von Deutschlands gescheitertem Experiment mit grüner Energie lernen könnte

Bild rechts: Ein Windpark, wie er auch in Nauen bei Berlin steht. Die Krise in der Ukraine unterstreicht die größte politische Herausforderung nach den ersten 100 Tagen der Amtszeit von Kanzlerin Angela Merkel, nämlich die Mammut-Transformation des Landes von Kernkraft hin zu erneuerbaren Energien auf die Reihe zu bekommen. Die Transformation begann in vollem Umfang, als Merkel nach dem Kernkraftunfall in Fukushima abrupt Deutschlands Ausstieg aus der Kernkraft betrieb. Seitdem hat die „Energiewende“ [das Wort steht so auch im Original mit der beigefügten Übersetzung von Coats mit „Energy turnaround“. Anm. d. Übers.] zunehmend Kopfschmerzen verursacht. Bild: © Harry Hain

Als diese Gesetzgebung im Jahre 2000 in ein Gesetz für erneuerbare Energie [EEG] gegossen worden war, garantierte Deutschland Solar- und Windparkbetreibern 20 Jahre festgesetzte hohe Preise und räumte dieser Energie Vorrang bei der Einspeisung ins Netz ein. Dieses Schema regierungsamtlicher Einmischung, Subventionen und Marktmanipulationen bildete den Rahmen für sogar noch fatalere Entscheidungen der Regierung hinsichtlich Energiepolitik.

Nach dem Kernkraftunfall in Fukushima 2011 hat der deutsche Gesetzgeber eine sogar noch dramatischere Änderung der Politik vollzogen. Reitend auf der Bewegung der grünen Welle haben die politischen Parteien in Deutschland hastig eine Entscheidung getroffen, alle 17 Kernkraftwerke des Landes abzuschalten. Die Führer Deutschlands sorgten für die Eliminierung sauberer Kernenergie, während sie gleichzeitig darauf abzielten, die Kohlenstoffemissionen bis zum Jahr 2050 um 80 bis 95 Prozent zu reduzieren.

Diese übermäßig ambitionierten und scheinbar widersprüchlichen Ziele sollen durch einen extravaganten Plan der Regierung erreicht werden, die Entwicklung und Erzeugung erneuerbarer Energieverfahren zu fördern. Im Zuge dieses Planes – „Energiewende“ [„energy transition“] genannt – sollen Erneuerbare, hauptsächlich Solar- und Windenergie, 80% des deutschen Strombedarfs und 60 Prozent des gesamten Energiebedarfs des Landes decken.

Das sieht unmöglich zu erreichen aus? Nun, es ist unmöglich. Deutschlands fortgesetzte Subvention der Industrie alternativer Energien bedeutet, dass die Deutschen Energiepreise zahlen, die mindestens zwei- bis viermal so hoch sind wie im globalen Mittel.

Normale Haushalte der Mittelklasse tragen bei Weitem den größten Anteil an dieser drückenden Kostenlast, da die Industrie selbst stark subventioniert wird.

Anfang des Jahres hat die deutsche Regierung einräumen müssen, dass 6,9 Millionen Familien in Energiearmut leben, die definitionsgemäß vorliegt, wenn mindestens 10 Prozent des Haushaltseinkommens für Energie aufgewendet werden müssen. Die Einwohner Deutschlands beklagen sich lauthals über diese Zusatzkosten – Kosten, die die Amerikaner und die meisten EU-Länder noch nicht zahlen müssen.

Sigmar Gabriel, Deutschlands Vizekanzler und Umweltminister, hat kürzlich vor einem Treffen der führenden Solartechnologie-Firmen ausgeführt, dass die Energiewende „am Rande des Scheiterns steht“. Er und andere sind zu diesem öffentlichen Bekenntnis gekommen mit der Erklärung, dass massive Regierungs-Subventionen nicht nachhaltig seien.

Inzwischen hat sich die technologische Innovation verlangsamt und ist sogar behindert worden, haben sich doch Unternehmen an die Subventionen der Regierung gewöhnt. Selbst das extravagante Ziel der Reduktion von Kohlenstoffemissionen wurde ins Gegenteil verkehrt, sind doch die Emissionen seit Einführung dieser Politik stetig gestiegen. Deutschland importiert jetzt Energie von Kernkraftwerken jenseits der Grenze aus Frankreich.

Ironischerweise ist der Retter der deutschen Energiewüste – und hier sollte Präsident Obama sehr aufmerksam hinschauen – die Kohle.

Während die Subventionen der Regierung ineffiziente Technologien finanzieren und die Regierung von den Emissionszielen besessen ist, ist der Kohleverbrauch in Deutschland bei der Gesamt-Stromerzeugung auf 45 Prozent gestiegen, das ist der höchste Anteil seit 2007.

Um im Wettbewerb auf dem globalen Markt mithalten zu können, braucht jedes Land – seien es die USA oder Deutschland – eine vernünftige, auf bewiesener Wissenschaft beruhende Energiepolitik, die sich auf dem offenen Markt bewähren muss.

Fehlgeleitete exekutive Übermaßnahmen und regulatorische Angriffe auf die Energieindustrie sind kaum der Weg, eine solche Politik zu erreichen.

Unter der Politik der jetzigen Administration können die amerikanischen Energieerzeuger kaum fassen, dass verwirrende regulatorische Eingriffe unsere gesunde, marktbasierte Energieindustrie in Rotation versetzen.

Ohne Kurskorrektur wird Obamas Krieg gegen die Kohle die gleichen Ergebnisse zeitigen wie Deutschlands Krieg gegen fossile Treibstoffe: höhere Preise und ein echtes Potential für Störungen der Energieversorgung.

Präsident Obama hat Elemente des europäischen Sozialismus’ oftmals als etwas betrachtet, das er den Amerikanern auch gerne verordnen würde. Es ist jetzt an der Zeit, dass er aus den europäischen Fehlern lernen sollte. Der Präsident sollte es vermeiden, die Lage in Deutschland zu duplizieren, indem er einfach sichere Energieerzeuger ihre Arbeit machen lässt, Energie zu erzeugen.

Der Republikaner Dan Coats repräsentiert den Bundestaat Indiana im US-Senat. Er ist Mitglied im Senate Intelligence Committee und war früher US-Botschafter in der Bundesrepublik Deutschland.

Link: http://www.thegwpf.org/what-obama-could-learn-from-germanys-failed-experiment-with-green-energy/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Diesen Blick aus US-Sicht auf Deutschland von einem, der sich hier auskennt, fand ich so interessant, dass ich diesen Artikel übersetzt habe.




Der Künstler als Klimamodell-Experte

Wirkliche Klimaleugnung ist das Verleugnen der vom Computer erschaffenen Welt durch Mutter Natur.

Wissenschaft und Kunst sehen die Welt, d. h. die Realität unterschiedlich. Es liegt im Bereich der Bildenden Kunst, dass eine flüchtige Wahrheit der Klimadynamik bereits identifiziert und dokumentiert worden ist. Vor langer Zeit hat ein Künstler das dargestellt, was viele im Bereich Computer-Modellierung des Klimas nicht bemerkt oder abgelehnt haben, es einzuräumen. Und doch wird seine Botschaft oftmals durch den Computer-Modellierer ignoriert, dessen Leidenschaft für sein Programm ihn blind macht gegenüber der von diesem Künstler verkündeten Wahrheit. Begeisterte Klima-Modellierer hängen viel mehr an ihrem Computer-Modell als an der Realität.

Dieses Mahnmal sichtbarer Wahrheit hängt im Los Angeles Museum of Art, ein paar Meilen entfernt von der University of California in Los Angeles (UCLA). Erst vor Kurzem hat eine Gruppe vom UCLA einen Bericht veröffentlicht, in der die Entschärfung des Klimas [climate mitigation] via einer Anzahl Modalitäten erkundet wird. Hätten Mitglieder dieses Berichtes das nahe gelegene County Museum besucht, hätte sich ihr Enthusiasmus für die Ergebnisse des Berichtes vermutlich gemäßigt, die allesamt auf Studien basieren… wobei Studien hier ein Kürzel für Computersimulationen ist.

Ceci n’est pas une pipe“ oder „das ist keine Pfeife“, gemalt von René Magritte im Jahre 1928 zeigt eine perfekte Pfeife eines Rauchers. Man unterdrücke den Drang zu erklären, dass jener Maler den Bezug zur Realität verloren hat. Sein Gemälde ist näher an der Wirklichkeit als einige Klima-Modellierer, zum Beispiel Prof. Chris Folland vom Hadley Centre for Climate Prediction and Research, der eine derartige Leidenschaft für seine vom Computer generierte Welt in die Worte kleidet: „Die Daten spielen keine Rolle. Wir begründen unsere Ratschläge nicht mit den Daten. Wir begründen sie mit Klimamodellen“.

Eine derartige blinde Liebe zu seinem eigenen Erzeugnis ist durch die griechische Mythologie unsterblich gemacht worden, und zwar durch die Sage von Pygmalion. Sich in seine eigene Schöpfung zu verlieben bietet eine Grundlage für interessante philosophische Debatten, wenn es sich um eine Statue handelt; handelt es sich aber um ein Klimamodell, ist es abwegige Wissenschaft. Es ist keine Wissenschaft mehr, sondern eine abstruse Entfernung von der Realität.

Magrittes sichtbare Botschaft lautet, dass eine Kopie oder die Darstellung eines Objektes nicht das Original-Objekt selbst ist. Im Kommentar von David Blakesley und Collin Brooke heißt es dazu:

„Magritte beleuchtet für unsere Betrachtung den Gedanken, dass das Abbild einer Pfeife nicht das Gleiche ist wie die Pfeife selbst (oder die Buchstaben P-f-e-i-f-e). Es ist eine Repräsentation der Pfeife, einmal entfernt von seinem Bezug, nämlich dem Objekt, auf den es sich bezieht. Er zwingt uns auch, unsere eigene Reaktion auf das Gemälde zu überdenken, indem er mit unserem Zwang, das Gemälde eine Pfeife zu nennen, unsere Voreinstellung enthüllt, das Bild mit dem es repräsentierenden Gegenstand zu verwechseln“.

Die Lektion von Magritte für die globalen Klima-Modellierer lautet also folgendermaßen: Das Computermodell ist keine Realität, sondern lediglich der Versuch, die Realität abzubilden. In dem unter der Bezeichnung Klimadynamik bekannten komplexen System sind die Modelle keine Realität auf einem Computerchip. Es sind Szenarien, gleich den drei blinden Männern, die der Fabel nach einen Elefanten beschreiben. Stephen Few hat diese Fabel als Beginn seines Essays über Erkenntnis- und Geschäfts-Intelligenz benutzt. Jeder Modellierer kann ein kleines Stückchen des Klimapuzzles korrekt hinbekommen – oder auch nicht, aber niemand hat das gesamte Bild reduziert auf eine stichhaltige Computer-Repräsentation hinbekommen. Das Klimasystem ist so komplex und chaotisch, dass Computer-Modellierer vereinfachte Konstruktionen erstellen müssen mit offenen Hypothesen (Parametrisierungen). Wie Magrittes Pfeife ist das Endergebnis sogar noch weiter entfernt von der Realität.

Vor Kurzem wurde der National Climate Assessment [etwa: Bericht zum nationalen Zustand des Klimas] veröffentlicht, in dem behauptet wird, dass „Details über die vielfältige Weise, auf die die Klimaänderung bereits jetzt das Leben der Amerikaner beeinflusst und weiter deren Leben zunehmend beeinflussen wird“. Eine institutionalisierte Computer-Vorhersage, die sich als wissenschaftliche Tatsache maskiert, macht daraus noch lange keine Tatsache.

Um die öffentliche Kontrolle nicht nur über uns, sondern auch über das zukünftige globale Klima weiter auszuweiten, hat die EPA einen neuen Slogan: „30 Prozent weniger bis 2030“.

Vielleicht wurden die „30 bis 2030” in einer Gruppendiskussion ausgekocht, weil es so rhythmisch daherkommt, oder vielleicht hat es auch ein Computer projiziert, um die Massen zu erreichen.

Erwartungen realistischer Forschungsergebnisse und Zustände des zukünftigen Klimas aufgrund falscher zugrunde liegender Modelle ist, nun ja, so etwas wie viele fromme Wünsche.

Charles Battig, M.D. , Piedmont Chapter president, VA-Scientists and Engineers for Energy and Environment (VA-SEEE). His website is www.climateis.com

Link: http://wattsupwiththat.com/2014/06/03/the-artist-as-climate-model-expert/

Übersetzt von Chris Frey EIKE




Der Stillstand geht weiter: Immer noch keine globale Erwärmung, nunmehr seit 17 Jahren und 9 Monaten

Bild rechts: Monatliche globale mittlere Temperaturanomalien der unteren Troposphäre nach RSS (dunkelblau) und Trend (dicke hellblaue Linie). Von September 1996 bis Mai 2014 zeigt sich seit 17 Jahren und 9 Monaten kein Trend.

Die Stillstands-Periode von 17 Jahren und 9 Monaten ist der weiteste Schritt zurück, den man bei den RSS-Temperaturdaten gehen kann und immer noch einen Null-Trend findet. Aber die Länge des Stillstands der globalen Erwärmung, so signifikant sie inzwischen auch ist, ist von geringerer Bedeutung als die immer weiter zunehmende Diskrepanz zwischen den von den Modellen vorhergesagten Temperaturtrends und der beobachteten weniger begeisternden Temperaturänderung in der realen Welt.

Im Ersten Zustandsbericht wurde noch vorhergesagt, dass die globale Temperatur um 1,0 (0,7; 1,5)°C bis zum Jahr 2025 steigen würde, das wäre äquivalent zu einer Rate von 2,8 (1,9; 4,2)°C pro Jahrhundert. In der Executive Summary wurde gefragt: „Wie viel Vertrauen haben wir in unsere Vorhersagen?” Das IPCC wies auf einige Unsicherheiten hin (Wolken, Ozeane usw.), kam aber zu der Schlussfolgerung:

„Nichtsdestotrotz … haben wir substantielles Vertrauen, dass unsere Modelle zumindest die Features der Klimaänderung im groben Rahmen vorhersagen können … Es gibt Ähnlichkeiten zwischen den Ergebnissen gekoppelter Modelle, die einfache  Repräsentationen des Ozeans verwenden und jenen, die kompliziertere Beschreibungen verwenden, und unser Verständnis derartiger Unterschiede gibt uns einiges Vertrauen in die Ergebnisse“.

Jenes „substantielle Vertrauen” war substantielles Über-Vertrauen. Ein Vierteljahrhundert nach 1990 beträgt das Ergebnis bis heute 0,34°C – ausgedrückt als lineare Regression kleinster Quadrate des Mittels nach GISS, HadCRUT4 und NCDC der monatlichen globalen Temperaturanomalien. 0,34°C, das ist äquivalent zu einer Rate von 1,4°C pro Jahrhundert oder genau die Hälfte der zentralen Schätzung des IPCC (1990) und deutlich unter selbst der geringsten Schätzung (Abbildung 2).

Abbildung 2: Mittelfristige globale Temperatur-Projektionen des IPCC (1990) von Januar 1990 bis April 2014 (orangene Fläche und rote Trendlinie) im Vergleich zu beobachteten Anomalien (dunkelblau) und Trend (hellblau) als Mittel der monatlichen Temperaturanomalien nach RSS und UAH.

Abbildung 3: Vorhergesagte Temperaturänderung seit 2005 mit einer Rate äquivalent zu 1,7 (1,0; 2,3)°C pro Jahrhundert (orangene Fläche mit dicker roter Trendlinie des Best Estimate), verglichen mit den beobachteten Anomalien (dunkelblau) und Trend (hellblau).

Bemerkenswerterweise liegen auch die jüngsten und erheblich reduzierten kurzfristigen Projektionen der globalen Erwärmung immer noch exzessiv zu hoch (Abbildung 3).

Im Jahre 1990 lag die zentrale Schätzung der kurzfristigen Erwärmung um zwei Drittel höher als heute. Dann war es ein Äquivalent zu 2,8°C pro Jahrhundert. Inzwischen sind es lediglich 1,7°C – und, wie Abbildung 3 zeigt, ist selbst das noch eine substantielle Übertreibung.

Hinsichtlich der RSS-Satellitendaten gab es seit über 26 Jahren keine statistisch signifikante globale Erwärmung. Keines der Modelle hat das vorhergesagt – im Endeffekt ist es ein Vierteljahrhundert ohne jede globale Erwärmung.

Neue Versuche, die ernste und immer noch wachsende Diskrepanz zwischen Vorhersage und Realität hinweg zu erklären, gibt es inzwischen fast jeden Tag. Viel zu wenig Wissenschaftler hinter der Klima-Angst waren bisher gewillt, die offensichtlichste Erklärung anzubieten – dass nämlich die Modelle so programmiert worden sind, dass eine viel stärkere Erwärmung vorhersagen als wahrscheinlich eintritt.

Es kann gut sein, dass der lange Stillstand diesen Winter zu Ende geht. Ein El Niño-Ereignis hat eingesetzt. Die üblichen Verdächtigen haben gesagt, dass es Rekorde brechen wird, aber bislang gibt es viel zu wenig Informationen, um sagen zu können, zu wie viel vorübergehender Erwärmung es dadurch kommen wird. Die Temperaturspitzen der El Niño-Ereignisse von 1998, 2007 und 2010 kommen in den Abbildungen 1 bis 3 klar zum Ausdruck.

Zu einem El Niño kommt es alle drei oder vier Jahre, obwohl noch niemand genau sagen kann, was sie auslöst. Sie verursachen eine temporäre Temperaturspitze, oftmals gefolgt von einem starken Rückgang während der La Niña-Phase, wie man in den Jahren 1999, 2008 und 2011-2012 erkennen kann, als es einen „Doppel-Dip“ La Niña gab.

Das Verhältnis zwischen El Niños und La Niñas tendiert dazu, in die 30-jährige negative oder Abkühlungs-Phase der Pazifischen Dekadischen Oszillation zu fallen, deren jüngste Ende 2001 eingesetzt hat. Obwohl also der Stillstand zum Jahreswechsel einige Monate lang unterbrochen werden könnte, dürfte er Ende 2015 höchstwahrscheinlich wieder einsetzen.

Wie auch immer, es wird immer klarer, dass die globale Erwärmung nicht einmal annähernd mit der von den Klimamodellen vorhergesagten Rate stattgefunden hat, und es ist überhaupt nicht wahrscheinlich, dass sie selbst mit der jetzt vorhergesagten erheblich reduzierten Rate stattfinden wird. Es könnte in diesem Jahrhundert eine globale Erwärmung bis 1°C geben, aber nicht die vom IPVV vorhergesagten 3 bis 4°C.

Zentrale Fakten hinsichtlich der globalen Temperatur

Ø Der RSS-Satellitendatensatz zeigt keinerlei globale Erwärmung seit 213 Monaten, also von September 1996 bis Mai 2014. Das ist über die Hälfte der gesamten, 425 Monate langen Periode mit Satellitenaufzeichnungen.

Ø Die höchste auf ein Jahrhundert umgerechnete Erwärmungsrate war in Mittelengland von 1663 bis 1762 mit einer Rate von 0,9°C aufgetreten – vor der industriellen Revolution. Es kann also nicht unsere Schuld gewesen sein.

Ø Der globale Erwärmungstrend seit 1900 ist äquivalent zu 0,8°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und wird nicht viel mit uns zu tun haben.

Ø Der höchste Erwärmungstrend über zehn Jahre oder mehr ereignete sich in den 40 Jahren von 1694 bis 1733 in Mittelengland – mit einer Rate äquivalent zu 4,3°C pro Jahrhundert.

Ø Seit 1950, als ein menschlicher Einfluss auf die globale Temperatur zum ersten Mal theoretisch möglich war, lag der globale Erwärmungstrend äquivalent zu 1,2°C pro Jahrhundert.

Ø Die höchste Erwärmungsrate über zehn Jahre oder mehr seit 1950 ereignete sich während der 33 Jahre von 1974 bis 2006. Die Rate war äquivalent zu 2,0°C pro Jahrhundert.

Ø Im Jahre 1990 lautete die mittelfristige Schätzung des Erwärmungstrends äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel über der heutigen IPCC-Vorhersage.

Ø Der globale Erwärmungstrend seit 1990, als das IPCC seinen ersten Bericht geschrieben hatte, ist äquivalent zu einer Rate von 1,4°C pro Jahrhundert – die Hälfte von dem, was das IPCC zu der Zeit vorhergesagt hatte.

Ø Im Jahre 2013 lautete die neue mittelfristige Vorhersage des IPCC auf eine Rate äquivalent zu 1,7°C pro Jahrhundert. Aber auch das ist noch übertrieben.

Ø Obwohl des IPCC seine kurzfristige Erwärmungs-Vorhersage zurückgefahren hat, ist dessen Vorhersage einer Erwärmung von 4,7°C bis zum Jahr 2100 weiterhin Business as Usual.

Ø Diese vom IPCC vorhergesagte Erwärmung von 4,7°C bis zum Jahr 2100 liegt mehr als doppelt so hoch wie der höchste beobachtete Erwärmungstrend in der realen Atmosphäre über zehn Jahre, der seit 1950 gemessen worden ist.

Ø Die IPCC-Vorhersage von 4,7°C bis zum Jahr 2100 liegt fast vier mal so hoch wie der beobachtete Erwärmungstrend in der realen Welt, seit wir theoretisch in der Lage gewesen sein könnten, die Temperatur zu beeinflussen (1950).

Ø Seit dem 1. Januar 2001, dem Beginn des neuen Jahrtausends, ist der Erwärmungstrend im Mittel von 5 Datensätzen Null. Keine Erwärmung seit 13 Jahren und vier Monaten.

Ø Jüngste Extremwetterereignisse können nicht mit der globalen Erwärmung in Verbindung gebracht werden, einfach weil es keine Erwärmung gegeben hat. So einfach ist das.

Technische Anmerkung

Die jüngste Graphik zum Thema zeigt der RSS-Datensatz während der 213 Monate seit September 1996 bis Mai 2014 – über die Hälfte der 425 Monate langen Überwachung per Satellit.

Terrestrische Temperaturen werden mit Thermometern gemessen. Thermometer, die korrekt aufgestellt sind in ländlichen Gebieten und weit weg von menschlichen Wärmequellen zeigen Erwärmungsraten deutlich unter denen, die veröffentlicht werden. Die Satellitendaten basieren auf Messungen durch die genauesten derzeit verfügbaren Thermometer – Platin-Widerstands-Thermometer, die nicht nur die Temperaturen in verschiedenen Höhen über der Erdoberfläche mittels Mikrowellen-Sounding messen, sondern sich auch ständig selbsttätig kalibrieren durch die Messung der bekannten Temperatur der kosmischen Hintergrundstrahlung via auf das Weltall ausgerichtete Spiegel. Sie macht 1% des Gefrierpunktes von Wasser aus bzw. liegt nur 2,73° über dem absoluten Nullpunkt. Es war die Messung dieser minimalen Variationen der kosmischen Hintergrundstrahlung, durch die die NASA das Alter des Universums bestimmt hat: 13,82 Milliarden Jahre.

Die Graphik ist akkurat. Die Daten stammen monatlich direkt von der RSS-Website. Ein Computer-Algorithmus liest sie aus dem File heraus, mittelt sie und plottet sie automatisch mittels einer ausgereiften Routine. …

Der jüngste monatliche Datenpunkt wird durch Augenschein inspiziert um sicherzustellen, dass er korrekt positioniert ist. Die hellblaue Trendlinie durch die dunkelblaue Kurve der einzelnen Datenpunkte zeigt, dass die aktuellen Daten bestimmt werden durch die Methode der linearen Regression kleinster Quadrate, die den Schnittpunkt mit der y-Achse berechnet sowie die Steigung der Linie mittels zwei etablierten und funktional identischen Gleichungen, die miteinander verglichen werden um sicherzustellen, dass es zwischen ihnen keine Diskrepanz gibt. Das IPCC und die meisten anderen Agenturen berechnen mittels linearer Regression globale Temperaturtrends. Prof. Phil Jones von der University of East Anglia verlangt dies in einer der Klimagate-E-Mails. Die Methode ist geeignet, weil die globalen Temperaturaufzeichnungen nur wenig Auto-Regression zeigen.

Dr. Stephen Farish, Professor für epidemiologische Statistik an der University of Melbourne hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, der den Trend in der Graphik und den Korrelations-Koeffizienten bestimmt. Er ist sehr klein, weil trotz der hoch variablen Daten der Trend flach ist.

Link: http://wattsupwiththat.com/2014/06/04/the-pause-continues-still-no-global-warming-for-17-years-9-months/

Übersetzt von Chris Frey EIKE




Wohin treibt die AfD in der Energiewende-Politik?

Die Wahl zum EU-Parlament ist gelaufen, die AfD mit sieben Abgeordneten drin, der Wahlkampf vorbei und damit die Zeit gekommen für intensive Arbeit am Parteiprogramm. Das ist wichtig auch für die drei in Deutschland bevorstehenden Landtagswahlen (Sachsen, Thüringen, Brandenburg). Dabei sind vor allem jene Teile der Politik ins Visier zu nehmen, die die Deutschen finanziell besonders belasten. Das ist nach wie vor die unsägliche Banken-Staaten-Euro-Rettungspolitik, das ist aber ebenso die ruinöse deutsche Energiewende-Politik. Beide erreichen in ihren Auswirkungen die gleiche wirtschaftliche Dimension mit drohenden Belastungen von rund je 1 Billion Euro und darüber. Aber anders als in der Euro-Rettungspolitik hat die Alternative für Deutschland in der Energiewende-Politik noch keine widerspruchsfreie Position bezogen, keine rundum überzeugende Alternative gefunden. Schon gar nicht in ihrem Bundesvorstand. Hier stehen sich zwei konträre Positionen gegenüber. Das färbt ab auf die Programmatik. Wie sieht die aus, wie sollte sie aussehen?

Die beiden Bestandteile der deutschen Energiewende-Politik

Die Energiewende-Politik der deutschen Altparteien besteht bekanntlich aus zwei extremen Bestandteilen: erstens die Stromerzeugung aus Kernkraft und fossilen Brennstoffen abschaffen und zweitens den Strom möglichst nur noch mit Windkraft, Solarzellen und Pflanzenmasse (Faulgas) erzeugen, fälschlich und schönfärberisch „erneuerbare“ Energien genannt; richtig müssen sie „neue instabile Energien“ heißen. Das Abschaffen der Stromerzeugung mit fossilen Brennstoffen wird begründet erstens mit deren Ausstoß von Kohlendioxid (CO2), dieses menschenverursachte (anthropogene) Gas erwärme das Erdklima, und zweitens mit der Behauptung, die fossilen Energieträger gingen bald zur Neige. Das eine ist unbewiesen und bestreitbar, wie auch von mir hier vielfach dargelegt, das andere falsch. Auf diese Lage muss sich also auch das AfD-Programm zur Energiepolitik beziehen, wobei Energiepolitik konkreter Stromerzeugungspolitik zu nennen wäre. Wie hat sich die Partei dazu bisher artikuliert?

Ein deutlicher Gegensatz zu den Altparteien

Geschehen ist das in ihrem Programm zur EU-Wahl, beschlossen auf ihrem Bundesparteitag am 22.März 2014. Dort ist unter „IV. 9 Energieversorgung und Umweltschutz“ zu lesen: „Die europäische Umwelt- und Energiepolitik muss an den Zielen Nachhaltigkeit, Versorgungssicherheit und Wettbewerbsfähigkeit ausgerichtet werden. Alle Entscheidungen sind künftig auf der Grundlage rationaler Faktenanalysen statt ideologischen Wunschdenkens zu treffen.“ Der erste Satz versteht sich als Binsenweisheit von selbst, aber wichtig ist vor allem dieser letzte Satz, denn zur gegenwärtigen Stromerzeugungspolitik der Altparteien steht er in deutlichem Gegensatz. Die nämlich beruht allein auf Ideologie (Öko-Ersatzreligion und Fanatismus) und Wunschdenken sowie irrationaler Faktenverweigerung.

Womit sich die AfD ebenfalls sehen lassen kann

Vernünftig ist im AfD-Programm auch dies: „Wissenschaftliche Untersuchungen zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind sehr unsicherheitsbehaftet. Zudem kann ein globales Problem nur durch ein koordiniertes Vorgehen aller großen Wirtschaftsnationen gelöst werden. Deshalb lehnt die AfD nationale und europäische Alleingänge ab.“ Das bedeutet: Weil die deutsche Energiewende ein nationaler Alleingang ist, lehnt die AfD diese Wende ab. Damit kann sie sich sehen lassen.

Aber konsequent müsste es heißen: Finger weg von CO2-Zertfikaten

Doch kommt anschließend diese Einschränkung: „Um dem Vorsichtsprinzip Rechnung zu tragen, kann aber im Rahmen internationaler Abkommen eine graduelle Reduktion von CO2-Emissionen vereinbart werden. Diese sollte ausschließlich durch marktwirtschaftliche, technologieneutrale Instrumente wie z. B. CO2-Zertifikate erfolgen. Da die Auswirkungen menschenverursachter CO2-Emissionen auch nicht annähernd genau bestimmt werden können, muss sich ein Zertifikatesystem daran orientieren, was für Haushalte und Unternehmen finanziell tragbar ist.“  Obwohl also der Zusammenhang zwischen Klimaentwicklung und anthropogenen CO2-Emissionen „unsicherheitsbehaftet“ ist, tritt die AfD in diesem Programm für „eine graduelle Reduktion von CO2-Emissionen“ ein. Das ist inkonsequent und ein Herumeiern: Wer wirklich vorsichtig verfahren will, tut überhaupt nichts und wartet einfach ab. Dann darf es folgerichtig auch keinerlei CO2-Zertfikate geben, zumal doch die CO2-Auswirkungen „auch nicht annähernd genau bestimmt werden können“. Das ist wahrlich ziemlich schwachsinnig: Etwas tun, obwohl man nicht weiß, ob es richtig oder falsch ist. Heißen müsste es: Finger weg von CO2-Zertfikaten.

Ziemlich eindeutig ist die Haltung zum EEG

Dagegen äußert sich das AfD-Programm zum Erneuerbare-Energien-Gesetz (EEG) ziemlich eindeutig: „Das EEG muss komplett abgeschafft werden. Ansprüche von Altanlagen-Besitzern sind rechtskonform abzufinden. Alle Energiemarkt-Eingriffe durch Subventionen wie z. B. staatlich garantierte Vergütungen oder Vorrangeinspeisung für bestimmte Stromerzeugungsanlagen, sind sofort einzustellen. Sie führen zu einer noch stärkeren Beeinträchtigung der Wettbewerbsfähigkeit der deutschen Wirtschaft im EU-Binnenmarkt und weltweit, denn sie verteuern den Strom in Deutschland auf unverantwortliche Weise und schädigen die bisher hohe Sicherheit der Stromversorgung in Deutschland.“

Aber es reicht nicht aus, nur das EEG zu Fall zu bringen

Allerdings noch eindeutiger wäre, das EEG „ersatzlos“ abzuschaffen. Denn „komplett“ abschaffen klingt zwar schön, lässt aber die Möglichkeit offen, anstelle des EEG eine Ersatzregelung für das Vorantreiben von Strom mit Wind, Sonne, und Pflanzenmasse zu installieren. Längst nämlich haben die Energiewende-Politiker neues Regelwerk parat, um auch ohne EEG die neuen instabilen Energien zu bevorzugen und den Bürgern aufzuzwingen. Es handelt sich um das sogenannte Quotenmodell (zuweilen auch Ausschreibungsmodell genannt) und darum, die CO2-Zertfikate zu verknappen. Damit würden die Stromkosten nur weiter hochgetrieben. Es reicht also nicht aus, nur das EEG zu Fall zu bringen, um den Anstieg der Stromkosten zu begrenzen. Ist es weg, darf es also durch keine weiteren Zwangsmaßnahmen ersetzt werden.

Wo sich die AfD im Programm selbst widerspricht

Schön klingt auch, wenn man im Programm liest: „Neue Zielvorgaben für den Ausbau erneuerbarer Energien und der Energieeffizienz nach 2020 lehnt die AfD als ein schädliches Wettbewerbshemmnis ab, solange andere hochindustrialisierte Länder nicht gleichartige Maßnahmen ergreifen.“ Aber warum lehnt sie nur „neue“ Zielvorgaben ab, nicht auch die alten, die bisherigen? Einerseits will sie das EEG „komplett abschaffen“ und „Ansprüche von Altanlagen-Besitzern rechtskonform abfinden“, andererseits aber an den bisherigen „Zielvorgaben für den Ausbau erneuerbarer Energien“ festhalten? Hier widerspricht sie sich selbst und provoziert die Frage, was von beidem sie denn nun wirklich will: weg mit dem EEG oder weiterhin immer mehr Strom aus den neuen instabilen Energien?

Der physikalische Nachteil des „Ökostroms“, der nicht wegzubringen ist

Eben deshalb ist auch der folgende Programmsatz nicht astrein: „Die AfD unterstützt die Erforschung von Technologien, die der Erzeugung von Strom aus regenerativen Quellen dienen, und die Erforschung von Speichertechnologien, die diese wertvollen Energiequellen verlässlich nutzbar machen können.“ Gewiss, man kann dies als ein taktisches Entgegenkommen an Energiewende-Bewegte innerhalb und außerhalb der Partei verstehen. Auch ist nichts dagegen zu sagen, neue Techniken zu erforschen, selbst wenn sie dazu dienen, „Ökostrom“ zu erzeugen und zu speichern. Aber den gewaltigen, physikalisch bedingten Nachteil der zu geringen Energie- und Leistungsdichte dieser Art von Stromerzeugung wird auch diese weitere Erforschung nicht aus der Welt schaffen. Und wieso sind diese Energiequellen dann „wertvoll“? Derzeit ist der Strom, den sie liefern, weil nur subventioniert und per Gesetz durchsetzbar, gar nichts wert. Denn ohne diese massive Unterstützung würde ihn niemand kaufen.

Der volkswirtschaftliche Wert des „Ökostroms“ liegt sogar unter Null

Es ist sogar noch schlimmer, nämlich dann, wenn man die volkswirtschaftlichen Kosten des EEG-Stroms berechnet. Die Stromverbraucher-Schutzvereinigung NAEB, der auch ich angehöre, hat das versucht und kommt auf einen volkswirtschaftlichen Wert des EEG-Stroms („Ökostroms“) von minus 1,6 Cent je erzeugter Kilowattstunde. Dieser Strom hat also einen „Wert“ von sogar unter Null und belastet unsere Volkswirtschaft, statt ihr zu nützen. Mit jeder neuen Anlage nimmt die Belastung zu. Oder anders formuliert: Jede Kilowattstunde dieses Stroms, die nicht erzeugt wird, verbessert das deutsche Bruttosozialprodukts um 1,6 Cent. Dabei sind dieser Berechnung Annahmen zugrunde gelegt, die für den EEG-Strom im Ergebnis sogar noch günstig ausfallen; sonst wäre der Minusbetrag noch größer, zum Beispiel dann
– wenn Arbeitnehmer aus einer zusammenbrechenden EEG-Branche keinen neuen Arbeitsplatz bekommen, sondern den Etat mit Arbeitslosengeld belasten;
– wenn als Opportunitätskosten die preisgünstige Stromerzeugung mit Kernkraft und Braunkohle angesetzt werden;
– wenn die bereits heute vorhandenen verdeckten Kosten der Produktion von EEG-Strom, die sich an anderen Stellen des Verbraucherstrompreises wiederfinden, mit berücksichtigt werden, z.B. erhöhte Transportverluste im Netz.

Warum die fossilen Energieträger ablösen?

Etwas auszusetzen ist am Programmteil der AfD zur Energiepolitik auch dies: „Forschung und Entwicklung von innovativen Technologien und neuen Verfahren, die langfristig die fossilen Energieträger ablösen können, sollen gefördert werden. Langfristig soll Deutschland seine Abhängigkeit von importierten Energieträgern reduzieren. Die dauerhafte Subventionierung jeglicher Art der Energieerzeugung lehnt die AfD ab.“ Warum sollen die fossilen Energieträger abgelöst werden, wenn sie überhaupt nicht knapp sind und eine Verknappung auf hunderte von Jahren gar nicht droht? Warum ablösen, wenn die AfD nicht doch insgeheim dem Glauben anhängt und zu wissen vorgibt, anthropogenes CO2 erwärme das globale Klima? Das stünde dann im Widerspruch zu ihrem Programmsatz „Wissenschaftliche Untersuchungen zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind sehr unsicherheitsbehaftet“? Auch hier muss gelten: Davon, was unsicher ist, lässt man die Finger.

Was es bedeutet, den Import von Energieträgern zu verringern

Und warum soll Deutschland seine Abhängigkeit von importierten Energieträgern reduzieren? Erstens widerspricht das den guten Gründen, warum freier Handel im Prinzip sinnvoll ist und allen nützt, sowie auch dem, dass sich die AfD implizit und prinzipiell zum Freihandel bekennt. Traut sie ihm etwa doch nicht? Zweitens: Angesichts der in Deutschland zu wenig eigenen Energierohstoffe läuft das Reduzieren darauf hinaus, verstärkt jene Energieträger zu nutzen, die in Deutschland zur Verfügung stehen. Das sind Sonne und Wind. Die „Abhängigkeit reduzieren“ bedeutet also noch mehr Strom mittels Wind, Sonne und Pflanzenmasse. Das geht aber nur mit staatlichem Zwang oder staatlichen Anreizen (Subventionen), weil sonst keiner diesen Strom kaufen würde. Eben solche Interventionen aber will die AfD doch gerade verhindern, denn: „Alle Energiemarkt-Eingriffe sind sofort einzustellen.“

Die Energiepolitik in den „Politischen Leitlinien“ der AfD

Im Mai 2014 hat die AfD in ziemlicher Eile „Politische Leitlinien“ zusammengestellt. Auch in ihnen steht etwas zur Energiepolitik (sprich: Stromerzeugungspolitik): „Ebenso wenig können wir billigen, dass eine Energiewende planwirtschaftlich durchgesetzt wird, deren immense Kosten von allen Haushalten – unabhängig von ihrer wirtschaftlichen Situation – gleichermaßen zu tragen sind. Aus unserem Bekenntnis zur sozialen Verantwortung in der Marktwirtschaft lehnt die AfD jede Subvention der Energiegewinnung – außer Anschubfinanzierungen für neue zukunftsträchtige Technologien – ab. Das EEG als System der Dauersubvention ist abzulehnen. Die Energieproduktion hat sich am Markt zu bewähren, muss Versorgungssicherheit gewährleisten, umweltverträglich und bezahlbar sein und darf die ökonomische Entwicklung Deutschlands nicht behindern.“

Der Unterschied zwischen den „Leitlinien“ und dem Programm

An dieser Aussage fällt auf, dass sie „weicher“ formuliert ist als im Programm. So entschiedene Sätze wie „Alle Entscheidungen sind künftig auf der Grundlage rationaler Faktenanalysen statt ideologischen Wunschdenkens zu treffen“ fehlen. Ebenso „Das EEG muss komplett abgeschafft werden“. Oder: „Staatlich garantierte Vergütungen oder Vorrangeinspeisung für bestimmte Stromerzeugungsanlagen, sind sofort einzustellen“. Allerdings hatte AfD-Bundessprecher Bernd Lucke, als er den Leitlinien-Entwurf des Parteivorstandes den Parteimitgliedern am 25. März 2014 für „inhaltliche Anregungen oder Korrektur- und Ergänzungsvorschläge“ zuschickte, dazu angemerkt: „In den Leitlinien soll unser politischer Grundkonsens ausgedrückt werden. Es geht nicht darum, kontroverse Positionen zu entscheiden. Schlagen Sie deshalb nur Änderungen vor, die Ihrer Auffassung nach innerparteilich auf sehr breite Zustimmung stoßen werden. Es geht nicht um Detailarbeit.“

Der ursprüngliche Vorschlag des Parteivorstandes

Zur Energiepolitik stand im Vorstandsentwurf ursprünglich daher auch nur dies drin: „Ebenso wenig können wir billigen, dass eine Energiewende planwirtschaftlich durchgesetzt wird und die immensen Kosten von allen Haushalten gleichermaßen zu tragen sind – unabhängig von ihrem persönlichen Einkommen.“ Ich selbst als eines von vielen Parteimitgliedern habe vorgeschlagen, dies so zu formulieren: „Ebenso wenig können wir billigen, dass eine ohnehin sehr fragwürdige Energiewende staatlich interventionistisch durchgesetzt wird.“ Die weitaus längere Endfassung geht also auf Mitgliederwünsche zurück.

Den Mitgliederwillen unzulässig verfälscht

Festzuhalten ist jedoch, welcher Formulierung 85 Prozent der 2772 Mitglieder, die an der Befragung teilnahmen, zugestimmt hatten. Sie lautete: „Ebenso wenig können wir billigen, dass eine Energiewende planwirtschaftlich durchgesetzt wird, deren immense Kosten von allen Haushalten – unabhängig von ihrer wirtschaftlichen Situation – gleichermaßen zu tragen sind. Aus unserem Bekenntnis zur sozialen Verantwortung in der Marktwirtschaft lehnt die AfD jede Subvention der Energiegewinnung ab, außer Anschubfinanzierungen für neue zukunftsträchtige Technologien. Das EEG ist zu streichen. Die Energieproduktion hat sich am Markt zu bewähren, muss Versorgungssicherheit gewährleisten, umweltverträglich und bezahlbar sein und darf die ökonomische Entwicklung Deutschlands nicht behindern.“ Was beide Texte unterscheidet, ist nur ein Satz. Die weit überwiegende Mehrheit sprach sich für den Satz aus „Das EEG ist zu streichen“. Das Redaktionsteam des Parteivorstandes hat daraus gemacht „Das EEG als System der Dauersubvention ist abzulehnen“ und damit den Mitgliederwillen unzulässig verfälscht. Doch ist diese Verfälschung den Mitgliedern in der abschließenden Abstimmung über die gesamten „Leitlinien“ wohl nicht aufgefallen und ging daher so durch. Daran beteiligt haben sich 3.297 Mitglieder. Sie stimmten zu mit 92,6 Prozent.

Der vollständige „Mut zur Wahrheit“ ist auch in der Energiepolitik nötig

An alldem ist also zu sehen: Die AfD hat in ihrem Programm zur Stromerzeugungspolitik gute, vernünftige Ansätze, aber sie verwickelt sich dabei auch in Widersprüche. Diese sind, wie in Parteien üblich, das Ergebnis vom Bemühen, zwischen unterschiedlichen Meinungen auszugleichen. Sie können gleichwohl die Frage provozieren, ob das AfD-Programm die Wähler und vielleicht auch viele Mitglieder benebeln soll. Wohin also treibt die AfD in der Energiewende-Politik wirklich? Und die nächste Frage muss dann lauten: Wo bleibt da der „Mut zur Wahrheit“, den die AfD in ihren bisherigen Wahlkämpfen (Bundestag, EU-Parlament) versprochen hat und doch sicher auch weiterhin bekunden will? In der Energiepolitik ist er ebenfalls nötig. Zu viele AfD-Mitglieder aber bringen ihn offenbar doch nicht auf, sei es, dass sie fehlinformiert sind, also CO2 als Schadstoff sehen und vor Kernkraft Todesangst haben, sei es, dass sie nicht zu überzeugende Energiewende-Gläubige sind und Tatsachen nicht wahrhaben wollen, sei es, dass sie zu den Profiteuren der Energiewende gehören. Angehörige der beiden letzten Gruppen mögen sich in die AfD eingeschleust haben, um dort ein Programm „die Wende der Wende“ zu verhindern oder aufzuweichen.

Was zuversichtlich und was nachdenklich stimmt

Festzuhalten ist aber auch, was die die Mitgliederbefragung zum EU-Wahlprogramm ergeben hat: Von den damals rund 17.500 AfD Mitgliedern (heute weit über 18.000) haben sich an der Programm-Umfrage 5.154 beteiligt. 60 Prozent von ihnen halten es für sehr wichtig und 35 % für wichtig, das EEG komplett abzuschaffen, zusammen also 95 Prozent. Und solange die Unsicherheit über die CO2-Wirkungen auf das Klima (Erwärmung) nicht überzeugend ausgeräumt ist, halten es 48 Prozent für sehr wichtig und 39 Prozent für wichtig, „jegliches Hantieren mit CO2-Emissionen, Emissionszielen und Zertifikaten“ abzulehnen – zusammen also 87 Prozent. Das stimmt zuversichtlich. Nachdenklich stimmt, dass sich nur 29 Prozent an der Befragung beteiligt haben. Das zeugt nicht gerade von einer besonders breiten Entschlossenheit unter den Mitgliedern, sich auch programmatisch für das Ziel ihrer Partei zu engagieren, nämlich zu neuen politischen Ufern aufzubrechen bzw. zu altbewährten zurückzukehren. Oder haben derart viele AfD-Mitglieder (71 Prozent) keinen PC? Denn die Mitgliederbefragung fand elektronisch über das Internet statt.

Der Beitrag erschien zuerst in K.P. Krauses Blog hier




Unterschätzen wir den Fracking-Boom in Amerika?

Es ist die Geschichte eines Unternehmens namens Sasol, die staatliche südafrikanische Ölgesellschaft, die dieses in der US-Geschichte einmalige Projekt vorhat.

Sasol errichtet derzeit einen 3034 Acre [ca. 12 km²] großen Energiekomplex in einem Sumpfgebiet bei Lake Charles, Louisiana. Man möchte in billiges, durch Fracking gewonnenes Erdgas ebenso wie in eine Pipeline und Infrastruktur für die Verschiffung entlang der Golfküste investieren. Sasol plant Investitionen bis zu 21 Milliarden Dollar dort.

Es ist teure, aufwändige und schmutzige Arbeit. Sasol plant, das Gas zu Äthylen zu brechen, ein chemischer Rohstoff, der für die Herstellung von Plastik, Farben und Verpackungen für Nahrungsmittel gebraucht wird.  Es plant auch, das Gas in High-Quality-Diesel und andere Treibstoffe zu konvertieren, und zwar mit Hilfe eines Prozesses, der einst von den Nazis entwickelt worden ist, um die Abhängigkeit von Ölimporten zu brechen. Der US-Staat Louisiana schießt 2 Milliarden Dollar zu, um diese Ziele zu erreichen.

Dies ist Ingenieurtechnik mit einer so hohen Größenordnung, dass die Schließung von 26 öffentlichen Straßen erforderlich ist sowie der Kauf von 883 Grundstücken aus öffentlichem Eigentum und die Einstellung von 7000 Arbeitern zum Höhepunkt der Errichtung. Etwa 100 zusätzliche LKW werden jeden Tag über die Straßen rollen, wenn der Komplex erst einmal fertiggestellt ist. Unternehmer haben bereits damit begonnen, Camps mit Unterkünften für 4000 Wanderarbeiter zu konstruieren, die für dieses und andere Projekte nach Lake Charles strömen.

In dieser Hinsicht steht Sasol als Metapher für das, was wir bislang hinsichtlich des Gas-Booms in Amerika nicht verstehen. Die meisten wissen, was das Fracking von Öl und Gas für die Preise bedeutet hat. Aber weil man mit der meisten Arbeit noch gar nicht angefangen hat, können nur Wenige das wahre Ausmaß dieser bevorstehenden Industrialisierung ermessen.

Wir wollen es mal so ausdrücken: Wir bilden ein Katar in dem Sumpfgebiet. Denken wir uns, dass Unternehmen neue Städte mit Düngemittel-Fabriken, Bor-Herstellern, Methanol-Terminals, Polymer-Werken, Ammoniak-Fabriken und Papierindustrie ansiedeln. Ummantelt mit Computern sieht die Sasol-Stelle aus wie ein zu fürchtendes, stahlgerüstetes Angkor-Wat [eine historische Tempelstätte in Kambodscha. Anm. d. Übers.]

Alles in allem werden etwa 66 industrielle Projekte – im Wert von etwa 90 Milliarden Dollar – während der nächsten fünf Jahre in Louisiana entstehen. Weitere 55 Milliarden Dollar könnten mit neuen Investitionen kommen, sagt der Minister für wirtschaftliche Entwicklung von Louisiana Stephen Moret. Wie vieles davon aber tatsächlich gebaut wird, bleibt abzuwarten.

Unter der Annahme, dass das Meiste davon wirklich gebaut wird, unterschätzen wir möglicherweise immer noch die positiven Auswirkungen des Gas-Booms sowohl auf die lokale als auch auf die nationale Wirtschaft. Das gesamte BIP des Staates Louisiana liegt etwa bei 250 Milliarden Dollar jährlich.

„Als Ökonom kann ich nur sagen ‚Mann! Heiliger Strohsack‘“, sagte Loren Scott, ein Ökonom in Louisiana, der den Staat seit 40 Jahren studiert. „Normalerweise bemessen wir Wachstum in einer Größenordnung von hunderten Millionen Dollar. So etwas wie hier lässt die Augenbrauen bis zum Haaransatz hochrutschen“. Er erwartet zum Beispiel, dass sich Schulräte „in einer Goldgrube wiederfinden würden“, wenn erst einmal der zehnjährige Steuernachlass ausgelaufen ist.

Genauso unterschätzen wir vielleicht die Verknappung erfahrener Arbeiter, die man braucht, um diese mechanischen Ungeheuer zu betreiben und zu warten. Löhne steigen schon jetzt, was manche Projekte verzögern oder sogar verhindern könnte.

Also verstehen wir auch nicht die Umweltauswirkungen dieses Bau-Gelages. Es wird erwartet, dass das Sasol-Werk allein jedes Jahr etwa 85 mal die bisherige Rate von Benzol emittieren wird. Es wird auch massiv Kohlendioxid erzeugen und Wasser verbrauchen. Und es ist nur eine neue Fabrik von vielen. „Ich möchte keine Gasmaske tragen, wenn ich abends ins Bett gehe, falls dieses Werk wirklich gebaut wird“, sagt Rufus Victorian, ein Klempner, bei einer viereinhalbstündigen Anhörung zu diesem Werk im März.

Inmitten des kommenden Booms ist die Vision von Sasol besonders kühn. Die Historie von Gasverflüssigungs-Fabriken ist gemischt, anfällig für explodierende Kosten und technologische Schweinereien. Sollten die Gaspreise steigen oder die Ölpreise fallen, könnte daraus schnell ein riesiges Verlustgeschäft werden. Derzeit neigt sich die Waage zugunsten von Sasol. Öl wird derzeit mit dem 24-fachen Preis von Erdgas gehandelt. Zum Vergleich, im Jahre 2007 war es 7 mal der Preis. Sasol braucht eine Rate von mindestens 16, um Geld zu verdienen.

Historisch hat Sasol sehr viel damit gearbeitet, Kohle in Treibstoff zu konvertieren, eine Notwendigkeit während der Apartheid-Ära in Südafrika, als die Ölvorräte durch ein Handelsembargo schwer beeinträchtigt waren. Das Unternehmen ist immer noch ein Außenseiter und geht immer dorthin, wo die besten Deals in Aussicht stehen. So ist Sasol nach Katar ebenso wie in den Iran, nach Usbekistan und Nigeria gekommen.

Die US-Sanktionen haben Sasol gezwungen, Iran zu verlassen, von wo es Rohöl für die südafrikanischen Raffinerien gekauft und mit einem staatlichen Unternehmen in ein Chemie-Joint-Venture eingetreten ist.

Iranische Imame sind nicht die besten Bettgenossen – weshalb Sasol-Direktor David Constable es so gut findet, Geschäfte in Amerika zu machen. „Falls man eine Fabrik errichten möchte, ist Amerika aus logistischer Sicht die Nummer 1 in der Welt“, sagte Mr. Constable in einem Interview. Zugang zu billigem Gas, zu Verbrauchern und Kapital sowie gesetzliche Regelungen und Erleichterungen beim Bau „passen sehr gut. Es gibt kein besseres Land, in dem dies hätte geschehen können“.

Full story (in der noch drei weitere, weniger wichtige Absätze stehen)

Link: http://www.thegwpf.org/are-we-underestimating-americas-fracking-boom/

Übersetzt von Chris Frey EIKE




Teil I Videos von der VII. IKEK Mannheim jetzt nach und nach verfügbar: Zuerst Prof. R. Lindzen und Donna Laframboise

Prof. Richard (Dick) Lindzen (MIT USA)zeigt in seinem Vortrag anlässlich der 7. Internationalen Klima- und Energiekonferenz die Verständnis- Beurteilungs und Interpretationsdifferenzen auf, die zwischen den realen Beobachtungen wichtiger Klimaparameter und deren Modellberechnungen liegen. 

Seine Schlussfolgerung: Echte Wissenschaft jedenfalls ist es nicht, was viele Klimamodellierer als Wissenschaft ausgeben. Mehr eine Art Religion. 

Der Vortrag ist durchgängig in Englisch, die vor Ort Simultanübersetzung durfte nicht als Tonspur verwendet werden. Gleichzeitig war besonders am Ende der aufgezeichnete Originalton von tlw. so schlechter Qualität, dass die Wiedergabe des Vortrages kurz vor dem Schlusswort abgebrochen werden musste.

Die engagierte kanadische Journalistin Donna Laframboise berichtet über die Ergebnisse ihrer Recherchen bezüglich des Status und der Qualität der am IPCC (Intergovernmental Panel on Climate Change) Prozess beteiligten Wissenschaftler. 

Es stellt sich zu ihrer großen Überraschung heraus, dass eine sehr große Zahl der dem IPCC zuarbeitenden Autoren und Leitautoren wichtiger Kapitel der verschiedenen Berichte (I, II, III) weder über die behauptete Qualifikation verfügten, noch dass sie zu der der ebenfalls behaupteten Creme de la Creme ihrer Fächer gehörten. Sie sind im schlechtesten Sinne ausschließlich oder tlw. als Aktivisten und Funktionäre aggressiver Umweltgruppen einzustufen. Werden aber als Top-Wissenschaftler dem weltweiten Publikum – insbesondere vom IPCC Chairman Rajendra Pajauri-  angepriesen und erfolgreich der Politik und insbesondere den Medien verkauft. 

Ebenso verhält es sich mit der verwendeten und zitierten zigtausendfacher "Forschungsliteratur" die z.B. beim 4. Bericht von 2007  in mehr als 30 % aller Zitate, aus nicht begutachteter Literatur bis hin zu Pamphleten der Aktivistengruppen des WWF sowie anderer Umweltgruppierungen besteht. 

Ebenso weist Frau Laframboise klar nach, dass das IPCC entgegen seiner Behauptungen keine wissenschaftliche Körperschaft, sondern ein reine politische Aktivistenveranstaltung ist, deren rein politische Agenda unter dem Mantel der Wissenschaft durchgesetzt werden soll. 

Frau Laframboise ist trotz der jetzt fast 25 jährigen Tätigkeit des IPCC immer noch verwundert, dass neben ihr kein einziger investigativer Journalist die hochtrabenden Behauptungen des IPCC über seine Forscher und Mitglieder überprüft hat. Diese Verwunderung hält bis heute an.

Der Vortrag wurde in englischer Sprache anlässlich der 7. Internationalen Klima- und Energiekonferenz am 10. April 2014 in Mannheim gehalten




Neue Studie: Sicherheitsrisiko durch erneuerbare Energien

Presseerklärung

London, 2. Juni: Eine neue, von der Global Warming Policy Foundation heute veröffentlichte Studie warnt davor, dass die ständig schwankende Wind- und Solarenergie eine ernsthafte Bedrohung der Energiesicherheit darstellt und die Zuverlässigkeit der Stromerzeugung in UK gefährdet.

Viele Menschen – darunter Minister, Funktionäre und Journalisten – glauben, dass erneuerbare Energie die Energiesicherheit in UK stärkt, weil man unabhängiger wird von Einfuhren fossiler Treibstoffe. Die fortdauernde Krise in der Ukraine und der Krim zwischen Russland und dem Westen hat diesem Argument jetzt sehr viel Aufmerksamkeit verschafft.

Philipp Mueller, Autor der Studie mit dem Titel UK Energy Security: Myth and Reality, kommt zu dem Ergebnis, dass heimische und globale Reserven fossiler Treibstoffe im Überfluss wachsen, während gleichzeitig offene Energiemärkte die Energiesicherheit in UK trotz der Ukraine-Krise deutlich erhöhen.

Im Gegensatz dazu wird die Fähigkeit des Netzes, die schwankende Menge erneuerbarer Energie aufzunehmen, mit zunehmender Größenordnung immer riskanter.

Deutschland ist ein warnendes Beispiel einer wachsenden grünen Energie-Unsicherheit. Im vorigen Dezember kam die Erzeugung sowohl von Wind- als auch von Solarstrom über eine Woche lang fast vollständig zum Erliegen. Über 23000 Windturbinen standen still, während eine Million Photovoltaik-Systeme wegen fehlenden Sonnenscheins keinen Strom erzeugen konnten. Eine ganze Woche lang mussten konventionelle Kraftwerke fast den gesamten Energiebedarf Deutschlands decken.

Die Deutschen wurden auf die Tatsache des kompletten Scheiterns der erneuerbaren Energie aufmerksam [Politiker und Main Stream Medien wohl ausgenommen! Anm. d. Übers.], die die Stabilität und Sicherheit des deutschen Energiesystems unterminiert.

Autor Philipp Mueller: „Offene Energiemärkte sind ein viel besserer Weg, die Energiesicherheit zu garantieren als die schwankende Erzeugung durch Systeme wie Solar und Wind. Es wäre ein gewaltiges Risiko für UK, den gleichen Weg wie Deutschland einzuschlagen und das zu destabilisieren, was derzeit noch ein zuverlässiges UK-Stromnetz ist“.

Link zum Artikel bei GWPF: http://www.thegwpf.org/renewable-energy-poses-security-risk-new-paper-warns/

UK ENERGY SECURITY: Myth and Reality

(Energiesicherheit in UK – Mythos und Wirklichkeit)

Philipp Mueller

Einführung:

Während der letzten beiden Jahrzehnte waren Subventionen für erneuerbare Energiequellen gerechtfertigt worden mit der vermeintlichen Notwendigkeit, die Weltwirtschaft zu dekarbonisieren. Die Dekarbonisierung hielt man für erforderlich, um eine Zunahme des atmosphärischen Kohlendioxid-Gehaltes zu verhindern, welches den Planeten zu erwärmen droht, und um die ganzen Katastrophen zu verhindern, die vermeintlich mit der globalen Erwärmung einhergehen. Allerdings hat dieses Argument während der letzten Jahre stark an Kraft verloren. Ein Grund hierfür war die globale Finanzkrise und das wirtschaftliche Schrumpfen.

Umweltbedenken haben einen Rückschlag erlitten durch Sorgen hinsichtlich hoher Arbeitslosigkeit, geringen wirtschaftlichen Wachstums, gewaltiger öffentlicher Schuldenberge, massiver Haushaltsdefizite und Kürzungen bei Ausgaben der Regierung. Ein weiterer Grund ist das Fehlen jeder Erwärmung während der letzten 16 Jahre, und ein dritter Grund ist die wachsende Erkenntnis, dass es nicht zu einem bindenden globalen Vertrag zur Reduktion von Treibhausgasen kommen wird.

Die Befürworter der erneuerbaren Energie haben daher Angst, keine weiteren Argumente zur Rechtfertigung von Subventionen und Steuerbefreiungen für Windparks und Solarpaneele zu finden. Eines dieser Argumente ist gewöhnlich die Behauptung, dass fossile Treibstoffe zur Neige gehen. Allerdings hat die Ausbeutung unkonventioneller Öl- und Gasreserven diese Behauptung aufgeweicht, und es wurde offensichtlich, dass fossile Treibstoffe tatsächlich im Überfluss vorhanden sind. Ein weiteres Argument ist die Energiesicherheit. Minister, Funktionäre des DECC [das UK-Energieministerium] und Befürworter erneuerbarer Energie argumentieren, dass die erneuerbare Energie die Energiesicherheit in UK verbessert, weil die Abhängigkeit von Importen fossiler Treibstoffe verringert wird. Die fortdauernde Krise hinsichtlich der Ukraine und der Krim zwischen Russland einerseits und den westlichen Ländern andererseits hat diesem Argument der Energiesicherheit neue Dringlichkeit verliehen.

In dieser Studie wird der Gehalt des Argumentes Energiesicherheit untersucht. In Abschnitt 1 wird die allgemeine Meinung behandelt, der zufolge die Abhängigkeit von Importen fossiler Treibstoffe riskant oder sogar gefährlich ist und daher die heimische erneuerbare Energie die Energiesicherheit verbessert. Dabei wird auch angenommen, dass Staat A von Staat B abhängig ist, falls das Meiste der Kohle-, Gas- und Ölimporte aus Staat B kommt. In Abschnitt 2 werden die drei Hauptgründe umrissen, warum die Importe fossiler Treibstoffe keine Bedrohung der Energiesicherheit darstellen, und es wird begründet, warum Energiemärkte Sicherheit bieten. Ironischerweise ist es in Wirklichkeit die schwankende Wind- und Solarenergie, die die Energiesicherheit in UK bedroht, wie in Abschnitt 3 gezeigt wird.

[Hinweis des Übersetzers: So weit diese Einführung. Die Abschnitte 1 und 2 werden hier nicht übersetzt. Weiter geht es mit den Abschnitten 3 {s. o} und 4 {Conclusions}]

3 Echte Gefahren

Wie in Abschnitt 2 dargelegt, sind Behauptungen, dass die Importe fossiler Treibstoffe eine Bedrohung der Energiesicherheit darstellen, falsch. Allerdings sind auch die Feststellungen der IEA, der UK-Regierung und der Befürworter der erneuerbaren Energie, dass erneuerbare Energien die Energiesicherheit erhöhen, ebenfalls falsch.

Wind- und Solarenergie sind ein Energiesicherheits-Risiko

Der zentrale Faktor beim Management des Stromnetzes ist es, in jeder Minute das ganze Jahr über Angebot und Nachfrage genau in Übereinstimmung zu bringen. Jedweder Fehler der Netzmanager in dieser Hinsicht wird zu Stromausfällen führen. In dieser Hinsicht ist es wichtig zu unterscheiden zwischen abrufbaren und schwankenden Formen der Energieerzeugung. Abrufbare Energie kann erzeugt werden, um die Nachfrage zu decken, sobald diese entsteht. Kernkraft-, Kohle- und Gaskraftwerke stellen alle die abrufbare Erzeugung zur Verfügung, ebenso wie Wasserkraftwerke, wenn diese über Speicher-Reservoire verfügen. Im Gegensatz dazu sind die meisten Formen der Energieerzeugung durch Erneuerbare schwankend und nicht abrufbar, weil sie nur Energie erzeugen, wenn der Wind weht und die Sonne scheint, aber nicht dann, wenn die Energienachfrage gerade sehr groß ist. Infolge der Tatsache, dass die Energienachfrage im Tages- und Jahresverlauf ständig variiert, ist eine Megawattstunde, die an einem Dezembermorgen um 9 Uhr erzeugt wird, einfach nicht das Gleiche wie eine erzeugte Megawattstunde um 2 Uhr nachts Mitte Juni.

Daher sind Wind- und Solarenergie in Wirklichkeit ein ernsthaftes Energiesicherheits-Risiko, weil sie schwankender Natur und damit unzuverlässig sind. Windturbinen erzeugen nur dann Strom, wenn der Wind in der richtigen Stärke weht: Ist der Wind zu schwach, können sie keine Energie erzeugen; und ist der Wind zu stark, müssen die Turbinen abgeschaltet werden,  weil sie sonst Schaden nehmen. Genauso erzeugen Solarpaneele keinen Strom, wenn die Sonne nicht scheint. In Zeiten mit hoher Energienachfrage könnten Windturbinen und Solarpaneele nicht genug Strom erzeugen. Daher müssen schwankende Energiequellen durch Kraftwerke gestützt werden, die jederzeit abrufbar Energie liefern können – meistens Gaskraftwerke – die sehr schnell angefahren werden können, wenn Wind und Sonne nicht genug (oder gar keine) Energie erzeugen.

Die Energienachfrage variiert sowohl im Tages- als auch im Jahresverlauf. Am niedrigsten ist die Energienachfrage in UK normalerweise in den frühen Morgenstunden eines Sommertages. Falls es in Zeiten mit geringer Nachfrage sehr viel Strom durch starken Wind gibt, erzeugen Windparks zu viel Strom für das Netz und müssen abgeschaltet werden. Die Energienachfrage ist an kalten und dunklen Wintertagen in den Morgen- und Abendstunden am größten. Diese Nachfragespitze geht oftmals einher mit sehr großen, sich kaum verlagernden Hochdruckgebieten, die extrem kaltes Wetter und fast keinen Wind mit sich bringen, so dass kein Windstrom erzeugt werden kann. Es ist völlig egal, wie viele Windturbinen man errichtet – wenn in Zeiten einer Spitzennachfrage kein Wind weht, ist ihre potentielle Erzeugungs-Kapazität nichts wert. Deutschland, wo man eine deutlich höhere Menge erneuerbarer Energie erzeugt als in UK, bietet ein gutes Beispiel für diese Probleme. Anfang Dezember 2013 kam die Energieerzeugung durch Wind und Sonne zu einem fast völligen Stillstand. Über 23000 Windturbinen standen still. Gleichzeitig haben eine Million Photovoltaik-Systeme wegen fehlenden Sonnenscheins ihren Dienst eingestellt. Lediglich um die Mittagszeit wurden einige Kilowattstunden Solarstrom erzeugt. Eine ganze Woche lang mussten Kohle-, Kern- und Gaskraftwerke fast den gesamten Energiebedarf Deutschlands decken.

Die Fähigkeit des Netzes, schwankende erneuerbare Energie aufzunehmen, wird mit steigender Größenordnung immer mehr in Frage gestellt. Die Größenordnung schwankender Energie, die das britische Netz verkraften muss, ist erschreckend angesichts der Programme zur Förderung von Windparks sowohl der vorigen als auch der jetzigen Regierung. Das Problem hat das Potential, das Netz zu destabilisieren. Derek Birkett, ein ehemaliger Kontrollingenieur und Autor des Buches „When Will the Lights Go Out?“ nennt die Politik der Förderung der Windkraft ‚total falsch aufgefasst‘.

Er betrachtet das Stabilitätsrisiko der schwankenden Windkraft für das Netz als ‚unakzeptabel‘ und sagt, dass die Unterstützung der unökonomischen schwankenden erneuerbaren Energieerzeugung nicht so weitergehen kann, ohne die Netzstabilität ernsthaft zu gefährden, was nur verzögert werden kann, wenn man begleitende Maßnahmen zu horrenden Kosten durchführt. Wie viel Windenergie für das nationale Netz installiert werden kann, ohne die Gefahr von Destabilisierung und Stromausfällen heraufzubeschwören, ist immer noch eine offene Frage. Experten stimmen darin überein, dass Windstrom verkraftbar ist, solange er einen Anteil unter 10% der Gesamtenergieerzeugung ausmacht. Bei größeren Anteilen gibt es keine Übereinstimmung mehr. Das Management der Stromsysteme wird immer schwieriger, falls der Anteil von Wind- und Solarenergie an der Gesamtkapazität des Systems das minimale Niveau der Nachfrage im Jahr erreicht oder übersteigt.

Die Probleme der schwankenden Energieerzeugung durch Wind und Sonne könnte man in den Griff bekommen, falls der Überschuss bei unzureichender Nachfrage gespeichert und bei Bedarf abgerufen werden könnte. Allerdings ist die Stromspeicherung höchst unökonomisch. Die Batterietechnologie kann die Aufgabe der Energieversorgung in industrieller Größenordnung nicht leisten, und Pumpspeicherwerke in UK haben nicht die Kapazität, zu ökonomischen Kosten den gesamten Überschuss zu speichern. Folglich gilt, ist der Strom erst einmal erzeugt, muss man ihn entweder verbrauchen oder verlieren [unübersetzbares Wortspiel: ‚use it or lose it‘].

Dies bedeutet: wenn Windturbinen und Solarpaneele große Strommengen erzeugen (zum Beispiel an einem sonnigen und windigen Sommertag), müssen konventionelle Kraftwerke abgeschaltet werden, um das Netz stabil zu halten. Es ist teuer und ineffizient, große Kern- oder Kohlekraftwerke in einer Art und Weise zu betreiben, dass ihr Output die Fluktuationen der Nachfrage ausgleicht. Damit wird deren ökonomischer Wert unterminiert. Dies ist dann der Fall, wenn bestehende Kern- und konventionelle Kraftwerke das Ende ihrer Lebenszeit erreichen. Investoren könnten dann unwillig sein, in Ersatz zu investieren. Außerdem geht deren Erzeugungskapazität verloren, obwohl die Nachfrage weiterhin besteht, wenn Wind- und Solargeneratoren stillstehen. Und diese Erzeugungskapazität kann nicht durch Wind- oder Solarenergie ersetzt werden, weil diese keine abrufbare Energie zur Verfügung stellen.

Diese Entwicklung, eine direkte Folge der Förderung schwankender Solar- und Windenergie, ist ein wirkliches Energiesicherheits-Risiko.

4 Schlussfolgerungen

Viele Menschen glauben, dass die Importe fossiler Treibstoffe ein Risiko für die Energiesicherheit darstellen und dass erneuerbare Energiequellen wie Wind, Sonne und Biotreibstoffe die Importe von Öl, Gas und Kohle reduzieren können.

Allerdings sind erneuerbare Energiequellen nicht in der Lage, die Einfuhren fossiler Treibstoffe in großem Umfang zu reduzieren. Noch wichtiger ist, dass die Importe fossiler Treibstoffe kein Energiesicherheits-Risiko sind. Öl und Kohle können leicht auf den globalen Märkten gekauft werden. Während der kommenden Jahrzehnte werden Schiefer- und verflüssigtes Erdgas (LNG) auch einen globalen Gasmarkt herstellen. Freie Märkte bieten mehr Sicherheit als Garantien oder Eingriffe seitens der Regierung und stellen sicher, dass Ölembargos ins Leere laufen. Aus diesen Gründen sind Importe fossiler Treibstoffe kein Risiko für die Energiesicherheit. Es ist daher falsch, Subventionen für erneuerbare Energiequellen zu rechtfertigen mit Behauptungen, dass diese Importe ein Sicherheitsrisiko seien. Tatsächlich sind Wind- und Solarenergie das wirkliche Risiko hinsichtlich der Energiesicherheit, und zwar aufgrund ihrer schwankenden Natur.

Link zum gesamten PDF (28 Seiten): http://www.thegwpf.org/content/uploads/2014/06/Energy-Security.pdf

Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Die Bengtsson-Affäre und die Global Warming Policy Foundation

Am 1. Mai veröffentlichte der niederländische Journalist Marcel Crok auf seiner Website ein Interview mit Bengtsson. Seine erste Frage lautete: Warum sind Sie dem Beratungsgremium der GWPF beigetreten? Bengtssons Antwort lautete so:

Ich kenne einige der Wissenschaftler bei der GWPF, und sie haben ausgezeichnete Beiträge zur Wissenschaft geleistet. Ich respektiere auch Personen, die das, was sie als wissenschaftliche Wahrheit ansehen (bis zu einem Grad, an dem wir das beurteilen können), für wichtiger halten als politisch korrekt zu sein. Ich denke, dass es wichtig ist, unterschiedliche Standpunkte auf einem Gebiet zu vertreten, dass potentiell derartig wichtig und komplex und gleichzeitig immer noch so unzureichend bekannt ist wie der Klimawandel.

Croks letzte Frage lautete:

Sind Sie zufrieden mit der Rolle, die die GWPF bislang gespielt hat? Was sollte oder könnte man anders machen, um eine erfolgreichere und/oder konstruktivere Rolle in den Diskussionen um Klima und Energie zu spielen?

Bengtssons Antwort:

Mein Eindruck ist, dass es sich hier um eine sehr angesehene und ehrliche Organisation handelt, aber sehr gerne werde ich Ihre Frage beantworten, wenn ich dabei etwas mehr Erfahrungen gesammelt habe.

Sehr zu meinem Bedauern und dem meiner GWPF-Kollegen hat sich Bengtsson nur drei Wochen später entschlossen, seine Annahme meiner Einladung zurückzuziehen. In seinem an mich gesandten Rücktrittsbrief [auf Deutsch beim EIKE hier und mehr dazu hier] benannte er einen ‚enormen weltweiten Druck auf mich seitens einer Gemeinschaft, der ich während meines gesamten aktiven Lebens sehr nahe gestanden habe‘; und in einem Brief an Kollegen, in dem er ihnen seinen Rücktritt bekannt gab, erwähnte er ebenso ‚massive Gegnerschaft von Kollegen in der ganzen Welt‘.

Obwohl nur weniges dieser ‚massiven Gegnerschaft’ seinen Weg bis zu mir gefunden hatte, hatten sie vermutlich einen gemeinsamen Tenor. Die Kritiker betrachten typischerweise die GWPF nicht als eine ehrbare Organisation; die positiven Eindrücke, denen Bengtsson in seinem Interview mit Crok Ausdruck verliehen hat, wurden schwer missverstanden; und dass jede professionelle Person, die Verbindungen mit der GWPF akzeptiert, im besten Falle einem ernsthaften Fehlurteil aufgesessen ist, im schlimmsten Falle Integrität vermissen lässt. Klar, dass die Bengtsson-Affäre und die daraus resultierende Publicity die Aufmerksamkeit auf die Rolle und die Arbeit der Organisation gelenkt haben.

Als jemand, der von Anfang an eng mit der GWPF verbunden war und als Vorsitzender des Gremiums, dem beizutreten Bengtsson eingeladen worden war, beschreibe ich hier eine kurze persönliche Perspektive zu dieser ganzen Sache, hauptsächlich mit dem Ziel, weitere Informationen zu liefern. Dabei zeige ich auf das, was ich als falsche Auffassungen seitens vieler Kommentatoren ansehe, sowohl freundlicher als auch feindlicher. Zuerst und an oberster Stelle konzentriere ich mich auf die Arbeit des Gremiums, aber danach werde ich die Arbeit und die Rolle der Foundation insgesamt ansprechen.

Das akademische Beratungsgremium und die GWPF-Berichte

Als Nigel Lawson die GWPF im November 2009 ins Leben gerufen hatte, setzte er das Gremium als Begutachter für die Aktivitäten der Foundation ein. Er beschrieb seine Neuschöpfung seinerzeit so:

Es besteht aus einer Gruppe bedeutender Akademiker und Quasi-Akademiker aus einer ganzen Anzahl von Disziplinen und mit einer großen Bandbreite von Standpunkten aus der ganzen Welt. Sie können angesprochen werden, um den Direktor zu beraten (und deren Ratschläge wir begrüßen, selbst falls sie nicht gefragt waren!) und die GWPF-Berichte zu begutachten, die wir veröffentlichen wollten; und um eigene Beiträge auf unserer Website zu posten, falls sie das wollten.

Wie sich herausgestellt hat, war es diese Begutachtungsfunktion, die dominant war, obwohl manche Mitglieder des Gremiums in anderer Weise tätig geworden sind. Alle wesentlichen GWPF-Veröffentlichungen, die als Bericht apostrophiert worden sind, wurden dem Gremium zur Begutachtung übergeben. Bislang wurden 15 solcher Berichte veröffentlicht.

Der Begutachtungsprozess hat effektiv funktioniert. Als Erwiderung zu Vorwürfen, dass unsere Berichte anders als Artikel in Journalen nicht wissenschaftlich begutachtet seien, habe ich die folgende Korrektur gepostet, vor etwa zwei Jahren oder so, und zwar auf dem Bishop Hill-Blog von Andrew Montford:

Einer unserer Kommentatoren hat folgende Frage gestellt: ‚wenn kurze Beiträge in Journalen begutachtet sind, warum ist das dann bei längeren GWPF-Artikeln nicht der Fall?‘

Hier liegt ein Missverständnis vor. Die ‚längeren GWPF-Artikel‘ haben die Form von Berichten angenommen: bislang wurden neun davon veröffentlicht, wobei der von Peter Lilley (2) der letzte war. Sie alle wurden von Mitgliedern des akademischen Beratungsgremiums der GWPF wissenschaftlich begutachtet, dessen Vorsitzender ich bin. Die Mitglieder des Gremiums sind öffentlich gelistet. Ich habe persönlich alle neun Berichte begutachtet und auch zu allen außer einem Kommentare abgegeben.

Das Verfahren bei der GWPF unterscheidet sich von dem eines Journals, und zwar in einer Weise, die meiner Ansicht nach vorteilhaft ist.

1. Es sind mehr potentielle Begutachter damit befasst. Obwohl kein Gremiumsmitglied irgendeiner Verpflichtung unterliegt, einen bestimmten Fall zu kommentieren, ist die Anzahl stichhaltiger Kommentare typischerweise über das hinausgegangen, was normalerweise in Begutachtungen nach Art der Journale verfügbar ist. Außerdem müssen die Kommentare umgehend abgegeben werden.

2. Das Verfahren ist nicht anonym. Die Identität des Autors ist den potentiellen Begutachtern bekannt. Sie geben ihre Kommentare nach persönlicher Eignung ab und können direkt mit dem Autor korrespondieren. Es ist Sache des Autors zu entscheiden, wem er die eventuell veröffentlichte Version zu verdanken hat. Die Liste kann unter den Gremiumsmitgliedern herumgehen.

3. In jedem Falle haben die Autoren ihre ursprünglichen Texte aufgrund von Kommentaren der Gremiumsmitglieder überarbeitet, manchmal substantiell.

Die endgültige Verantwortung der Veröffentlichung verbleibt beim Vorsitzenden Lord Lawson und dem Direktor der GWPF, Dr. Benny Peiser. In jedem Falle geht die Veröffentlichung einher mit dem folgenden formellen Statement:

‚Die Ansichten in den Veröffentlichungen der GWPF sind ausschließlich jene der Autoren und nicht jene der GWPF, seinen Mitgliedern, seinem Beratungsgremium oder seinen Direktoren‘.

In Briefwechseln nach der Bengtsson-Affäre hat Prof. Roger Pielke Jr. (in Croks Blog) folgenden Standpunkt vertreten: ‚Falls die GWPF zur wissenschaftlichen Diskussion etwas beitragen möchte, sollten deren Mitglieder Studien für die konventionelle wissenschaftliche Literatur verfassen‘. Dieses Argument akzeptiere ich nicht, und zwar aus folgenden Gründen:

* Die Leserschaft ist nicht die Gleiche: unsere Berichte werden mit einem allgemein gebildeten Leser im Hinterkopf vorbereitet und nicht für die Spezialisten, die die Journale zu recht ansprechen.

*Wegen dieser weit gefasste Leserschaft sind Berichtsentwürfe Gegenstand informeller Kritik seitens der Gremiumsmitglieder in anderen Disziplinen als der Autor angehört.

*Ich glaube, dass unsere Begutachtungs-Verfahren sorgfältiger sind als jene in der ‚konventionellen Literatur‘

*Geht ein Entwurf erst einmal in die Begutachtung (oftmals gibt es zuvor ein Prüfungsverfahren), ist unser Prozess der Veröffentlichung schneller als es für Journale typisch ist.

*Wir können Studien veröffentlichen, die die von den Journalen verständlicherweise vorgegebene Länge überschreitet: die letzten beiden GWPF-Berichte, beide über wissenschaftliche Themen, enthalten jeweils in der Langversion 65 Seiten (in der Kurzversion 39 Seiten (3); Lilleys Bericht über Stern enthält 94 Seiten.

*Es gibt reichlich Beweise für einen Bias in den ‚konventionellen‘ Journalen. Studien, die nicht der generell ausgegebenen Meinung zum Klimawandel folgen oder dieser sogar widersprechen, werden zurückgewiesen. Wie die Bengtsson-Affäre zeigt, sind Häretiker in der ‚klimawissenschaftlichen Gemeinschaft‘ nicht gut angesehen.

Natürlich steht es den mit der GWPF verbundenen Autoren frei, für  ‚konventionelle‘ Journale zu schreiben, was viele auch tun. Die Gelegenheiten, die wir bieten, unterscheiden sich aber davon.

Im Gegensatz zu einer (freundlich gesonnenen) Annahme haben wir Bengtsson nicht mit dem Ansinnen konfrontiert, ‚wissenschaftliche Ratschläge zu unseren Verkündungen‘ zu erhalten. Seine Ansichten wären natürlich nur als Eingabe zu Studien-Entwürfen behandelt worden; und alle diese Studien werden von den Autoren von sich aus eingereicht und nicht auf Anforderung der Foundation.

Von der GWPF veröffentlichte Studien waren in keiner Weise auf die Berichte beschränkt: Zusätzlich zur Rubrik Übersichtsstudien und Anmerkungen ist eine neue Kategorie Essays eingeführt worden (4). In nahezu jedem einzelnen Fall gibt es einen Begutachtungsprozess irgendeiner Art, an dem bestimmte Gremiumsmitglieder beteiligt sein können; aber nur Entwürfe werden an alle Mitglieder gesandt mit der Bitte um Kommentare. Wie Lawson oben anmerkte, ist deren Teilnahme an anderen GWPF-Aktivitäten willkommen; aber es handelt sich hier um vielbeschäftigte Personen (traurigerweise gibt es keine weiblichen Mitglieder), so dass eine solche Beteiligung nicht zur Routine werden oder häufiger auftreten kann.

Ab September 2014 wird sich die gegenwärtige GWPF in zwei separate Abteilungen aufspalten. Die GWPF wird weiterhin als eine registrierte Bildungsgesellschaft bestehen; und es ist die Foundation, die weiterhin Berichte und andere Dokumente veröffentlichen wird, die einen Großteil der Bildungsmission ausmachen. In dieser Hinsicht wird die Rolle der Gremiumsmitglieder bei der Begutachtung unverändert bleiben. Parallel zur Foundation wird es ein neu geschaffenes Global Warming Policy Forum geben, das in der Lage sein wird, sich in Kampagnen und anderen Aktivitäten zu engagieren, die außerhalb der Bildungsauftrages liegen können. Hieran wird das Gremium keinen Anteil haben.

Die Namen aller Gremiumsmitglieder sind öffentlich. Sie empfangen keine erneute Nummerierung. Die meisten von ihnen waren wie ich selbst von Anfang an dabei. Während all dieser Jahre gab es bei uns nur einen Rücktritt, und der war aus gesundheitlichen Gründen erfolgt. Es ist unwahrscheinlich, dass diese hervorragenden Persönlichkeiten geblieben und weiterhin auf Anfragen geantwortet hätten, falls das der Fall wäre, was einer von Bengtssons Kritikern unterstellt hatte:

Der Beitritt zu dieser Gruppe würde von den Medien, der allgemeinen Öffentlichkeit und Kollegen nicht, wie sie offensichtlich beabsichtigt hatten, als ein rationaler Beitrag zu einer wichtigen Diskussion gesehen werden, sondern als Befürwortung der politischen Ziele der GWPF (einschließlich der von der GWPF offensichtlich durchgeführten unwissenschaftlichen Methoden) seitens eines hoch geschätzten Klimawissenschaftlers (5).

Weiterhin ist es unvorstellbar, dass alle oder auch nur ein einziger unserer Mitglieder an Bord geblieben wäre, falls der Nachweis hätte erbracht oder auch nur plausibel gemacht werden können, dass (um einen anderen von Bengtssons Kritikern zu zitieren) ‚Beleidigungen, Unterstellungen, politische Spielchen, charakterliche Diffamierungen und Zerrbilder Methoden der GWPF seien‘ (6). Die Realität ist, dass keinerlei derartige Abweichungen von anerkannten professionellen Standards in irgendeiner GWPF-Publikation gefunden werden können; so etwas wäre auch nicht toleriert worden. Vorwürfe dieser Art zeigen einen totalen Realitätsverlust.

Im Gegensatz zu dem, was manchmal vermutet wird, ist die GWPF ‚keine rechtsgerichtete Denkfabrik‘ und auch keine ‚politische Lobby‘. Unter ihren Mitgliedern befinden sich prominente Mitglieder aller drei wichtigsten Parteien in UK, ebenso wie Persönlichkeiten ohne politischen Hintergrund. Weder die Verwalter noch die Gremiumsmitglieder würden es zulassen, ihre Namen mit einer Organisation in Verbindung zu bringen, deren Ziele und Schwerpunkte politischer Natur wären, auch wenn diese so tun, als ob das nicht der Fall wäre.

Ich muss den bereits dargelegten Punkt betonen, dass die in unseren Veröffentlichungen ausgedrückten Ansichten jene der Autoren und nicht jene der Foundation sind. Typisch für die in diesem Zusammenhang auftauchenden falschen Vorstellungen ist eine vor kurzem erfolgte Bemerkung auf dem Blog von Andrew Montford durch einen GWPF-Sympathisanten, der schrieb, dass Nigel Lawson und die GWPF bezüglich des Zusammenhangs zwischen globaler Erwärmung und Extremereignissen ‚die gleichen Ansichten vertreten wie der AR 5 des IPCC‘. Die GWPF als solche teilt diese Ansichten hierzu in keiner Weise und auch nicht die zu anderen speziellen Themen, egal ob Klimawissenschaft oder ‚Klimawandel-Politik‘. Zu vielen dieser Dinge gibt es wenig überraschend unter denen, die im Großen und Ganzen mit der GWPF sympathisieren, einschließlich der Gremiumsmitglieder, kaum übereinstimmende Statements oder Meinungen (7). Folglich gibt es auch keine erweiterte und wohl formulierte institutionelle Parteilinie; kein Äquivalent der GWPF zu den einst berühmten 39 Glaubensartikeln der Church of England.

Allerdings geht dieses breite Meinungsspektrum einher mit einer gemeinsamen Grundlage. Es ist allgemeiner Grundsatz der Sympathisanten, dass die Behandlung von Themen zum Klimawandel durch Regierungen und offiziell eingerichtete Institutionen auf der ganzen Welt irrig ist, und zwar mit Konsequenzen, die besorglich sind. (Hier würden Andere viele stärkere Worte verwenden). Außerdem und ohne, dass ich behaupte für alle zu sprechen, glaube ich, dass die meisten ein Statement in einer meiner jüngsten Studien unterschreiben würden:

In einem Bereich, wo so viel auf dem Spiel steht und so viel unklar oder sogar unbekannt bleibt, sollte die Politik vorsichtig und anpassend sein und nicht so mutmaßlich wie derzeit; und die langsame Entwicklung sollte gekoppelt sein an einen Prozess der Untersuchung und der Begutachtung, der sorgfältiger, ausgewogener, offener und objektiver ist als es bislang der Fall war (8).

Allgemeine Grundlage

Die Bengtsson-Affäre bietet ein gutes Beispiel, wie diese beiden Elemente, Diversität und Allgemeinheit, zusammenfinden und aufeinander abgestimmt werden können. Anlass für meine Einladung an Prof. Bengtsson war ein Artikel von ihm in der Neuen Zürcher Zeitung vom 15. April. Hätte er diesen Artikel an mich gesandt als Vorschlag zu einem gemeinsamen Artikel, hätte ich substantielle Änderungen vorgeschlagen, und es könnte gut sein, dass wir es unmöglich finden, uns auf einen Text zu einigen, den wir beide unterschreiben können. Eine engere Bekanntschaft hätte zweifellos andere Dinge ans Licht gebracht, bei denen unsere Ansichten alles andere als identisch sind. Allerdings waren ich und Kollegen bei der GWPF beeindruckt durch eine Anzahl von Beobachtungen in dem Artikel, darunter:

Ausmaß und Tempo der globalen Erwärmung sind immer noch unsicher, weil wir nicht gut genug unterscheiden können zwischen dem Treibhauseffekt und anderen Klima-Einflüssen.

Es wäre falsch, aus dem Bericht des IPCC und ähnlichen Berichten die Schlussfolgerung zu ziehen, dass die Wissenschaft settled ist.

Der rapide Übergang zu erneuerbarer Energie hat zu einer deutlichen Zunahme der Energiepreise in vielen Ländern geführt…

Diese Statements verleihen zwei der maßgeblichen Gründe Ausdruck, weshalb die GWPF ins Leben gerufen worden ist: erstens, dass gegenwärtige und in Aussicht stehende Maßnahmen zur Beschneidung von Emissionen teuer sind; zweitens, dass die wissenschaftlichen Argumente und Glauben, die diesen Maßnahmen zugrunde liegen, nicht als endgültig etabliert angesehen werden sollten.

In seinem nachfolgenden Interview mit Marcel Crok sprach Bengtsson weitere Punkte an, die für eine gemeinsame Grundlage stehen:

Ich glaube, dass es wichtig ist, unterschiedliche Standpunkte auszutauschen in einem Gebiet, das potentiell so wichtig und komplex und immer noch unzureichend verstanden ist – bekannt als Klimawandel.

Ich glaube nicht, dass die IPCC-Maschinerie langfristig das Beste für die Wissenschaft ist (9).

In einem neueren Statement hat er außerdem gesagt:

Was vielleicht am besorglichsten ist, ist die zunehmende Tendenz von Pseudo-Wissenschaft bei der Klimaforschung. Dies zeigt der Bias in den Veröffentlichungen, werden doch nur Ergebnisse bekannt gemacht, die eine einzige Klimahypothese stützen, während nichts veröffentlicht wird, dass gegen diese Hypothese spricht (10).

Nigel Lawson hat die GWPF vor allem gegründet, um ‚unterschiedlichen Ansichten‘ effektiver Ausdruck zu verleihen in einem ‚so wichtigen und komplexen sowie immer noch unzureichend verstandenen Gebiet‘, das außerdem von Verzerrungen und Druck zur Konformität durchdrungen ist. Die Bengtsson-Affäre ist ein weiterer und verstörender Beweis für eine Situation, die er mit seiner neuen Tätigkeit beheben wollte.

——————————————–

[1] Bengtsson was Head of Research at the European Centre for Medium-Range Weather Forecasts Hamburg

[2] Lilley’s report, the ninth in the series, was entitled What Is Wrong With Stern?: The failings of the Stern Review of the economics of climate change.

[3] The reports in question are: Marcel Crok and Nic Lewis, A Sensitive Matter: How the IPCC buried evidence showing good news about global warming (March 2014); and Willem de Lange and Robert Carter, Sea-Level Change: Living with uncertainty (May 2014).

[4] Essay No. 1 is by Nigel Lawson himself. It is entitled The Trouble with Climate Change, and is a slightly revised and fully referenced version of an article published in the May 2014 issue of the journal Standpoint .

[5] From an email sent to Bengtsson on 14 May 2014 by Professor Klaus Hasselmann of the Max Planck Institute for Meteorology.

[6] From an email sent to a fellow-academic on 14 May 2014 by Professor Bjorn Stevens, a director at the Max Planck Institut and a professor at the University of Hamburg.

[7] Bengtsson himself has noted, in a recent interview (with Professor Hans von Storch, on the Klimatzwiebel blog)) that ‘There is no common view among the members of the GWPF and I might have a quite different view than from some of them’.

[8] The quotation is from a chapter that I contributed to a Festschrift commemorating the 70th birthday of Vaclav Klaus, then President of the Czech Republic. The volume is edited by Jiři Brodsky, and was published in 2012 by Fragment under the title Today’s World and Vaclav Klaus.

[9] Report No. 4 from the GWPF, by Ross McKitrick (a Council member), is entitled What is Wrong with the IPCC? Proposals for a radical reform. Both McKitrick and I, as also Gordon Hughes who is the author of two published GWPF reports, gave written evidence in 2010 to the InterAcademy Council committee which reviewed the work of the IPCC.

[10] The prevalence in this area of what can be viewed as ‘pseudo-science’ forms the main single theme of Rupert Darwall’s fine book, The Age of Global Warming: A History (Quartet Books, 2013).

Link: http://www.thegwpf.org/the-bengtsson-affair-and-the-global-warming-policy-foundation/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Was hier exemplarisch für die Arbeit der GWPF steht, gilt auch für alle anderen sog. ‚skeptischen Sites‘ einschließlich derjenigen des EIKE.