1

Obamas „Klimaschutzplan“ – Kreuzzug gegen die Kohle

Die Situation in den USA

Im letzten Jahr sanken der Kohlendioxid-Ausstoß und die Netto-Ölimporte auf den geringsten Wert in den letzten 20 Jahren und gleichzeitig stiegen die USA zum größten Erdgasförderer der Welt auf. Zahlen, mit denen sich ein Präsident zu schmücken können glaubt. Die Frage wäre allerdings noch, welcher. Wenn schon ein Präsident, dann eher sein Vorgänger Bush, der hier bevorzugt als alkoholkranker, schießwütiger Texaner dargestellt wird. Der war es nämlich, der mit Unterstützung zahlreicher "Rechter Militärs" die Senkung der Abhängigkeit von Ölimporten zielstrebig einleitete. Ein Abfallprodukt dieser Politik, ist der verringerte CO2-Ausstoß. Als Texaner war ihm klar, daß zur Senkung der Ölabhängigkeit nur ein Mittel wirksam ist: Bohren, bohren und noch einmal bohren im eigenen Land. Die Früchte werden heute in Form des "Shale-Gas" und "Shale-Oil"-boom eingefahren — ganz entgegen dem über 60 Jahre andauernden Gefasel von "Peak-Oil". Deswegen mußte "Greenpeace-Klimaexperte Martin Kaiser" auch sofort anmerken: "…dass Obama aber auch auf "Risikotechnologien" wie Fracking oder Atomkraft setze, sei ein falsches Signal…". Auch der erste Neubau von fünf Kernkraftwerken seit 30 Jahren passt in diese Strategie: Man hatte nicht vergessen, daß bis zur "Ölkrise" in den 1970er Jahren fast 70% der elektrischen Energie mit Öl erzeugt wurde. Erst durch den massiven Ausbau der Kernenergie gelang die "Freisetzung" fossiler Energien für andere Anwendungen. Deshalb der immer wehrende Kampf der "Systemveränderer", gegen neue Fördermethoden bei fossilen Energien und die Kernenergie. Nur, wenn man ein "Marktversagen" durch politische Eingriffe erzeugen kann, läßt sich dem Zombie "Planwirtschaft" wieder neues Leben einhauchen.

Die "Shale-Gas Revolution"

Das sogenannte "Fracking" ist eine seit 80 Jahren bei der Öl- und Gasförderung angewendete Technik. Hinzu kam die Methode "horizontaler Bohrungen", die in den letzten Jahrzehnten eine bemerkenswerte technische — und vor allem wirtschaftliche — Entwicklung genommen hat. Heute ist es möglich, schmale öl- oder gashöffige Schichten zu erschließen. Auch diese Vorkommen waren den Geologen seit langem bekannt. Es ist auch kein Zufall, daß diese von eher kleinen Ölfirmen in Angriff genommen wurden. Wie so oft, wurde die anfängliche Nische sehr schnell zu einer breiten Bewegung. So funktioniert nun mal die Marktwirtschaft.

Gasförderung ist noch kapitalintensiver als Ölförderung. Im Prinzip muß jedes einzelne Bohrloch mit dem Verbraucher durch eine feste Rohrleitung verbunden werden. Auch eine Gasverflüssigung (LNG) schafft nur bedingt Abhilfe. Sie lohnt erst ab Entfernungen von etwa 3.000 km. Dies führt zu stark schwankenden Preisen. Die gigantischen Anfangsinvestitionen müssen über Jahrzehnte getilgt werden. Ist erstmal das "Erdgasnetz" gebaut, fallen nur relativ geringe Betriebskosten an. Der Investor ist gezwungen, praktisch zu jedem noch so geringen Preis (heutige Situation in USA) zu verkaufen, damit er wenigstens seine Kredite bedienen kann. Kann er das nicht mehr, geht er pleite. Sind genug Produzenten verschwunden und keine Ersatzinvestitionen (neue Bohrungen) mehr erfolgt, schießen die Preise wieder in die Höhe: Ein neuer "Schweinezyklus" beginnt.

Der wichtigste "swinging user" in diesem Geschäft sind Kraftwerke. Sie sind fest mit dem Erdgasnetz verbunden und können sehr große Leistungen ziehen. Oft sind sie auch noch mit Öl zu betreiben. Ist das Gas entsprechend billig, werden sie hoch gefahren und andere Kraftwerke mit teureren Brennstoffen gedrosselt. Durch diese zusätzliche Abnahme kann bei einem Überangebot an Gas verhindert werden, daß die Preise ins bodenlose fallen. Andersherum werden solche Erdgaskraftwerke (z. B. an kalten Wintertagen) bei übermäßig hohen Gaspreisen vom Netz genommen. Dies geschieht z. B. zur Zeit in Deutschland, weil hier Kohle weitaus günstiger ist. Genau dieser Mechanismus führte in den USA zu dem verringerten CO2-Ausstoß im vergangenen Jahr: Durch die Konjunkturschwäche war der Verbrauch an Elektroenergie gefallen. Gleichzeitig wurde mehr Erdgas in den Kraftwerken eingesetzt.

Sogar die Energieversorger haben ein Interesse an stabilen Erdgaspreisen. Sie wissen aus leidvoller Erfahrung, daß einem zu niedrigen Preis (nicht mehr akzeptabel für die Erdgasproduzenten) ein steiler Anstieg mit wenigen Jahren Verzögerung folgt. In den USA ist es aber erklärtes Ziel, mit dem billigen Erdgas eine neue Industriealisierung einzuleiten. Die Umstellung in der chemischen Industrie und auf dem Verkehrssektor hat gerade begonnen, dauert aber mehrere Jahre. Es wäre zu dumm, wenn diese Anlagen bei Fertigstellung auf einen zu hohen Gaspreis treffen würden, nur weil die Gasförderer aus Kapitalmangel keine neuen Bohrungen ausgeführt hätten. Es bleibt also nur die Möglichkeit Erdgas als LNG nach Europa und Asien zu exportieren oder massiv in der Stromwirtschaft einzusetzen. Anlagen zur Verflüssigung sind aber extrem teuer und lohnen sich nur, wenn sie über Jahrzehnte betrieben werden können. Gerade in kommenden Jahrzehnten will man aber den Heimvorteil billigen Erdgases nutzen.

Kohle

Die USA werden auch gerne als das Saudi Arabien der Kohle bezeichnet. Kaum ein Land verfügt über so große und leicht zu fördernde Kohlevorkommen. Kohle ist immer noch ein bedeutender Wirtschaftszweig. Für viele Bundesstaaten (Wyoming, Utah, Kentucky etc.) ist es der zentrale Wirtschaftssektor. Genau in dieser wirtschaftlichen Bedeutung liegen die Stolpersteine für Obama: Umweltschutz und Bergbau ist Ländersache. Der Präsident hat auf diesem Gebiet praktisch keinen Einfluß. Er kann nur durch Worte versuchen zu überzeugen. Die Gesetze werden im Parlament und im Senat gemacht oder sogar in den Bundesstaaten. Die Umweltschutzbehörde EPA hat auf die Luftverschmutzung auch nur geringen Einfluß. Sie ist lediglich für die, die Staatsgrenzen überschreitenden Anteile zuständig. Die Aufforderung an die EPA, doch bitte strengere Grenzwerte zu erlassen, hat bereits harsche Kritik von Verfassungsrechtlern provoziert. Energiepolitik fällt in den Aufgabenbereich der Parlamente. Gesundheits- und Umweltschutz muß durch wissenschaftliche Erkenntnisse abgesichert sein. Da die USA nicht nur aus linken, klimagläubigen Wissenschaftlern bestehen, ist schon allein auf diesem Gebiet, noch mit einigen harten Auseinandersetzungen zu rechnen.

Eigentlich niemand hat in den USA ein Interesse, die Kohleförderung wesentlich zu senken. Dies macht auch keinen Sinn, da es sehr teuer und langwierig ist, Bergwerke in Betrieb zu nehmen. Es wird also eine massive, vorübergehende Flucht in den Export geben. Man wird den asiatischen und europäischen Markt mit billiger Kohle überschwemmen. In den letzten fünf Jahren allein, hat sich der Kohleexport der USA von 36 Millionen in 2002 auf 114 Millionen Tonnen in 2012 mehr als verdreifacht. Dies ist sehr hilfreich für die deutsche "Energiewende". Die Kernenergie kann fast vollständig durch Kohle ersetzt werden. Das Kohlendioxid wird halt nur nicht mehr auf amerikanischem Boden freigesetzt, sondern z. B. von deutschen "Gutmenschen", die ja (gefühlt) ihrem Präsidenten immer so begeistert zujubeln.

Für die USA ist das alles eine kluge Doppelstrategie: Man baut sich eine komfortable und preiswerte Energieversorgung auf und nutzt die dafür notwendige Zeit, lästige europäische Industriekonkurrenz mit vermeintlich preiswerter Energie einzuschläfern und abzuhängen.

Das ist beileibe nichts neues: Vor einigen Jahren gab es in den USA eine lebhafte Diskussion über folgenden Weg: Man ersetzt die Kohle in der Stromerzeugung durch Kernenergie. Die dadurch freiwerdende Kohle setzt man zur Herstellung synthetischer Kraftstoffe ein. Ein Großteil des bei der Wasserstoffproduktion anfallenden CO2 wird gleich wieder in alte Gas- und Öllagerstätten versenkt. Man senkt die Ölimporte auf Null (strategische Forderung konservativer Politiker) und spart dabei auch noch enorme Mengen des "Klimakillers" (als Geschenk an die linke Ökobewegung) bei deutlich steigender industrieller Produktion.

Anmerkung

In den USA entstammen 40% aller CO2-Emissionen überhaupt, aus Kraftwerken. Will man also werbewirksam den Ausstoß von Kohlendioxid verringern, verspricht dieser Sektor den schnellsten Erfolg. In den USA wurden 4344 Milliarden kWh elektrischer Energie im Jahr 2011 verbraucht. Rund 2/3 entstammen fossilen Energien (43% Kohle, 24% Gas) und 1/3 wurden "CO2-frei" (19% Kernenergie, 8% Wasserkraft, 2,8% Wind) produziert.

Eine typisch vollmundige Obama-Formulierung in seinem Bericht lautet:

During the President’s first term, the United States more than doubled generation of electricity from wind, solar, and geothermal sources. To ensure America’s continued leadership position in clean energy, President Obama has set a goal to double renewable electricity generation once again by 2020.

Was soll uns das sagen? Weniger als 5% der Stromproduktion wurden auf diese Weise gewonnen. Eine Verdoppelung hört sich gewaltig an, ist Balsam für die Ohren seiner linken Unterstützer, die schon durch seine erfolglose "Guantanamo-Schließung" auf eine harte Probe gestellt wurden. Wenn nur die fünf in Bau befindlichen Kernkraftwerke (2 x Vogtle, 2 x Summer, 1x Watts Bar) ans Netz gegangen sind, erzeugen sie schon mehr als 1% der gesamten Stromerzeugung "CO2-frei".

Dr. Klaus Dieter Humpich übernommen von NUKE Klaus

  




Klimaänderung: Russland regt sich auf über Ergebnis von UNFCCC-Verhandlungen bzgl. Kohlenstoff-Zertifikaten

Bild rechts: Einen Unterhändler übernehmen

Die dahinter stehende Absicht war, unseren Planeten vor einer befürchteten, durch CO2-Anstieg ausgelösten globalen Erwärmung zu bewahren. Es hätte sich zufälligerweise ergeben können, dass wir diesen Plan als sehr erfolgreich hätten begrüßen können, gäbe es da nicht die Tatsache, dass der globale Temperaturverlauf der letzten 17 Jahre flach verlaufen ist, während der atmosphärische CO2-Gehalt kontinuierlich gestiegen ist.

Schon, aber Russland hat das schon immer erwartet

Ursprünglich hatte Präsident Putin am 2. Dezember 2003 angekündigt, dass sein Land das Kyoto-Protokoll nicht ratifizieren werde, weil die Grundlage dazu „wissenschaftlich fehlerhaft [flawed]“ sei. Er führte aus, dass selbst eine Erfüllung von 100 Prozent des Abkommens die Klimaänderung nicht umkehren werde.

Die russische Akademie der Wissenschaften legte in einem Statement vom 1. Juli 2005 wissenschaftliche Argumente vor, die gegen eine Unterzeichnung sprachen. Darin stellte sie fest, dass die Temperaturen der Welt nicht dem CO2-Gehalt folgen. Stattdessen hatte man dort eine viel engere Korrelation zwischen der Welttemperatur und der Sonnenaktivität beobachtet. Die Akademie hat auch errechnet, dass der Meeresspiegel mit einer Erwärmung nicht schneller steigen würde; stattdessen war dieser Anstieg seit dem Ende der Kleinen Eiszeit um das Jahr 1850 stetig mit etwa 6 Inches [ca. 15 cm] pro Jahrhundert erfolgt.

Außerdem verwarf die Akademie Behauptungen bzgl. einer der wichtigsten Gefahren der globalen Erwärmung, dass sich nämlich tropische Krankheiten ausbreiten würden, und verwies darauf, dass das Problem von der Sonne erwärmte Pfützen und Teiche sind, in denen Mücken brüten können, und nicht die Klimaerwärmung. Sie verwies auch auf die fehlende Korrelation zwischen globaler Erwärmung und Extremwetter. Eine wissenschaftliche britische Delegation musste einräumen, dass man keine Beweise zur Stützung der Behauptung gefunden habe.

Was also war der Hauptgrund, dass Putin und die russische Staatsduma ihre Haltung geändert und das Protokoll ratifiziert haben? Weithin wird spekuliert, dass die Europäer ausschlaggebend waren, Russland den Weg in die Welthandelsorganisation WTO zu ebnen. Folglich hat man sich als ein Entwicklungsland kategorisiert und nicht als ein entwickeltes Land, um die Regeln des Protokolls anzuwenden. Dies bedeutete, dass Russland eine Gelegenheit erhalten hatte, den europäischen Ländern Emissions-Zertifikate im Wert von Milliarden Dollar aus der Sowjetzeit zu verkaufen, in Verbindung mit früheren schmutzigen Industrien, die Opfer des ökonomischen Niedergangs geworden waren. Dies würde auch helfen, die Forderungen der ersten Phase des Kyoto-Protokolls zu erfüllen, ohne dass man tatsächlich die Emissionen oder den Energieverbrauch senken müsste.

Die CO2-Emissionen in Europa fielen von 4245 Millionen Tonnen im Jahr 1990 auf 4123 [Millionen?] Tonnen im Jahr 2002 infolge der verringerten Verbrennung von Kohle sowohl in UK als auch in Ostdeutschland. Das Kyoto-Protokoll verlangte jedoch einen weiteren Rückgang in der Europäischen Union auf 3906 Millionen Tonnen vor dem Jahr 2012. In einem UN-Bericht aus dem Dezember 2003 fand sich die Vorhersage, dass die EU dieses Reduktionsziel um einen sogar noch höheren Betrag verfehlen werde, wenn nicht weitere 311 Millionen Tonnen eingespart werden würden. Da die russischen Emissionen von 2405 Millionen Tonnen im Jahr 1990 bis zum Jahr 2001 auf 1614 Millionen Tonnen zurückgegangen waren, konnte das Land Zertifikate über 800 Millionen Tonnen an die Europäer verkaufen zu einem „Auktionspreis“. Das würde Europa billiger kommen als mit fossilen Treibstoffen betriebene Kraftwerke zu schließen oder die Lastwagen aus der lebenswichtigen Infrastruktur zu entfernen durch weitere Erhöhungen der ohnehin schon hohen Treibstoffsteuern.

Aber kein so großer Handel für die USA

Vielleicht war es keine Überraschung, dass die UN den USA nicht ähnliche Beschränkungen wie den Europäern und den Russen angeboten haben. Erstens, im Gegensatz zu Europa und den früheren Sowjetstaaten, die jeweils als separate Handelseinheiten für Emissionszertifikate behandelt wurden, zählten die USA als eine einzige Nation (was es den US-Staaten verwehrte, untereinander Zertifikate zu tauschen, um Quoten zu erreichen). Zweitens, Die US-Emissionen im Jahr 1990 wurden nicht auf so hohe erlaubte Niveaus aufgebläht wie in Deutschland, UK und Russland, was es viel schwieriger machte, die Ziele zu erreichen[?].

Als Antwort auf diese Ungerechtigkeiten und anderer Umstände ließ der US-Senat in seltener Einstimmigkeit beider Parteien eine Byrd-Hagel-Resolution passieren, die klarstellte, dass die USA kein wie auch immer geartetes Abkommen unterzeichnen würden, das „ernste Schädigungen der Wirtschaft in den USA zur Folge hätte“. Der damalige Präsident Clinton, dem politischer Pragmatismus alles andere als fremd war, hatte verstanden und leitete niemals einen Antrag einer Genehmigung des Kyoto-Protokolls seitens der USA an den Kongress zur Ratifizierung weiter.

Hitzige Klimaverhandlungen auf Eis gelegt

Am 6. Juni berichtete Reuters, dass Gespräche der UN, die auf einen neuen Klimapakt bis zum Jahr 2015 gerichtet waren, infolge Widerstands aus Russland, Weißrussland und der Ukraine unterbrochen worden sind, und zwar hinsichtlich verfahrenstechnischer Übertretungen, die mit dem Ziel begangen worden sind, ihren Gratis-Kohlenstoff-Fußabdruck zu eliminieren. Das UNFCCC möchte sich jetzt nicht mehr an einen Handel halten, mit dem Russland von Anfang an in den Kyoto-Zug geholt werden sollte.

Mit dem kürzlichen Kollaps des europäischen Kohlenstoff-Marktes, in dem der Preis von Kohlenstoff (heißer Luft) Rekord-Tiefststände erreicht hatte, sorgen sich die Europäer jetzt, dass man Russland, der Ukraine, Polen und anderen ehemaligen Ostblock-Staaten erlauben könnte, mit dem riesigen Stapel von Kohlenstoff-Zertifikaten, die sie unter Kyoto gesammelt haben, den Markt weiter zu überschwemmen und die Preise weiter zu drücken.

Ironischerweise wurden diese Zertifikate früheren Ostblock-Staaten als Belohnung gewährt, weil der Kommunismus die ökonomische Entwicklung vor 1990 unterdrückt hatte. Damit wollte man den wirtschaftlichen Niedergang kompensieren, den die eigenen kommunistischen Regimes zu verantworten hatten. Polen, Gastgeber des nächsten COP 19-Treffens im November, plant weiterhin, die in seinem Besitz befindlichen 500 metrischen Tonnen Kohlenstoff-Zertifikate an andere Nationen zu verkaufen, einschließlich Japan, Irland und Spanien, um sich von seinen Emissionen durch den starken Verbrauch von Kohle zu entlasten.

Seitdem hat Russland angekündigt, sich unter diesen Bedingungen nicht an einem zweiten Zeitraum des Kyoto-Protokolls zu beteiligen, und zwar unter Hinweis auf Pläne, diese Zertifikate zu behalten und an andere Länder zu verkaufen, ohne Berücksichtigung eines behaupteten COP-„Konsens’“, das sie beenden würde. Sie leiden immer noch unter der Brüskierung während der zweiwöchigen UN-Klimagespräche in Doha im vorigen Jahr, als Vizepremier Abdullah bin Hamad al-Attiya die 18. COP-Tagung kurzerhand für beendet erklärte, bevor die russische Delegation ihrem Wunsch gemäß zu Wort gekommen war. Während die Klimachefin der UN Christiana Figueires behauptete, dass ein Konsens erzielt worden ist, nannte der russische Chefunterhändler Oleg Shamanov dies einen „absolut offensichtlichen Bruch des Verfahrens. Das ist eine systemrelevante Angelegenheit. Solange wir unser Haus nicht in Ordnung bringen, sind wir nicht in der Lage zu garantieren, dass wir im Jahr 2015 mit etwas Produktivem aufwarten können“.

Der Markt des Handels mit Kohlenstoff-Zertifikaten ist nur eines der auf dem Klimaalarm basierenden profitablen Schemata zur Umverteilung des globalen Wohlstands. Eine anderer wichtiger Punkt auf der Agenda des Vertrags, den die UNFCCC 2015 in Paris ansprechen möchte, ist ein geplanter „Verlust- und Schadens“-Mechanismus, um Kompensation seitens der entwickelten „Tier 1“-Nationen zu erreichen für eine von Anwälten vertretene Gruppe kleiner Inselstaaten, der Alliance of Small Island States (AOSIS). Diese machten Katastrophen infolge der globalen Erwärmung geltend. Die AOSIS-Staatschefs einschließlich Tuvalu, Kirabati, St. Lucia und den Malediven behaupten, dass es durch die vom Menschen verursachte globale Erwärmung zu Super-Hurrikanen und steigendem Meeresspiegel kommt.

Und wer ist dafür am meisten verantwortlich? Zufälligerweise haben natürlich diese Anwälte die Schuldigen unter denjenigen mit den tiefsten Taschen ausgemacht … die USA, Westeuropa und Japan. Obwohl China derzeit der größte CO2-Emittent ist, wurde es nicht erwähnt. Immer noch zu bestimmen ist das Problem, welche Strafen wie durchsetzbar sind. Wenn zum Beispiel ein Hurrikan der Stufe 4 auf das Festland trifft, wie kann dann irgendjemand wissen, welchen Anteil daran jede einzelne Nation hat? Und auch, welcher Anteil stammt von diesen Kohlekraftwerken und SUVs, und welcher aus Mutter Natur?

Der Gedanke, den Westen für vermeintliche vergangene und künftige Klimasünden zu bestrafen ist sicher nicht neu. Vor dem Treffen in Kopenhagen (COP 15 im Jahr 2015) haben viele lateinamerikanische Länder, die Philippinen und die Afrikanische Union behauptet, dass westliche Länder den Entwicklungsländern Trillionen Dollar schulden.

Repräsentanten der Delegationen aus den USA und Europa, die an der Klimakonferenz in Kopenhagen teilgenommen haben, haben unterschrieben, ihren „fairen Anteil“ zu übernehmen und versprochen, von den Jahren 2010 bis 2012 pro Jahr 10 Milliarden Dollar zu zahlen. Das Angebot wurde als Unverschämtheit zurückgewiesen, die Diskussionen wurden kurzzeitig unterbrochen, als Repräsentanten vieler unterentwickelter Länder die Treffen verließen, und wütende Unruhen brachen in den Straßen aus über Ungerechtigkeit einer so schäbigen Buße.

Der damalige Präsident von Venezuela Hugo Chavez erklärte dem Auditorium, wen man für die sozialen, ökonomischen und klimatischen Probleme der Welt verantwortlich machen kann:

● „Wäre das Klima eine Bank, hätte der Westen sie bereits gerettet“.

● „Das destruktive Modell des Kapitalismus rottet das Leben aus“.

● „Unsere Revolution trachtet danach, allen Menschen zu helfen … Sozialismus, der andere Geist, der wahrscheinlich in diesem Raum herumgeht, ist der Weg zur Rettung des Planeten; Kapitalismus ist der Weg in die Hölle … Lasst uns den Kapitalismus bekämpfen und ihn uns untertan machen!“

Die damalige Außenministerin Hillary Clinton eilte dann zur Rettung herbei und bot an, eine Vorauszahlung in Gestalt eines jährlichen Beitrags in Höhe von 100 Milliarden Dollar jährlich seitens der USA und anderen wohlhabenden Freunden zu leisten an die „ärmsten und verletzlichsten Nationen auf unserer Welt“ bis zum Jahr 2020. Sie sagte, das Geld würde von „einer Vielfalt von Quellen kommen, öffentlich und privat, bi- und multilateral einschließlich alternativen Finanzierungsquellen“. Wo das genau herkommen sollte wusste niemand, auch nicht Hillary und ihr Chef (hat jemand Vorschläge?)

Zeit, das Klima der Verrücktheit zu beenden

Es liegt schon länger zurück, dass man erkannt hat, dass der Zertifikatehandel à la UNFCCC, Verlust- und Schadensausgleich und andere Umverteilungen des Weltvermögens wenig oder gar nichts damit zu tun haben, eine Klimakrise zu verhindern, geschweige denn um irgendwelche Vorteile zu bieten. Trotz steigenden CO2-Gehaltes der Atmosphäre waren die Temperaturen seit ein oder zwei Dekaden nicht nur flach verlaufen, sondern führende Wissenschaftler erwarten sogar, dass es sich während vieler kommender Jahre oder Jahrzehnte abkühlen wird.

Russland war dem Kyoto-Protokoll beigetreten, bevor man erkannte, dass es keine überzeugende wissenschaftliche Basis gibt, das zu tun. Jüngeren Berechnungen von Forschern am angesehenen Pulkovo Observatory in St. Peterburg zufolge wird die globale jährliche Mitteltemperatur bald anfangen zu sinken, was der Beginn einer sehr kalten und langzeitlichen Klimaphase ist.

Der Leiter des Pulkovo Observatory, Dr. Habibullo Abdussamatov, einer der führenden Solarwissenschaftler der Welt, Mitglied der russischen Akademie der Wissenschaften und Direktor des russischen Bereiches der ISS, glaubt, dass die Kälte bis zum Ende dieses Jahrhunderts dauern wird. Er sagt voraus: „Von dem Maximum des Sonnenzyklus’ 24 etwa im Jahr 2014 an kann man den Beginn des nächsten zweihundertjährigen Zyklus’ einer starken Abkühlung erwarten bis hin zu einer Kleinen Eiszeit bis zum Jahr 2055 plus/minus 11 Jahre“ (das wäre die 19. der letzten 7500 Jahre).

Dr. Abdussamatov weist darauf hin, dass es während der letzten 1000 Jahre fünf mal zu Kaltphasen gekommen war. Jede ist korreliert mit der Solarstrahlung in einer Weise, wie wir sie jetzt auch erleben, ohne jeden menschlichen Einfluss. „Globale Kälte wird kommen, egal ob industrialisierte Nationen ihre Treibhausgasemissionen begrenzen oder nicht. Die verbreitete Ansicht, dass die industriellen Aktivitäten der Menschheit ein bestimmender Faktor bei der globalen Erwärmung sind, ergab sich aus einer Fehlinterpretation von Ursache und Wirkung“.

Pulkovo Observatory: „Messungen temporärer Variationen von Gestalt und Durchmesser der Sonne ebenso wie die Feinstruktur und die Dynamik der Granulation wurden vom Service-Modul des russischen Segmentes der ISS durchgeführt“.

Die russischen Wissenschaftler Vladimir Bashkin und Raulf Galiullin von Institute of Fundamental Problems of Biology der russischen Akademie der Wissenschaften stimmen zu, dass Klimaänderungen durch natürliche Zyklen charakterisiert werden, die nichts mit menschlichen Aktivitäten zu tun haben. Bashkin: „Eine globale Erwärmung, von der so Viele reden, ist kein wissenschaftliches Problem, sondern vielmehr ein Marketing-Trick … es liegt keine globale Erwärmung vor uns. Sondern stattdessen eine Abkühlung“.

Ja, und dieser Marketing-Trick ist etwas, das die UNFCCC einschließlich der Russen erstklassig zu spielen gelernt haben.

Larry Bell

Link: http://www.forbes.com/sites/larrybell/2013/06/23/climate-change-russia-is-steamed-about-u-ns-kyoto-carbon-credit-cop-out/

Übersetzt von Chris Frey EIKE




Hitzewelle nach wochenlanger Kälte, dann genauso abrupt wieder Kälte – spielt das Wetter wirklich verrückt?

Aber natürlich funktioniert Klima nicht so. Dennoch bleibt die Frage, ob es schon die Klimakatastrophe ist, wenn eine sommerliche Hitzewelle gleich so extrem ausfällt wie dieser Tage. Und nach vier Tagen ist dieser Hitzespuk schon wieder vorbei. Ist das noch normal? Ja, natürlich! Unter bestimmten Bedingungen. Dazu einige Anmerkungen aus meteorologisch-synoptischer Sicht.

Zunächst einmal: Der abrupte Wechsel zwischen längeren kühlen Perioden einerseits und kurzen, aber intensiven Hitzewellen andererseits im Sommer ist eine eindrucksvolle Bestätigung der hier beim EIKE veröffentlichten Arbeiten von Leistenschneider et al. zu diesem Thema. Diesmal war dieser Wechsel erst in die eine, dann in die andere Richtung sogar sehr gut ausgeprägt.  In ihrem letzten diesbezüglichen Beitrag haben Leistenschneider et al. diese Erkenntnis noch einmal untermauert.  Die ersten Vorhersagen dieser Art seitens der Autoren gab es jedoch schon vor Jahren. Ihnen zufolge sind solche abrupten Wechsel von kalt nach heiß und umgekehrt typisch für den Übergang in eine Kaltzeit.

Nun ist eine aktuelle Wetterlage natürlich nicht Klima. Aber solche starken Schwankungen gab es auch schon während der letzten Jahre. Der Autor möchte diese starken Schwankungen hier einmal aus synoptischer Perspektive beleuchten. Sie haben nämlich alle eines gemeinsam.

In diesem Jahr kommt aber noch ein zweites hinzu. Dem Autor war schon seit Beginn dieses Jahres etwas aufgefallen, das aus der folgenden Abbildung hervorgeht:

Hier ist die Temperaturverteilung im 850 hPa-Niveau jeweils vom 12. Juni 2012 und 2013 dargestellt – ein völlig willkürlich gewählter Termin zum Zeitpunkt der Abfassung dieses Aufsatzes – und kein ausgewählter Parade-Termin. Es gibt augenfällige Unterschiede, und der Deutlichkeit halber sei hier betont, dass damit nicht die gänzlich andere Wetterlage über Mitteleuropa gemeint ist, obwohl in beiden Fällen kühle Witterung herrschte.

Sondern: Im Jahr 2012 erkennt man die 15°C-Isotherme, die über Osteuropa weit nach Norden reicht. Gleichzeitig ist über dem Nordmeer ein großer Bereich erkennbar, in dem die Temperatur in dieser Höhe unter -5°C liegt. Diese Verteilung ist Mitte Juni zu erwarten.

Anders dagegen in diesem Jahr: Die 15°C-Isotherme ist rudimentär ganz weit im Osten am Kartenrand zu finden, und nur die 10°C-Isotherme reicht weit nach Norden. Gleichzeitig findet sich über dem Nordatlantik lediglich eine größere Zone mit Temperaturwerten unter dem Gefrierpunkt. Die -5°C-Isotherme ist lediglich über Nordskandinavien erkennbar.

Nebenbemerkung: Solche Schwankungen am Nordzipfel Europas von Jahr zu Jahr sind nicht ungewöhnlich. Die größere Kälte im Norden spiegelt sich jedoch in der im Vergleich zum vorigen Jahr deutlich geringeren jahreszeitlichen Abschmelzrate der nordpolaren Eiskappe (hier).

Aber zurück zum Thema. Im atlantisch-europäischen Raum zeigt sich also in diesem Frühsommer ein signifikant geringerer Temperaturgegensatz zwischen warm und kalt als im Frühsommer des vorigen Jahres. Dies hat auch eine Abschwächung des zonalen Grundstromes zur Folge, d. h. vereinfacht ausgedrückt, der Westwindimpuls ist herabgesetzt.

Ähnlich starke Schwankungen zwischen mild und sehr kalt gab es auch schon im vergangenen Winter. Einer in Osteuropa tödlichen Extrem-Kältewelle im Dezember 2012, die gerade noch bis in den Nordosten unseres Landes reichte, folgte um Weihnachten ein ausgeprägtes „Weihnachtstauwetter“. Nicht nur, dass es in Deutschland Heiligabend ungewöhnlich mildes Wetter gab, sondern milde atlantische Luftmassen setzten sich innerhalb weniger Tage bis zum Ural durch. Auch in Moskau war es daher nach der wochenlangen extremen Kälte zu einem Weihnachtstauwetter gekommen.

Worin besteht nun die Gemeinsamkeit? Wie kann es zu so abrupten Wetter- und Temperaturänderungen kommen?

Antwort: Die Höhenströmung – oder der Jet-Stream – ist stark meridional orientiert. Die Luftmassen werden also nicht im Bereich einer vom Atlantik kommenden Westwindzone nach beiden Richtungen abgemildert, sondern strömen direkt von Norden bzw. von Süden nach Mitteleuropa. Dies ist typisch für eine schwache NAO, worauf Leistenschneider et al. ebenfalls schon hingewiesen haben. Eine stark meridionalisierte Strömungskonfiguration kommt natürlich immer wieder vor und muss vom Zeitscale her unter dem Begriff „Witterung“ eingeordnet werden. Unter Witterung versteht der Fachmann eine längere Periode ähnlichen Wetter- und Temperaturverlaufs, also beispielsweise warm/trocken, kühl/nass, im Winter stürmisch/mild, usw. Der Zeitscale für Witterung beträgt etwa drei bis sechs Wochen mit ziemlich großer Streuung.

Bleibt jedoch ein solches Strömungsmuster mehrere Monate bis zu über einem Jahr erhalten, ist das nicht mehr Witterung, aber natürlich auch immer noch nicht Klima. Der Begriff dafür lautet „Zirkulationsanomalie“.

Eine Zirkulationsanomalie liegt vor, wenn der Jet Stream mehrere Monate lang nicht in seiner klimatologisch normalen Position verläuft, sondern deutlich weiter südlich, und/oder wenn der deutlich schwächer als üblich ist. Musterbeispiel für eine Zirkulationsanomalie ist beispielsweise ein die Westströmung blockierendes Hochdruckgebiet über Nord- und Mitteleuropa. Ist ein solches mehrere Monate lang mit höchstens kurzen Unterbrechungen vorhanden, kann man das schon als Anomalie bezeichnen.

Eine solche Anomalie bewirkt auch die Verschiebung der Wetteraktivitäten. Wetterereignisse, die für ein Gebiet typisch sind, finden jetzt ganz woanders statt und sind dort sehr untypisch, das heißt extrem. Der Sommer 2003 war ein klassisches Beispiel dafür.

Bei einer Zirkulationsanomalie kann Mitteleuropa also Monate lang auf der warmen (Sommer 2003), aber auch auf der kalten Seite liegen. Eine ausgesprochen langlebige Anomalie dieser Art gab es zuletzt 1962/63, als auf einen ungewöhnlich kühlen Sommer einer der kältesten Winter des vorigen Jahrhunderts folgte. Es war auch das letzte Mal, dass der Bodensee so zugefroren war, dass man mit dem Auto über das Eis von Lindau nach Konstanz fahren konnte.

Und was soll das Ganze hier?

Nun, nach Einschätzung des Autors liegt derzeit eine solche Zirkulationsanomalie vor. Durch den stark verringerten Temperaturgegensatz im europäisch-atlantischen Raum ist auch der Jet-Stream schwächer ausgeprägt. Dann aber erreicht die meridionale Komponente eine deutlich größere Varianz im Zirkulationsmuster. Die Luftmassen werden also nicht beim Transport über den Atlantik erwärmt bzw. abgekühlt, sondern erreichen uns hier in Mitteleuropa mehr oder weniger direkt von Norden bzw. Süden. Insofern ist die drastische Erwärmung innerhalb weniger Tage und auch die vier Tage später erfolgte, genauso drastische Abkühlung leicht zu erklären. Leistenschneider zufolge lag während der sonnenbasierten Erwärmungsphase der Polarfrontjet in höheren Breiten, und daher war Deutschland in den Genuss vergleichbarer langer und warmer Sommerperioden kam, die sonst typisch für europäische Südländer sind.

Es kommt aber noch etwas hinzu. Der verringerte Temperaturgegensatz zwischen kalt und warm (der noch dazu offenbar zu Lasten der Wärme geht), führt zu einer Verlagerung des subpolaren Jet Streams nach Süden. Man vergleiche diesen mit der Wand einer Schüssel mit flachem Boden. Wird der Boden angehoben, verschiebt sich der geneigte Rand nach außen. Die warme Luft auf der warmen Seite des Jet Streams ist damit weiter südlich als sonst. Die kurze Unterbrechung derzeit ändert an diesem Bild nichts, denn die Warmluft ist nicht nur aus Deutschland ostwärts abgedrängt worden, sondern vollständig aus dem Wetterkartenbild verschwunden.

Wir haben es also in diesem Jahr offenbar mit zwei Phänomenen zu tun, die in die gleiche Richtung gehen: Einmal überwiegt die meridionale Komponente, zum anderen ist der zonale Grundstrom abgeschwächt, und der Jet Stream verläuft weiter südlich. Nach Beobachtungen des Autors liegt eine derartige Anomalie seit etwa Mitte Januar dieses Jahres vor. Das Fehlen jeglicher Warmluft in ganz Europa deutet jedenfalls darauf hin.

Und damit kommen wir allmählich zu dem Punkt, der mir etwas Sorgen macht. Sollte sich die Anomalie – wodurch auch immer gekennzeichnet – in diesem Sommer fortsetzen und vor allem im Juli längere Zeit eher kühles und regenreiches Wetter bringen (muss ja nicht immer gleich Hochwasser bedeuten), ist die Chance groß, dass die Anomalie auch im kommenden Winter noch andauert. Die Parallelen zu 1962/63 sind nämlich im Großen und Ganzen recht deutlich. Dann (aber nur dann!) dürften wir vor einem extrem kalten Winter stehen mit lange andauernden Ostwind-Wetterlagen. Leistenschneider, dem ich u. A. diese Arbeit zur Begutachtung vorgelegt habe, merkt dazu noch an: Dies dürfte noch dadurch verstärkt werden, da sich der derzeitige 24. Solare Zyklus zu seinem 2. Maxima aufmacht – das er im Juni oder Juli erreicht – und die solare Aktivität wird dann im Winter auf low sein, wie nach jedem solaren Maximum im Schwabe-Zyklus . Im Frühjahr dieses Jahres gab es solche Lagen ja schon, nur war die Jahreszeit damals schon so weit fortgeschritten (März/April), dass es wohl zu starken Frösten reichte, nicht aber mehr zu Superkälte.

Fazit: Es besteht in dieser Hinsicht unabhängig von allen Klima-Überlegungen die Gefahr eines kommenden Extrem-Kaltwinters. An sich ist das natürlich nichts Anomales, denn Anomalien sind durchaus normal und treten immer wieder auf. Anomal wäre es höchstens, wenn es solche Anomalien gar nicht mehr gäbe. Und was den Winter betrifft, wäre das natürlich kein Beweis für eine Klima-Abkühlung. Man sollte ihn aber, so er wirklich auftritt, als Fingerzeig sehen, wohin der Klimazug aller Wahrscheinlichkeit nach bei uns rollt.

Was aber Sorgen bereitet: Wenn es im kommenden Winter wirklich wochenlang extrem kaltes Wetter gibt und man dies vor dem Hintergrund der Stromlücke in Deutschland sieht…

Dipl.-Met. Hans-Dieter Schmidt

Leistenschneider fügt aus seiner 750 Seiten starken Abhandlung noch folgende Abbildung hinzu und macht dazu folgende Bemerkungen:

 

Die Abbildung links zeigt im Vergleich Juli 2004 mit August 2003, wie der Jetstream  das Wettergeschehen einstellt, Quelle: http://myweb.tiscali.co.uk/g0sd/Weather.htm. Die Abbildung rechts zeigt den Jetstreamverlauf über ganz Europa, Quelle: ZDF. Der beispielhaft gezeigte Verlauf war typisch für den Sommer 2008 und zeigt wandernde Tiefdruckgebiete über Mittel- und Nordeuropa, die Deutschland die niedrigen Temperaturen und das nasse Wetter bescherten. Aufgrund der Druckunterschiede können die Hochs den Jetstream nicht überwinden und verbleiben südlich seines Wellenverlaufs.

Anmerkung:

2003 war bekanntlich der Hitzesommer in Europa, als der Hauptsonnenzyklus (208-jährige de Vries/Suess-Zyklus, einige Quellen geben das Jahr 2002 an, könnte auch stimmen, da z.B. ein El Nino immer!!!! 11 Monate nach seinem solaren Ereignis ausgelöst wird und es durchaus sein kann, dass die Sonne dieselbe Zeitverzögerung auf die anderen großen irdischen Wettersysteme hat) sein Maximum hatte und besonders über die Hadleyzellen die Sonne ihre erhöhte Energie auf das irdische Wettersystem einbrachte. Diese Energieeinfuhr führt zu einer höheren Temperatur- und Druckkomponente, wodurch die Jet´s weiter nach Norden wandern. Wie ich zeigen konnte, löst die Sonne über die Hadleyzellen (deutliche Änderung der Luftmassenströmung) einen El Nino aus und zwar kann man die Uhr danach stellen. Über den Drehimpulserhaltungssatz hat ein El Nino weiter globale Auswirkungen, auch auf Ferrel- und Polarzelle (meine These erklärt z.B. die Untersuchungen von Brönnimann, ETH, zu El Ninos). Auf EIKE hatte ich dies gezeigt.

Folgend die solare Aktivität im 24. Sonnenzyklus (Stand 03. Juni 2013). Sie sehen, dass wir derzeit auf ein 2. Maximum zugehen. Ich rechne noch bis einschließlich Juli (maximal August) mit einer Zunahme, dann wird die Aktivität wieder fallen. Vergleichen Sie dazu das 1. Maximum und dessen Rückgang. Leider kann ich (außer bei El Ninos) nicht belegen und erklären, wie schnell die Sonne ihre Aktivitätsschwankungen auf die irdischen Wettersysteme einprägt und wie sie dies macht (habe mich auch schon seit geraumer Zeit nicht mehr wirklich damit beschäftigt). Sie sollten jedoch Recht behalten, dass wir wieder einen kalten Winter bekommen. Alles, was wir kennen, spricht dafür.

Schlusswort des Autors: Ich danke Herrn Leistenschneider für die fachliche Begutachtung dieses Aufsatzes.

Und ich bedanke mich bei  meinem Freund, dem Schriftsteller Chris Frey, der diesen Aufsatz stilistisch überarbeitet hat.

H.-D. S.




Riesige Schiefergas-Vorkommen in UK – lasst uns fracken!

Der British Geological Survey (BGS) hat eine Studie mit einer Schätzung veröffentlicht, der zufolge 1300 Trillionen Kubikfuß (tcf)* Schiefergas allein im Bowland-Schieferbecken liegen könnten. Tatsächlich liegt die Obergrenze der Schätzung des BGS bei sagenhaften 2281 tcf – fast genauso viel wie die gesamte geschätzte Menge in den USA (2500 tcf).

[*Bei diesen großen Zahlen verzichte ich auf eine Umrechnung. Auch im Folgenden werden diese Zahlen und Einheiten unverändert übernommen. A. d. Übers.]

Unglaublicherweise sind in dieser Schätzung noch nicht die riesigen Vorkommen im Süden Englands oder im Central Basin in Schottland enthalten. Tatsächlich gibt es noch viele andere Schiefergas-Lagerstätten in UK. Und dann sind da noch die gigantischen Reserven offshore. Dem BGS zufolge könnten die Offshore-Reserven fünf bis zehn mal so groß sein wie die Reserven an Land.

UK verbraucht derzeit etwa 2,7 Trillionen Kubikfuß pro Jahr. Etwa 130 Trillionen Kubikfuß würde die Briten bei diesen Verbrauchsraten etwa 50 bis 100 Jahre lang mit Erdgas versorgen – was die zurückgehende Förderung aus den alternden Nordseefeldern ausgleichen würde. Es könnte die industrielle Aktivität im Norden des Landes neu beleben und eine gänzlich neue Industrie hervorbringen.

Das Energy and Climate Change Committee des Unterhauses hat eine konservative Schätzung von 10 Prozent angelegt, um die technisch förderbaren Schiefergas-Reserven abzuschätzen. In den USA jedoch ist die Fracking-Technologie bereits so weit fortgeschritten, dass die Förderrate im Mittel bei fast 20 Prozent liegt. Mancherorts wurden auch schon bis zu 30% unkonventionelles Gas gefördert. Die britischen gigantischen Schieferreserven bestätigen schließlich, dass unser Land genügend billige und verfügbare Energie für Jahrhunderte besitzt.

Schiefer-Fracking wird schon lange betrieben. Die meisten Umweltagenturen und nationalen Wissenschafts-Akademien, die diese Technologie untersucht haben, sind zu dem Ergebnis gekommen, dass die Risiken sehr klein sind. Schließlich wohnt jeder Form von Energieerzeugung ein inhärentes Risiko inne und zeitigt Einflüsse auf die Umwelt. Schiefergas muss aber im Zusammenhang mit anderen Arten von Energie gesehen werden. Im Vergleich mit den Umweltrisiken des Kohlebergbaus, der Ölförderung und der Kernkraft ist Fracking nun wirklich eine Technologie mit sehr geringem Risiko.

Durch die Verringerung des Energie-Imports wird UK durch die Schiefergas-Revolution signifikant gewinnen. Billigere Energie würde die Produktion der Firmen in UK wettbewerbsfähiger machen. Gas- und Stromrechnungen würden zurückgehen, und der steigende Trend zu Energiearmut könnte umgekehrt werden.

Wegen der potentiellen Größenordnung der Schieferbohrung in UK könnten signifikant viele neue Arbeitsplätze geschaffen werden über eine ganze Palette von Arbeitsfeldern. Energieintensive Industrien und Hersteller, die sich schon überlegt haben, ihre Tätigkeiten wegen der steigenden Energiekosten nach Übersee zu verlagern, würden dann vermutlich bleiben.

Die herauf dämmernde Schiefer-Revolution in UK ist ein klarer Sieg für diejenigen von uns, die gesagt haben, dass die erneuerbare Energie viele Familien in die Energiearmut stürzen und in wirtschaftlich nicht nachhaltige Positionen bringen wird. Die Ausbeutung von Schiefergas kann ein gewaltiges Potential sein, sowohl die Industrie als auch die privaten Haushalte enorm zu stärken. Das Land sollte jetzt diesen Super-Jackpot heben. Lasst uns fracken!

Dr Benny Peiser is the director of the Global Warming Policy Foundation think-tank in the United Kingdom

Read more: http://www.publicserviceeurope.com/article/3654/huge-uk-shale-reserves-lets-get-fracking#ixzz2XZrzraQR

Link: http://www.publicserviceeurope.com/article/3654/huge-uk-shale-reserves-lets-get-fracking

Übersetzt von Chris Frey

Bemerkung des Übersetzers: Was der Autor hier gar nicht anspricht, was aber gerade in Deutschland von eminenter Bedeutung ist: Dieses Potential kann ohne jede Subvention abgeschöpft werden! Und die gigantischen Umweltschäden beispielsweise durch Windräder würden beim Fracking nicht einmal ansatzweise auftreten!

Ergänzung:

Riesige Ölfelder in Deutschland entdeckt

Probebohrungen von Geologen haben ergeben: In Teilen Mecklenburg-Vorpommerns und Brandenburgs schlummern Millionen Barrel Öl unter der Erde. Was Klimaschützern ein Graus ist, könnte für die wirtschaftsschwachen Regionen ein Millionengeschäft werden.

Deutschland hat 2012 Öl im Wert von fast 60 Milliarden Euro importiert. Einen Teil der Ausgaben hätte es sich offenbar sparen können – denn ein Teil der Bundesrepublik sitzt selber auf einem Ölschatz: Probebohrungen eines deutsch-kanadischen Gemeinschaftsunternehmens namens Central European Petroleum GmbH (CEP) machen insbesondere dem finanziell gebeutelten Mecklenburg-Vorpommern Hoffnungen auf Millioneneinnahmen.




Der große Betrug mit den Erneuerbaren kommt ans Tageslicht

Insider der Energiebranche wissen schon lange, dass der Begriff ‚erneuerbare Energie’ ein romantisch verklärtes Bild ist – und eine ökonomische Pleite. Aber es ist erstaunlich, was mit dem Lockmittel von garantierten Subventionen der Regierung alles möglich ist. Selbst die großen Ölgesellschaften haben sich in die Erneuerbaren-Revolution eingebracht, wenn auch meistens aus PR-Gründen. Viele haben ihre erneuerbaren Ableger aber noch im Anfangsstadium wieder fallen gelassen, wie z. B. Shell. Nach dem Jahr 2008 wusste jeder, dass die Subventions-Regimes nicht von Dauer sein konnten. Auch die Öffentlichkeit hat ihnen die neue PR-Botschaft nicht abgenommen.

Es war jetzt lediglich noch eine Frage der Zeit, bevor die führenden europäischen Pioniere bzgl. Wind und Solar, Deutschland und UK, zu dem Schluss gekommen sind, dass sie genug von den selbst auferlegten ökonomischen Schäden hatten. Angesichts des gerade zusammen brechenden deutschen Solar-Sektors und den in UK ins Bewusstsein dringenden Kosten für jeden Arbeitsplatz bzgl. Wind, deuten alle Anzeichen darauf hin, dass die langsame Implosion der Erneuerbaren-Revolution in vollem Gange ist.

Die nackte Tatsache lautet, dass die Installation von Solarpaneelen in der Nordhemisphäre etwa ökonomisch so sinnvoll ist wie wenn man dem Iran den Vorsitz der Menschenrechts-Kommission der UN übertragen würde (was übrigens schon mal passiert ist). Genauso war die Brauchbarkeit von Windparks immer das am schlechtesten gehütete Geheimnis der Erneuerbaren-Industrie.

Und doch wurden Windturbinen und die Photovoltaik-Industrie unter aggressiven und erheblich geförderten grünen Lobbys, linken Sozialingenieuren, einem erschreckenden Journalismus, naiven Politikern und skrupelloser opportunistischer Unternehmer bzgl. der Erneuerbaren rasch zu etablierten Tatsachen in der Landschaft, was ihnen den Anschein ökonomischer Realisierbarkeit verleiht. Warum sonst würde eine Regierung diese mit unserem Geld stützen?

Ich habe früher schon über Hamish’ geschrieben, der davon überzeugt ist, dass seine Investition in eine Windturbinen ihm etwas Gratis-Energie bietet – ‚gratis’, solange man den doppelten Schlag von Einspeisetarifen und anderer grüner Abgaben vorne sowie hohe Tarife von Stromrechnungen hinten übersieht, die von den Energie-Unternehmen für Andere eingeführt worden sind, die jetzt gezwungen werden, den Strom von Hamish zu Preisen über dem Marktwert zu kaufen.

Dazu kommen dann noch die Wartungskosten von Hamish, seine Notwendigkeit, über Strom aus Kohlenwasserstoffen als Backup zu verfügen, eine nur zeitweilige und unzuverlässige Erzeugung und die Tatsache, dass das Energie-Unternehmen sein Produkt nicht speichern kann, so dass es niemals genutzt werden wird.

Komischerweise ist Hamish ein radikaler grüner Sozialist, der seine Turbine gekauft hat, um der Gesellschaft Vorteile zu verschaffen. Niemals ist ihm der Gedanke gekommen, wie sehr seine grüne Extravaganz subventioniert worden ist, und zwar über stark erhöhte Stromrechnungen, die inzwischen Tausende in die Energiearmut getrieben haben. Das zeugt nicht von sehr viel sozialem Gewissen.

Ein für allemal: Wind- und Solarenergie ist niemals ‚gratis’, wie sehr das auch dem heimischen Kleinunternehmer so vorkommen mag. Wie bei jeder anderen Ressource auch muss irgendjemand irgendwo für die Entwicklung, Nutzung und Verteilung zahlen. Wenn das einzige Kriterium lautet, dass Wind und Solar gratis sind, kann man das Gleiche auch von Öl und Gas sagen [was ich schon seit Langem immer wieder betone! A. d. Übers.]. Und das bringt mich zu den jüngsten Katastrophen erneuerbarer Energie in großem Rahmen.

In Europa war Deutschland ein wesentlicher grüner Pionier, vor allem hinsichtlich Solarenergie. UK, das windigste Land in Europa, hat sich auf Windkraft konzentriert. In beiden Ländern jedoch lösen sich, bildlich gesprochen, in hohem Tempo die Räder vom Karren.

Im Juni hat die Sonne schließlich den deutschen Solarsektor überfallen, sahen doch Energieunternehmen, kleine und große, ihre Investitionen in Höhe von 21 Milliarden Pfund [knapp 25 Milliarden Euro] im Äther verschwinden. Wie ein deutscher Kommentator trocken anmerkte: „Nun schickt die Sonne schließlich doch eine Rechnung“.

Mitte Juni hat Siemens angekündigt, seine Sparte Solar zurückzufahren bis zur vollständigen Abwicklung im nächsten Frühjahr. Siemens ist in den Solarmarkt eingetreten mit dem Kauf des israelischen Unternehmens Solel, und zwar in dem Glauben, dass der Markt rapide wachsen würde. Dieses Lotteriespiel ist gescheitert. Siemens hat etwa 1 Milliarde Euro verloren.

Im März hat Bosch seinen Rückzug aus dem Markt von Solarzellen und –modulen signalisiert. Bosch-Manager Franz Fehrenbach, der bislang hinter den Aktivitäten des Unternehmens bzgl. Solarenergie seit dem Jahr 2008 gestanden hatte, hat außerdem eingeräumt, dass der deutsche Solarsektor ganz allgemein „zum Sterben verurteilt“ ist. Bosch wird sogar noch größere Verluste einfahren als Siemens, nämlich etwa 2,4 Milliarden Euro.

Aber es sind die privaten Investoren, die die volle Last der Verluste zu tragen haben, und zwar die früheren Senkrechtstarter am Aktienmarkt SolarWorld und Q-Cells in Deutschland, neben anderen Solarunternehmen. Sie haben mehrere zehn Milliarden Euro Kapitalverlust zu verkraften.

Unterdessen sorgt in UK die Windenergie erneut für Schlagzeilen, jedoch aus ganz unerwarteten negativen Gründen. Eine neue Analyse von Zahlen der Regierung und der Industrie enthüllte, dass jeder Arbeitsplatz in der Windindustrie in UK effektiv mit 100000 Pfund pro Jahr subventioniert wird. In manchen Fällen waren es sogar 1,3 Millionen Pfund. In Schottland mit seinen 230 Windparks an Land beläuft sich diese Summe auf 154000 Pfund pro Arbeitsplatz. Selbst bei der überaus optimistischen Schätzung für die Schaffung von 75000 Arbeitsplätzen in der Windindustrie würde diese Summe lediglich auf 80000 Pfund sinken.

Aber worauf die Renewable Energy Foundation, eine Denkfabrik in UK, schon hingewiesen hat: um die EU-Vorgaben von 15 Prozent des erzeugten Stromes aus erneuerbaren Quellen bis zum Jahr 2020 zu erfüllen – ein lächerlich unhaltbares Ziel – müssen die verschwenderischen Subventionen immer weiter steigen bis auf 6 Milliarden Pfund pro Jahr. Diese Zahlen berücksichtigen noch nicht die Kosten für das Land bei einem Abwandern energieintensiver Industrien; eine sehr reale Bedrohung, wenn die grünen Abgaben auf die Stromrechnungen weiter steigen. Die europäische Industrie und Kraftwerke haben sich schon jetzt in dem verzweifelten Bemühen, die Kosten niedrig zu halten, der Verbrennung von Millionen Tonnen aus Amerika importierter Holz-Pellets zugewandt. Und das geht dem Vernehmen nach zum Schaden der Wälder in den USA und einer daraus resultierenden Auswirkung auf das CO2-Niveau.

Die Aussichten auf schnelles Geld, wenn es um Schmiergeld-Subventionen der Regierung geht, war immer für Unternehmer attraktiv, ebenso wie für Firmengruppen und Investoren. Das Problem ist, dass verschwenderische Subventionen immer Gegen­stand dessen sind, was unsere gallischen Freunde die Guillotine nennen. Es gibt einen Punkt, an dem solche Dinge abbrechen – und dieser Punkt rückt sehr schnell immer näher.

In vielen Gebieten von Nordeuropa mögen Wind- und Solarprojekte weithin sichtbare Tatsachen sein. Aber die Schlagzeile der ökonomischen Realität hinter der erneuerbaren Energie ist und war immer deren schiere und nur zu offensichtliche „Nicht-Nachhaltigkeit“.

Und wie lautet der Tipp des Tages für Investoren im Energiemarkt? Ein Wort: Schiefergas. Das mag keine erneuerbare Ressource sein, aber mit Sicherheit eine nachhaltige – und weit jenseits unserer Generation.

The Commentator, 21 June 2013

Link: http://www.thegwpf.org/great-renewables-scam-unravels/

Übersetzt von Chris Frey EIKE




Das „Ensemble” von Modellen ist statistisch vollkommen bedeutungslos

rgbatduke sagt:

Wenn man sagt, dass wir einen bestimmten Zeitraum lang warten müssen, um zu der Schlussfolgerung zu gelangen, dass „die Modelle falsch sind“, ist das aus zwei Gründen gefährlich und falsch. Erstens – und dieser Punkt wird erstaunlich stark ignoriert – gibt es sehr viele verschiedene Modelle, die alle für sich in Anspruch nehmen, auf  der Physik zu basieren. Und doch ergeben keine  zwei von ihnen etwa die gleichen Ergebnisse!

Dies spiegelt sich in den von Monckton veröffentlichten Graphiken, wobei die AR5-Trendlinie das Mittel all dieser Modelle ist. Trotz der Anzahl der hierzu beitragenden [Modelle] ist die Varianz gewaltig. Falls jemand einen „Spaghetti-Graphen“ der einzelnen Modellprojektionen veröffentlicht (wie es Roy Spencer kürzlich in einem anderen Beitrag getan hat), sieht er aus, wie das ausgefranste Ende eines Seiles und nicht wie eine kohärente Verteilung um ein bestimmtes, von der Physik gestütztes Ergebnis.

Man beachte den impliziten Schwindel in dieser Graphik. Wenn man ein Mittel und die Standardabweichung über die Modellprojektionen bildet und dann dieses Mittel als eine „sehr wahrscheinliche“ Projektion und die Varianz als repräsentativ für die Fehlerbandbreite darstellt, behandelt man die Differenzen zwischen den Modellen so, als ob sie nicht-korrelierte Zufallsvarianten wären, die sich in einer Abweichung um das wirkliche Mittel scharten.

Was soll denn das heißen?!

Es ist ein solch horrender Missbrauch von Statistik, dass man gar nicht so recht weiß, wo man am besten anfangen soll. Man möchte am liebsten dem Erzeuger dieser Graphik-Zusammenstellung – wer auch immer das war – eine runterhauen und dafür sorgen, dass diese Person niemals wieder etwas Wissenschaftliches oder Statistisches veröffentlicht. Man darf kein Ensemble unabhängiger und gleich verteilter Modelle erzeugen, die einen unterschiedlichen Code haben. Man kann eventuell ein einzelnes Modell erzeugen, das ein Ensemble von Vorhersagen erzeugt, indem man gleichartige Abweichungen (Zufallszahlen) verwendet, um „Rauschen“ (zur Repräsentation der Unsicherheit) in die Inputs mit eingehen zu lassen.

Was ich sagen möchte: die Varianz und das Mittel des „Ensembles” der Modelle ist vollständig bedeutungslos in statistischer Hinsicht, weil der Input nicht die wirklich grundlegenden Eigenschaften besitzt, die für eine bedeutungsvolle Interpretation erforderlich sind. Sie sind nicht unabhängig, ihre Unterschiede basieren nicht auf einer Zufallsverteilung von Fehlern, es gibt keinen wie auch immer gearteten Grund zu glauben, dass die Fehler oder Differenzen nicht auf Vorurteilen beruhten (unter der Voraussetzung, dass es nur eine einzige Möglichkeit für den Menschen gibt, etwas Vorurteilfreies zu erzeugen: nämlich die Verwendung eines Würfels oder anderer objektiver Zufallsgeneratoren).

Warum sollte man also diesen Unsinn hinnehmen und lineare Fits für eine Funktion – die globale Temperatur – anpassen, die niemals in ihrer gesamten Historie linear verlaufen ist, obwohl sie natürlich immer annähernd so glatt war, dass man jederzeit eine Taylor-Reihe in hinreichend kleinen Intervallen erzeugen und einen linearen Term erhalten kann, der – durch die Natur von Taylor-Reihen-Fits an nichtlinearen Funktionen – garantiert scheitern wird, wenn er extrapoliert wird, weil nichtlineare Terme höherer Ordnung sich draufsetzen und die Herrschaft übernehmen? Warum sollte man ein Lippenbekenntnis abgeben für die Vorstellung, dass R² oder p für eine lineare Anpassung oder für einen Kolmogorov-Smirnov-Vergleich der realen Temperaturaufzeichnung mit der extrapolierten Modellvorhersage irgendeine Bedeutung hätten? Sie haben keine.

Noch einmal: Es ergibt keine Bedeutung! Und ist unhaltbar in Theorie und Praxis der statistischen Analyse. Genauso könnte man ein Hexenbrett nehmen [siehe hier bei wikipedia, Bild oben rechts] als Basis für Behauptungen über die Zukunft des Klimas, und zwar als Ensemble-Mittel unterschiedlicher berechneter physikalischer Modelle, die sich nicht durch wirklich zufällige Variationen unterscheiden und die allen Arten von ausgelassenen Variablen unterworfen sind, dazu ausgewählten Variablen, der Implementierung und vorurteilsbefangener Initialisierung. Das Brett könnte uns die richtige Antwort liefern oder auch nicht, außer, dass es Glück bringen kann bei der Begründung einer Antwort auf irgendeiner vernünftigen Grundlage.

Wir wollen diesen Prozess einmal umkehren und tatsächlich die Verteilung der Modellergebnisse einer statistische Analyse unterwerfen. Zur Erinnerung: es geht um die Behauptung, dass sie alle nach den gültigen Gesetze der Physik korrekt implementiert sind. Zum Beispiel, wenn ich versuche, eine a priori-Berechnung der Feinstruktur – sagen wir – eines Kohlenstoff-Atoms durchzuführen, könnte ich damit so beginnen, dass ich ein Einzel-Elektronenmodell auflöse, wobei ich die Wechselwirkung zwischen den Elektronen unter Verwendung der Wahrscheinlichkeits-Verteilung des Einzel-Elektronenmodells bestimme, um eine sphärisch symmetrische „Dichte“ von Elektronen um den Kern zu erzeugen. Dann stelle ich eine in sich widerspruchsfreie Wiederholungs-Feldtheorie-Iteration auf  (indem ich das Einzel-Elektronenmodell für das neue Potential auflöse) bis es konvergiert. (Das ist als „Hartree-Approximation bekannt“).

Nun könnte jemand sagen „Moment mal, das ignoriert das Pauli-Ausschlußprinzip [Pauli exclusion principle]“ sowie die Forderung auf vollkommene Antisymmetrie der Elektronen-Wellenfunktion. Man könnte dann das (immer noch Einzel-Elektronen-)Modell komplizierter machen und eine Slater-Determinante [?] konstruieren, die man als vollständig antisymmetrische Repräsentation der Elektronen-Wellenfunktionen verwendet; sodann die Dichte erzeugen und die widerspruchsfreie Feldberechnung zur Konvergenz durchführen (das ist Hartree-Fock).

Jemand anders könnte dann darauf hinweisen, dass dies immer noch die „Korrelations-Energie“ des Systems unterschätze, weil das Behandeln der Elektronenwolke als kontinuierliche Verteilung die Tatsache ignoriert, dass einzelne Elektronen sich stark abstoßen und folglich nicht in die Nähe eines anderen kommen wollen. Beide frühere Herangehensweisen unterschätzen die Größe des Elektronen-Loches und machen das Atom folglich „zu klein“ und „zu stark gebunden“. Eine Palette von Schemata wird zur Behandlung dieses Problems vorgeschlagen – wobei die Verwendung einer semi-empirischen lokalen Dichtefunktion das wahrscheinlich erfolgreichste ist.

Und noch jemand könnte dann anmerken, dass das Universum wirklich relativistisch ist, und dass wir beim Ignorieren der Relativitätstheorie und der Durchführung einer klassischen Berechnung einen Fehler einführen in alles oben Gesagte (obwohl es in das halb empirische LDF-Verfahren heuristisch eingebracht werden kann).

Am Ende könnte man sehr gut ein „Ensemble” von Modellergebnissen in der Hand haben, die alle auf der Physik basieren. Tatsächlich basieren auch die Unterschiede auf der Physik. Die  von einem Versuch zum nächsten weggelassene Physik, oder die zur Annäherung und zur Einbringung der Physik verwendeten Methoden, können wir nicht in eine Berechnung der Grund-Prinzipien einschließen (man beachte, wie ich mit der LDF eine semi-empirische Note eingeschmuggelt habe, obwohl man Dichtefunktionen aus den Grund-Prinzipien ableiten kann (z B. Thomas-Fermi-Approximation), die normalerweise nicht besonders gut sind, weil sie nicht im gesamten Bereich der in wirklichen Atomen beobachteten Dichte gültig sind). Was ich hervorheben möchte, die Durchführung der präzisen Berechnung ist keine Option. Wir können das Vielkörperproblem in der Quantentheorie nicht mehr exakt lösen, wie wir auch nicht mehr das Vielkörperproblem in der klassischen Theorie exakt lösen können, auch nicht den Satz von offenen, nicht-linearen, gekoppelten, gedämpften, angetriebenen Navier-Stokes-Gleichungen in einem nicht-inertialen Bezugsrahmen, wie es das Klimasystem darstellt.

Wohlgemerkt: die Lösung der exakten, vollständig korrelierten, nichtlinearen Elektronen-Wellenfunktion des einfachen Kohlenstoffatoms – oder des weitaus komplexeren Uranatoms – ist trivial einfach (hinsichtlich der Berechnung) im Vergleich zum Klimaproblem. Wir können beides nicht berechnen, aber wir können einer konsistenten Annäherung an die Lösung von Ersterem viel näher kommen als bei Letzterem.

Sollten wir also das Ensemble-Mittel von „physikalisch fundierten” Modellen heranziehen, um die Quanten-Elektron-Struktur eines Kohlenstoffatoms zu bestimmen und dieses als die beste Vorhersage der Kohlenstoff-Quantenstruktur ansehen?

Nur wenn wir sehr dumm, oder geisteskrank sind, oder etwas glauben machen wollen. Wenn man das von mir Gesagte sorgfältig liest (was Sie vielleicht nicht getan haben – man überliest vieles, wenn ein Jahr oder mehr an Elektronen-Quantentheorie in einigen Sätzen zusammengefasst wird, dabei habe ich noch die Perturbations-Theorie, die Feynman-Diagramme usw. ausgelassen), merkt man, dass ich geschummelt habe – ich bin in eine semi-empirische Methode geraten.

Wer wird gewinnen? LDF natürlich. Warum? Weil die Parameter so angepasst sind, dass dabei der beste Fit für das wirkliche empirische Spektrum von Kohlenstoff herauskommt. Alle anderen unterschätzen das Korrelations-Loch, die Fehler werden systematisch vom korrekten Spektrum abweichen. Ihr Mittel wird systematisch abweichen. Durch die Gewichtung von Hartree (dümmster vernünftiger „auf der Physik beruhender Ansatz“) in gleichem Maße wie wie LDF beim „Ensemble“-Mittel wird garantiert, dass der Fehler in diesem „Mittel“ signifikant sein wird.

Nehmen wir mal an, wir wüssten nicht (ganz so, wie wir mal nicht wussten), welches Modell die besten Ergebnisse brächte. Nehmen wir weiter an, dass niemand das Spektrum von Kohlenstoff wirklich gemessen hätte, so dass dessen empirische Quantenstruktur unbekannt wäre. Wäre das Ensemble-Mittel dann sinnvoll? Natürlich nicht. Ich habe die Modelle in der Weise präsentiert, wie die Physik selbst eine Verbesserung vorhersagt – und habe später wichtige Details hinzugefügt, die von Hartree ausgelassen wurden. Man kann nicht sicher sein, dass das nachträgliche Hinzufügen dieser Details die Dinge wirklich verbessert, weil es immer möglich ist, dass die Korrekturen nicht monoton sind (und tatsächlich sind sie es in höheren Größenordnungen der Perturbations-Theorie mit Nahezu-Sicherheit nicht). Und doch würde niemand so tun, als sei das Mittel aus einer Theorie und einer verbesserten Theorie  „wahrscheinlich“ besser als die verbesserte Theorie selbst, weil das sinnlos wäre. Auch würde niemand behaupten, dass Ergebnisse der diagrammatischen Perturbations-Theorie notwendigerweise semi-heuristische Methoden wie LDF in den Schatten stellen könnten, weil das oft genug nicht der Fall ist.

Was man in der realen Welt tun würde wäre: das Spektrum von Kohlenstoff messen, dies mit den Vorhersagen des Modells vergleichen und erst dann dem Gewinner den Siegerkranz aushändigen. Niemals umgekehrt. Und da keiner der Gewinner exakt sein wird – tatsächlich war trotz jahrzehntelanger Forschung keiner der Gewinner auch nur in der Nähe beobachteter/gemessener Spektren, trotz des Gebrauchs von Supercomputern für die Berechnungen (zugegeben, die waren damals langsamer als Ihr Mobiltelefon heute) – würde man dann dennoch zurück am Zeichenbrett und der Eingabe-Konsole versuchen, es besser zu machen?

Können wir diese Art sorgfältigen Nachdenkens auf den Spaghetti-Knoten der GCMs und ihrer erheblich divergierenden Lösungen anwenden? Natürlich können wir das! Zuerst sollten wir aufhören so zu tun, als ob das „Ensemble“-Mittel und die Varianz irgendeine Bedeutung hätten und sie einfach nicht mehr berechnen. Warum sollte man eine bedeutungslose Zahl ausberechnen? Zweitens könnten wir wirkliche Klimaaufzeichnungen von einem beliebigen „Epochen-Startpunkt“ nehmen – der Startpunkt spielt langfristig keine Rolle, wir müssen den Vergleich über einen langen Zeitraum durchführen, weil für jeden beliebigen kurzen Zeitraum  von einem beliebigen Startpunkt aus ein vielartiges Rauschen die systematischen Fehler verschleiert – und wir können nur die Realität mit den Modellen vergleichen. Wir können dann die Modelle aussortieren, indem wir (mal angenommen) alle außer den oberen fünf in eine Art von „Fehler-Papierkorb“ legen und sie nicht mehr für irgendeine Art Analyse oder politische Entscheidungsprozesse heranzuziehen, es sei denn, sie fangen an, sich mit der Wirklichkeit zu vertragen.

Danach könnten sich echte Wissenschaftler hinsetzen und die fünf Gewinner betrachten – und darüber nachdenken, was sie zu Gewinnern gemacht hat – was sie dazu gebracht hat, der Realität am nächsten zu kommen – und den Versuch machen, sie noch besser zu machen. Zum Beispiel, wenn sie weit oben rangieren und von den empirischen Daten divergieren, könnte man überlegen, früher nicht beachtete physikalische Phänomene hinzuzufügen, semi-empirische oder heuristische Korrekturen oder Input-Parameter anzupassen, um den Fit zu verbessern.

Dann kommt der schwierige Teil – Abwarten. Das Klima ist nicht so einfach gebaut wie ein Kohlenstoffatom. Das Spektrum von Letzterem ändert sich nie, es ist immer gleich. Ersteres ist niemals gleich. Entweder ein dynamisches Modell ist niemals das Gleiche und spiegelt die Variationen der Realität, oder man muss sich damit abfinden, dass das Problem ungelöst und die unterstellte Physik falsch ist, wie „wohlbekannt“ auch immer diese Physik ist. Also muss man abwarten und sehen, ob ein Modell, das adjustiert und verbessert worden ist und das auf die Vergangenheit bis zur Gegenwart besser passt, tatsächlich einen Vorhersage-Wert hat.

Am schlimmsten ist, dass man nicht einfach mit Statistik entscheiden kann, wann und warum Vorhersagen scheitern, weil das verdammte Klima nicht-linear ist, nicht-Markovianisch, stattdessen chaotisch und offensichtlich auf nichttriviale Weise beeinflusst ist von einem globalen Wettbewerb von gegensätzlichen und manchmal sich aufhebenden, kaum verstandenen Faktoren: Ruß, Aerosole, Treibhausgase, Wolken, Eis. Dekadische Oszillationen, Störungen, entstanden aus dem chaotischen Prozess, die globale, anhaltende Änderungen der atmosphärischen Zirkulation auf lokaler Basis verursachen (z. B. blockierende Hochdruckgebiete über dem Atlantik, die dort ein halbes Jahr lang liegen bleiben). Diese Änderungen haben gewaltige Auswirkungen auf jährliche oder monatliche Temperaturen, Regenmengen und so weiter. Dazu orbitale Faktoren, solare Faktoren. Änderungen der Zusammensetzung der Troposphäre, der Stratosphäre, der Thermosphäre. Vulkane. Änderungen bei der Landnutzung. Algenblüten.

Und dann dieser verdammte Schmetterling. Jemand muss dieses blöde Ding zerquetschen, weil der Versuch, ein Ensemble aus einer kleine Stichprobe aus einem chaotischen System zu mitteln, so dumm ist, dass ich mich gar nicht damit befassen kann. Alles ist gut, solange man über ein Intervall mittelt, das kurz genug ist, um an einen bestimmten Attraktor gebunden zu sein, der schwingt und alles vorhersagbar macht – und dann mit einem Male ändern sich die Attraktoren und alles mit ihnen! All die kostbaren Parameter, empirisch fein eingestellt auf den alten Attraktor müssen nun durch neue Werte ersetzt werden.

Das ist der Grund, warum es tatsächlich unsinnig ist, der Vorstellung zuzustimmen, dass irgendeine Art p-Werte oder R², der aus irgendeinem Mittel im AR 5 abgeleitet ist, irgendeine Bedeutung hätte. Diese Vorstellung verliert ihren hohen Stellenwert (sogar dann noch, wenn man in guter Absicht zu argumentieren versucht, dass dieses „Ensemble“ elementare statistische Tests nicht bestünde). Statistisches Testen ist eine wahrhaft wackelige Theorie, offen für Datenmanipulation und horrende Fehler, vor allem, wenn sie von zugrunde liegenden IID-Prozessen [Independent and identically distributed processes] gesteuert wird („grüne Bohnen verursachen Akne“). Man kann nicht naiv ein Kriterium anwenden, wie z. B. „falsch, wenn P < 0,05“, und all das bedeutet im günstigsten Fall, dass die gegenwärtigen Beobachtungen unwahrscheinlich sind bei einer gegebenen Null-Hypothese von 19 zu 1. Auf solchem Niveau verlieren und gewinnen Spieler immer wieder ihrer Wetten.

Also möchte ich empfehlen – in aller Bescheidenheit – , dass die Skeptiker weiter hart bleiben, sich nicht auf dieses Feld locken lassen und durch Diskussionen über Fragen ablenken lassen, wie z. B. warum die Modelle in so erschreckender Weise untereinander abweichen, selbst wenn man sie auf identische Spiel-Probleme anwendet, die viel einfacher sind als die wirkliche Erde. Und ich möchte empfehlen, dass wir empirische Beweise nutzen (es werden immer mehr), um gescheiterte Modelle zurückzuweisen, und dass wir uns auf diejenigen konzentrieren, die der Realität am nächsten kommen. Dabei darf man keine Modelle benutzen, die offensichtlich überhaupt nicht funktionieren, und vor allem keine mit irgendwelchen Arten von Vorhersagen „durchschnittlicher“ zukünftiger Erwärmung …

Bei meiner verhältnismäßigen Ignoranz würde es mich fünf Minuten kosten, alle GCMs außer den besten 10 Prozent auszusortieren (auch diese divergieren noch hinsichtlich der empirischen Daten, liegen jedoch noch innerhalb der erwarteten Fluktuation des Datensatzes). Dann würde ich den Rest aufteilen in eine obere Hälfte mit den Modellen, die man eventuell behalten und möglicherweise verbessern könnte, und in eine zweite Hälfte, deren weitere Verwendung ich für Zeitverschwendung halte. Das würde sie natürlich nicht zum Verschwinden bringen, aber in die Mottenkiste. Falls sich das zukünftige Klima jemals magischerweise dazu aufraffen sollte, zu den Modellen zu passen, wäre es nur eine Frage weniger Sekunden, sie wieder hervorzuholen und zu benutzen.

Natürlich, wenn man das tut, fällt die von den GCMs vorhergesagte Klimasensitivität von den statistisch betrügerischen 2,5°C pro Jahrhundert auf einen wesentlich plausibleren und möglicherweise immer noch falschen Wert von etwa 1°C pro Jahrhundert. Dieser Wert – Überraschung! – stellt mehr oder weniger eine Fortsetzung des Erwärmungstrends nach der Kleinen Eiszeit dar mit einem möglicherweise kleinen anthropogenen Beitrag. Diese große Änderung würde zu einem großen Aufruhr führen, weil die Leute merken würden, wie sehr sie von einer kleinen Gruppe von Wissenschaftlern und Politikern ausgenutzt worden sind, wie stark sie Opfer von unhaltbarem statistischen Missbrauch geworden sind, indem man ihnen suggeriert hat, dass sie alle stimmen mit gewissen Unterschieden an den Rändern.

Link: http://wattsupwiththat.com/2013/06/18/the-ensemble-of-models-is-completely-meaningless-statistically/

Übersetzt von Chris Frey EIKE unter Mithilfe von Helmut Jäger




Vestas plant Medien – Kampagne für Windkraftanlagen!

Die "Danish Financial Daily Børsen" meldete vor einigen Tagen, dass Vestas Wind Systems Plc den Gegnern der Windkraft "den Krieg erklären" wolle.
Die dänische Windkraft-Firma startet derzeit eine Publikationsoffensive und einen Lobby-Feldzug mit dem Ziel, die "schweigende Mehrheit" für die Windkraft zu aktivieren, damit es Unterstützung für den weiteren Ausbau der Windenergie gibt.
Die Kampagne "Mit Faktenwissen agieren" wird in Australien gestartet, dort befindet sich laut Vestas ein Brutnest für die Anti-Winkraft-Bewegung. Vestas kooperiert mit der Windkraft-Entwicklungsfirma Infigen Energy, mit Australischen Universitäten und Grünen Pressure Gruppen.
"Die Anti-Winkraft-Bewegung stellt eine kleine, aber gut organisierte Minderheit dar, der es gelungen ist, einige ungeheuerliche Fakten über die Windkraft zu verbreiten", schrieb der Vestas Kommunikations- und Marketingchef Morten Albaeck in einer Presseverlautbarung.
Wenn die Kampagne im Pilotland Australien Erfolg hat, wird sie in anderen Ländern fortgesetzt.

Übersetzung und Einleitung: Helmut Jäger, EIKE




Interview mit Benny Peiser, Gründer der GWPF

Benny Peiser, Direktor der Global Warming Policy Foundation

Das scheiternde Modell grüner Energie in Europa hat eine grüne Elite immer reicher gemacht, während Millionen in die Energiearmut gefallen sind.

Frontier Centre (FC): Warum haben Sie eine Global Warming Policy Fondation ins Leben gerufen?

Benny Peiser (BP): Nun, das war wichtig, weil es einfach keinerlei Debatte irgendeiner Art in UK gab. Zur Zeit der Gründung im Jahr 2009 stimmten alle Parteien vollständig überein. Fast alle Bereiche der Medien stimmten vollständig überein. Wir hielten das für ungesund. Wir waren davon überzeugt, dass wir einer lebhaften Debatte bedürfen, und das ist das Hauptziel unserer Organisation.

FC: Warum aber haben Europa und UK den Gedanken einer vom Menschen verursachten Klimaänderung so umfassend begrüßt?

BP: Es ist nicht nur UK. Es ist ganz Europa. Die Angst vor der Klimaänderung ist aus einer ganzen Reihe von Gründen zu einer kollektiven Besessenheit geworden. Die Medien machten aus offensichtlichen Gründen einen Hype daraus, die Wissenschaftler auch. Dann nahm diese Angst die Vorstellung weiter Teile der Gesellschaft gefangen, aber niemand wollte sich die Mühe machen, die ureigene Grundlage dieser Angst genau zu untersuchen. Wir glaubten, dass wir beides machen müssen: a) Sehr sorgfältig auf die Behauptungen und die Vorhersagen schauen; nicht so sehr auf die Wissenschaft, sondern mehr auf die Art von Behauptungen, in denen es darum geht, was in der Zukunft passiert und b) im Besonderen, welche ökonomischen Kosten die politischen Maßnahmen nach sich ziehen, die eingeführt und gefördert worden sind.

FC: Sie haben in ihren Ausführungen erwähnt, dass die Politik die größte Umverteilung von Wohlstand von unten nach oben, von den Armen zu den Reichen involviert. Können Sie das näher ausführen?

BP: Wir sprechen über einen Wohlstands-Transfer in einer Größenordnung von etwa 600 Milliarden Euro während der letzten acht Jahre. An grüne Investoren, hauptsächlich Landbesitzer und sehr wohlhabende Familien, die große Solarpaneele auf ihre Dächer montiert haben, wurden umfangreiche Subventionen gezahlt. Diese 600 Milliarden Euro mussten von normalen Familien und kleinen bis mittleren Unternehmen aufgebracht und an die privilegiertesten Mitglieder der europäischen Gesellschaft gezahlt werden. Das ist der größte Wohlstands-Transfer im modernen Europa seit sehr, sehr langer Zeit, wenn nicht jemals.

FC: Sie beleuchteten die Ironie in den USA, in denen es keine Politik zur Klimaänderung gibt und der Ausstoß von Treibhausgasen trotzdem abnimmt, während in Europa die Emissionen steigen trotz der eigenen interventionistischen Politik.

BP: Nun, es ist sozusagen geologisches Glück für Amerika, dass all diese riesigen Reserven von Schiefergas entdeckt worden sind, und zwar nicht als Ergebnis der Politik der Regierung. Tatsächlich wäre die Regierung vielleicht sogar zögerlicher gewesen als der private Sektor bei der Ausbeutung der Schieferreserven, aber als eine direkte Folge der Funde dieser überaus ergiebigen Form von Erdgas wurde Gas so billig, dass sie im Wettbewerb mit Kohle bestehen konnte. Es gibt in den USA eine starke Bewegung von Kohle- zu Gaskraftwerken. Dies ist aus sich selbst heraus verantwortlich für den signifikanten CO2-Rückgang in den USA. In Europa war man dagegen bislang sehr gegen die Extraktion von Schiefergas und setzt auf Kohle. Daher das entgegen gesetzte Ergebnis.

FC: Es wurde gesagt, dass ‚grün das neue rot ist’. Tatsächlich hat ein Landsmann von Ihnen ein Buch über die Wassermelonen geschrieben. Es scheint auch eine Verbindung zu geben zwischen dieser Art der Bewegung und der Besessenheit von Planung. War dies Teil Ihrer Observierung als ein sozialer Wissenschaftler?

BP: Nun, es wäre für uns alle viel einfacher, wenn es lediglich um einen Fall für die Linken geht, die sich dieses Themas annehmen. Unglücklicherweise befürwortet in Europa aber leider jede Partei egal welcher politischen Überzeugungen die Planwirtschaft und ist grün geworden. Es ist überhaupt keine Angelegenheit der Linken in Europa. Es ist vollständig und total von allen Parteien begrüßt worden, und die rechten brennen genauso auf die Planwirtschaft wie die Linken. [Hervorhebung vom Übersetzer!]

FC: Bleiben wir noch einen Moment bei diesem Aspekt. Eine der vielen Dinge, die Sie in ihrem Vortrag angesprochen haben und die die Leute beeindruckt haben, war diese Analogie zur Religion. Sie sprachen über Kruzifixe und Schiefergas. Es weckt Assoziationen zu „The Pursuit of the Millennium” von Norman Cohn. Können Sie dazu noch etwas sagen?

BP: Offensichtlich gibt es viele Ähnlichkeiten zwischen der Hysterie um die globale Erwärmung einschließlich des salvationistischen Armes der Angst. Einerseits gibt es die Befürchtung, dass wir vor dem Untergang stehen. Andererseits lautet die salvationistische Lösung, Windparks zu errichten. Also gibt es sehr viele Ähnlichkeiten zwischen einer Bewegung über die Jahrtausende, die während ihrer gesamten Historie säkulare Bewegungen wie den Kommunismus einschließt, in dem ein Hype um die Angst erzeugt wird und eine salvationistische und utopische Lösung angeboten wird. In fast allen diesen Fällen ist es die Elite, die die Angst befeuert und die Lösung vorschlägt, und es ist die Elite, die von diesen Lösungen profitiert. Die einzigen Menschen in Europa, die wirklich riesige Profite daraus schlagen, sind grüne Investoren. Das sind weniger als 1%. Drückt man das in der Sprache der Wall Street aus, würde man sagen, dass es weniger als 1% der Bevölkerung ist, der riesige Summen Geldes auf dem Rücken dieser Angst verdient.

FC: Die Klimamodelle funktionieren nicht, und da gibt es diese schlimme Stille da draußen darüber. Sie sagen 2 Grad Erwärmung voraus, die nicht eintreten. CO2 steigt, aber wir haben sehr kaltes Wetter. Glauben Sie, dass die Medien eventuell einräumen werden, dass die Fakten einfach nicht zur Theorie passen?

BP: Die Medien in UK sind geteilt. Ich glaube nicht, dass irgendein anderes Land als UK eine so lebhafte Medienszene aufweist. Die Medien sind extrem geteilt. Es gibt die Mitte-Rechts-Medien, einige der nationalen Zeitungen, die Murdoch-Veröffentlichungen, die viel skeptischer sind und genau darüber schreiben, was Sie fragen zu den Diskrepanzen zwischen den Modellen und den Vorhersagen und der Realität. Dann gibt es da die Mitte-Links-Medien einschließlich der BBC, die immer sehr zögerlich waren, über irgendetwas zu berichten, was dem grünen Narrativ widersprach. Das meine ich mit geteilt, aber die Tatsache, dass man sehr signifikante Sektionen der Medien hat, die sehr kritisch sind, macht den ganzen Unterschied aus. Das hat die Parlamentsabgeordneten beeinflusst, sehr viele von ihnen, und diese sagen jetzt, dass man etwas hinsichtlich der Kosten unternehmen müsse.

FC: Wir haben in Kanada Politiker, die immer noch Kohlenstoffsteuern erheben und sogar einen Zertifikatehandel einführen wollen. Aber Ihrer Geschichte von Europa zufolge sind die dortigen Folgen nicht ermutigend. Was geschah mit dem Zertifikatehandel und Kohlenstoffsteuern in Europa?

BP: Nun, der ist im Wesentlichen zusammen gebrochen. Das ganze System des Emissionshandels ist vollständig zusammen gebrochen, und zwar inzwischen bis zu einem Ausmaß, dass das Europaparlament nicht länger gewillt ist, dieses System noch zu retten. Ein wichtiges Ereignis fand erst vor etwa vier Wochen statt – das war wie ein Alarmruf, dass Europa nicht länger gewillt ist, egal was es kostet, das sinkende Flaggschiff der europäischen Klimapolitik, nämlich den Emissionshandel zu unterstützen. Dieser ist vollständig und total gescheitert. Also lautet die Botschaft an das kanadische Publikum, wer immer dort es hören will, dass man sich anschauen muss, was in Europa passiert und nicht die gleichen Fehler wie dort zu wiederholen. Man sei vorsichtiger und stürze sich nicht in Risiken. Man warte ab und lerne seine Lektion aus dem Scheitern in Europa, das vollständige Scheitern der europäischen Klimapolitik.

FC: Wir haben einige Provinzen, besonders British Columbia, die eine Kohlenstoffsteuer eingeführt haben. Das ist politisch korrekt, und viele Politiker scheinen das zu begrüßen. Sind Sie skeptisch hinsichtlich der Idee einer Kohlenstoffsteuer?

BP: Nein, jedenfalls nicht aus Prinzip. Tatsächlich werden wir demnächst einen Bericht zu einer Kohlenstoffsteuer von Ross McKitrick veröffentlichen. Wenn man wirklich ernsthaft das Problem der globalen Erwärmung angehen will, würde man eigentlich die Steuer an die Temperatur koppeln und sagen: Wenn es wirklich ein reales Problem mit der globalen Erwärmung gibt, steigt die Steuer, und wenn das nicht der Fall ist, gibt es keine Steuer. Also können beide Seiten im Prinzip mit diesem Gedanken zufrieden sein. Offensichtlich würde keine Regierung jemals eine Steuer einführen, bei der die Temperatur anstatt des Finanzministers den Finger am Griff dieser Steuer hat. Aber eine solche Politik würde mit Sicherheit die grüne Lobby herausfordern und zeigen, dass deren politische Maßnahmen wenig sinnvoll sind und dass man tatsächlich eine kosteneffektive Lösung finden muss, um das Problem der globalen Erwärmung anzugehen. Kurz gesagt, ich bin nicht aus Prinzip gegen eine Kohlenstoffsteuer, aber sie muss auf eine Art und Weise eingeführt werden, die ökonomisch Sinn macht und es dabei tatsächlich um diese Angelegenheit geht. Man will etwas gegen die globale Erwärmung tun? Dann muss die Steuer a) mit dem Problem verknüpft werden und b), wenn es kein Problem gibt, soll es auch keine Steuer geben, und c) sie muss ggf. international kommen. Es ist nicht gut, das als Einzelner einzuführen. Was in Europa und speziell in UK im Wesentlichen passiert ist, dass wir unsere Emissionen via Industrieproduktion dort nach China exportiert haben. Von dort kommen jetzt alle CO2-Emissionen. Wir importieren dann die fertig hergestellten Produkte, haben aber die Emissionen exportiert. Wir haben die Emissionen ausgesondert, indem wir den Herstellungsprozess ausgesondert haben. Es gibt keine Auswirkungen auf die CO2-Emissionen, wenn man diese einfach woanders hin auslagert.

FC: Sie haben heute erwähnt, dass heute wegen dieser politischen Maßnahmen in England 30000 Menschen zusätzlich sterben.

BP: Nicht wegen dieser Maßnahmen. Sie sterben, weil ihre Wohnungen in England nicht mehr ordentlich beheizt sind. Das war zwar schon vor Einführung dieser Maßnahmen der Fall, aber nach der Einführung ist dieses Problem erheblich schlimmer geworden. Immer mehr Familien kämpfen mit enormen Anstiegen der Energiepreise, was es für diese Menschen immer schwieriger macht, ihre Wohnungen während kalter Winter ausreichend zu heizen. Dann gibt es Wintertote.

FC: Die kanadische Regierung arbeitet weiterhin mit dem Narrativ der Warmisten, nämlich dass CO2 ein Problem ist und dass wir unsere Emissionen reduzieren müssen. Wir nennen es eine Kopf-in-den-Sand-Strategie, denn man kann das nicht tun, wenn das Narrativ falsch ist. Haben Sie irgendwelche anderen Vorschläge an die Regierung?

BP: Der Schlüsselgrundsatz, dem die GWPF in UK folgt, lautet: Seht, es geht nicht um die Wissenschaft. Die Wissenschaft ist zweitrangig. Es geht hauptsächlich um Klimapolitik und die Kosten dieser Politik und deren Maßnahmen, die man einführt. Kurz gesagt, die Maßnahmen müssen sinnvoll sein. Wenn man also der globalen Erwärmung entgegen treten will, muss man zuallererst ein internationales Abkommen haben. Ist dieses nicht vorhanden, werden einseitige Maßnahmen keine Auswirkungen irgendwelcher Art auf CO2 oder Emissionen oder das Wetter haben. Folgen Sie also nicht einseitigen Zielen, die Sie einseitig schädigen. Wenn man umweltfreundliche Maßnahmen ergreifen will, mache man das so, dass die Menschen davon profitieren. Und nicht so, dass die Menschen geschädigt werden. Das ist eine ganz andere Vorgehensweise. Wir sagen nicht: lassen Sie das, weil die Wissenschaft zweifelhaft ist, weil kein politischer Entscheidungsträger das heute so sagen würde – mit nur sehr, sehr wenigen Ausnahmen. Es bedarf eines sehr, sehr exzentrischen Politikers, wenn dieser sagt: Sehen Sie, ich höre dem Wissenschafts-Berater und der wissenschaftlichen Gemeinschaft nicht zu, weil ich es besser weiß. Ich weiß, dass die Wissenschaft zweifelhaft ist, darum werde ich die Politik ändern. Das ist keine ausreichende Basis für einen rationalen Politiker. Man muss sehr logisch und ökonomisch einwandfrei klingende Argumente haben, warum man bestimmte Maßnahmen übernimmt und warum man andere Maßnahmen ablehnt – unabhängig vom Stand der Wissenschaft. Schließlich könnte es weitere zehn oder zwanzig Jahre dauern, bevor wir besser wissen, wie gut die Wissenschaft ist. Soweit ich weiß, kann es in beide Richtungen gehen. Ich sage nicht, dass die Skeptiker recht haben und das konventionelle Wissen falsch ist. Wer bin ich, dass ich eine solche Entscheidung treffen kann? Es kann sein, dass beide Seiten falsch liegen, aber wir sind noch nicht an einem Punkt, wo die Richtung eindeutig feststeht.

FC: Sie haben heute über Glaubenssysteme gesprochen und den Terminus ‚religiöser Kult’ benutzt sowie Parallelen zum Sozialismus gezogen. Können Sie das näher ausführen?

BP: Nun, die Parallele zum Sozialismus ist ziemlich geradlinig. Es ist, als ob es die Regierung am besten weiß, die Regierung wird dies oder das verwerfen, die Regierung wird im Voraus planen und sie wird Gewinner aussuchen. Es ist der Gedanke der Regierungs-Planung, und Regierungspläne und –ziele sind Lösungen eines komplexen Systems, und diese Planwirtschaft haben eine armselige Geschichte hinter sich, und ich sehe keinerlei Gründe, warum es diesmal besser laufen soll als die vielen Fiaskos, zu denen es dabei in der Vergangenheit gekommen war. Hier also kommt die Gleichartigkeit zur alten, sozialistischen Planwirtschaft ins Spiel. Ausgedrückt mit Termini eines religiösen Glaubenssystems ist es der Unwille zu Diskussionen; es ist wie ein Dogma, das man nicht in Frage stellen kann. In einer offenen Gesellschaft sollte es keine Dogmen geben, schon gar nicht in der Wissenschaft, der Wirtschaft oder bei politischen Entscheidungen. Die Tatsache, dass sie nicht willens sind, in eine offene Debatte einzutreten, ist ein Hinweis darauf, dass sie die ganze Sache von einer genauen Prüfung ausschließen wollen, und das ist ein typisches Anzeichen von Engstirnigkeit und ein religiöses Zeichen von Glaube oder einem Glaubenssystem.

Sie haben kurz den Schaden für den wissenschaftlichen Prozess gestreift. Können Sie dazu noch ein paar Worte sagen?

BP: Nun, meiner Ansicht nach hat die wissenschaftliche Gemeinschaft einen schlimmen Fehler gemacht, als sie eine starke und einseitige Sicht von einer hoch komplexen und umstrittenen Angelegenheit übernommen hat, die alles andere als settled ist. Ich sage nicht, dass ich die richtige Antwort kenne, aber ich bin ziemlich sicher, dass diese Debatte alles andere als abgeschlossen ist. Es gibt noch viel zu viele offene Fragen. Einige Fragen können gelöst sein, aber die sind irrelevant im Vergleich zu der über allem stehenden Frage hinsichtlich der nächsten 100 Jahre. Vor allem hinsichtlich der Frage, ob die Klimaänderung zu irgendwelchen signifikanten Katastrophen führt oder nicht. Nach allem, was ich weiß, wäre ein wenig Erwärmung sehr vorteilhaft und könnte viel Gutes bewirken. Ein wenig Erwärmung war während ihrer gesamten Geschichte für die Gesellschaft vorteilhaft. Es ist das Niveau und die Breite der künftigen Erwärmung – ich denke, dass es hier keinerlei Übereinstimmung irgendeiner Art gibt. Selbst wenn man die grundlegendsten physikalischen Phänomene akzeptiert, ist es alles andere als klar, was das langfristig bedeutet.

FC: Können Sie abschätzen, ob sich Europa jemals aus diesem selbst geschaffenen Loch herausziehen kann?

BP: Man scheint in Europa hinsichtlich einiger einseitiger politischer Maßnahmen zurückzurudern. Politische Entscheidungsträger überlegen sich jetzt, die grüne Dekarbonisierungs-Agenda zu verlangsamen. Aber wenn Europa auf diesem einseitigen Weg weiter vorangeht, dann, so glaube ich, haben sie dort kaum eine Chance im internationalen Wettbewerb des 21. Jahrhunderts.

FC: Vielen Dank!

View as PDF (3 pages)

Link: http://www.fcpp.org/publication.php/4586

Übersetzt von Chris Frey EIKE




Der Kollaps des Schwindels um die globale Erwärmung geht weiter

Dirigiert innerhalb der Kammern der korruptesten internationalen Organisation auf dem Planeten Erde, also den Vereinten Nationen, hat dieser Schwindel zum Kyoto-Protokoll im Dezember 1997 geführt, in dem Grenzen der Kohlendioxid-Emissionen festgeschrieben worden waren. Die Klima-Scharlatane der UN behaupteten, dass das CO2 zu einer dramatischen Erwärmung der Erde führen würde. Es war eine Lüge. Der US-Senat hat es einstimmig abgelehnt, das zu ratifizieren, und Kanada hat sich im Jahr 2011 daraus zurückgezogen.

Wie der geschäftsführende Direktor von CFACT Craig Rucker von den kürzlichen Klimaberatungen der UN in Bonn berichtet, hat Russland zusammen mit der Ukraine und Weißrussland die Übernahme der Agenda der „Tochtergesellschaft der Implementation“, Teil des Weges zu einem Klima-Abkommen im Jahr 2015 in Paris, blockiert. Teil dieses Abkommens ist ein System, um den Wohlstand der entwickelten Nationen zu den weniger entwickelten Nationen umzuverteilen.

Die Russen hatten von diesen normalerweise hinter verschlossenen Türen  stattfindenden Prozessen, die solche Verträge hervorbringen, die Nase voll, aber zweifellos waren sie sich bewusst, dass ein solches Abkommen den UN so viel Macht zukommen lassen würde, dass sie einen großen Teil der ökonomischen Aktivitäten auf der ganzen Welt kontrollieren könnten. Alle UN-Verträge verpflichten die Nationen, einen Teil ihrer nationalen Souveränität aufzugeben.

Es gibt ganz klar einen Rückschlag für den Schwindel der globalen Erwärmung, vor allem von Nationen, denen plötzlich die Kosten für ihre Ökonomien klar geworden sind, die die idiotischen Schemata „erneuerbarer“ Energie und der Reduzierung von Emissionen verursachen. In der realen Welt machen sie die Erfahrung längerer und strengerer Winter als Folge des Abkühlungszyklus’, in der sich die Erde seit etwa siebzehn Jahren befindet.

Trotz der unablässigen Behauptungen von Präsident Obama, dass sich die Erde erwärmt, haben Wissenschaftler sowohl in Russland als auch in China Daten von wissenschaftlichen Studien veröffentlicht, die die Große Lüge der globalen Erwärmung/Klimaänderung bloßstellen.

Die chinesische Academy of Sciences – 50000 Mitglieder stark – veröffentlichte vor Kurzem zwei Ausgaben mit den Titeln „Climate Change Reconsidered und Climate Change Reconsidered: 2011 Interim Report”. Sie enthalten über 1200 Seiten begutachteter Daten zur Klimaänderung, die vom Heartland Institute in den Jahren 2009 und 2011 veröffentlicht worden waren.

Im Mai hat Marc Morano, Herausgeber von ClimateDepot.com und ein ehemaliges Mitglied im Environmental & Public Works Committee des US-Senats dem Komitee eine schriftliche Aussage zukommen lassen [auf Deutsch bei EIKE hier].

Morano schrieb an den US-Kongress: „Die wissenschaftliche Realität lautet, dass sich hinsichtlich fast jeder Behauptung – von A bis Z – der Befürworter der vom Menschen verursachten Klimaängste diese als falsch herausstellen, und in vielen Beispielen bewegen sich die Behauptungen in die entgegen gesetzte Richtung. Die Bewegung der globalen Erwärmung erleidet den wissenschaftlichen Tod durch Tausend Schnitte!“

Und weiter: „Es gibt keine Beweise. Wir haben gegenwärtig kein ungewöhnliches Wetter“. Wetterereignisse wie der Tornado von Moore in Oklahoma oder der subtropische Sturm Sandy im Nordosten der USA sind normale Ereignisse, trotz der von ihnen verursachten Schäden.

Im Mai hat der Physiker und Geologe Dr. William Happer von der Princeton University, der auch im Rahmen einer NASA-Mission den Mond betreten hatte, im Wall Street Journal geschrieben: „Dank der einseitigen Dämonisierung dieses natürlichen und unabdingbar notwendigen atmosphärischen Spurengases seitens der Befürworter einer regierungsamtlichen Kontrolle der Energieerzeugung ist das konventionelle Wissen über Kohlendioxid das eines gefährlichen Verschmutzers. Und das stimmt einfach nicht!“

Buchstäblich tausende Wissenschaftler auf der ganzen Welt haben die „Wissenschaft“ des IPCC zurückgewiesen, und viele ehemalige „Warmisten“ haben ihre frühere Denkweise umgekehrt. Dr. Lennart Bengtsson, ein schwedischer Spitzen-Klimawissenschaftler, der früher auch mit dem IPCC verbunden war, sagte im Februar: „Wir erzeugen große Angst, ohne dass dies gerechtfertigt ist … es gibt keinerlei Hinweise, dass die Erwärmung so stark ausfällt, dass wir in Panik geraten müssen…

„Die Erwärmung, die wir während der letzten 100 Jahre erlebt haben ist so gering, dass wir sie ohne Meteorologen und Klimatologen, die sie gemessen haben, überhaupt nicht bemerkt hätten“.

Die Bedrohung, der die Amerikaner gegenüber stehen, stammt von der EPA, die fest an die Große Lüge über das CO2 glaubt und diese als Basis nutzt, um eine Flut von Regulationen zu erlassen, die unsere wirtschaftliche Erholung und Entwicklung schwer schädigen.

Das Gleiche gilt für das Energie- und das Innenministerium, die den Zugang zu den heimischen riesigen Reserven von Energieressourcen verwehrt und im Falle der Kohle alles tun, um den Bergbau und die Kraftwerke zu zerschlagen, die die Kohle zur Stromerzeugung brauchen.

Der Schwindel der globalen Erwärmung/Klimaänderung wird weiterhin weit verbreitet in den Schulen gelehrt, und das muss aufhören. Jetzt!

Er wird weiterhin als eine Wahrheit verkauft von den Mainstream-Medien und als Futter für Hollywood-Filme, ebenso wie für Fernsehprogramme wie den National Geographic-Kanal.

Trotz der Lügen um die globale Erwärmung/Klimaänderung liegt der Schwindel in seinen letzten Zügen, und das schon seit vielen Jahren. Das ist die gute Nachricht.

© Alan Caruba, 2013

Link: http://factsnotfantasy.blogspot.de/2013/06/the-continuing-collapse-of-global.html

Übersetzt von Chris Frey EIKE




Die Gefahren der Energie-Technokratie

Die Bewegung der Technokraten, die sich Anfang des 20. Jahrhunderts bildete, befürwortete den Übergang der Entscheidungsgewalt der Regierung auf Wissenschaftler, Ingenieure und andere „Technokraten“. Begründet wurde dies mit dem Expertenwissen der Technokraten, das zu besseren Entscheidungen führen würde als von privaten Unternehmen.

Der Gedanke der Technokratie war enthalten in dem Konzept der Planwirtschaft und war von Thorstein Veblen verkündet und von der Sowjetunion übernommen worden. In den frühen Jahren der Großen Depression erfreute sich die Bewegung erneuerter Popularität. Der Glaube, dass technische, rationale und unpolitische Erfahrung die Wirtschaft wiederbeleben kann, war groß.

Wie es der Zufall so wollte, war einer der Befürworter der Technokratie M. King Hubbert, der später seine Theorie von Peak Oil entwickelte. Hubbert schlug auch vor, Energiezertifikate auszugeben, die konventionelles Geld ersetzen sollen. Diese Zertifikate könnten allen Mitgliedern eines kontinentalen nordamerikanischen „Technikums“ [„technate“] in gleicher Zahl zuerkannt werden. Später wurde Hubbert Geowissenschaftler bei Shell Oil.

Ein Energie-Comeback

Das Interesse an der Technokratie-Bewegung schwächte sich Ende der dreißiger Jahre ab, feierte aber überraschenderweise im Bereich Energie ein Comeback. Der Glaube der Obama-Administration, dass sich die Regierung Spitzen-Energie-Technologien aussuchen kann, ist etwas, das sich in gerader Linie bis zur Technokratie-Bewegung zurück verfolgen lässt.

Trotz der Erklärung von F. A. Hayek, wie Märkte Informationen verarbeiten und Entscheidungen durch Individuen im privaten Bereich koordinieren, glauben viele in der gegenwärtigen Administration, zusammen mit seinen Unterstützern, dass Wissenschaftler, die den Nobelpreis gewonnen hatten wie z. B. Energieminister Steven Chu besser positioniert sind, um die Wirtschaft auf den „korrekten“ Weg in die Zukunft zu führen und dies schneller zu tun als der Markt.

Das Problem mit der Technokratie, dem sich die Planwirtschaftler gegenüber sehen, geht über das Hayek’sche Informationsproblem hinaus. Die Entscheidungsträger hinsichtlich regierungsamtlicher Investitionen haben „kein dickes Fell in diesem Spiel“. Sie riskieren nicht ihr Geld oder das Geld von Investoren, die freiwillig ein Risiko eingehen.

Vielmehr riskieren sie das Geld der Steuerzahler, weil diese unwissentlich gezwungen werden, Investoren bei Regierungsprojekten zu werden. Die Struktur der Anreize für die Entscheidungsträger der Regierung ist folglich eine andere als die, der private Unternehmen gegenüber stehen.

Die Investoren privater Unternehmen können das Risiko, dem sie gegenüber stehen abschätzen. Sie haben Zugang zu Investment-Analysen und Einschätzungen durch Rating-Agenturen wie Moody’s oder Standard & Poor. Wenn ein Unternehmen in öffentlicher Hand ist, können Investoren Maßzahlen des Risikos finden wie Betas [?] Was aber hat der Steuerzahler in der Hand? Er hat die Beteuerung, dass Steven Chu und andere Wissenschaftler besser in der Lage sind als private Unternehmen auszusuchen, welche Technologien man übernehmen kann.

Die Vergangenheit als Prolog

Die Regierung hat auch früher schon in den Energiemärkten interveniert. Neben Preis- und Zuteilungs-Kontrollen von Öl sowie Preiskontrollen bei Erdgas hat uns die Regierung das Power Plant and Industrial Fuel Use Act of 1978 [ etwa: Gesetz für Kraftwerke und den industriellen Treibstoffverbrauch 1978] gegeben, das auf der Meinung von Experten beruhte, wonach uns das Erdgas ausgehen würde und folglich dessen Verbrauch limitiert werden musste. Folglich hat das Fuel Use Act den Verbrauch von Erdgas in der Industrie und durch neue Kraftwerke zur Stromerzeugung begrenzt [Original: Thus, the Fuel Use Act restricted the use of natural gas for industrial uses and by new power plants for electricity generation]. Glücklicherweise wurde dieses Gesetz administrativ und legislativ abgeschwächt und schließlich im Jahre 1987 aufgehoben. Die Erdgasproduktion in den USA brach in der Folge im Jahr 2011 den bisherigen Rekordwert des Jahres 1973. Im Jahr 2012 wurde auch dieser Rekord gebrochen.

Die Regierung wählte eine andere „Gewinner”-Strategie, als sie die Synthetic Fuels Corporation im Jahr 1980 ins Leben rief, deren Ziel es war, innerhalb von fünf Jahren zwei Millionen Barrel flüssigen Treibstoff pro Tag zu erzeugen. Aber leider wurde diese Gewinner-Strategie durch den zwei Jahre später folgenden Rückgang der Ölpreise beeinträchtigt sowie durch eine Administration, die eine düsterere Sicht auf die von der Regierung ausgewählten Gewinner hatte. Die Corporation wurde 1985 abgeschafft.

Zurück zum (vorhersehbaren!) Scheitern

Ohne Rücksicht auf frühere Erfahrungen stieg die Regierung 2009 erneut in das Energie-Investment ein, und Einiges war regelrecht albern. Susan Kraemer schwärmte, dass Steven Chu schließlich „den Nagel in den Sarg derjenigen einschlug, die sagen, dass die Regierung Gewinner und Verlierer nicht aussuchen kann”:

Das Aussuchen von Gewinnern, um darin im Namen der Öffentlichkeit zu investieren, macht Sinn. Jetzt sieht es so aus, als ob unsere eigene Regierung genauso smart wird wie die japanische Regierung in den neunziger Jahren. Trommeln für unser neues DOE [Energieministerium]. Heute bin ich stolz, ein Amerikaner zu sein.

Diese Überschwänglichkeit kam, bevor Solyndra (Empfänger einer Zuwendung in Höhe von 535 Millionen Dollar) bankrott ging. Fisker Automotive (Zuwendung 529 Millionen Dollar) hat kürzlich 75 Prozent seiner Mitarbeiter entlassen und steht dem Vernehmen nach ebenfalls vor dem Bankrott. Tesla, ein anderer Hersteller von Elektroautos und Empfänger von 465 Millionen Dollar behauptet, einen Profit zu erzielen, wenn es Autos zu Preisen zwischen 49900 Dollar und 180000 Dollar verkauft. Während Tesla-Kunden wie Leonardo DiCaprio von der Regierungsunterstützung für Tesla profitieren, kann man sich fragen, ob diese Zuwendungen im öffentlichen Interesse sind.

(Übrigens kann man stattdessen ein Tesla auch für 500 Dollar pro Monat leasen. Unglücklicherweise für Tesla stellen Analysten die Realität dieser Leasing-Raten in Frage und sagen, dass die wirklichen Kosten viel höher sind. Auf der Haben-Seite von Tesla steht dem Unternehmen zufolge die „volle Profitabilität“ im letzten Quartal, allerdings wurde in diesem Statement nicht spezifiziert, was „voll profitabel“ heißt. Es scheint, dass Tesla die Grenze nach Gutdünken festlegte und den Sieg beanspruchte).

Marktdisziplin … eine politische Laune

Ein Privatunternehmen wählt seine Investment-Projekte so aus, dass ein Verdienst genauso groß oder größer ausfällt als die Hindernisgröße, die es als Filter festlegt. Hindernisgrößen werden typischerweise mit den gewichteten mittleren Kosten der Kapitalerhebung verbunden und schließen die Kosten des Aktienkapitals und der Schulden ein. Ein Risikofaktor kann den mittleren Kosten des Kapitals hinzugefügt werden, das das spezifische Risiko eines Projektes in Betracht zieht.

Unternehmen werden durch die Disziplin der Marktkräfte gezwungen, Investitionen, die sich nicht so rentieren wie gedacht, zurückzufahren oder den Stecker ganz zu ziehen. Wie Armen Alchian in seinem klassischen Artikel mit dem Titel „Uncertainty, Evolution and Economic Theory“ beschrieb, können Unternehmen, die nicht sofort reagieren, die Profite nicht maximieren und werden in der Folge eventuell sogar im Zuge des Wettbewerbs aus dem Markt gedrängt.

Der Ersatz für eine Subvention oder einen Niedrigzins-Kredit der Regierung ist keine Option für Unternehmen, die sich auf private Finanzierung verlassen. Außerdem haben diese Unternehmen keinen Schutz durch Wettbewerber, die in den Markt drängen und neue Produkte oder Technologien anbieten (Beispiele: Betamax vs. VCR; VCR vs. DVD; DVD vs. streaming, Apple iPhones vs. Samsung Galaxy or Nokia Lumia, etc., etc.).

Dies gilt nicht für Regierungs-Beteiligungen. Die Regierung ist in der Lage, in die Taschen der Steuerzahler zu langen, um ein Projekt am Laufen zu halten. Kraemer weist darauf hin, dass die Unterstützung der Regierung gebraucht werden könnte, „zumindest zu Anfang“, aber die Länge dieser Anfangsperiode wird jedermann’s Einschätzung überlassen. Wie Regierungsagenturen, die selten Gegen­stand des Scheiterns sind, kann ein regierungsamtlich gefördertes Projekt einfach dadurch am Leben gehalten werden, weil es im Interesse von Politikern ist, Projekte laufen zu haben, die Arbeitsplätze in ihre Amtsbereiche bringt.

Und schließlich gibt es keinen Beweis, dass Regierungs-Wissenschaftler und Ingenieure die Zukunft besser vorhersagen können oder besser wissen, was die Zukunft bereit hält, als die Wissenschaftler und Ingenieure in Privatunternehmen. Technokraten ignorieren die Tatsache, dass private Unternehmen ebenfalls Wissenschaftler und Ingenieure beschäftigen (nicht zu erwähnen die MBAs und Wirtschaftler) und Investitionen aufgrund ihrer Erwartungen an die Zukunft vornehmen.

Die Essenz an diesem Punkt lautet, dass Entscheidungen privater Investitionen von dem Profit-Motiv gelenkt werden. Aber was lenkt die von der Regierung angestellten Wissenschaftler und Ingenieure, die für Firmen arbeiten, die in Regierungshand sind? Ist es einfach das Vertrauen in ihre Visionen? Und gibt es irgendwelche Beweise, dass ihre Visionen von der Zukunft besser sind als die aus dem privaten Bereich Kommenden?

Link: http://www.masterresource.org/2013/05/the-perils-of-energy-technocracy/

Übersetzt von Chris Frey EIKE




Zustimmung des VDI zur Energiewende gefährdet zehntausende von Arbeitsplätzen von VDI MItgliedern

Der nachfolgende Briefwechsel, der auf einem Interview des Vorsitzenden der VDI-Gesellschaft für Energie und Umwelt, Prof. Dr.-Ing. H.-J. Wagner (hier), beruht, verdeutlicht die Misere unter den deutschen Ingenieuren. Wenn schon innerhalb des VDI grundsätzliche Debatten nicht initiiert oder sogar behindert werden, so will EIKE mit nachfolgenden Papieren einen weiteren Anstoß zu dieser längst überfälligen Debatte – im VDI und darüber hinaus – geben.

Dr. Dietmar Ufer

Sehr geehrter Herr Professor Wagner,

als langjähriges VDI-Mitglied und als Energiewirtschaftler mit mehr als einem halben Jahrhundert Berufserfahrung habe ich sehr aufmerksam Ihr Interview „Energiewende: Die Entscheidung ist ehrgeizig, verfolgt aber einen richtigen Weg“ in den VDI nachrichten vom 31. Mai 2013 gelesen. Ich gestehe Ihnen: Ich war maßlos enttäuscht von dem, was Sie als Vorsitzender der VDI-Gesellschaft für Energie und Umwelt zur Energiewende zu sagen hatten.

Im Interview weisen Sie mehrfach darauf hin, was getan werden muss, um die „Energiewende“ durchzusetzen: Beispielsweise verweisen Sie auf die Notwendigkeit, Energie einzusparen (die Erhöhung der energetischen Effizienz wird seit mindestens hundert Jahren erfolgreich praktiziert, ist aber nur sinnvoll, wenn sie mit ökonomischer Effizienz verbunden ist), im Verkehrsbereich den Energiebedarf um 40 Prozent zu senken oder etwa 2  Prozent der deutschen Gebäude pro Jahr energetisch zu sanieren. Sie möchten die Genehmigungsdauer für 2800 km neue und 1000 km auszubauende Hochspannungstrassen reduzieren, indem Sie unliebsame „Einzelklagen“ besorgter Bürger verhindern wollen.

Als Ziel betrachten Sie es, „erneuerbare Energien zu bevorzugen“. Als Erfolg auf diesem Wege sehen Sie, dass „Windenergie und Sonnenenergie … heute in Deutschland über das Jahr gesehen 15 % des Stromverbrauchs“ decken und „derzeit schon 32 GW Windanlagen und 34 GW Photovoltaikanlagen installiert“ sind. Ich gestehe, dass ich sehr nachdenklich wurde, als ich in Ihrem Interview lesen musste, dass wir in zwei oder drei Jahren an „einem wind- und sonnenreichen Wochenende mittags … 100 % unseres Stromverbrauchs mit Wind- und Sonnenenergiestrom decken können.“ Meinen Sie wirklich, dass das irgendeine energiewirtschaftliche Relevanz besitzt? Es handelt sich hier um maximal ein bis zwei Stunden unter außerordentlich günstigen und relativ seltenen meteorologischen Bedingungen. In dieser Zeit müssten alle konventionellen Kraftwerke ihre Leistung auf Null zurückfahren, um eventuell 10 Minuten später, wenn eine Windflaute eintritt oder sich die Sonne hinter Wolken versteckt, wieder am Netz zu sein? Wollen Sie damit etwa ausdrücken, dass das einige Jahre später auch fünf, sechs oder gar 24 Stunden und vielleicht noch später nicht nur als Wochenenden, sondern sogar ganzjährig, auch in windstillen Winternächten, möglich sein könnte? Sie wissen sehr genau, dass der Gedanke an eine derartige Entwicklung utopisch – besser: unsinnig – ist! Zwar verweisen Sie auf die Absicht der Bundesregierung, die Energiespeicherung zu fördern, wissen aber darüber nicht mehr zu sagen, als dass es sich hier um eine nicht finanzierbare Technik handelt. Ich muss Sie nicht darauf hinweisen, dass die Speicherung ohnehin schon überteuerter Energie aus alternativen Quellen die Stromkosten für Durchschnittsbürger und sehr viele Unternehmen praktisch unbezahlbar machen würde.

Recht weltfremd erscheint mir Ihre Vorstellung, man könne auch in Zukunft überschüssigen Strom aus deutschen Wind- und Solaranlagen exportieren. Die daraus entspringenden Export-Erlöse, die bekanntlich zeitweise auch negativ sind, lassen Sie vorsichtshalber völlig unberücksichtigt! Und wenn andere Länder, von denen Sie annehmen, dass auch die größere Wind- und Photovoltaikkapazitäten aufbauen, ihrerseits überschüssigen Strom nach Deutschland liefern wollen? Hat die VDI-Gesellschaft für Energie und Umwelt eine Antwort darauf?

Es ließ sich im Interview wohl nicht vermeiden, auf die Kosten der „Energiewende“ hinzuweisen. Sie konstatierten – sinngemäß identisch mit der inzwischen sattsam bekannte Politiker-Phrase „Die Energiewende ist nicht zum Nulltarif zu haben“: „Die Energiewende kostet Geld“. Auch Sie stellten fest, dass es „politische Forderungen gibt, die Energiekosten zukünftig nicht mehr ansteigen zu lassen“. Von ebenfalls laut geäußerten Forderungen, die Energiekosten zu senken, war bei Ihnen nichts zu lesen. Ihr „Lösungsvorschlag“: „Die neue Bundesregierung wird erhebliche Anstrengungen unternehmen müssen, um die Strompreiserhöhungen in Grenzen zu halten“. Weiß der VDI, welche „Anstrengungen“ das sein sollen? Und wo sind die „Grenzen“ einer – Ihrer Meinung nach nicht zu vemeidenden – Strompreis-Erhöhung?

Sie bringen zusätzliche Belastungen der Industrie durch höhere Strompreise (Abschaffung der EEG-Kostenbefreiung) ins Spiel, obwohl sehr gut bekannt ist, dass das für die Stromrechnung der Bevölkerung kaum Entlastungen bringen dürfte. Es ist sehr interessant, dass auf der gleichen Seite der VDI nachrichten, auf der Ihr Interview erschien, der Hauptgeschäftsführer der Vereinigung der hessischen Unternehmerverbände (VhU), Volker Fasbender, erklärte: „Industriearbeitsplätze zu sichern ist wichtiger als private Stromrechnungen zu schonen.“ – Wie sieht das die VDI-Gesellschaft für Energie und Umwelt?

Sie haben aber auch ein „konkretes“ Rezept zur Finanzierung der „Energiewende“ zu bieten: „Um auch Energieeinsparungen im Gebäudesektor voranzubringen, wird man mehr Anreizprogramme schaffen müssen.“ Sie wissen, wer diese Anreizprogramme finanziert: Der Steuerzahler, der als Energieverbraucher zugleich der Finanzier der „Energiewende“ ist! Oder kennen Sie angesichts der gegenwärtigen Finanzkrise andere Geldquellen?

Wie Pfeifen im Wald hört sich Ihre Beteuerung an, dass die „Energiewende“ Deutschland „viel Nutzen“ bringen würde, weil wir die – in Deutschland schon nicht bezahlbare – „Energiewende“-Technik exportieren könnten. Sie setzen dabei voraus, dass andere Industrieländer die gleichen energiepolitischen Geisterfahrten unternehmen wie Deutschland.

Insgesamt enthält Ihr Interview eine Menge ungelöster technischer, ökonomischer und politischer Probleme der „Energiewende“ (Umwelt-Probleme haben Sie gar nicht angesprochen). Lösungsvorschläge, die zu einer wirtschaftlichen, zuverlässigen und umweltfreundlichen Energieversorgung führen („Strategisches Zieldreieck der Energiepolitik“), waren an keiner Stelle Ihrer Ausführungen zu erkennen. Das alles hielt Sie aber nicht davon ab, die politische Entscheidung für die „Energiewende“ als „richtig“ zu bewerten.

Sie erklärten: „Die angestrebten Ziele – Energieeinsparung, langfristig weg von fossilen Energieträgern und Kernenergie hin zu erneuerbaren Energien – sind, vor dem Hintergrund der angespannten weltweiten Energiemärkte und der Notwendigkeit Klimaschutz zu betreiben, richtig.“ Wenn das Begründungen für die Notwendigkeit der völligen Umgestaltung der deutschen Energiewirtschaft sein sollen, so halte ich sie für extrem dürftig, sogar für falsch!

Welche „angespannten weltweiten Energiemärkte“ haben Sie denn im Auge? Es gibt keinen Energiemangel – nicht heute und auch nicht in 50 oder 100 Jahren, folglich auch keine „angespannten Energiemärkte“! Ich muss Sie wohl nicht auf die Tatsache hinweisen, dass sich die USA auf dem Wege vom Energieimporteur zum Energieexporteur befinden, dass insgesamt Kohle-, Erdöl- und Erdgas-Vorräte für mehrere Jahrhunderte verfügbar sind, dass immense Vorkommen von Uran und Thorium bekannt sind, die für Millionen Jahre reichen, und dass die Menschheit an der Erforschung der Kernfusion arbeitet. Welche weiteren Ideen unseren Nachkommen zur Deckung des ständig wachsenden (!) Energiebedarfs  noch einfallen werden, können weder Sie noch ich absehen. Welchen Energiemangel soll denn die deutsche „Energiewende“ beheben? Warum wohl wollen Sie „weg von fossilen Energieträgern und Kernenergie“, wenn doch beide nahezu unbegrenzt verfügbar sind?

Woraus leiten Sie die „Notwendigkeit Klimaschutz zu betreiben“ ab? Wovor soll denn das Klima eigentlich geschützt werden? Wenn Sie unter „Klimaschutz“ verstehen, weniger von dem lebensnotwendigen Spurengas CO2 zu emittieren, um die Temperaturen nicht steigen zu lassen, dann möchte ich Sie darauf aufmerksam machen, dass trotz weiter steigender Emissionen die Durchschnittstemperaturen weltweit in den letzen 15 Jahren nicht – wie vorhergesagt – gestiegen, sondern gefallen sind. Diese Tatsache beweist, dass mathematische Modelle keine Klimaprognosen ermöglichen, was übrigens schon 2001 vom IPCC festgestellt wurde: „In climate research and modelling we should recognize, that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible“. (Third Assessment Report,  Section 14.2.2.2,  S.774). Bekannt sein dürfte Ihnen auch, dass es bisher nicht einen einzigen wissenschaftlichen, d. h. messtechnisch belegten, Nachweis für Temperaturerhöhungen als Folge eines steigenden CO2-Gehalts der Atmosphäre gibt. Wenn der VDI über einen solchen Nachweis verfügen würde – der Nobelpreis (und zwar der für Physik!) wäre ihm sicher!

Und warum wollen der VDI und Sie persönlich auf die Kernenergienutzung verzichten? Glauben etwa auch Sie an die Unbeherrschbarkeit, an die unermessliche Gefährlichkeit dieser Technik? Nicht einmal Forschungen auf diesem Gebiet oder gar den Ersatz heutiger Kernkraftwerke durch modernere (andere Länder praktizieren das!) wollen Sie zulassen? Brütertechnologie und Transmutation, über die in Deutschland noch nicht einmal gesprochen wird, werden alle Debatten über die „Endlagerung“ gegenstandlos machen. Es ist in der modernen Technikgeschichte ein wohl einmaliger Akt, dass durch die Politik die Forschung auf einem technisch höchst wichtigen Gebiet untersagt wird! Und der VDI findet kein Wort der Erwiderung, sondern unterwirft sich demütig grün-ideologischen Forderungen!

Ich hätte erwartet, dass Sie angesichts der vielen technischen Probleme, für die zum großen Teil noch nicht einmal Lösungsansätze erkennbar sind, und der riesigen Kosten, die auf uns zukommen werden – sogar Bundesumweltminister Peter Altmaier sprach von einer Billion Euro, einer m. E. sehr geschönten Zahl – die Frage aufwerfen, ob die „Energiewende“ überhaupt notwendig ist. Warum fragen Sie nicht, warum wir eine gut funktionierende, wirtschaftliche und umweltfreundliche Energieversorgung durch eine in jeder Beziehung unsicheres unbezahlbares und umweltschädliches System ersetzen müssen? Warum wollen wir plötzlich die Wettbewerbsfähigkeit unserer Wirtschaft, den Wohlstand der Bürger und die Umwelt in Gefahr bringen? Können Sie und der VDI verantworten, dass durch die Abwanderung großer Teile der Grundstoffindustrie infolge überhöhter Energiepreise hunderttausende Arbeitsplätze in Deutschland vernichtet werden?

Vom VDI, dem ich seit vielen Jahren angehöre, hätte ich solche Fragestellungen erwartet! Die Wiederholung von Glaubenssätzen und die damit verbundene bedingungslose Unterwerfung unter das „Primat der Politik“, wie sie im Interview zu finden sind, hilft möglicherweise bestimmten politischen Kräften, nicht aber Bürgern, der Wirtschaft, der Technik oder gar der Wissenschaft!

Eine ehrliche Antwort auf die Frage nach der Notwendigkeit der „Energiewende“ kann nur lauten: Die Entscheidung war falsch! Ich weiß: Diese Antwort ist nicht „politisch korrekt“, aber sie ist technisch, ökonomisch, sozial und – nicht zuletzt! – wissenschaftlich korrekt!

Wenn nicht einmal der VDI mit seinem großen Fachpotenzial den Mut aufbringt, sachlich über Sinn und Unsinn der „Energiewende“ zu sprechen, dann dürfen Sie sich nicht wundern, wenn immer mehr Fachleute resignieren und den VDI verlassen! Noch schlimmer: Mit Ihrem Verhalten stoßen Sie begabte junge Menschen von der Beschäftigung mit bedeutenden traditionsreichen Zweigen der Energietechnik ab. Nicht nur Ihr Interview, sondern das gesamte opportunistische Verhalten des VDI (einschließlich VDI nachrichten)  führt dazu, offenen Debatten zu energiepolitischen Grundsatzfragen völlig zu unterbinden! Will das der VDI wirklich?

Ich bin mir völlig darüber im Klaren, dass ich von Ihnen keine Antwort auf diese mich – und viele andere Fachkollegen – bewegenden Fragen erhalten werde. Daher erlaube ich mir, diesen Brief einem weiten Kreis von Fachleuten zur Kenntnis zu geben – mit der Absicht, auf diese Weise eine offene Diskussion zur „Energiewende“ in Deutschland in Gang zu setzen.

Mit freundlichen Grüßen

Dr. Dietmar Ufer EIKE

Antwort von Prof Dr. H.J. Wagnwer

RUHR-Universität Bochum Lehrstuhl Energiesysteme und Energiewirtschaft

Prof. Dr.-Ing. H.-J. Wagner FAKULTÄT FÜR MASCHINENBAU, Institut für Energietechnik Lehrstuhl Energiesysteme und Energiewirtschaft Gebäude IB 4/125

Universitätsstraße 150, 44801 Bochum

PROF. DR.-ING. H.-J. WAGNER

13. Juni 2013

Ihr Schreiben vom 10. Juni 2013

Sehr geehrter Herr Dr. Ufer,

zunächst einmal möchte ich Ihnen dafür, dass Sie auf meinen Artikel in den VDI-Nachrichten geschrieben haben, danken.

Wir kennen ja unsere gegenseitigen beruflichen Aktivitäten schon seit einiger Zeit. Ihre Ausführungen habe ich mit Interesse gelesen, viele davon waren mir allerdings nicht neu, da Sie dies bereits mehrfach geäußert haben, auch unter Widerspruch. Beim Beantworten der Fragen der VDI-Nachrichten habe ich insbesondere auch daran gedacht, dass die weit überwiegende Mehrzahl der Leser der VDI-Nachrichten nicht das spezifische Energiefachwissen hat, was die Energieingenieure mit sich bringen. Man kann nicht davon ausgehen, dass den Lesern a priori klar ist, was 32 und 34 GW installierte Leistung an Photovoltaik- und Windenergieanlagen bedeutet. Deshalb habe ich das Beispiel gebracht, das damit Mittagsspitzen in einigen Zeiten abgedeckt werden können, was auch eintreten wird. Ich habe nicht damit die These vertreten, das dann die Energieversorgung Deutschlands gesichert sei und wir keine konventionellen Kraftwerke mehr benötigen würden. Ich bitte Sie, dies zu berücksichtigen. 

Des Weiteren habe ich mit einer Reihe von Aspekten zu verstehen gegeben, welche Fragestellungen in der nächsten Legislaturperiode anliegen werden und in geeigneter Weise gelöst werden müssen. Dazu zählt auch die Frage, wer bei zunehmenden erneuerbaren Energien die Einspeisevergütung zahlen soll. Berücksichtigen müssen Sie auch, dass in letzter Zeit die Politik bereits erklärt hat, dass die Einspeisevergütung für private Verbraucher trotz Zunahme der Photovoltaikleistung nicht mehr steigen soll. Wie bitte erwarten Sie, dass dann diese Mehrausgaben gedeckt werden?

In Bezug auf die von Ihnen intensiv in der Öffentlichkeit – und auch gegenüber dem VDI – vertretende Meinung, dass die CO2-Problematik nicht existiere, möchte ich darauf hinweisen, dass es viele andere Einschätzungen gibt. Selbst, wenn vielleicht manche Meinungen bzgl. des Temperaturanstiegs infolge von CO2 auf der pessimistischen Seite liegen, wird der grundsätzliche Einfluss von CO2 auf die weltweite Klimabildung aber nicht von den Wissenschaftlern infrage gestellt. Außerdem wissen Sie sehr gut, dass sich gerade VDI-GEU bemüht hat, zu einem wissenschaftlichen Diskussionsgespräch in Form einer kleinen Veranstaltung zu kommen, um die unterschiedlichen Meinungen gegenüberzustellen und zu diskutieren. An dieser Stelle spreche ich dem VDI ein großes Kompliment aus dafür, dass er versucht hat, diesen Weg zu gehen.

Insgesamt gesehen finde ich es gut, dass Sie sich intensiv mit der Thematik auseinandersetzen. Ich teile jedoch in vielen Punkten Ihre Meinung nicht und halte auch die teilweise von Ihnen vorgenommene Darstellung als nicht ausreichend breit für die Beschreibung der vorhandenen Thematik. 

Trotzdem herzlichen Dank, dass Sie meinen Artikel gelesen haben.

Mit freundlichen Grüßen

Prof. Dr.-Ing. H.-J. Wagner

Antwort D. Ufer

Dr. Dietmar Ufer

04103 Leipzig, 18. Juni 2013

Herrn Prof. Dr.-Ing. Hermann-Josef Wagner

Ruhr-Universität Bochum

Lehrstuhl für Energiesysteme und Energiewirtschaft

Universitätsstraße 150

44780 Bochum

 

Sehr geehrter Herr Professor Wagner,

auch ich möchte mich herzlich bei Ihnen bedanken, nämlich für Ihre rasche Antwort auf meinen kritischen und recht umfangreichen Brief! Auch aus Ihrem Schreiben vom 13. Juni 2013 erkenne ich, dass wir teilweise recht unterschiedlicher Meinung sind. Kann ich aber der Tatsache, dass Sie in Ihrer Antwort einige Probleme offen lassen (z. B. die Kernenergie-Nutzung), eine vorsichtig-zurückhaltende Annäherung oder Nähe entnehmen?

Gestatten Sie mir einige Anmerkungen zu unserem aktuellen Briefwechsel, weil die möglicherweise nicht nur zur Klärung von Widersprüchen, sondern vielleicht auch zur allgemeinen Debatte über die „Energiewende“ innerhalb des VDI beitragen könnten. 

Zur Rolle von Photovoltaik- und Windenergieanlagen: Im Interview wollten Sie Rücksicht auf das ungenügende Fachwissen von Lesern der VDI nachrichten nehmen. Das führt mich allerdings zu der Frage, ob es sich hier nicht vorwiegend um technisch gebildete Menschen, z. B. Ingenieure, handelt, die durchaus den Unterschied zwischen Arbeit und Leistung kennen. In Ihren Ausführungen wollten Sie diese beiden Technologien als „Erfolgsgeschichte“ darstellten und weckten damit ausgerechnet in der Zielgruppe, die „nicht das spezifische Energiefachwissen“ besitzt, Illusionen. Sie wissen selbst genau: Nie wird es in Deutschland oder in Europa möglich sein (auch nicht stundenweise!), dass wir – wie Sie schrieben – „100 % unseres Stromverbrauchs mit Wind- und Sonnenenergiestrom decken können.“ Es gibt sicher Politiker, die über eine solche Feststellung jubeln – sie ist aber trotzdem falsch. Und es ist bedauerlich, dass sie von einem profilierten Energietechniker und Vorsitzenden der VDI-Gesellschaft für Energie und Umwelt kommt!

Sie stellen mir die Frage, wie die Mehrausgaben bei zunehmenden alternativen Energien gedeckt werden sollen. Meine Antwort ist sehr einfach: Gar nicht! Ich lehne den weiteren Ausbau dieser nur mit Hilfe von Subventionen lebensfähigen Energieanlagen strikt ab, plädiere für die sofortige und ersatzlose Streichung des „Erneuerbare-Energien-Gesetzes“. Ausnahmslos alle Energien, egal woher sie stammen, sollten – ab sofort! – den Regeln des Marktes unterworfen werden, auch unter Verzicht auf den Bestandsschutz bei schon existierenden Anlagen. Es ist nicht möglich – auch das wissen Sie sehr genau – Sonnen-, Wind-, Biomasseenergie etc. unter ökonomischen Bedingungen zu erzeugen, die den Strom „bezahlbar“ machen. Alle Versuche in dieser Richtung, z. B. Altmaiers „Strompreisbremse“ oder eine „Reformierung“ des EEG, sind nichts anderes als ein hilfloser Versuch der Quadratur des Kreises. – Ist diese einfache Wahrheit, sehr geehrter Herr Professor Wagner, wirklich so kompliziert, dass sie nicht auch vom VDI ausgesprochen und der Politik vorgelegt werden kann? Zehntausende Ingenieure in Deutschland – mit Ausnahme derjenigen, die vom EEG profitieren – würden dem zustimmen! Warum hat kein VDI-Gremium den Mut, das auszusprechen?

Zum CO2-Einfluss auf die Klimaentwicklung nur so viel: Wenn es überhaupt einen Einfluss geben sollte, dann ist er so gering, dass er messtechnisch nicht nachweisbar ist. Halten Sie diese Feststellung für falsch? Und für diesen nicht nachweisbaren Effekt sollen wir Billionen Euro ausgeben, die wir wirklich dringend woanders brauchen? Folgt man Ihren Vorstellungen über die Bedeutung des CO2 als „Klimagas“, dann müssten zur „Rettung“ des Klimas (nochmals: Was ist das?) nicht nur Billionen Euro in Deutschland, sondern Billiarden Euro auf der Erde ausgegeben werden! Der Erfolg dürfte aber – so zeigen die Fakten – gegen Null gehen! Übrigens: Ihre Auffassung, der „grundsätzliche Einfluss“ des CO2 auf die Klimaentwicklung werde „nicht von den Wissenschaftlern infrage gestellt“, ist schlicht falsch. Oder wollen Sie etwa Klima-Fachleute mit gegenteiliger Meinung als „Nicht-Wissenschaftler“ diskriminieren? Solchen ans Mittelalter erinnernden Denkweisen sollten wir keinen Raum geben, weder im VDI noch in Deutschland insgesamt!

So viel zu den in Ihrem Antwortschreiben angesprochenen Fragen. Bei anderen, wie der schon erwähnten Kernenergie, aber auch beim Windstrom-Export, bei der Verfügbarkeit von Energieressourcen und beim angeblichen volkswirtschaftlichen Nutzen aus den Export von Alternativenergie-Techniken u. ä., verzichten Sie auf eine Erwiderung, was ich als Zustimmung zu meinen kritischen Bemerkungen auffassen könnte.

Seltsamerweise taucht in Ihrem Brief das Wort „Energiewende“ überhaupt nicht auf. Distanzieren Sie sich etwa von diesem Begriff und seinem Inhalt? Ich kenne nicht einen einzigen ökonomischen, technischen oder ökologischen Vorteil, der sich aus der Durchsetzung der „Energiewende“ ergeben könnte, jedoch schon sehr viele Nachteile, sogar gewaltige Schäden (erkennbar z. B. in meiner aktuellen Stromrechnung). In Ihren Ausführungen habe nichts Positives dazu gefunden, obwohl Sie im Interview sogar versuchen, diesen verhängnisvollen Schritt der Bundesregierung zu rechtfertigen!

Warum besitzen Sie nicht den Mut, offen die Frage aufzuwerfen, wofür wir diese energiepolitische Fehlentscheidung überhaupt benötigen? Ich habe Ihnen in meinem Brief genau das sehr deutlich nahegelegt und von Ihnen dazu kein Wort lesen können! Es handelt sich m. E. um die gegenwärtig wichtigste energiepolitische Frage in Deutschland! Leider hat bisher noch kein Politiker, Wirtschaftspraktiker oder Journalist (von ganz wenigen Ausnahmen abgesehen) diese Frage gestellt und nach einer Antwort gesucht!

Offen sollte die Frage nach Sinn und Unsinn der Energiewende gestellt und darüber im VDI und in der medialen Öffentlichkeit diskutiert werden. Die sich daraus ergebenden Schlussfolgerungen sind konsequent politisch und ökonomisch umzusetzen. Das ist der einzige Weg, der uns vor der Zerstörung unserer über Jahrzehnte gewachsenen, einstmals erfolgreichen Energiewirtschaft und schließlich vorm Absturz der Volkswirtschaft ins Bodenlose (Verlust der Wettbewerbsfähigkeit, Deindustrialisierung, Massenarbeitslosigkeit, Wohlstandsverlust) bewahrt!

Bitte, sehr geehrter Herr Professor Wagner, nutzen Sie Ihr hohes Ansehen als Wissenschaftler und setzen sich an die Spitze einer Bewegung, die die angeblich alternativlose „Energiewende“ um 180 Grad „wendet“ und zur energiepolitischen Vernunft zurückführt: Wettbewerbsfähigkeit, Zuverlässigkeit und Umweltverträglichkeit! Veranlassen Sie als erstes eine Debatte in den VDI nachrichten darüber, nicht zuletzt als Alternative zu den sich dort immer mehr ausbreitenden grün eingefärbten Artikeln!

Nochmals besten Dank für Ihr Antwortschreiben! Ihr Brief und meine Antwort betrachte ich nicht als Schlusspunkt einer „Vier-Augen-Debatte“, sondern als Anfang einer grundsätzlichen Diskussion über die Zukunft der deutschen Energiewirtschaft. Deshalb werde ich auch dieses Schreiben einer größeren Zahl von Fachleuten zur Kenntnis geben.

Mit freundlichen Grüßen 

Ihr

D. Ufer

0 0 1 1446 9115 Management Consult 75 21 10540 14.0 96 800×600 Normal 0 21 false false false DE JA X-NONE




Ein sich abkühlender Konsens

Mr. Cohn tut sein Bestes, um zu bekräftigen, dass die dringende Notwendigkeit von Aktionen, um die Erwärmung zu verzögern, nicht geringer geworden ist, ebenso wie Brad Plumer von der Washington Post und diese Zeitung. Aber es führt kein Weg an der Tatsache vorbei, dass diese Galgenfrist [so es wirklich eine ist, A. d. Übers.] für den Planeten eine schlechte Nachricht für Befürworter einer Politik ist, die über Kohlenstoffsteuern und Emissions-Verträge nachdenkt, womit die Freisetzung von Treibhausgasen verringert werden soll. Die Realität ist, dass sich die schon jetzt dürftigen Erwartungen dieser Politik, zumindest in Amerika, völlig zerschlagen werden, falls die Temperaturen tatsächlich auch noch die unterste Grenze der Projektionen unterschreiten werden. Umweltaktivisten haben diese Projektionen genutzt, um ein panisches Gefühl des Notstands zu kreieren. Egal ob dramatische klimapolitische Interventionen weiterhin ratsam erscheinen oder nicht, es wird schwieriger wenn nicht unmöglich, das der Öffentlichkeit zu verkaufen, die allmählich nicht von ungefähr merken, dass die Wissenschaft und die Medienlandschaft mit den Wölfen geheult haben.

Eine dramatische Erwärmung könnte einen schlimmen Preis hinsichtlich des menschlichen Wohlergehens fordern, vor allem in ärmeren Ländern. Aber das Beschneiden der Emissionen in einem Ausmaß, dass ein wirklicher Keil in die Erwärmung getrieben wird, kann auch einen wirklichen Keil in das ökonomische Wachstum treiben. Das könnte ebenfalls einen schlimmen humanitären Preis fordern, vor allem in ärmeren Ländern. Angesichts der bislang unergründlichen Komplexität des globalen Klimas und unseres ärmlichen Verstehens der relevanten physikalischen Mechanismen habe ich mich immer dafür ausgesprochen, noch ein oder zwei Jahrzehnte zu warten, um die empirische Zuverlässigkeit unserer Klimamodelle zu testen und zu verbessern, was gleichzeitig den Ökonomien der weniger entwickelten Teile der Welt erlauben würde, ungehindert zu wachsen und ihre Möglichkeiten zu verbessern, sich an alle Extremwetterereignisse welcher Art auch immer anzupassen. Wiederholt wurde mir gesagt, dass „wir es uns nicht leisten können zu warten“. Noch trauriger ist, dass mein Empirismus oftmals auf einen knüppelharten Dogmatismus über die Autorität des wissenschaftlichen Konsens’ gestoßen ist.

Natürlich, wenn sich der Konsens der Klimamodelle nur wenige Jahre später als falsch herausstellen sollte, wenn nämlich die mittlere Temperatur auf einem Niveau verharrt, dass man zugegebenermaßen für physikalisch nicht möglich gehalten hätte, wäre die Autorität des Konsens’ als ziemlich schwach bloßgestellt worden. Die Autorität eines Expertenkonsens’ verstärkt sich offensichtlich, wenn sich die Qualität der Expertise verbessert. Darum ist es ziemlich vernünftig im Sinne einer auf Wissenschaft basierenden Politik zu warten, bis sich eine unausgegorene Wissenschaft verbessert, bevor man große Maßnahmen auf der Basis irgendwelcher Vorhersagen ergreift.

Wie auch immer. Mr. Cohn zitiert einige Wissenschaftler, die angesichts der unerwartet langsamen Erwärmung ganz ruhig bleiben.

Es könnte so aussehen, als ob ein eine Dekade langes Erwärmungs-Plateau eine Krise der Klimawissenschaft verursachen würde. Gerald Meehl, ein leitender Wissenschaftler am National Center for Atmospheric Research, hat auch früher schon Lücken gesehen. Sie „kommen  in unseren beobachteten Aufzeichnungen immer wieder vor“, und es gibt Klimamodelle, die „eine Pause bis zu 15 Jahren“ zeigen. Als Folge davon sagt Isaac Held, ein leitender Forschungswissenschaftler am Geophysical Fluid Dynamics Laboratory der NOAA: „Niemand hat je eine kontinuierlich verlaufende Erwärmung erlebt, die mit einer geraden Linie erfolgt“. Diese vielgerühmten Computermodelle sind aus zahlreichen Simulationen zusammengesetzt, die die natürliche Variabilität spiegeln. Aber, wie Meehl sagt, „bei der Mittelbildung wird dies eliminiert“.

Ist das nicht ziemlich durchsichtig. Der Punkt bei der Mittelbildung ist, außerordentlich unwahrscheinliche Möglichkeiten auszuschließen. Es rechtfertigt das Modell nicht, wenn man sagt, dass es seinen einzigen akkuraten wesentlichen Simulationen kein Gewicht verleiht – dass es sie eliminiert.

Wenn „Pausen immer wieder vorkommen” der richtige Weg ist, das gegenwärtige Erwärmungs-Plateau zu sehen, dann ist der Rest von Cohns Artikel, in dem es um das Rätsel der Pause geht, überflüssig. Aber wie aus allen Bruchstücken bei der Diskussion über das Plateau perfekt hervorgeht, sind die Klimawissenschaftler über das Scheitern ihrer Vorhersagen verwirrt. Sind es die Ozeane? Wolken? Vulkane? Die Sonne? Ein Fehler in den Temperaturdaten?

In der Regel waren die Klimawissenschaftler zuvor sehr zuversichtlich, dass der Planet jetzt wärmer wäre als er eigentlich ist, und niemand weiß genau den Grund dafür, warum das so ist. Das ist keine Krise für die Klimawissenschaft. Es ist einfach die Art und Weise, wie Wissenschaft funktioniert. Aber es ist sehr wohl eine Krise für die Befürworter einer Klimapolitik, die ihre Argumente auf die Basis der Autorität eines wissenschaftlichen Konsens’ stellt. Cohn räumt das später widerwillig ein.

Schließlich sieht der so genannte wissenschaftliche Konsens zur globalen Erwärmung nicht gerade wie ein wirklicher Konsens aus, wenn die Wissenschaftler nur mühsam die Komplexität des irdischen Klimasystems erklären können, oder wenn sie die Welt mit erstaunlicher Regelmäßigkeit mit dem Wort „Ungewissheit“ konfrontieren.

Aber sein Versuch, die politische Relevanz hiervon kleinzureden, ist nicht überzeugend. Er schreibt:

Die jüngste Welle von Nachrichten und Artikeln über die Wissenschaftler und ihre mühevollen Erklärungen der Verlangsamung der Erwärmung könnten den Skeptizismus der Öffentlichkeit erweitern oder vertiefen.

Aber der Konsens” erstreckte sich niemals auf die Komplexität des Klimasystems, sondern lediglich auf den Kerngedanken, dass zusätzliche Treibhausgasemissionen den Planeten erwärmen würden.

Wenn das stimmen würde, dann wäre die Öffentlichkeit systematisch betrogen worden. So wie er der Öffentlichkeit präsentiert worden ist, erstreckte sich der Konsens auf genau das, was jetzt in Frage gestellt zu sein scheint: die Sensitivität der globalen Temperatur hinsichtlich eines zunehmenden atmosphärischen CO2-Gehaltes. Wenn es bei dem Konsens tatsächlich nur darum gegangen wäre, dass Treibhausgase einen gewissen Erwärmungseffekt hätten, hätte es gar keine offensichtlichen politischen Implikationen gegeben. Wie in dieser Studie festgestellt worden ist:

Falls … die Temperaturen wahrscheinlich um nur 2°C steigen werden als Folge einer Verdoppelung der Kohlenstoffemissionen (und falls die Wahrscheinlichkeit eines Anstiegs um 6°C trivial ist), könnte sich die Berechnung ändern. Vielleicht sollte die Welt danach trachten, sich an die Treibhausgas-Orgie anzupassen (anstatt sie zu stoppen). Es ist unsinnig, eine Versicherung gegen Erdbeben zu kaufen, wenn man nicht in einer Erdbebenzone lebt. In diesem Falle wäre eine stärkere Anpassung als eine weitere Abschwächung die richtige Politik an der Wurzel. Aber dies wäre nur dann ein guter Rat, wenn diese neuen Schätzungen wirklich zuverlässiger sind als die alten. Und unterschiedliche Modelle zeitigen unterschiedliche Ergebnisse.

Wir wurden mit Argumenten für eine Anpassung nicht gerade überflutet, weil der Konsens die jetzt in Zweifel geratenen Schätzungen der Klimasensitivität betrifft. Die moralisierende Schärfe so vieler Argumente für Zertifikatehandel, Kohlenstoffsteuern und Verträge hinsichtlich globaler Emissionen wurde aus dem Gedanken geboren, dass es einen Konsens darüber gibt, wie stark die Erwärmung wäre, wenn der Kohlenstoffausstoß so weitergehen würde wie bisher. Die ziemlich hitzigen Debatten, die wir hinsichtlich der ökonomischen und sozialen Schäden der Kohlenstoffemissionen hatten, basierten auf dem Gedanken, dass es so etwas wie einen spezifischen Konsens über die zu erwartende Bandbreite der Erwärmung gibt. Wenn dieser Konsens jetzt auseinander bricht, wie es der Fall zu sein scheint, dann ist das zum Guten oder zum Schlechten eine sehr große Sache.

Link: http://www.economist.com/blogs/democracyinamerica/2013/06/climate-change?fsrc=scn%2Ftw_ec%2Fa_cooling_consensus

Übersetzt von Chris Frey EIKE




Globale Erwärmung und der Nepper

Könnte es sein, dass es Ronald Reagan und nicht Präsident Obama war, der den Anstieg des Meeresspiegels verlangsamt hat? Das ist eine der Schlussfolgerungen, die man aus der Studie des kanadischen Physikers Qing-Bin Lu an der University of Waterloo in Ontario ziehen kann. An Stelle von Kohlendioxid-Emissionen, argumentiert Lu, haben Ozon zerstörende Fluor-Chlor-Kohlenwasserstoffe FCKW und andere die globale Erwärmung verursacht. Dank der Reagan-Administration und des Montreal-Protokolls wurden FCKW in den entwickelten Ländern verbannt. Nach einer Verzögerung, sagt Lu, erreichten die globalen Temperaturen um das Jahr 2002 einen Höhepunkt, und er sagt voraus, dass sie während der nächsten fünf bis sieben Dekaden fallen werden.

Anhänger des Konsens’ sagen, dass der gestiegene Kohlendioxidgehalt die einzig mögliche Erklärung für steigende globale Temperaturen ist. Jetzt gibt es eine weitere Erklärung, und zwar mit einer Chronologie, die viel besser zu den Beweisen passt.

Es gab immer ein Problem bei der Begründung mit dem CO2 – wie man den Rückgang der Temperatur von Mitte der vierziger Jahre und den relative flachen Verlauf bis 1975 erklären kann, als der Kohlendioxidgehalt bereits kontinuierlich im Steigen begriffen war. Das IPCC hat dieses Problem damit erklärt, dass zunehmende Aerosole aus den Emissionen von Kohlekraftwerken einen Abkühlungseffekt bewirkt hätten, der den Temperaturanstieg vorübergehend zum Stillstand gebracht hätte.

Es gab keine gemessenen Daten hinsichtlich der Aerosole, so dass man Hypothesen verwendet hatte, die nicht mit der Realität verglichen werden konnten. Für jedermann außer einem Klimawissenschaftler war das zutiefst unbefriedigend – vor allem, als verschiedene Klimamodellierer verschiedene Werte verwendet haben, um ähnliche Ergebnisse zu bekommen. Trotzdem war dies die Richtschnur, die das IPCC mit seinem zweiten Zustandsbericht 1995 verfolgte. Im Gegensatz dazu wurden die Auswirkungen der FCKW auf das Klima Lu zufolge erst Ende der siebziger Jahre bedeutsam (laut Lus Analyse gibt es eine Verzögerung von etwa neun Jahren, bevor die FCKW die obere Atmosphäre erreichen und von der Erde abgestrahlte Wärme einfangen).

wsj

In jüngerer Zeit kam dann wieder die Realität ins Spiel. „Das Klima erwärmt sich schneller, als irgendjemand noch vor fünf oder zehn Jahren gedacht hat“, erklärte Präsident Obama im vorigen Monat. Nur dass es sich eben überhaupt nicht erwärmt hat. Wie die Abbildung mit den Temperaturdaten des UK Met. Office zeigt, war die Temperatur in der ersten Dekade dieses Jahrhunderts unverändert geblieben und hat dann begonnen zu sinken. Derzeit zeigt sich also eine negative Korrelation zwischen Kohlendioxid und der Temperatur.

Im Gegensatz zu der kaum eingetretenen Vorhersage einer vom CO2 getriebenen Erwärmung ist es mit den FCKW etwas Anderes. Lu zufolge weist die lineare Korrelation mit FCKW und anderen Stoffen [halocarbons] in der Atmosphäre eine „nahezu perfekte“ lineare Korrelation auf. Mit sorgfältigen Berechnungen des Erwärmungseffektes halogenhaltiger Gase konnte Lu beobachtete Temperaturwerte seit 1970 reproduzieren und auch den Abkühlungstrend der letzten 10 Jahre. Aber Lu kann die Temperaturen zwischen 1850 und 1970 oder die jüngste Abkühlung nicht mit der IPCC-Gleichung des Treibhauseffektes durch Kohlendioxid in Übereinstimmung bringen.

Egal ob der genaue physikalische Mechanismus der von Lu behaupteten  FCKW-Erwärmung anschließend modifiziert wird, die FCKW als Ursache liegen viel näher an Änderungen des beobachteten Temperaturverlaufs. Vielleicht sind die Klimawissenschaftler hereingefallen: Wie Lu anmerkt, war das Wachstum der FCKW-Konzentrationen nahezu identisch mit der Zunahme des CO2, doch hat sich Ersteres seit der Jahrtausendwende drastisch verändert.

Kritiker der amerikanischen Politik hinsichtlich der Kohlenstoffemissionen werfen dieser vor, ein Gefangener der Ideologie des freien Marktes zu sein. Aber sie war im Gegenteil das Produkt von Betonkopf-Pragmatismus. Eine Analyse der Montreal-und Kyoto-Protokolle von Cass Sunstein, der später zum Leiter für regulierende Angelegenheiten von Präsident Obama wurde, im Jahr 2007 zeigt den Grund dafür. Man hatte erwartet, dass die USA von allen Ländern die meisten Vorteile aus dem Montreal-Protokoll gewinnen und aus dem Kyoto-Protokoll verlieren würden. Jede Milliarde US-Dollar, die die USA im Zuge des Montreal-Protokolls ausgegeben hätten, sollte Schätzungen zufolge Vorteile in Höhe von 170 Milliarden Dollar zeitigen; im Falle Kyoto sollten es lediglich läppische 37 Millionen sein.

Innerhalb der Reagan-Administration war es mit einer Kosten-Nutzen-Analyse durch den Council of Economic zu einem entscheidenden Durchbruch gekommen, der die monetären Vorteile aufzeigte, zukünftige Todesfälle durch Hautkrebs zu vermeiden, was erheblich mehr Kosten sparen würde als man für diese Maßnahme ausgeben müsste. Als man die Ergebnisse Reagan vorlegte – zusammen mit dem Vorbehalt, dass im Falle die USA als Einzige tätig werden würden es nur geringe langfristige Vorteile geben würde – hat der Präsident die US-Unterhändler angewiesen, die Latte niedriger zu legen, bei der das Abkommen in Kraft treten würde.

George Shultz hat mir gesagt, dass das Montreal-Protokoll ein „wunderbarer Erfolg“ sei. Der ehemalige UN-Generalsekretär Kofi Annan beschrieb es als das bis heute vielleicht erfolgreichste internationale Einzelabkommen. Obwohl es nicht zur Reduktion von Treibhausgasen gedacht war, war es doch wesentlich effektiver als das Kyoto-Protokoll.

Die Analyse von Lu wird mit Sicherheit nachhaltig ins Kreuzfeuer geraten, da sie impliziert, dass der gegenwärtige Umgang mit der globalen Erwärmung wissenschaftlich falsch ist. Solange halogenhaltige Gase, die nicht vom Montreal-Protokoll abgedeckt sind, nicht reguliert werden, würde sich der allmähliche Temperaturrückgang umkehren. Und falls er recht hat, dass nämlich die FCKW und nicht das CO2 die Temperatur der letzten 40 Jahre getrieben hat, wäre das Montreal-Protokoll viel wirkungsvoller als jeder gedacht hat. Man kreide einen weiteren Sieg für den Nepper an.

Mr. Darwall ist der Autor von "The Age of Global Warming—A History," (Quartet, 2013).

Link: http://online.wsj.com/article/SB10001424127887323844804578528841152512364.html?KEYWORDS=RUPERT+DARWALL

Übersetzt von Chris Frey EIKE




„Das Zeitalter der Kerntechnik beginnt gerade erst“ – Interview mit Dr. Klaus-Dieter Humpich

Herr Dr. Humpich, sie haben kürzlich das Buch „Atommüll – Der Versuch einer Neubetrachtung“ veröffentlicht, indem es um das Strahlenrisiko der Atomkraft und das Problem des Umgangs mit dem Atommüll geht. Was war ihre Motivation? Jetzt wo der beschleunigte Atomausstieg beschlossene Sache zu sein scheint, kann so ein Buch überhaupt noch eine Rolle spielen?

Gerade die öffentliche Debatte in den letzten Tagen zeigt doch deutlich, dass sich die „reale Welt“ nicht nach irgendwelchen Beschlüssen irgendwelcher Parteien richtet. Deutschland schaltet seine Kernkraftwerke ab, aber wird dadurch weniger „Atommüll“ produziert, wenn man nun „Atomstrom“ aus dem Ausland bezieht? Wird durch einen Ausstiegsbeschluss auch nur ein Gramm des bereits vorhandenen radioaktiven Materials beseitigt? Verweigert Deutschland zukünftig auch die Nutzung radioaktiver Stoffe in Medizin und Forschung? Sind geplante Atommülllager unmittelbar an der deutschen Grenze so viel sicherer, weil sie Schweizer oder französischen Vorschriften genügen? Wie soll der „Anti-Strahlungs-Schutzwall“ aussehen? Ich wage vielmehr zu behaupten, dass sich noch keine Partei in Deutschland ernsthaft mit diesen Fragen beschäftigt hat. Insofern halte ich ein solches Buch für notwendiger denn je. Meine Motivation war, die komplexe Materie möglichst verständlich darzustellen, um sie auch für nicht Fachleute erfassbar zu machen und darüber hinaus aufzuzeigen, in welche Richtungen sich Lösungen des Problems auftun. Ist der Pulverdampf politischer Auseinandersetzungen erst verflogen, wird man sich dem Problem wieder sachlich nähern müssen. Dieses Buch könnte für alle ernsthaft interessierten den Einstieg in die Materie ermöglichen. Es gibt klar gekennzeichnete „Prüfbedingungen“ und mögliche Handlungsanweisungen für die Beurteilung unterschiedlicher Konzepte an. Insofern mag es allen Bürgern, die — dank der neuen „ergebnisoffenen“ Suche –demnächst mit einem potentiellen Endlager in ihrer Nähe konfrontiert werden, etwas nützlich sein.

Sie schreiben viel über relative Belastungen mit radioaktiven Strahlen, über die Strahlung der natürlichen Umgebung, durch unseren Umgang mit Technik und die Kernenergienutzung. Der Laie stößt hier auf paradoxe Zusammenhänge. Natürliche Hintergrundstrahlung, Röntgenuntersuchungen und die Radioaktivität von scheinbar harmlosen Energieträgern wie Kohle belasten uns mehr als die Radioaktivität von Kernkraftanlagen. Haben wir vor der Kernenergie zuviel Angst?

Man sollte im Zusammenhang mit politischen Auseinandersetzungen sehr vorsichtig mit dem Begriff Angst sein. Ängste sind immer subjektiv und für den, der darunter leidet, sehr belastend. Man sollte daher die Ängste von Menschen stets respektieren und sehr ernst nehmen. Für jemand, der ernsthaft unter Flugangst leidet, ist die Angabe einer Wahrscheinlichkeit für Flugzeugabstürze wenig hilfreich, oft sogar zusätzlich belastend, weil er sich dadurch in seinen Ängsten nicht ernst genommen fühlt und folglich in seinen Persönlichkeitsrechten verletzt. In diesem Sinne, habe ich keinerlei Probleme mit der Angst von Menschen vor Strahlung. Etwas völlig anderes ist es jedoch, wenn das schüren von Ängsten als politische Waffe eingesetzt wird. Wenn ein Flugzeug nur noch als das Produkt einer profitgierigen Flugzeugmaffia verunglimpft wird, das jede Woche Millionen armer Fußballfans durch Abstürze auf vollbesetzte Stadien gefährdet, dann muss die Stunde der Aufklärung schlagen. Denn nicht die Menschen mit Angst vorm Fliegen sind verwirrte Geister, sondern die Verbreiter von Gruselgeschichten zur Förderung und Verschleierung ihrer politischen Ziele. Jedenfalls gibt es keine Technik, die durch eine Mixtur aus Halbwahrheiten und tumber Propaganda so verteufelt wurde, wie die friedliche Nutzung der Kernenergie in Deutschland. Für mich ist allein der Begriff „Atomexperte“ als Synonym für einen Menschen, der garantiert keine fachliche Qualifikation besitzt, ein in der Welt einzigartiges Phänomen. Wo sonst ist es denkbar, dass sich Bäcker und Schuster wie in deutschen „Qualitätsmedien“ über den Stand bei Herzoperationen verbreitern dürfen und ein ganzes Volk — angeblich — tief ergriffen lauscht? Zugegebenermaßen mag der Anspruch über die Herkunft radioaktiver Strahlung in unserer Umwelt informieren zu wollen und eine Vergleichbarkeit und Gewichtung herstellen zu wollen, etwas arg idealistisch anmuten. Schließlich kommt in Deutschland ja auch der Strom aus der Steckdose und der Staat sorgt für die Arbeitsplätze.

Es mag ja sein, dass der Normalbetrieb von Kernkraftwerken nicht sonderlich gefährlich ist. Was aber, wenn es wie in Fukushima richtig kracht. Ist das nicht auch ein vorstellbares Szenario für Deutschland und Europa? Riskieren wir hier nicht zuviel? Immerhin geht es um zehntausende Tote und eine auf lange Zeit verstrahlte Umwelt. Was sagen Sie zu den Gefahren des Super GAU?

Die „Anti-Atomkraft-Bewegung“ in Deutschland baut auf zwei Axiome auf: (1) Wenn es in einem Kernkraftwerk zu einem Schaden kommt, sterben Millionen Menschen und mindestens eine Region ist für zehntausende von Jahren unbewohnbar. (2) Die „Atommüllfrage“ ist nirgendwo gelöst und wir hinterlassen nachfolgenden Generationen Berge von tödlich strahlendem Müll. Mit diesen zwei Jokern wird seit Jahrzehnten in Deutschland jedwede Diskussion über Energiepolitik erfolgreich auf Stammtisch-Niveau herunter gebrochen. Die gehoben ministerielle Form von (1) und (2) ist neuerdings das Geschwafel vom Restrisiko. Scheinbar müssen sich deutsche Politiker immer ins mystische flüchten, wenn sie über keine rationalen Argumente verfügen können. Lassen Sie es mich in aller Deutlichkeit und Klarheit sagen: Beide Axiome sind schlichtweg Unsinn und dienen wie der Hexenwahn des Mittelalters lediglich politischen Zwecken. Spätestens seit dem tragischen Experiment Tschernobyl wissen wir, daß es selbst durch eine nukleare Explosion, die einen kompletten Reaktor pulverisiert und wie bei einem Vulkan tausende Meter in die Höhe schleudert, nicht möglich ist Millionen Menschen zu töten und Regionen für zehntausende Jahre unbewohnbar zu machen. Das nähere Umfeld der Ruine hat sich inzwischen zur Touristenattraktion entwickelt. Reaktorunfälle sind zwar sehr kostspielig und die Beseitigung ihrer Folgen nimmt Jahrzehnte in Anspruch, aber sie führen — im Vergleich zu Flugzeugabstürzen, Schiffsunglücken usw. — nur zu geringen Opferzahlen. Wie politisch scheinheilig die Argumentation ist, zeigt gerade wieder Fukushima: Parallel zum Reaktorunglück hat die gleiche Naturkatastrophe beispielsweise zum Niederbrennen einer Raffinerie in der Tokio Bay geführt. Bei den verzweifelten Löscharbeiten sind 30 Feuerwehrleute getötet worden. Hat deshalb ein Deutscher Politiker die sofortige Stilllegung aller Raffinerien in Hamburg gefordert? Wer immer noch nicht einsehen will, dass es sich bei der „Anti-Atomkraft-Bewegung“ um eine Bewegung zur Gesellschaftsveränderung handelt, dem ist nicht mehr zu helfen. Eine Gesellschaft, die sich vor macht, Wohlstand sei ohne jedes Risiko zu haben, ist unweigerlich zum Untergang verurteilt. Der freiwillige Weg zurück ins Zeitalter von Wind und Sonne ist der wahre Super GAU. Geradezu peinlich ist es, wenn man das auch noch als „High Tech“ verkaufen will.

Die Reaktorunfälle in Tschernobyl und in Fukushima wurden in den vergangenen Monaten gern in einem Atemzug genannt. Ist dieser Vergleich überhaupt zulässig. Was war los damals in dem sowjetischen Reaktor? Wie schätzen Sie dagegen die Lage in Fukushima ein?

Technisch und von den Opferzahlen betrachtet, haben diese beiden Ereignisse soviel gemeinsam, wie der Flugzeugabsturz von Lockerbie mit einer Notlandung eines Sportflugzeuges nach einem Motorschaden. Es gibt allerdings eine fatale Gemeinsamkeit, die manchem als trivial erscheinen mag: Entweder man macht es fachlich richtig oder man lässt es wirklich besser ganz bleiben. In beiden Fällen wurde bewusst gegen eindeutige Erkenntnisse verstoßen. Im Falle Tschernobyl hat man um den Preis einer billigen und versteckten Produktion von waffengrädigem Plutonium — gegen massive Kritik — einen Reaktor gebaut, der jederzeit explodieren konnte. Im Falle Fukushima hat man eine Sicherung gegen Flutwellen von rund 6m Höhe gebaut, obwohl man wusste, dass schon mehrfach Flutwellen von über 14 m in diesem Gebiet aufgetreten sind. Ich wage voraus zu sagen, dass nach Fukushima für die japanische kerntechnische Industrie nichts mehr so sein wird wie zuvor. Es wird ähnlich heilsame Konsequenzen geben, wie es sie nach TMI in den USA gegeben hat. Ich hoffe nur, dass man in China und Korea lernfähiger ist, als es die Japaner offensichtlich waren.

Ihr Buch handelt vor allem vom Umgang mit Atommüll, wie er entsteht, woraus er sich zusammensetzt und welche Gefahren von ihm ausgehen. Inwieweit wird unser tägliches Leben dadurch beeinträchtigt?

Man muss sich immer wieder vor Augen führen, welch gewaltige Energie durch die Kernspaltung freigesetzt wird: Ein Gramm Uran erzeugt so viel Wärme, wie die Verbrennung von 3000 kg Kohle. Oder anders ausgedrückt: Die Mengen entstehenden „Atommülls“ sind extrem gering. Damit lassen sie sich auf einfache Weise und zu relativ geringen Kosten lagern. Der radioaktive Zerfall ist ein physikalischer Prozess, der nur in einer Richtung abläuft: Die radioaktiven Substanzen verschwinden mit der Zeit wieder von allein. Ganz anders, als bei biologischen Prozessen: Die Krankheitserreger die in tausenden Biogasanlagen (unbeabsichtigt) gezüchtet werden, können sich durchaus in der „freien Natur“ unkontrolliert ausbreiten. Hier können einige wenige Erreger durch ihre Vermehrung eine gewaltige Katastrophe auslösen.

Aber was fangen zukünftige Generationen mit unserem Atommüll an?

Was zukünftige Generation alles mit dem sog. „Atommüll“ anfangen werden, vermag ich nicht zu sagen. Nur so viel, es fängt alles mit den Begriffen Müll oder Abfall an. Natürlich ist der abgenutzte Brennstab für den Kraftwerksbetreiber Abfall, da sein Geschäftsmodell die Erzeugung von elektrischer Energie ist. In diesem Sinne ist das „abgebrannte Brennelement“ für ihn wertlos und verursacht durch seine kontrollierte Lagerung nur zusätzliche Kosten. Technisch betrachtet, stellt sich die Sache völlig anders dar: Zu dem Zeitpunkt der Entladung, sind lediglich etwa 4% des enthaltenen Urans gespalten worden. In dem Moment, wo Natururan so teuer geworden ist und andererseits die Technologie zur Wiederaufbereitung alter Brennstäbe entsprechend billiger, setzt aus wirtschaftlichen Gründen die Wiederaufbereitung in großem Maßstab ein. Aus heutiger Sicht wird das erst in mehr als hundert Jahren der Fall sein, da die Uranvorräte auf der Welt — anders als man in den 1950er Jahren erwartet hatte — gewaltig sind. Wohlgemerkt, die zu (heutigen) geringen Preisen abbaubaren. Auch bei dieser Fragestellung wird von Laien oft die gewaltige Energiedichte der Kernspaltung völlig unterschätzt. Um mit heutigen Reaktoren etwa 1000 MWe ein ganzes Jahr zu produzieren, werden lediglich rund 200 to Natururan benötigt. Ein pound U3O8 kostet etwa 38 € und enthält so viel spaltbares Uran 235, wie dem Energiegehalt von rund 7,5 to Steinkohle entspricht. Diese Menge kostet aber zur Zeit (Preisbasis Juni 2011) rund 652€. In diesem Zahlenverhältnis liegt ganz neben bei auch die Begründung, warum sich nur Deutschland meint den Luxus leisten zu können, seine Kernkraftwerke sofort abzuschalten.

Das sind alles wirtschaftliche Erwägungen. Was aber ist mit der Strahlensicherheit?

Nun aber noch ein paar Worte zu den Spaltprodukten: Sie sind es, die maßgeblich für die radioaktive Strahlung der abgenutzten Brennelemente verantwortlich sind. Sie machen also die „Gefährlichkeit“ aus. Sie wandeln sich gemäß ihrer verschiedenen Lebensdauern (Halbwertszeiten) letztendlich in stabile — also nicht mehr strahlende — Elemente um. An dieser Stelle muss man sich wieder der Mengen vergewissern: Die Spaltprodukte machen weniger als 4% des Brennelementes aus. Also einen Bruchteil einer ohnehin geringen Menge. Es spricht nichts dagegen, diese äußerst geringen Volumina sicher einzulagern. Nach etwa 300 Jahren wäre dieser Mix praktisch vollständig zerfallen. Es hätte sich also ein sehr „wertvolles Erz“ mit hohen Gehalten an heute schon sehr wertvollen Elementen gebildet. Dies ist die Antwort, warum außerhalb Deutschlands nur noch von „rückholbaren Lagern“ gesprochen wird. Kein Mensch — es sei denn, er ist ideologisch völlig verblendet — will es den nachfolgenden Generationen unnötig schwer machen, an diese (wahrscheinlich schneller als erwartet) sehr wertvollen Lagerstätten zu gelangen. Ganz neben bei, bietet die geplante„Rückholbarkeit“ eine zusätzliche Sicherheit gegen alle möglichen Eventualitäten. Ein Schelm, wer an den Sinneswandel mancher Politiker aus dem Süden der Republik denkt, wenn es um das „Endlager“ Gorleben geht.

Für Sie ist ein Großteil des Atommüllproblems Ergebnis falscher Energiepolitik. Erzählen Sie uns bitte, warum sie dieser Meinung sind und welche Rolle die Wiederaufbereitung von abgebrannten Kernbrennstäben dabei spielt?

Wie gesagt, nach der Verwendung im Reaktor sind erst rund 4% des Urans gespalten, also verbraucht worden. Es lag also von Anfang an nahe, die restlichen 96% auch noch zu verwenden. Am Beginn des Zeitalters der Kerntechnik ging man noch von wenigen (wirtschaftlich) abbaubaren Uranvorkommen weltweit aus. Hinzu kam noch der Bedarf für die nukleare Rüstung. Es erschien daher notwendig, möglichst schnell auf Brutreaktoren überzugehen, um die begrenzten Uranminen zu schonen. Heute hat sich so viel auf dem Sektor der Exploration und Gewinnung getan, dass man mit den (wirtschaftlichen) Uranvorkommen mehrere Jahrtausende Kerntechnik auf dem heutigen Niveau betreiben könnte. Für eine Wiederaufbereitung und Brutreaktoren bestünde nur eine Notwendigkeit, wenn man die Nutzung der Kernenergie erheblich ausweiten würde. So ist man z. B. in den USA der Meinung, für mindestens hundert Jahre auf eine Wiederaufbereitung verzichten zu können, da der offene Kreislauf mit nur einmaliger Nutzung der mit Abstand profitabelste Weg ist. Die Frage ob Endlagerung oder Wiederaufbereitung ließe sich somit weitere hundert Jahre verschieben. Allerdings vergrößert sich dadurch beständig die Menge des zu lagernden Atommülls. Technisch/wirtschaftlich ist das kein Problem. Es entwickelt sich aber immer mehr zu einer ethischen Frage, ob es verantwortbar ist, die Kosten nachfolgenden Generationen ungefragt aufzubürden. Es geht deshalb immer mehr um die Beseitigung des Atommülls als Gefahrenquelle. Durch eine Trennung in stark strahlende Spaltprodukte, langlebige Aktinoide und „harmloses“ Uran lassen sich die zu schützenden Mengen um über 90% verringern. Wenn man aus den Spaltprodukten bzw. dem Resturan 99,9% der Transurane einschließlich des Plutoniums entfernt, erhält man ein Produkt auf dem Niveau von natürlichem Uranerz. Bei den Spaltprodukten handelt es sich um ein Problem von unter 300 Jahren, da sie danach praktisch zerfallen sind. Es gibt sogar Studien, die Anteile mit längeren Halbwertszeiten (Cäsium, Strontium) auch noch abzutrennen und eventuell über Neutronenreaktionen zu beseitigen. Technisch kein Problem, sondern lediglich eine Kostenfrage. Der Atommüll wäre somit ein Problem weniger Jahrzehnte. Die langlebige Fraktion der Aktinoiden einschließlich des Plutoniums würde in Reaktoren mit schnellem Neutronenspektrum „verbrannt“ werden. Je nach Wunsch zur endgültigen Beseitigung oder zur Erzeugung neuen Spaltmaterials.

Wie kam es, dass diese Alternative zur Entsorgung des Kernbrennstoffs in Deutschland so in Misskredit geriet?

Es ist klar, dass dieser Weg in Deutschland — in des Wortes Bedeutung — mit aller Gewalt (Wackersdorf) verhindert werden musste, um das zweite Axiom der „Anti-Atomkraft-Bewegung“ von dem nicht gelösten Atommüllproblem zu erschaffen. Würde man zum „integrierten Entsorgungskonzept“ zurückkehren, wäre das zentrale „Totschlagargument“ wie eine Luftblase zerplatzt. Man darf dabei aber nicht die Rolle der Betreiber außer acht lassen. Während die „Autonomen“ über Monate bürgerkriegsähnliche Veranstaltungen am Bauzaun aufführten, ließen die Vorstände Politik und Polizei im Regen stehen. Unter Anstiftung des späteren Rot/Grünen Ministers Müller (parteilos), zog man sich generös zurück. Der Zucker des Umweltministers Trittin mit der „Konditionierung der Brennstäbe“ und deren Endlagerung in Gorleben erschien einfach zu profitabel. Wer anderen eine Grube gräbt, fällt selbst hinein. In grenzenloser Selbstüberschätzung oder Unterschätzung des strategischen Vermögens K-Gruppen-gestählter Politiker, steht man nun vor einem Scherbenhaufen der Nutzung der Kernenergie in Deutschland. 

Bringt man über die Wiederaufbereitung in Spiel muss man nicht lange auf das Totschlagargument des illegalen Plutoniumhandels mit Terroristen und Schurkenstaaten warten. Was ist an diesem Argument dran? Gibt es eine Alternative?

Bisher ist noch keiner den Weg über „Reaktorplutonium“ zur Atombombe gegangen. Er ist einfach zu aufwendig und wenig zielführend. Man ging bei dem Gedanken der Weiterverbreitung vielmehr von der Verbreitung der Technologien zum Bau einer Atomwaffe aus. Wie die Geschichte inzwischen gelehrt hat, war es nicht möglich „Wissen“ geheim zu halten. Heute ist das Wissen der 1940er Jahre überall auf der Welt frei zugänglich. Selbst die Hürde der wirtschaftlichen Leistungsfähigkeit ist, wie spätestens Pakistan und Indien bewiesen haben, sehr klein geworden. Wer zusätzliche Kernwaffenstaaten verhindern will muss andere Wege gehen. Wie ineffektiv das Verhindern von Zugang zu Technologie ist, stellt Iran anschaulich unter Beweis. Weit erfolgreicher erscheinen die Abkommen mit den VAE zu sein. Die Emirate verzichten glaubwürdig auf die Entwicklung von Kernwaffen, in dem sie auf den gesamten Brennstoffkreislauf verzichten und sich Brennelemente quasi nur ausleihen. Dafür erhalten sie internationale Garantien zur Belieferung mit Brennelementen und zur Bereitstellung von Wiederaufbereitung. Bei diesem System ist das Plutonium in den abgebrannten Brennelementen durch die Verunreinigung mit Spaltprodukten sicher geschützt. Bevor dieser „Schutz“ zerfallen ist, werden diese Stäbe wieder zurück in einen Vertragsstaat zur Wiederaufbereitung geschafft. All dies geschieht selbstverständlich ohne Deutschland. Obwohl gerade Deutschland besonderes Vertrauen und Ansehen in der arabischen Welt genießt. Wer nicht so unbedingt gerne mit den USA und Russland kooperiert, muss sich notgedrungen nach Asien orientieren. Europa unter (selbst verursachten) Ausschluss von Deutschland generiert immer mehr zum Bio-Bauern-Hof der Welt.

Sie hinterfragen in ihrem Buch die Forderung nach einem „sicheren Einschluss des Atommülls für geologische Zeiträume“. Weshalb? Welche Rolle ordnen sie der Endlagerung überhaupt zu?

Ich bin grundsätzlich ein Gegner von Endlösungen. Die Kerntechnik hat von Anfang an versucht, den Weg der Abfallentsorgung über Deponien zu verhindern. Der Ansatz von Rot/Grün einfach gebrauchte Brennelemente zu verbuddeln ist der Weg ewig gestriger. Er ist genauso kurzsichtig und unüberlegt, wie die „Müllkippen“ der Vergangenheit. Man kann sich zwar für kurze Zeit entsorgen, hinterlässt aber den Nachkommen einen Haufen Probleme, für den diese meist mit Zins und Zinseszins bezahlen müssen. Ehrlich gesagt, erschüttert mich die Skrupellosigkeit von Politikern, die Probleme erschaffen, nur um mit diesem Vehikel ihre Weltsichten durchzudrücken. Wie gesagt, weltweit hängt nur noch die deutsche Linke an dem Gedanken eines endgültigen Lagers. 

Wagen Sie für uns bitte einen Ausblick in die Zukunft. Ist die Kernenergie auch international Auslaufmodell oder handelt es sich wirklich nur um einen deutschen Alleingang?

Sehen wir es ganz nüchtern. Wir haben Kohle, Öl, Gas und Kernenergie als stets verfügbare Energien. Sonnenenergie und ihre Derivate (Wind, Biomasse etc.) sind nur zufällig verfügbar und somit für eine moderne Industriegesellschaft völlig ungeeignet. Da hilft auch nicht das ewige Gefasel von der Wunderwaffe Speicher, die demnächst zur Verfügung steht und den Endsieg sichert. Tatsache ist, es ist nicht einmal ein neuer physikalischer Speicher-Effekt in den letzten hundert Jahren entdeckt worden. Hinzu kommen neben der ohnehin sehr geringen Energiedichte noch die hin und zurück auftretenden Wandlungsverluste bei der Speicherung. Wenn man fossile Brennstoffe nicht mehr nutzen kann oder will, wie es die Klimapolitik von uns fordert, bleibt überhaupt nur die Kernenergie. Wohlgemerkt, wir reden über die großtechnische Nutzung, die den Energiehunger von Milliarden Indern und Chinesen stillen muss! China hat nicht ohne Grund die Kraftwerkstechnik als eine der drei zentralen Technologiebereiche, also neben Automobilindustrie und Informationsverarbeitung, erwählt.

Wenn wir den Stand der Kerntechnik von heute mit der Entwicklung der Schifffahrt vergleichen, schnauben gerade die ersten Kohle verschlingenden Dampfer über die Weltmeere. Hin und wieder explodiert auch mal ein Kessel, aber der Vorteil der Unabhängigkeit von den Launen des Windes überzeugt immer mehr Reeder. Einige besonders weitsichtige Reeder bestellen die ersten Dampfer mit Ölkesseln. Sie laufen demnächst vom Stapel. Auf den Reißbrettern führender Werften werden bereits ganz neue Antriebskonzepte geplant. Völlig neue Häfen entstehen. Nur Käpt’n Blaubär und seine Gefolgsleute halten Dampfer für Teufelszeug und geben ihnen keine Zukunft.

Aber geht das nicht alles auch ohne uns? Käpt’n Blaubär lebt doch auch in seiner Nische.

Spaß beiseite. Das Zeitalter der Kerntechnik (Uran und Thorium) beginnt gerade erst und wird mindestens die nächsten 500 Jahre die Entwicklung der Menschheit vorantreiben. Es sei denn, die Erde wird von einem Meteoriten getroffen. Ob Deutschland nun mitmacht oder nicht, ist dafür völlig unerheblich. Selbstverständlich kann Deutschland sich zu einem Agrarstaat zurück entwickeln, wenn es Atomangst hat. Allerdings waren die Alleingänge in der deutschen Geschichte nie von langer Dauer und noch viel weniger erfolgreich.
Warum China so massiv in die Kerntechnik einsteigt, liegt nicht nur an dem gewaltigen Energiehunger. China hat erkannt, dass die Kerntechnik die Sperrspitze des Kraftwerks- und Anlagenbaues ist. Gerade die deutsche Industriegeschichte der siebziger bis neunziger Jahre hat das eindrucksvoll bewiesen. Sie besitzt ausdrücklich Vorbildfunktion. Was wäre Werkstofftechnik, Schweiß- und Schmiedetechnik, Regelungs- und Automatisierungstechnik, Sicherheits- und Qualitätstechnik ohne den Anschub aus der Kerntechnik? Insofern ist es folgerichtig für jeden „Gesellschaftsveränderer“ hier den Hebel anzusetzen. Eine zeitlang wird es deutschen Zulieferern noch gelingen vorne mitzuspielen. Langfristig ergeht es ihnen, wie der deutschen Werftindustrie. Wo werden noch mal die Spezialschiffe für Nordsee Windparks gebaut? Richtig, nicht in Deutschland. Deutsche Werften haben längst den technologischen Anschluss verpasst. Sie waren zu lange mit dem Verkauf von Blaupausen in sog. Entwicklungsländer beschäftigt. Schiffbau ist doch Saurier-Technologie aus vergangenen Jahrhunderten.

Nicht nur Umweltschützer fordern den raschen Ausstieg aus der Kernenergie aus Sicherheitsgründen, auch einige Liberale halten die Atomkraftnutzung für wirtschaftlich nicht vertretbar. Ist die Kernenergie tatsächlich nicht versicherbar und nur am Tropf staatlicher Subventionen lebensfähig?

Allein ihre Formulierung „wirtschaftlich vertretbar“ lässt schon tief blicken, finde ich. Für Investoren kommt es darauf an, was die kWh kostet, die in einem Kraftwerk erzeugt wird. Kernenergie ist die zurzeit preiswerteste Methode elektrischen Strom zu erzeugen und das weltweit und im Vergleich zu allen anderen Energieträgern. Deshalb investieren die ölfördernden Länder (Saudi Arabien 16 geplant, VAE 4 bestellt), Kohle fördernden Länder (China, Indien, USA) und selbst die traditionellen Nutzer der Wasserkraft (Brasilien, Schweden, Rußland) mehr oder weniger massiv in neue Kernkraftwerke. Haben Sie eine Erklärung dafür, warum die alle nicht rechnen können sollen bzw. trotz teilweise grundsätzlich verschiedener politischer Systeme trotzdem alle zu ähnlichen Ergebnissen kommen? Warum muss sich sonst die deutsche Linke so viel Mühe geben, immer wieder neue „externe Kosten“ zu erfinden, die angeblich „internalisiert“ werden müssen? Wer behauptet, dass Kernkraftwerke nicht versichert sind? Wenn eine höhere Versicherungssumme gewünscht wird, bitte. Nur macht eine Versicherung nur Sinn, wenn sie im Ernstfall auch zahlen kann. Im Falle solcher „Einzelrisiken“, wie sie Kraftwerke, Staudämme, Chemieanlagen etc. darstellen, lassen sich die laufenden Schadensfälle aber nicht aus den entsprechenden Zahlungsströmen der Prämien decken. Deshalb muss das Geld — auf welche Art auch immer — im Topf sein. Also müssen Rücklagen gebildet werden. Ich möchte allerdings sehen, welcher Politiker dafür auf laufende Steuereinnahmen verzichten will. Ich frage zurück: Welche Versicherungssumme erscheint ihnen angemessen und sinnvoll? Eine Milliarde, hundert Milliarden oder lieber doch gleich 1000 Milliarden? Das Finanzministerium kann ihnen sicherlich die dafür erforderlichen Steuerausfälle ausrechnen. Neu sind solche Rechnungen übrigens nicht, es sind die gleichen Methoden, mit denen auch die „Eigenversicherungen“ bei öffentlichen Investitionen begründet werden. Ich wage zu behaupten, dass gerade die linken Parteien sehr schnell von dieser Forderung abrücken werden. Warum angeblich liberale Politiker auf solche Forderungen hereinfallen, vermag ich nicht mit Sicherheit zu sagen. Am wahrscheinlichsten erscheint mir aber, dass es sich schlichtweg um mangelnde Sachkenntnis handelt.

Was ist von dem immer wieder vorgebrachten Widerspruch zwischen großtechnischer Kernenergienutzung und dezentraler Energieversorgung aus erneuerbaren Energien zu halten?

In der Energietechnik gibt es ausgeprägte Skaleneffekte. Das betrifft ein Kernkraftwerk genau so, wie den Windpark im Meer. Je größer die Anlage, je geringer die spezifischen Kosten für Personal und Material. Die Frage „zentral“ oder „dezentral“ muss daher politisch entschieden werden. Allerdings gibt es bei jedem komplexen System ein Optimum. Der Windpark in der Nordsee, der München mit Strom versorgen soll, ist mit Sicherheit genauso wenig optimal, wie (ausschließlich) Kernreaktoren mit über 1700 MWe. Die Zukunft wird zeigen, wohin die Reise geht. Ich bin allerdings persönlich überzeugt, dass in wenigen Jahrzehnten Kernkraftwerke mit kleiner Leistung als „Blockheizkraftwerke“ für die Metropolen und Industrieparks der Welt noch eine ungeahnte Rolle spielen werden. Aber auch auf diesem Gebiet, ist China nicht untätig. Warum sollten wir auch in zwanzig Jahren nicht unsere Kraftwerke aus China importieren? Klappt doch heute schon ganz gut mit Notebooks und Unterhaltungselektronik. Womit wir die dann bezahlen sollen? Natürlich mit Äpfeln vom Biobauernhof, schließlich müssen die leeren Containerschiffe auf ihrer Rückfahrt ohnehin Ballast aufnehmen. In diesem Sinne, glückliches „atomfreies“ Deutschland, denn diesmal muss der Letzte nicht mal mehr das Licht ausmachen.

Herr Dr. Humpich, vielen Dank für das interessante Gespräch.

Das Interview führte Steffen Hentrich

Das Interview erschien bereits im Juni 2011 bei Freie Welt– Wir betrachten es abe rals sehr wichtig die darin geäußerten Gedanken unserer Leserschaft heute nochmals zugänglich zu machen

"Atommüll: Der Versuch einer Neubetrachtung" bei amazon bestellen

Bog des Interviewten Dr. Klaus-Dieter Humpich hier




Investitionen in Erneuerbare: Zerbröselnde Renditen!

Diverse Qualitätsprobleme mit Solaranlagen

Todd Woody berichtete am 28.Mai in der New York Times über die zunehmenden Probleme mit der Qualität der  Solarmodule, die in den USA installiert wurden (1): Die Solarpaneele, die ein riesiges Warenhaus-Dach in der Region östlich von Los Angeles bedeckten, hatten  erst zwei Jahre ihrer angeblich 25-jährigen Lebensdauer hinter sich, als sie versagten. Schutzschichten lösten sich auf, während weitere Defekte zwei Brände verursachten, die das System  für zwei Jahre außer Betrieb setzten. Es kostete Hunderttausende Dollar an Einnahmeverlusten. Es war kein Einzelfall. Weltweit berichten Testlabore, Entwickler, Finanziers und Versicherer über ähnliche Probleme und sprechen davon, dass die 77-Milliarden-Dollar Solarindustrie eine Qualitätskrise hat.  Ob dieses Problem durchgängig existiert, ist unklar, weil es aus der Industrie keine Zahlen über defekte Solarmodule gibt. Wenn Ausfälle entdeckt werden, verhindern Vertraulichkeitsabmachungen die Veröffentlichung der Namen der Produzenten.

Aber auf dem Spiel stehen Milliarden Dollar, mit denen Solarinstallationen finanziert wurden – von Kraftwerken in Wüstengebieten bis zu Vorstadtdächern – unter der Voraussetzung, dass sie sich ein Vierteljahrhundert lang rentieren, was wohl nicht mehr in allen Fällen zu erwarten ist.

Die Solar-Entwicklungsfirma Dissingo erlebte beträchtliche Ausfälle von Solarmoduln bei ihren Projekten, wie deren Direktor Dave Williams bestätigte. „Ich möchte nicht alarmistisch sein, aber die Qualität stellt eine Langzeitbedrohung dar“, erklärte er.  „Die Qualität ist gefährdet, seit sich die Materialien in den Moduln täglich ändern und die Hersteller die Information darüber verweigern.“

Die meisten Sorgen über die Qualität konzentrieren sich auf China, die Heimat der größten Solarproduktionskapazität weltweit. Nachdem Chinas Solarunternehmen Milliarden  Dollar Schulden machten, um ihre Produktion dermaßen hochzufahren, dass schließlich die Preise der Solarpaneele seit 2009 abstürzten, stehen sie nun unter extremem Druck, ihre Kosten zu senken.

Ein spektakulärer Fall: Chinesische Banken zwangen im März Suntech – bis 2012 der weltgrößte Solarproduzent – in die Insolvenz.

Führungskräfte von Unternehmen, die chinesische Fabriken im Auftrag von Entwicklern und Finanziers inspizieren, teilten mit, dass sie seit 18 Monaten festgestellt hätten, dass selbst die renommiertesten Unternehmen billigeres, nicht getestetes Material anstelle des bisher verwendeten Materials einsetzen. Andere Markenhersteller hätten Fertigungslinien geschlossen und kleineren Unterauftragnehmern die Montage der Module übertragen.

„Wir haben Inspektoren in vielen Fabriken und es kommt nicht selten vor, dass die Produkte großer Markenhersteller in jenen kleinen Werkstätten gefertigt werden, wo es keine Qualitätskontrollen gibt“, sagte Thibaud Lemoine, der General Manager von SRS Certified, einer französischen Testfirma. Als STS 215.000 Module in ihrem Shanghaier Labor 2011 und 2012 untersuchte, sprang die Anzahl der Defekte von 7,8 auf 13 Prozent. In einem Falle, sagte Mr. Lemoine, sei eine komplette Modul-Lieferung eines an der New Yorker Börse notierten Markenherstellers defekt gewesen; er durfte dessen Namen nicht nennen.

„Nach unseren Untersuchungen wechseln einige Hersteller absolut zu billigen chinesischen Materialien, um Geld zu sparen“, erklärte Jenya Meydbray von der kalifornischen Testfirma PV Evolution Labs.

Solar Buyer, ein Unternehmen aus Marlborough, Mass., entdeckte Fehlerraten zwischen 5,5 und 22 Prozent bei der Prüfung von 50 chinesischen Fabriken in den letzten 18 Monaten, teilte Marketing Direktor Ian Gregory mit.

Die photovoltaische Zelle, die einen sehr kleinen Teil des Sonnenlichtes in Strom umwandelt, ist das wichtigste Element eines Moduls.  Aber dessen kritischste Komponenten sind ein dünner Film, der die Zelle vor Feuchtigkeit schützt, und eine Vergussmasse, die die Zelle zwischen Glasschichten versiegelt. Dieses System ist großen Temperaturschwankungen ausgesetzt; agressive Luftschadstoffe greifen es an; die harte Ultraviolettstrahlung der Sonne verursacht molekulare Brüche in den Kunststoffen – Versprödung und Rißbildung drohen. Wenn dann Nässe eindringt, ist das Ende der Lebensdauer erreicht.

Mr. Gregory bestätigte, dass wiederholte Inspektionen herausgefunden hätten, dass einige Hersteller systematisch auf billigere Materialien umgestellt hätten, einschließlich solcher, deren Anwendungszeitraum schon abgelaufen war. „Wenn die Materialien nicht gut oder nicht gründlich getestet sind, haften sie nicht zusammen und das Solarmodul fällt dann vielleicht im Feld auseinander“, sagte er. Genau das geschah 2011 bei einem erst ein Jahr alten Solarkraftwerk in Australien, wie Mr. Meydbray sagte. Tests bestätigten die Verwendung minderwertiger Schutzschicht-Materialien.

In den Niederlanden bestätigte René Moerman vom Versicherer Solar Insurance and Finance,  dass die Ansprüche aus Schadensfällen jüngst um 15% angestiegen seien. Die Inspektion eines britischen Solarkraftwerks hätte ergeben, dass 12% der gerade installierten chinesischen Module versagt hatten. Wiederum verboten ihm Vertraulichkeits-Vereinbarungen die Nennung des Herstellers.

Auch nicht-chinesische Hersteller haben Qualitätsprobleme. First Solar, einer der größten U.S.-Hersteller, hat zur Deckung der Kosten für den Ersatz von 2008 und 2009 produzierten defekten Modulen 271 Millionen Dollar zurückgelegt. Auch die schadhaften  Paneele auf dem Warenhaus bei L.A. (s.o.) stammten  von einem amerikanischen Hersteller.

Die Nennung des Namens dieses Produzenten wurde dem Reporter verweigert….

Das ist offenbar in der Photovoltaikbranche die gängige Methode – und nicht unbedingt ein Anlass für Vertrauen.

Da der enorme Kostendruck anhält, wird sich vermutlich an dieser Situation nur eine Sache ändern: Die Versicherer, die noch im Solargeschäft bleiben, werden wohl ihre Prämien anpassen. Das knabbert an der Rendite.

Mit den Problemen der Hersteller sind die Probleme der Photovoltaik-Anwender aber noch nicht vorbei. Eine sehr ärgerliche Begleiterscheinung ist die Brandgefahr. Schon kleinste Schäden wie Montagepfusch, Marderbisse, Leitungsaufschabungen oder wetterbedingte Abnutzung können unter Umständen einen Brand auslösen. Die hohe Gleichspannung der in Serie geschalteten Module, die bis zu 1000 Volt gehen kann, führt bei einer Leitungsunterbrechung zu einem rund 5000 Grad heißen Lichtbogen, der über Stunden brennen kann (2). Die Feuerwehr ist angesichts der Gefahr durch die Hochspannung sehr zurückhaltend beim Löschen.

Der Solaranlagenbauer Günter Franke, Elektromeister und Sachverständiger für Photovoltaik meint, die Probleme fingen bereits bei der Montage an. „Nach der momentanen Rechtslage darf jeder diese PV-Anlagen montieren, ohne die regeln genau zu kennen. Es wird nicht geprüft, ob derjenige, der es baut, auch weiß, was er da tut“. Franke schätzt, dass circa 80 Prozent der heute (Anm.:Febr.2012) montierten PV-Anlagen nicht den Vorschriften entsprechen. So seien mit der Zeit auftretende Defekte und damit auch mögliche Brandgefahren programmiert. Regelmäßige Überprüfungen der Anlagen durch Fachleute könnten das Problem minimieren. Doch lediglich eine berufsgenossenschaftliche Vorschrift verpflichtet theoretisch den Monteur zur Prüfung.  „In der Praxis wird darauf sehr gerne und häufig verzichtet, einfach aus Profitgier oder um Euros zu sparen und natürlich auch aus Unwissenheit, weil der Installateur dem Kunden die Notwendigkeit der regelmäßigen Prüfungen nicht mitgeteilt hat“.

Solche Überprüfungen würden viel Geld kosten und die Rendite der subventionierten Anlagen meist zunichte machen. Zudem würden Regelverstöße in der Praxis weder verfolgt noch geahndet, so Günter Franke (2).

Auch diese Zustände dürften für die Versicherungen von Interesse sein.

Aber auch seriöse Hersteller sehen sich technologischen Problemen gegenüber, die im Prinzip seit 1987 bekannt sind, die aber erst mit der zunehmenden Anzahl von zusammen geschalteten Modulen ein ärgerliches Ausmaß erreichten: Es ist der sogenannte Hochspannungs-Stress, auch als PID (Potential-Induced Deduction – Spannungs-verursachter Schwund) bekannt, der die Leistung einer Solaranlage unerwartet absacken läßt (3).

PID äußert sich in Leckströmen auf Zell-, Modul- und Anlagenebene und tritt besonders stark auf, wenn Feuchtigkeit im Spiel ist. Der Effekt beginnt bereits bei Spannungen von einigen hundert Volt und verstärkt sich mit der Gesamtspannung einer Modulreihe. Leistungsverluste von 20 bis 30 % sind bei längeren Modulreihen durchaus möglich.

Arbeiten des Solarmodulherstellers Solon ergaben, dass bei PID insbesondere die oberste antireflexive Schicht der Zelle aus Siliziumnitrid eine wichtige Rolle spielt. Solon plädiert für dickere Schichten. Einige Hersteller haben mit entsprechenden Änderungen im Produktionsprozess der Zellen begonnen. Der zweite Ansatzpunkt für PID ist das Einbettungsmaterial, das verhindern soll, dass keine Feuchtigkeit in das Modul gelangt. Auch daran wird gearbeitet.

Vermutlich wird das PID-Problem gelöst; für die Besitzer der in den Jahren zuvor installierten  Solaranlagen ist das allerdings kein Trost.

Ärger steht den Photovoltaik-Besitzern auch durch die Betreiber des Niederspannungsnetzes ins Haus, wenn die immer weiter wachsende Anzahl der Solarstromeinspeiser das dafür nicht ausgelegte Netz überfordert. Denn dadurch kann die Netzspannung über ihren Grenzwert steigen, was zur Zerstörung von Elektrogeräten führen kann, wie das „Handelsblatt“ unter Berufung auf Experten berichtete (4).

Als Beispiel nannte das Blatt die Stadt Fröndenberg in Westfalen, wo in einigen Stadtteilen keine neuen Photovoltaikanlagen mehr ans Netz gehen dürften. Die Aufnahmegrenze sei erreicht, sagte Bernd Heitmann, Chef der örtlichen Stadtwerke der Zeitung. Grund für das Problem sei die ländliche Struktur: Ein weitmaschiges Netz mit dünnen Leitungen verbinde relativ wenige Verbraucher, aber viele Produzenten. Der Knackpunkt seien die Spannungshübe. Vor allem bei Solaranlagen, die bei Sonne schnell besonders viel und bei Bewölkung sofort weniger Strom produzierten, sei dies ein Problem.

Selbst innerhalb der erlaubten Variation der Voltzahl im Netz, die bei +/- 10 Prozent liegt, dürften die Spannungshübe nicht mehr als 2 bis 3 Prozent ausmachen. Werde dieser Wert der Schwankungen überschritten, drohten Schäden, für die der Netzbetreiber verantwortlich gemacht werden könne.

98 Prozent aller Solaranlagen seien an das Niederspannungsnetz angeschlossen. Das führe bei 77 Prozent der Betreiber von Verteilnetzen zu Problemen bei der Integration des Solarstroms, schreibt das „Handelsblatt“. Diese historisch gewachsenen Netze seien nur so dimensioniert, dass sie allein die Last, die der Verbrauch verursacht, tragen könnten, nicht aber die plötzlich auftretende Stromeinspeisung von neuen Erzeugern.

Um die Größenordnung des Problems zu veranschaulichen: Das stets in den Medien genannte Übertragungsnetz, das insbesondere von Nord- nach Süddeutschland ausgebaut werden soll, ist ein Höchstspannungsnetz von bisher 35.000 km Länge. Aber bereits das regionale Hochspannungsnetz (60-100 kV) ist mit 77.000 km mehr als doppelt so lang. Das Mittelspannungsnetz (3 bis 30 kV) hat  jedoch eine Länge von 500.000 km und das Niederspannungsnetz, von dem hier die Rede ist (400 oder 230 Volt Spannung), hat über 1 Million Kilometer. An diesem hängen die Solaranlagen und hier werden die teuren regionalen Probleme verursacht, deren jahrelang andauernde Behebung sich sehr deutlich in den künftigen Stromrechnungen niederschlagen wird (5).

Der vor allem durch die riesige Zahl der im sonnenarmen Deutschland mit Milliardensubventionen  errichteten – zumeist chinesischen – Photovoltaikanlagen erzeugte, vom Gesetzgeber per EEG abgesicherte  Druck auf die regionalen Verteilnetzbetreiber löst  eine ebenso riesige Kostenlawine aus, die vorerst kein Ende hat.

Es ist jedoch absehbar, weil völlig unvermeidlich, dass die nächste Regierung, gleich welcher  Farbkombination,  ihre überfälligen energiepolitischen Reformmaßnahmen vor allem zu Lasten der Photovoltaik  vornehmen wird. Dabei dürften auch Netzausbaukosten und Nachrüstungen für Regeleinrichtungen der PV-Anlagen auf die bestehenden Altanlagen umgelegt werden, weil die noch stärkere Belastung der Verbraucher an ihre Grenze stößt.  Das würde dann die nächste Rendite-Diät sein.

Die beschriebenen Probleme, die selbst die durch eine Zwangssubvention erzeugte künstliche Rentabilität der Solarstromanlagen bedrohen, stellen keine Überraschung dar. Das politisch durchgesetzte Stromerzeugungssystem, das auf die Errichtung von Millionen von Photovoltaikanlagen abzielt, ist wirtschaftlich eine Katastrophe – wie inzwischen weitgehend anerkannt – aber auch technisch unseriös.

Jede einzelne dieser Anlagen erzeugt abhängig vom Durchzug einer Wolke und vom dann wieder einfallenden Sonnenlicht eine vollkommen unberechenbare Folge von Leistungsspitzen und –Löchern.  Laienhafte Betrachter glauben nun daran, dass sich diese Schwankungen gegenseitig ausgleichen würden. Das Gegenteil ist der Fall. Wie auch bei den Windkraftanlagen erhöht sich mit steigender Zahl der Maschinen oder Module  auch die Höhe der Schwankungen – einfach, weil sich nicht nur Leistungsspitzen einer Anlage mit einem zufälligen Leistungsloch einer anderen Anlage gegenseitig ausgleichen, sondern weil sich selbstverständlich auch viele gleichzeitig auftretende Leistungsspitzen aufeinander setzen. Das einzige Gegenmittel wären Stromspeicher, die es aber zu bezahlbaren Kosten nicht gibt.

Eine unzuverlässigere, die Versorgung durch das Netz störendere Methode der Stromerzeugung ist gar nicht vorstellbar. Dass sie auch noch die mit Abstand teuerste ist, macht es nur schlimmer.

Die riesige Zahl der Einzelanlagen führt zwangsläufig auch zu den anderen beschriebenen Problemen:

  • Die Vielzahl der Hersteller führt einerseits zu einer großen Vielzahl von Produkten, die offensichtlich sehr unterschiedliche Qualitäten aufweisen und bei denen von einer langfristig gesicherten, gleichbleibenden und damit berechenbaren Qualität anscheinend bei keinem einzigen Hersteller gesprochen werden kann. Für die Kunden ist die Auswirkung technischer  und organisatorischer Änderungen im Herstellungsprozeß völlig undurchschaubar.
  • Daran schließt sich das offensichtliche Chaos bei der Montage der Module an. Die Spannweite von fachkundiger, solider  Arbeit bis hin zu unprofessionellem Pfusch scheint groß zu sein und die Neigung sowohl bei den Montagefirmen wie auch bei den Kunden zur Einsparung von Kosten hat Folgen.
  • Die nötigen regelmäßigen Überprüfungen werden weitgehend eingespart – ein Lotteriespiel.
  • Das Vertrauen in die Produkte wird durch die von den Herstellern  bisher erfolgreich durchgesetzte Anonymität bei spektakulären Ausfällen unterminiert.
  • Für die Versicherer ist angesichts der Vielfalt der Anlagen und der durch unsachgemäße Montage verursachten Probleme das Einzelrisiko kaum abschätzbar.
  • Für die Finanziers gilt das Gleiche.

Vergleicht man dieses System mit einem Großkraftwerk, dann bietet letzteres nicht nur eine absolut zuverlässige Leistung – das auch noch zu niedrigen Kosten und auf einer minimalen Fläche – es besteht auch ausnahmslos aus penibel geprüften Aggregaten und Bauteilen,  ist solide konstruiert und errichtet und wird regelmäßig überprüft. So etwas nennt man seriöse Technik. Verglichen damit ist die Massenversammlung von Photovoltaikanlagen in Deutschland ein chaotisch entstandenes und betriebenes  System, das durch keine noch so teuren Maßnahmen eine auch nur annähernd gleiche Versorgungsqualität wie die bisher durch Großkraftwerke gewährleistete erreichen kann.

Wir befinden uns im energiepolitischen Schilda.

Nicht erreichbare Renditehoffnungen bei Windkraftanlagen

Windkraftanlagen litten weniger unter Produktionsfehlern als Photovoltaikanlagen. Eine Zeitlang beunruhigte die sogenannte Graufleckenkrankheit die Branche – ein Getriebeschaden, der durch abrupte Belastungsänderungen auftrat. Getriebelose Generatoren umgehen diese Gefahr, sind aber teurer. Bränden in den Maschinenhäusern mußte die Feuerwehr tatenlos zuschauen, weil sie unerreichbar waren.

Was jedoch die Renditen der Windpark-Betreiber deutlich schmälerte und teilweise zunichte machte, waren unrealistische Angaben der Emissionshäuser in ihren Prospekten über die erreichbaren Erträge.

Ein kürzlich veröffentlichter Bericht des Bundesverbands Windenergie e.V. (BWE) zeichnet ein deprimierendes Bild von Versprechungen und Wirklichkeit.  Es folgen Zitierungen (6):

„In den Kapitalanlage-Prospekten der Jahre 2000 – 2005 betrug die Summe der geplanten Ausschüttungen über den Zeitraum von 20 Jahren zwischen 200 –300 % des ursprünglichen Eigenkapitals. Anleger konnten somit über die Rückzahlung ihrer Einlage hinaus mit einem Gesamtgewinn von 100 – 200 % ihrer Einlage rechnen. Die geplante Rendite sollte demnach zwischen 5 und 10% jährlich liegen.“

„Die Emissionshäuser hatten noch bis 2004 regelmäßig Leistungsbilanzen veröffentlicht. Zur Unterstützung ihrer Verkaufsaktivitäten.  Seitdem sind die kumulierten Ergebnisse der meisten Windparks so schlecht geworden, dass sie von den meisten Initiatoren nicht mehr dargestellt werden.  Besonders schlimm traf es die Cuxhavener Firma UmaAG AG, deren Anleger in 2007 und 2008 von ihren 30 Windparks (320 MWp) 13 Windparks mit 142 MWp verkaufen mußten.“

Wegen des Verschwindens der Leistungsbilanzen beschloß der Vorstand des BWE-Anlegerbeirats, systematisch Jahresabschlüsse von Windparks zu sammeln und auszuwerten.

„Für den 10-Jahreszeitraum 2002-2011 ist festzustellen, dass die Windstromerlöse im Durchschnitt nur 86% der prospektierten Umsätze erreichten. In 82% der geprüften Jahresabschlüsse lagen die Umsatzerlöse unter dem Prospektansatz.“

„Hier liegt der Grund für die Misere der kommerziellen Windparks in Deutschland.“

„Die Ursache für die systematische Überschätzung des Windertrags-Potenzials wird von den Planern bei den Windgutachtern gesehen, die ihrerseits auf die überschätzten Index-Werte der Betreiber-Datenbasis BDB (IWET-Index) verweisen. Dieser BDB-Index wurde im Verlauf vieler Jahre mehrmals nach unten korrigiert, zuletzt im Dezember 2011.“

„In den Kapitalanlageprospekten wurden insbesondere nicht die Unsicherheitsbereiche der Prognosen von +/- 10% für den ermittelten Windertrag dargestellt.“ Erst Jahre später erzwangen Prospekthaftungsurteile solche Hintergrundinformationen.

„Die bei den bisher untersuchten Windparks im Schnitt fehlenden Umsatzerlöse von Jährlich 15% gegenüber der Planung haben folgende Probleme erzeugt:

⇒       37% der Jahresabschlüsse zeigten einen negativen cash flow, d.h. die Darlehenstilgungen waren höher als die vom Windpark erwirtschafteten Mittel;

        nur in 35% der Jahresabschlüsse wurden Ausschüttungen von 2% und mehr ausgewiesen.

     Nach den Index-Korrekturen müssen die Ertragswerte der meisten deutschen Inlandswindparks deutlich nach unten berichtigt werden.“

Zu den Betriebskosten: Über das Prüfungsergebnis der Jahresabschlüsse von über 70 Windpark-Gesellschaften, die zusammenhängend über 8 und mehr Jahre vorliegen, wird mitgeteilt:

 Wie zu erwarten war, liegen die echten Betriebskosten oft viel höher als prospektiert, besonders bei Versicherungen und Reparaturen. Die Summe der Betriebskosten ohne Abschreibung und Zinsen betrug 27,5 % der Erlöse.“

Die Schlußfolgerung  von Werner Daldorf :

1.     „Rund die Hälfte aller kommerziellen onshore-Windparks laufen so schlecht, dass die Anleger froh sein können, wenn sie nach 20 Jahren ihr Kommanditkapital zurück bekommen haben.

2.     Bürgerwindparks haben dieselben Probleme. Da sie in der Regel günstigere Herstellungskosten und weniger Bankschulden hatten, sind die Chancen ihrer Anleger auf eine geringe Rendite etwas besser.“

Eine verdienstvolle Untersuchung, die nur leider für etliche getäuschte Anleger recht spät kommt. Im Grunde bewahrheitet sich die alte Regel, dass hohe Renditeversprechen meist unseriös sind – und da machen auch grüne Projekte keine Ausnahme.

Die Risiken der Inland-Windparks sind jedoch nichts im Vergleich zu denen der  Offhore-Anlagen.  Schade, dass es dazu noch keine Bewertung durch den BWE gibt.

Jenseits aller Abschätzung der zahlreichen und handfesten Risiken auf See aber zittern alle vor dem GAU:

Wenn ein großer Öltanker mit ausgefallener Ruderanlage eine Schneise durch einen Offshore-Windpark pflügt. Und die umstürzenden Windkraft-Riesen das Schiff in Stücke schlagen. Die Ölpest, die dann Europas Küsten trifft, dürfte nicht nur Seevögel, sondern vermutlich eine ganze Branche als Opfer fordern.

Lit.:

(1): Todd Woody: “Solar Industry Anxious Over Defective Panels”, The New York Times, 28. Mai 2013,  http://www.nytimes.com/2013/05/29/business/energy-environment/solar-powers-dark-side.html

(2): Reinhard Weber: “Photovoltaik: Brandgefahr”, WDR Fernsehen, Markt, Sendung vom 6.2.2012, www.wdr.de/tv/markt/sendungsbeitraege/2012/0206/03_photovoltaik.jsp

(3): Ariane Rüdiger: „Stromlecks knabbern an Solarrendite“, vdi-nachrichten , 26.8.2011

(4): T-Online: „Solarstrom: Überforderte Stromnetze können Elektrogeräte zerstören“, 18.02.2011,  www.t-online.de/wirtschaft/energie/versorgerwechsel/id-44460600/solarstrom-ueberforderte-stromnetze-knnen-elektrogeraete-zerstoeren.html

(5): Günter Keil: „Die Energiewende ist schon gescheitert“, TvR-Medienverlag, Jena 2012, ISBN 978-3-940431-32-5, Seite 79

(6): Werner Daldorf (Autor) für den Bundesverband Windenergie e.V.: „Praxiserfahrungen mit der Wirtschaftlichkeit von Bürgerwindparks in Deutschland“, 02-2013, www.wind-energie.de

 

Dr. Günter Keil Sankt Augustin, im Juni 2013