1

Christiana im Klima-Wunderland

„Wer Visionen hat, der sollte zum Arzt gehen“ Diesen gutgemeinten Rat des ehemaligen deutschen Bundeskanzlers Helmut Schmidt kennt die Generalsekretärin der UNFCC – United Nations Frame Work Convention on Climate Change; Christiana Figueres vermutlich nicht, den sonst wäre sie nicht zum Vortrag am 3.2.14 in Berlin bei der Hertie School of Governance erschienen, sondern direkt zum Arzt gegangen. So aber ließ sie ca. 120 geladene Gäste – überwiegend jüngere Leute von diversen NGO`s, aber auch ein paar Botschafter von Entwicklungsländern- an ihren Visionen teilhaben.

Ihre Botschaft : Haben wir einmal die große Transformation geschafft, dann wird die Welt ein Wohlfühl- und Wohlstands-Paradies in dem alle und jeder sich seine eigene aber saubere Energie herstellt.

Zuvor aber, das stellte sie in ihrem eloquenten Vortrag fest, gelte es noch eine Riesenhürde zu überwinden. Denn wir dürften nicht nur die 800 Milliarden t CO2 „Guthaben“- dass die Völker ihrer Ansicht nach- noch zur Vermeidung der Weltklimakastatrophe insgesamt gehabt hätten, nicht nur nicht überschreiten, sondern unter Abzug der bereits „verbrauchten“ oder „gelieferten“ – je nach Betrachtung- 500 Mrd t CO2 welche die Industrieländer bereits verbraucht/geliefert hätten, müssten die restlichen 300 Mrd t CO2 den 135 Entwicklungsländern dieser Welt zugute kommen.  Nur dann wäre die magische Grenze von 2 °C Temperatur Zunahme über der vorindustriellen Zeit noch zu vermeiden, das Klima würde dann nicht kippen und die Welt nicht in den Klima-Abgrund stürzen.

Zwar sei das jetzt noch verbliebene Zeitfenster inzwischen fast zu, aber dank ihrer Hilfe und der des UNFCC, des IPCC und aller guten Menschen, die dies auch wollten, würden wir es doch noch schaffen, uns da durch zu „quetschen“.

Weil, so die frohe Botschaft, spätestens 2015 – so hätten sich die Nationen in Warschau geeinigt- ein neues Weltklimaabkommen stehen würde.

Ihre Beobachtung wäre, dass die Regierungen, auf Grund der überall zu spürenden Zunahme von Extrem-Wetter Ereignissen, die fraglos dem Klimawandel zuzuschreiben seien, immer gewillter sind, dieser Tatsache durch ein neues Weltklimaabkommen Rechnung zu tragen. Und das schöne und wichtige daran sei, dass dies nicht ohne eine Weltregierung um- und durchsetzbar sei. Das stellte sie gleich am Anfang ihrer Ausführungen klar. Allein das sei es für sie so wichtig, dass sie sich als Chefin einer UN-Unterbehörde so sehr dafür einsetze.

Um die Entwicklungsländer in die Lage zu versetzen ihre 300 Mrd t CO2 auch ordnungsgemäß zu erzeugen forderte sie: „Dafür brauchen sie unsere technologische und finanzielle Unterstützung.“

Sie müssten also durch die reichen Länder in die Lage versetzt werden, ihren Wohlstand drastisch zu steigern. Deshalb müssten die Industrieländer den bereits beschlossenen Ausgleichsfonds von erhofften 100 Mrd $US jährlich ,auf eine Billion $US jährlich aufstocken. Das sei nur gerecht und das Gebot der Stunde. Sie ließ unerwähnt, dass auch für die beschlossene Summe von 100 Mrd $US, abgesehen von ein paar Zahlungen der EU, noch kein Zahler gefunden worden war. Doch solche Peanuts hält man als gelernter Diplomat nicht für mitteilenswert.

Spätestens hier wurde einmal mehr deutlich, dass Frau Figueres, als Tochter eines ehemaligen Staatspräsidenten des bitterarmen Entwicklungslandes Costa Rica (Welch Ironie: Costa Rica = Reiche Küste) mit knapp 5 Millione Einwohnern, durchaus im eigenen Interesses redete.

Und dann kam die Verheißung, die Vision:

Weil die Industrieländer ganz schnell auf „Erneuerbare“ umsteigen würden und müssten, würde dort auch ungeahnter Wohlstand ausbrechen. Energie gäbe es im Überfluss. Jedes Haus, jeder Wohnblock, jede Fabrik würde dezentral eine eigene saubere weil „erneuerbare“ Energieversorgung haben. Sogar die Autos, so schwärmte die ausgebildete Diplomatin, würden nicht nur elektrisch fahren, sondern auch noch überschüssige Energie abgeben können.

Und all dies sei auf einem sehr guten Weg, denn anders als in Kopenhagen 2009, wo jeder eine großen Vertrag erwartete, aber keiner zustande kam, würde heute Konsens darüber herrschen, dass es 2015 zu einem Vertrag käme. Alle 194 Teilnehmerstaaten, ohne Ausnahme, hätten dem zugestimmt. Grundsätzlich sei sie „optimistisch“, dass die historisch einmalige Transformation, die zur Bewältigung des Klimawandels nötig sei, gelingen werde. „Das Zeitfenster, um das Zwei-Grad-Ziel zu erreichen, schließt sich. Wir müssen uns ein bisschen quetschen, aber wir können es schaffen.“

Die Zuhörer lauschten gebannt. Manche waren regelrecht sprachlos. Denn der Moderator musste seine anwesenden Studenten mehrfach bitten, doch auch ein paar Fragen an Frau Figueres zu stellen. In der folgenden Diskussion ging es u.a. um die Fragen wie der Geldsegen gerecht zu verteilen wäre, auch natürlich an die eine oder andere NGO. Ihre Exzellenzen, die Botschafter lauschten ebenfalls hingerissen dieser Erzählung von der schönen Neuen Klimawelt.

Auf den schüchternen Hinweis des Autors dieser Zeilen, dass die Welt seit 16 Jahren trotz rasantem CO2 Emissionsanstiegs nicht mehr wärmer geworden wäre, wurde er als einer aussterbenden Spezies zugehörig bezeichnet, denn die Wissenschaft sei sich nun mal einig. Daran würden die wenigen „Climate Denier“ auch nichts ändern. Dann folgte von Frau Figueres noch eine nette Pantomime, mit der sie darstellte, dass der Erwärmungstrend ungebrochen sei. Es bedurfte keinerlei Erwähnung – weil das ja Konsens sei- dass CO2 definitiv die Ursache dafür wäre.

Auch mein Hinweis auf die tausende von Wissenschaftlern, die anderer Meinung seien und die über 1000 begutachteten Publikationen, die Gegensätzliches verkündeten, wurde mit der Bemerkung abgebürstet, das IPCC hätte alles, alles dazu überprüft und sei danach zu seinem Urteil gekommen. Basta!

Schöne Neue Klimawelt. es ist doch so einfach!

Nachtrag: Vor mir saß eine nette Reporterin von Klimaretter Info Frau Susanne Ehlerding *, mit der ich mich über das Gehörte ein wenig austauschen wollte. Doch sie brach den Kontakt mit mir brüsk ab, als ich sie bat, mir doch wenigstens einen einzigen Beweis für die Wirkung des CO2 auf das Klima zu nennen. Einziger Kommentar: Das wäre doch wieder ganz typisch, das ich nicht mal daran glaubte. Und wandte sich dann wichtigeren Dingen zu.

* Susanne Ehlerding ist von Haus aus Literaturwissenschaftlerin. Sie hat als Redakteurin beim Nordkurier gearbeitet, als Referentin für Öffentlichkeitsarbeit an der Fachhochschule Neubrandenburg und als freie Journalistin für die Nachrichtenagentur dapd. Heute gräbt sie sich mit Vorliebe in die Bestimmungen des Erneuerbare-Energien-Gesetzes und die Planungen zum Netzausbau ein. Wissenschaftsmeldungen zum Klimawandel sind für sie das Sahnehäubchen im Redaktionsalltag.

Nachrichten an: susanne.ehlerding@klimaretter.info




Wende der „Energiewende“?

Der dreidimensionale Schraubstock der Strompreise

Langsam dämmert es immer mehr Menschen in Deutschland, daß sie durch die ständig steigenden Strompreise mehrfach ausgequetscht werden:

1.     Jedes mal, wenn die Stromrechnung wieder etwas höher ausgefallen ist, geht ein Stück vom Kuchen des eigenen Einkommens verloren. Den Euro, den man an seinen Energieversorger bezahlt hat, kann man nicht noch einmal ausgeben. Nicht für Urlaub usw. — nein, auch nicht für die Anschaffung eines neuen Kühlschrankes mit Energie-Spar-Aufkleber! Mag das Stück vom Kuchen manchem auch klein erscheinen, so ist das sehr relativ: Bei Rentnern, Studenten, Arbeitslosen etc., ist der Kuchen des Familieneinkommens meist recht klein. Strompreise sind sozialpolitisch die Brotpreise von heute! Last euch das gesagt sein, liebe Genossinnen und Genossen von der SPD!

2.     Jedes Unternehmen benötigt elektrische Energie! Die Ausgaben für "Strom" sind genau so Kosten, wie Material und Löhne und müssen damit über die Preise an die Kunden weiter gegeben werden. Hier zahlen wir zum zweiten Mal! Selbst "ökologisch wertvolle Betriebe" sind davon nicht ausgenommen: So macht allein die "EEG-Abgabe" bei den Berliner Verkehrsbetrieben 20 Millionen Euro pro Jahr — Kosten oder Nicht-Kosten — aus. Wie war das doch noch mal, liebe Grün-Alternativen? Sollten wir nicht mehr mit der Bahn fahren? Wegen "Klima" und so?

3.     Kosten sind Kosten. Steigen die Energiekosten, müssen andere Ausgaben gesenkt werden. Das werdet ihr spätestens bei den nächsten Tarifverhandlungen noch lernen, liebe Gewerkschaftsfunktionäre. Vielleicht auch nicht mehr, weil eure Betriebe bereits dicht gemacht haben. Die Goldader, die jedes Unternehmen angeblich im Keller hat, von der ihr nur ein größeres Stück abschlagen müsst, war nur ein Märchen. Sonst hättet ihr das ja auch schon längst gemacht, gelle?

Um es noch einmal klar und deutlich in einem Satz zu sagen: Steigende Energiepreise bedeuten höhere Ausgaben, bei steigenden Preisen und sinkenden Einkommen. Wer das Gegenteil behauptet, lügt! Mögen die Lügen auch in noch so wohlklingende Worte verpackt sein.

Der klassische Verlauf

Es ist immer der gleiche Ablauf, wenn sich Politiker anmaßen, die Gesellschaft zu verändern. Egal, ob über "Bauherrenmodelle", "Filmfonds", "Abschreibungsmodelle für Containerschiffe" oder eben das "EEG". Am Anfang steht eine Vision von einem angeblichen Mangel. Flugs nimmt die Politik einen Haufen fremdes Geld — besser gesagt unser aller Geld — in die Hand und verteilt dieses um. Am unbeliebtesten ist dabei der Einsatz von Haushaltsmitteln — schließlich hat man ja noch eine Menge anderer toller Ideen. Früher waren sog. "Sonderabschreibungen" ein probates Mittel, die Gier zu befriedigen. Leider wurde von den Investoren meist übersehen, daß der Staat nur Steuern stundet, nicht aber verschenkt. Das ökosozialistische Ei des Kolumbus, war die Schaffung eines Schattenhaushaltes in der Form des "EEG", durch "Rot/Grün". Allen Modellen gemeinsam, ist die Gier und Unwissenheit potentieller Investoren.

Aus letzterem Grund ist der zeitliche Ablauf immer gleich: Sobald das Gesetz verabschiedet ist, schlagen die Profis aus den Banken etc. zu. Sie machen tatsächlich Gewinne. Nach einer gewissen Zeit jedoch, sind die besten Grundstücke usw. vergeben. Gleichzeitig steigen durch die erhöhte Nachfrage die Preise der Hersteller. Jetzt schlägt die Stunde des (halbseidenen) Vertriebs. Profis, wie Banken, steigen  aus und verscherbeln ihre Investitionen mit Gewinn an die Kleinanleger. Jetzt werden die Laien skalpiert. Selbst diese Phase geht bei Wind, Sonne und Bioenergie langsam zu Ende. Der letzte Akt beginnt.

Unternehmen, die sich die Sache in ihrer Gier bedenkenlos schön gerechnet haben, gehen Pleite. Die Investoren verlieren nicht nur ihr Geld, sondern leiten eine Abwärtsspirale ein: Ihre Objekte kommen nun auf den Markt und erzielen nur noch reale Preise, die meist deutlich unter den Herstellungskosten liegen. Die Verwerter stehen bereit. Wie schnell die Preise bei Zwangsversteigerungen purzeln, kennt man z. B. von den "Bauherrenmodellen" nach der Wende. Dies betrifft aber nicht nur diese gescheiterten Investoren. Plötzlich machen neue Preise die Runde. Über Nacht ist kein Investor mehr bereit, die überhöhten Preise zu bezahlen. Es entsteht schlagartig ein enormer Kostendruck auf der Herstellerseite. Der größte Teil der Hersteller wird in den nächsten Jahren vom Markt verschwinden. Ganz so, wie die aufgeblähte Bauindustrie nach der Wende.

Interessant ist, wie die eigentlichen Täter, die Politiker reagieren. Sie schreien unverzüglich: Haltet den Dieb! Nicht etwa die "Energiewende" ist schuld, sondern es müssen schärfere Kapitalmarktkontrollen zum Schutz der Anleger her. Man erblödet sich nicht, Jahrzehnte alte Finanzinstrumente (Genußscheine) in Verruf zu bringen. Ganz so, als würde sich ein Schnapsfabrikant hinstellen und die Flaschenhersteller dafür verantwortlich machen, daß sie an den bedauernswerten Alkoholikern schuld tragen.

Die Milderung des Anstiegs oder die Quadratur des Kreises

Eigentlich ist die Sache ganz einfach: Entweder man gibt die Menge elektrischer Energie zu einem bestimmten Zeitpunkt vor und kann sich dann die erforderliche Anzahl Apparaturen und die dafür notwendigen finanziellen Mittel ausrechnen oder man gibt den Zahlungsstrom vor und kann sich ausrechnen, wieviel Strom man dafür erhält. Beides gleichzeitig geht nicht, weil beides streng voneinander abhängt. Soll keiner nachher wieder sagen, man hätte ja nichts davon gewusst oder eigentlich wäre eine "Energiewende" ja ne tolle Sache gewesen.

Der neuerdings propagierte sanfte Ausbau, hat allerdings seine Logik. Es ist die Logik des Machterhalts. Würde man eingestehen, daß die "Energiewende" Unsinn ist, würde man die "systemrelevante" Frage nach der Allwissenheit der Politik stellen. Wenn man einmal zugibt, daß der Kaiser nackend ist, ist die Nomenklatura am Ende. Deshalb muß weiter gelten: Die Partei hat immer recht. Jedenfalls so lange, bis die Mehrheit des Volkes nicht mehr bereit ist, dieses Spiel mit zu spielen. Dann ist wieder einmal "Wendezeit".

Mancher Politiker bekommt langsam Ohrensausen. Wer noch einen Rest von "Kontakt zum Volk" hat, merkt den wachsenden Zorn über steigende Strompreise. Wenn jetzt auch noch die Angst vor dem Verlust des Arbeitsplatzes hinzukommt, könnte die Sache eng werden.

Der Popanz von den bösen Kapitalisten, die ihren Anteil an der "Ökostromumlage" nicht zahlen wollen, kann nur bei besonders einfältigen oder gläubigen Menschen verfangen. Menschen, die etwas aus der Geschichte gelernt haben, sehen die Gefahr der "Ulbrichtfalle" aufziehen: Je mehr Unternehmen ihre Standorte ins Ausland verlagern, um so mehr lukrative Arbeitsplätze gehen verloren. Den Unternehmen werden wieder die Menschen in Richtung Freiheit und Wohlstand folgen. Wie soll der Ökosozialismus reagieren? Mauer und Schießbefehl im Internetzeitalter?

Wie panisch die Reaktion der Politiker wird, zeigt der Plan, auch auf die sog. Eigenstromerzeugung die "EEG-Umlage" zu erheben. Bisher war doch die Kraft-Wärme-Kopplung ein Bestandteil der "Energiewende". Unternehmen, die "energieeffizient" waren, haben sich solche Anlagen gebaut. Oft genug, am Rande der Wirtschaftlichkeit. Jetzt sollen sie mit der "EEG-Umlage" dafür bestraft werden. Natürlich mit einem etwas geringeren Satz. Hier wird wieder einmal unverhohlen gezeigt, daß es gar nicht nicht um Umweltschutz geht, sondern nur darum, "die Belastbarkeit der Unternehmen zu testen". Klassenkampf in Reinkultur. Die gleichen Funktionäre, die immer von dem notwendigen Investitionsschutz säuseln (wenn es um die Photovoltaik auf dem Dach der eigenen Klientel geht), gehen mit Eigentumsrechten bei Kraftwerken locker um — egal ob es sich um Kernkraftwerke oder fossile Anlagen handelt. Langsam, aber sicher, entwickelt sich Deutschland in der Eigentumsfrage immer mehr zur Bananenrepublik. Das Kapital ist aber bekanntermaßen scheu und ängstlich. Deshalb verfällt man immer mehr auf eine "Bürgerbeteiligung". Zu was es führt, wenn sich Banken wegen des unvertretbar hohen Risikos zurückziehen (müssen), sieht man gerade am Fall Prokon.

Die Bedeutung von Leistung & Energie

Leistung (kW) ist leider nicht gleich Energie (kWh). Entscheidend bei der Berechnung der erzeugten Energie aus der Nennleistung einer Anlage (kW) ist die Zeitdauer (h), in der die Leistung des Typenschilds wirksam ist. In Deutschland beträgt diese Zeitspanne bei Photovoltaik deutlich unter 1000 Stunden pro Jahr und bei Windmühlen deutlich unter 3000 Stunden pro Jahr. Will man nun eine bestimmte Menge elektrischer Energie (z. B. 50 % oder gar 100 % des gesamten Stromverbrauches in einem bestimmten Jahr) erzeugen, muß man diesen Wert (kWh/a) durch die "Vollbenutzungsstunden" (h/a) des entsprechenden Verfahrens teilen. Man erhält die Leistung (kW), die mindestens installiert werden muß. Da z. B. die Sonne nur recht selten scheint (nachts ist es dunkel, an vielen Tagen trübe) erhält man sehr große (rechnerische) Leistungen die installiert werden müssen. Dieser Zusammenhang ist trivial, aber ausschlaggebend für das zwingende Scheitern einer Energieversorgung ausschließlich durch "Erneuerbare Energien". Die Sache hat nämlich zwei Harken:

1.     Wenn die Natur keine, dem momentanen Bedarf entsprechende Erzeugung (Nacht, Flaute etc.) zuläßt, muß die elektrische Leistung über konventionelle Kraftwerke bereitgestellt werden. Hierzu zählen auch alle großtechnischen Speichersysteme, da dort die Rückwandlung immer über konventionelle Verfahren führen muß (Wasserkraft, Turbinen etc.).

2.     Wenn der Wind mal richtig weht oder ein strahlend blauer Himmel vorhanden ist, ist die erzeugte Leistung sehr schnell und sehr oft, größer als die gerade im Netz verbrauchte Leistung. Physikalisch gibt es nur drei Möglichkeiten, dem entgegen zu treten: Man schaltet (teilweise) Windmühlen oder Sonnenkollektoren ab, entsorgt den Überschuß in benachbarte Netze oder erhöht künstlich den Verbrauch (Speicher). Es lohnt sich, diese drei Möglichkeiten etwas näher zu hinterfragen.

Immer, wenn man gezwungen ist, Anlagen wegen Überproduktion abzuschalten, wird das für den Stromkunden sehr teuer. Die entsprechende Anlage produziert noch weniger Strom und muß diesen deshalb noch teurer verkaufen um ihre Investitions- und Betriebskosten abdecken zu können. Deshalb hat die Politik den Abnahmezwang eingeführt. Die Kosten werden bewußt auf die Verbraucher abgewälzt, um die Produzenten zu schonen. Man könnte auch sagen, weil sich die "Vollbenutzungsstunden" (h/a) verringern, muß man zusätzliche "Schattenanlagen" errichten, um die angestrebte Energieausbeute zu erreichen. Physikalisch betrachtet, funktioniert das nicht einmal, da man zu jedem Zeitpunkt Produktion und Verbrauch im Gleichgewicht halten muß! Aus diesem Grund hat sich die Politik für den zweiten Weg entschieden. Wenn man etwas nicht gebrauchen kann, nennt man es Abfall. Um Abfall zu entsorgen, muß man immer eine Gebühr entrichten. Dies geschieht an der Strombörse: Die gewaltsame Abnahme geschieht über den Preis. Der Strompreis für den "Alternativstrom" wird stets so niedrig angesetzt, daß er gerade noch einen Käufer findet. Ist die Energie für niemanden mehr etwas wert, muß die Entsorgung sogar bezahlt werden (negative Strompreise an der Börse). Ganz genau so, wie bei der Müllverbrennungsanlage, wo man für die Dienstleistung der Abfallbeseitigung auch eine Gebühr entrichten muß. Der dritte Weg ist uns dadurch bisher erspart geblieben: Man baut zusätzliche Stromverbraucher (z. B. zur Erzeugung von synthetischem Erdgas) und produziert damit sehr teuer ein Produkt, welches ohnehin im Überfluß vorhanden und billig zu kaufen ist. Jedenfalls erheblich billiger, als elektrische Energie! Dieses System verkauft man als "Speichertechnologie", weil man anschließend dieses Erdgas wiederum unter erheblichen Verlusten in Gaskraftwerken verfeuert, die man dringend für die Zeiten der Flaute und Dunkelheit benötigt. Hat es je in der Menschheitsgeschichte eine einfältigere Idee gegeben? Wenn das jemanden an etwas erinnert; richtig, an die Fleischversorgung durch Kleintierhaltung, mittels der Verfütterung von subventioniertem Brot im (realexistierenden) Sozialismus.

Wenn man etwas unter den Gestehungskosten verkauft, nennt man das gemeinhin Dumping. Genau das, geschieht täglich an der Strombörse. Es ist nur eine Frage der Zeit, wie lange sich das unsere europäischen Nachbarn noch gefallen lassen. Mit jeder Windmühle und jedem Sonnenkollektor, die zusätzlich in Betrieb gehen, wird dieses Dumping größer. Die Differenz zwischen Erzeugungskosten und erzielbarem Preis nennt man "EEG-Umlage". Die ungekrönte Königin der Schlangenölverkäufer, Frau Professor Claudia Kemfert, sieht das natürlich ganz anders. In einem Interview vom 27.1.14 in der Zeitschrift Cicero (http://www.cicero.de/berliner-republik/energiewende-atomausstieg-eeg-umlage/56919) antwortet sie auf die Frage nach einer Umstellung der Ökostrom-Umlage in ihrem Sinne:

"Die EEG-Umlage hat sich bewährt. Schon jetzt sinken die Erzeugungskosten für erneuerbare Energien. Trotzdem sollte man die Ausnahmen für energieintensive Industrien endlich auf ein vernünftiges Maß vermindern – allerdings nur für Unternehmen, die wirklich energieintensiv sind und im internationalen Wettbewerb stehen. Im Gegenzug sollte man die Umlage an Gegenmaßnahmen koppeln, wie die Verbesserung der Energieeffizienz. Außerdem muss der Börsenpreis stabilisiert werden: Würde nämlich der niedrigere Börsenpreis für die Erneuerbaren an die Verbraucher weitergegeben, könnte der Strompreis schon heute stabil bleiben, wenn nicht sogar sinken. Dazu könnte man überschüssige Stromkapazitäten aus dem Markt nehmen und den CO2-Preis deutlich erhöhen."

Selten, dürfte es einem Professor gelungen sein, soviel Unsinn, in nur einem Absatz, von sich zu geben. Selbst wenn die Erzeugungskosten (Ausgaben für Kredite, Personal, Wartung, Betriebsmittel etc.) sinken — was sich erst noch zeigen muß — hat das keinen Einfluß auf den Preis. Ein Preis bildet sich aus dem Zusammenspiel von Angebot und Nachfrage. Immer, wenn mehr angeboten wird, als gebraucht wird, sinkt im Handel der Preis. Wenn man sein verderbliches Gemüse überhaupt nicht an den Mann bringen kann, muß man für die Beseitigung auch noch Entsorgungskosten bezahlen — an der Strombörse "negative Preise" genannt. Die Differenz zwischen den Gestehungskosten und dem (erzielbaren) Preis am Markt, nennt man Verlust. Die Verluste müssen aber irgendwie abgedeckt werden, da sonst sind die Windmüller und Sonnensammler in wenigen Wochen pleite wären. Damit genau das nicht passiert, wurde die "EEG-Umlage" geschaffen: Sie legt diese Verluste auf die Verbraucher um. Die Strombörse ist ein hervorragender Anzeiger, für das jeweilige Verhältnis von Stromproduktion zu Stromnachfrage, — ausgedrückt in der Einheit Euro pro MWh. Nicht mehr, aber auch nicht weniger. Je weiter der Börsenpreis unter den Erzeugungskosten liegt, um so größer ist das Überangebot zu diesem Zeitpunkt. Es gibt überhaupt nichts weiter zu geben. Das System ist ja gerade für gleiche Strompreise geschaffen worden: Die tatsächlich erzielten Börsenpreise werden durch die "EEG-Umlage" auf den Cent genau zu den staatlich garantierten Kosten ergänzt. Bisher mußten nur die konventionellen Kraftwerke ihre Verluste selbst tragen. Sie stellen deshalb (einer, nach dem anderen) einen Antrag auf Stilllegung. Die zuständige Behörde stellt dann ihre "Systemrelevanz" fest (irgendeiner muß ja auch Strom bei Dunkelheit und Flaute liefern) und sie bekommen ihre Verluste ebenfalls durch eine (neue) Umlage für die Stromverbraucher ersetzt. Frau Kemfert wäre aber nicht Frau Kemfert, wenn sie nicht ein Interview mit etwas Klassenkampf aufpeppen würde und für "vernünftige" Belastungen der Industrie plädieren würde. Ein richtig rausgehängter Klassenstandpunkt, konnte in Deutschland schon immer mangelnde Fachkenntnisse kompensieren. Ist die Deutsche Bahn mit ihren ICE nun "wirklich energieintensiv"? Dafür steht sie aber nicht so "im internationalen Wettbewerb", wie die Friseurmeisterin in Berlin (70 km von der polnischen Grenze, mit regem Busverkehr zum Polenmarkt mit billigen Zigaretten, billigerem Sprit und allerlei sonstigen Dienstleistungen). Dafür könnte die Bahn wieder durch die "Verbesserung der Energieeffizienz" punkten, sie müßte einfach nur etwas langsamer fahren oder die Zugfolge ausdünnen. Im letzten Satz scheint sie doch noch die Kurve zu kriegen: "könnte man überschüssige Stromkapazitäten aus dem Markt nehmen". Genau richtig, mit jeder Windmühle und jedem Sonnenkollektor die man verschrottet, senkt man sofort und unmittelbar, den Strompreis für die Verbraucher!

Das Märchen von der immer billiger werdenden "Erneuerbaren Energie"

Der Slogan: "Die Sonne schickt keine Rechnung" war nichts weiter, als ein Werbespruch für besonders schlichte Gemüter. Natürlich schickt die Sonne keine Rechnung. Genau so wenig, wie ein Kohlenflöz oder eine Ölquelle. Aber die Gerätschaften zum Einsammeln und Umformen kosten bei allen Energiearten Geld. Nicht der Wind, sondern die Windmühle verursacht die Kosten. Da aber, jede technische Anlage ständig repariert und einst auch erneuert werden muß, wird auch der Strom aus Wind und Sonne nie umsonst sein.Weil von Anfang an, die Herstellung elektrischer Energie aus Wind und Sonne sehr viel teurer war, hat man den Mythos irgendwelcher Lernkurven gepflegt. Selbstverständlich gibt es Lernkurven. Nur sind die — bei Windmühlen ganz offensichtlich — extrem flach. Windmühlen gibt es nämlich schon seit über 2000 Jahren. Ganz anders, als z. B. Computer. Blieb noch die Möglichkeit, mit dem stets kleiner werdenden Abstand zu argumentieren, da ja die anderen Energieträger immer teurer würden. Warum sollten die aber immer teuerer werden, wenn es doch Lernkurven gibt? Logisch, weil die doch endlich sind. Ganz neben bei, ist die Lebensdauer unserer Sonne auch endlich. Eine solche Aussage, ist also ohne die Angabe einer konkreten Lebensdauer, völlig sinnlos. Flugs, ward die Theorie von peakcoal und später peakoil erschaffen. Man setzt einfach die bekannten Vorkommen als einzig und endlich an und kann damit ausrechnen, daß diese schon in "nächster Zeit" erschöpft sind oder doch wenigstens deren Preise explodieren. Wäre vielleicht so gewesen, wenn es nicht den menschlichen Erfindergeist und den Kapitalismus geben würde. Wir haben heute die größten Vorkommen an Öl, Erdgas, Kohle, Uran usw. in der Menschheitsgeschichte, bei gleichzeitig größtem Verbrauch aller Zeiten. Die Primärenergiepreise (zumindest als Relativpreise) werden deshalb eher wieder sinken als steigen. Jedenfalls haben wir auf der Basis des heutigen Verbrauches und heutiger Relativpreise, Vorräte für Jahrtausende. Den Anhängern der Planwirtschaft blieb nichts anderes übrig, als ein neues "Marktversagen" zu konstruieren: Die Klimakatastrophe durch die Freisetzung von CO_2 war geboren. Gut und schön, man hätte unbestreitbar sehr viele fossile Energieträger, könnte die aber gar nicht nutzen, da man sonst das Klima kaputt machen würde. Es müßte daher — möglichst sofort — eine CO_2-freie Stromerzeugung her und da der Markt so etwas ja gar nicht regeln könne, muß der Staat lenkend eingreifen. Als wenn jemals die Planwirtschaft etwas anderes, als Armut und Elend erzeugt hätte! Es wird aber trotzdem für die Schlangenölverkäufer der Wind- und Sonnenindustrie immer schwieriger, den Leuten das Märchen von den billiger werdenden "Erneuerbaren" zu verkaufen. Immer mehr Menschen erinnern sich daran, daß es nachts dunkel ist und manchmal tagelang der Wind kaum weht. Es muß also ein komplettes Backupsystem für diese Zeiten her. Egal ob mit Kohle, Erdgas, Kernenergie oder "Biomasse" betrieben oder als Speicher bezeichnet. Zwei Systeme, sind aber immer teurer, als nur ein System. Immer mehr (denkende) Menschen stellen sich daher die Frage, warum man krampfhaft versucht, unserem funktionierenden und (ehemals) kostengünstigen Stromversorgungssystem, ein zweites — zu dem mit äußerst zweifelhafter Umweltbilanz — über zu stülpen.

Was hat das alles mit Kernenergie zu tun?

Erinnern wir uns an die Zeit unmittelbar nach dem Unglück in Fukushima. Die Kanzlerin wollte einen neuen Koalitionspartner. Nun, den hat sie inzwischen gefunden. Die FDP wollte die Grünen noch links überholen und warf all ihre Wahlversprechen über Bord. Nun, der Wähler hat das demokratisch gewürdigt und sie aus dem Bundestag gewählt. Alle deutschen "Qualitätsmedien" haben gierig die Fieberträume der "Atomkraftgegner" von "Millionen Toten und zehntausende Jahre unbewohnbar" nachgeplappert. Nun, es hat immer noch keinen einzigen Toten durch die Strahlung gegeben, die Aufräumarbeiten schreiten zielstrebig voran und die "Vertriebenen" kehren langsam in ihre alte Wohngegend zurück. Kurz gesagt, das Unglück hat viel von seinem Schrecken verloren, den es für manche, tatsächlich gehabt haben mag. Deutschland ist das einzige Land auf der Welt, das aus der Kernenergie aussteigen will. Inzwischen sind zahlreiche Neubauten beschlossen. Wohlgemerkt nach Fukushima, hat Großbritannien den Neubau einer ganzen Flotte Kernkraftwerke beschlossen. Selbst Schweden — das Ausstiegsvorbild schlechthin — hat vor wenigen Wochen ein über zehn Jahre angelegtes Verfahren zur Bürgerbeteiligung zum Neubau von Kernkraftwerken eingeleitet. Nach Deutschland geh voran, wir folgen dir, sieht das alles gar nicht aus. Wie ist nun die aktuelle Situation in Deutschland? Abgeschaltet wurden die älteren und kleineren Kernkraftwerke. Die Frage der Entschädigung, für diese Enteignungen, ist noch lange nicht durch. Die Streitsumme wird allgemein auf 15 Milliarden Euro geschätzt. Einmal Mütterrente, so zu sagen. Mögen sich deutsche Politiker auch auf ihre Kombinatsleiter und deren Stillhaltung verlassen: Vattenfall ist ein schwedischer Konzern und geht von Anfang an den Weg über die internationale Handelsgerichtsbarkeit. Die Konsequenzen einer internationalen Verurteilung, wegen einer unrechtmäßigen, entschädigungslosen Enteignung, übersteigt offensichtlich das Vorstellungsvermögen deutscher Provinzpolitiker bei weitem. Oder, man geht die Sache anders an. Erst in den nächsten Jahren wird der "Atomausstieg" zu einem echten Problem, wenn nämlich die großen Blöcke in Süddeutschland vom Netz gehen sollen. Dann erst, werden die Strompreise richtig explodieren. Einerseits, weil die immer noch beträchtlichen Mengen "billigen Atomstroms" aus der Mischkalkulation fallen und andererseits, noch sehr kostspielige Umbaumaßnahmen für Netz und Regelung nötig sind. Gnade dem Unternehmen in Süddeutschland, dessen Lieferverträge in den nächsten Jahren erneuert werden müssen. Die immer wieder gern propagierten 5,6 bis 6,6 Cent pro kWh für Industriestrom sind nämlich nur die halbe Wahrheit. Hinzu kommt noch der Leistungspreis für die Bereitstellung. Grob gerechnet, ist der Anteil für Leistung und Energie jeweils die Hälfte der Stromrechnung. Die Eigenversorgung soll ja bald auch kein Ausweg mehr sein. Es wird jedenfalls spannend werden, einen SPD-Energieminister zwischen den Stühlen der Gewerkschaftsfunktionäre und dem linken Flügel seiner Partei schwitzen zu sehen.

Zuerst erschienen bei NUKEKLAUS hier




Erwartung: Der ‚Big Chill’ dauert noch bis 2040

Aktivisten der Klimaänderung behaupten regelmäßig, dass volatile Wetterereignisse zunehmen infolge menschlicher Aktivitäten, die unser Klima beeinflussen, während Skeptiker die Schnee- und Kältewellen der letzten Zeit als weiteren Beweis dafür ansehen, dass die Erde eben kein Fieber hat.

Dr. Tim Ball lehrte viele Jahre lang Klimatologie an der University of Winnipeg und ist der Autor des vor kurzem erschienenen Buches „The Deliberate Corruption of Climate Science“. [etwa: „Die vorsätzliche Korrumpierung der Klimawissenschaft“]. Er nannte es im Interview mit WND-Radio töricht, Schlussfolgerungen zur allgemeinen Klimaentwicklung aus lediglich einem Wettersystem oder einem einzelnen Winter zu ziehen, aber er glaubt, dass der kalte Winter Teil eines Abkühlungszyklus‘ ist.

„Zu Beginn der Abkühlung mäandriert der Jet Stream von West nach Ost in sehr großen Wellen, aber die Amplitude, das heißt die Nord-Süd-Orientierung dieser Wellen nimmt zu. Man nennt das eine Meridionalzirkulation, und darum kommt es zu dieser Rekordkälte wie jüngst in den USA, aber anderswo auch zu Rekord-Wärme“, erklärte Ball.

„Schauen Sie auf Ostaustralien als Beispiel oder auf Sibirien am Anfang des Winters. Daran erkennt man, dass diese Wellen in einem Gebiet arktische Luft weiter in Richtung Äquator führen als zuvor, während in anderen Gebieten warme Luft viel weiter nordwärts vordringt. Darum kommt es zu dieser zunehmenden Variabilität des Wetters“, sagte Ball und merkte an, dass uns die Geschichte nur zu deutlich sagt, was diese Bedingungen bedeuten.*

„Betrachtet man die historischen Aufzeichnungen, und damit meine ich diejenigen der letzten 10.000 Jahre, war diese Verteilung regelmäßig zu Beginn des Abkühlungsprozesses erkennbar. Und genau das wird jetzt auch geschehen. Wir werden diese Abkühlung mindestens bis zum Jahr 2040 behalten“.

Ball zufolge begann die Abkühlung vor etwa 10 Jahren am Südpol, und das Anwachsen des Meereises um die Antarktis seit diesem Zeitpunkt ist der Grund dafür, dass ein Forschungsschiff und später auch ein zur Rettung kommendes Schiff mitten im Sommer der Südhemisphäre im Eis eingeschlossen wurden.

Ball sagte, dass die Abkühlung nicht nur fast 30 weitere Jahre anhalten wird, sondern dass auch die Intensität dieses Abkühlungszyklus‘ bedeuten könnte, dass es zu historischen Kältewellen kommen könnte.

„Es ist eine Debatte darum im Gange, wie stark die Abkühlung ausfallen wird, aber diese ist verknüpft mit Änderungen auf der Sonne, den Sonnenflecken-Zyklen“, erklärte Ball. „Das ist der Haupttreiber langzeitlicher Temperaturverläufe. Die Wissenschaftler, mit denen ich viel zusammengearbeitet habe, gehen ebenfalls von einer Abkühlung bis mindestens zum Jahr 2040 aus, wobei es sicher kälter werden wird als zu Beginn des 19. Jahrhunderts und möglicherweise bis auf ein Niveau, das zu Zeiten der ‚Kleinen Eiszeit‘ vorherrschend war, als im Jahre 1683 die Themse mit drei Fuß dickem Eis bedeckt war“. [3 Fuß = ca. 91 cm].

In „Eco Tyranny“ enthüllt Brian Sussman, wie die Linke erfundene Umweltkrisen dazu benutzt, Kapitalismus und Freiheit zu dämonisieren und absichtlich Amerikas riesige natürliche Ressourcen unter Verschluss zu halten – und wie Präsident Obama diesen Plan anführt (hier).

Betrachtet man diese historischen Aufzeichnungen ist es unabdingbar zu verstehen, wie sich das Klima aus natürlichen Gründen mit der Zeit ändert, sagt Ball, der dafür eintritt, dass es unredlich ist, Klima oder sogar Politik durch gegenwärtige Wetterereignisse zu definieren.

„Der Unterschied ist der Unterschied zwischen Wetter und Klima. Wetter ist das, was man erlebt, wenn man gerade jetzt draußen steht. Es ist eine Kombination  tausender Variablen, alles von kosmischer Strahlung aus den Tiefen des Weltalls bis zu geothermischer Wärme am Grund der Ozeane“, sagte er.

„Klima ist das mittlere Wetter in einer Region oder die Änderung des mittleren Wetters mit der Zeit. Genau das habe ich während meiner gesamten Laufbahn studiert, nämlich Klimaänderung und dessen Änderung mit der Zeit. Der einzige Weg, dies zu tun, besteht darin, zurückzutreten und den Trend zu betrachten“, sagte Ball und fügte hinzu, dass heutzutage viele Wissenschaftler historische Klimadaten einfach dazu missbrauchen, ihre politischen Vorgaben zu belegen.

„Es hängt davon ab, welchen Anfangspunkt man für Temperaturaufzeichnungen oder solchen der Niederschlagsmenge wählt, und an welchem Punkt man endet. Man kann alles beweisen, was man will, wenn man nur entsprechend den Zeitraum auswählt“, sagte Ball.

„Zum Beispiel hat sich die Welt seit dem Jahr 1900 bis etwa 1940 erwärmt. Bis 1980 wurde es wieder kälter. Dann gab es bis 1998 wieder Erwärmung, und jetzt kühlt es sich wieder ab. Man kann sich irgendeine beliebige Periode hieraus aussuchen und sagen ‚da schau her, es erwärmt sich bzw. es kühlt sich ab‘, und dann sagen sie, das wird jetzt immer so weitergehen und es bedeutet das Ende der Welt. Genau das haben diese Leute natürlich mit der jüngsten Erwärmung von 1980 bis 2000 gemacht“, sagte er.

Nach Jahren der Behauptungen, dass es einen unerbittlichen Anstieg der globalen Temperatur gibt, behaupten Aktivisten der Klimaänderung jetzt, dass extreme Hitze, extreme Kälte oder aktive Hurrikan- und Tornado-Saisons allesamt bedeuten, dass menschliche Aktivitäten unser Klima volatiler machen. Ball sagt, dass gute Wissenschaft diese Behauptungen glatt als falsch überführt.

„Tatsächlich ist die Anzahl von Tornados dramatisch zurückgegangen. Die Anzahl der Hurrikane, namentlich solcher, die das US-Festland betroffen haben, ist dramatisch zurückgegangen. Ihre Argumente sind folglich von A bis Z falsch“, sagte er.

„Die vermeintliche Zunahme der Sturmhäufigkeit ist wissenschaftlich falsch, weil sich diese Stürme im Übergangsbereich zwischen kalter polarer Luft und wärmerer tropischer Luft bilden, was im Wesentlichen in den USA zwischen 30°N und 50°N der Fall ist. Nimmt der Temperaturgegensatz an dieser Grenze ab, die man als Polarfront bezeichnet, bilden sich weniger Stürme und nicht mehr“, sagte er. [Dies kann man natürlich sofort auch bei uns nachvollziehen. Stürme bilden sich im Winter bei einem großen Temperaturgegensatz zwischen Äquator und Pol, nicht im Sommer bei verringertem Temperaturgegensatz. A. v. Hans-Dieter Schmidt]

„Das offizielle Argument lautet, dass sich die Polargebiete stärker erwärmen als die tropischen Gebiete, was tatsächlich die Anzahl von Stürmen reduziert. Aber sie behaupten, dass dadurch die Anzahl der Stürme zunimmt“, sagte er. „Es ist einfach ein weiteres Beispiel dafür, wie die Klimawissenschaft für eine politische Agenda missbraucht wird“.

Read more at http://www.wnd.com/2014/01/big-chill-expected-to-stay-until-2040/#QAf4hGbfjhSlqABZ.99

Link: http://www.wnd.com/2014/01/big-chill-expected-to-stay-until-2040/#bXV1Kbu6yeHikqWi.99

Übersetzt von Chris Frey EIKE

*Bemerkungen von Hans-Dieter Schmidt zu diesem Beitrag:

Mein Freund Chris hat mir diesen Beitrag gezeigt, bevor er ihn der EIKE-Redaktion angeboten hat. Ich habe selten eine treffendere Zustandsbeschreibung der Ursache der milden Witterung bei uns in so kurz und prägnant zusammengefasster Form gelesen wie in diesem Absatz. So erklärt sich natürlich der extrem milde Winter bei uns. Solche milden Winter gibt es zwar immer wieder mal, aber nicht mit der „Begleitmusik“ aus anderen Gebieten, die in diesem Winter sogar den Weg in die Nachrichten fanden. Allem voran natürlich der extreme Kaltlufteinbruch im Nahen Osten schon im Dezember zu Beginn des Winters. Aber auch die Rekord-Eisausdehnung der Antarktis auch jetzt kurz vor dem jahreszeitlichen Minimum (hier).

Auch der Umstand, dass Amplitude und Position der langen Rossby-Wellen in diesem Winter eine Konstanz über mehrere Monate (seit Anfang Dezember) aufwies, wobei die Wellenpositionen lediglich ein wenig hin und her „geeiert“ sind, erscheint mir sehr ungewöhnlich.

Fazit für den ganzen Artikel: Alles, was Dr. Timothy Ball hier aus US-amerikanischer Sicht sagt, kann ich für den Raum Europa-Atlantik nur bestätigen. Und haben nicht auch Kowatsch und Leistenschneider in mehreren Beiträgen für das EIKE in Bezug auf Mitteleuropa darauf hingewiesen, dass gerade solche extremen Schwankungen Anzeichen für den beginnenden Kaltzyklus sind?

Dipl.-Met. Hans-Dieter Schmidt




Energiepolitisches Manifest Argumente für die Beendigung der Energiewende (3)

Weitere Speicherkonzepte:

Druckluftspeicher existieren erst in wenigen Prototypen, jedoch sind diese s.g. diabatischen Anlagen bislang von großen Wärmeverlusten gekennzeichnet.  Ihr Speicherwirkungsgrad liegt bei 40-45%. Für Anlagen mit Rückgewinnung eines Teils der bei der Verdichtung anfallenden Verlustwärme – s.g.  adiabatische  Speicher – begannen Entwicklungsarbeiten.  Die Umwandlungs-Wirkungsgrade könnten bei akzeptablen 60-70% liegen; auch niedrigere Zahlen (52-59%) findet man in der Fachliteratur (21). Probleme bereiten noch die nötigen Hochtemperatur-Hochdruck-Wärmespeicher. Mit einer Realisierung und Markteinführung  solcher  Anlagen ist nicht vor 20-25 Jahren zu rechnen.

Pumpspeicherkraftwerke (PSW) im Untergrund:

Die fehlende Möglichkeit, auch nur 10 neue oberirdische PSW in Deutschland zu bauen, führte zu  Überlegungen, das Gefälle zu Grubenräumen des Bergbaus oder zu Salzkavernen zu nutzen. Im erstgenannten Falle ist nur eine maximale Leistung von 50 MW möglich, bei 150 MWh Speicherkapazität – und dies auch nur bei wenigen Einzelprojekten.

Bei Salzkavernen-PSW sind max.120 MW Leistung mit 530 MWh Kapazität möglich; es gibt viele Standorte. Ein Problem wird in der Auskristallisation von Salz aus der gesättigten Sole in den Turbinen gesehen (21). Versuchsanlagen sind noch nicht begonnen worden; auch Planungen sind nicht bekannt.

Ein eher scheinbar plausibler, aber praxisfremder Vorschlag besteht darin, die Antriebsbatterien von Elektroautos – die Regierung hofft auf eine Million bis 2020 –für die Stabilisierung der elektrischen Netze zu benutzen. Das würde die ohnehin schon stark begrenzte Gebrauchsfähigkeit dieser teuren Fahrzeuge, deren Verkauf verständlicherweise auf niedrigem Niveau stagniert, weiter drastisch verringern.

Die von Prof. Sinn dazu vorgelegten Berechnungen (siehe Kapitel 2.4) zeigen die Winzigkeit des hier möglichen Beitrags zur Lösung des Speicherproblems (38).

Oder man glaubt, Norwegen überzeugen zu können, hunderte seiner Gebirgs- und Stauseen mit enormem Aufwand in  Pumpspeicher-Kraftwerke umzubauen, um dann den Strom aus den deutschen Windparks  über Seekabel hin- und herzuschicken. Norwegen tauscht über ein Seekabel schon Strom mit den Niederlanden aus und zeigt bisher kein Interesse daran, das in größerem Umfang auch mit Deutschland zu tun, da u.a. in den kalten Wintern Stauseen zufrieren und Norwegen dann Strom aus Schweden importieren muss – u.a. Kernkraftstrom.

Auch die Speicherung in großen chemischen Batterien wird bei der erforderlichen Größenordnung von 60 GW wegen der extremen Kosten völlig unrealistisch. „Geeignete Lösungen für die Zwischenspeicherung großer Mengen volatiler und nicht planbarer Einspeisungen von Solar- und Windstrom sind nicht in Sicht“ (24).

Eine Variante der Nutzung überflüssigen Wind- und Solarstroms ist beinahe schon kurios: Dieser Strom wird für die noch teilweise existierenden elektrischen Nachtspeicherheizungen offeriert. Die galten bis vor Kurzem als die schlimmsten Energieverschwender. Abgesehen von der Frage, mit welchem Strom diese Heizungen betrieben werden sollen, wenn die EE-Strom-Spitzen ausbleiben, ist dieses Projekt sehr bezeichnend: Die noch immer weiter ausgebauten teuren EE-Anlagen erzeugen immer öfter nicht benötigte Strommengen, die mit ihrer Degradierung in die Energieform mit dem geringsten Nutzwert – Niedertemperaturwärme – verschwendet werden müssen. Die Verbraucher müssen auch das bezahlen.

Diese Betrachtungen machen überdeutlich, wie weit von jeglicher Realität, naturwissenschaftlichen, technischen und wirtschaftlichen Möglichkeiten sich die etablierte Politik, gesteuert von öko-religiösen Gedankengut, entfernt hat und eines der ehemals sichersten und stabilsten Stromversorgungssysteme der Welt an den Rand des Abgrunds fährt. Die Schlussfolgerung von Prof. Sinn:  Wenn man die Kernkraft nicht will, bleibt nur die Rückkehr zur Kohle. Und davon gibt es genügend: Weltvorrat 6500 Milliarden Tonnen bei einem Jahresverbrauch von 8 Milliarden Tonnen (38).

Vorschlag

Einstellen der staatlichen Förderung für alle Entwicklungen, die eine Nutzung oder Speicherung von EE-Überschuss-Strom mittels Elektrolyse,  Wasserstofferzeugung,  Produktion von synthetischem Erdgas (SNG) und Stromerzeugung aus Wasserstoff oder SNG zum Gegenstand haben.

2.6   Konventionelle Kraftwerke:  Unverzichtbar, aber bedroht.

Die gesamte stillgelegte Erzeugungskapazität der deutschen Kernkraft muss durch Kohlekraftwerke ersetzt werden, die allein eine sichere Grundlasterzeugung bieten, wie sie von der Industrie und von den Verbrauchern benötigt wird, – egal, wie viel Wind- oder Solarstromanlagen am Netz hängen.  Zusätzlich sind schnelle Gaskraftwerke erforderlich, um die stark schwankenden Einspeisungen von Wind- und Solarstrom auszugleichen.  Aber gerade dieser schwankende EEG-Strom bedroht die wirtschaftliche Existenz dieser Kraftwerke, ohne die keine stabile Stromversorgung mit viel „Grünstrom“ möglich ist. Der Grund: Die vorrangige Einspeisung des hochsubventionierten „grünen“ Stroms führt zu einem Überangebot an der Strombörse – insbesondere um die Mittagszeit (Solarstrom) – und damit zu einem Einbruch des Strompreises  und einer Verdrängung sowohl der Spitzenlastkraftwerke, aber inzwischen auch der Mittellastkraftwerke und sogar auch der  Grundlast-Kohlenkraftwerke. Das bewirkt  eine starke Reduzierung der Volllaststunden der  konventionellen Kraftwerke und macht dadurch nicht nur sie, sondern ebenfalls die wenigen, extrem wichtigen Pumpspeicherkraftwerke unwirtschaftlich.  Aus diesen Gründen haben mehrere Kraftwerksbetreiber die Stilllegung ihrer Anlagen bei der Bundesnetzagentur angemeldet.  Nach Zeitungsberichten sollen dort Ende Oktober des Jahres 2013 Stilllegungsanträge für  28 Kraftwerksblöcke (Kohle und Gas) mit einer Gesamtleistung von  6990 MW eingegangen sein. Das entspricht der Leistung von 5 großen Kernkraftwerken.  RWE, E.ON, EnBW  und die ENERVIE gehören dazu.

So hat die ENERVIE AG (Südwestfalen) Ende Oktober bei der Bundesnetzagentur ihren kompletten Kraftwerkspark (Steinkohle und Gas) mit rund 1.000 MW zur Stilllegung angemeldet. RWE hatte bereits im Sommer angekündigt, bis 2016 rund 3.100 MW an konventioneller Erzeugung vom Netz zu nehmen.  Im September 2013 waren es bereits 4.300 MW. Weitere Anpassungen würden permanent geprüft. Der Vorstandschef der Kraftwerkssparte RWE Generation sprach von einer „dramatischen Entwicklung“ (11). E.ON-Chef Teyssen warnte vor einem „Wettlauf um Stilllegungen fossiler Kraftwerke“. Die Gewerkschaft Verdi sieht in den kommenden Jahren Zehntausende Jobs in der Energiewirtschaft bedroht.

Der Absturz der Strom-Großhandelspreise ist aber bei den Versorgern noch gar nicht komplett angekommen, weil sie ihren Strom in mehrjährigen Kontrakten im Voraus verkaufen. Trotz der bereits prekären Situation der Kraftwerksbetreiber stehen ihnen die wirklichen Einnahmeeinbrüche also erst noch bevor.

Die kommunalen Stadtwerke sind die ersten Opfer der Energiewende

In der politischen Diskussion über die Energiewende haben besonders die Grünen stets die großen Energieversorger (EVU) als Hauptgegner angesehen und darauf spekuliert, dass der staatlich erzwungene Vormarsch der EE-Stromerzeuger gerade diese Konzerne treffen und schwächen würde. Ein Instrument dieser Strategie war neben dem EEG auch die Idee von einer Übernahme der regionalen Stromnetze durch die Kommunen, wovon man ohne wirklichen Durchblick einfach annahm, dass dies die Kommunen stärken würde. Es gibt dazu Einzelfälle, aber in den meisten Kommunen herrscht ein gesundes Mißtrauen gegenüber derartigen Abenteuern, zu denen der EU-Energiekommissar Oettinger jüngst in Königswinter mit Blick auf entsprechende Hamburger Pläne die Warnung formulierte, dass der Betrieb eines Stromnetzes doch etwas anderes sei als der einer Friedhofsgärtnerei.

Aber die Energiewende hat die Kommunen – und zwar die kommunalen Stadtwerke – bereits in größte Probleme gebracht (57). So erwarte der Stadtwerkeverbund Trianel für das erste Betriebsjahr des neuen Kohlekraftwerks Lünen/Westfalen einen Verlust von 100 Mio. Euro. Trianel werde wie auch die anderen rd. 350 deutschen, selbst Energie erzeugenden Stadtwerke von den abstürzenden Preisen an den Strombörsen getroffen. Diese Wirkung des EEG wurde oben beschrieben.

Scharfe Sparprogramme und Einstellungsstopps seien bei den Kommunalwerken mit ihren bundesweit rd. 140.000 Beschäftigten längst Alltag. Mehrere von ihnen mußten bereits zum letzten Mittel greifen: Ihre verlustbringenden Kraftwerke bei der Bundesnetzagentur zur Abschaltung anzumelden – so in Porta Westfalica, Mainz, Mannheim und Würzburg.  Im Gegensatz zu den großen Konzernen, die Verluste mit Auslandsgeschäften, Kernkrafteinnahmen oder aus anderen Quellen teilweise ausgleichen können, verlieren die Kommunen durch die Stilllegungen eine zentrale Einnahmequelle. Und damit bricht auch ihre jahrzehntelang praktizierte Strategie der Quersubventionierung des öffentlichen Nahverkehrs mit den Gewinnen aus der Energieerzeugung zusammen. Ulms OB Ivo Gönner befürchte, dass die Stadtwerke deshalb demnächst den Nahverkehr ausgliedern würden.

Doppelt betroffen seien die zahlreichen Kommunen an der Ruhr, die am EVU RWE zusammen 20 % halten. Da RWE wegen seiner aus dem gleichen Grund Verluste produzierenden Kraftwerke die Dividende halbierte, kommen auf diese Gemeinden rd. 150 Mio. Euro an Einnahmeverlusten zu. So haben die Grünen und ihre Berliner Mitläufer mit ihrem vermeintlichen Kampf gegen die großen Energiekonzerne ausgerechnet die Kommunen ins Mark getroffen.

Eine weitere krasse Fehleinschätzung, wie so vieles bei der Energiewende.

Um dieser dramatischen Entwicklung einen Verbots- und Genehmigungs-Riegel vorzuschieben – die Behebung der Ursachen wurde selbstverständlich nicht in Betracht gezogen – wurde im Juli 2013 die Kraftwerksreserve-Verordnung erlassen.

·       Nach dieser muss ein Kraftwerksbetreiber ein Jahr vor einem geplanten Abschalttermin einen Antrag bei der Bundesnetzagentur stellen.

·       Wird ein Kraftwerk von dieser als „systemrelevant“ angesehen, erhält der Betreiber eine Entschädigung, die die Verbraucher über die Netzentgelte zu bezahlen haben.

Der Kraftwerksbetreiber soll somit, bis die Bundesnetzagentur eine Entscheidung trifft, weiterhin selbst die Verluste tragen. Das könnte demnächst die Gerichte beschäftigen – siehe das soeben erlassene Urteil des Bundesverwaltungsgerichts in Sachen Biblis-Stilllegung (s. Kap.2.9). Diese Verordnung reiht sich passend in die schon beachtliche Liste von staatlicher Planwirtschaft ein.

„Der für eine hohe Versorgungssicherheit notwendige Bestand an Kraftwerken kann keinesfalls als gesichert gelten“, stellte der Bundesverband der Energie- und Wasserwirtschaft BDEW in einer Analyse fest. Gleichzeitig drohe angesichts unklarer Rahmenbedingungen eine „Eiszeit im Kraftwerksneubau“, sagte BDEW-Vorstandschefin Hildegard Müller (11). Bei immer mehr geplanten oder bereits im Genehmigungsverfahren befindlichen Kraftwerken verzichten die Investoren auf die Umsetzung ihrer Planung. Sogar soeben fertiggestellte modernste Anlagen sind betroffen: Statkraft, der im Staatsbesitz befindliche norwegische Energiekonzern, verzichtete vorerst darauf, ein für 350 Millionen Euro gebautes, nagelneues Gaskraftwerk mit 430 MW in Hürth bei Köln in Betrieb zu nehmen (11). Die Regierung verweist beruhigend auf ihre im Juni verabschiedete Reservekraftwerks-Verordnung. Stillstehende Kraftwerke sind als „Kaltreserve“ vertraglich für einen gelegentlichen Stromengpass zu sichern, natürlich mit Geld, das über die Netzentgelte von den Verbrauchern bezahlt werden muss.  Die notleidende Branche rechnet mit 4 Milliarden Euro jährlich für diesen Stillstands-Luxus (12).

Damit ist jetzt eine Situation erreicht, in der das EEG die gesamte konventionelle Stromerzeugung existentiell bedroht.  Und die Reaktion der Regierung besteht abermals aus planwirtschaftlichen Maßnahmen, d.h. Flicken des angerichteten Schadens durch neue Subventionen.

Vorschlag:

Nötig ist die Abschaffung des EEG mit seiner Vorrangeinspeisung von Strom aus "Erneuerbaren" entsprechend dem Vorschlag in Kap. 2.7 .  Ferner müssen die Anbieter regenerativer  Energie verpflichtet werden, diese ausschließlich bedarfsgerecht einzuspeisen. Die Übertragungsnetzbetreiber (ÜNB) müssen die Befugnis erhalten,  diesen Prozess durch Zulassung oder Ablehnung von Stromeinspeisungen zu steuern – und das im Falle der Ablehnung entschädigungslos. Die für einen dauerhaft stabilen Netzbetrieb benötigten konventionellen Kraftwerke müssen durch ein ausreichendes Kontingent an gesicherten Volllaststunden rentabel gehalten werden, wodurch teure Stilllegungen als „Kaltreserve“ unnötig werden.

2.7  Das Stromnetz wird überfordert

Die Energiewende machte einen gewaltigen  Ausbau des Übertragungsnetzes erforderlich – eine teure Folge der erzwungenen Bevorzugung der „erneuerbaren“ Stromerzeuger, von denen besonders viele Windräder in Norddeutschland errichtet wurden.  Erst spät stellte man fest, dass deren Strom – wenn er denn erzeugt wird – vornehmlich in den entfernten Verbrauchszentren  West- und Süddeutschlands genutzt werden kann – und dass die Höchstspannungsnetze dafür nicht ausgelegt sind. Problematisch ist besonders die für Windkraft typische, oft durch extreme Schwankungen und gelegentlich sehr hohe Leistungsspitzen gekennzeichnete Erzeugung.

Das hat zu einer drastisch angestiegenen Zahl regulierender Eingriffe seitens der Netzbetreiber geführt und ist ein Zeichen für die sinkende Stabilität im Stromnetz. Die Situation wird durch den drohenden Wegfall von Pumpspeicherwerken und Regelkraftwerken wegen Unwirtschaftlichkeit verschärft (siehe Kap. 2.6).

Auch durch die tageslichtabhängige und bei Bewölkung rasch schwankende Stromeinspeisung der Photovoltaik-Anlagen entstehen in den Verteilnetzen Stabilitätsprobleme, die es in der Vergangenheit nicht gab. Die im Vergleich zu den Mittel- und Hochspannungsnetzen weitaus umfangreicheren  Verteilnetze sind, wie das Wort sagt, nur für eine Verteilung der Energie zu den Verbrauchern ausgelegt, nicht aber für eine ungeordnete Stromeinspeisung und z.T. Rückleitung des Stroms über die Ortsnetztrafos  aus einer Vielzahl von Photovoltaik-Anlagen. Das hat schon zu Brandschäden und Ausfall von Ortsnetztrafos geführt. Um das Überschreiten der zulässigen  Netzfrequenz von 50,2 Hertz durch zu große Einspeisung zu verhindern, wurde den Betreibern der Solarstromanlagen der Einbau eines Regelgerätes vorgeschrieben und die Netzbetreiber rüsten Ortsnetztrafos nach.  Die Kosten dafür werden unbemerkt über die Netzentgelte wieder den Stromverbrauchern auferlegt, obwohl sie für diese Störung des Netzes nicht verantwortlich sind. 

Jedes Mal zum Beginn eines strengen Winterausbruchs droht ein großflächiger Netzzusammenbruch, den die Bundesnetzagentur zwar als unwahrscheinlich darstellt, zu dessen Verhinderung sie jedoch die größten Anstrengungen unternehmen muss. Die deutschen Übertragungsnetz-Betreiber setzten in ihrer Leistungsbilanz 2012 die Rate der jederzeit einsetzbaren Leistung zum Abdecken der Spitzenlast zu einem bestimmten Zeitpunkt bei Windstrom auf 1% und beim Solarstrom auf 0 % der installierten Leistung. Das bedeutet, dass diese beiden Stromquellen für die Versorgungssicherheit des Systems, gerade wenn es darauf ankommt, völlig nutzlos sind (24).

Das Fazit von W. Denk von der Alpiq Suisse SA (Erzeuger von Strom aus Wasserkraft, von Wärmeenergie, von „Erneuerbaren Energien“ sowie Energiehandel) lautet: „Windräder und Solarpanels sind gar keine „echten“ Kraftwerke, sondern im Gegenteil eher ein destabilisierender Störfaktor im System, der die Versorgungssicherheit verschlechtert“ (24).

Mit der wachsenden Zahl unzuverlässiger EE-Strom-Einspeiser wächst diese Gefahr für einen Blackout. Wenn weder Sonne noch Wind in kalten Winternächten auch nur den geringsten Beitrag zur Stromversorgung leisten und dann „systemrelevante“ Kraftwerke oder Netzkomponenten ausfallen, tritt der Ernstfall ein, der nicht nur einen unermeßlichen Schaden anrichten würde, sondern wahrscheinlich auch Todesfälle zur Folge hätte. Dieses Vabanquespiel muss ein Ende haben.

Es muss festgestellt werden, dass die geplanten  Ausbaumaßnahmen des Höchstspannungsnetzes sowie die inzwischen ebenfalls als Konsequenz der Energiewende-Politik erkannten noch viel umfangreicheren Ausbau- und Anpassungsmaßnahmen in den weitaus größeren Verteilnetzen

(Hochspannungs-, Mittelspannungs- und Niederspannungsnetze)  völlig unnötig wären, wenn Deutschland eine normale, dem Stand der Technik entsprechende Energiepolitik betreiben würde, wie es in sämtlichen hochentwickelten Ländern eine Selbstverständlichkeit ist. Dieser ebenfalls durch die Energiewende und den Kernkraftausstieg nötig gewordene Aus- und Umbau der Stromnetze verstärkt die Energiewende-Kostenlawine zusätzlich. 

Zu den zahlreichen Reparaturmaßnahmen der verfehlten Energiewende gehören auch die Aktivitäten, die unter der Bezeichnung „Smart-Grid“ und „Smart-Meter“ laufen.

Die Verteil- und Mittelspannungs-Netze sollen zu Smart-Grids aufgerüstet werden, um die Einspeisung und Verteilung des Stroms aus Tausenden von Wind-, Photovoltaik- und Biogasanlagen regeln zu können. Im Ergebnis kann dann auch einen Teil der ansonsten zusätzlichen Freileitungen oder Erdkabel eingespart werden. Dazu ist eine komplett neue durch Informationstechnik überwachte Mess-, Steuerungs- und Regelungstechnik erforderlich. Es handelt sich also auch hier um politisch verursachte Zusatzkosten von gewaltigem Ausmaß.

In einer Berechnung der Investitionskosten für den durch die EE-Einspeiser nötig gewordenen Aus- und Umbau des Verteilnetzes (28) wird die Verringerung der Kosten durch Smart-Grid-Maßnahmen gegenüber einem „klassischen“ Verteilnetzausbau präsentiert: 16,5 Mrd. Euro „klassisch“ gegenüber 13,8 Mrd. Euro „smart“. Das ist eine nennenswerte  Einsparung; verschwiegen wird dabei nur, dass auch diese 13,8 Milliarden weitestgehend unnötig wären, wenn es den extremen Ausbau der sog. erneuerbaren Energien nicht geben würde.

Mit dem Smart-Meter, auch „intelligenter Stromzähler“ genannt, soll das Verbrauchsverhalten der Stromkunden beeinflusst  werden. Zunächst soll der Kunde über eine Marktsteuerung des Stromverbrauchs dazu gebracht werden, dass er seine Elektrogeräte hoher Leistung nur dann einschaltet, wenn die EE-Anlagen genügend Strom liefern. Bei längerer Flaute mit Nebel und Wolken muss er dann eben warten. Es soll eine laufende Preisanpassung des Stroms je nach der gerade zur Verfügung stehenden EE-Leistung erfolgen. Kommt es zu den absehbaren Engpässen, wird auch an IT-gesteuerte technische Eingriffe gedacht, die bis zur Begrenzung oder gar Abschaltung des Stroms gehen.

Zur Umsetzung der Verbrauchssteuerung des Stromes bei den Verbrauchern wurde 2008 die neuen Messstellenzugangs-Verordnung  erlassen und das Energiewirtschafts-Gesetzes (EnWG) novelliert.  Mit Gültigkeit  ab 01.01.2010 besteht die Pflicht, bei Neubauten und Modernisierungs-Maßnahmen Smart-Metering-Geräte einzubauen. Ebenso muß allen Endverbrauchern ein "intelligentes Zählermanagement" angeboten werden. Diese Umstellung soll bis 2016 abgeschlossen sein.

Zu Zwangseingriffen ist jetzt im neuen Koalitionsvertrag etwas zu finden. Dort heißt es, dass 2014 mit dem flächendeckenden „Einbau von intelligenten Zählern zur Ermöglichung von intelligentem Last- und Erzeugungsmanagement“ begonnen werden soll (53). Der SPIEGEL berichtete am 02.12.2013, „der Plan sehe vor, dass zunächst jeder Haushalt acht Euro im Jahr bezahlt, auch wenn er noch mit einem alten Stromzähler ausgestattet ist“. Für Neubauten und Modernisierungen (siehe oben) werden bis zu 72 Euro im Jahr fällig. „Insgesamt 10,4 Milliarden Euro sollen die Bürger aufbringen, um den „Rollout“, wie es in dem Konzept heißt, bis 2022 zu finanzieren“(25). Offensichtlich ist es damit der Industrielobby gelungen, ein energiewirtschaftlich und ökonomisch äußerst fragwürdiges Vorhaben mit Hilfe einer gesetzlichen Regelung als staatliche Zwangsmaßnahme durchzusetzen; ein für die Industrie  profitables Geschäft.

Von großen Einsparpotenzialen, die von der Industrie behauptet werden, ist nichts übrig geblieben, wie ausgerechnet eine für die Arbeitsgruppe im Wirtschaftsministerium erstellte Studie festgestellt hat. „Selbst bei sehr optimistischen Annahmen“, heißt es dort, „kann die Mehrheit der Endverbraucher die für sie damit einhergehenden Kosten nicht durch Stromeinsparungen kompensieren“ (25).

Zur gleichen Bewertung kam der SPIEGEL bereits am 16.8.2010 in einem vernichtenden Artikel mit der Überschrift "Teure Ersparnis".

In der Technik der intelligenten Stromzähler sieht offenbar auch die neue Regierung eine gute Gelegenheit, um unwilligen Bürgern das Stromsparen mit Nachdruck nahe zu bringen. Selbst wenn es in der Sache nichts bringt, dient es doch der Öko-Erziehung der Menschen. In einem Fachartikel schwärmte Thomas Prauße, der geschäftsführende Vorsitzende der Stadtwerke Leipzig GmbH, dass "das eigene Verhalten somit auf objektiver Basis kritisch hinterfragt werden (kann). Eine Visualisierung des eigenen CO2–Ausstoßes ermöglicht eine ökologische Bewertung des eigenen Verbrauchs."  Er träumt nach wie vor von "netzwerkfähigen Haushaltsgeräten", die "zukünftig exakt in den Zeiten betrieben werden, in denen Energie zum Beispiel durch mehr Sonne oder stärkeren Wind günstiger ist. Unabhängig von vordefinierten Zeiten (!) werden Steuerimpulse für die netzintegrierten Haushaltsgeräte abgegeben, um diese einzuschalten."(20). Von den Nutzern dieser Haushaltsgeräte und ihren eigenen Interessen ist bezeichnenderweise gar nicht mehr die Rede. Es fehlt eigentlich nur noch die automatische Abbuchung von Strafgebühren bzw. Ablasszahlungen für Bürger, die ein ihnen vom Staat zugestandenes CO2–Kontingent überzogen haben.

Experten der FH Münster haben jetzt herausgefunden, dass ein Smart-Meter sogar Hinweise liefert kann, welcher Film gerade im Fernseher läuft (25). Unseren Datenschützern ist es womöglich noch nicht aufgefallen, in welchem Maße mit einer derartigen Technik eine Fremdkontrolle der Lebensführung nicht nur möglich, sondern evtl. sogar beabsichtigt  ist.

Vorschlag:

Das EEG ist auch aus den hier genannten Gründen abzuschaffen. Die Sicherheit und Stabilität der Stromversorgung muss durch erweiterte Eingriffsmöglichkeiten der Netzbetreiber gegen destabilisierende und gefährliche Stromeinspeisungen wieder sichergestellt werden. 

Zunächst muss das Kernstück des EEG, die vorrangige Einspeisung  des Stroms, der durch sog. „erneuerbare Energien“ erzeugt wurde, abgeschafft werden.  Auch die im EEG enthaltene Regelung, daß bei einer Ablehnung der Stromeinspeisung  eine Entschädigung gezahlt werden muss, ist zu streichen.

Die o.g. Forderung bezüglich der Abschaffung des EEG gilt entsprechend dem in Kap. 2.2 formulierten Text im „Vorschlag“. 

Die Netzbetreiber erhalten das Recht, bei einem die Netzstabilität beeinträchtigenden Überangebot an Strom die Einspeisung von Wind- und Solarstrom abzulehnen. Sie können das ebenfalls tun, wenn durch ein Überangebot an Strom ein Absinken des Börsenpreises unter die Rentabilitätsschwelle von Kohle-, Gas- oder Pumpspeicher-Kraftwerken eintritt. Damit wird vermieden, daß durch die ungebremste, chaotisch fluktuierende Stromeinspeisung der „Erneuerbaren“ das Kerngerüst einer stabilen Stromversorgung beschädigt wird.  Damit wird auch dafür gesorgt, daß der EEG-Strom nur dann angenommen wird, wenn der Strom auch gebraucht wird.

Über einen eventuell noch nötigen Netzausbau kann erst entschieden werden, wenn die oben beschriebenen erweiterten Eingriffsmaßnahmen der Netzbetreiber ihre Wirkung erreicht haben, wenn sich die abgeschalteten Grundlastkraftwerke sowie ausreichende schnelle Gaskraftwerke für die schwankenden Einspeisungen im Netz befinden und  wenn das Stromversorgungssystem damit sicher und stabil geworden ist.

Die zu befürchtende zwangsweise Einführung der sog. Smart Meter für Bestandsgebäude muss unterbleiben. Für die bereits installierten Smart Meter muss sichergestellt werden, dass die Kosten für die Installation und den Betrieb dieser Anlagen nicht höher sind als die durchschnittliche finanzielle Entlastung der Haushalte durch statistisch belegte Stromeinsparungen. Ferner muss garantiert werden, dass es keine Auswertung des Verbraucherverhaltens  gibt.

2.8   Offshore-Windparks: Die teure Illusion

Der schlecht geplante Aufbau einer riesigen Windpark-Kapazität in der Nordsee brachte sehr bald die Akteure in größte Schwierigkeiten. Die Kabelverbindung zum Festland verzögerte sich bei mehreren Projekten. Ausrüster mussten Verluste hinnehmen. Montageschiffe fehlten. Hafenkapazitäten waren unzureichend.  Sehr bald stellte sich heraus, dass die Planzahlen völlig unerreichbar waren – für die anderen Energiewende-Ziele allerdings ebenfalls typisch.

Zuvor wurden die EEG-Einspeisevergütungen für Offshore-Windanlagen mehrfach deutlich erhöht, um die Industrie zu Investitionen anzuregen:

·       Die 2004 festgelegte Vergütung von 9,1 Ct/kWh reichte noch nicht aus.

·       2009 wurde sie auf 15 Ct/kWh erhöht.

·       Mit der 3. EEG-Novelle 2012 wurde sie auf 19 Ct/kWh gesteigert.

Weiterhin wurden die Kosten der Netzanbindung zum Land nicht auf die Investoren, sondern wieder sofort auf alle Stromverbraucher abgewälzt (15).

Der mit dem Anschluss der Nordsee-Windparks beauftragte und mit Finanzierungsproblemen kämpfende Übertragungsnetzbetreiber Tennet trug in einem Brief vom 20.2.2012 an den Wirtschaftsminister eine Idee vor: Vor weiteren Aufträgen für den Anschluss von Offshore-Windparks müsse es bei der Haftung der Verursacher bei verspäteter Netzanbindung und bei Ertragsausfällen  durch ungeplante Unterbrechungen des laufenden Betriebs neue Regeln geben.  Wo Versicherungen nicht mehr einsprängen, müsse eine „Sozialisierung der Schäden“ ermöglicht werden. Besser konnte man das Abwälzen der Risiken auf die Steuerzahler und Stromverbraucher nicht ausdrücken. Diese dreiste Forderung wurde Realität: Die Regierung  beschloss tatsächlich die „Überwälzung“ auch dieser  Haftungsrisiken auf die Verbraucher per Gesetz.

Mit diesem Paket großzügigster Vergünstigungen auf Kosten der Verbraucher sollten die Investoren ermuntert werden, in die Regierungspläne einzusteigen.

Siehe auch Kap. 2.2 „Planwirtschaft“.

Inzwischen haben sich die Planungen der Regierung auch in diesem Bereich der „Erneuerbaren“, der stets als die große Hoffnung der Energiewende bezeichnet wurde,  als völlig unrealistisch erwiesen:

Das Ziel der Bundesregierung war es, bis 2020 insgesamt 10.000 MW an Offshore-Windkraft zu installieren.

Die Wirklichkeit: Acht erforderliche HGÜ-Verbindungen der Windparks zum Land (HGÜ = Hochspannungs-Gleichstromübertragung) müssen innerhalb weniger Jahre errichtet werden. Sie hätten dann – zusammen mit drei Drehstromverbindungen –eine Gesamtleistung von 6.209 MW (6,209 GW), die voraussichtlich im Jahr 2017 zur Verfügung stehen wird. Dafür sind enorme Investitionen von rd. 7 Mrd Euro erforderlich.

Deutlich kleiner aber wird die Leistung der dann zwölf Windparks sein. Mit ihren 3003 MW können sie die dann verfügbare Kapazität der Hochspannungs-Verbindungen (HGÜ-Anlagen auf See und an Land plus Drehstromverbindungen) nicht einmal zur Hälfte auslasten. Dann werden voraussichtlich hohe Leerkosten entstehen – und von den bis dahin investierten 7 Mrd. Euro ist mehr als die Hälfte nutzlos verschwendet worden.

Zwar sind noch etliche Windparks in der deutschen Nordsee geplant, doch wie viele wann gebaut werden, steht noch nicht fest. (15).

Inzwischen hat die Regierung zurückgesteckt: Im Koalitionsvertrag (Quelle 53, Seite 54) steht nun: „Orientiert an den realistischen Ausbaumöglichkeiten (Anm.: ..die somit zuvor unrealistisch waren) legen wir den Ausbaupfad 2020 mit 6,5 GW fest.“ Bis 2030 solle ein Ausbau von 15 GW erreicht werden. Wie üblich bei gescheiterten Planungen werden anschließend die Subventionen erhöht: Das sogenannte Stauchungsmodell- die erhöhte Anfangsvergütung von Strom aus Windparks – wird um zwei Jahre bis Ende 2019 verlängert. Das läßt den Strompreis weiter steigen.

Es gibt jedoch bei dieser Technik Risiken, die weitaus schwerer wiegen als verschwendetes Geld der Bürger: Bereits Ende 2010 hat Karl-Heinz Schmidt in einem Artikel eine  Reihe von Gefahren und Risiken der Offshore-Windkraft beschrieben (7).

Zitat:

"Ein wesentlicher Teil der zu errichtenden Windparks soll in der Nähe von Haupt-Schiffahrtslinien liegen.  Betroffen sind nicht zuletzt die Verkehrstrennungsgebiete (VTG) in der Nordsee – wobei noch hinzu kommt, daß mit der Einrichtung von Naturschutzzonen der Schiffsverkehr zusätzlich eingeschränkt wird.  Die Lagepläne lassen den Schluss zu, dass mehrere tausend km2 in Nord- und Ostsee in Anspruch genommen werden.

Die Haupt-Schiffahrtswege in der Nordsee haben eine Frequenz von 100.000 Schiffsbewegungen jährlich.  Ein Windkraft-Ausbauziel von 25.000 MW bedeutet 5000 – 7000 Hindernisse in der heute noch freien See". 

"Zu den Windparks ist allgemein ein Sicherheitsabstand von 500 m einzuhalten, der nicht befahren werden darf.  Von den VTG ist ein Mindestabstand von 2 Seemeilen (sm) vorgeschrieben. Wird ein Schiff manövrierunfähig, sind diese Vorschriften bedeutungslos. Eine Kollision ist dann vorprogrammiert.

Ein großer Tanker hat nach Maschinenausfall einen "Bremsweg" von rd. 10 sm.

Im Falle einer Kollision mit einer Windanlage ist zu erwarten, daß die Pfahlkonstruktion am Auftreffpunkt einknickt. Der Aufschlag der Rotorgondel würde voraussichtlich dazu führen, daß ein Tanker an der Auftreffstelle zerbricht; das auslaufende Öl würde die Seegebiete und die Küsten für Jahre belasten.

Im Anschluss an die Strandung der "Pallas" vor Amrum ging die Meldung durch die Medien, daß bereits 30.000 Tonnen Öl genügen, um die gesamte friesische Küste einschließlich des Naturparks Wattenmeer zu verseuchen.

Die Nordsee braucht drei bis vier Jahre, um sich nach einer Tankerkollision vom Öl zu befreien.  Das würde allerdings nicht für das dann zerstörte Weltkulturerbe Wattenmeer gelten. Für die Ostsee ist nach Meinung von Ozeanologen ein Zeitraum von 25 – 30 Jahren anzusetzen".

"Der Deutsche Nautische Verein forderte in einer Presseerklärung ein Umdenken in der Planung der Windparks auf See. Den von der Bundesregierung festgelegten Mindest-Sicherheitsabstand von 2 sm von den Haupt-Schiffahrtswegen halten die Nautiker für zu gering. Auf Grund ihrer Berechnungen der Driftgeschwindigkeit des Havaristen und der Zeit, die ein Schlepper braucht, um den Havaristen zu stoppen, kamen sie auf einen Mindestabstand von 9,2 sm.  Würde das berücksichtigt, könnten auch bereits genehmigte Windparks nicht gebaut werden.“

Schließlich stellt  K.-H. Schmidt die Frage nach dem Rückbau der Seehindernisse nach einer Betriebszeit von 20 – 25 Jahren.  "Ob es technisch möglich ist, den Meeresboden nach Ablauf der Betriebszeit von einer derart gigantischen Beton- und Stahllandschaft zu befreien, müßte eigentlich bereits im Genehmigungsverfahren geklärt werden. Die über den Meeresspiegel hinaus ragenden Betonklötze und Stahlgerüste für alle Zeiten als Schiffshindernisse zu erhalten, ist nicht vertretbar.

Die Kosten für den Rückbau müßte der Eigentümer vor Baubeginn hinterlegen oder durch Bankbürgschaft absichern – andererseits wäre wieder der Bürger der Zahlende". 

Dieses Beispiel zeigt sehr deutlich, wie ernst es der Regierung damit ist, die Bürger vor Risiken zu schützen:

  • Die Kernkraftwerke, denen international anerkannt eine außerordentlich hohe Sicherheit bescheinigt wird,  sollen abgeschaltet werden – mit der Begründung eines Unfalls in Japan, der auf ein extremes Erdbeben, verbunden mit einem  gewaltigen Tsunami zurückzuführen ist.  Das ist in Deutschland völlig ausgeschlossen, was auch der Regierung bekannt ist.
  • Aber die Errichtung hunderter von gefährlichen Hindernissen für die Schifffahrt vor der deutschen Nordseeküste ist eins der wichtigsten Ziele dieser Regierung. 

Vorschlag:

  • Fertigstellung nur noch derjenigen Windparks, die sich bereits im Bau befinden.
  • Widerrufung aller übrigen, bereits erteilten Genehmigungen.
  • Für den Fall, dass dennoch neue Anlagen gebaut werden sollen (z.B. nach richterlichen Entscheidungen):  Hinterlegung einer Bankbürgschaft für die Finanzierung des Rückbaus.

2.9  Kernkraft: Ungeliebt, aber unverzichtbar

Im Gegensatz zu Deutschland, das sich den Ausstieg aus der Kernenergie vorgenommen hat,  läuft fast überall sonst auf der Welt eine mächtige Aktivität zur Verstärkung und auch insbesondere zur erstmaligen Einführung dieser Technologie. Zahlreiche innovative Neuentwicklungen verbreitern das Anwendungsfeld der Nukleartechnik auf sämtliche Bereiche der Energieanwendung.  Zu erwähnen ist insbesondere die Entwicklung von inhärent sicheren und wartungsarmen Kleinreaktoren, die der Nukleartechnik neue Anwendungsfelder vor allem in der dritten Welt eröffnen.

Mit seinem Ausstiegsbeschluss und der sofortigen Stilllegung von 8 Kernkraftwerken mit 8.800 MW Leistung befindet sich Deutschland allein in der Welt. Insbesondere die Schwellenländer haben einen derart großen Bedarf an elektrischer Energie, dass sie nur zwischen Kohlestrom und Kernkraftstrom wählen können. Die größten dieser Länder – China und Indien – haben beide Optionen gewählt und sind inzwischen selbst zu den dynamischsten Entwicklern modernster Nukleartechnik herangereift.

Prof. H.-W. Sinn wies in seinem Vortrag darauf hin, dass allein China jeden Monat einen neuen Kernreaktorblock ans Netz bringt – und im übrigen auch ein neues Kohlekraftwerk pro Woche. In Planung befänden sich 308 KKW (38).

Der überstürzte und ausschließlich mit Angstargumenten begründete Kernkraft-Ausstieg bringt die Regierung aber nicht nur wegen des erzwungenen Wegfalls einer extrem wichtigen, kostengünstigen und emissionsfreien Grundlastkapazität in Schwierigkeiten. Mit dieser willkürlichen Vernichtung von milliardenschweren Vermögenswerten der Kraftwerkseigentümer ging sie leichtfertig auch ein juristisches Risiko ein, das nun zu einem finanziellen Desaster zu werden droht: Auf Grund einer Klage der RWE hat das Bundesverwaltungsgericht die Stilllegung des KKW Biblis  für nicht rechtsmäßig erklärt. Dem Land Hessen habe die Rechtsgrundlage für die vorübergehende Stilllegung des Blocks A und die endgültige Abschaltung des Blocks B gefehlt (AZ: 7 B 18.13).

Das Land Hessen muss RWE voraussichtlich Schadenersatz in dreistelliger Millionenhöhe zahlen.

Damit ist möglicherweise auch die von der Bundesregierung verordnete Stilllegung der anderen sieben Kernkraftwerke ohne Rechtsgrundlage erfolgt. Die Betreiber der KKW könnten früheren Berichten zufolge 15 Milliarden Euro Schadenersatz geltend machen. Die Unternehmen sind ihren Anlegern gegenüber verpflichtet, Schadenersatz geltend zu machen, wenn Rechtsbruch vermutet wird; andernfalls könnten die Manager von ihren Anlegern der Untreue beschuldigt werden. (52)

Mit dem vorzeitigen Abschalten seiner Kernkraftwerke verzichtet Deutschland – bei einer Betriebsdauer von 60 Jahren – auf rund 4.000 TWh = 4 Millionen GWh umweltschonender und preiswert erzeugter Energie.(24)

Für den Gegenwert der bis Ende 2012 bezahlten und zugesicherten EEG-Einspeisevergütungen hätten in Deutschland so viele moderne Kernkraftwerke gebaut werden können, dass diese über 70% der Stromproduktion abdecken würden. Damit hätte Deutschland einen so CO2-armen Strommix, wie ihn die Schweiz bereits heute hat: Ca. 35 g Treibhausgas-Emissionen pro kWh – anstelle von jetzt 640 g/kWh. (24)

Die schwarz-gelbe Regierung hat sich für oberirdische Atomendlager in Deutschland entschieden

Im Jahre 2000 wurde die Erkundung des Salzstocks Gorleben von der Regierung gestoppt – das sog Moratorium. Damals hätte es nur ca. vier Jahre weiterer Erkundung bedurft, um eine abschließende Eignungsaussage über den Salzstock als Endlager finden zu können (37). Eben das wollte man nicht. Diese jahrelang kontrovers diskutierte und von mehreren Bundesregierungen verzögerte  Frage der Endlagerung hochradioaktiver Reaktorabfälle wurde schließlich von der letzten Bundesregierung mit einer Täuschung der Öffentlichkeit beantwortet: Mit dem Standortauswahlgesetz (StandAG) wurde festgelegt, dass die tatsächliche Standortentscheidung frühestens für 2031 vorgesehen ist. Dieser Termin dürfte sich noch erheblich verzögern. Danach folgt zwangsläufig ein Streit zwischen den Bundesländern, in denen geeignete Standorte markiert wurden – nach dem Prinzip „Nicht bei uns !“. Gleichzeitig bilden sich an den möglichen Standorten Bürgerinitiativen gegen ein Endlager – es wird mehrere „Gorleben“ geben. Ob dann am Ende, also nach 2040, tatsächlich ein Endlager bestimmt worden ist und mit dem Bau begonnen wurde, ist unklar. Falls der Bau tatsächlich 2040 beginnt, dauert er mindestens 10 weitere Jahre – dann schreibt man das Jahr 2050 – oder auch 2055. Es werden zusätzliche Kosten von mehreren Milliarden Euro entstehen (K. Tägder).

Mindestens bis zu diesem Jahr 2050 werden folglich sämtliche hochradioaktiven Nuklearabfälle, deren Masse bis dahin erheblich weiter angewachsen sein wird,  mangels eines unterirdischen Endlagers oberirdisch in Zwischenlagern – also Lagerhallen – „endgelagert“. Dies wollte die Regierung bislang unbedingt vermeiden. Wie eine Regierung die Verewigung dieses unhaltbaren Zustands jetzt verteidigen will, die bei ihrer Entscheidung im März 2011 zur sofortigen Stilllegung von 8 Kernkraftwerken vor allem mit der Gefahr eines Flugzeugabsturzes auf einen Kernreaktor argumentiert hatte, ist eine interessante – bislang noch nicht beantwortete – Frage.

Die Kerntechnik ist niemals mit dem Ziel einer CO2 –Vermeidung entwickelt worden, ihre minimalen Emissionen sind nur ein Nebenprodukt. Wer allerdings die Klima-CO2-Warnungen ernst nimmt, sei darauf hingewiesen, dass die weltweit arbeitenden Kernkraftwerke 2012 etwa 2,4 Milliarden Tonnen CO2 –Emissionen (von insgesamt ca. 33 Mrd t) vermieden haben (13 ).

Vorschlag:

·       Der Ausstieg aus der Kernkraft wird gestoppt. Es wird keine weitere vorzeitige Abschaltung von Kernkraftwerken geben. Für die derzeit noch in Betrieb befindlichen KKW werden wie bisher schon weitere zweckmäßige Modernisierungsmaßnahmen ihrer Sicherheitseinrichtungen vorgenommen.

·       Die Brennelementesteuer wird abgeschafft.

·       Die  Anfang 2011 beschlossenen Laufzeitverlängerungen werden für die derzeit laufenden KKW wieder in Kraft gesetzt. Damit entfällt die ansonsten unvermeidbare Notwendigkeit, als Ersatz der fehlenden Grundlast-KKW neue Kohlekraftwerke in größerem Umfang zu bauen und Kraftwerksbetreiber zum Weiterbetrieb unrentabler Kohlekraftwerke zu zwingen.

·       Die bereits stillgelegten Kernkraftwerke sind in einem Zustand zu erhalten, der eine spätere Wiederinbetriebnahme ermöglicht. Sie stellen eine wertvolle Kraftwerksreserve dar, die noch ca. zwei Jahrzehnte lang einsetzbar ist und Deutschland die Rückkehr zu einer rationalen Energiewirtschaft ermöglicht.

·       Die Bundesregierung beginnt, sich an der Entwicklung fortschrittlicher Reaktortechnologien der 4. Generation zu beteiligen und tritt – wie alle anderen Industrieländer – der Internationalen Arbeitsgemeinschaft bei, die dieses Ziel verfolgt.

·       Das Standortauswahlgesetz ist auszusetzen. Die ausstehende Eignungsaussage für den Salzstock Gorleben ist nachzuholen. Bis zum Vorliegen des Ergebnisses dürfen keine Mittel für andere Standorterkundungen ausgegeben werden. Bei für den Standort Gorleben positivem Ausgang ist das Planfeststellungsverfahren einzuleiten.

Nur mit der Verwirklichung dieser Vorschläge kann erreicht werden, dass die deutsche nukleare Sicherheitsforschung auch für die in der Entwicklung befindlichen Reaktortechnologien wettbewerbsfähig und kompetent bleibt, wenn diese Technologien weltweit in den Markt eingeführt werden. Ohne eine solche aktive Mitarbeit würde die noch vorhandene wissenschaftliche Kompetenz aus Deutschland verschwinden.

2.10   Shalegas:  Die vertane Chance

Die neue Bohr- und Erschließungstechnologie (ein Teil davon ist das sog. Fracking) für die riesigen, lange bekannten, aber bislang unzugänglichen Shale-Gas-(Schiefergas)-Vorkommen hat in den letzten Jahren eine Revolution auf dem Weltenergiemarkt ausgelöst.

Die Internationale Energieagentur rechnet mit Vorräten in der Höhe des 250-fachen Jahresverbrauchs in der Welt. Sie spricht in ihrem World Energy Outlook gar von einem „goldenen Zeitalter“ für Erdgas. Sie geht von einem jährlichen Nachfrage-Anstieg von 2 % bis 2035 aus. Vor allem bei der Stromerzeugung und der Wärmeversorgung löse Gas andere Brennstoffe ab.

Bereits jetzt decken die USA, wo Shale-Gas in großem Stil gefördert wird,  inzwischen ihren Gasbedarf aus eigenen Quellen und beginnen mit Erdgasexporten. Amerika hat inzwischen Russland als weltgrößten Gasproduzenten abgelöst.

In NRW  werden die zweitgrößten Vorkommen Europas vermutet.  In NRW und Niedersachsen suchen etwa zwei Dutzend Konzerne nach wirtschaftlichen Vorkommen. Es wird jedoch noch Jahre dauern, bis die Daten aus den Probebohrungen ausgewertet sind.

In Deutschland hat die Regierung in Reaktion auf eine an Ängste appellierende Argumentation der Grünen, die von den Medien übernommen und verbreitet wurde, eine weitgehend ablehnende Haltung eingenommen. Unter größeren Auflagen werden eventuell Probebohrungen erfolgen. An eine großtechnische Nutzung dieser wichtigen Ressource ist gegenwärtig nicht zu denken.

Vorschlag:

·       Die bedeutenden Chancen, die sich durch die hiesigen unkonventionellen Erdgasvorkommen (sog. Shalegas) für die Verbesserung der Energieversorgung bieten, müssen konsequent genutzt werden, wobei die Beachtung von umweltgerechten Fördermethoden – die bereits bekannt und erprobt sind – eine Selbstverständlichkeit ist. 

·       Eine Behinderung der Erschließung dieser Ressourcen muß unterbleiben.

2.11   Ohne Rücksicht: Die Energiewende als nationaler Alleingang

Bereits die älteren Ansätze für den Umbau der deutschen Stromversorgung wurden als nationaler Alleingang verfolgt. Den durch ein Verbundnetz mit Deutschland in der Stromversorgung eng verbundenen Nachbarländern sollte Deutschland als großartiges Vorbild präsentiert werden. Von der nötigen Kooperation war nichts zu sehen. Diese Haltung erreichte ihren extremen Höhepunkt mit der ohne jegliche Vorwarnung oder gar Konsultation durchgeführten Abschaltung von 7+1 Kernkraftwerken, was schlagartig dem europäischen Stromverbund 8.400 MW an Grundlaststrom entzog. Dies geschah, obwohl klar war, dass dieser von dem drastischen Eingriff in den europäischen Strommarkt erheblich betroffen sein würde.

Deutschland wurde quasi über Nacht zu einem Importland für Grundlaststrom – überwiegend Kernkraftstrom aus Frankreich und Tschechien – und exportiert seither in zunehmendem Maße überflüssige Windstrom-Leistungsspitzen, die die Netze der Nachbarländer stören. Polen und Tschechien planen bereits technische Abwehrmaßnahmen.                                          

Im Fortschreibungsbericht der Bundesnetzagentur zum KKW-Moratorium konnte die Bundesregierung bereits am 27. Mai 2011 nachlesen, was sie bei ihren Nachbarn angerichtet hatte: „Bei einer dauerhaften Stilllegung der acht Kernkraftwerke des Moratoriums kann Deutschland schon heute nicht mehr im bisherigen Umfang als eine der Stützen der Versorgungssicherheit im europäischen Verbund auftreten. Dies ist im Hinblick darauf, dass Nachbarländer auf den deutschen Export gebaut und sich darauf verlassen haben, nicht unproblematisch“.

Inzwischen haben die deutschen Eskapaden im Stromsektor auf die Nachbarländer  deutliche Auswirkungen unterschiedlicher Art:

  • Frankreich und Tschechien exportieren mehr Kernkraftstrom nach Deutschland.  Kernkraftwerks-Neubauten in beiden Ländern sind auf noch höhere Exporte ausgerichtet.
  • Pumpspeicherkraftwerke in der Schweiz werden durch das von Deutschland kommende Überangebot an Solarstrom unrentabel.
  • In den Niederlanden sinkt zeitweise der Strompreis durch das per EEG subventionierte deutsche Wind- und Solarstrom-Überangebot, für dessen Export die deutschen Netzbetreiber sogar Zuzahlungen (im EEG „negative Preise“ genannt) leisten müssen, damit es überhaupt abgenommen wird. Gleichzeitig geraten dadurch holländische Kraftwerke in die Verlustzone.
  • Bei Engpass-Situationen beansprucht Deutschland kurzfristige Reservestromlieferungen von seinen Nachbarn – und muss dafür horrende Preise zahlen.
  • Polen will sich vor den sein Stromnetz störenden Windstrom-Spitzen schützen und plant Abwehrmaßnahmen an der Grenze (Einsatz von Phasenschiebern).
  • Es wächst die Furcht vor einem großen Blackout in Deutschland, der die Nachbarländer in Mitleidenschaft ziehen würde.

2.12         Die Energiewende bedroht den Naturschutz

In den vergangenen Jahren ist es immer klarer geworden,  dass   mit der Energiewende eine in Deutschland noch niemals dagewesene Schädigung der  Natur  verbunden ist.

Der Grundidee, der diese politisch gewollte Zerstörung des bewährten Stromversorgungs-Systems und der Aufbau eines weitestgehend auf sogenannten „Erneuerbaren“  beruhenden Systems mit ihrem entscheidenden Instrument EEG dienen sollte, nämlich die Umwelt   zu schützen, wurde das  nur ganz am Beginn dieser Entwicklung gerecht. Jede Energietechnik, auch die "grünen", deren Potential in die Leistungsregion von hunderten von Megawatt geht oder darüber ausgebaut wird, wird damit zwangsläufig zu einer von Umweltschützern stets verdammten „Großtechnologie“ – mit  in diesem Falle neuen, schweren Nachteilen, wie sie die konventionelle Stromerzeugung nicht kannte. Neben dem erhöhten  Rohstoff- und Energieverbrauch für die Produktion von Windrädern und Photovoltaikanlagen, den massiven Umweltbelastungen durch schädliche chemische Emissionen bei der Solarzellenherstellung und dem Flächenverbrauch  von Solar-Freiflächenanlagen und Windrädern gibt es noch weitaus gravierendere Umweltschäden:

  • Die Biomasseproduktion im industriellen Maßstab zur Herstellung von „Biogas“ (Methan) und sog. Biotreibstoffen stellt eine gigantische Inanspruchnahme von Fläche von Fläche für den Anbau von Mais, Raps und anderen Energiepflanzen dar.  
  • Diese Monokulturen erfordern nicht nur extreme, gewässerschädliche Düngung, sondern verursachen auch einen gravierenden Verlust an Biodiversität. Letzteres hat zur Folge, daß natürliche Feinde der  Schädlinge keine Lebensgrundlage vorfinden – was zu vermehrter Pestizidanwendung führt.

·       Landwirte haben jetzt keine Chance mehr, zu erträglichen Preisen Agrarflächen zu pachten, weil der

·       hochsubventionierte Energiepflanzenanbau diese stark verteuert hat.

·       Die Inanspruchnahme von Agrarflächen für den Energiepflanzenanbau – dabei auch z.B. für Ölpalmplantagen in Indonesien, deren Produkte u.a. im deutschen Biotreibstoff landen – führt weltweit zu einer Verknappung der Anbauflächen für Nahrungsmittel und damit zu Preiserhöhungen. Daraus entstand der Vorwurf der unethischen Handlungsweise.

·       Der ungehemmte Ausbau der Windkraft hat sich schon jetzt zu einer extremen Umweltbelastung entwickelt. Die Lärmerzeugung durch die immer größeren Rotoren wurde zur unerträglichen Belastung für die Menschen, die im Wirkungsbereich dieser Anlagen leben müssen. Die von der Politik unlängst beschlossene  Errichtung von Windrädern in Wäldern hat große Kahlschläge für Schneisen,  Zufahrtswege  und Kabel zur Folge. W. v. Peterdorff schreibt dazu in der FAZ: „Die Windenergiefirmen verkaufen inzwischen Anlagen, die…200 Meter überragen. 40 Meter höher als das Ulmer Münster, das welthöchste Kirchengebäude. Die neuen Anlagen stehen damit inzwischen jenseits jeglicher natürlicher Landschaftsproportion. Die Massivität dieser Anlagen wird auch deutlich beim Gewicht. Marktführer Enercons größter Typ E 126 wiegt knapp 7000 Tonnen, ein Rotorblatt allein fast 65 Tonnen. Die Anlage braucht ein Betonfundament aus 1400 Kubikmetern Stahlbeton. Für Waldstandorte bedeutet das zwangsläufig, dass sie große Schneisen bekommen mit breiten, gut befestigten Wegen, die die Tonnenlasten aushalten. Weitere Schneisen sind dann für die Leitungen nötig. Dazu kommen auf Dauer versiegelte Flächen für die Stellflächen und die gewaltigen Betonfundamente.“ (31)

·       Diese Riesenwindräder werden in den Wäldern keine Ausnahmen sein, im Gegenteil: Weil im Binnenland die Windgeschwindigkeiten viel geringer als an der Küste sind und nach den Gesetzen der Physik die halbe Windstärke nur noch ein Achtel der Leistung bringt, müssen dort besonders große Anlagen errichtet werden, um überhaupt noch nennenswerte Stromerträge zu erhalten.

·        Der Betrieb von Windkraftanlagen verursacht aber auch erhebliche Verluste an Greifvögeln und Fledermäusen, wie Naturschützer beklagen. Insbesondere der geschützte Rotmilan ist gefährdet, weshalb er jetzt zum Symbol des Kampfes der Bürgerinitiativen gegen die Windkraft geworden ist.

·       Im Quellenverzeichnis (32 – 36) findet man Zugang zu den über 700 Bürgerinitiativen, die gegen die Errichtung von Windkraftanlagen und Windparks in ihrer Heimat kämpfen.

Man hat am Ende nur  lediglich befürchtete Umweltprobleme gegen neue, und zwar weitaus problematischere  ausgetauscht. Eine sehr bezeichnende Rolle spielen dabei sowohl die großen Naturschutzverbände wie auch die früher einmal für den Umweltschutz angetretenen Grünen. Sowohl von den Vorständen dieser Verbände als auch von dieser ehemaligen Öko-Partei wird die Umweltverwüstung durch die Windkraft bagatellisiert und die weitere Verbreitung dieser Anlagen befürwortet.

Vorschlag:

·       Beendigung der Anpflanzung neuer Energiepflanzen für die Produktion von Energieträgern (Biogas, Biotreibstoff).

·       Streichen der Förderung dieser Maßnahmen aus dem EEG, auch für Bestandsanlagen.

·       Die o.g. Forderung bezüglich der Streichung von Maßnahmen aus dem EEG gilt entsprechend dem in Kap. 2.2 formulierten Text im „Vorschlag“. 

·       Rückumwandlung von mindestens einem Drittel der z.Zt. für den Energiepflanzenanbau verwendeten Fläche in anderen landwirtschaftlichen Zwecken dienende Agrarfläche.

·       Verbot der Errichtung von Windkraftanlagen in Wäldern und Forsten.

·       Einführung eines Mindestabstands vom 13-fachen der Anlagen-Turmhöhe zwischen neuen Windkraftanlagen und Wohngebäuden.

·       Einführung hoher  Strafzahlungen für die Betreiber von Windkraftanlagen im Falle der Tötung von Wildtieren – insbesondere Greifvögel und Fledermäuse – durch diese Anlagen.

2.13        Massive Verstärkung der Energieforschung und Verzicht auf die ineffektive Markteinführung bekannter Techniken

Die „Energiewende“ leidet unter dem schweren Fehler, dass bereits entwickelte Technologien, die allein ideologischen Ansprüchen genügten,  mit enormen Subventionen in den Markt gedrückt werden. Dies geschieht mit sehr hohen Renditegarantien für die Nutznießer der geförderten Anlagen.

Die Folgen:

  •  Es gibt sehr große Mitnahmeeffekte.
  •  Es besteht kein Anreiz zur Investition in moderne Technologien.
  •  Der Aufwand für Forschung und Entwicklung ist in den subventionierten Branchen besonders gering. Investitionen in veraltete Technik durch die Subventionierung der Produkte sind dagegen höchst lukrativ.
  • Mit exorbitant hohen Subventionen werden nur marginale technische Fortschritte erreicht – und das bei überwiegend ungeeigneten Energietechnologien.

Diese grundsätzlich falsche Politik muss durch die ersatzlose Beendigung des EEG aufgegeben werden.

Dem Skandal der nahezu unbegrenzten Subventionierung einzelner ideologisch ausgewählter, bekannter, technisch wenig anspruchsvoller und dazu teurer und ineffizienter  Stromerzeugungstechniken ging ein weiterer Skandal voraus: Die Ruinierung der staatlichen Energieforschung durch mehrere Bundesregierungen  – bis zum heutigen Zeitpunkt.

In einem neuen Fachartikel beschreibt Knut Kübler diese Entwicklung, die für eine Nation, deren Lebensstandard  auf ihrer hochentwickelten industriellen Produktion beruht, kaum zu glauben ist (29):

Das Energieforschungs-Budget der Bundesregierung erreichte 1982 nach 20 Jahren kontinuierlicher und kräftiger Steigerung mit 2,3 Mrd. Euro einen Spitzenwert. Anschließend sanken die Ausgaben ebenso stark wie kontinuierlich bis zum Jahr 1995, ab dem sie dann 12 Jahre lang bei etwa 450 Mio. Euro bis 2007 stagnierten, um danach auf ca. 600 Mio. Euro in 2010 anzusteigen. 

Im krassen Gegensatz dazu stieg ab ca. 1998 die Förderung der Markteinführung der sog. erneuerbaren Technologien in extrem steilem Anstieg auf  13,318 Mrd. Euro  – nicht durch staatliche Mittel aus dem Bundeshaushalt, sondern durch direktes Abkassieren der Stromverbraucher.

Das ist das fast Zwanzigfache der Ausgaben des Bundes für die gesamte Energieforschung.

Die absurde Konsequenz dieser Fehlentwicklung sogar für die Erfinder und Propagandisten der Energiewendepolitik besteht darin, dass sie sich selbst durch die Austrocknung der Energie-Forschung und –Entwicklung (F&E) und die Fehlallokation riesiger Mittel von nahezu allen Chancen abgeschnitten haben, durch eine breite F&E-Unterstützung die Energiewende zu fördern.

Eine drastische Steigerung der deutschen Energieforschungs-Ausgaben ist im Interesse der künftigen Wettbewerbsfähigkeit zwingend erforderlich. Eine sinnvolle und volkswirtschaftlich ertragreiche Energiepolitik muss die Förderung von Forschung und Entwicklung (F&E) aller potenziell geeigneten Techniken einschließlich der Grundlagenforschung umfassen und darf dabei keine Rücksicht auf Ideologien nehmen. Dieser Satz zielt  bewußt auch auf die Weiterentwicklung der Kohleverstromung, der Kernenergie und der Shalegas-Gewinnung.

Die zu entwickelnden Techniken sollten auf die volkswirtschaftlich wichtigsten Bereiche der Energietechnik abgestimmt sein und bei ihrer Implementierung einen möglichst großen Nutzen für die Energieverbraucher mit sich bringen. Damit wäre auch eine Entlastung der Volkswirtschaft von Energieträger-Importen automatisch die Folge. Dass sämtliche geförderten Technologien die Umweltstandards erfüllen müssen, ist selbstverständlich.

Die folgenden Technologien sollten bei der staatlichen F&E-Förderung eine bevorzugte Stellung bekommen (ergänzbare Auflistung):

1.   Techniken zur Bereitstellung von Wärme

·     Verbesserte Solarwärmekollektoren für Gebäude – insbes. Senkung der Herstellungskosten

·     Solar-Vakuum-Flachkollektoren

·     Kombinierte Solar-Photovoltaik- und Wärmekollektoren

·     Gas- und Elektrowärmepumpen

·      Wärmespeicher für Einfamilienhäuser (Latentwärmespeicher)

·     Kombinierte Wärme- und Klimatechnik für Mehrfamilienhäuser

·     Erdwärmetauscher für Kühlung und Heizung

·     Nutzung der bestehenden Abwasserkanäle als Erdwärmetauscher für Wärmepumpen.

·     Verbesserung der Effizienz und Senkung der Kosten für Nah- und

Fernwärmesysteme

·     Unterirdische Wärme-Saisonspeicher für Siedlungen

·     Industrielle Wärmespeicher sowie Wärmetransportsysteme; insbesondere transportable Hochtemperatur-Wärmespeicher

2.   Antriebe

·     Erdgas- und Flüssiggas-Antriebssysteme für Fahrzeuge

·     Systeme zur Nutzung der Abwärme von Verbrennungsmotoren

·     Systeme zur Nutzung der Bremsenergie von Fahrzeugen

3.   Speicher

·     Adiabatische Druckgasspeicher für elektrische Energie

·     Elektrochemische Speicher

4.   Inhärent sichere Kernkraftreaktoren

·     Mitarbeit bei der internationalen Arbeitsgemeinschaft „Generation IV“ zur

   Entwicklung inhärent sicherer Kernreaktorsysteme

·     Weiterentwicklung von Sicherheitssystemen für Leichtwasserreaktoren

1.   Shalegas-Gewinnung

·     Aufnahme von Probebohrungen und Erprobung umweltfreundlicher Gewinnungsmethoden

Die hervorgehobene Benennung von Techniken zur Bereitstellung und Speicherung von Wärme hat ihre Ursache in der jahrelangen Vernachlässigung dieses für die Verbraucher wichtigsten und kostenintensivsten Bereichs ihres Energieverbrauchs.  Im Gegensatz zu den Folgen der „Energiewende“ für die Bürger sind bei einer erfolgreichen Förderung von F&E in diesem Bereich deutliche Kosteneinsparungen für die Verbraucher zu erwarten.

2.14         Grüne Jobs – eine vergebliche Hoffnung

Trotz der aggressiven Förderpolitik zu Gunsten der im EEG bevorzugten Techniken entstanden nur wenige wirklich neue, dauerhafte  Jobs. Von den neuen Arbeitsplätzen im EE-Sektor entfielen zwei Drittel auf Konstruktion, Herstellung und Installation und waren somit nicht von Dauer. Ein Viertel entfiel auf administrative Tätigkeiten, Marketing und Projekt-Engineering – ebenfalls nur von vorübergehender Natur. Gerade einmal ein Job von 10 wurde für dauerhafte Tätigkeiten im Anlagenbetrieb und in der Anlagenwartung sowie Verwaltung geschaffen.

Einen Vergleich mit den Kosten für einen neuen Arbeitsplatz in der übrigen Wirtschaft brachte eine Studie der Madrider Universität Rey Juan Carlos aus dem Jahre 2009 (Gabriel, Calzada, Alvarez und Mitarbeiter). Sie untersuchten am spanischen Beispiel, das dem deutschen EEG-Verfahren glich, den Kapitalbedarf für einen Arbeitsplatz im Bereich der „Erneuerbaren Energien“ mit demjenigen in der privaten Wirtschaft. Ferner wurde die jährliche Produktivität beider Arbeitsplatz-Typen verglichen.

Ein langzeitstabiler Arbeitsplatz im privaten Sektor lag bei 259.000 Euro. 

Die Berechnung für den EE-Bereich ergab einen Betrag von 571.000 Euro pro geschaffenem Arbeitsplatz; das ist das 2,2-fache.

Wenn bei Anwendung dieser Erkenntnisse zehn weitestgehend – d.h. zu 90% – nicht dauerhafte Arbeitsplätze im EE-Sektor ebenso viel wie 22 dauerhafte Jobs im Privatsektor kosten, dann werden für einen tatsächlich dauerhaften Arbeitsplatz im „Erneuerbaren Energie-Sektor“ 22 Arbeitsplätze in der Privatindustrie entweder durch die damit verbundene Verschwendung von staatlichen Finanzmitteln vernichtet oder ihr Aufbau wird verhindert.

Der ausufernde Ausbau der „Erneuerbaren Energien“ nach deutschem Vorbild hat die aktuelle spanische Finanzkrise verstärkt. Spanien hat nun drastische Gegenmaßnahmen eingeleitet und die nachteilige  Entwicklung bei der EE-Stromerzeugung – vor allem in der Photovoltaik – gestoppt (22).

3.  Die Energiewende ist schon gescheitert

Die Energiewende ist bereits heute auf ganzer Linie gescheitert, da bis auf die Abschaltung von 8 Kernkraftwerken keines der anderen Ziele auch nur annähernd erreicht worden ist. Die einzigen Ergebnisse bestehen darin, dass sich die Strompreise für private Haushalte seit Verkünden des EEG im Jahr 2000 mehr als verdoppelt haben und für die private Industrie auf das 2,5-fache gestiegen sind  (10) – und dass die Emissionen angestiegen sind (s.u.).

Für 2014 wurde  am 15. Oktober 2013 die nächste Stromerhöhung durch die weiter steigende EEG-Umlage angekündigt: Sie soll von 5,27 Cent/kWh auf 6,26 Cent/kWh steigen. Und diese Steigerung wird weiter gehen: Sogar das BMU hat für 2020 die EEG-Umlage auf 10 Cent/kWh geschätzt – was für einen 3-Personen-Haushalt die monatliche Stromrechung auf 100 Euro treiben würde.

Durch die EEG-Umlage findet die größte Umverteilung innerhalb der Gesellschaft von den Stromkunden zu den EE-Anlagen-Betreibern statt. Für die finanziell schwächeren Bürger vergrößert der steigende Strompreis das Armutsrisiko.

Die CO2-Emission ist 2012 wieder um 2% gestiegen; für 2013 wird das Gleiche erwartet und sie wird bis zur Abschaltung aller Kernkraftwerke 2022 weiter steigen, weil deren wegfallender Grundlaststrom-Beitrag ausschließlich durch die Grundlastversorgung aus Kohlekraftwerken – oder wiederum durch Kernkraftstrom, aber diesmal aus dem Ausland – ersetzt werden kann (38). Die ursprüngliche Begründung für diese Politik – der sogenannte Klimaschutz – kann deshalb bereits heute nicht mehr verwendet werden.

Deutschland wollte mit der Energiewende Technologieführer bei der Photovoltaik und der Windkraft werden und diese sollten als „Leuchttürme“ und Exportschlager in die Welt ausstrahlen. Das Gegenteil ist eingetreten. Die Photovoltaik-Anlagen-Industrie musste zum großen Teil zum Insolvenzrichter. Windkraftanlagen stellen keine Hochtechnologie dar, können ohne weiteres nachgebaut werden und der Weltmarktanteil deutscher Hersteller sinkt.

Die Deindustrialisierung Deutschlands ist in vollem Gange. Die chemische Industrie errichtet Neuanlagen vornehmlich im Ausland. Die großen Stromkonzerne wie EnBW, Vattenfall , RWE müssen Tausende bisher sichere, qualifizierte und mitbestimmte Arbeitsplätze abbauen. Von der angeblichen Zukunftsbranche Photovoltaik ist nur wenig übrig geblieben. Der inzwischen entlassene Siemens-Chef Löscher wollte das Unternehmen in einen grünen Konzern umbauen und ist damit gescheitert; u.a. ist Siemens aus der Photovoltaik und der Solarthermie ausgestiegen; mit den Plattformen für die Hochspannungs-Gleichstrom-Übertragung (HGÜ) von den Offshore-Windparks an Land sind lange Verzögerungen mit Verlusten von einigen hundert Millionen Euro eingetreten. Jetzt muss der Konzern allein in Deutschland 3000 Toparbeitsplätze abbauen.

In der Klein- und mittelständischen Industrie gibt es zahlreiche kritische Stimmen. Der BDI-Chef Ulrich Grillo erklärte nach der Bundestags-Wahl: Besonders wichtig sei es, gemeinsam mit den Ländern das Erneuerbare-Energien-Gesetz (EEG) „radikal zu reformieren“. Industrieentlastungen blieben für energieintensive Industrieunternehmen und ihre Belegschaften wegen des internationalen Wettbewerbs überlebenswichtig (14).

Was der BDI-Chef nicht ansprach, ist die Tatsache, dass Reformen im Sinne von Verbesserungen nicht mehr helfen können. Der Grund dafür liegt in zwei für die Energiewende tödlichen Fehlern ihrer Konstrukteure, wobei jeder der beiden Fehler für sich allein ausreicht, um die Energiewende unabwendbar scheitern zu lassen:

·       Der erste Fehler besteht darin, dass die Regierung mit ihren Plänen zur immer stärkeren Stromversorgung Deutschlands mit den völlig ungeeigneten, unzuverlässigen und dazu noch teuren Techniken Windstrom und Solarstrom das Problem der dafür erforderlichen, aber nicht im Entferntesten vorhandenen Stromspeicher übersehen bzw. nicht begriffen hat. Sie muss das jetzt erkennen und die bittere zusätzliche Tatsache zur Kenntnis nehmen, dass es auch in den nächsten 30 Jahren keine einzige quantitativ ausreichende und zudem auch noch bezahlbare alternative Speichertechnik geben wird und geben kann, egal, welche verspäteten und z.T. fragwürdigen Entwicklungsprojekte jetzt in aller Hektik begonnen werden. In der Folge wird die Netzstabilität und damit die Versorgungssicherheit dramatisch abnehmen – mit desaströsen Folgen für die Wirtschaft. Die zu 99% fehlende und praktisch nicht zu steigernde Stromspeicher-Kapazität (35 Pumpspeicherwerke statt deren 3500) ist absolut tödlich für die gesamte Energiewendepolitik.

·       Der zweite Fehler liegt nicht in der oben beschriebenen Ignoranz gegenüber den Gesetzen der Elektrotechnik, sondern in der ebenfalls unbegreiflichen Unterschätzung der Kosten für die Umsetzung der Energiewendepläne. „Das EEG wurde vermutlich von niemandem zu Ende gedacht und zu Ende gerechnet“, kommentierte der Analyst Guido Hoymann vom Bankhaus Metzler. Alle Berechnungen zu den mit jedem Jahr weiter steigenden Kosten für immer mehr Windräder und Photovoltaikanlagen, für Biogasanlagen, für den riesigen Ausbau zunächst des Höchstspannungsnetzes und danach der noch viel größeren unteren Netzebenen, die gigantischen Offshore-Investitionen führen bereits zu Billionen-Beträgen. Dazu kommt aber noch die bald unvermeidliche Subventionierung der unverzichtbaren Kohle- und Gaskraftwerke, ebenso der Pumpspeicher-Kraftwerke und selbst der verbliebenen Kernkraftwerke – weil die Überförderung der sogenannten erneuerbaren Energien und ihr EEG-garantierter Einspeisezwang diese Kraftwerke unwirtschaftlich gemacht hat. Deshalb bekommt Deutschland als logisches Ergebnis der Energiewendepolitik ein doppeltes und auch doppelt unrentables  Stromerzeugungssystem – die hochsubventionierten „Erneuerbaren“ und die dann notleidenden und gleichfalls subventionierten „Konventionellen“. Das muss die Strompreise weiter in die Höhe treiben. Um den Exodus der Industrie etwas zu verlangsamen, wird man die energieintensiven Unternehmen ebenfalls finanziell unterstützen müssen und ebenso viele der von den extremen Energiekosten überforderten Bürger. Weil gleichzeitig wegen der Industrieabwanderung die Steuereinnahmen sinken und die Arbeitslosigkeit steigt, verschlechtert sich die Lage weiter. Wie viele Billionen am Ende für diesen wirtschaftlichen Selbstversuch eines Industrielandes verloren sein werden, ist nicht abschätzbar. Sicher ist nur, dass dies der zweite Sargnagel für die Energiewende ist.

Eine mögliche Haltung gegenüber dieser Situation wäre „Abwarten und zusehen, dass man zunächst von den Subventionen selbst profitiert – und hoffen, dass es schon nicht so schlimm kommen wird.“

Das bedeutet, dass man damit versuchen würde, den Zusammenbruch „auszusitzen“. Wir halten eine solche Haltung nicht für verantwortbar.

Die Absicht, die die Autoren mit diesem Papier bezwecken, ist eine vorzeitige Umkehr wahrscheinlicher zu machen, bevor der Schaden unübersehbar geworden ist.

Leider zeigt der Koalitionsvertrag, dass es bei der neuen CDU/CSU-SPD-Regierung nicht einmal die  Hoffnung auf eine halbwegs wirksame und schon gar nicht auf eine radikale Reform gibt. Von anderen Parteien sind erst recht keine derartigen Forderungen bekannt.

Quellen:

(1)   Prof. H. Alt, FH Aachen: http://www.alt.fhaachen.de/downloads//Vorlesung%20EV/Hilfsb%20123-

13%20Wind+Solarleistung%201-12%202012.pdf oder http://tinyurl.com/cako5lr)

(2)   Prof. H. Alt, FH Aachen: http://www.alt.fhaachen.de/downloads//Vorlesung%20EV/Hilfsb%201981%20Leistungsganglinie%20Energiemix%20Stromerzeugung%203.2013.pdf         

(3)   http://tinyurl.com/obofc4u

(4)   http://de.wikipedia.org/wiki/Stromerzeugung

(5)   D. Kreyenberg, J. Wind, Daimler-Benz: „Erneuerbare Energien für die Mobilität“,  Deutscher Wasserstoff-Kongress, Berlin, 09.05.2012

(6)   V. von Schnurbein: „Die Speicherung überschüssigen EE-Stroms durch synthetisches Methan“, Energiewirtschaftliche Tagesfragen 62. Jg. (2012), Heft 9, S. 38-42

(7)   K.-H. Schmidt: „Offshore-Windparks – und die Folgen für die Schiffahrt und die Seegebiete“, 20.12.2010,  www.buerger-fuer-technik.de/ausarbeitung_offshore_k-h_schmidt_10.01.10.pdf 

(8)   Pumpspeicher:  http://de.wikipedia.org/wiki/Energiespeicher

(9)   Pumpspeicher-Kapazität: http://de.wikipedia.org/wiki/Liste_von_Pumpspeicher-kraftwerken

(10) Stromkosten:   http://de.wikipedia.org/wiki/stromkosten    

(11) Michael Gassmann: „Deutscher Kraftwerkspark steuert auf Kapazitätslücke zu“, vdi-nachrichten, 20.09.2013. und rtr/dpa/kur: „Kraftwerksbetreiber wollen dutzendweise Blöcke stilllegen“, vdi-nachrichten, 01.11.2013

(12) Frank Dohmen: „Abgeklemmt“, DER SPIEGEL 38/2013, 16.09.2013

(13) Nuclear Energy World Report 2012, atw Vol.58 (2013), Issue 11, November

(14) Ulrich Grillo, BDI.  http://www.bdi.eu/163_17952.htm

(15) Detlef Koenemann: „Offshore-Windparks in der Nordsee. Verzögerungen sind unvermeidlich“,   BWK Bd.65 (2013), Nr.10

(16) SPIEGEL Online, 22.11.2009, http://www.spiegel.de/wissenschaft/natur/datenklau-cyberkrieg-unter-klimaforschern-a-662673.html und SPIEGEL Online, 5.12.2009, http://www.spiegel.de/wissenschaft/natur/skandal-um-gehackte-mails-deutsche-klimaforscher-verlangen-a-665394.html

(17) Nigel Calder, Henrik Svensmark, Helmut Böttiger: „Sterne steuern unser Klima: Eine neue Theorie zur Erderwärmung“, Patmos Verlag , Düsseldorf, 15.2.2008,  ISBN 978-3-491-36012-9, www.patmos.de , Engl. Originalausgabe: „Chilling Stars: A New Theory of Climate Change“, 2007, Icon Books Ltd.

(18) Fritz Vahrenholt, Sebastian Lüning: „Die kalte Sonne. Warum die Klimakatastrophe nicht stattfindet“, Hoffmann und Campe Verlag Hamburg, 2012, ISBN 978-3-455-50250-3

(19) 2013 Report of the Nongovernmental International Panel on Climate Change (NIPCC): „Climate Change Reconsidered II: Physical Science. Summary for Policymakers“, Sept. 2013, http://nipccreport.com/reports/ccr2a/ccr2physicalscience.html

(20) T. Prauße,  BWK Bd. 63 , 2011, Nr.3).

(21) F. Häfner, M. Amro: „Energie-Speicherung und –Bevorratung als nationale Aufgabe“, Energiewirtschaftliche Tagesfragen 63.Jg. (2013) Heft 10

(22) Jürgen Langeheine: „Energiewende: Arbeitsplatzvernichter Erneuerbare Energien“, NOVO-Argumente, 08.12.2012

(23) Daniel Wetzel: „Die Gefahren des Durchwurschtelns“, Energiewirtschaftliche Tagesfragen 63. Jg. (2013) Heft 10

(24) Wolfgang Denk, Alpiq Suisse SA: „Deutsche Energiewende: nicht zur Nachahmung empfohlen“, Vortrag vor dem Nuklearforum Schweiz, 15.11.2013; www.alpiq.ch

(25) Alexander Neubacher: „Spion im Keller“, DER SPIEGEL Nr. 49, 2.12.2013

(26) Chr. Essex, Ross McKitrick, B. Andresen: „Does a Global Temperature Exist ?“, Journal Non-Equilibrium Thermodyn. 2007, Vol.32, No.1, pp.1-27

(27) C. Christian v. Weizsäcker: “Quantitative Ziele sind der beste Weg”, Interview, Energiewirtschaftliche Tagesfragen 63 Jg. (2013), Heft 12, S. 15-17

(28) Andreas Nolde, Horst Wolter und Julius Ecke: „Die Energiewende erfordert einen smarten Verteilnetzausbau“, Energiewirtschaftliche Tagesfragen 63. Jg. (2013) Heft 12. s.87-90

(29) Knut Kübler: “Schwerpunkte künftiger Fördermaßnahmen in der Energiepolitik: Forschung oder Markteinführung ?”, Energiewirtschaftliche Tagesfragen 63 Jg. (2013) Heft 12, S. 30-31

(30) Eric Heymann und Hannah Berscheid: „Carbon Leakage: Ein schleichender Prozeß“, Deutsche Bank Research, Frankfurt am Main, 18.12.2013,

www.dbresearch.de/PROD/DBR_Internet_DE-PROD/PROD326197.pdf

(31) Winand von Petersdorff: „Wie die Ökos die Natur verschandeln“, FAZ vom 29.12.2013

(32) EPAW European Platform Against Windfarms, www.epaw.org/

(33) Bundesverband Landschaftsschutz BLS e.V., http://bls-landschaftsschutz.de/

(34) Windkraftgegner, Portal für Organisationen, Bürgerinitiativen und Privatleute, www.windkraftgegner.de/

(35) Allianz der BI Gegenwind Unterfranken, www.gegenwind-unterfranken.de/

(36) Aktion „Rettet den Stadtwald“, 5 Bürgerinitiativen der Rheinregion und Naturschutzverbände, verbündet mit 14 Bürgerinitiativen aus Rheinland-Pfalz, www.stadtwaldrettung-bad-hoenningen.de/

(37) Klaus Tägder: „Atomare Endlagerplanung: Ein endloser Akt politischen Unwillens“, EIKE, 27.09.2012, http://www.eike-klima-energie.eu/climategate-anzeige/atomare-endlagerplanung-ein-endloser-akt-politischen-unwillens/

(38) Hans-Werner Sinn: „Energiewende ins Nichts“, Vortrag in der Univ. München, 16.12.2013,

http://www.youtube.com/watch?v=m2eVYWVLtwE

(39) E. Gawel et al: „EEWärmeG: Hindernisse und Potentiale für Biomethan im Wärmemarkt“,  Energiewirtschaftliche Tagesfragen 63. Jg (2013) Heft 11, S. 48-53

(40) BMU: „Erfolgsbericht zum Erneuerbare-Energien-Wärme-Gesetz“, Berlin, 2012

(41) „Klasse statt Masse? Die politischen Ziele der Gebäudesanierung in Deutschland“, Bericht über eine Fachtagung im IÖR Dresden, Energiewirtschaftliche Tagesfragen 63. Jg. (2013) Heft 11, S. 117-118

(42) KfW: „Ermittlung der Wachstumswirkungen der KfW-Programme zum energieeffizienten Bauen und Sanieren“, Studie, Berlin 2013

(43) http://de.wikipedia.org/wiki/Kambrium

(44) http://www.innovations-report.de/html/berichte/umwelt_naturschutz/bericht-4736.html

(45) http://www.greenpeace-energy.de/oekostrom.html

(46) http://www.naturenergie.de/cms/unser-strom/wasserkraft/stromsee.php

(47) Energie-Einsparverordnung EnEV, http://www.gesetze-im-internet.de/enev_2007/

(48) Erneuerbare-Energien-Wärmegesetz EEWärmeG,

http://www.gesetze-im-internet.de/eew_rmeg/

(49) Harald Simons: „Energetische Sanierung von Ein- und Zweifamilienhäusern“, empirica Forschung und Beratung, Berlin, Okt. 2012 http://www.bausparkassen.de/fileadmin/user_upload/pdf_service/empirica_Energetische_Sanierung.pdf

(50) Zeit Online vom 06.05.2012, http://www.zeit.de/wissen/geschichte/2012-05/hindenburg-unglueck/seite-1

(51) Wasserstoff-Hybridkraftwerk ENERTRAG

https://www.enertrag.com/projektentwicklung/hybridkraftwerk.html

(52) Daniel Wetzel: “Deutschlands Atomausstieg fehlt die Rechtsgrundlage“, DIE WELT, 14.01.2014,     

http://www.welt.de/wirtschaft/energie/article123850709/Deutschlands-Atomausstieg-

(53) Koalitionsvertrag zwischen CDU, CSU und SPD „Deutschlands Zukunft gestalten“, 2013, https://www.spd-berlin.de/w/files/spd-regierungsprogramm_mp3/koalitionsvertrag-2013.pdf

(54) ENERTRAG: „Fragen und Antworten. ENERTRAG Hybridkraftwerk“,

https://www.enertrag.com/projektentwicklung/internationale_projekte.html

(55) Wikipedia: „Power-to-Gas“, http://de.wikipedia.org/wiki/EE-Gas

(56) https://gelsenwasser.de/Strompreiszusammensetzung.html

(57) Rolf Schraa, Nadine Murphy: “Energiewende beutelt Stadtwerke”, dpa, Generalanzeiger Bonn, 25.01.2014

ANHANG: Daten und Berechnungen

 

Anlage 1: Pumpspeicher-Kraftwerke

Die z.Z. vorhandene Speicher-Kapazität von Pumpspeicherkraftwerken in Deutschland beträgt 40 GWh, womit Deutschland 40 min lang mit Strom versorgt werden könnte (9).

Um die Strommenge von 17.280 GWh für 12 Tage über diese Speicherkraftwerke  sicherzustellen (die Bruttostromerzeugung 2012 betrug 628.700 GWh : 365 Tage x 12 Tage = 17.280 GWh), müsste also die Stromspeicher-Kapazität aller deutschen Pumpspeicher-Kraftwerke um den Faktor 432 erhöht werden (17.280 GWh : 40 GWh = 432).  Das größte PSK Goldisthal in Thüringen kann 8,480 GWh speichern.

Es müssten demnach 2038 Pumpspeicher-Kraftwerke von der Größe Goldisthal neu errichtet werden (17.280 GWh : 8,480 GWh = 2038).

Um diese 2038 Anlagen betriebsbereit zu halten, muss das Speichermedium Wasser immer wieder mit Wind- und Solartrom von dem Unter- in das Oberbecken hochgepumpt werden. Um das ständig sicherzustellen, müsste die Leistung der  Erneuerbaren von 62 GW im Jahre 2012 auf das  (8,13 : 0,75 = 10,84) 11-fache ausgebaut werden. D.h. um Deutschland kontinuierlich d.h. 100% mit Strom aus den erneuerbaren Energien (EE)  versorgen zu können, sind Wind- und Photovoltaik- Anlagen mit einer 11-fachen Leistung im Vergleich zu den 2012 installierten derartigen Anlagen  aufzubauen. Den Rest zur Absicherung der Spitzenlast von 70 GW können die übrigen EE-Anlagen leisten, die mit Wasserkraft, Biomasse und Hausmüll mit biogenem Anteil arbeiten.

Zur Bruttostromerzeugung 2012 haben die übrigen EE-Anlagen Wasserkraft mit 3,5%, Biomasse mit 6,2% und biogener Anteil des Hausmülls mit 0,8%  beigetragen. Das sind in Summe 10,5%. Diese Anlagen arbeiten wie herkömmliche Kraftwerke kontinuierlich.

Anlage 2: Daten zur Power-to-Gas-Anlage „Hybridkraftwerk“von ENERTEC in Prenzlau

Das „weltweit erste Hybridkraftwerk“ – wurde im Oktober 2011 in Prenzlau in Betrieb genommen. Gefördert von der Deutschen Bahn, Total Deutschland GmbH, Vattenfall und ENERTRAG als Betreiber.(51,54).

ENERTRAG (54) gibt eine voraussichtliche Jahresproduktion von 16.000 MWh an. Das entspricht einer mittleren Leistung von 1,8 MW. Der EE-Strom kommt von 3 WKA des Typs E-83 mit je 2,3 MW Nennleistung.

Demnach müßte die Anlage maximal 3×2,3= 6,9 MW an Inputleistung verarbeiten können. Davon sind an der Gasturbine bzw. am Gasmotor noch 5,2 MW an Wasserstoffleistung übrig.

ENERTRAG gibt für die Stromerzeugung bei der H2-Verbrennung 38 % Wirkungsgrad (BHKW-Anlage) an. Damit ergibt sich ein Gesamtwirkungsgrad für den „Stromspeicher“ von 0,75×0,38 = 28,5 % – also ein Energieverlust von 71,5 % des eingespeisten Windstroms.  Das Unternehmen rechnet leider in unklarer Form eine Nutzung auch der Verlustwärme in den Wirkungsgrad hinein, der damit steigt, aber mit der Stromspeicherung nichts mehr zu tun hat. Auch in der Wirkungsgrad-Tabelle auf S.3 in Wikipedia (55) wird von dieser Verwirrtaktik Gebrauch gemacht. In einer Grafik nennt ENERTRAG einen Wirkungsgrad H2 zu Strom von 65 %. Diesen Wert erreicht nicht einmal die leistungsstärkste Gasturbine der Welt, die 375-MW-starke SGT5-8000H von Siemens, die 60,3 % erzielt (55). Die Investition für des Elektrolyseur betrage 10 Mio. Euro; die Kosten der Gesamtanlage 21 Mio.

Ende Januar 2014

Dr.-Ing. Günter Keil, St. Augustin

Dipl.-Ing. Michael Limburg, Groß Glienicke

Dipl.-Ing. Burkard Reimer, Berlin

 Das komplette Manifest kann als pdf im Anhang heruntergeladen werden.

  

Related Files




Greentec Awards: Rauswurf des Dual Fluid Reaktors war rechtswidrig

Wer auch immer es also mit Nachhaltigkeit, mit Umwelt- und Klimaschutz ernst meint, der sollte dieses Konzept unterstützen. Folgerichtig wurde die Idee bei den letztjährigen Greentec-Awards durch eine Online-Abstimmung für die finale Entscheidung der Jury nominiert. Was den Veranstaltern nicht gefiel. Worauf diese nachträglich die Regeln des Wettbewerbs änderten, um eine Präsentation des DFR bei der Gala in Berlin verhindern zu können…..

…Das Ignorieren des Online-Votings war rechtswidrig. Auf seiner Facebook-Seite schreibt das IFK:

Berliner Kammergericht: Greentec muss Kosten tragen, denn: Rauswurf aus dem Wettbewerb war illegal.

Das Eilverfahren ist nun endgültig abgeschlossen. Da das Kammergericht bis zum 30. August 2013 keine Berufungsverhandlung durchgeführt hat, hatte sich das Verfahren ab dem 30. August 2013 in der Hauptsache erledigt.

Das Verfahren war damit aber noch nicht beendet, denn es war noch zu klären, wer die Kosten für das gesamte Verfahren zu tragen hat. Auch darüber wurde erbittert gestritten. Und erneut entschied das Kammergericht für uns! Greentec hat die gesamten Kosten des Verfahrens zu tragen (Anwalts- und Gerichtskosten).

Die angeführte Begründung, es hätte ja keine Kontrolle (und damit keine Zulassung) stattgefunden, ginge ohnehin zu Lasten der Veranstalter und stünde überdies im Widerspruch zu Greentecs Behauptung, der Dual Fluid Reaktor wäre nur aufgrund falscher Angaben zugelassen worden (wozu ja eine Kontrolle hätte erfolgen müssen).

Was folgt daraus für unser Institut? Wir waren im Recht und bleiben auf keinen Kosten sitzen, wurden für den Rauswurf aber nicht entschädigt. Wir können uns also nur weitere rechtliche Schritte vorbehalten.

Weiter bei Science Sceptical

Die EIKE Redaktion gratuliert den Machern des Dual Fluid Reaktors zu diesem Erfolg




CO2 soll mittels CCS-Technologie vergraben werden! Wieviel, wo, wie, womit? Eine Abschätzung der Grössenordnung

Das sind 29.446 to/Tag.

Das CO² wird abgeschieden und verflüssigt. Hier sind seine Eigenschaften beim kritischen Punkt :

Temperatur     31°C

Druck 73,7bar

Dichte             0,464t/m³

Das Volumen beträgt jetzt  63462 m³ /Tag.

(29.446 to/Tag / 0,464to/m³ = 63462 m³ /Tag)

Der Abtransport soll mit der Bahn erfolgen. Ich habe mal bei Wikipedia  geschaut und komme auf einen Kesselwagen  mit einer Länge von 20 m , ein Füllvolumen von 100 m3  und einer zulässigen Beladung mit 50 to.

Die Anzahl der benötigten Kesselwagen berechne ich zu 63462 m³/Tag  / 100 m³/Wagen = 634 Wagen/Tag.

Die maximale Zuglänge bei der DB ist 750 m bei maximal 4000 to Gewicht.

Die Anzahl der benötigten Wagen pro Zug errechne ich aus

750m/Zug  / 20m/Wagen =  38 Wagen /Zug

Wegen der geringen Dichte des Gases sind 29.446 to  auf 634 Wagen mit je 100m³ zu verteilen. Das ergibt eine Beladung von

29446 to / 634 Wagen = 46 to/Wagen

Das Gewicht des Zuges ist

38 Wagen * 46 to/Wagen CO² = 1738 to

Der Zug ist also nicht ausgelastet.. Das Gewicht der Fahrzeuge ist nicht dabei.

Die benötigte Anzahl von Zügen ist

634 Wagen/Tag  /  38 Wagen/Zug = 17 Züge/Tag

In diese Züge ist jetzt das Kohlendioxyd verladen und soll jetzt bei ca. 75 bar Behälterdruck über Land zum Verpressungsort gefahren werden. Für den Fall das der Zugverkehr mal unterbrochen ist müsste ein Pufferlager für ca. 3 Tage eingerichtet sein.

63462 m³/Tag * 3Tage = 190386 m³ Lagerkapazität

Es handelt sich um Drucktanks die gegen den Absturz eines Flugzeugs und Sabotage gesichert werden müssen. Die Gefährlichkeit  des Kohlendioxyds in hoher Konzentration ist gewaltig. Ein Unfall oder Anschlag auf dieses Lager kann tausende Todesopfer kosten, denn man kann ihnen nicht zu Hilfe kommen ohne selbst zu ersticken. Feuerwehrfahrzeuge können nicht fahren, Hubschrauber nicht fliegen. Dieses Pufferlager ist also zu bewachen wie Fort Knox. Ebenso die fahrenden Züge. Die Kosten werden dann auf den Stromverbraucher umgelegt. Dasselbe gilt für die Kosten der Verflüssigungsanlagen und der Verladeanlagen sowie die Personalkosten.

Die Züge stehen in meinen Gedanken noch auf dem Kraftwerksgelände.

Jetzt kommt die entscheidende Frage : Wohin mit den ganzen Zeug ? So ein Werk läuft ja 40 Jahre lang.

63462 m³/Tag  * 365 Tage * 40 Jahre = 926.545.200 m³

Dies ist die Menge die in 40 Betriebsjahren anfällt. Es ist ein Würfel mit einer Kantenlänge von  975 m. Alles flüssiges Kohlendioxyd das unter der Erde verschwinden soll. Aber das ist nur aus einem Kraftwerk. Weltweit gibt es hunderte dieser Kraftwerke. Die Masse an Kohlendioxyd die da verpresst werden soll ist ja gigantisch. Und das soll nun für alle Ewigkeit unterirdisch gelagert werden und man will garantieren das nichts davon wieder in die Atmosphäre gelangt. Wie können Menschen auf eine solche irre Idee kommen ? Man muss sich schon seine Gedanken über den Geisteszustand der Verfechter dieser Idee machen um sich der Hoffnungslosigkeit dieser Geisteskrankheit  bewusst zu werden. Die Bundesregierung gibt aber Geld für eine Versuchsanlage bei der das Versuchsergebnis vorher schon feststeht..

Wie kann nun ein solches Lager aussehen. Man spricht dann von ausgebeuteten Gas- und Ölfeldern. Aber die grossen Gas- und Ölfelder sind doch nicht in Europa gelegen. Sind die denn jetzt leer ? Nein die sind nicht leer sondern mit Salzwasser gefüllt. Es gibt auch riesige poröse Gesteinsschichten in der Erde, sogenannte Aquifere, die aber auch mit Salzwasser gefüllt sind. Dieses Salzwasser muss man ins Meer oder an die Erdoberfläche verdrängen um Platz zu schaffen für das Kohlendioyxd. Aber da wo Wasser entweichen kann da folgt irgendwann das Gas. Der Lagerdruck wird mit 150 bis 200 bar angegeben. Die Lagerstätte  muss sich also in einer Tiefe befinden in der der Wasserdruck des Gebirges ausreicht um diesen Druck einzuhalten. Klüfte im Gebirge dürfen nicht auftreten, denn durch sie kann das Gas aufsteigen und ist dann nicht mehr zu stoppen. Alle Lebewesen die in einen Gasausbruch geraten verlieren ihr Leben.

Welche Menschen möchten nun ihren Wohnsitz oberhalb eines Kohledioydspeichers haben. Ich glaube ja keine. Wie ist es jetzt mit Überwachungsmaßnahmen am Speicher der sich über mehrere Tausend Quadratkilometer erstreckt ? Für alle Ewigkeit muss der Speicher überwacht werden. Wer zahlt die Kosten ? Mit einem solchen Speicher kann man ganz Mitteleuropa entvölkern.

Alle Risiken einer solchen Speicherung kann natürlich Frau Dr. Merkel per Bundesgesetzblatt verbieten und dann geht es los.

Im Ruhrgebiet kennt man das schon, die Ewigkeitskosten, die man aufwenden muss um die alten Bergbaugebiete, die bis zu 16 Meter abgesackt sind, trockenzuhalten. Weite Gebiete liegen unterhalb des Niveaus der Emscher. Das anfallende Regenwasser und Abwasser muss abgepumpt werden auf Ewigkeit.

Meine siebzehn Züge stehen jetzt immer noch am Kraftwerk denn ich kann nicht sagen wo sie entladen können.  In Brandenburg gibt es Leute die sich darum reissen, oder in Hessen bei Herfa-Neurode ist ja schon eine Giftmülldeponie mit Ewigkeitcharakter für 200.000 to pro Jahr. Da geht das bestimmt, gegen Geld. Wir werden ja in Deutschland bestimmt 40 dieser Kraftwerke brauchen und bei allen stehen siebzehn Züge. Wie man das alles entladen will, an welchen Stellen die Pumpanlagen für die Entladung errichtet werden sollen, kann ich mir nicht vorstellen. Man denke an Gorleben. Das muss ja alles innerhalb Deutschlands geschehen. Welcher Nachbarstaat macht denn einen solchen Blödsinn mit ?

Am Werkstor stehen schon tausende Demonstranten und siebzehn Hundertschaften der Polizei zur Sicherung des Transports mit siebzehn Zügen , der ja viel gefährlicher ist als ein Castortransport nach Gorleben. Diese Transporte gehen täglich !! Dazu kommen noch die Rohkohletransporte  von ca 6 Zügen/Tag.

Liebe Leser,

ich mag nicht weiter an diesen Blödsinn denken und trinke stattdessen ein Bier und danke allen die bis hier durchgehalten haben.

Anmerkung der Redaktion

Derzeit fallen in jährlich rd. 350 Mio t CO2 aus der Stromproduktion und nochmals rd. 100 Mio t aus der Stahl- und anderen Produktionen an. Zusammen sind das ca. 450 Mio t jährlich! In zehn Jahren 4,5 Mrd. t usw, usw. Die müssten irgendwo -auf ewig (!!) dicht eingeschlossen werden, um sicher zu sein, keinen Schaden anzurichten.
Natürlich würde austretendes CO2, weil ca. 1,6 x schwerer als Luft, sich – bei Windstille – wie Wasser in Senken sammeln. Dieses Verhalten ist grundsätzlich anders als das der leichteren Gase Wasserstoff, Erdgas etc. Die entweichen immer nach oben in die Atmosphäre. Aber fast alle (deutschen) Städte und Dörfer sind an Flüssen und anderen Wasserquellen gegründet worden. Also dort, wo auch austretendes CO2 hinfließen würden.

Niemand könnte auf ewig garantieren, dass das nicht passiert. Auf hoher See sähe das vielleicht anders aus, allerdings würden dann die Kosten noch weiter anschwellen.

(1) Daten Stammen aus einer Arbeit von Ulf Bossel vom Leipniz-Institut. http://www.leibniz-institut.de/archiv/bossel_27_10_09.pdf Seite 4 Quantifizierung der Anfallenden Massen

Über den Autor:

Nach einer Ausbildung bei Siemens in Bremen im Fachgebiet Elektrotechnik und folgender Weiterbildung war er 35 Jahre lang bei den Stadtwerken Bremen im Kraftwerksbereich tätig. Hatte dort mit der Prozessleittechnik von Kohle-, Gas- und Wasser- und Schnellstarterkraftwerken sowie Blockheizwerken zu tun. Auch die Fernwärmeauskopplung im Kraftwerk und Fernwärmeerzeugung und Verteilung im Stadtgebiet gehörte zu seinem Bereich. Er ist seit 8 Jahren im Ruhestand.




„Grüne Energie“ in der Krise: Nachrichten aus aller Welt

Vom Winde verweht: Schwache Renditen lassen die deutschen Erneuerbaren verkümmern

Gunther Latsch, Anne Seith and Gerald Traufetter, Spiegel online

Investitionen in erneuerbare Energie schienen eine sichere Sache zu sein, haben doch Windparkbetreiber jährliche Renditen bis zu 20 Prozent versprochen. Derartige Versprechungen erwiesen sich jedoch häufig als illusorisch – und viele Investoren haben ihre Bauherren verloren.

Kohle wird ‚den globalen Energiesektor noch viele Jahrzehnte dominieren

Datum: 30.01.2014

Annabel Hepworth, The Australian

Einer Studie zufolge, von der die Minenarbeiter sagen, dass sie Kampagnen grüner Aktivisten zur „Dämonisierung“ von Kohle untergräbt, wird die Kohle global den Energiesektor noch viele Jahrzehnte lang dominieren. In der Studie – geschrieben vom Berater der International Energy Agency IEA und designiertem Energieminister [in Australien] Ian MacFarlane – heißt es: Kohle wird noch mindestens während des kommenden Vierteljahrhunderts der dominante Treibstoff des Energiesektors sein, trotz der Bemühungen, die Energieversorgung zu diversifizieren und trotz der Sorgen über ein langsameres wirtschaftliches Wachstum.

Die Vereinigten arabischen Emirate UAE der OPEC ‚könnten US-Schiefergas importieren’

Datum: 28.01.2014

Upstream News

Die Vereinigten Arabischen Emirate UAE, Ölproduzent der OPEC, ließen einem Bericht zufolge verlauten, dass sie die Möglichkeit überdenken, Erdgas aus den USA zu importieren. Das wäre eine der eklatantesten Entwicklungen seit dem Beginn des US-Schieferbooms.

EU bereitet sich auf Durchbruch für Schiefergas vor

Datum: 27.01.2014

Daniel J. Graeber, Oilprice.com

Vor Kurzem hat die Europäische Kommission eine Reihe von Forderungen erhoben mit der Absicht sicherzustellen, dass geeignete Sicherheitsmaßnahmen ergriffen und eingerichtet werden für Mitglieder, die sich entschließen, mit der Schiefergas-Erschließung zu beginnen. Energieunternehmen fordern lautstark, daran teilzuhaben, und Europa könnte am Wendepunkt eines Durchbruchs für Schiefergas stehen.

‘Wir dürfen die Kohle nicht dämonisieren’, sagt die deutsche Umweltministerin

Datum: 26.01.2014

Diarmaid Williams, Power Engineering International

Die deutsche Umweltministerin Barbara Hendricks sagt, dass Kohlekraftwerke wichtig für die Energiesicherheit in Deutschland sind und nicht Gegenstand extrem negativer Anschauungen werden sollten. „Gas ist nicht profitabel, und Kohle boomt. Wir dürfen Kohle nicht dämonisieren!“

Vorbereitungen, in Europa das Schiefergas zum Fließen zu bringen

Datum: 25.01.2014

Tim Webb, The Times

Schon in wenigen Wochen könnte sich in Europa die erste Schiefergas-Quelle auftun. Das verlautet aus einem AIM-Unternehmen, das von George Soros unterstützt wird und das in Polen erfolgreich das zweite Loch gefrackt hat [AIM = Alternative Investment Market, ein Börsensegment].

Windindustrie des illegalen Vogelmords angeklagt

Datum: 24.01.2014

Clare Foran, National Journal

Eine Ausgleichszahlung in Höhe von 1 Million Dollar mit einem Unternehmen der Erneuerbaren wegen getöteter Vögel in zwei Windparks des Unternehmens hatte gerichtliche Schritte gegen das Töten von Vögeln durch Windturbinen zur Folge.

Das Problem mit den Erneuerbaren: Womöglich geht ihnen das Geld anderer Leute aus

Date: 24/01/14

The Local

Der deutsche Windenergieriese PROKON hat kürzlich Insolvenz angemeldet, was Zehntausende Investoren in Angst um ihr Geld zurückließ. Das Unternehmen hatte damit geworben, eine Rendite von 8 Prozent auszuschütten. Das Unternehmen, das Windparks errichtet und betreibt, war führend bei Deutschlands ambitionierten Plänen zum Wechsel zu erneuerbarer Energie.

Zusammengestellt und übersetzt von Chris Frey EIKE




Offener Brief an Kevin Trenberth – NCAR

Nun könnte man denken, dass Sie Ihre Zeit besser damit zugebracht hätten, den Skeptikern der globalen Erwärmung zu erklären, warum wir uns über die globale Erwärmung Sorgen machen sollten … vor allem vor dem Hintergrund, dass Sie in ihren letzten Studien die natürliche Variabilität als eine bei der Erwärmung unseres Planeten wesentliche Rolle spielende Tatsache anerkannt haben. Daran denkend ist dies eine offene Einladung an Sie, einen Beitrag oder einer Serie von solchen für WattsUpWithThat zu schreiben (oder so etwas als Ko-Autor zusammen mit Skeptikern… wie ich zum Beispiel) auf die Beine stellen.  Es gibt eine ganze Reihe von Punkten, die Sie ansprechen wollen könnten, und sie werden über weite Teile dieses Beitrags diskutiert.

WattsUpWithThat hat eine sehr viel größere Internet-Leserschaft als SkeptikalScience. Schauen Sie die jüngste Statistik von Alexa hier. Wenn Ihnen die Rangfolgen bei Alexa nicht vertraut sind: je geringer der Rang, umso besser. Referenzpunkt: Google rangiert an erster Stelle. Beachten Sie auch die Verweildauer von Lesern auf beiden Websites. Deutlich mehr Menschen klicken nach WattsUpWithThat als nach SkepticalScience und verweilen dort viel länger, wenn sie erst einmal dort sind. Dies zeigt natürlich, wenn Sie einen Beitrag für WattsUpWithThat schreiben, werden wahrscheinlich sehr viel mehr Menschen diesen lesen.

Kommentar zu Ihrem Beitrag auf SkepticalScience

Gehen wir mal davon aus, dass Sie recht haben und sich anstelle der Erdoberfläche die Tiefen der Ozeane erwärmen. Dann jedoch ist Ihr Beitrag bei SkepticalScience für viele Leser nicht viel mehr als eine Ablenkung – weil es die Aufmerksamkeit von den Modellen abzieht, die Schwierigkeiten haben, die globalen Temperaturen an der Erdoberfläche zu simulieren. Weder die vorherige (CMIP3) noch die jetzige Generation von Klimamodellen (CMIP5) können den gegenwärtigen Stillstand der Erwärmung außerhalb der Arktis erklären. Ebenfalls unter der Annahme, dass Sie recht haben – die behauptete Zunahme der Temperatur im tieferen Ozean (während der Stillstand an der Oberfläche auftritt) ist so gering, so minimal, dass die zusätzliche Erwärmung der Ozeane nicht dazu taugt, irgendjemanden zu irgendeiner Zeit zu bedrücken.

Während die Themen Ozeanwärme und Energiegleichgewicht in technischen Diskussionen ihren Platz haben, sind sie völlig unwichtig für die Menschen und die Politiker, die wissen wollen, wie hoch die globalen Temperaturen an der Erdoberfläche steigen könnten und warum die Klimamodelle nicht in der Lage waren, den Stillstand der globalen Erwärmung vorherzusagen.

Frühere Kommentare

Bei WattsUpWithThat haben wir bereits viele Ihrer Argumente diskutiert … und zwar viele Male. Sehen Sie diese Beiträge auf meinem Blog Climate Observations (und die bei WUWT in Klammern):

Trenberth Still Searching for Missing Heat (WUWT cross post here)

More on Trenberth’s Missing Heat (WUWT cross post here)

A Different Perspective on Trenberth’s Missing Heat: The Warming of the Global Oceans (0 to 2000 Meters) in Deg C (WUWT cross post here)

Even More about Trenberth’s Missing Heat – An Eye Opening Comment by Roger Pielke Sr. (WUWT cross post here)

Open Letter to the Royal Meteorological Society Regarding Dr. Trenberth’s Article “Has Global Warming Stalled?” (WUWT cross post here)

A Couple of Comments about the Oppenheimer and Trenberth Op-Ed in the Washington Post (WUWT cross post here)

Meehl et al (2013) Are Also Looking for Trenberth’s Missing Heat (WUWT cross post here)

Trenberth and Fasullo Try to Keep the Fantasy Alive (WUWT cross post here)

More on Trenberth and Fasullo (2013) “An Apparent Hiatus in Global Warming?” (WUWT cross post here)

Comments on the Nature Article “Climate Change: The Case of the Missing Heat” (WUWT cross post here.)

Was bei Ihren Argumenten fehlt

Kern Ihrer Argumentation ist, dass es um die Jahrhundertwende eine Änderung des ENSO-Zustandes von einer Periode mit vorherrschendem El Niño in eine Periode gegeben hat, in der La Niña dominiert. Diese Phasenänderung um das Jahr 1999 hätte Ihren Argumenten zufolge dazu geführt, dass der Pazifik weniger Wärme in die Atmosphäre freigesetzt hätte als normal, und dass weniger warmes Wasser aus den tropischen Regionen des Pazifik in angrenzende Meeresgebiete gelangt ist. Sie haben auch gesagt, dass verstärkte Passatwinde in Verbindung mit La Niña dazu führen, dass sich mehr warmes Wasser im westlichen tropischen Pazifik ansammelt. Als Folge hätte sich eine substantielle Abnahme der Erwärmungsrate auf der Erdoberfläche ergeben (außerhalb der Arktis).

Dies zeigt doch aber, dass die ENSO auch verantwortlich war für einen großen Teil der Erwärmung zu Zeiten der Dominanz von El Niño-Ereignissen von Mitte der siebziger Jahre bis Ende der neunziger Jahre. Ich kann mich nicht erinnern, dass Sie dies mit so vielen Worten in irgendeiner Ihrer jüngsten Studien festgestellt hatten, und im Licht ihrer neuen Einsichten glaube ich nicht, dass Sie in letzter Zeit versucht haben, den Beitrag der ENSO zu der Erwärmungsperiode zum Ende des 20. Jahrhunderts zu quantifizieren.

Meinen Forschungen zufolge war die ENSO – agierend als ein chaotischer, natürlicherweise auftretender, vom Sonnenlicht gesteuerter Oszillator, der aufgeladen und entladen wird – tatsächlich verantwortlich für den weitaus größten Teil der Erwärmung der Wassertemperatur außerhalb des Nordatlantiks während der letzten 32 Jahre (die Zeit der Satellitenbeobachtungen) … Und die ENSO war auch verantwortlich für den weitaus größten Teil der Erwärmung des tropischen Pazifiks bis in größere Tiefen … und die ENSO war verantwortlich für den größten Teil der langzeitlichen Erwärmung des außertropischen Pazifiks bis zu einer Tiefe von 700 Metern – zusammen mit einer Verschiebung der Luftdruckverteilung (und der damit zusammenhängenden Winde; beschrieben durch den North Pacific Index, den Sie, Kevin, für diese Zwecke entwickelt haben). Dazu kommen noch die Ergebnisse von Lozier et al. (2008) The Spatial Pattern and Mechanisms of Heat-Content Change in the North Atlantic. Sie entdeckten, dass die gesamte Erwärmung des Nordatlantiks bis in die Tiefe mit natürlichen Faktoren erklärt werden konnte. Siehe dazu auch den Artikel vom Januar 2008 in ScienceDaily mit dem Titel North Atlantic Warming Tied to Natural Variability über Lozier et al. (2008). In diesem Artikel heißt es u. A.:

„Wir zeigen, dass die großräumigen dekadischen Änderungen … in Verbindung mit der NAO (= Nordatlantische Oszillation) primär für die Änderungen des ozeanischen Wärmegehaltes im Nordatlantik während der letzten 50 Jahre verantwortlich sind“.

All diese Punkte wurden auch in den o. g. Links angesprochen. Sie sollten darauf eingehen, wenn Sie sich entschließen, einen Beitrag dazu für WattsUpWithThat zu schreiben.

Daten, die Ihre Argumente bestätigen und widerlegen

Ihrer Argumentation zufolge sollte der ozeanische Wärmegehalt des westlichen tropischen Pazifiks während der Periode des Stillstandes zunehmen. In einer Ihrer jüngsten Studien schreiben Sie, dass der Stillstand im Jahre 1999 begonnen hatte, und zwar mit dem Übergang der Pazifischen Dekadischen Oszillation von der positiven in die negative Phase. Sie haben das als Proxy für die ENSO-Zustände verwendet. Abbildung 1 zeigt den NOCD-Wärmegehalt des Ozeans im westlichen tropischen Pazifik (24°S – 24°N; 120°E – 180°); Wassertiefe 0 bis 700 m, Zeitraum Januar 1999 bis Dezember 2013. Man erkennt, dass sich der westliche tropische Pazifik tatsächlich bis zu einer Tiefe von 700 m erwärmt hat.

Abbildung 1

Wie Sie sehr wohl wissen, haben die Bojen des TAO-Projektes im tropischen Pazifik seit Anfang der neunziger Jahre Wassertemperaturen unter der Oberfläche gemessen, so dass man die NODC-Daten von dort als zuverlässig ansehen kann. Während des vorigen Jahrzehnts haben die ARGO-Bojen die TAO-Bojen verstärkt. Und die Daten des ozeanischen Wärmegehaltes im tropischen Pazifik in Tiefen zwischen 0 und 700 m bzw. 0 bis 2000 m während des TAO-Projektes und der ARGO-Ära sind genau gleich, wie Abbildung 2 zeigt. Das zeigt, dass die gesamte Variabilität im Wärmegehalt des tropischen Pazifik in den oberen 700 m stattfindet.

Abbildung 2

Die NODC-Daten des ozeanischen Wärmegehaltes (0 bis 700m) des östlichen tropischen Pazifiks, einer viel größeren Region, zeigen von 1999 bis 2013 eine Abkühlung, siehe Abbildung 3.

Abbildung 3

Als Ergebnis zeigt sich alles in allem eine Abnahme des ozeanischen Wärmegehaltes im tropischen Pazifik seit 1999, siehe Abbildung 4, sowie eine substantielle Abnahme des ozeanischen Wärmegehaltes des tropischen Pazifiks insgesamt seit einem Höchstwert um das Jahr 2004.

Abbildung 4

Auf der Grundlage dieser Daten ergibt sich eine Umverteilung der Wärme innerhalb des tropischen Pazifiks und nicht das Hinzufügen neuer Wärme, wie Sie in Ihren Studien schreiben.

Auch habe ich in meinem letzten Beitrag If Manmade Greenhouse Gases Are Responsible for the Warming of the Global Oceans… die vertikalen mittleren NODC-Temperaturanomalien gezeigt für den Indischen, Pazifischen, Nord- und Südatlantischen Ozean für Tiefen zwischen 0 und 2000 m während der ARGO-Ära (Beginn 2003). Abbildung 5 ist eine Aktualisierung dieser Illustration, die auch die vor kurzem veröffentlichten Daten für 2013 enthält. Der flache Verlauf des pazifischen Trends zeigt, dass es dort nicht zu einer substantiellen Zunahme der Temperatur unterhalb der Oberfläche des Pazifiks bis zu einer Tiefe von 2000 m während der letzten 11 Jahre gekommen war… und das gilt auch für den Nordatlantik. Menschliche Treibhausgase können die Erwärmung im Südatlantik und dem Indischen Ozean nicht erklären, hat diese doch offensichtlich keinen Einfluss auf die Erwärmung im Nordatlantik und Pazifik bis 2000 m Tiefe während der letzten 11 Jahre.

Abbildung 5

Nun könnten Sie geltend machen, dass die jüngste Erwärmung des Indischen Ozeans der ENSO geschuldet ist. Da würde ich zustimmen. Ich habe eine Reihe von Punkten hierzu in meinem Beitrag Is Ocean Heat Content All It’s Stacked Up to Be? besprochen. Einer davon war der Einfluss der ENSO auf die Erwärmung des Indischen Ozeans bis zu einer Tiefe von 700 m. Das Folgende spiegelt diese Diskussion. Man beachte, dass ich die Animationen verlinkt und die Nummerierung der Abbildungen für diesen Beitrag überarbeitet habe.

Beginn des Auszugs aus „Is Ocean Heat Content All It’s Stacked Up to Be?”:

Warum hat sich der Indische Ozean während der ARGO-Ära erwärmt? In Abbildung 6 werden die Daten des ozeanischen Wärmegehaltes im Indischen Ozean (90S-90N, 20E-120E) mit den skalierten Wassertemperatur-Anomalien des NINO3.4-Gebietes im äquatorialen Pazifik verglichen. Beide Datensätze wurden mit einem 12-monatigen laufenden Filter geglättet. Die NINO3.4-Daten sind ein allgemein gebräuchlicher Index für Zeit, Stärke und Dauer von El Niño- und La Niña-Ereignissen. Der Wärmegehalt des indischen Ozeans nimmt als Folge von El Niño-Ereignissen zu, kühlt sich aber offenbar nicht in gleicher Weise ab bei La Niña-Ereignissen.

Warum?

Ganz einfach: wie ich schon seit Jahren sage, La Niñas sind nicht das Gegenteil von El Niños.

Abbildung 6

In den folgenden Animationen kann man beobachten, wie warmes Wasser, das nach El Niño-Ereignissen hinterlassen worden ist, während der folgenden La Niñas durch eine Strömung mit der Bezeichnung Indonesian Throughflow aus dem tropischen Pazifik in den Indischen Ozean strömt. Dieses Warmwasser kompensiert jede Abkühlung, die es sonst durch La Niñas geben würde, und zwar infolge Änderungen der atmosphärischen Zirkulation.

ANIMATION 1 zeigt Karten mit den NODC-Daten des ozeanischen Wärmegehaltes während der ARGO-Ära unter Verwendung von 12-Monats-Mittelwerten. Die ersten Zellen zeigen den mittleren Wärmegehalt von Januar bis Dezember 2003. Dem folgen Zellen für den Zeitraum Februar 2003 bis Januar 2004, dann März 2003 bis Februar 2004 und so weiter. Die letzte Zeitperiode in der letzten Zelle gilt für den Zeitraum Januar bis Dezember 2012. Die 12-Monats-Mittel reduzieren das sichtbare Rauschen und jedwede saisonale Komponente in den Daten. Das ist genauso wie die Glättung der Daten mit einem 12-Monats-Filter in einer Zeitreihe.

Wegen der Auflösung der Daten des ozeanischen Wärmegehaltes könnte es schwierig sein, die Prozesse zu erkennen, die dazu führen, dass das Restwarmwasser der El Niño-Ereignisse der Jahre 2006/07 und 2009/10 in den Indischen Ozean fließen. ANIMATION 2 ist eine gif-Animation der Meeresspiegel-Karten für den tropischen Pazifik von der AVISO altimetry website. Die Karten zeigen auch den östlichsten Teil des Indischen Ozeans. Ich habe die Animation im Januar 2003 beginnen lassen, übereinstimmend mit der Diskussion der Wärmegehalts-Daten in der ARGO-Ära. Es gab eine Reihe kleinerer El Niño-Ereignisse vor dem Ereignis 2006/07. Am Ende des El Niño von 2006/07 teilt eine (kühle) Kelvin-Welle [?] die (warmen) Anomalien des Meeresspiegels entlang des Äquators. Das restliche Warmwasser wurde durch Rossby-Wellen nach Indonesien verfrachtet, und die stärker als normal wehenden Passatwinde im Pazifik während des folgenden La Niña halfen, dieses Warmwasser über Indonesien hinaus in den Indischen Ozean strömen zu lassen. Zusätzlich zu dem Indonesian Throughflow gelangt warmes Wasser aus dem südlichen tropischen Pazifik in den östlichen Indischen Ozean durch die Torres-Straße zwischen Australien und Neuguinea. Das Gleiche geschah nach dem El Niño von 2009/10. (Ich entschuldige mich für die Verschiebung in der Animation im Jahre 2011. Aviso hat das Kartenformat geändert).

 (Ende des Auszugs aus „Is Ocean Heat Content All It’s Stacked Up to Be?”)

Einige kurze Kommentare zu Trenberth et al. (2014)

Danke für das Verlinken eines Vorabdrucks von Trenberth et al. (2014) “Earth’s Energy Imbalance” in ihrem Beitrag auf SkepticalScience. Leider hatte ich keine Gelegenheit, ihn im Detail zu studieren. Aber ich habe ihn überflogen. Danke auch für die Nennung einer Anzahl von Datensätzen des Wärmegehaltes zusätzlich zu den Daten von ECMWF ORA-S4. Wir haben die Probleme dieser Re-Analyse in vielen Beiträgen diskutiert, die am Beginn dieses Beitrags gelistet sind, so dass ich hier damit jetzt nicht fortfahre… obwohl ich bemerke, dass Sie immer noch versuchen, die Verwendung der ORA-S4-Reanalyse zu rechtfertigen, indem Sie zeigen, dass sie auf vulkanische Aerosole reagieren, während dies bei anderen Datensätzen nicht der Fall ist. (Das ist keine Überraschung, ist doch die ORA-S4-Reanalyse das Ergebnis eines Computermodells, das man so programmiert hatte, dass es eine Abkühlung durch vulkanische Aerosole erzeugen soll).

Auch weise ich darauf hin, dass in Ihrer Abbildung 11, die ich hier als meine Abbildung 7 zeige, ein La Niña-Ereignis fehlt.

Abbildung 7

Der Studie zufolge haben Sie die alte Version des ONI-Index’ (hier; Vergleichsperiode 1971 bis 2000) als Referenz für offizielle El Niño- und La Niña-Ereignisse verwendet. Dabei haben Sie eindeutig den starken El Niño von 2010/11 übersehen, der dem El Niño von 2009/10 folgte. Auch gab es mäßig starke la Niña-Bedingungen während der ENSO 2009/10-Saison, aber sie dauerten nicht lange genug, um als „offizielles“ La Niña-Ereignis basierend auf der alten ONI-Klimatologie betrachtet zu werden. Ich bin mir nicht sicher, ob Ihnen das für 2008/09 oder in 2010/11 hilft.

Auch hier hatte ich leider keine Gelegenheit, Ihre Studie detailliert zu betrachten.

Ihnen zufolge, Kevin, wird ENSO durch Sonnenlicht getrieben

In Ihrer viel zitierten Studie Trenberth et al. (2002) mit dem Titel The evolution of ENSO and global atmospheric surface temperatures haben Sie festgestellt:

Die negative Rückkopplung zwischen der SST [Wassertemperatur] und Flüssen an der Oberfläche können als die Bedeutung interpretiert werden, die der Wärmeabfluss während El Niño-Ereignissen und der Wärmezufluss bei La Niñas hat. Relativ klarer Himmel im zentralen und östlichen tropischen Pazifik erlauben es der Solarstrahlung, in den Ozean einzudringen, was die unternormalen SSTs kompensiert, aber die Wärme wird durch die Ekman-Strömung, ozeanische Ströme und Wechselwirkungen zwischen Kelvin- und Rossby-Wellen davon getragen. Sie wird im westlichen tropischen Pazifik gespeichert. Dies ist nicht einfach eine Umverteilung ozeanischer Wärme, sondern auch eine Restaurierung der Wärme im Ozean. Genauso sorgt während eines El Niño der Wärmeverlust in die Atmosphäre vor allem durch Verdunstung für eine Abschwächung des Wärmegehaltes, und beides trägt zum Lebenszyklus einer ENSO bei.

Folglich [gilt] meine frühere Beschreibung der ENSO als ein chaotischer, natürlich vorkommender, von Sonnenlicht getriebener Erwärmungs-/Abkühlungs-Oszillator … wobei El Niños als Aufwärm- und La Niñas als Abkühlungsphase agieren. Aber La Niñas helfen auch bei der Umverteilung warmen Wassers durch ein El Niño – was in den oben verlinkten Animationen eindeutig zum Ausdruck kommt.

Dieses Zitat aus dem Jahr 2002 wirft eine sehr grundlegende Frage auf: wie können Sie zeigen, dass die Dominanz von La Niña-Ereignissen während der letzten Jahre eine stärkere Erwärmung des Pazifiks bis in größere Tiefen durch Treibhausgase verursacht hat, wenn diese La Niña-Ereignisse durch Sonnenlicht angetrieben werden?

Vor diesem Hintergrund: Falls Sie sich dazu entschließen, einen Beitrag für WUWT vorzubereiten, dann dokumentieren Sie bitte die einfallende kurzwellige Strahlung  und die ausgehende langwellige Strahlung, beide an der Oberfläche des tropischen Pazifiks, und zwar aus der ECMFW ORA-S4-Reanalyse, auf die Sie sich in so vielen Ihrer Studien aus letzter Zeit verlassen.

Große Sprünge

Gelegentlich beschreiben Sie „große Sprünge” der globalen Temperaturen. Ihre großen Sprünge werden diskutiert in einem offenen Brief an die Royal Meteorological Society hinsichtlich des Artikels von Dr. Trenberth mit dem Titel „Has Global Warming Stalled?“ [hier]. Danach haben Sie noch mehr zu diesen großen Sprüngen gesagt. Zum Beispiel haben Sie sich auch darauf bezogen in ihrem Interview im August 2013 beim Sender NPR [hier] (Fettdruck von mir):

Zeitweise können die Ozeane sehr viel Wärme aufnehmen. Einiges davon geht in die Tiefe, wo es Jahrhunderte lang lagern kann. Aber Wärme, die näher an der Oberfläche absorbiert wird, kann leicht wieder an die Luft abgegeben werden. Das geschah 1998, was dieses Jahr zu einem der wärmsten Jahre jemals machte.

Seitdem sagt Trenberth, dass sich der Ozean zumeist wieder im Wärmeaufnahme-Stadium befindet.

Er sagt: „Das kann nicht mehr viel länger als höchstens 20 Jahre lang der Fall sein, und was nach dem Ende dieses Stillstands passiert, wird ein plötzlicher großer Sprung (der Temperatur) auf ein ganz neues Niveau sein, und niemals wieder wird das vorangegangene Niveau erreicht“.

Man kann sich das wie eine Treppe vorstellen. Der Temperaturverlauf ist flach, wenn ein natürlicher Kaltrhythmus den graduellen, vom Menschen verursachten Temperaturanstieg ausbremst. Aber wenn es wieder zu einem Erwärmungs-Rhythmus zusätzlich zu dem langzeitlichen Erwärmungstrend gibt, ist das dramatisch anders.

„Wenn die natürliche Variabilität oder das Wetter in die gleiche Richtung geht wie die globale Erwärmung, werden wir plötzlich Rekorde brechen, wir werden außerhalb der Bandbreite bisheriger Erfahrungen liegen, und dann findet die wirkliche Schädigung statt“, sagt Trenberth.

Zunächst einmal versuchen Sie wieder einmal zu zeigen, dass El Niño-Ereignisse einen Teil der Erwärmung zum Ende des 20. Jahrhunderts verursacht haben. Das muss ein sehr großer Teil gewesen sein, wenn der Übergang zu einem La Niña die Erwärmung anhalten konnte. Warum sagen Sie das nicht einfach? Liegt es daran, dass die Leute dann bemerken werden, dass die Erkenntnis, dass eine Reihe starker El Niños zur Erwärmung von den siebziger bis zu den neunziger Jahren beigetragen hatte, auch zu der Erkenntnis führt, dass die Modelle die zukünftige Erwärmung überschätzt haben? Wir verstehen das schon … nun, die meisten von uns jedenfalls. Oder kann es daran liegen, dass die Leute auch bemerken, dass Sie den Einfluss der Atlantischen Multidekadischen Oszillation, die ebenfalls zur Erwärmung zum Ende des 20. Jahrhunderts beigetragen hat, außen vor gelassen haben? Warum stellen Sie nicht einfach fest, dass die Modellvorhersagen zu hoch sind, und zwar mindestens um einen Faktor zwei?

In dem von mir angesprochenen Teil Ihres NPR-Interviews haben Sie gesagt, dass ein starker El Niño einen großen Sprung bei den Temperaturen auslösen kann. Das verstehen wir. Ich selbst habe diese „großen Sprünge“ der Wassertemperatur bereits vor über 5 Jahren angesprochen. Wir stimmen Ihnen auch zu, dass El Niños von Sonnenlicht getrieben werden … welches Bestandteil des „Lebenszyklus‘ der ENSO“ ist, wie vor über einem Jahrzehnt festgestellt hatten. Aber ich bin sehr begierig zu erfahren, warum Sie sich darüber Sorgen machen, dass wir „niemals wieder das vorangegangene Niveau erreichen werden“ nach einem solchen durch ein El Niño ausgelösten Sprung. Genau das würden wir erwarten in einer Welt, in der natürlicher Prozesse für den größten Teil der Erwärmung sorgen … eine Welt, in der die Ozeane nur geringe Auswirkungen der zunehmenden menschlichen Treibhausgase zeitigen.

Der La Niña von 1995/96 erzeugte das warme Wasser für den El Niño von 1997/98 mittels einer Reduktion der Wolkenbedeckung und vermehrter Sonneneinstrahlung im tropischen Pazifik. Der 1997/98-El Niño hat dieses warme Wasser von unter der Oberfläche des westlichen tropischen Pazifiks nach oben befördert… und in der Folge eine substantielle Wärmemenge an die Atmosphäre abgegeben. Eine unermessliche Menge warmen Wassers wurde dann in den globalen Ozeanen verteilt nach dem El Niño 1997/98. Dieses Warmwasser verhinderte die Abkühlung proportional zum nachfolgenden La Niña 1998-01. Dieser sorgte auch für die Ersetzung des Warmwassers im tropischen Pazifik, das vom El Niño 1997/98 freigesetzt und umverteilt worden war. Alles passt zu einer sich natürlich erwärmenden Welt … einer Welt, die längst nicht so sensitiv auf menschliche Treibhausgase reagiert wie von den Klimamodellen simuliert (von Klimamodellen, die immer noch nicht grundlegende ENSO-Prozesse simulieren können).

„Der Stillstand ist Fiktion; die Erwärmung der Ozeane Fakt“???

Ich habe den Verdacht, dass Ihre Mitautoren Dana Nuticelli und Rob Painting diese Überschrift für den Schlussteil des Beitrags auf SkepticalScience geschrieben haben, Kevin. Sie ist komisch und irreführend. Die Daten zeigen, dass sich die Ozeane bis in eine gewisse Tiefe erwärmen, aber diese Erwärmung findet nicht in allen Ozeanbecken statt. Außerdem würden Sie, Kevin, bestimmt nicht so viel Zeit damit aufgewendet haben während der letzten paar Jahre, die Abschwächung der globalen Erwärmung außerhalb der Arktis zu erklären, falls der Stillstand wirklich „Fiktion“ wäre.

Angesichts der Rate, mit der sich die globalen Ozeane bis in eine Tiefe von 2000 m während der ARGO-Ära erwärmt haben (Abbildung 8), sollte man sich wirklich nicht zu viele Sorgen machen über die Erwärmung dieser Ozeane, vor allem, wenn die Daten zeigen, dass diese Erwärmung natürlichen Prozessen geschuldet ist.

Abbildung 8

Und niemand sollte sich Sorgen machen über die beobachtete Erwärmung der Ozeane, wenn wir bedenken, dass sich die Erwärmung der globalen Ozeane der ORA-S4-Reanalyse zufolge, die Sie immer präsentieren, fast ein Jahrzehnt lang abschwächen kann. Siehe meine Abbildung 9, welche eine kommentierte Version der ersten Graphik ist, die Sie in Ihrem Blogbeitrag zeigen.

Abbildung 9

Der folgende Auszug stammt aus dem oben verlinkten NPR-Interview:

Werden die Ozeane uns also retten?

„Das ist eine gute Frage, und die Antwort lautet, teils ja, aber teils auch nein“, sagt er.

Zeitweise können die Ozeane sehr viel Wärme aufnehmen. Einiges davon geht in die Tiefe, wo es Jahrhunderte lang lagern kann. Aber Wärme, die näher an der Oberfläche absorbiert wird, kann leicht wieder an die Luft abgegeben werden. Das geschah 1998, was dieses Jahr zu einem der wärmsten Jahre jemals machte.

Aber, noch einmal, das warme Wasser des El Niño von 1997/98 wurde durch eine zeitweilige Zunahme der Sonneneinstrahlung im tropischen Pazifik ausgelöst als  Teil „des Lebenszyklus‘ einer ENSO“.

Schluss

Danke für die Überlegung, eventuell einen Beitrag oder mehrere für uns hier bei WUWT zu schreiben. Viele von uns applaudieren Ihnen wegen Ihrer Bemühungen, die Verlangsamung und den Stillstand der Erwärmung zu erklären, aber es bleiben noch viele offene Fragen.

Außerdem begrüßen wir es, wenn Autoren von Blogbeiträgen Fragen beantworten, und Sie sollten einen weiteren Austausch erwarten.

Und zuletzt: Wenn diese Aufforderung Sie interessiert, können Sie gerne einen Kommentar bei WUWT schreiben. Wenn Sie gerne die Ursprungsdiskussion entfernt haben möchten, schreiben Sie bitte einen Kommentar auf meinem eigenen Blog Climate Observations, wo ich immer noch Kommentare moderiere. Wir können dann via E-Mail weiter diskutieren.

Mit freundlichen Grüßen

Bob Tisdale

Link: http://wattsupwiththat.com/2014/01/31/open-letter-to-kevin-trenberth-ncar/




Sollten wir uns Sorgen machen?

Abbildung rechts: Temperaturen der microwave Sounding unit auf Satelligen (rote Linie) von der University of Alabama. Blaue Linien zeigen eine lockere Glättung [a loess smooth], Spanne = 0,4. Daten: KNMI (NCDC, 17 MB)

Also … gibt es da etwas Besorgliches?

Nun, schauen wir doch mal. Zuallererst: In den Tropen zeigt sich kein Trend, und die machen bereits 40% der Planetenoberfläche aus. Was ist also mit all jenen, die all den armen Menschen in den Tropen „Doom and Gloom“ prophezeit haben? Tut mir leid … da zeigt sich nicht die leiseste Bedrohung. Nun, tatsächlich gibt es doch eine, und zwar die Bedrohung durch steigende Energiepreise infolge des sinnlosen Krieges gegen den Kohlenstoff – und steigende Energiepreise treffen die Ärmsten am härtesten. Aber ich schweife ab…

Und was noch? Außertropische Gebiete der Südhalbkugel? Kein Trend. Südlich des antarktischen Polarkreises? Kein Trend, es hat sich leicht abgekühlt und dann um den gleichen Betrag wieder leicht erwärmt.

Das heißt, in 70% der Planetenoberfläche zeigte sich kein wahrnehmbarer Temperaturtrend während des letzten Drittels eines Jahrhunderts …

Und was noch? Außertropische Gebiete der Nordhalbkugel? Ein kaum erkennbarer Trend und gar keiner mehr seit dem Jahr 2000.

Und das bedeutet, dass sich in etwa 96% der Erdoberfläche gar keine Richtung abzeichnet…

Bleibt noch der Rest von 4% nördlich des arktischen Polarkreises. Während der ersten eineinhalb Jahrzehnte hat es sich leicht abgekühlt. Dann ist es ein Jahrzehnt lang wärmer geworden und dann ist die Temperatur ein weiteres Jahrzehnt gleich geblieben…

Meine Schlussfolgerung? Ich sehe nicht das Geringste hier, worüber man sich Sorgen machen müsste. Wieder einmal überraschend für mich ist die erstaunliche Stabilität der Temperatur des Planeten. Ein Drittel eines Jahrhunderts, und die Temperatur in den Tropen hat nicht einmal um eine Haaresbreite geschwankt. Das ist ein extrem stabiles System.

Ich erkläre mir das als Folge des thermoregulatorischen Effektes auftauchender Klimaphänomene … haben Sie eine bessere Erklräung?

Link: http://wattsupwiththat.com/2014/01/29/should-we-be-worried/

Übersetzt von Chris Frey EIKE




Energiepolitisches Manifest Argumente für die Beendigung der Energiewende (2)

von Günter Keil, Michael Limburg und Burkard Reimer

Hinweis zur Einordnung dieses Papiers

Die Autoren wirken in einer Gruppe von Fachleuten mit, die Bewertungen und Vorschläge zur Energiepolitik für die Partei „Alternative für Deutschland “ (AfD) erarbeitet. Es handelt sich dabei um den Bundesfachausschuss Energiepolitik (BFAE) der AfD.Der Inhalt des vorliegenden Papiers ist zum Teil in die Programm-Arbeit der AfD eingeflossen, es gibt jedoch ausschließlich die Meinung der Autoren wieder und ist kein Programm-Papier der AfD. Politische Grundsätze und Ziele dieser Partei werden auf einem in Vorbereitung befindlicher Programmparteitag nach eingehender Beteiligung ihrer Landesverbände beschlossen – dieser Prozess und seine Ergebnisse bezüglich der künftigen Energiepolitik der AfD sind abzuwarten.

Fortsetzung des ersten Teiles (den finden Sie hier)

2.3    Ein weiteres Milliarden-Grab – die Energie-Einspar-Verordnung EnEV und das Erneuerbare-Energien-Wärme-Gesetz EEWärmeG 

Wesentliche Komponenten der Energiewende sind die Energie-Einspar-Verordnung EnEV (47), die auf dem Energie-Einsparungs-Gesetz EnEG beruht, und das Erneuerbare-Energien-Wärme-Gesetz EEWärmeG (48). Wie bei dem EEG und der Energiewende werden die erforderlichen Kosten zur Umsetzung von der Regierung und den Profiteure klein geredet oder verschwiegen. Beide Maßnahmen sollen den Verbrauch von vorwiegend fossilen Energieträgern für das Heizen privater und öffentlicher Gebäude vermindern und damit der geplanten Absenkung der CO2-Emissionen dienen.  Die EnEV wurde 2002 erlassen. Zwischenzeitlich wurde sie mehrfach mit dem Ziel novelliert, zuletzt 2013, insbesondere die Forderungen an die Wärmedämmung und die Heizsysteme der Gebäude, weiter zu verschärfen .

Beide gesetzlichen Maßnahmen stehen deutlich seltener als das EEG im öffentlichen Fokus. Obwohl die erhofften Wirkungen der Verbrauchsminderung nachweislich nur bei wenigen Gebäude-Konstruktionen mit schlechter Wärmedämmung, wie z.B. bei dünnen Wänden mit geringer Masse, die in den 50er und 60er Jahren errichtet worden sind,  eintreten. Dagegen verursachen sie häufig massive Schäden z.B. durch mangelhaften Luftaustausch in den Innenräumen, aber auch durch Durchfeuchtung, Algen- und Pilzbefall der Außenwände. Zudem sind insbesondere Styropor-Dämmmaterialen gute Brandbeschleuniger, so dass im Brandfall die Feuerwehr einen kontrollierten Abbrand bevorzugt, statt zu löschen.

Eine messbare Verminderung des Energie-Verbrauchs wird hingegen nur selten erreicht, oft tritt das Gegenteil ein, da die Dämmmaterialien das Eindringen der durch die Sonnenstrahlung erzeugten Wärme in die Außenwände weitgehend verhindern.

Da die EnEV seit Jahren großräumig in allen Teilen des Landes angewendet werden muss, führt sie in großem Umfang zu einer Zerstörung der verbauten Materialien und damit der Bausubstanz bei gleichzeitig extrem aufwendiger und damit kostspieliger Umhüllung der Fassadenflächen. Die Kosten, die der Vermieter ggf. auf die Mieter abwälzen kann, sind erheblich, und werden bis zum Ende des Programms 2050 ca. 3 Billionen € allein durch die Fassadendämmung erreichen. Da die Dämmung oft mit einer ohnehin notwendigen Renovierung der Fassade einhergeht, werden die für die EnEV aufzuwendenden Beträge in der Regel weniger sichtbar. Kaum einer der Auftraggeber der Dämmmaßnahmen macht sich die Mühe diese Kosten herauszurechnen. So fehlt die Transparenz. Die Kosten belaufen sich pro m3 umbauten Raumes auf derzeit ca. 200 €, amortisieren sich aber nur selten. In so gut wie in keinem Fall geschieht das innerhalb der in der EnEV vorgegebenen Amortisationszeit von 10 Jahren.

In der Studie von Prof. Simons, Forschungsinstitut empirica, Berlin, „Energetische Sanierung von Ein- und Zweifamilienhäusern“ (49)  wurden zur Beurteilung des energetischen Zustands der Gebäude in die Berechnungen die Heizungsanlage,  Fenster, Außenwanddämmung, obere Geschossdecke/Dach und Fußboden/Kellerdecke einbezogen. Zusammengefasst kommt die Studie zum Ergebnis, dass eine energetische Sanierung im Regelfall unwirtschaftlich ist, da die eingesparten Energiekosten nicht die Kosten dieser Sanierung decken. Der mittlere Energieverbrauch von nicht wesentlich modernisierten Ein- und Zweifamilienhäusern beträgt 167 kWh/(m²a). Bei Energiekosten von 0,08 €/kWh belaufen sich die Energiekosten vor Sanierung auf 13,36 €/(m²a). Unterstellt, durch eine energetische Sanierung ließen sich tatsächlich 60 % der Energie einsparen – ein ambitioniertes Einsparziel, das in der Realität nur selten erreicht wird – so sinken die Energiekosten um 8,01 €/(m²a). Innerhalb von 15 Jahren summieren sich die eingesparten Energiekosten entsprechend auf 120 €/m² und damit bei Weitem nicht auf die Sanierungskosten, die bereits bei einfachen Fällen zwischen 300 und 500 €/m² liegen.

Auf einer Fachtagung zur Gebäudesanierung stellte Prof. Simons fest (41):

„Eine Sanierung trotz noch relativ gutem Zustand der Bauteile macht wenig Sinn“. Und weiter: „Besonders die Materialkosten der energetisch relevanten Bauprodukte sind in den Jahren 2000-2011 zwischen 10 und 50% angestiegen“. Auch eine aktuelle Studie der Kreditanstalt für Wiederaufbau KfW beleuchtete das Dilemma steigender Bauproduktpreise und deren Auswirkung auf die dadurch weiter sinkende  Wirtschaftlichkeit energetischer Modernisierungs-Maßnahmen (42). Hierzu M. Kleemann, Jülich: „Neben der oftmals sehr knappen Wirtschaftlichkeit energetischer Sanierungsmaßnahmen mit Amortisationszeiten von über 25 Jahren (!) ist auch das „Dilemma der mittleren Qualität“ ein Problem. Das Anforderungsniveau … wird nur zu 69% umgesetzt“.

Zweck des am 01.01.2009 in Kraft getretenen EEWärmeG ist 1. der Klimaschutz, 2. die Schonung fossiler Ressourcen, 3. die Senkung von Energieimporten, 4. die Weiterentwicklung von Technologien zur Erzeugung von Wärme und Kälte aus „Erneuerbaren Energien“ EE und 5. bis 2020 den EE-Anteil am Endenergieverbrauch für Wärme und Kälte auf 14% zu erhöhen (Ist 2011: 10,2%). Es ist damit das zentrale regulatorische Instrument, um den Einsatz von EE im Gebäudesektor  und weitere  Maßnahmen voranzutreiben.

Bei Neuerrichtung von Gebäuden müssen die Eigentümer für die Erzeugung von Wärme und Kälte bestimmte Anteile an der gewählten „Erneuerbaren Energie“ nutzen (48 § 5, § 7). Die Mindestanteile sind u.a.: Für Solare Strahlung 15%; für feste Biomasse 50%; für Geothermie oder Umweltwärme 50%. Bei s.g.  Ersatzmaßnahmen gilt ein Mindestanteil von 50% bei Nutzung von Abwärme oder KWK-Anlagen. Als Ersatzmaßnahmen kann z.B. auch die zusätzliche Einsparung von Energie durch besonders gute Wärmedämmung der Gebäudehülle angerechnet werden, wenn der jeweilige Höchstwert des Jahres-Primärenergiebedarfs nach der EnEV um mindestens 15% unterschritten wird. Fernwärme und Fernkälte gelten nur dann als Ersatzmaßnahme, wenn sie zu einem wesentlichen Anteil aus EE oder zu mindestens  zu 50% aus der Nutzung von Abwärme oder von KWK-Anlagen oder aus einer Kombination der drei Varianten stammt.

Die bei derartigen Zwangsmaßnahmen eintretenden Reaktionen der Betroffenen beklagte die Bundesregierung bereits 2012 in einem „Erfolgsbericht“ des BMU (40): „Es zeigten sich sogar rückläufige (!) Trends beim EE-Anteil an Sanierungsmaßnahmen.“ Offenbar versuchen die Bürger nicht nur mit der Verschiebung von eigentlich fälligen Erneuerungen ihrer Heizungsanlagen den Einbau teurer EE-Anlagen zu vermeiden; sie haben alte Anlagen repariert und sie zum Teil wiederum unauffällig durch funktionierende Anlagen ersetzt. Diese Zwangsmaßnahmen führen mit Sicherheit dazu, dass sich ein Schwarzmarkt für die Installation von Heizungsanlagen entwickelt, die keine EE-Anlagen einbeziehen, die aber sehr wohl aus modernen und effizienten konventionellen Anlagen – z.B. Brennwertkessel – bestehen können.

Auch von E. Gawel et al (39) wird diese Entwicklung beklagt: „Kritisch bei einer anlassbezogenen  Nutzungspflicht (Anm.: einer Modernisierung) im Bestand sind die möglichen Auswirkungen auf die Heizungs-Modernisierungs-Rate, soweit Investoren Sanierungen hinauszögern, um den gesetzlichen Geboten bei unzureichender Wirtschaftlichkeit zu entgehen“

Die Öko-Bürokratie in den Berliner Ministerien wird diesen logischen Reaktionen der Betroffenen auf die  gesetzlich vorgeschriebene Installation unwirtschaftlicher Anlagen sehr wahrscheinlich mit Verschärfungen begegnen. Das könnte vor allem einer Ausdehnung der EnEV und des EEWärmeG auf alle Bestandsgebäude  bedeuten. Die wirksamste und wahrscheinlichste neue Zwangsmaßnahme wird vermutlich eine Modernisierungspflicht für alle Heizungsanlagen sein, die ein bestimmtes Alter erreicht haben, wobei dann EE-Anlagen eingesetzt werden müssen.

Die Deutsche Energie-Agentur GmbH (dena) und die Allianz für Gebäude-Energie-Effizienz (geea) haben sich bereits für eine „deutliche Verschärfung der Anforderungen an Neubauten“ ausgesprochen.

Der Bundesrat hat – wie auch die geea – die Bundesregierung aufgefordert, das Ordnungsrecht zur Energieeffizienz von Gebäuden zu vereinfachen, indem die EnEV und das EEWärmeG zusammengelegt werden. Das bildet dann auch die Gelegenheit, endlich alle Bestandsgebäude diesen Regelungen zu unterwerfen.

(Anm.: Die dena gehört zu 50% dem Staat, zu 26% der mehrheitlich bundeseigenen Kreditanstalt für Wiederaufbau KfW. Die geea wurde von der dena gegründet und versteht sich als „Plattform der Akteure (Anm.: Profiteure) in den Branchen Bauen und Energie“; sie wird von der dena koordiniert.)

Der Wärmesektor ist jedoch der einzige Bereich, in dem in Deutschland die Energie der Sonnenstrahlung – und zwar auch ihr beträchtlicher Rot- und Infrarotanteil – wirtschaftlich genutzt werden kann. Ferner bietet auch die Nutzbarmachung der Umwelt- oder Erdwärme zu Heizungszwecken – z.B. mittels der Wärmepumpen-Technik – eine weitere sinnvolle Anwendung für die regenerativen Energien in Deutschland.

Bei einer konsequenten Förderung der betreffenden Forschung und Entwicklung (F&E) mit Fokus auf eine Senkung ihrer Investitions- und Betriebskosten stellt dies eine große Chance für eine importunabhängige und kostengünstige Klimatisierung der Gebäude dar. Kostenintensive

Markteinführungsmaßnahmen hingegen bringen keine qualitativen Verbesserungen und sollten niemals vom Staat gefördert werden. Die Fokussierung der Regierungen auf die Stromerzeugung mit „Erneuerbaren“ war und ist ein grundsätzlicher und sehr teurer politischer Fehler. Der verspätete Versuch auch im Gebäudebereich die „Erneuerbaren“  für Techniken zur Erzeugung von Wärme und Kälte zu erschließen, beruht abermals auf Zwang und bevorzugt wiederum die unwirtschaftlichen, aber politisch-ideologisch gewollten EE-Technologien (siehe Kapitel 2.3). 

Im Kapitel 2.13 sind die notwendigen F&E-Maßnahmen zusammengestellt worden.

Vorschlag:

Die EnEV und das EEWärmeG sind ersatzlos abzuschaffen. Es muss den Bauherren oder Gebäudebesitzern überlassen bleiben, ob und wieviel Geld er/sie in die Wärmdämmung, die Heizungsanlage, die Pflege  und den Erhalt der Gebäude stecken.

2.4  Das Speicher-Dilemma

Die Regierung hat seit Einführung des EEG mit ihrer massiven Förderung der vom Tageslicht und vom Wind abhängigen Stromerzeugung von Anfang an ignoriert, dass dieser „Flatterstrom“ ohne die Möglichkeit seiner großtechnischen Speicherung für einen hochentwickelten Industriestaat weitgehend  wertlos, stattdessen aber sogar für die Netzstabilität problematisch ist. Zum Ausgleich der systembedingten kurzzeitigen starken Schwankungen des Wind- und Solarstroms sind riesige Speicher erforderlich, die es aber weder damals gab noch heute oder in absehbarer Zukunft geben wird.

Die Aufgabe solcher Speicher wäre es, nicht nur die kurzzeitigen Schwankungen der instabilen Stromquellen Wind und Sonne zu glätten sondern insbesondere im Winter längere Hochdruck-Wetterlagen mit Hochnebel und daher ohne Wind und mit stark verringerter Sonneneinstrahlung für mindestens 12 Tage zu überbrücken.

Hier bieten sich allein Pumpspeicher-Kraftwerke mit einem Wirkungsgrad von 75% an (8).  Die z.Z. vorhandene Speicher-Kapazität aller Pumpspeicher in Deutschland beträgt 40 GWh (Gigawatt-Stunden), womit Deutschland 40 min lang mit Strom versorgt werden könnte (9).

Um für 12 Tage die erforderliche Strommenge von 17.280 GWh über diese Speicherkraftwerke  sicherzustellen, müssten 2038 Pumpspeicher-Kraftwerke von der Größe Goldisthal neu errichtet werden. Goldisthal in Thüringen ist das größte Pumpspeicher-Kraftwerk Deutschlands und kann maximal 8,480 GWh speichern (Berechnung siehe Nr.1 der Anlage).

  • Auch Prof. Sinn ging in seinem Vortrag auf das Problem der fehlenden Speicherkraftwerke ein (38).  Um den Flatterstrom aus Wind und Sonne bedarfsgerecht aus eigener Kraft anbieten zu können, kann er am effektivsten mit Hilfe von Pumpspeicher-Kraftwerken „geglättet“ werden. Das heißt aber auch: Solange das nicht realisiert ist,  muss  die installierte Leistung der herkömmlichen fossil-gefeuerten und Kern-Kraftwerke zu 100%  betriebsbereit vorgehalten werden. Nur so kann gegenwärtig der volatile Strom verstetigt  und in der Nacht bei Windstille aber oft auch über Tage nahezu vollständig ersetzt werden.
  • Bei seinem Modell geht Prof. Sinn von der 2011 installierten Leistung an volatilem Wind- und Sonnenstrom und der in diesem Jahr gelieferten Strommenge aus. Er rechnet vor, wie viel Pumpspeicher nötig wären, um diese vergleichsweise kleine Strommenge von 68.500 GWh, das sind 11,2% des produzierten Bruttostroms (4) kontinuierlich liefern zu können.
  • Für den Ausgleich der Windkraft-Fluktuationen ergibt sich folgende Rechnung (38, Video ab min. 43): Eine über das Jahr kontinuierliche Windstrom-Leistung von 5,1 GW, wovon insgesamt 0,9 GW ständig gesichert am Netz sind und 4,2 GW der Volatilität unterliegen, erfordert eine Speicherkapazität von 6600 GWh. Dafür müssten 6097 neue Pumpspeicher gebaut werden. Tatsächlich habe Deutschland aber nur 35 dieser Anlagen und selbst die wenigen neu geplanten Anlagen würden stärksten Bürgerprotest hervorrufen – siehe das Jochberg-Projekt am Walchensee in den Bayerischen Voralpen. Selbst wenn man mit 3,0 GW kontinuierlicher Windstrom-Leistung vorliebnimmt und den Strom aus der Leistungs-Differenz von 2,1 GW (5,1 GW – 3,0 GW), d.h. die Leistungsspitzen „verwirft“ –  benötigte man dennoch 456 neue Anlagen für das Speichern des volatilen Anteils aus der Leistung von 2,1 GW (3,0 GW – 0,9 GW).
  • Wegen der Nacht gibt es überhaupt keine gesicherte Sonnenstrom-Leistung. Der volle Ausgleich der Sonnenstrom-Votalität von 2,2 GW mittlerer Jahresleistung würde noch einmal 3918 Pumpspeicher-Kraftwerke erfordern (38, Video ab min. 46). Da sich der Windstrom und der Sonnenstrom in gewisser Weise ergänzen – im Winter gibt es mehr Wind und im Sommer mehr Sonne – brauchte man für die Speicherung der Summe des Stroms aus 7,3 GW Wind- und Sonnenstrom-Leistung  „nur“ 3544 Speicher-Kraftwerke. Reduziert man das wieder auf 4,1 GW und verwirft die Leistungsspitzen von Wind- und Sonnenstrom bis 7,3 GW braucht man dann „nur“ 385 Speicher. Da noch der Wirkungsgrad der Pumpspeicher-Kraftwerke von 75% berücksichtigt werden muss, werden zur Glättung des volatilen Stroms aus einer Leistung von 3,2 GW (4.1 GW – 0,9 GW gesicherte Windstrom-Leistung) 437 Speicher gebraucht.
  • Unter diesen Bedingungen würde man durch den 2011 produzierten Wind- und Sonnenstrom gerade einmal 4 Kernkraftwerke oder Kohlekraftwerke mit einer Leistung von 4,1 GW dauerhaft ersetzen können, davon knapp 1 Kraftwerk durch den kontinuierlich zur Verfügung stehenden Windstrom von 0,9 GW und gut 3 Kraftwerke durch den Bau von 437 Speicher-Kraftwerken. Somit kann nur 1 Kraftwerk bzw. eine Leistung von 0,9 GW endgültig still gelegt werden. Das dauerhafte Abschalten weiteren 3 herkömmlichen Kraftwerken bzw. Herausnehmen von 3,2 GW – d.h. von 4% – aus der aus Sicherheitsgründen vorzuhaltenden Leistung  von ca. 80 GW ist technisch und ökonomisch nicht lösbar. An diesem Beispiel sieht man noch einmal sehr deutlich, wie weit entfernt von leicht überprüfbaren mathematischen, naturwissenschaftlichen und ökonomischen Fakten sich alle Verfechter  der Energiewende bewegen und zur großen Volksverdummung über die Energiewende beitragen.
  • Nach Prof Sinn ist sei auch die Idee unsinnig, die Batterien von Elektroautos als Speicher für das Stromnetz zu verwenden. Die von der Regierung bis 2020 erhoffte Zahl von 1 Million E-Autos würde – falls sie überhaupt als Speicher für das Netz zur Verfügung stehen würden –,6% der erforderlichen Speicherkapazität bringen. Für eine 100%ige Speicherung würde man 164 Millionen E-Autos brauchen, die ca. 254 Milliarden Euro kosten würden (38).

Die eignen Berechnungen für die immer wieder propagierte mögliche Versorgung mit 100% volatilem EE-Strom (siehe Anhang) ergeben folgende, sehr ähnliche  Resultate:

Um die o.g. 2038 Pump-Speicher-Anlagen mit ausreichend volatilem EE-Strom zu versorgen, müsste die Leistung der erneuerbaren Stromerzeuger von 62 GW im Jahre 2012 auf das  11-fache  ausgebaut werden. Beides ist illusorisch, denn  nicht einmal der hundertste Teil der erforderlichen Pumpspeicher-Kraftwerke könnte noch in Deutschland errichtet werden: Es fehlt der Platz; vom Widerstand der lokalen Bevölkerung ganz abgesehen, wie kürzlich am Beispiel der gescheiterten Rursee-Anlage in der Nordeifel zu sehen war. Und ein 11-facher Ausbau der volatilen EE-Stromer-Anlagen ist ebenso abwegig. Es kann niemals in Deutschland die notwendige Langzeit-Speicherkapazität errichtet werden, die für den geplanten Ausbau der Stromversorgung mit weitaus höherem Anteil an Wind- und Solarstrom unter der Bedingung einer ausreichenden Netzstabilität erforderlich wäre.

Deshalb kommen für die notwendige Stabilisierung des Stromnetzes gegen den fluktuierenden Wind- und Solarstrom fast ausschließlich konventionelle Kraftwerke in Frage – das sind Gas- und Kohlekraftwerke – die somit unverzichtbar bleiben. Allerdings sind gerade diese durch das zu bestimmten Zeiten erzwungene Überangebot des an der Strombörse gehandelten billigen EE-Stroms, der anschließend von den Verbrauchern über die EEG-Umlage teuer bezahlt werden muss, in ihrer Wirtschaftlichkeit und damit von Stilllegung bedroht – siehe Kapitel 2.6.

Damit ist die Absurdität der Energiewende-Planung mit ihren inneren Widersprüchen offensichtlich.  Deren Ziele sind ungeachtet der zu ihrem Erreichen verschwendeten Milliarden an € niemals auch nur im Entferntesten realisierbar.

Die Aussichten heute: Die Stabilität des Netzes nimmt weiter ab, aber dennoch wird der auf Kosten der Verbraucher verfolgte Ausbau der unberechenbaren Wind- und Solarstromanlagen – nach wie vor ohne Absicherung durch Speicher – sehr wahrscheinlich weiter fortgesetzt. Damit ist der Weg in die doppelte Katastrophe – eine unsichere Stromversorgung und die extrem hohen Stromkosten – vorgezeichnet, wenn nicht sehr bald ein radikaler Kurswechsel erfolgt.

2.5  Neue Speichertechniken ohne Chance zur Rettung der Energiewende

Da auch die Politik und die Verfechter der volatilen „Erneuerbaren“ die Unmöglichkeit für dieErrichtung der riesigen, zwingend benötigten Pumpspeicher-Kapazitäten in Deutschland stillschweigend akzeptieren, greifen nun die politischen Verteidiger der Energiewende zu der bewährten Methode der Herausstellung angeblicher technischer Alternativen sowie der Finanzierung von angeblich die Lösung bringenden  Entwicklungsprojekten – in diesem Fall also Stromspeichertechniken bzw. Techniken, die man so nennt, obwohl sie nur auf die Produktion von Gas oder Wärme aus EE-Strom hinauslaufen.

Wie meistens gibt es in der Technik verschiedene Lösungen für technische Probleme; das Deutsche Patentamt ist voll davon. Der immer über die Brauchbarkeit entscheidende Knackpunkt ist aber jeweils die Antwort auf die Fragen nach den Kosten, nach der Praktikabilität und – selbst bei den Techniken, die dafür eine positive Antwort versprechen – die Frage nach dem realistischen Zeitpunkt nicht nur der Entwicklungsarbeiten, sondern des Erreichens von Marktreife und Marktdurchdringung. Technische Laien können sich nur schwer vorstellen, dass die Zeit vom Beginn der Entwicklungsarbeiten bis zur Marktreife sehr oft 30 bis 40 Jahre dauert, wobei 20 Jahre bereits die erfreuliche Ausnahme bildet.

Ein Beispiel  ist die Brennstoffzelle. Diese Anlage vermag aus Wasserstoff und Sauerstoff durch „kalte Verbrennung“ Gleichstrom mit Wirkungsgraden von 50 – 60% zu erzeugen.  Seit 1970 hat der Staat  viele Millionen DM in die Entwicklung investiert. Leider ist diese Technik bis heute immer noch nicht ausgereift; es gibt nur wenige sog. Pilotanwendungen. Der Grund: Immer noch zu hohe Kosten und zu geringe Lebensdauer. Aus diesem Grund wird die Anwendung dieser nicht verfügbaren Technik in den unten beschriebenen Prozessen auch nicht berücksichtigt.

Das Dilemma der fehlenden großen Stromspeicher führt nun dazu, dass die Regierung damit begonnen hat, verschiedene Entwicklungen von neuen Speichertechniken zu fördern, die man zumindest der Öffentlichkeit als Hoffnungsvision darstellen kann. Dabei wird darauf vertraut, dass vor allem die Medien diese Aktivitäten als sog. Zukunftstechnologien lobend darstellen – und dass die Bürger einerseits die Schwächen dieser Systeme nicht durchschauen und andererseits annehmen, dass der Einsatz dieser Techniken in nächster Zukunft stattfinden kann und wird.

Man kann durchaus von einer Täuschung sprechen, denn wie unten gezeigt wird, besteht in keinem der Fälle eine Chance dazu.

In den folgenden Darstellungen wird wiederholt auf eine wichtige Kenngröße aller Anlagen der  Energieumwandlung und -Übertragung hingewiesen: Der Wirkungsgrad.

Das ist ein Maß für die Effizienz, mit der eine Anlage arbeiten kann. Er beschreibt das Verhältnis der abgegebenen Nutzleistung zur zugeführten Leistung und wird deshalb in Prozent angegeben.

Ein Pumpspeicherkraftwerk, das einen Wirkungsgrad von 70 % hat, vermag also von einer aufgenommenen Strommenge (z.B. 100 Megawattstunden, MWh) 70 Prozent wieder als Strom abzugeben – also 70 MWh Strom. Der Rest von 30 MWh elektrischer Energie geht als Verlustwärme verloren.

Bei einer Kette von hintereinander liegenden Anlagen erhält man den Gesamtwirkungsgrad durch einfache Multiplikation der Einzel-Wirkungsgrade.

Bei allen offiziellen Angaben zu Wirkungsgraden ist Vorsicht geboten, weil man damit die Effizienz einer Anlagentechnik erheblich auf dem Papier schönen kann – was auch gerade zu Gunsten politisch erwünschter Technologien oft und gerne geschieht.

Im Folgenden werden die als neue Speichertechnologien ins Rampenlicht gestellten Verfahren beschrieben und bewertet. Sie alle sollen den überflüssigen und nur das Netz störenden  Wind- oder Solarstrom nutzen und daraus Wasserstoff, synthetisches Erdgas oder auch wieder Strom erzeugen.

Die meisten nützlichen Zahlenangaben lieferte die Fa. ENERTRAG, die die Anlage in Prenzlau betreibt (51,54); s. auch die Lit. (55) und (56). Daten zu diesem Projekt in Anlage 2.

A.) Die Power-to-Gas-Technik  

Dieses Verfahren beginnt in allen seinen Varianten mit der Anwendung eines elektrochemischen Prozesses: Die Elektrolyse von Wasser mit Strom – woraus man Wasserstoff, Sauerstoff und Verlustwärme erhält.  Wollte man tatsächlich eine Speicherung des eingesetzten Stroms wie bei einem Pumpspeicherwerk, liegt hier bereits ein entscheidender Nachteil vor, denn aus der hochwertigen Elektroenergie wird unter Inkaufnahme hoher Verluste ein im Vergleich zur elektrischen Energie minderwertigerer Energieträger, ein Brenngas, erzeugt. Bei einem Pumpspeicherwerk erfolgt die Zwischenspeicherung jedoch in der Form von hochwertiger potenzieller Energie (die Höhe der Wassersäule), die direkt wieder über eine Turbinen-Generator-Kombination mit einem hohen Wirkungsgrad als Strom abgegeben wird.(6)

A 1) Die Erzeugung von Wasserstoff aus EE-Strom

Der aus dem Netz entnommene Wechselstrom muss gleichgerichtet werden, um dann in einer Elektrolyse-Anlage Wasser in Wasserstoff H2 Sauerstoff zu spalten. Ziel ist es, den Wasserstoff dem landesweiten Erdgasnetz zuzuführen. In diesem ist eine Wasserstoffkonzentration von 5% erlaubt.

Wirkungsgrad „EE-Strom zu H2“: – Gleichrichtung 94 %,   – Elektrolyse 80 %,  – Gesamt 75 %.

Probleme: a) Man hat keinen Strom gespeichert. Es wurde mit 25% Verlusten ein Brenngas erzeugt.

                 b) Es ist zunächst der Nachweis zu erbringen, dass Elektrolyseure, die unter Praxisbedingungen intermittierend bzw. fluktuierend im Zusammenspiel mit EE-Erzeugern eingesetzt werden, tatsächlich ein zufriedenstellendes Betriebsergebnis zeigen

                 c) Man muss große Mengen an H2 zwischenspeichern. Dessen Kompression erzeugt weitere Verluste zwischen 5 und 15 % (6).

 Kosten:     Die Kosten des so erzeugten Wasserstoffs werden vom Preis des EE-Stroms (bei direkter  Lieferung Windpark-zu-Anlage), von den o.g. Verlusten und von den Kapital- und Betriebskosten der Anlage und den Steuern bestimmt. 

Folgendes kann gut abgeschätzt werden:

–        Windstromkosten nach EEG: Land: 4,87 – 8,93 (Anfangsvergütung) Cent/kWh

                                                    Offshore: 19 Cent/kWh („Stauchungsmodell“)

–        mal Faktor 1,48 wegen der Verluste bis zur Elektrolyse (75%) und durch die folgende Verdichtung zur Gasnetz-Einspeisung (10 %); =    7,21 Cent/kWh für alte Land WKA                                                                                                         = 28,05 Cent/kWh für Offshore-WKA

–        Kapital- und Betriebskosten: Marktübliche jährliche Größen sind 7% für Verzinsung, 5% für eine 20-jährige Abschreibungsdauer und 7% für Betriebskosten – zusammen 19% p.a. von der Investition. Aus den Daten der Anlage in Prenzlau (Elektrolyseurkosten 10 Mio Euro, weitere Anlagen (geschätzt) 4 Mio Euro, Stromerzeugung 16.000 MW/a) ergeben sich  Kapital- und Betriebskosten von 16,6 Cent/kWh.

–        Damit Erzeugungskosten des ins Erdgasnetz eingespeisten H2:

= 23,7  bis 44,65 Cent/kWh 

–        Dazu Netzkosten, Erdgassteuer, Umsatzsteuer, Konzessionsabgabe: zus. 47%

–        Endpreis bei Bezug des Wind-Wasserstoffs über das Erdgasnetz:

=  34,8  bis 65,6 Cent/kWh, je nach Alter und Ort der Windräder.

–        Im Vergleich: Haushalts-Gaspreis: 7,1 Cent/kWh (Rhenag, Siegburg).

Je höher der Anteil an Offshore-Windstrom wird, umso teurer wird der Wind-Wasserstoff – d.h. bis zum 9-fachen des normalen Erdgaspreises.

Der so erzeugte Wasserstoff kann jedoch nur in beschränkten Mengen ins Erdgasnetz eingespeist

werden. Das verhindert einen flächendeckenden Einsatz dieser Technik. Bei größeren Anlagen wird diese Grenze rasch erreicht, weshalb dieses nur bis zur Wasserstofferzeugung reichende Verfahren relativ bedeutungslos bleiben wird. Deshalb hat man notgedrungen einen weiteren Schritt mit der Erweiterung dieser verlustreichen Verfahrenskette getan, um das Erdgasnetz voll als Endabnehmer nutzen zu können. Mit der Nachschaltung einer Methanisierungs-Stufe wird Synthetisches Erdgas SNG erzeugt (siehe A 3).  

A 2)  Die Erzeugung von Strom – über den Zwischenschritt Wasserstoff – mit Rückverstromung.

Zumindest mutet eine so aufgebaute Anlage wie ein Stromspeicher an, denn Strom geht hinein und wird wieder abgegeben. Dafür muss der Wasserstoff – nach Speicherung – in einem Wasserstoffmotor oder einer Gasturbine plus Stromgenerator verbrannt werden. Erhebliche Zusatzverluste sind der Preis.

Wirkungsgrad „EE-Strom zu H2 zu Strom“:

–        In A 1) ergab sich für die H2-Erzeugung 75 %.

–        Ein Gasmotor kann 40 % erreichen.

–        Eine 100 MW-Gasturbine bis 40 %; eine 10 MW-Gasturbine 35 %. Es wird hier

–        38 % angenommen.

Diese Anlage erreicht somit einen Wirkungsgrad von 0,75×0,38 = 28,5 %. Mit einem Stromspeicher hat das nichts mehr zu tun. Vielmehr handelt es sich bei einem Verlust von 71,5 Prozent um eine recht teure Energievernichtungs-Anlage.

                 

Probleme: a) Weil Überschuß-Windstrom im Netz nicht gebraucht wird, muss der erzeugte Wasserstoff erst einmal gespeichert werden, bis wieder Bedarf im Stromnetz entseht. Das führt zu einem erheblichen Speicherproblem.

                 b) Zwar nimmt die Anlage Strom auf, speichert den erzeugten Wasserstoff und erzeugt mit diesem wieder Strom, der abgegeben wird, aber die nochmals erhöhten Verluste sowie die ebenfalls höheren Kapitalkosten treiben diesen Strompreis weit über das Niveau der ohnehin schon hohen Kosten für den „gespeicherten“ Wind- oder Solarstrom. Der Gesamtwirkungsgrad von 30 % – also 70 % Verluste – ist nichts anderes als eine Katastrophe. Da hilft es nichts, einen Teil der Verlustwärme noch irgendwie zu nutzen.

 Kosten:     –  Wie in A 1) ergibt sich für die Wasserstofferzeugung

                     =    7,21 Cent/kWh für Strom aus alten Land-WKA                                                    =  28,05 Cent/kWh für Strom von Offshore-WKA

                  –  Die folgende Verstromung kann in Wasserstoff-Motoren oder Gasturbinen – jeweils mit  nachgeschalteten Stromgeneratoren – erfolgen. Deren Wirkungsgrad ist in beiden Fällen

                     ca. 38 %.

                  –  Bei großen Gaskraftwerken wird oft das sog. GuD-Verfahren eingesetzt, bei dem einer Gasturbine noch eine zweite Stufe – eine Dampfturbine – zur Abwärmenutzung nachgeschaltet wird, was Wirkungsgrade bis zu 60 % ermöglicht. Aufgrund der höheren Investitionskosten für GuD-Anlagen und der sehr wahrscheinlich geringen zeitlichen Auslastung in einem von EE-Stromerzeugern

dominierten System wird man vermutlich auf die teure Dampf-Zusatzstufe verzichten. Das bedeutet: Nur eine Gasturbine ohne Abwärmenutzung erledigt die Rückverstromung – mit dem o.g. Wirkungsgrad. Entsprechend sinkt der Gesamtwirkungsgrad der Anlage auf 25,6 %.

                   –  Zwischenergebnis:  18,96 bis 73,77 Cent/kWh

                   –  Hinzuzufügen: Kapital- und  Wartungskosten (bei 21 Mio Investitionskosten (54))

                      von 25  Cent/kWh:

                   –  Die Stromerzeugungskosten betragen dann:

                       =   44,0  bis 98,8 Cent/kWh.

                      Weil das EEG derartige Vergütungen nicht vorsieht, wird eine solche Anlage nur Verluste einfahren, Es sei denn, die Regierung ändert das EEG und stellt die o.g. enormen Einspeisevergütungen bereit. Das ist im Moment nicht vorstellbar, aber noch vor wenigen Jahren war auch die heutige Situation in der Energiewirtschaft nicht vorstellbar.

                   –  Für die Privatkunden beträgt 2014 die Belastung des Strompreises durch Steuern und Abgaben 55 %. (56).

                      Ergebnis: Eine derartige Power-to-Gas-Anlage verursacht einen Strompreis von 68,2 Cent/kWh bis  1,53 Euro/kWh – je nach aufgenommenem „EE-Strom-Mix“.

A 3)  Die Erzeugung von Strom – über die Zwischenschritte Wasserstoff, Methan und Rückverstromung

Weil die nur bis zum Wasserstoff reichende Verfahrenskette bald zu Schwierigkeiten bei der Einspeisung dieses Gases in das Erdgasnetz führt (s.o.), hat man beschlossen, der Elektrolyse eine Methanisierung nachzuschalten. Damit nimmt man weitere Verluste in Kauf.

Für die Umwandlung von Wasserstoff in synthetisches Naturgas SNG nach dem Sabatier-Verfahren wird Kohlenstoffdioxid CO2 eingesetzt. Anschließend erfolgt wieder die Rückverstromung – wie oben beschrieben.

Probleme: a)  Die Umwandlung in SNG erfordert einen weiteren erheblichen Ausbau der Anlage; deutlich höhere Kapitalkosten und Wartungskosten entstehen.

b)     Der Wirkungsgrad der Methanisierung beträgt 80 bis 85 %; hier angenommen: 83 %.

Damit folgt für den Gesamtwirkungsgrad der Anlage:

0,75 x 0,9 x 0,83 x 0,38 = 0,213. Also klägliche 21,5 Prozent.

V. v. Schnurbein, der die zwei Szenarien einer optimistischen und einer skeptischen Abschätzung der einzelnen Prozeßwirkungsgrade betrachtete, kam  hier bei der skeptischen – und möglicherweise realitätsnäheren – Variante auf einen Gesamtwirkungsgrad von nur noch 14 %. (6)

c)  Woher sollen aber die großen Mengen an CO2 kommen ? Es ist umstritten, ob überhaupt

     genügend CO2 aus biogenen und industriellen Prozessen für eine großflächige

     Anwendung der Methanisierungs-Technologie zur Verfügung steht.(55).

Kosten: Nach Anwendung der obigen Rechnungen ergibt sich mit Methanisierung und Rückverstromung sowie mit 33,3 Cent/kWh für die Kapital- und Betriebskosten (wegen der zusätzlichen Methanisierungs-Stufe wird die Investition um 33% höher als bei  Verfahren A 2) geschätzt):

             Stromerzeugungskosten:  =  56,2 bis 122,2 Cent/kWh

             Für Privatkunden beträgt dann der Strompreis nach Aufschlag der Steuern und Abgaben:

             =  1,07  bis  1,89  Euro/kWh.

                

Bei diesem angeblich der Stromspeicherung dienenden Verfahren sind die Verluste so extrem, dass eher von einem Stromvernichtungs-Verfahren gesprochen werden kann. Entsprechend hoch fällt dann der Preis des verbleibenden  Rest-Stroms bei der Rück-Einspeisung aus, wie das Zitat aus einem Fachartikel zeigt: „Dieses System als Langzeitspeicher für überschüssigen EE-Strom (Wind und Solar) würde bei einer Anlagenkapazität von 44 GW(el) und einem Stromoutput zwischen 12,3 und 31,7 TW (1 Terawatt  = 1 Million Megawatt) – das wären 2 bis 5 % des deutschen Strombedarfs – jährliche Mehrkosten zwischen 25,1 und 28,1 Mrd. Euro verursachen (6).

Es wird schnell klar, dass zur vollständigen Stromversorgung über die volatilen „Erneuerbaren“ unter Verwendung dieser höchst ineffizienten Speicher noch eine viel größere Anzahl von Wind- und Solarstromanlagen  als schon beim  Bau von 2038 neuen Pumpspeicherkraftwerken erforderlich wäre.  Bei dem Power-to-Gas-Verfahren  Strom – Wasser -Wasserstoff – Methan – Strom  wären sogar Wind- und Solarstromanlagen mit einer ca. 58-fachen Leistung im Vergleich zur installierten Leistung von 2012 zu errichten.

Damit wären alle Pläne bezüglich der Nutzung von  grünem Überschussstrom mittels elektrochemischer und chemischer Umwandlung als Erdgas-Ersatz, als KFZ-Antrieb und erst recht als Stromspeichermethode wegen unakzeptabler Ineffizienz und untragbarer Kosten sinnlos.

Alle Unternehmen, die sich an Power-to-Gas-Projekten beteiligen, besitzen selbstverständlich den Sachverstand, um die geschilderten Probleme, die sich ganz einfach aus einem Ignorieren physikalischer Gesetzmäßigkeiten ergeben, klar zu erkennen.

Es stellt sich daher die Frage, weshalb aus der Industrie und insbesondere aus ihren Verbänden keine Kritik an der Energiewende-Politik zu hören ist. Im Gegenteil: In allen Reden, Artikeln und Pressemitteilungen von Unternehmensvertretern wird in einer bemerkenswert gleichlautenden Sprachregelung immer von „ehrgeizigen“, „ambitionierten“ und „anspruchsvollen“ Zielen der Regierung gesprochen. Das sind heute die Synonyme für die Adjektive „sinnlos“, „unbezahlbar“ und „realitätsfern“.

Durchweg wird betont, dass man selbstverständlich die gleichen Ziele hätte. Nur ein paar kleine Änderungen wären doch schön.

Es erinnert an das Märchen von des Kaisers neuen Kleidern. Die Motive jedoch, die heute die Höflinge der Regierung für ihre Bewunderung der Energiewende haben, sind von handfesterer Art: Man rechnet damit, dass die gegenwärtige Energiepolitik noch einige Jahre andauert und man möchte die durch die verschiedenen Schwierigkeiten und Fehler entstandene Notsituation der Regierung für lukrative Geschäfte nutzen. Die Situation ist deshalb dafür besonders günstig, weil jetzt der Staat durch Gesetze und Verordnungen dafür sorgt, dass alle politisch gewünschten Projekte – seien sie auch noch so sinnlos wie die Power-to-Gas-Fabriken – mit Sicherheit bezahlt werden. Deshalb schaltet der Energieversorger E.ON derzeit TV-Spots mit der Präsentation der Power-to-Gas-Anlagen “ als „Stromakku“ für Windkraftstrom. Die Bürger werden es schon nicht durchschauen.

Es besteht eine staatliche Abnahme- und Gewinngarantie. Auch neue Absatzmärkte winken, wie die nur durch Zwang vielen und demnächst vermutlich allen  Haushalten vorgeschriebenen „Smart Meter“. Es ist ein vorübergehend existierendes, planwirtschaftliches Paradies.

Aus der Sicht dieser Unternehmen wäre es sehr unvernünftig, die Zeitspanne bis zum Zusammenbruch der Energiewende-Politik nicht für gute Geschäfte zu nutzen.

Das Power-to-Gas-Thema wurde hier so eingehend dargestellt, weil es sich dabei um die dreisteste Irreführung in der gesamten Energiewende handelt. Die Kosten sind derart extrem, die Verluste dermaßen krass, dass jegliche Hoffnung auf das spätere Erreichen eines erträglichen Niveaus vergeblich ist. Man kann die Physik nun einmal nicht betrügen.

Die finanzielle Förderung etlicher Projekte durch Bundes- und Länderministerien zeigt deutlich, dass es dort als politisch wichtig angesehen wird, mit diesen Potemkinschen Dörfern den Bürgern eine Hoffnung auf künftige Besserung der offensichtlich prekären, an den Strompreisen ablesbaren Situation vorzugaukeln. Es geht nur um Zeitgewinn, nicht um Energie…

Fortsetzung folgt

Den gesamten Text können Sie sich als pdf datei im Anhang herunterladen

Related Files




Die rasant steigenden Energiepreise in Europa verzögern die wirtschaftliche Erholung

Bild rechts: Schiefergasförderung wird es in Europa geben, aber so langsam, dass die europäischen Industrien viele Jahre lang vor gravierenden Wettbewerbsnachteilen stehen, vielleicht Jahrzehnte lang. Bild: (Nigel Roddis/Reuters)

In der Vorlage zur Klima- und Energiepolitik in der Europäischen Union bis zum Jahr 2030 seitens der Europäischen Kommission steht die sich stetig erweiternde Lücke zwischen den Energiepreisen in der EU einerseits und anderen Ländern andererseits, in denen die Produktion ein großer Arbeitgeber ist, im Mittelpunkt. Industrielle Gaspreise sind drei- bis viermal höher in der EU als in den USA und Russland sowie etwa 12 Prozent höher als in China.

Die Kluft zwischen amerikanischen und europäischen Energiepreisen dürfte immer größer werden, was Europa immer weniger wettbewerbsfähig macht. Das liegt an der amerikanischen Schiefergas-Revolution, die für unablässig sinkende Energiepreise sorgt. Da ist es keine Überraschung, dass europäische Unternehmen wie der deutsche Chemieriese BASF die Ausweitung ihrer Produktion in den USA und nicht auf heimischem Boden planen.

In einem Kommentar der Financial Times sagte Lakshmi Mittal, Direktorin des globalen Stahlerzeugers AcelorMittal: „Die EU sagt, dass das produzierende Gewerbe ein Wachstumsmotor ist. Unglücklicherweise jedoch bestraft die Klima- und Energiepolitik der EU die Stahlbranche und andere energieintensive Industrien… Vergleichen Sie das mit den USA, wo Schiefergas und eine der Industrie freundlicher gesonnene Politik zu viel niedrigeren Preisen für industrielle Energieverbraucher geführt haben“.

Der Bericht der Europäischen Kommission mit dem Titel The 2030 Energy and Climate Framework hat das Potential, die europäischen Energie- und Strommärkte umzumodeln. Unter Anderem wird darin ein ambitionierteres Ziel zur Reduktion von Treibhausgasen festgelegt. Das letzte Ziel gab eine Reduktion um 20 Prozent bis zum Jahr 2020 vor, während eine Kombination Erneuerbarer Energie (Solar, Wind, Biomasse, Wasserkraft und andere grüne Quellen) bis dahin etwa 20 Prozent des Strombedarfs decken sollte. Die Emissionen sind zwar deutlich zurückgegangen, aber das liegt hauptsächlich an der Rezession nach dem Jahr 2008. Mit der wirtschaftlichen Erholung in Europa wird der Energieverbrauch wieder steigen.

Bis zum Jahr 2030 könnte jetzt eine Reduktion bis zu 40 Prozent vorgegeben werden, obwohl diese Zahl wahrscheinlich geringer ausfallen wird. Es wird nicht einfach sein, dieses Ziel zu erreichen. In Deutschland nimmt man die Kernreaktoren aus dem Netz. Als Folge steigt der Verbrauch von Kohle, dem schmutzigsten Kohlenwasserstoff [?]. Subventionen für Erneuerbare müssen gekürzt werden, und die Entwicklung der Schiefergas-Förderung in Europa verläuft derzeit im Sande. Das wird sich ändern müssen. Erdgas ist halb so kohlenstoffintensiv wie Kohle. Falls genug Gas erzeugt wird – die europäischen Schiefergas-Reserven sind riesig – werden die Energiepreise fallen und der Industriesektor wird nicht weiter schrumpfen oder sich sogar ausweiten.

Nun ist Schiefergas nicht der Traum aller Treibstoffe in Europa. Aus Umweltgründen ist der Widerstand gegen „Fracking“ erheblich. In einigen europäischen Ländern, allen voran Frankreich, ist Fracking gesetzlich verboten aus Angst vor Methan-Freisetzungen und vergiftetem Grundwasser, beides legitime Besorgnisse. Dennoch betreiben manche europäische Industrien und einige Regierungen harte Lobbyarbeit zugunsten einer heimischen Schiefergas-Revolution.

Die britische Koalitionsregierung und Premierminister David Cameron sind dabei führend, argumentieren sie doch, dass Schiefergas längerfristig die Wettbewerbsfähigkeit der britischen Industrie sichern, Arbeitsplätze schaffen und den Kohlenstoff-Fußabdruck des Landes verringern würde. Falls diese Entwicklung in UK wirklich stattfindet, dürften andere Länder bald folgen. Es ist ausgeschlossen, dass Frankreich untätig bleiben würde, wenn die britischen Energiekosten sinken.

Die große Kalamität in diesem Plan ist, dass finanziellen Anreize für die Landbesitzer von potentiellen Bohrstellen praktisch nicht existent sind. In weiten Gebieten der USA haben die Landbesitzer auch die Rechte zur Vermarktung der Bodenschätze auf ihrem Land. In UK und fast ganz Europa gibt es diese Rechte für Landbesitzer nicht.

Da ist es kein Wunder, dass es in den USA 150.000 Schiefer-Bohrlöcher gibt und praktisch überhaupt keines in Europa. Schiefergasförderung wird es in Europa geben, aber so langsam, dass die europäischen Industrien viele Jahre lang vor gravierenden Wettbewerbsnachteilen stehen, vielleicht Jahrzehnte lang. Man kann Stahlunternehmen nicht mit Solarpaneelen mit Energie versorgen. [Diesen letzten Satz sollten sich unsere Grünlinge mal hinter die Ohren schreiben!! A. d. Übers.]

Link: http://www.theglobeandmail.com/report-on-business/economy/economy-lab/europes-soaring-energy-prices-leave-recovery-dawdling/article16425724/

Übersetzt von Chris Frey EIKE




Zitat der Woche: US Präsident erkennt an, dass es den „Klimawandel“ gibt.

Das Bild steht auch in diesem PDF) und ist dann zum Drucken geeignet. Quelle: Andy May

Und wie die Wissenschaft selbst in ihrer gesamten Historie gezeigt hat, ist sie niemals settled, sondern sucht ständig nach neuen Informationen und Folgeuntersuchungen. Manchmal werden alte Gedanken aufgrund neuer Erkenntnisse verworfen.

Die Aussage, dass „die Wissenschaft settled” ist, ist genauso lächerlich wie dieses berühmte Zitat, das man Lord Kelvin im Jahr 1900 zugeordnet hat und das da lautet*:

„In der Physik kann man nichts Neues mehr entdecken. Alles läuft immer mehr nur auf immer präzisere Messungen hinaus“.

*Dieses Zitat soll Kelvin in einer Rede vor der British Association for the Advancement of Science (1900) geäußert haben. Quelle

Genauso absurd (heutzutage) ist diese Aussage von Kelvin:

Im Jahre 1898 hat Kelvin vorausgesagt, dass dem Planeten nur noch 400 Jahre der Versorgung mit Sauerstoff verbleiben, und zwar wegen der Rate der Verbrennungen brennbarer Materialien. In seiner Berechnung hat Kelvin angenommen, dass die Photosynthese die einzige Quelle für freien Sauerstoff sei; er kannte noch nicht alle anderen Komponenten des Sauerstoffzyklus‘. Er konnte noch nicht einmal alle Photosynthese-Quellen gekannt haben: So wurde zum Beispiel das Cyanobakterium  Prochlorococcus – welches mehr als die Hälfte der marinen Photosynthese durchführt – erst im Jahre 1986 entdeckt.

Kelvins Aussagen, von deren Wahrheit er seinerzeit auf Grundlage der ihm damals bekannten Fakten überzeugt war, wurden später durch neuere Wissenschaft widerlegt und offensichtlich ausrangiert. Aber man stelle sich vor, es hätte damals schon eine panische Bewegung gegeben, den Sauerstoff zu konservieren, mit „Sauerstoff-Steuern“, massiv von Regierungen geförderten Forschungen und einer Papierflut von NGOs, in denen höchst vehement eine ganze Palette neuer Gesetze verlangt wird sowie Änderungen des menschlichen Verhaltens, um die Krise zu umgehen.

Das würde uns heute im Zusammenhang mit unserem heutigen Wissen ziemlich blöde vorkommen, oder?

Link: http://wattsupwiththat.com/2014/01/29/quote-of-the-week-a-preposterous-potus-pronouncement/

Auf die Rede zur Lage der Nation gibt es inzwischen mehrere Kommentare. Stellvertretend folgt hier noch einer von Craig Idso:

Antwort auf die SOTU-Rede: Bemühungen zur Beschneidung von CO2-Emisslionen laufen der menschlichen Gesundheit und des Wohlergehens zuwider

Craig D. Idso, Ph.D.

In seiner Rede zur Lage der Nation [SOTU-Address] hat Präsident Obama eine Energiepolitik befürwortet, die darauf abzielt, CO2-Emissionen zu senken, die seiner Behauptung zufolge zu einer katastrophalen Erwärmung des Erdklimas führen und die „westlichen Gemeinschaften schwer schädigen“ würde. In seinen politischen Maßgaben hierzu befürwortet der Präsident eine Kombination verschärfter Vorschriften der Energieindustrie und des Transportwesens. Außerdem sollen Forschungen zur Einführung von weniger Kohlenstoff emittierenden Energiequellen öffentlich gefördert werden, damit sich beispielsweise die sog. Erneuerbaren am Markt durchsetzen. Er betrachtet diese Maßnahmen als die „einzigen möglichen Optionen hin zu einem saubereren, sichereren Planeten“.

Aber die Sorgen des Präsidenten um den Planeten basieren auf betrügerischer und spekulativer Wissenschaft, und seine politischen Rezepte sind Dokumente des Scheiterns.

Hinsichtlich der Wissenschaft verschweigt Obama bequemerweise die Tatsache, dass es inzwischen Tausende wissenschaftlicher Studien gibt, deren Ergebnisse seinen Ansichten des zukünftigen Klimas entgegen stehen. Nur ein Beispiel, das jedoch wie ein Fanal, ist die Tatsache, dass alle Computermodelle, auf denen seine Visionen beruhen, nicht das nunmehr seit 16 Jahren andauernde Temperaturplateau vorhergesagt haben. Dass sich die Erde während dieser Zeit nicht signifikant erwärmt hat, trotz einer Zunahme des atmosphärischen CO2 um 8%, ist eine grundlegende Anklage gegen die Glaubwürdigkeit der Modelle bei der Vorhersage des Klimas der Zukunft – und auch gegen die Versicherung des Präsidenten, dass die Wissenschaft „settled“ ist.

Zahlreiche andere Probleme hinsichtlich Obamas auf Modellen basierende Sicht des zukünftigen Klimas haben die Seiten begutachteter Journale jetzt schon seit vielen Jahren gefüllt, nachgewiesen durch jüngste Arbeiten des NIPCC. Diese Organisation hat im September vorigen Jahres einen Bericht veröffentlicht, in dem ein umfangreicher und sehr gut belegter alternativer Standpunkt vertreten wird, nämlich dass steigende CO2-Emissionen einen viel kleineren, wenn nicht vernachlässigbaren Einfluss auf das zukünftige Klima haben, während sich daraus zahlreiche biosphärische Vorteile ergeben.

Was diese Vorteile betrifft – das atmosphärische CO2 ist die Grundlage des Pflanzenlebens. Es wird von den Pflanzen der Erde für die Photosynthese gebraucht, um Stärke zu produzieren und zu wachsen. Außerdem gilt, wie zahlreiche wissenschaftliche Studien eindrucksvoll bewiesen haben: je mehr CO2 in die Atmosphäre gelangt, umso besser wachsen die Pflanzen. Neben anderen Vorteilen bilden sie mehr Biomasse, gehen effizienter mit Wasser um und sind besser in der Lage, mit Umweltstress fertig zu werden wie Verschmutzung und hohe Temperaturen.

Die Auswirkungen dieser Vorteile sind enorm. In einer Studie aus jüngster Zeit wurde berechnet, dass sich während des Zeitraums von 50 Jahren, der 2001 endete, die direkten monetären Vorteile durch die CO2-Anreicherung in der Atmosphäre nach Beginn der Industriellen Revolution auf eine Summe von 3,2 Billionen Dollar belaufen. Projiziert man dies zeitlich in die Zukunft, wird es wohl zusätzlich zu Vorteilen in Höhe von 9,8 Billionen Dollar von jetzt bis zum Jahr 2050 kommen.

Indem er diese Realitäten ignoriert, erweist sich Obamas politisches Rezept als Irrweg. Die Besteuerung oder Regulierung von CO2-Emissionen ist eine unnötige und nachteilige politische Option, die man verwerfen sollte. Warum sollte irgendeine Regierung Vorschriften verschärfen und Energiepreise anheben nur aufgrund betrügerischer Computer-Simulationen der Klimaänderung, die niemals eintreten werden? Warum sollte irgendeine Regierung eine Politik verfolgen, die danach trachtet, Arbeitsplätze zu vernichten anstatt diese zu fördern? Warum in aller Welt würde die Politik „die Hand beißen, die sie füttert?“

Wir leben in einer Zeit, in der die Hälfte der Weltbevölkerung nur begrenzt Zugang zu Energie hat, Energie, die für die dringendsten menschlichen Bedürfnisse gebraucht wird einschließlich der Erzeugung sauberen Wassers, Wärme und Licht. Ein Drittel der davon Betroffenen sind Kinder. Der noch größere Teil findet sich in Armut wieder.

Als Gesellschaft ist es an der Zeit, die Wahrheit zu erkennen und ihr Rechnung zu tragen. Kohlendioxid ist kein Verschmutzer. Dessen zunehmende Konzentration beeinflusst das Erdklima nur minimal, während es der Biosphäre enorme Vorteile verschafft. Bemühungen, die CO2-Emissionen zu regulieren und zu reduzieren, werden erheblich mehr Schaden anrichten als dass sie zu irgendetwas nützlich sind.

Idso ist Leitautor und leitender Wissenschaftler für das NIPCC.

Link: http://wattsupwiththat.com/2014/01/30/response-to-the-sotu-address-efforts-to-cap-co2-emissions-are-adverse-to-human-health-and-welfare/

Beide Beiträge übersetzt von Chris Frey EIKE




Der Erfinder des Hockeyschlägers der globalen Erwärmung demontiert sich selbst*

[*Original taucht in der Überschrift der Begriff „double down“ als Verb auf. Mir ist keine sinnvolle Übersetzung eingefallen.]

Seit seiner Veröffentlichung in den Jahren 1998 und 1999 durchlief der Hockeyschläger eine turbulente Geschichte. Er wurde vom IPCC für den 3. Zustandsbericht übernommen, um die Behauptung einer wesentlichen anthropogenen globalen Erwärmung (AGW) während des 20. Jahrhunderts zu untermauern. Seitdem hat sich das IPCC selbst von dieser Graphik distanziert, die inzwischen vollständig diskreditiert ist. Sie verschweigt nicht nur die MWP und die LIA, sondern passt auch nicht zu anderen Analysen von Proxy-Daten. Die meiste Kritik stammt von der Arbeit zweier kanadischer Statistiker, Steven McIntyre und Ross McKitrick, die den Missbrauch von Daten, einen verzerrte Kalibrierungs-Prozess und fundamentale Fehler in den statistischen Methoden aufgedeckt haben.

McKitrick, ein Ökonometriker [?] an der Guelph University in Kanada, hat einen beißenden Kommentar zu Manns Editorial mit dem Titel „If you see something, say something“ [etwa: wenn du etwas siehst, sage etwas!]:

„OK, ich sehe einen zweitrangigen Wissenschaftler, der sich wie ein Esel verhält und sich selbst zu einem öffentlichen Ärgernis macht“.

Mein eigener Kommentar dazu lautet: „OK. Ich möchte dazu auch etwas sagen: Ich sehe einen Ideologen, der verzweifelt versucht, eine Hypothese aufrecht zu erhalten, die durch Beobachtungen längst widerlegt ist. Während die Mehrheit der Klimaalarmisten versucht, einen physikalischen Grund zur Rettung der AGW-Hypothese zu finden, ignoriert Mann schlicht die ‚unbequeme Wahrheit‘, dass sich das Klima seit mindestens 15 Jahren nicht mehr signifikant erwärmt hat – obwohl sich die Treibhausgasemissionen global stark erhöht haben“.

Natürlich ist es nicht das erste Mal, dass „Hide-the-decline“-Mike das getan hat. Man erinnere sich nur an seinen von seinen Klimagate-Kumpanen so bewunderten „Nature-Trick“. … [Hier folgt ein kurzer Abriss des Klimagate-Skandals].

Wir wissen nicht, worauf sich der „Nature-Trick“ bezieht – solange wir nicht Michael Mann dazu bringen können uns zu sagen, warum er es abgelehnt hat, seine nie veröffentlichten Proxy-Daten nach 1980 zu zeigen. Wir müssen wohl warten, bis wir ihn im Zeugenstand und unter Eid haben. Aber ich habe den starken Verdacht, dass es etwas mit dem Fehlen jedweden Temperaturanstiegs darin nach 1980 zu tun hat; deren Veröffentlichung hätte zu einem Konflikt mit den veröffentlichten (und problematischen) Thermometerdaten geführt vor dem Hintergrund, dass die Menschen für einen derartigen Temperaturanstieg verantwortlich sind.

Aktuell haben wir aber inzwischen Proxy-Daten aus anderen Quellen, vor allem von Fredrick Ljungqvist und David Anderson. Ihre getrennten Veröffentlichungen stimmen darin überein, dass es seit 1940 nur einen geringen Temperaturanstieg gegeben habe, wenn überhaupt einen. Allerdings gab es zwischen 1920 und 1940 einen echten Temperaturanstieg, der in verschiedenen Proxy-Daten genauso zum Ausdruck kommt wie in Thermometermessungen.

Anti-Wissenschaft

In einer Anhörung vor dem US-Senat (am 16. Januar 2014) musste Michael Mann etwas erleben, was er gar nicht gerne hatte, und zwar von der kämpferischen Klimawissenschaftlerin und Bloggerin Judith Curry, Professorin bei Georgia Tech. Also hat er sich entschlossen, in seinem NYT-Editorial dazu etwas zu sagen. Dabei hat er jedoch vergessen, dass es oftmals besser ist, gar nichts zu sagen, als Judith Curry vorzuwerfen, mit Anti-Wissenschaft hausieren zu gehen.

Curry hat keine Zeit verloren, Manns Fehdehandschuh aufzunehmen und seine Worte gegen ihn zu verwenden:

„Da Sie mir öffentlich vorgeworfen haben, in meiner Aussage vor dem Kongress ‚Anti-Wissenschaft‘ betrieben zu haben, erwarte ich, dass Sie (öffentlich) meine Statements benennen und widerlegen, die faktisch ungenau sind, oder wo meine Schlussfolgerungen nicht durch die von mir vorgelegten Beweise gestützt werden.

Während der Anhörung hat mich Senator Whitehouse gefragt, warum manch einer mich einen ‚contrarian‘ nennt. Ich habe etwa wie folgt geantwortet: Skeptizismus ist eine der Normen in der Wissenschaft. Wir gewinnen Vertrauen in unsere Theorien, wenn sie allen Herausforderungen durch Skeptiker standhalten. Wenn sie jedoch stattdessen ihre eigenen Theorien dadurch verteidigen, dass sie Andersdenkende beschimpfen, ist das ein klares Zeichen, dass diese eigenen Theorien in Schwierigkeiten stecken“.

Ihre finale Botschaft an Mann:

„Wenn Sie vermeiden wollen, selbst als ‚Anti-Wissenschaftler‘ apostrophiert zu werden, sind Sie jetzt verpflichtet, auf meine Aussagen zu antworten!“

Krieg gegen die Kohle

Es ist interessant, dass Mann jetzt die Rolle eines Opfers spielt, vermeintlich bedrängt von mächtigen Interessen, die er dunkel als von der Industrie der fossilen Treibstoffe ausgehend sieht. Tatsächlich kann aber das Gegenteil der Fall sein. Mann wurde zu einem starken Befürworter von Kontrollen der Emissionen von Kohlendioxid, was sehr gut zu dem laufenden Krieg gegen die Kohle seitens der EPA und des Weißen Hauses passt – und zu der politischen Haltung der NYT – wonach Kohle die größte CO2-Quelle ist.

Es ist eine Ironie: während die Verbrennung von Kohle in China und Indien rapide zunimmt, ist das auch in Europa der Fall, wo die Politiker in der Vergangenheit Anti-CO2-Fanatiker waren, aber trotzdem die Kernkraft ausgeschaltet haben, die keinerlei CO2 emittiert.

In den USA werden Vorschriften erlassen, das CO2 aus den Abgasfahnen der Kraftwerke herauszufiltern und unterirdisch einzulagern. Die Kohlenstoff-Sequestrierung ist ein schwieriges und kostspieliges Unterfangen und wurde noch nie kommerziell durchgeführt. Es gab sogar Rufe nach dem Herausfiltern von CO2 aus der globalen Atmosphäre, was unmöglich erscheint – und in jedem Falle sehr, sehr teuer wäre.

Und wozu das Ganze? Wie schon oft erwähnt, ist CO2 sehr vorteilhaft für die Landwirtschaft. Als natürlicher Dünger beschleunigt es das Wachstum der Ackerpflanzen. Der tschechische Physiker Lubos Motl hat berechnet: falls es möglich wäre, den CO2-Gehalt auf seinen vorindustriellen Wert zu reduzieren, würde die globale Landwirtschaft schwer geschädigt, und Milliarden Menschen würden verhungern.

Aber vielleicht ist es ja diese Art der Bevölkerungskontrolle, hinter der die Klimafanatiker her sind. Sie haben immer behauptet, dass die Erde überbevölkert ist und dass eine Anzahl Menschen entfernt werden muss, um natürliche Werte zu schützen – ein wirklich misanthropisches Schema. Im Jahre 1974 hat der Club of Rome eine detaillierte Studie veröffentlicht mit der Vorhersage, dass eine Milliarde Menschen den Hungertod sterben wird, was in den achtziger Jahren beginnen und um das Jahr 2010 seinen Höhepunkt erreichen wird. Einer der Befürworter dieser These ist jetzt der Wissenschaftsberater des Weißen Hauses.

S. Fred Singer ist emeritierter Professor an der University of Virginia und Direktor des Science & Environmental Policy Project SEPP. Er ist spezialisiert auf Atmosphären- und Weltraumphysik. Als Experte für Fernerkundung und Satelliten diente er als Gründungsdirektor des US Weather Sattelite Service und jüngst als Vizepräsident des US National Advisory Committee on Oceans & Atmosphere. Er ist leitendes Mitglied am Heartland Institute und dem Independent Institute. Er war Mitautor des NYT-Beststellers Unstoppable Global Warming: Every 1500 years. Im Jahre 2007 gründete er das NIPCC, dessen Vorsitzender er seitdem ist. Das NIPCC hat zahlreiche wissenschaftliche Berichte veröffentlicht (www.NIPCCreport.org).

Read more: http://www.americanthinker.com/2014/01/the_inventor_of_the_global_warming_hockey_stick_doubles_down.html#ixzz2rx0MAgo6
Link: http://www.americanthinker.com/2014/01/the_inventor_of_the_global_warming_hockey_stick_doubles_down.html

Übersetzt von Chris Frey EIKE




Zertifikatehandel: Externe Effekte – internalisieren! Wie ein ökonomisches „Markt-Modell“ zum Abkassier-Instrument umgebaut wird.

Immer wenn es gilt ein reales oder vermeintliches Übel zu beklagen und wenn möglich zu beseitigen, sind Lobbygruppen an vorderster Stelle aktiv. Beim „Klimaschutz“ sind es zuerst die vielen NGO´s, ob sie nun Greenpeace, Kirchen, Gewerkschaften oder Industrieverbände genannt werden, ist unerheblich. Ihr primäres Ziel ist es, die Geldtöpfe des Staatswesens, also der Steuerzahler, für ihr Zwecke anzuzapfen und an ihre Klientel zu verteilen. Wenn dadurch auch noch eine Umerziehung einhergehen kann, vielleicht sogar eine freiwillige, dann kennt die Begeisterung und die Findigkeit beim Einsatz der Mittel keine Grenzen mehr.

Alle wissen, am Besten geht das mit einem höheren Ziel. Beim „Klimaschutz“ ist es die Weltenrettung, darunter geht gar nichts. Ist das Ziel erst mal definiert, muss die Gefahrenquelle gefunden und ein Schuldiger aufgebaut werden. Hier ist es das Kohlendioxid (CO2). Genauer gesagt, die anthropogenen Emissionen desselben, durch den, zum Schuldigen erklärten, Menschen. Da nicht bei allen Menschen gleich viel zu holen ist, weil nicht alle gleich reich sind, ist der wirklich Schuldige vorzugsweise der weiße, westliche Mensch. Da ist am meisten zu holen und die Attacke auf seine Geldquellen am ungefährlichsten und bequemsten. Zudem gibt es viele freiwillige Helfer, die sich für das "Gute" gern vor den Karren spannen lassen.

Die Klimakatastrophe – Die Mutter aller Gefahren

Doch wie geht man bei so einer abstrakten Gefahr wie der Klimakatastrophe am wirksamsten vor? Nun, wie wir wissen, muss zuerst der Weltuntergang, als bald bevorstehend, in den Köpfen verankert werden. Und das geht heute nicht mehr über die Oberpriester oder Seher, sondern über „Wissenschaftler“.  Die sagen -streng wissenschaftlich- z.B.

Wir Kli­ma­for­scher kön­nen nur nach dem Wenn-dann-Prin­zip sa­gen: Wenn so und so viel CO2 aus­ges­to­ßen wird, dann wird das Kli­ma sich so und so stark er­wär­men."[1]

Und legen dann „Projektionen“ z.B. für eine hohe Erwärmung  und oder einen rapiden Anstieg des Meeresspiegels vor. Dann beschreiben sie noch die katastrophalen Folgen in immer neuen „wissenschaftlichen Studien“. Beweise werden in dieser Stufe schon nicht mehr benötigt, es genügen Computer-Modelle.

Wird das oft genug wiederholt, springen jetzt auch die Politiker auf den fahrenden Zug. Die ganz flinken energischen und radikalen haben aber auch schon beim Anfahren das Potential erkannt und kräftig Steuergeld an die richtigen Wissenschaftler verteilt, um beim Anschieben des Zuges zu helfen.

Denn nun ist klar, der Schuldige ist der reiche, weiße, westliche Mensch. Der muss nun durch Ablasszahlungen und tiefe Reue Abbitte leisten. Die Reue besteht darin, dass er verspricht das böse CO2 nicht mehr zu erzeugen, um wenigstens die Welt zu retten.

Ökonomen erfinden den Zertifikatehandel

Und nun kommen die Ökonomen ins Spiel. Bei denen gibt es  den klugen Ansatz die Wirtschaftlichkeit einer Produktion nicht nur nach den internen Effekten d.h. Kosten und Erträgen, zu bewerten, sondern, wenn nötig, externe Effekte einzubeziehen. Diese können dann durch geeignete Definition, Bestimmung und Bewertung in die interne Kosten/Nutzen-Rechnung einbezogen werden. Ein sehr vernünftiges Verfahren, doch es öffnet natürlich ein weites Feld für die verrücktesten Spekulationen. 

Internalisierung externer Effekt

Häufig müssen Unternehmen nicht alle Kosten, die durch sie entstehen, selbst bezahlen. Diese anderen Kosten fallen außerhalb ihres Unternehmens an und belasten andere (Beispiel: Schallschutzmaßnahmen in Häusern, die unter lautem Verkehrslärm leiden). Sie gehen daher in die Kalkulation der Unternehmen und in die Preise dessen, was sie produzieren und anbieten, nicht ein. Man nennt sie daher externe Kosten. Jene Kosten, die die Unternehmen  selbst tragen, heißen dementsprechend interne Kosten. Gleichsam spiegelbildlich dazu gibt es auch interne und externe Erträge. Interne Erträge fließen dem zu, der sie unter Aufwenden von Kosten zu erzielen sucht und erzielt. Externe Erträge fallen den Empfängern in den Schoß. Die Empfänger profitieren von ihnen (meist unbeabsichtigt und nicht abzuwehren),  ohne dass es sie einen Pfennig kostet. Zum Beispiel: Es wird, um eine Ortsdurchfahrt vom Verkehr zu entlasten, eine Umgehungsstraße gebaut. Der Verkehrslärm in der Ortsdurchfahrt ist so gut wie weg. Der Wert der Anwohnerhäuser steigt. Die Anwohner wurden beglückt durch einen externen Ertrag, ohne an den Kosten der Umgehungsstraße beteiligt zu sein, zumindest nicht direkt. Externe Erträge sind Vorteile, die gleichsam unverdient anfallen. Man kann sie auch windfall profits nennen.[2]

So weit so klar! Das ist plausibel und verständlich. Um externe Effekte zu internalisieren, muss ihnen eine Menge und ein Preis zugeordnet werden. Letzterer kann positiv sein, dann wirkt er als Kosten, oder negativ, dann wirkt er als Ertrag.

Um nun nicht externe Effekte ganz willkürlich über z.B. eine Gesetzgebung zu bewerten und zuzuordnen, ziehen es viele Ökonomen vor, dafür sog. „Zertifikate-Märkte“ zu „schaffen“. Die Idee dabei ist, nachdem einem externen Effekt eine Menge und einen Preis zugeordnet wurde – dabei spielt es erst mal keine Rolle von wem und wie der Preis oder die Menge bestimmt wird- eine eingrenzbare Zahl von Marktteilnehmern per Gesetz zu verpflichten eine bestimmte Menge davon zu erwerben, um diese dann im frisch geschaffenen Zertifikate-Markt zu handeln.

Funktioniert dieser Markt als freier Markt?

Die Idee ist: Habe ich zu wenig, muss ich dazu kaufen, habe ich zu viel, kann ich verkaufen. So entsteht ein neuer Preis, basierend auf Angebot und Nachfrage. Also ein Marktpreis. Wunderbar, der Markt löst auch dieses Problem effizient. Doch der sofort ins Auge springende Schönheitsfehler diese „Zertifikate-Marktes“ ist, dass die umlaufende Menge zuvor von einer höheren Stelle, die über dem Markt steht, festgelegt wurde. Es ist aber nicht die „unsichtbare Hand“ von Adam Smith, sondern eine staatliche Mangelverwaltung. Daher ist es auch nur ein halber Markt. Wenn überhaupt!

Aber es gibt noch einen weiteren schweren Schönheitsfehler. Sollte sich wider Erwarten, oder entgegen der Propaganda, herausstellen, dass externe Kosten überhaupt nicht entstehen, sondern stattdessen nur externe Erträge, und wenn trotzdem Zertifikate ausgegeben werden und bezahlt werden müssen, dann  sind die Zertifikate keine marktwirtschaftliche Lösung, sondern nur eine andere und versteckte Form des Staates,  eine zusätzliche Steuer zu erheben.  Sollten neben externen Erträgen gegebenenfalls auch externe Kosten anfallen, sind die gegeneinander natürlich zu verrechnen.  Je nach dem  Ergebnis und nach der Bedeutsamkeit mag dann eine Zertifikatelösung gerechtfertigt sein, oder sie ist zu verwerfen.

.

Und der CO2 Zertifikatemarkt – auch Emissionshandel- ist so ein Markt.

Nun wird dem CO2 bekanntermaßen –  ausschließlich per Computermodell- eine schädliche, weil erwärmende Wirkung auf die globale Mitteltemperatur zugeschrieben.  Zur Behebung des Problems und damit zur Absenkung der CO2 Emissionen  waren sich deshalb die gläubigen Politiker schnell einig, die bisher steuerlich nicht belastete CO2-Menge, die bei jedweder Produktion anfällt, nunmehr der Besteuerung unterzogen werden muss.

Zertifikatemarkt = Emisssionshandel

Und damit das möglichst „marktgerecht“ erfolgt, empfahlen ihnen die Ökonomen diese Steuern, über den Verkauf von Emissionshandelsrechten einzustreichen, dabei die maximale Menge zu bestimmen, und dann den  Marktteilnehmern zu überlassen, zu welchem Preis sie welche Menge verkaufen oder kaufen. Später würden die handelbaren Mengen Zug um Zug per Dekret verringert, um das gewünschte Ziel der Emissionsminderung zu erreichen.

Der fiskalische Charme daran ist: Der Gewinner ist immer der Staat, und die Marktteilnehmer haben plötzlich zusätzliche Kosten, also Belastungen, die sie vorher nicht hatten und die ihre Konkurrenten am Weltmarkt i.A. auch nicht haben.

Wenn überhaupt, wäre das allenfalls dann hinnehmbar, wenn sich alle Staaten daran beteiligen würden. Alle wären gleich belastet, nur die Inflation würde steigen. Doch geschieht das nur in einzelnen Staaten, sind deren Unternehmen (und Verbraucher)  willkürlich und unbillig belastet, besonders jene Unternehmen, die sich im globalen Wettbewerb behaupten müssen.  Diese Belastung wird von Politikern gerne ausgeblendet.

Wo kein negativer Effekt, da keine Kosten

Wenn nun aber durch anthropogenes CO2  überhaupt kein Schaden entsteh, wenn also auch  keine externen Kosten entstehen, die zu internalisieren wären, dann ist das Ganze eine gewaltige Irreführung, allein dazu gemacht , dem Zertifikateausgeber zusätzliche Einnahmen zu verschaffen.

Dieser Fall im – Englischen treffend mit "no gain, no pain" beschrieben- ist in diesem Zertifikate-Markt-Modell  nicht vorgesehen, beim anthropogenen CO2 aber unumstößliche Tatsache. Denn wissenschaftlich völlig unumstritten ist, dass die CO2-Konzentration in der Atmosphäre in den Jahrzehnten seit dem Ende des zweiten Weltkrieges unaufhörlich (und unaufhaltsam, wie man hinzufügen muss) steigt.

Aber im Gegensatz zu sämtlichen Vorhersagen verharrt die (merkwürdige statistische Größe namens) globale Mitteltemperatur seit 16 bis 17 Jahren auf demselben Niveau. Auch das ist inzwischen wissenschaftlich nicht mehr umstritten.

Nach den zugrunde gelegten Klimamodellen, hätte sie aber deutlich steigen müssen. Um immerhin 0,3 K, das ist fast der halbe Anstieg des ganzen vergangenen Jahrhunderts.  Das bedeutet, dass das CO2 nicht die Wirkung haben kann, die ihm vom IPCC und anderen grünen Lobbygruppen und Politikern samt Staaten zugeschrieben wird. Vielleicht sogar gar keine!

Abbildung 1:  Prognosen der IPCC-Klimamodelle (dünne farbig Linien) schießen meilenweit über die reale Temperaturentwicklung (blaue und grüne Punkte) hinaus (Abbildungsquelle). Offensichtlich ist die CO2-Klimawirkung zu hoch angesetzt worden. Sherwood et al. behaupten das Gegenteil: Das CO2 wäre sogar noch klimawirksamer als bislang gedacht. Die verrückte Welt der Klimamodellierung…


Fest steht, wo keine Erwärmung feststellbar ist, können auch keine von der Erwärmung und damit dem CO2 ursächlich ausgelösten externen Kosten entstanden sein. Das ist simple Logik, dazu braucht man kein Wissenschaftler zu sein, um dies zu erkennen. Aber auch Klimawissenschaftler stellen das unumwunden fest, wie der Klimatologe an der Universität Ottawa Prof. Ian Clark. Zitat:

“Wir können nicht behaupten, dass das CO2 das Klima bestimmt, denn das hat es in der Vergangenheit nachweislich zu keiner Zeit getan. Die Eiskernbohrungen zeigen eindeutig: Erst ändert sich die Temperatur, die CO2-Konzentration folgt im Abstand von etwa 600 bis 800 Jahren nach. Das IPCC vertauscht demzufolge Ursache und Wirkung.“

Deshalb verursacht der Zertifikatehandel ausschließlich Schaden und mindert nur die Konkurrenzfähigkeit der betroffenen Marktteilnehmer. Sie müssen ihre Preise anheben, oder da, wo sie das nicht können, ausweichen. Sie tun das, indem sie ihre Betriebe schließen und/oder ins nichtbetroffene Ausland abwandern. So wie es bereits in großem Stil geschieht. Ein echtes Beispiel aus der Abteilung  „gut gemeint ist noch lange nicht gut gemacht“.

Kein Schaden durch CO2, aber großer Nutzen

Aber es gibt noch einen weiteren Aspekt. Die Definition der externen Effekte ganz am Anfang dieses Beitrags enthielt auch den Begriff „Erträge“. Und die gibt es durch den CO2-Anstieg in der Tat,  weltweit und Billionen Euro oder Dollar wert.

Seit Justus von Liebig wissen wir, dass CO2 ein idealer Pflanzendünger ist. (Das Optimum für viele Nutzpflanzen liegt bei ca. 1000 ppm, also mehr als das Doppelte der gegenwärtigen Konzentration). Seit vielen Jahren ist nachgewiesen, dass die Erde grüner wird. (Hier mehr dazu ). D.h. dass der zunehmende CO2-Gehalt der Atmosphäre den Pflanzenwuchs kräftig verbessert und auch in höheren Breiten den Anbau von Nutzpflanzen ermöglicht. Die Pflanzen benötigen dann weniger Licht und weniger Wasser. Auch Wüsten werden kleiner, wie man an der Sahara seit 20 Jahren beobachtet. D.h. Mehr CO2 in der Atmosphäre sichert die Ernährung für viele 

Wer die Vermeidung von CO2 Emissionen will, versündigt (1) sich  an der Ernährungsgrundlage von Milliarden Menschen.

Und das sollte sich niemand vorwerfen lassen.

Quellen:

[1] Stefan Rahmstorf In „Die Welt“ vom 3.2.2007

[2] Details siehe Gablers Wirtschaftslexikon http://wirtschaftslexikon.gabler.de/Definition/internalisierung-externer-effekte.html

(3) H.W. Sinn verwendete diesen Begriff (am Klima "versündigen") in seinem Vortrag am 16.12.13 wg seiner Schlussfolgerung sich wieder der Kernkraft zuzuwenden. Details hier