1

Die deutsche physikalische Gesellschaft (DPG) rezensiert die Bücher „Kampf um Strom“ von Prof. Claudia Kemfert im Vergleich mit „Energie und Klima“ von Prof. Horst-Joachim Lüdecke

Die DPG (hier) ist zweifellos primär für eine fachgerechte Klimadiskussion hierzulande zuständig, nicht etwa Einrichtungen wie das Potsdamer Institut für Klimafolgenforschung (PIK), welches sich vorwiegend durch ökopolitischen Aktivismus auszeichnet und dessen Aussagen daher von den Medien bevorzugt verbreitet werden. Im DPG-Vorstand ist die IPCC-Meinungsrichtung vermutlich kein Konsens. Schon im Aprilheft 2007 des Physikjournals der DPG mahnte nämlich der DPG-Präsident Prof. Eberhard Umbach unter dem Titel “Fakten für die Klimadebatte“ wie folgt an: “Wir müssen ohne Vorurteile und ohne ideologische oder rein ökonomische Befangenheit handeln, und zwar auf der Grundlage von stichhaltigen technischen und wissenschaftlichen Fakten“.

Dieses Statement war etwas kryptisch, weil bis heute überhaupt kein Hinweis darauf erfolgte, wie diese Fakten von der DPG denn nun gesehen werden. Noch weniger ist bekannt, ob die DPG etwas unternimmt, um diese Fakten zu erhalten, zu sichern und zu sichten. Was sind die Gründe? Die Antwort fällt nicht schwer, denn die DPG sprach sich vor Fukushima nachdrücklich für die Nutzung der Kernenergie aus. Sachlich lag sie damit zweifellos richtig, aber die Politik und der Zeitgeist gingen bekanntlich andere Wege. Als Konsequenz aus dieser unverschuldeten Entwicklung, ferner, um in Zukunft nicht noch einmal auf der politisch falschen Seite zu stehen und schlussendlich auch, um die von der Politik abhängigen Forschungsmittel durch politisch unerwünschte Fachaussagen nicht zu gefährden, ist die verständliche Zurückhaltung der DPG in Sachen "anthropogenes CO2" und "Energiewende" zu erklären.

Die DPG veröffentlicht in jedem Heft ihres “Physik Journal“ aus allen physikalischen Gebieten hervorragend gestaltete Fachartikel für Nicht-Spezialisten, hat aber seit Jahren noch nie etwas über die Klimawirkung des anthropogenen CO2 gebracht. Sie hält sich schadlos, indem sie weder den Klima-Alarmisten noch den Klimaskeptikern das Wort erteilt. Dies im Gegensatz zu fast alle deutschen Medien, die freiwillig selbstgleichgeschaltet ihren Kotau vor dem grünen Zeitgeist pflegen. Die Klima- und Energiewendeverlautbarungen insbesondere von ARD, Deutschlandradio, der ZEIT, der Süddeutschen usw. und praktisch aller Lokalzeitungen propagieren Klimakatastrophen in einem Ton und einer Intensität, die Vergleiche mit der ehemaligen DDR-Propaganda für den real existierenden Sozialismus nicht zu scheuen brauchen.

Unabhängige Experten kommen in den deutschen Medien, von denen der unwissende Konsument nunmehr schon seit langem ökogefügig weichgeklopft wird, nur selten zu Wort. Der aufmerksame Medienkonsument kann lediglich noch Zeuge des einen oder anderen amüsanten Lapsus werden. So beispielsweise im Anne Will Talk, 22-45 Uhr am 11.9.2013 in der ARD. Dort gelang es der Publizistin Gertrud Höhler in einem Fall, das pausenlose, unerträgliche Gelaber des vom Forsa-Chef zutreffend als „Kotzbrocken“ (hier) bezeichneten Ralph Stegner (SPD) zu unterbrechen und leise höflich darauf hinzuweisen, dass wir schon lange eine DDR-Planwirtschaft im Energiesektor haben. Die Reaktion darauf war so, als hätte Frau Höhler laut einen Wind streichen lassen: gequältes Lächeln der gesamten Runde und ein schnelles Abschwenken von Frau Will.

Angesichts dieser für eine angeblich „offene Demokratie“ traurigen Verhältnisse sind die Worte, die Prof. Konrad Kleinknecht in seiner Buchrezension findet, eine von jedem politischen Kalkül freie fachliche Meinungsäußerung. Konrad Kleinknecht ist renommierter Kernphysiker mit wissenschaftlichen Auszeichnungen und war in den Jahren 2000-2008 im DPG-Vorstand für die Klimafrage zuständig (hier). Das erste besprochene Buch ist aus der Feder der mediennahen Ökonomie-Professorin Dr. Claudia Kemfert und titelt „Kampf um Strom: Mythen, Macht und Monopole“. Das zweite Buch, verfasst vom Physiker Prof. Dr. Horst-Joachim Lüdecke, hat den Titel „Energie und Klima: Chancen, Risiken, Mythen“. Die Besprechung erschien im August/Septemberheft des „Physik-Journal“ der DPG, S. 86 und ist hier unverändert wiedergegeben:

Kampf um Strom + Energie und Klima

Diese beiden Bücher könnten gegensätzlicher nicht sein. Das erste ist eine politische Kampfschrift einer „Protagonistin“ der Energiewende.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Kemfert.jpg

Claudia Kemfert wiederholt zum Thema Klimawandel und Energiewende das, was ein Großteil der Politiker und der Medien glauben und verlauten lassen: Der Klimawandel sei menschgemacht und habe dramatische Folgen, Wind- und Solarenergie seien vorzuziehen, der Umbau unserer gesamten Energieversorgung in zehn Jahren sei möglich, ohne dass Wind- und Solarenergie die Versorgungssicherheit gefährden, steigende Strompreise seien kein Problem.

Dem Buch zu eigen ist die Überzeugung, Personen, die nicht dieselbe Meinung vertreten, könne man persönlich angreifen. Besondere Zielscheiben sind der Wirtschaftsminister und Wissenschaftler, deren Meinung als nicht „politisch korrekt“ eingeschätzt wird. Sie gelten ihr als „Lobbyisten“.

Die zehn Kapitel behandeln jeweils ein Problem der Energiewende, etwa den zu engen Zeitplan, den drohenden Versorgungsengpass, den Anstieg der Strompreise als Gefahr für die Industrie oder den deutschen Alleingang. Kemfert bemüht sich, die jeweiligen Probleme als nicht existent zu charakterisieren. Das geht beispielsweise so: Die Strompreise in Deutschland steigen, sie sind unter den höchsten in Europa. Schuld daran sind aber nicht die Subventionen für Wind- und Solarstrom durch das EEG, sondern die Versorgungsunternehmen, die trotz des niedrigen Börsenpreises die Verbraucher abzocken, und die Regierung, weil sie die energieintensiven Unternehmen von Teilen der EEG-Umlage entlastet. Ganz ähnlich hat man das schon von Jürgen Trittin gehört. Dass die EEG-Umlage jährlich 20 Milliarden Euro und damit 5,3 Cent/KWh beträgt, sei nicht Ursache der Preissteigerungen, das EEG müsse so bleiben. Auch sei der Strom nicht zu teuer, sondern jahrelang zu billig gewesen.

Kemfert fordert, dass die EEG-Umlage auch der energieintensiven Grundstoffindustrie auferlegt wird. Dann wird sich diese andere Produktionsstandorte suchen müssen. Der Ökonomin Kemfert ist offenbar entgangen, dass bei der Produktion von Aluminium, Kupfer, Stahl, Kohlefasern, Zement die Stromkosten bis zu 60% der Gesamtkosten verursachen, vor den Personalkosten.

Die übrigen Kapitel des Buchs folgen dem Muster dieser zwei Beispiele. Begründungen oder Quellen für die Behauptungen fehlen.

Dagegen erlaubt sich Horst-Joachim Lüdecke aufgrund seiner physikalischen Kenntnisse eine unabhängige Beurteilung der Lage nach der Kehrtwende der Politik. Das Buch ist wissenschaftlich gehalten und kommt nicht ohne Zahlen, Diagramme und quantitative Vergleiche aus. Deshalb ist es anspruchsvolle Lektüre.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Buch_Umschlag.jpg

Zum Thema Klima hinterfragt der Autor die These von der monokausalen Wirkung des Kohlendioxids und die Prognosen der Klimamodellrechnungen. Es beschreibt diese hochkomplexen nichtlinearen Differentialgleichungssysteme, in denen positive und negative Rückkoppelungen enthalten sind. Die Stärke der Rückkoppelungen ist nicht genau bekannt, verschiedene Annahmen führen zu mehr als 40 verschiedenen Modellen. Keines davon hat vorausgesagt, dass die mittlere Oberflächentemperatur der Erde in den 15 Jahren von 1997 bis 2012 überhaupt nicht angestiegen ist. Gleichzeitig hat sich der CO2-Gehalt der Atmosphäre von 360 ppm auf 400 ppm erhöht. Der Autor bezweifelt, ob die Voraussage für die Erwärmung über 100 Jahre zuverlässiger ist. Ein Fehler der Modelle sei es, dass die kühlende Wirkung des Wasserdampfs durch Wolkenbildung nach Lindzen und Choi (MIT) vergessen wurde.

Zur Energiepolitik fragt sich Lüdecke, was eine Verminderung des deutschen Beitrags zur weltweiten CO2-Emission von jetzt 2,5 Prozent auf 2% bewirken soll, wenn gleichzeitig in einem Jahr der Ausstoß der großen Industrieländer China, USA, Indien, Russland, Kanada, Brasilien um 6% zunimmt. Wie soll ein deutscher Sonderweg wirken, wenn dem Vorreiter kein anderes Land nachreitet?

Der Autor beschreibt dann Probleme der geplanten Umstellung auf alternative Energiequellen: ungenügende Kapazität der Pumpspeicherkraftwerke in den deutschen Mittelgebirgen, fehlende Hochspannungsleitungen von Nord nach Süd, ineffiziente „Wind-to-gas“-Option zur Speicherung.

Die größte Gefahr besteht für Lüdecke allerdings in der Strompreiserhöhung durch die teuren alternativen Energiequellen und die abnehmende Versorgungssicherheit durch fluktuierende Quellen. Im Gegensatz zu Kemfert sieht Lüdecke die Gefahr der EEG-Umlage für die energieintensive Grundstoffindustrie.

Wer sich ein quantitatives Bild der Energieprobleme machen will und bereit ist, Dogmen kritisch zu hinterfragen, wird das Buch von Lüdecke mit seinen 300 Quellenangaben spannend und lehrreich finden. Wer weiter an den Erfolg der derzeitigen Wendepolitik glaubt und an einer Wahlkampfbroschüre für eine kleine Partei sucht, der kommt bei dem Band von Frau Kemfert auf seine Kosten.

Konrad Kleinknecht




Fünf Fragen an die Parteien zur Energiewende -nur zwei antworten

NAEB hat fünf grundsätzliche Fragen gestellt. Von den Bundestagsparteien haben leider nur die FDP und die GRÜNEN geantwortet. Die anderen Parteien haben entweder keine ausreichenden Kenntnisse über die Folgen ihrer Energiepolitik oder sie wollen sich über dieses Thema ausschweigen, das uns nach Angaben von Bundesumweltminister Peter Altmaier in den nächsten 20 Jahren 1.000 Milliarden Euro kosten wird. Wir haben für diese Parteien die Wahlprogramme  zur Beantwortung unserer Fragen heran gezogen.

1. Alle im Bundestag vertretenden Parteien, also auch Ihre Partei, haben für die sogenannte Energiewende gestimmt, einen Umbau der kompletten Stromversorgung durch regenerative Energien, vorwiegend mit Windgeneratoren, Fotovoltaik-Zellen und Biomasse. Kosten und Folgen für dieses ideologisch begründete Großprojekt waren und sind offensichtlich nebensächlich. Die angeblich kaum ins Gewicht fallenden Kosten (Politiker: Pro Haushalt und Monat nicht mehr als der Preis einer Eiskugel) liegen inzwischen bei mehr als 20 Milliarden Euro im Jahr und steigen schnell weiter. Sie wurden mit dem planwirtschaftlichen und unsozialen Erneuerbaren Energien Gesetz (EEG) auf die Stromkunden abgewälzt. Die Strompreise in Deutschland sind dreimal höher als in den USA und fast doppelt so hoch wie in Frankreich. Der Strompreis von Deutschland nimmt weltweit einen Spitzenplatz ein.

Frage: Welche Strompreise werden wir im Jahr 2020 haben, wenn die Pläne der Bundesregierung weiter laufen? Die Experten von NAEB haben errechnet, dass der Strompreis dann über 50 Cent pro Kilowattstunde liegt. Können Sie das bestätigen?

Die beiden eingegangenen Antworten wie auch die Parteiprogramme zeigen, dass die sogenannte Energiewende ohne jede wirtschaftliche Analyse vorangetrieben wird. Es werden noch nicht einmal ansatzweise die Stromkosten errechnet, die nach den Ausbauplänen der regenerativen Stromanlagen und den festgesetzten EEG-Einspeisevergütungen leicht zu ermitteln sind.

2. Offshore Windparks sollen das Rückgrat der zukünftigen Energieversorgung werden. Strom aus diesen Anlagen kostet einschließlich des Transportes an Land etwa 20 Cent pro Kilowattstunde und ist damit achtmal teurer als Strom aus Braunkohlekraftwerken. Die Leistung schwankt zwischen Null (bei Windstille oder Sturm) und 100 Prozent bei Starkwind. Daher kann Offshore Windstrom kein einziges Kraftwerk ersetzen, sondern nur  ergänzen und die Erzeugerkosten in die Höhe treiben.

Frage:  Wie wollen Sie mit dem teuren und unzuverlässigen Offshore Strom eine sichere und bezahlbare Stromversorgung erreichen? Wie kann unsere Industrie konkurrenzfähig bleiben mit den Kosten von Offshore Strom, wenn z.B. in den USA verlässlicher Industriestrom 6 Cent pro Kilowattstunde zu haben ist?

Alle Parteien stützen und fördern die extrem teure Offshore Stromerzeugung. Es wurden keine Aussagen gemacht oder gefunden, wie man mit diesen Anlagen zu einer sicheren und bezahlbaren Stromversorgung kommen kann.

3. Gegen den Bau von Windparks in den Wäldern der deutschen Mittelgebirge, in Naturschutzparks und neben Wohnsiedlungen haben sich inzwischen weit über 200 Bürgerinitiativen gebildet, die gegen den Bau weiterer Windparks protestieren. Sie fordern: Keine Windgeneratoren in Wälder und Naturschutzgebiete! Mindestabstand zur Wohnbebauung das Zehnfache der Flügelspitzenhöhe.

Frage: Schließen Sie sich der Forderung der Bürgerinitiativen an?

Die Grünen antworten mit einem klaren „Nein“. „Für die Energiewende müssen diese Opfer gebracht werden.“ Die FDP verweist auf das Baurecht und schiebt die Verantwortung den Kommunen zu. In den Parteiprogrammen werden die Forderungen der Bürgerinitiativen nicht unterstützt, sondern sogar abgelehnt.

 4. Der Ausbau der regenerativen Energien hat mehr als 100.000 Arbeitsplätze gebracht, die allerdings über hohe Einspeisevergütungen von den Stromverbrauchern stark subventioniert sind. Andererseits haben die hohen Strompreise viele Betriebe zur Schließung oder Verlagerung  in das kostengünstige Ausland gezwungen.

Frage: Wie viel bisher wirtschaftliche Arbeitsplätze sind durch die steigenden Strompreise und die Energiepolitik in Deutschland verloren gegangen?

Diese Frage blieb unbeantwortet. Die GRÜNEN weisen zwar darauf hin, dass mehr als 300.000 Arbeitsplätze durch den Bau und Betrieb der regenerativen Stromanlagen entstanden sind. Der Verlust von Arbeitsplätzen durch Schließung der Kernkraftwerke und Verringerung der Produktion in den Gas- und Kohlekraftwerken wurde offensichtlich nicht registriert. Weiter führen die hohen Strompreise zurzeit zu einem Kaufkraftverlust von etwa 20 Milliarden Euro pro Jahr mit schnell weiter steigender Tendenz. Rechnet man einen Umsatz von 100.000 Euro im Jahr für einen Arbeitsplatz, ist dies ein Verlust von 200.000 Arbeitsplätzen. Hinzu kommen die Arbeitsplätze, die wegen der hohen Energiepreise hier nicht mehr wirtschaftlich sind. Dies ist die energieintensive Industrie mit 2 Millionen Arbeitsplätzen, die schon seit einigen Jahren abwandert. Dies alles wird von keiner Partei registriert.

5. Das EEG ist ein planwirtschaftliches und unsoziales Gesetz. Es bewirkt eine gesetzliche Umverteilung von unten nach oben, von der Masse unserer Bürger mit geringerem Einkommen zu den wenigen Reichen. Die Profiteure des EEG kassieren pro Jahr im Durchschnitt mehr als 20.000,- Euro von ihren ärmeren Mitbürgern.

Frage: Halten Sie diesen Zustand für angemessen? Wenn nicht: Wie wollen Sie dieses unsoziale Gesetz ändern?

Alle Bundestagsparteien halten an der planwirtschaftlichen und unsozialen Stützung der Ökostromerzeugung fest. Die FDP will allerdings das EEG durch ein Quotenmodell ersetzen, das Ökostromanteile im Strommix festlegt. Der Ökostrom soll aber weiter bezuschusst werden. Der Verbraucher wird auch durch dieses Modell weiter und immer höher belastet. Die Umverteilung von unten nach oben soll also bleiben. Der soziale Sprengstoff, der in dieser Politik liegt, wird nicht gesehen.

Die Energiepolitik und die Europolitik aller im Bundestag vertretenden Parteien sind weitgehend vergleichbar und in ihren Belastungen für den deutschen Bürger etwa gleich hoch. Die Verpflichtungen Deutschlands aus der Europolitik können bis auf 1.000 Milliarden Euro steigen. Das Gleiche gilt für die „alternativlose Energiewende“. Dies bestätigt auch ein ausführlicher Spiegel-Bericht der letzten Woche. Auch in der Familienpolitik, Lohnpolitik und in vielen anderen Bereichen marschieren die Parteien in einem wachsenden sozialistischen Gleichschritt. Sarkastisch könnte man die vereinten Bundestagsparteien als NSED (Neue Sozialistische Einheitspartei Deutschland) bezeichnen. Die etablierten Parteien geben uns kaum noch eine Wahlmöglichkeit.

Nur die neu gegründete Partei „Alternative für Deutschland“ AfD zeigt Wege aus dieser drohenden Verschuldung. Der Euro soll zurückgeführt werden auf eine europäische Verrechnungseinheit. Und die Energiepolitik soll wieder marktwirtschaftlich und sachlich ohne ideologische Scheuklappen ausgerichtet werden, wie es der Vorsitzende der AfD, Bernd Lucke, in einem Exklusiv-Interview mit NAEB dargelegt hat. Nur so wird es gelingen, auch für die regenerativen Energien wirtschaftliche Marktlücken zu erschließen. Wir haben am 22. September die Wahl. Wählen Sie und wählen Sie richtig.

Hans-Günter Appel

Beiratsvorsitzender NAEB e.V.  




Angst und Fukushima

„Es ist wichtig zu verstehen, dass das Gesundheitsrisiko durch die Strahlung in Fukushima vernachlässigbar ist und das unangebrachte Sorgen über irgendwelche gesundheitlichen Auswirkungen viel schlimmer sind als die Strahlung selbst“.

Gerry Thomas, Imperial College, London

Werner Burkart, ein Professor der Strahlenbiologie an der Ludwig-Maximilian-Universität in München leitete seinen Brief mit den Worten ein: „Fast zweieinhalb Jahre nach Erdbeben und Tsunami im März 2011 ist es an der Zeit, über das Leid nachzudenken, aber auch über die Belastbarkeit der Betroffenen und Japan als Ganzes. Und darüber, Visionen für eine Zukunft ohne Ängste und Restriktionen zu entwickeln“.*

[*Ob es hierzu ein deutsches Original gibt, weiß ich nicht. Diese Übersetzung hier ist auf jeden Fall eine Rückübersetzung. A. d. Übers.]

Abel Gonzalez aus Argentinien arbeitete viele Jahre beim UN Scientific Committee on the Effects of Atomic Radiation (UNSCEAR). Er erklärte seine Schlussfolgerung so: „Es werden keine wahrnehmbaren zunehmenden strahlungsbedingten Auswirkungen auf die Gesundheit erwartet, und zwar unter den der Strahlung ausgesetzt gewesenen Mitgliedern der Öffentlichkeit und deren Nachkommen“. Der amerikanische Gesandte beim UNSCEAR Fred Mettler betonte, dass die Angst vor Auswirkungen auf zukünftige Generationen unbegründet ist: „Wir versichern Ihnen, dass viele wissenschaftlichen Studien gezeigt haben, dass dies bei den Menschen keine gravierenden Auswirkungen hat“.

Gerry Thomas vom Imperial College in London sagte: „Wir verfügen über viele Informationen aus Studien über hohe Dosen von Radioaktivität zur Behandlung von Krebs. Aber wir fanden, dass die geringste Strahlungsdosis, bei der wir gesundheitliche Auswirkungen durch Strahlung feststellen, bei 100 MilliSieverts liegt“. Im Gegensatz dazu erwartet das UNSCEAR, dass kein Anwohner in der Präfektur Fukushima mehr als 10 MilliSieverts Strahlung während ihres gesamten Lebens abbekommt. Gonzalez sagte: „Selbst Anwohner in der Nähe des beschädigten Kernkraftwerkes waren so geringen Dosen Strahlung ausgesetzt, dass wahrnehmbare gesundheitliche Auswirkungen nicht zu erwarten sind“.

Demnächst wird ein Bericht der International Atomic Energy Agency IAEA erscheinen, der auf genaueren Informationen der tatsächlichen Mobilität der Menschen zur Zeit des Unfalls basiert. Dieser wird sogar noch geringere Strahlendosen enthüllen, jedenfalls im Vergleich zu früheren Schätzungen, von denen Gonzalez sagte, dass sie „auf konservativen Modellschätzungen beruhten, die auf zu hohen Vermutungen des Ausgesetztseins der Strahlung basierten“.

Ebenfalls unter Verweis auf UNSCEAR erklärte Thomas: „die schlimmsten gesundheitlichen Auswirkungen durch Tschernobyl resultierten aus der Angst, was die Strahlung anrichten könnte, und nicht so sehr auf den tatsächlichen Strahlenschäden“. Sie fuhr fort: „Sich sorgen darüber, was geschehen könnte, kann sehr schlimme Auswirkungen auf die Lebensqualität haben und zu stressbezogenen Krankheiten führen. Alle wissenschaftlichen Beweise zeigen, dass niemand in Gefahr schwebt, durch Strahlung aus Fukushima selbst geschädigt zu werden, aber die Sorgen darüber, was geschehen könnte, kann zu signifikanten psychologischen Problemen führen“ [die durch die Anti-Kernkraft-Schreihälse natürlich noch erheblich verschlimmert werden! A. d. Übers.]

„Daher ist es wichtig zu verstehen, dass das Gesundheitsrisiko durch die Strahlung in Fukushima vernachlässigbar ist und das unangebrachte Sorgen über irgendwelche gesundheitlichen Auswirkungen viel schlimmer sind als die Strahlung selbst“.

Erholung

Die größten Auswirkungen der Strahlung waren die erzwungene Evakuierung der Menschen aus ihren Häusern nahe dem früheren Kernkraftwerk und die Verbote, Landwirtschaft in dem Gebiet zu betreiben sowie zu fischen. Beides hatte ernste Auswirkungen auf das Leben und die Lebensumstände vieler Familien. Japan ist dazu gezwungen, ein großes Gebiet zu dekontaminieren, bevor die Bewohner peu à peu zurückkehren können, und der Fortschritt ist nur gering.

Der Russe Mikhail Balonov, der daran gearbeitet hatte, die Öffentlichkeit vor der in Tschernobyl freigesetzten Strahlung zu schützen, lobte das japanische Dekontaminierungs-Programm. „Mit Mitteln spezieller Ausrüstung zur Dekontaminierung wuschen sie Asphalt- und Betonflächen, entfernten obere Bodenschichten um öffentliche Gebäude und Wohnhäuser sowie in Straßen und Wohngebieten. Unseren Strahlungsmessungen zufolge werden die zurück gekehrten Menschen nicht mehr substantiellen Strahlenrisiken ausgesetzt sein, wenn unsere Sanierung erst einmal abgeschlossen ist. Folglich verschwindet die Strahlung allmählich, und das Leben in den betroffenen Gebieten Japans wird zur Normalität zurückkehren“.

Balanov schloss: „Nur eine offene Informationspolitik hinsichtlich der Auswirkungen in den Medien und der Wissenschaftler-Gemeinschaft wird das Vertrauen erzeugen, dass zur Heilung erforderlich ist … und negative sozio-ökonomische Auswirkungen durch ungerechtfertigte Angst und Furcht verhindern“.

Die Veröffentlichung der Briefe der Experten fällt zufällig zeitlich zusammen mit einer Periode intensiver Untersuchungen und globalen öffentlichen Bedenken hinsichtlich durchgeführter Maßnahmen und der Kontamination am Kernkraftwerk Fukushima.

Link: http://www.world-nuclear-news.org/RS_Fear_and_Fukushima_0309131.html

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Mit Sicherheit wird es auch hierzu wieder die üblichen Polemiken geben. Selbst wenn man nun wirklich nicht genau weiß, was Sache ist: Warum nehmen die Anti-Kernkraft-Schreihälse immer nur für sich die absolute Wahrheit in Anspruch? Und warum kommen sie damit so durch?

Unstrittig ist jedoch wohl, welche haarsträubende und skandalöse, fast schon kriminelle Fahrlässigkeit der Betreiber Tepco an den Tag gelegt hat!

C. F.

Related Stories

WNA Links

Related Links




Gefahr für die Menschheit durch politisierte Pseudowissenschaft Die „Retter der Erde“.

Die Geburt pseudowissenschaftlicher Politik reicht in der Geschichte sicher weiter zurück als wir wissen. Inquisition und Hexenwahn des finsteren Mittelalters gehörten dazu, denn die Kirche war Politik und beherrschte die Wissenschaft. Der 30-jährige Krieg bildete Höhepunkt und Abschluß dieser unseligen Zeit. Er hinterließ ein nahezu entvölkertes Mitteleuropa. Das brauchte rund 200 Jahre, um den Rückstand gegenüber anderen Nationen aufzuholen. Darum erfolgte die Geburt der nächsten Pseudowissenschaft in England , das seit etwa 1600 zur wirtschaftlichen Führungsmacht aufgestiegen war und nicht über Bevölkerungsmangel zu klagen hatte. Robert Malthus schlug dort im Jahr 1803 vor, das Bevölkerungswachstum durch Präventivmaßnahmen zu bremsen. Einer seiner Nachfolger, Francis Galton,  prägte im Jahr 1869 den Begriff der Eugenik, Graf Arthur de Gobineau führte etwa 1856 den Begriff „Arier“ ein und Benedict Augustin Morel entwickelte 1859 eine Degenerationstheorie. 1895 übersetzte Alfred Ploetz Eugenik in Rassenhygiene. Im gleichen Jahr wurde im US- Statt Connecticut ein Heiratsverbot für Epileptiker, Schwachsinnige und Geistesschwache erlassen, dem die Zwangssterilisation folgte, die 1907 in 33 weiteren Bundesstaaten der USA eingeführt wurde. In Europa war es die Schweiz, von der ab dem Jahr 1890 die Zwangssterilisation durchgeführt wurde, während im Jahr 1920 Alfred Erich Hoche und Karl Binding die Euthanasie forderten, die Vernichtung „unwerten Lebens“. In den Folgejahren setzte sich die Eugenik in nahezu allen europäischen Ländern durch und wurde in Deutschland unter den Nationalsozialisten am erbarmungslosesten angewendet, wobei die „Retter der Erde“ in den USA Beifall klatschten.

Die Eugenik ist also keine Erfindung Hitlers, er brauchte sie nur zu übernehmen. Wie der US-Amerikaner Michael Crichton in seinem Buch „Welt in Angst“ (Original „State of Fear“) schreibt, war die Eugenik politisierte Wissenschaft ohne wissenschaftlichen Hintergrund. Sie wurde von den wissenschaftlichen Größen ihrer Zeit kritiklos übernommen und beeinflusste massiv die Politik. Nicht nur in den USA herrschte Einverständnis darüber, dass Juden im Allgemeinen geistesschwach waren, ebenso wie viele Ausländer und Schwarze. Zu Beginn des 20. Jahrhunderts ging es darum, die Einwanderung „minderwertiger Rassen“ und anderer „gefährlicher menschlicher Schädlinge“ zu unterbinden. Die Frauenrechtlerin Margaret Sanger sprach von der Last, die es bedeutet, sich um „dieses tote Gewicht menschlichen Abfalls“ zu kümmern. Zu den Befürwortern der Eugenik gehörten nahezu alle Politik- und Geistesgrößen der westlichen Welt bis hin zu Theodore Roosevelt, Woodrof Wilson und Winston Churchill. Kein Wunder, dass die großen US- Stiftungen wie die Carnegie- und Rockefeller- Foundation die Eugeniker finanziell unterstützten – in Deutschland bis 1939!

Nach 1945, als das ganze Ausmaß dieses Wahnsinns zutage trat, wollte es natürlich niemand gewesen sein und die Eugenik wurde von den Politikern fallen gelassen wie eine heiße Kartoffel. Sie war ein typisches Hätschelkind der Weltretter, der finanziell unabhängigen pseudointellektuellen Gutmenschen und derer, die daran verdienten. Man fühlte sich von der wachsenden Weltbevölkerung bedroht, wollte die Erde nach eigenen Vorstellungen gestalten und nur Menschen „hochstehender Rassen“ die Fortpflanzung zur Stabilisierung der Weltbevölkerung erlauben. Eugenik war eine „wissenschaftliche“ Theorie, die vor einer „drohenden Krise“ warnte und zugleich einen Ausweg anbot. Sie wurde an Schulen gelehrt und stieß auf großes Medieninteresse. „Wer Bedenken äußerte, wurde niedergebrüllt und als reaktionär, realitätsblind oder schlicht ignorant beschimpft“ schreibt Crichton.

So lange der Wiederaufbau dauerte, lebten im Nachkriegsdeutschland Politik und Wissenschaft friedlich nebeneinander her. Deutschland sollte sich nach dem Willen der USA zum wichtigsten Bollwerk gegenüber der UDSSR entwickeln. Die ersten Misstöne gab es, als deutsche Naturwissenschaftler die friedliche Nutzung der Kernenergie zur Weltspitze führten und deutsche Produkte den Weltmarkt zu erobern begannen. Die pseudointellektuelle Elite dagegen hatte sich immer weiter nach links bewegt und begann Naturwissenschaften und Technik zu diffamieren. Dabei wurde sie tatkräftig über die DDR aus der UDSSR unterstützt, die hier einen willkommenen Weg zur Spaltung der (West-) deutschen Gesellschaft sah.

In den USA war den „Rettern der Erde“ der Herrschaftstraum Eugenik abhanden gekommen. Einen zunächst nur dürftigen Ersatz bot die Umwelt- und Ökowelle, die seit dem Buch „Der stumme Frühling“ der Rachel Carson im Jahr 1962 Fahrt aufnahm. DDT, das wirkungsvollste und für Mensch und Tier ungefährlichste Mittel gegen die Malaria  wurde ohne jeden wissenschaftlichen Nachweis seiner „Gefährlichkeit“ verboten. Zehn Jahre nach Carson folgte die erste Computersimulation des Club of Rome, dessen Bericht „Die Grenzen des Wachstums“ für erhebliches Aufsehen sorgte. Wollte die Eugenik die Erdbevölkerung reduzieren, prangerte der Club of Rome „die Gefahr exponentiellen Wachstums“ an. Er forderte freiwillige Wachstumsbeschränkung und den Zustand weltweiten (wirtschaftlichen) Gleichgewichts, sonst ginge die Menschheit an steigendem Mangel zugrunde. Die Voraussagen über endende Ressourcen erwiesen sich als falsch. Meadows und seine Mitstreiter waren unfähig zu begreifen, dass Naturwissenschaften und Technik wie in der Vergangenheit auch in der Zukunft in der Lage sind, jede Herausforderung zu bestehen – wenn sich die Politik aus dieser Entwicklung heraushält und nicht glaubt „steuern“ zu müssen.

Treibhauseffekt als unermessliche Geldquelle

Diese scheinbare Regellosigkeit war und ist für die „Retter der Erde“ ein unerträglicher Zustand. Schon zur Zeit des Club of Rome wurde darum nach Wegen für ein durchschlagendes Herrschaftsmodell gesucht. Dabei geriet das „Klima“ schon frühzeitig ins Blickfeld. Doch die zunächst befürchtete Eiszeit kam nicht. Stattdessen wurde es nach der Abkühlungsphase zwischen etwa 1940 und 1970 wieder wärmer. Da kamen die ab 1958 auf dem Mauna Loa gemessenen CO2- Werte wie gerufen. Sie stiegen nach einem Abfall seit 1940 wieder an und wurden nun zu einem Menetekel hochstilisiert. Das „menschengemachte“ CO2 sollte einen „Treibhauseffekt“ verursachen, der zu einer unzulässigen Erderwärmung führt. Artensterben, Ausdehnung der Wüsten, Rückgang der landwirtschaftlichen Produktion durch nachlassende Niederschläge sind die wichtigsten der gängigen Angstszenarien. Daß bei einer Erwärmung die Regenfälle zunehmen und die Wüsten schrumpfen, die landwirtschaftliche Produktion einen Aufschwung erlebt und vom Artensterben keine Rede sein kann, ist heute bereits nicht mehr zu vermitteln.

Vor rund 30 Jahren nahm die Treibhaus- Horrorvision als Mittel zur Macht in den USA allmählich Gestalt an. Zum Machtstreben kam alsbald die Erkenntnis, dass sich der Treibhauseffekt hervorragend als unermessliche Geldquelle eignete – das Geschäftsmodell „Klimakatastrophe“ war geboren. So wurde 1988 das IPCC (Intergouvernmental Panel on Climate Change) gegründet, das die Aufgabe hatte, über pseudowissenschaftliche Beweise die Politiker zu beeinflussen. Wie bei der Eugenik werden jene Wissenschaftler und Kritiker diffamiert, von denen eindeutige Beweise gegen die Horrorvision vorgelegt werden. Inzwischen ist nahezu die gesamte Medienwelt „gleichgeschaltet“, wie das von den Sprachrohren des IPCC schon vor Jahren gefordert wurde. Die Parallele zur hohen Zeit der Eugenik ist erschreckend. Das kann nicht verwundern, denn die Hintermänner und die Organisationen, die von ihnen gesteuert werden sind die gleichen wie zuvor. Pseudowissenschaft hat wieder einmal die Politiker fest im Griff, von denen viele genau wissen, welchem verbrecherischen Humbug sie ihre Stimme leihen. Die Eugenik hatte den Widerspruch ebenso ausgeschaltet, wie Widerspruch in den beiden Diktaturen des vergangenen Jahrhunderts gegen die Systeme unterdrückt wurde. Das gleiche erleben wir heute mit der „Klimakatastrophe“.

Es ist ein Trugschluß, dass der Klimaschwindel sich totlaufen wird. Seine Protagonisten sind unverändert am Werk, um die Daumenschrauben für das wehr- und stimmlose Volk stetig anzuziehen. Politik und Bürokratur entwickeln mit grenzenlosem Einfallsreichtum immer neue und schädlichere Gesetze, die zu immer schnellerer Verarmung der Bevölkerung und der Knebelung der Wirtschaft führen werden. Marktwirtschaft ist bereits heute weitgehend ausgeschaltet, während sich die Planwirtschaft unseligen Angedenkens und der Verlust der Freiheit immer weiter in den Vordergrund schieben. Und das alles wegen einer Schimäre, eines bösartigen Angstszenarios, das jeder wissenschaftlichen Erkenntnis Hohn spricht.

Der Eugenik hat der letzte Weltkrieg ein Ende gesetzt. Die pseudowissenschaftliche „Klimakatastrophe“ wird jedoch weitaus schlimmere Auswirkungen haben, in deren Folge die Verarmung der Industrieländer die Bewohner der unterentwickelten Regionen in gnadenlose Hoffnungslosigkeit treibt. Eine Verbesserung der Lebensbedingungen gibt es nicht mehr, Ordnungssysteme werden zusammenbrechen. Die Menschheit wird auf der Erfolgsleiter wieder abwärts steigen, wobei der Umweltschutz eines der ersten Opfer ist. Muß es erst wieder einen Weltkrieg geben, um auch der pseudowissenschaftlichen „Klimakatastrophe“ den Todesstoß zu versetzen?

Christian Bartsch




Unbequeme Wahrheiten über den Klimakanzlerinnen Berater Schellnhuber! Teil 3: Linear oder chaotisch?

 In diesem Kapitel 3 wird dokumentiert, wie er sich bezüglich dieser Behauptung vom “linearen CO2-Klima”, die er auf der Bundespressekonferenz im November 2009 im Vorfeld der Klimakonferenz von Kopenhagen aufgestellt hatte, bei einer anderer öffentlichen Rede – dieses mal vor der EU in Brüssel am 17.04.2013 – selbst widerspricht und seine eigene These vom “linearen CO2-Klima” damit selbst ad absurdum führt, die auch eigentlich eh wissenschaftlich nicht zu halten ist. 

Je nach medialen Umfeld scheint Schellnhuber seine (wissenschaftlichen?) Thesen zu wechseln. Aber mit seiner These vom “linearen CO2-Klima” versuchte Schellnhuber stattdessen in der Öffentlichkeit die trügerische (und eben fehlerhafte) Suggestion zu erzeugen, daß das Klimageschehen – wie eine einfache lineare mathematische Gleichung – berechenbar sei, damit eben die eigentlich zweifelhafte These glaubhaft gemacht wird, dass der Mensch mit seinem CO2-Ausstoss aus der Verbrennung der fossilen Brennstoffe das Klima angeblich massgeblich negativ beeinflussen würde. Obwohl selbst auch andere Klimawissenschaftler – wie Mojib Latif oder Prof. Andreas Bott – die Komplexität und die Unberechenbarkeit bzw. die Nicht-Linearität des Klimas ebenfalls vor laufender Kamera bestätigen.

Im nächsten Kapitel 4 am 23.09.2013 geht es darum, wie das “2-Grad-Ziel” das angebliche “Fieber der Erde” begrenzen soll. Der 6-minütige Videotrailer über das gesamte 11-teilige Filmprojekt ist seit dem 27.08.2013 weiterhin online.




Klima: Reductio ad Absurdum

Offensichtlich haben sie die Daten zur Ardennenoffensive im Zweiten Weltkrieg oder die Schlacht um Stalingrad vergessen, die beide bei Frostwetter ausgetragen worden waren. Zuvor verrannte sich schon Napoleon in diesem Problem, als er Russland erobern wollte.

Wir haben inzwischen hinsichtlich des Schwindels um die globale Erwärmung einen Punkt erreicht, an dem pure Absurdität die Norm ist bzgl. von Behauptungen über einen Erwärmungszyklus, der um das Jahr 1996 zum Stillstand gekommen ist.

In einem Kommentar in der Washington Times vom 17. Januar hat Patrick J. Michaels, Direktor des Center for the Study of Science am Cato-Institut geschrieben: „Meine grüneren Freunde geraten zunehmend unter Druck wegen des jüngsten Stillstandes beim Temperaturanstieg. Sie betrachten monatliche Daten, gemessen als Abweichung von langzeitlichen Mittelwerten und finden, dass es seit Herbst 1996 keinen signifikanten Erwärmungstrend mehr gibt. Mit anderen Worten, wir befinden uns inzwischen im 17. Jahr ohne Erwärmung“.

Unter Verweis auf die normalen wissenschaftlichen Daten schrieb Michaels: „Ich bin ziemlich sicher, dass wir fast ein Vierteljahrhundert lang keine Erwärmung sehen werden“.

Vieles von der Art idiotischer „wissenschaftlicher Forschung”, mit der die Öffentlichkeit seit Jahrzehnten überschwemmt wird, war die Folge vom Trachten nach Förderungen, in denen auch „professionelles Vorgehen“ involviert war, schrieb Michaels, und welche „besonders von einer ganz bestimmten Sichtweise abhängt“ – nämlich vom Beweis, dass die globale Erwärmung real ist trotz aller Beweise, die das Gegenteil belegen. Die Behauptung, dass diese Erwärmung zu einem weltweiten Anstieg der Gewalt führt, ist idiotisch.

In einem Kommentar zu dieser Berkeley-Studie hat James M. Taylor, Herausgeber des Magazins Environment & Climate News vom Heartland Institute gesagt, dass die drei Forscher „behaupten, Prinzipien von Experten auf den gebieten Archäologie, Kriminologie, Ökonomie, Geographie, Geschichte, politische Wissenschaft und Psychologie anzuwenden“, trotz der Tatsache, dass sie „das gleiche begrenzte Hintergrundwissen aufweisen“ für eine solche Expertise.

Auf seinem Blog ClimateDepot.com schrieb Marc Morano: „Anstatt auf Temperaturdaten oder andere Klimaparameter zu schauen, um die vom Menschen verursachte globale Erwärmung zu beweisen oder zu widerlegen, haben die Aktivisten der globalen Erwärmung ihr Spielfeld verschoben, so dass jetzt Statistiken hinsichtlich Vergewaltigungen und Morden verwendet werden als eine Art ‚Beweis’ der vom Menschen verursachten globalen Erwärmung. Das ist wirklich eine Verwandlung in moderne Hexenkunst!“

Die einzige Stelle, an der man heutzutage noch „Beweise“ für die globale Erwärmung findet, sind Computermodelle.

Zu oft sind das diejenigen, die auch von der National Oceanic and Atmospheric Administration NOAA und der National Aeronautic and Space Administration NASA verwendet werden. Beides sind Dienststellen der Regierung, die sich immer daran erinnern, besser der vorgegebenen Linie zu folgen, wenn sie ihre Budgetforderungen erfüllt sehen möchten. Obwohl sie die besten verfügbaren Satelliten und Computermodelle haben, kann der nationale Wetterdienst keine Garantien für seine Vorhersagen übernehmen, die über drei Tage hinausgehen, geschweige denn für länger als eine Woche.

Es ist unglücklich, dass wir einen Präsidenten haben, der immer wieder die gleichen falschen Behauptungen zur „Klimaänderung“ wiederholt – der neuen Bezeichnung für globale Erwärmung – trotz der Tatsache, dass diese von tausenden Wissenschaftlern in der ganzen Welt in Frage gestellt und verworfen werden. Noch schlimmer, Behauptungen über eine „Kohlenstoff-Verschmutzung“ werden von der Environmental Protection Agency EPA und anderen Abteilungen der Regierung benutzt, um den Krieg gegen die Kohle im Besonderen und Kohlenwasserstoffe im Allgemeinen zu rechtfertigen.

Einige Elemente der Presse wie z. B. die BBC sind unwillig, den Schwindel der globalen Erwärmung zu verwerfen. Dies bedeutet, dass die Suche nach neuen Angst erzeugenden Schlagzeilen, um die Verkaufszahlen von Zeitungen und Zeitschriften zu steigern oder die Einschaltquoten der Abendnachrichten zu erhöhen, zu Behauptungen führt über den dramatisch steigenden Meeresspiegel oder, wie Michaels vorhersagt, zu „sauren Ozeanen“.

Das ist alles Müll, und die wirkliche Bedrohung besteht darin, dass Milliarden Dollar der Steuerzahler für die Forschung zur so genannten „Klimaänderung“ verschwendet werden. Oder in den Tonnen von Regulierungen, die eingeführt werden, um das Abwürgen der nationalen Wirtschaft zu unterstützen, und zwar im Namen von Luft- und Wasserverschmutzung. Wir haben saubere Luft. Wir haben sauberes Wasser. Wir brauchen Arbeitsplätze.

© Alan Caruba, 2013

Link: http://www.nationalanxietycenter.blogspot.de/2013/08/climate-reductio-ad-absurdum.html

Übersetzt mit schriftlicher Genehmigung des Autors von Chris Frey EIKE




Die Macht, die Medien und die Moral

Man ist bei der Lektüre erschrocken, zu welcher Brutalität angeblich demokratischer Widerstand fähig ist, und es wird verständlich, warum der vorgenannte Streit den Autor für die Frage sensibilisiert hat, welchen Gefahren unsere Demokratie ausgesetzt ist. Klaus Poggendorf hat sie in seinem sehr lesenswerten Beitrag „Die Macht, die Medien und die Moral“ beschrieben. Der vollständige Text ist hier als PDF-Datei beigefügt; entsprechend seiner Aufgabe konzentriert sich EIKE auf das Kapitel „Klima- und Energiepolitik, das hier wiedergegeben wird.

Klima- und Energiepolitik

Neben der friedlichen Nutzung der Kernenergie ist der Klimawandel auch ein Diskussionsge­genstand, mit dem sich die Zerstörung der Natur durch die Industriegesellschaft thematisieren und das Sendungsbewusstsein, sie zu retten, moralisch aufladen lässt. Dabei folgt die über­wiegende Zahl der Journalisten und Politiker der Annahme des Weltklimarates der UNO         (Intergovernmental Panel of Climate  Change / IPCC ) und der mit ihm zusammenar­beitenden Wissenschaftlern, wonach die Erwärmung der Erdatmosphäre durch die mit Beginn des Industriezeitalters einsetzende vermehrte Abgabe von Treibhausgasen wie Kohlendioxid (CO2), Methan (CH4) oder Lachgas (N2O) verursacht wird. Diese sollen einen Teil des auf die Erde fallenden Sonnenlichts, das als infrarote Wärmestrahlung in das Weltall reflektiert wird, absorbieren und so die Atmosphäre aufheizen.

Bei der Diskussion über den Klimawandel wiederholt sich das, was bei der über das Wald­sterben geschah. Es kommen fast ausschließlich Wissenschaftler in den Medien zu Wort, die die Auffassung von dem durch die Menschheit verschuldeten Klimawandel vertreten. Andere, die auf den Einfluss der Sonne durch deren Gaseruptionen (Sonnenflecken), oder die in der Erdgeschichte vor dem Industriezeitalter wiederholt aufgetretenen und durch Pflanzen- und Tierfunde nachgewiesenen Temperaturschwankungen hinweisen, und die deshalb vorsichtig mit eindeutigen Schlussfolgerungen sind, werden nicht gehört oder sehen sich Kampagnen deutscher ‚Klima­schützer’ ausgesetzt, bei denen der Vorwurf der Verantwortungslosigkeit noch die mildeste Form der Kritik ist.

Dabei wäre eine breite öffentliche Diskussion über die Ursachen des Klimawandels dringend erforderlich, weil schon die rot-grüne Bundesregierung mit Bundeskanzler Schröder  von der Annahme des durch die Menschen verursachten Klimawandels ausging und hieraus eine Poli­tik mit Klimaschutzzielen herleitete, die tief greifende Folgen für die Wirtschaft aber auch für den Einzelnen haben.

Ziele dieser Politik waren der Ausstieg aus der Kernenergie bis Ende 2022, der Ausbau der erneuerbaren Energien und die Förderung der Energieeffizienz. Die damalige Oppositionsfüh­rerin, Angela Merkel, war gegen einen kurzfristigen Atomausstieg unter Hinweis auf den Klimaschutz und den CO2-freien Betrieb der Kernkraftwerke sowie die fehlende Stromlei­tungskapazitäten zur Versorgung Süd- und Westdeutschlands mit Off-Shore-Windenergie. Mit der Übernahme der Regierungsverantwortung durch die CDU, CSU und FDP wurde dann auch folgerichtig vom Bundestag beschlossen, die Laufzeit der 17 deutschen Kernkraftwerke, um durchschnittlich 12 Jahre bis 2035 zu verlängern.

Die Bundesregierung und der Bundestag haben unter dem Eindruck der durch ein Seebeben und einen Tsunami am 12. März 2011 ausgelösten Reaktorkatastrophe in Fukushima be­schlossen, acht der älteren Kernkraftwerke sofort und die verbleibenden neun schrittweise bis 2022 abzuschalten. Gleichzeitig verabschiedeten die Bundesregierung und der Bundestag ein Programm mit dem Ziel,  den Anteil der erneuerbaren  Energien  an der Stromversorgung von derzeit  20 Prozent auf 40 Prozent im Jahr 2020, auf 50 Prozent 2030 und bis 2050 auf 80 Prozent zu erhöhen.

Den Entscheidungsprozess beurteilt Dr.-Ing. Günter Keil (Autor des Buches: „Die Energie­wende ist schon gescheitert“) in einem Interview mit Freie Welt.net (27.07.2013) wie folgt:

Freie Welt.net

Der „Atomausstieg“ ist wesentlicher Teil der Energiewende.  Wie beurteilen Sie die fach­liche Kompetenz der „Ethik-Kommission“ deren Votum als Grundlage für den Ausstiegsbe­schluss genommen wurde?

Keil:

Die Ethik-Kommission wurde von Frau Merkel zur Neutralisierung des für sie höchst un­angenehmen Votums der Reaktorsicherheits-Kommission RSK erfunden und dafür instru­mentalisiert.

Die RSK hatte  nach dem Fukushima-Unfall allen deutschen Kernkraftwerken ein hohes Sicherheitsniveau bescheinigt. Im internationalen Vergleich stehen sie auch hervorragend da, was nicht zuletzt der ständigen, von den deutschen Regierungen geforderten und vollzo­genen sicherheitstechnischen Nachrüstungen zu verdanken ist.

Die Ethik-Kommission enthielt keinen einzigen Energieexperten, dafür aber zwei Bischöfe. Bei auch nur geringer Fähigkeit zur Selbstkritik und angesichts der ihr zugedachten offen­sichtlichen Rolle als Anti-RSK hätten diese Personen eigentlich diese Zumutung zurückwei­sen müssen.

Statt dessen spielte diese kenntnislose Gruppe brav ihre Rolle und lieferte die ge­wünschte  Stellungnahme ab. Allem Anschein nach auch noch stolz auf ihre Bedeutung.

Tatsächlich aber war das ein Tiefpunkt für alle beteiligten und ein dunkles Kapitel deut­scher Energie- und Umweltpolitik.

Eine erfolgreiche Energiepolitik muss langfristig konzipiert sein und hat sich an den Realitä­ten zu orientieren. Eine der Realitäten ist die technische und wirtschaftliche Ineffizienz der Erneuerbaren Energien. Für die Effizienz ist neben der Verfügbarkeit, also der dauernden Versorgungssicherheit, u.a. auch das Verhältnis zwischen gewinnbarer Energiemenge pro Fläche wichtig. Wie ineffizient Windanlagen sind zeigt, folgendes Beispiel: Eine durch­schnittliche Windanlage von einem Megawatt ( MW ) erzeugt unter unseren Wetterbedingun­gen 1,75 Mio. Kilowattstunden ( kWh ) im Jahr. Um 130 Mrd. kWh aus den bisher betriebene 17 deutschen Kernkraftwerken zu ersetzen, müssten über 70.000 Windanlagen gebaut werden [9]. Hinzu kommt, dass im sonnenarmen Deutschland  und an windstillen Tagen die Sonnen­kollektoren und Windkraftanlagen keine Energie liefern und  deshalb unrentabel sind; im Durchschnitt erzeugen sie Strom nur in weniger als 20% der Zeit. In dieser Zeit anfallen­der Überschussstrom müsste gespeichert werden, was aber nicht möglich ist, denn die not­wendige Speicherkapazität ist nicht vorhanden. Es ist für dieses Problem keine Lösung in Sicht und schon gar nicht praktisch erprobt. Dass man eine Energiewende mit ehrgeizigem Ziel beginnt, in Kenntnis der kurzen Produktionszeiten der Erneuerbaren und der fehlenden Speicherkapa­zitäten, muss jeden fassungslos machen, der die geforderte Versorgungssicher­heit prüfen und nachweisen möchte.

Um finanzielle Anreize zu bieten, wurde zur Zeit der rot-grünen Bundesregierung vom Bun­destag  das  EGG  verabschiedet. Es bestimmt, dass die „Ökoenergie“ vorrangig in das Stromnetz eingespeist und mit überhöhten Preisen bezahlt werden muss. Während die Groß­handelspreise für konventionell erzeugten Strom zwischen 3 und 5 Cent pro kWh liegen,  müssen Netzbetreiber nach dem letzten vom Bundestag beschlossenen reduzierten Tarif für Strom aus Biomasse zwischen 10,23 und 7,8 Cent, für Windenergie an Land 9,02 und auf See ( Off-Shore ) bis zu 19 Cent je kWh zahlen. Die Preise  für die Einspeisung von Solarstrom betrugen zu Beginn der Förderung 50,62 Cent; im Zuge der im EGG vorgesehenen Degres­sion werden zur Zeit 24 Cent je kWh vergütet..

Diese verminderten Einspeisungsvergütungen gelten für die künftig zu errichtenden Anlagen. Für den Strom aus den in der Vergangenheit eingerichteten Anlagen gelten unverändert die anfangs festegelegten höheren Vergütungen, die für 20 Jahre garantiert bleiben. Diese Preise geben die Energieversorgungsunternehmen (EVU) oder Netzbetreiber an ihre Stromkunden weiter.

Die Politik fördert mit den garantierten Subventionen die Nachfrage nach einer ineffizienten Technik. Unser Wohlstand beruht jedoch auf der technologischen Effizienz unserer Produk­tion. Grundlage für die fortschreitende Effizienz ist der Wettbewerb bei der Produktion von Gütern. Wird eine neue Technologie eingeführt, die die gleiche Menge mit weniger Arbeits­kräften herstellt, gehen zwar Arbeitsplätze verloren, die mit dem verringerten Aufwand pro­duzierten Güter werden aber auch billiger. Der Wettbewerb sorgt dafür, dass die geringeren Kosten zu einem erheblichen Teil an die Kunden weitergegeben werden. Die dadurch frei­werdende Kaufkraft wird von den Kunden zum Kauf anderer Produkte verwendet, deren Pro­duktion neue Arbeitsplätze schafft.

Bei der Stromerzeugung aus regenerativen Energiequellen fällt dieser Effekt weg, denn die Politik nötigt die Kunden, durch die Zahlung von hohen Einspeisungsvergütungen eine inef­fektive Technik zu fördern. Hier wird nicht durch Rationalisierungserfolge Kaufkraft frei, sondern durch die Erhöhung des Strompreises Kaufkraft gebunden. Das Geld,  das für die erhöhten Stromkosten ausgegeben wird, steht für den Kauf anderer Produkte nicht mehr zur Verfügung. Wenn also die Befürworter der Regenerativen Energien immer wieder auf die neuen Arbeitsplätze hinweisen, die in der Wind-  oder Solarindustrie entstehen, muss gegen­gerechnet werden, wie viele Arbeitsplätze durch den  Rückgang der Kaufkraft verloren gehen [10].

Der Vorrang des Ökostromes bei der Einspeisung in’s Stromnetz und die überhöhten und ga­rantierten  Einspeisevergütungen  machen die „Erneuerbaren“ für ihre Produzenten zu spru­delnden Geldquellen. So muss an sonnenreichen Tagen die reichlich anfallende, aber beson­ders teure  Solarenergie vorrangig eingespeist und vom Kunden abgenommen werden, wäh­rend Kohle-, Gas- oder Kernkraftwerke runter gefahren werden müssen, obwohl ihr Strom wesentlich preisgünstiger ist. Die Folgen dieser Politik kann jeder auf seiner Stromrechnung ablesen.

Die Subventionen für die Energieerzeugung aus Sonne, Wind, und Biomasse lagen  2012 bei insgesamt 17 Mrd. Euro, obwohl ihr realer Marktwert nur 3 Mrd. betrug. Allein die derzeit in Deutschland vorhandenen Solaranlagen werden in den nächsten 20 Jahren mit 100 Mrd. Euro subventioniert werden, obwohl die Solarenergie gegenwärtig nur 0,5 Prozent der Energie­nachfrage deckt. Umgekehrt wird Solarstrom  unentgeltlich exportiert, wenn mehr anfällt als abgenommen wird. Der Subventionsbedarf wächst immens:

  • Für die Solar- und Windenergie  sind teure Baumaßnahmen erforderlich, denn es feh­len Leitungen für den Transport des Windestromes von Nord- nach Süddeutschland
  • Das Problem der Stromspeicherung ist noch völlig ungelöst, denn Wind- und Solar­strom werden nur in ca. 20% der Zeit erzeugt; die vorhandenen Speicherkapazitäten reichen nur für wenige Prozent des Bedarfes und auch dafür nur für wenige Stunden.
  • Kohle- und Gaskraftwerke müssen einen finanziellen Ausgleich erhalten, da sie einer­seits durch den Vorrang des Stromes aus den Erneuerbaren unrentabel geworden sind, anderseits aber bei Windstille oder bedecktem Himmel als Reservekraftwerke ge­braucht werden [11].

Infolge des bisherigen  Kostenanstiegs erhöhte sich die von den Kunden zu zahlende Öko­stromumlage  von 3,59 auf 5,287 Cent pro Kilowattstunde ( kWh ). Eine Durchschnittsfamilie wird folglich mit 110 bis 120 Euro im Jahr belastet.  Die hohen Energiekosten gefährden Ar­beitsplätze besonders in energieintensiven Industriebranchen wie Stahl-, Aluminium-, Papier-, Zement- und Chemie-Industrie. Laut einer Umfrage der Deutsche Industrie- und Handels­kammer will jeder fünfte Betrieb aus dieser Branche Arbeitsplätze ins Ausland verlagern oder hat es schon getan [12]. Um dieser Gefahr zu begegnen, wurden viele energieintensive Be­triebe von der Ökoumlage ganz oder teilweise befreit, was wiederum zu weiteren Strompreis­erhöhungen bei den übrigen Stromkunden führte.

Diese aus der Kontrolle geratene Entwicklung  sollte uns veranlassen  kritisch zu fragen,  ob Deutschland bei seinem Anteil von nur 3,1 Prozent an den weltweiten Treibhausgasemissio­nen mit seiner Voreiterrolle in der Klimapolitik einen entscheidenden Beitrag zur Eindäm­mung der durch den Klimawandel drohenden Gefahren leisten kann,  wenn Länder wie China, Indien oder die USA mit ihren weitaus höheren Anteilen an den Treibhausgasemissionen sich weigern, dem deutschen Vorbild zu folgen.

Die weltweiten Kohlendioxydemissionen erreichten 2012 mit 33,9 Mrd. Tonnen den höchsten Stand. In Indien sind die Emissionen seit 1990 um 198 Prozent gestiegen. China emittiert je­des Jahr 280 Prozent mehr CO2 in die Atmosphäre. Von 2010 bis 2011 stiegen die Kohlendi­oxydemissionen in China um die Menge des gesamten deutschen Kohlendioxydausstoßes. Deutschland gibt Hunderte Milliarden Euro für den Ausbau der erneuerbaren Energien aus. Der dadurch erreichte Emissionsrückgang entspricht dem Anstieg der chinesischen Emissio­nen in nur 19 Tagen. Der Direktor Bjorn Lomborg des Copenhagener Consensus Center, eines Instituts, in dem mit Ökonomen und Nobelpreisträgern Strategien für effektive Ent­wicklungshilfe erarbeitet werden, hat berechnet, dass „der durch den Ausbau der erneuerba­ren Energien erreichbare Emissionsrückgang in Deutschland mit jährlich etwa 129 Mio. Tonnen CO2 zu einer Temperaturabsenkung von weniger als 0,001 Grad Celsius bis zum Ende des Jahrhunderts führen und den Temperaturanstieg um nur 16 Tage verzögern wird“ [13].

Dementsprechend stellt sich die weitere Frage, ob die Erfolglosigkeit der deutschen

Anstrengungen gegen die angeblichen Gefahren des Klimawandels noch in einer hinnehmba­ren Relation steht zu den verursachten Kosten für die Bevölkerung und den negativen Folgen für die Konkurrenzfähigkeit der deutschen Wirtschaft.

Bei der Antwort auf diese Frage weisen die  Befürworter der deutschen Energiepolitik auf das rapide Wachstum der Weltbevölkerung und deren steigenden Energiebedarf hin. Dieser wie­derum – so die weitere Argumentation – würde bei den nur begrenzt zur Verfügung stehenden fossilen Ressourcen zu einem Anstieg der Preise der aus fossilen Rohstoffen produzierten Energie führen, das Preisniveau der alternativen Energien erreichen und schließlich  den Rest der Welt veranlassen, dem deutschen Vorbild zu folgen.

Nun haben sich alle bisherigen Voraussagen zu den noch verfügbaren Ressourcen regelmäßig als falsch erwiesen. Die Entdeckung riesiger Erdölvorkommen beispielsweise in Utah (USA ), vor der brasilianischen Küste und in der Arktis widerlegt solche Voraussagen. In North Da­kota,  im so genannten Bakkenmassiv und in anderen Gebieten der USA, ist tief unter der Erdoberfläche gas- und ölhaltiger Schiefer entdeckt worden, aus dem mit dem Fracking-Ver­fahren Gas und Öl gelöst und gefördert wird. Die USA haben mit dieser Methode ihre Schie­fergasförderung von 23 Mio. im Jahr 2000 auf 712 Mio. Kubikmeter pro Tag in 2012 gestei­gert.  Schiefergas ist als Energielieferant im Vergleich zu den Kosten der alternativen Ener­gien wesentlich preisgünstiger. Fracking hat die die Gaspreise in den USA um 75 Prozent fallen lassen. Außerdem ist Erdgas klimafreundlicher als Kohle, weil bei seiner Verbrennung weniger CO2 in die Atmosphäre emittiert wird. In den USA lieferte Kohle in 2007 noch die Hälfte der Energie, der Umstieg auf Gas senkte den Kohleanteil auf 32%. Das führte nach Berechnungen des Energieexperten David Victor von der Universität California in San Diego zu einem Rückgang der CO2-Emissionen um 400 bis 500 Mio. Tonnen. Damit ist in USA die CO2-Reduktion doppelt so groß wie sie nach dem Kyoto-Protokoll für die EU-Klimapolitik vereinbart wurde [14].

Die fossilen Ressourcen werden eine Option zu den erneuerbaren Energien bleiben und mit ihnen im Hinblick auf Effektivität und Kosten konkurrieren. Wegen ihrer weitaus größeren Energiedichten und ihrer ständigen Verfügbarkeit werden sie gewinnen bzw. die erneuerbaren Energien unterliegen.  Schließlich ist preiswerter Strom für die Bevölkerung in den Ent­wicklungs- und Schwellenländern ein entscheidender Faktor für die Überwindung der dort noch vorhandenen Armut. Verständlicherweise möchte man in einem vergleichbaren Wohlstand leben wie ihn die Bevölkerung der Industrieländer schon lange genießt. Und ebenso wollen sich die Menschen in den Industrieländern diesen Wohlstand erhalten und mehren.

Die Frage ist, wann die fossilen Ressourcen tatsächlich erschöpft sein werden, und ob und wie schnell sich vorher die Reaktortechnik für Kernkraftwerke so weit entwickelt haben wird, dass ihre bisherigen Schwachstellen und Betriebsrisiken überwunden sein werden. Die jetzt schon erkennbaren Entwicklungsfortschritte sind ermutigend, und das ist deshalb für die Stromversorgung der Menschheit wichtig, weil Kenbrennstoffe eine um den Faktor 100.000 größere Energiedichte haben als die fossilen Brennstoffe. Und preiswerte Energie wird für die noch weiter wachsende Bevölkerung der Erde zur wichtigsten Voraussetzung werden – ob es um die Entsalzung von Meerwasser zur Erzeugung von Trinkwasser oder um die Produktion von Düngemitteln für die Produktion von mehr Nahrungsmitteln geht, Energie ist der Schlüs­sel für die Existenz der künftigen Generationen. Der Nobelpreisträger für Physik Robert B. Laughlin schreibt hierzu in seinem Buch:  Der letzte macht das Licht aus. Die Zukunft der Energie :

„Wahrscheinlich wird die Lage der von heute gleichen, nur dass die Preisobergrenze nicht mehr durch Kohle und Gas, sondern durch Kernbrennstoff definiert wird. Diese noch sogenannte Plutoniumwirtschaft *) ist für viele Menschen ein Alptraum und ein spe­zielles  Ziel für eine Menge antinuklearer politischer Aktivitäten von heute. Doch so lange sich die Welt der Kerntechnik nicht vollständig entledigt, was höchst  unwahrscheinlich ist, wird der Nuklearstrom im Hintergrund präsent bleiben, auch wenn gewählte Regierungen das abstreiten, und bereitstehen das wirtschaftliche Vakuum zu füllen, das der Rückzug von Kohle und Öl hinterlassen wird. Folglich  ist die Plutoniumwirtschaft nicht zu vermeiden“ [15].

*) Den Alptraum der Plutoniumwirtschaft wird es nicht mehr geben, wenn andere Reaktortypen verfügbar sind, die sich in der Entwicklung befinden [16].

Zusammenfassend lässt sich feststellen :

Es gibt neben den alternativen Energien für die nahe und ferne Zukunft eine Reihe anderer Optionen. Die Regierungen in Ländern wie China, Indien, USA  oder auch Großbritannien halten sich bei der von ihnen konzipierten Energiepolitik alle Optionen offen. China z. B baut und betreibt zwar auch Anlagen zur Stromgewinnung aus erneuerbaren Energien, will seinen Energiebedarf aber auch in Zukunft vorrangig aus fossilen Ressourcen und Kernenergie de­cken. China und andere Staaten versuchen  fossile Energieressourcen,  die sie nicht im eige­nen Land besitzen,  durch Verträge mit Staaten zu sichern, die darüber verfügen. Die Frage ist, warum die deutsche Energiepolitik überwiegend auf die Ökoenergie  setzt und sich nicht auch alle Optionen offen hält, zumal die Bundeskanzlerin Angela Merkel  noch vor einiger Zeit für „einen vernünftigen Energiemix“ geworben und davon, im Gegensatz zu  fast allen anderen Regierungen,  unter dem Eindruck der Reaktorkatastrophe von Fukushima  Abstand genommen und die erneuerbaren Energien zum wesentliche Bestandteil ihrer als Energie­wende bezeichneten Energiepolitik gemacht hat.

Diese Politik lässt sich nur als ängstliche Reaktion auf ein von der Vernunft unbeeinflussten und den Medien geförderten moralischen Eifer in Teilen der deutschen Bevölkerung erklären, Wie in der Geschichte wiederholt geschehen, kann solch’ Eifer sehr schnell in eine totale Ir­rationalität mit fatalen Folgen übergehen. Zu diesen Folgen zählen eine verminderte Wettbe­werbsfähigkeit der deutschen Wirtschaft und wachsende Rückstände  im Vergleich zum Aus­land bei der wissenschaftlichen Forschung z.B in Bereichen wie Gen- oder Kerntechnik.

Dannenberg, im September

Klaus Poggendorf

Ergänzung: Lesen Sie auch hier in SPIEGEL ONLINE

Interview zum Klimawandel: Wie Journalisten Forschungsergebnisse filtern

Von Axel Bojanowski

Das Quellenverzeichnis  befindet sich der Nummerierung entsprechend in der hier publizierten PDF-Version

Related Files




Es ist Zeit, den Wahn vom „Schutz des Globalklimas“ zu beenden!

Erinnern Sie sich noch? 2007, vor sechs Jahren, wurde für 2013 eine komplette Schmelze des Nordpoleises vorhergesagt. Nach langer Zeit ergab sich wieder einmal im Norden Kanadas die Chance, mit Schiffen die Nordwest-Passage vom Atlantik zum Pazifik zu befahren. Im letzten Jahr verkündete die NASA eine gigantische Eisschmelze auf Grönland. Es lief alles glatt! Nun meldet die Berliner B.Z. am 9. September 2013 unter der Überschrift „Das eiskalte Comeback der Arktis“, dass die Eisfläche um den Nordpol im Sommer um 1.600.000 km2 größer geworden sei und 20 Schiffe von Eisbrechern „befreit“ werden mussten. Kleinlaut gibt die Klima-Expertin Judith Curry nun zu, dass wohl der „Einfluss von Kohlendioxid überschätzt“ wurde.

Doch warum gibt man nicht endlich zu, dass der minimale Anteil von 0,04 Prozent CO2 (Kohlenstoffdioxid) in der Luft absolut nichts mit dem weltweit agierenden Wetter und seinen Temperaturen geschweige denn dem „Globalklima“ zu tun hat, dass CO2 kein „Klimagas“ und der „natürliche Treibhauseffekt“ nichts als eine unnatürliche Erfindung, eine unbewiesene Behauptung ist? In alle „Klimamodelle“ wurde weltweit ein automatischer künstlicher CO2-Strahlungsantrieb eingebaut und damit war die „Erderwärmung“ ein zwangsläufiges Muss, bis in alle Ewigkeit! Die „Klimakatastrophe“ war unausweichlich vorprogrammiert!

Die Medien als unkritische und willfährige Nachrichtenübermittler *)

Der Warnruf „Klimakatastrophe“ hätte nie die Resonanz hervorgerufen wie den ängstlichen Klimaschutz-Wahn entfacht, wenn die Medien nicht der einseitigen und politisch erwünschten Wissenschaftspropaganda aufgesessen wären und ihre Rolle als Wächter gegen obrigkeitliche Indoktrination wahrgenommen hätten und kritischer gewesen wären. Sie hätten den Anfängen wehren können, wenn sie den simplen juristischen Grundsatz, auch die andere Seite zu hören, angewandt hätten. Doch sie agierten als Posaunisten, als Verstärker einer neuen Heilslehre namens „Klimaschutz“.

Daran hat sich grundsätzlich bis heute nichts geändert, wenngleich die Opposition gegen den wissenschaftlich unhaltbaren „Treibhauseffekt“ größer wird und sich alle Klimaprognosen als Flopp erwiesen haben. Die Klimawissenschaft ist eine Rechtfertigungswissenschaft geworden, die sich immer tiefer in Widersprüche verstrickt und glaubt, man würde dies nicht merken. In SPIEGEL Online vom 18. Januar 2013 schrieb Axel Bojanowski: „Klimawandel – Forscher rätseln über Stillstand bei Erderwärmung“. In SPIEGEL Online vom 28. August 2013 schreibt Axel Bojanowski: „Pause beim Klimawandel – Pazifik bremst globale Erwärmung“. Wird ein Rätsel geklärt, so sieht das nach wissenschaftlichem Erkenntnisfortschritt aus. Doch die Überschriften täuschen und offenbaren eine schon fahrlässig zu nennende naive Leichtgläubigkeit.

Noch erstaunlicher ist, dass Axel Bojanowski als langjähriger Klimaspezialist nicht selbst über die Widersprüche in seinen beiden Artikel stolpert. Im Januar verbreitet er die Hypothese der NASA, dass die „möglichen Ursachen des Temperaturstillstands“ in den Ozeanen zu suchen seien, sich mithin die Umwelt „vorläufig an ganz anderer Stelle erhitzen“ könne. Er dozierte: „Ozeane sind der größte Wärmespeicher: In ihren obersten drei Metern halten sie so viel Wärme wie die gesamte Lufthülle der Erde. Die meiste Energie, die Treibhausgase in der Luft zurückhalten, gelangt in die Meere, sie sollten physikalischen Berechnungen zufolge etwa 90 Prozent der Energie schlucken. Die Wärme der Ozeane würde also den besten Indikator für die Klimaerwärmung liefern“, denn „auch die NASA dokumentiert eine Erwärmung der Meere in den oberen Wasserschichten“.

Ich möchte nicht die peinliche Frage stellen, wie die in der Luft von den Treibhausgasen zurückgehaltene Energie mit welchem Sogeffekt ins Wasser bis in Tiefen unterhalb von 2000 hinabsteigen soll, auch wenn dies „Computersimulationen“ so berechnet haben. Rechenspiele mit dem Computer sind beileibe kein Beweis. Weitaus augenfälliger ist nun die Kehrtwende als angebliche Lösung des Rätsels: „Der Pazifik kühlt die Welt“. Soll man sich das so vorstellen, dass die Ozeane erst 90 % der Wärme des Treibhauseffektes aufsaugen und sich erhitzen, um dann vom Pazifik aus die Welt zu kühlen? Damit dieser Schwachsinn geglaubt wird, wird vor- oder nachgeschoben, dass es „mit einem Computermodell“ gelungen sei, „die Klimaentwicklung präzise nachzubilden“ und „getreulich“ die „Luftströmungen über dem Pazifik“ zu simulieren. Wer widerspricht Computerberechnungen? Wie leicht ist es doch, zuerst den Medien und dann der Masse mit fiktiven Behauptungen einen Bären aufzubinden. Merkt Axel Bojanowski nicht, wie er von den Klima-Experten wie an einem Nasenring durch die Medienarena gezogen wird? Aber zu wessen Belustigung und Nutzen?

Wie die Wirklichkeit in ihr Gegenteil verkehrt wird

Es ist kein Problem, eine „Globaltemperatur“ kreativ nach seinem Wunsch so gestalten, dass eine Behauptung dem Schein nach bestätigt wird. Man macht dies ganz exakt, indem man über die Erde ein Gitternetz mit einer Maschenweite vom 500 km legt. Jedes Planquadrat hat eine Größe von 250 000 km2. Und da mindestens 70 % der Erdoberfläche Meere sind ohne Wetter-Stationen, können deren Planquadrate mit Schätzwerten belegt werden. Diese Praktiken flogen erst auf, als man rückwärts daran ging, das hochmittelalterliche Wärmeoptimum weg zu manipulieren, um eine berühmt-bedrohliche Hockeyschlägerkurve zu konstruieren.

Obgleich das Maximum der „Globaltemperatur“ 1998 erreicht und auch vom Britischen Wetterdienst deren Rückgang zugestanden wurde, versuchte ZEIT Online am 6. Dezember 2012 noch die alte „Klimapolitik“ zu retten mit „Klimawandel – Was die Erde heiß macht“. Fritz Vorholz und Anne Kunze beginnen: „Während ein neuer Weltklimavertrag beraten wird, heizt sich die Erde weiter auf“. Die Geschichte beginnt mit „Elendes Wachstum“ und endet mit „Rülpsende Kühe“ und „Illegaler Kahlschlag“.

In dem Artikel werden alle Klischees bedient, die man in der Mottenkiste findet. Da heißt es: „Mit dem Fleischkonsum wuchs auch die Klimabelastung“. Klar, im Jahr 1850 gab es eine Milliarde Menschen und heute sind es sieben Milliarden. Ebenso klar, in den gut 150 Jahren „stieg“ die „Globaltemperatur“ um 0,8°C. Und? „Rindfleisch ist besonders heikel, weil Kühe das klimaschädliche Methan ausscheiden.“ Die Rettung? „Zwar leben in den Industrieländern viele junge Menschen vegetarisch, Kantinen bieten „Klimateller“ an. Doch was liegt auf dem „Klimateller“? Etwa das „klimaschädliche Methan“ zum Verzehr? Oder 30 Jahre altes Wetter, statistisch gemittelt und zum vegetarischen „Klima“ verrührt? Apropos Wetter: Wann wurde jemals die Wetterschädlichkeit von Kohlenstoffdioxid, von Lachgas oder Methan nachgewiesen? Wieso drischt man nur auf die Kühe ein? Auch Elche, Giraffen, Hirsche, Schafe und Ziegen geben bei der Verdauung Methan ab. Aber entscheidend ist: Haben die Methanemissionen keinerlei Einfluss auf die Temperaturvielfalt der Erde, dann erübrigen sich alle weiteren Verdächtigungen, was das „Klima“ betrifft. Dem statistischen Posthum-Konstrukt „Klima“ kann nichts mehr gefährlich werden, es ist unumkehrbar „tot“.

Bleibt noch der „illegale Kahlschlag“. Dazu heißt es: „Wald speichert Kohlendioxid.“ Dies ist falsch: „C“ bedeutet Kohlenstoff und hat mit der Kohle nichts zu tun. CO2 bedeutet richtig Kohlenstoffdioxid. Dann geht es weiter: „Waldvernichtung setzt das Klimagas frei.“ Wird ein Wald gerodet, wird eine CO2-Senke vernichtet, denn für Wald ist CO2 ein unverzichtbares Nahrungsmittel. Verrottet ein Baum, dann erst wird CO2 freigesetzt als Nahrung für neue Bäume. Auch den ZEIT-Journalisten müsste die Fotosynthesegleichung bekannt sein. Weiter: „Laut einem aktuellen Bericht der Weltbank fällt Kriminellen alle zwei Sekunden eine Waldfläche von der Größe eines Fußballplatzes zum Opfer.“ Wenn das Kriminelle sind, warum fängt man sie nicht und sperrt sie ein?

Oder ist das nur ein Ablenkungsmanöver? Was ist mit den Kommunen Städten,  die in ihren Gemarkungen Planungshoheit haben? Im Rahmen der Bauleitplanung werden für Wohnbebauung, Gewerbeflächen, Straßen täglich riesige Flächen überbaut und versiegelt, so dass keine Vegetation wachsen, kein CO2 der Luft entnehmen, in Pflanzensubstanz einbauen und vegetarische Nahrung erzeugen kann. Nach Zahlen des Statistischen Landesamtes des Freistaates Sachsen vom 20. September 2012 werden allein in Sachsen täglich 8 Hektar Land, das sind 80.000 m2 oder 8 Fußballfelder überbaut. Jährlich sind das in Sachsen 2.920 Fußball-Felder, wobei das Wort „Feld“ heute wohl nicht mehr zeitgemäß ist. Mit der Versiegelung von Boden werden nicht nur agrarische oder forstliche Wuchsflächen vernichtet, es wird auch in den Verdunstungs- und Wasserhaushalt eingegriffen.

Nach Schätzung werden allein in der Bundesrepublik Deutschland täglich 90 Hektar oder 90 Fußballfelder überbaut. Jährlich sind das 32.850 Fußballstadien! Wer jegliches Roden von Wald als „Waldvernichtung“ erklärt und pauschal als „kriminell“ abstempelt, der bezeichnet indirekt auch all die Gemeinde- und Stadträte, in deren Hoheitsbefugnis alle Erschließungs- und Bebauungspläne liegen, als „Kriminelle“. An diesem Vergleich zeigt sich, dass der Wahn, das „Globalklima“ schützen zu müssen, es aber nicht zu können, weil es dieses gar nicht gibt, zu völlig kuriosen Vorstellungen führen kann. Doch hierzu konnte es nur kommen, weil sich die Bürger nicht von Anfang an ganz energisch gegen den Vorwurf, allesamt „Klimakiller“ zu sein, gewehrt haben.

Karl Marx und die Emanzipation von der Klimaforschung

Im Gegensatz zur klassischen Klimatologie, die meteorologische Daten sammelt und statistisch verdichtete, um in Klimaatlanten mittlere Luftdruck- und Temperaturfelder im Rahmen der geographischen Erdbeschreibung zu präsentieren, hat die Klimaforschung gänzlich andere Ziele. Diese sind politischer Natur und konzentrieren sich auf den Versuch, die Einflüsse des Menschen auf den ewigen Klimawandel nachweisen, um ihn dann entsprechend reglementieren und als „Klimasünder“ bestrafen und zur Kasse bitten zu können.

Die gesamte Beweisführung in der Klimaforschung beruht auf Behauptungen, die mittels Korrelationsberechnungen untermauert werden. Dabei scheut man auch nicht davor zurück, über Scheinkorrelationen Ursache-Wirkungs-Beziehungen zu konstruieren, bei denen die Natur quasi auf den Kopf gestellt und verdreht wird. Beliebt sind Scheinkorrelationen, bei denen Zusammenhänge bzw. Kausalitäten konstruiert werden, die völlig abwegig sind wie der Nachweis eines Zusammenhanges von Storchennestern und Kindergeburten. Solch eine Schein-Korrelation ist auch die Konstruktion eines Zusammenhangs zwischen dem CO2-Gehalt der Luft und der Lufttemperatur. Da es keinen direkten Zusammenhang, keine Kausalität, für keinen Fleck der Erde gibt, konstruiert man eine „Globaltemperatur“ und korreliert diese mit einem Einzelwert, dem auf dem Vulkan Mauna Loa auf Hawaii in 3000 m Höhe berechneten Jahresmittel des CO2-Gehalts. Aus einer zufälligen Ähnlichkeit der Kurvenverläufe wird ohne Angabe eines Korrelationskoeffizienten die Behauptung in die Welt gesetzt, dass der Anstieg des Mauna-Loa-Wertes kausal den Anstieg der Globaltemperatur verursacht habe. Dass dies von der Wissenschaft so hingenommen und geglaubt wird, ist erstaunlich.

Diese Behauptung schien ihre Richtigkeit zu haben, denn bis 1998 konnten die Klimaexperten immer darauf verweisen, dass der CO2-Gehalt steige und folglich mit ihm die Globaltemperatur. Seit nunmehr 15 Jahren scheiden sich die Wege, wird die bisher begangene Konstruktion brüchig und von Tag zu Tag unglaubwürdiger. Doch immer noch scheuen sich viele, den Finger in die Wunde zu legen und diesen wissenschaftlichen Betrug aufzudecken.

Aber auch auf anderen Gebieten findet man solche methodischen Grenzüberschreitungen, vor allem in Gesellschaft und Politik, wo gerne mit Scheinkorrelationen von Abstraktionen operiert wird. So übte Karl Marx massive Kritik an dem Anarchisten Pierre-Joseph Proudhon (1809-1865) ob solcher Argumentationsketten. Von Proudhon stammt übrigens der Spruch „Eigentum ist Diebstahl“. Er wollte einen „Sozialismus ohne Gewalt“. Zitiert nach Theodor Leuenberger „Emanzipation der Moderne“ (Freiburg, 1976) hat Karl Marx folgenden Vorwurf erhoben: „Er treibt die Abstraktion auf die Spitze, indem er alle Produzenten in einen einzigen Produzenten, alle Konsumenten in einen einzigen Konsumenten zusammenschweißt und den Kampf zwischen diesen beiden chimären Personen sich ausspielen lässt. Aber in der wirklichen Welt wickeln sich die Dinge anders ab.“

Genau dieser Praktiken haben sich die Klimaexperten bedient. Sie haben die „Abstraktion auf die Spitze“ getrieben. Erstens haben sie alle Temperaturen dieser Erde in einen Topf geworfen und zu einer „chimären Globaltemperatur“ verdichtet. Zweitens haben sie einen Einzelwert, den CO2-Wert aus Hawaii, zu einem ebenso „chimären CO2-Globalwert“ erhoben. Aus dem Zusammenspiel beider Werte wurde der Song „Spiel mir das Lied von der Klimakatastrophe“ komponiert.

Das Lied stieg auf bis zum UNO-Bestseller, erklomm einen „Weltklimagipfel“ nach dem anderen und steht nun vor einem bodenlosem Abgrund. Ein rascher Absturz würde uns von einem Alptraum befreien, dem Wahn, dem naturgegebenen Klimawandel Einhalt gebieten und die Richtung weisen zu können.

Und wieder das Potsdam-Institut: „Zögern wird teuer“

Dies war die Überschrift der Allgemeinen Zeitung Mainz am 13. September 2013 auf eine Pressemitteilung des PIK am Tage zuvor, die lautete: „Verzögerte Klimapolitik könnte kurzfristige Vermeidungskosten verdreifachen“. Die vom Umweltbundesamt unterstützte Studie der beiden Ökonomen Gunnar Luderer und Ottmar Edenhofer besagt: „Würde eine am 2-Grad-Ziel ausgerichtete internationale Vereinbarung bis 2015 getroffen, könnten kurzfristige Energiepreiserhöhungen auf 25 Prozent begrenzt werden.“ Das sind die üblichen Drohungen von Ökonomen, deren Modelle auf Fiktivszenarien aufbauen und die „Klimapolitik“ in noch größere Beweisnot führen sowie zu noch unsinnigeren preistreibenden Maßnahmen nötigen wollen. Hat jemand der staatlich alimentierten PIK-Ökonomen mal ausgerechnet, wie viel Geld nötig ist, um das Wetter nach menschlichen Wünschen umzugestalten?

Nach Millionen von Jahren würde es doch dem Gerechtigkeitsempfinden der Menschheit nahe kommen zu fordern, die ungerechte Anordnung der Klimazonen auf der Erde umzuändern und das tropische Klima an die Pole, das polare Klima in die mittleren Breiten und das gemäßigte Klima in die Tropen zu verlagern. Das wäre eine praktikable Vorstufe zu mehr „globaler Klimagerechtigkeit“, wie sie von der Bundeskanzlerin Angela Merkel seit Jahren gefordert wird, bevor dann in der nächsten Stufe das globale Einheitsklima geschaffen wird. Dies könnte dann den Bedürfnissen des globalen Einheitsmenschen angepasst werden.

Oppenheim, im September 2013                               

Dipl.-Met. Dr. phil. Wolfgang Thüne

*) Interview zum Klimawandel: Wie Journalisten Forschungsergebnisse filtern




Ohne Großkraftwerke kein Strom. Kohlekraftwerke: Ackergäule sind nun mal keine Springpferde

Bild rechts: Der neue 1000-MW-Block im Braunkohlekraftwerk Niederauβem erreicht dank seiner besonders effizienten Anlagentechnologie einen Wirkungsgrad von 43 % (Foto: www.kohlekraftwerke.de)

Vielfach wird von Seiten der Befürworter des Erneuerbare-Energien-Gesetzes (EEG) der Vorwurf erhoben, die Betreiber von Kohle- und Gaskraftwerken würden sich ohne triftigen Grund weigern, ihre Stromproduktion dem wechselnden Angebot von

Bild 1. Typischer Tageslastgang im deutschen Netz an einem Werktag im Herbst, ohne „erneuerbare“ Energien (Grafik: Wikimedia Creative Commons)

Wind- und Solaranlagen anzupassen. Mit dieser Strategie versuchten sie, den Erfolg der Energiewende zu hintertreiben. Statt die „Kohlemeiler“ bei hohem Aufkommen an Solar- und Windstrom im Netz zu drosseln, lasse man sie auch bei hohem Stromangebot einfach weiterlaufen. Die Folge dieses Überangebots seien Zwangsabschaltungen bei vielen Wind- und Solarkraftwerken sowie Preiseinbrüche an den Strombörsen, wo der überschüssige „erneuerbare“ Strom dann zu Schleuderpreisen verhökert werden müsse. Die niedrigen Kurse an den Strombörsen drückten die Verdienstmöglichkeiten der Windmöller und Solarfarmer, was dazu führe, dass deren Verluste durch EEG-Zahlungen ausgeglichen werden müssten. Es sei dringend an der Zeit, von den Betreibern von Kohle- und Gaskraftwerken zu fordern, dass sie die Erzeugung ihrer Anlagen flexibel an die jeweilige Netzsituation anpassen.

Brauchen wir überhaupt noch fossile Kraftwerke?

Angesichts der Tatsache, dass in Deutschland inzwischen rund eine halbe Billion € (500 Mrd.) in erneuerbare Energien investiert wurde, ist zunächst die Frage zu klären, wieweit Strom aus Sonne und Wind es inzwischen geschafft haben, zumindest einen Teil der fossil befeuerten Kraftwerke überflüssig zu machen. Immerhin sind zur Zeit bereits 66.000 MW EE-Erzeugungskapazität installiert, davon 34.000 MW Fotovoltaik und knapp 32.000 MW Windenergie, also fast schon soviel wie die rund 65.000-75.000 MW, die an einem typischen Werktag zur Spitzenlastzeit zwischen 8:00 und 20:00 Uhr benötigt werden, Bild 1. Beantworten kann diese Frage ein Blick auf die Statistiken der Europäischen Strombörse AG (EEX) in Augsburg, die im Internet unter der Adresse transparency.eex.com frei zugänglich sind. Bild 2 zeigt als Beispiel die Stromerzeugung aus Fotovoltaik und Windenergie für den 22.8.2013.

Bild 2. Erzeugung von Strom aus Wind- und Sonnenenergie in Deutschland am 22.8.2013. Ganz rechts die installierten Gesamtkapazitäten (Datenquelle: transparency.eex.com)

Wie Bild 2 zeigt, ist die EE-Stromerzeugung in der Zeit von 0:00 bis 07:00 Uhr sowie von 19:00 bis 23:00 so gering, dass es in Deutschland vermutlich nicht einmal zum Betrieb der Standby-Schaltungen in den Elektronikgeräten gereicht hätte. Selbst um die Mittagszeit wurde nur rund ein Drittel der insgesamt erforderlichen Menge an Strom produziert. Zwischen 05:00 und 07:00 Uhr lag die gesamte EE-Stromproduktion sogar bei weniger als 600 MW, das ist die Gröβenordnung eines einzigen Gaskraftwerks. Die Erneuerbaren sind also völlig auβerstande, die Stromversorgung der modernen Industrienation Deutschland sicherzustellen. Es kann daher auch keine Rede davon sein, dass man damit konventionelle Kraftwerke ersetzen könne. Diese müssten stattdessen leistungsbereit vorgehalten werden, um jederzeit einspringen zu können, sobald Wind und Sonne schwächeln, was an viel mehr Tagen im Jahr vorkommt, als sich dies die meisten EEG-Befürworter vorstellen können. Daher ist zunächst die Frage zu stellen, wieweit sich fossil befeuerte Kraftwerke überhaupt als Lückenbüβer für derartig schwankende Stromliederenten eignen.

Flexibilität ist eine Frage der Masse…

Die Antwort auf diese Frage ist ganz einfach: Es gibt eine ganze Reihe von technischen wie auch wirtschaftlichen Gründen, die einen „Spontanbetrieb“ nicht zulassen. Ein Groβkraftwerk kann man nicht einfach ein- und ausschalten oder im Stop-and-Go-Betrieb „fahren“ wie ein Auto. Wichtigster Grund hierfür sind zunächst einmal die schieren Dimensionen der Anlagen, die mit 10.000den von Tonnen durchaus an die von Ozeanriesen heranreichen. Auch von Seeschiffen würde niemand erwarten, dass sie so abrupte Manöver ausführen wie ein Kajakfahrer im Wildwasser. Solche Massen sind träge, abrupte Änderungen sind faktisch nicht möglich. So enthält beispielsweise der Kessel eines Kraftwerksblocks neben enormen Mengen Stahl auch noch mehrere 1.000 Tonnen Wasser, die von Raumtemperatur auf bis zu 600 °C hochgeheizt werden müssen, bevor man die Turbine anlaufen lassen kann. Das macht solche Riesen träge. Bei Kohlekraftwerken, deren Kesselanlagen (Bild3) mehr als 10.000 Tonnen schwer und bis zu 170 m hoch sind, kommen aufgrund ihrer speziellen Technik neben der Masse aber noch zusätzliche technische Aspekte hinzu, die auch nach dem Hochfahren rasche Wechsel des Betriebszustands erschweren.

Bild 3. Schemadarstellung des Dampfkessels eines modernen Kohlekraftwerkes (Bild: VGB PowerTech Germany, Wikimedia Commons)

15.000+ Tonnen lassen sich nicht „mal eben“ von Null auf 1450 °C bringen

Ein modernes Kohlekraftwerk erzeugt Dampf in einem sogenannten „Kessel“. Dies ist jedoch ein völlig irreführender Ausdruck, denn in Wirklichkeit handelt es sich um ein kompliziertes, je nach Kraftwerk bis zu 170 m hohes Labyrinth aus Bündeln dickwandiger Stahlrohre, Bild 4. In einem modernen Steinkohlekraftwerk wie dem Block 10 des Kraftwerks Duisburg-Walsum sind allein 450 km solcher Rohre mit Durchmessern zwischen einigen cm und knapp einem Meter verbaut. In diesen Rohren mit einem Gesamtgewicht von mehr als 10.000 Tonnen befinden sich auβerdem noch groβe Mengen Wasser.

Bild 4. Die Rohrbündel eines vertikalen Dampferzeugers für ein Kernkraftwerk (Bild: Nuclear Regulatory Commission der USA/ Wikimedia Commons)

Im laufenden Betrieb eines solchen Kraftwerks herrschen im Kesselraum Bedingungen, denen sich vermutlich selbst ein Teufel nicht gerne aussetzen würde. Die mit Kohlestaub und Druckluft erzeugten Brenngase erreichen Temperaturen bis zu 1.450 °C und sind darüber hinaus auch noch korrosiv. Auch im Inneren der Rohrbündel erreicht die Temperatur bis zu 620 °C. Zudem müssen sie einem Dampfdruck von bis zu 274 bar standhalten, das ist nahezu doppelt so hoch wie der in einer Pressluftflasche.

Gerade die Anfahrphase bereitet den Betreibern solcher Anlagen daher besondere Kopfschmerzen. Das Herauffahren von Raumtemperatur auf Betriebszustand muss sehr behutsam erfolgen, da sich die gesamte Konstruktion aufgrund der Erwärmung ausdehnt: Während des Aufheizens „wächst“ ein solcher Kessel um einen Meter oder mehr. Wenn die Temperaturverteilung dabei nicht gleichmäβig ist, so kommt es innerhalb der Konstruktion zu zusätzlichen Spannungen, die das Material schädigen können.

An der Grenze der Belastbarkeit

Grund für die extremen Bedingungen im Dampferzeuger ist der Wunsch nach einem möglichst hohen Wirkungsgrad des Kraftwerks, der umso besser ist, je höher man die Temperatur und den Druck des Dampfs treiben kann. Grenzen setzt dem jedoch die Belastbarkeit des Stahls, denn bei diesen extremen Bedingungen kommen selbst moderne legierte Stahlwerkstoffe an ihre Leistungsgrenze. Das Material beginnt sich unmerklich zu verformen und „kriecht“ immer weiter, bis es schlieβlich irgendwann reiβt. Für die Ingenieure besteht die Kunst darin, die Kesselkonstruktion und den Rohrwerkstoff so auszulegen, dass es innerhalb der Lebensdauer des Kraftwerks – etwa 30 Jahre bzw. 200.000 Betriebsstunden – möglichst nicht zu einem solchen Schaden kommt. Besonders nachteilig für die Lebensdauer wirken sich zusätzlich auftretende Spannungen im Material aufgrund z.B. ungleichmäβiger Temperaturen im Kessel aus. Zu letzteren kommt es vor allem dann, wenn der Kessel nicht in einem stabilen Betriebszustand mit langsamen Änderungen der Temperatur- und Druckverhältnisse verbleiben kann, sondern plötzliche Lastwechsel vollziehen muss. Dabei kommt es zu Temperaturunterschieden und damit Materialspannungen, welche die Lebensdauer herabsetzen. Längerfristig kommt es zu Schäden, die zur Stillsetzung des Kraftwerks und teuren Reparaturen am Dampferzeuger zwingen. Jeder zu abrupte Lastwechsel und vor allem jeder unnötige Stillstand kostet den Kraftwerksbetreiber daher viel Geld.

Hohe Kosten im Teillastbetrieb

Weiteres Problem für die Betreiber von Kohlekraftwerken ist der hohe Fixkostenanteil an der Stromproduktion. Der Betrieb dieser riesigen Anlagen erfordert viel Personal, zudem müssen die Kapitalkosten für die hohen Investitionsaufwendungen erwirtschaftet werden. Und last but not least sind solche Anlagen sehr wartungsintensiv, was entsprechend hohe Instandhaltungsaufwendungen bedingt.

Wirtschaftliche Probleme gibt es deshalb vor allem im Teillastbetrieb, auch deshalb, weil die Brennstoffkosten nur einen recht geringen Teil der Gesamtbetriebskosten ausmachen: Bei einem Steinkohlekraftwerk sind es nur etwa 27 % und bei einem Braunkohlekraftwerk sogar nur rund 16 % der laufenden Kosten. Fährt man ein solches Kraftwerk mit nur 50 % Auslastung, dann können sich die Erzeugungskosten pro kWh um bis zu 100 % erhöhen. Zudem verschlechtert sich dann der Wirkungsgrad erheblich, was zu höheren CO2-Emissionen pro kWh erzeugter elektrischer Energie führt. Sowohl aus technischen als auch aus wirtschaftlichen Gründen ist es daher für ein Kohlekraftwerk nicht so ohne weiteres möglich, „mal so eben“ den Launen des Windes und des Wetters zu folgen, nur damit Windbarone und Solarkönige ungeschmälert ihre garantierten Profite einstreichen können. Erzwingen kann man seitens der Politik natürlich (fast) alles – aber die dabei entstehenden Kosten treffen letztlich vor allem den Verbraucher.

Gasturbinen im Abseits

Die immer wieder ins Spiel gebrachten Gaskraftwerke sind keine Alternative, weil der damit produzierte Strom wegen der hohen Gaspreise zu teuer ist. Zunächst einmal muss man bei Gaskraftwerken zwischen „normalen“ Gasturbinen und den zweistufigen sogenannten Gas- und Dampf-Kraftwerken (GUD) unterscheiden. Leider werden beide Kategorien in der Presse immer wieder in einen Topf geworfen, obwohl man dann Äpfel und Birnen vergleicht.

Normale Gaskraftwerke bestehen aus einer groβen Gasturbine mit angeschlossenem Generator. Sie haben keinen Kessel und geringe Massen und können daher innerhalb von Minuten starten, weshalb sie sich hervorragend als schnelle Reserve eignen, wenn das Netz unterversorgt ist. Allerdings ist der damit erzeugte Strom etwa 3-4 Mal teurer als Strom aus einem Braunkohlekraftwerk, weshalb sie meist bald nach Behebung des Notfalls wieder vom Netz genommen werden. Auβerdem ist ihr Wirkungsgrad relativ bescheiden.

Bild 5. Prinzipschema eines Zweiwellen-GuD-Kraftwerks (Bild: Peter Lehmacher/ Wikimedia Commons)

Bei den sogenannten Gas-und-Dampfturbinen (GuD) handelt es sich dagegen im Prinzip um einen Zwitter aus Gasturbine und Dampfturbine, Bild 5. Die Anlagen verfügen zusätzlich zur Gasturbine über einen Kessel, der mit den heiβen Turbinenabgasen auf Temperatur gebracht wird. Mit dem so erzeugten Dampf wird dann zusätzlich eine Dampfturbine betrieben. Vorteil dieser doppelten Nutzung ist ein hervorragender Wirkungsgrad von bis zu 60 %. Dennoch kostet Strom aus einem GuD-Kraftwerk – vor allem auch wegen des hohen Gaspreises – rund doppelt soviel wie der aus einem Braunkohlekraftwerk. Zudem müssen GuD-Kraftwerke den Kessel nach dem Start erst mal hochheizen und können daher längst nicht so dynamisch reagieren wie reine Gaskraftwerke. Sie eignen sich daher eher für die Mittellast, werden jedoch aufgrund ihrer hohen Stromgestehungskosten in letzter Zeit zunehmend unwirtschaftlich. Zurzeit werden deshalb zahlreiche Neubauprojekte gestoppt und sogar bereits in Betrieb befindliche GuD-Kraftwerke stillgelegt.

Fred F. Mueller




Fracking lässt die Rohölerzeugung der USA auf das höchste Niveau seit 1989 steigen

In diesem Video spricht Fatih Birol, Chefökonom bei der EIA über Preise und Nachfrage nach Rohöl. Er spricht am Rande des Weltenergie-Forums in Dailan, China, mit Susan Li in  der Bloomberg-Sendung „Asia Edge“ (Quelle: Bloomberg)

Steigende Rohöl-Vorräte aus Lagerstätten wie dem Bakken-Feld und Eagle Ford in Texas haben geholfen, die USA zum weltgrößten Exporteur raffinierten Treibstoffes werden zu lassen, einschließlich Benzin und Diesel. Texas hat im Juni der EIA zufolge 2,575 Millionen Barrel pro Tag gefördert. Das reicht, um den Staat vor sieben Mitglieder der OPEC-Länder zu positionieren.

„Es ist erstaunlich”, sagt Andy Lipow, Präsident von Lipow Oil Associates LLC, einer in Houston ansässigen Beratungsfirma, die im vorigen Monat vorhergesagt hatte, dass die USA bis zum Jahresende 7,75 Barrel pro Tag fördern würden. „Der [US-Bundesstaat] Texas erzeugt jetzt mehr Öl als Iran.”

Iran erzeugte im Juni 2,56 Millionen Barrel, jedenfalls einer Bloomberg-Übersicht der Ölunternehmen, Erzeuger und Analysten zufolge. Saudi-Arabien, Irak, Kuwait, die Vereinigten Arabischen Emirate und Venezuela haben in diesem Monat mehr erzeugt als Texas.

West Texas Intermediate, der Bezugspunkt der USA, stieg um 17 Cent oder 0,2 Prozent auf einen Preis von 107,56 Dollar pro Barrel an der New York Mercantile Exchange. Brent stieg um 25 Cent oder 0,2 Prozent auf 111,50 Dollar am ICE Futures Europe in London.

Steigende Vorräte

Den EIA-Daten zufolge konnten die USA in den ersten fünf Monaten dieses Jahres 2013 selbst 87 Prozent ihres Eigenbedarfs decken, was nahe der höchsten Jahresrate seit 1986 liegt. Die heimische Rohölerzeugung wird 2013 im Mittel 7,5 Millionen Barrel pro Tag betragen, 2014 8,4 Millionen Barrel pro Tag. Dies sagte die EIA kürzlich in ihren Short-Term Energy Vorhersagen.

Steigende heimische Vorräte haben den Verbrauch ausländischen Treibstoffs deutlich reduziert. Die Gesamtimporte von Rohöl und Petroleum werden bis 2014 auf 5,4 Millionen Barrel pro Tag fallen. Das ist ein Rückgang von 12,5 Millionen im Jahre 2005, teilte die EIA, eine Organisation des Energieministeriums, in dem Bericht mit.

Die Verfügbarkeit von Rohöl verschaffte den USA einen zunehmend wichtigen Raffinerie-Schub. Die US-Exporte von destilliertem, zum größten Teil aus Diesel bestehendem fuel oil stieg im Juni auf einen Allzeit-Höchstwert von 1,285 Millionen Barrel an einem Tag im Juni.

Die Anzahl der gecharterten Tanker an der US-Golfküste erreichte vorige Woche den Rekordwert von 42, wie dem wöchentlichen Schiffsverkehrs-Bericht der Charles R. Weber Co zu entnehmen ist. Etwa 15 dieser Schiffe hatten das Ziel Europa, den Daten zufolge ebenfalls ein Rekord.

Link: http://www.bloomberg.com/news/2013-09-11/fracking-pushes-u-s-crude-output-to-highest-level-since-1989.html

Übersetzt von Chris Frey EIKE




Das Energie-Ungleichgewicht der Erde

Die jüngste offizielle Präsentation dieser Theorie stammt von:

Trenberth K E, J T Fasullo and J. Kiehl (2009), Earth’s Global Energy Budget. Bull. Amer. Meteor. Soc., 90, 311-323.

Gleich zu Anfang heißt es in dieser Studie:

„Für ein Klima im Gleichgewicht gleicht die ausgehende langwellige Strahlung die einfallende absorbierte Sonnenstrahlung notwendigerweise aus“. Dann folgt das Eingeständnis, dass es viele Gründe dafür gibt, dass dies nicht stimmt. Darunter sind Streuung und Reflexion durch Wolken und Aerosole, Absorption in der Atmosphäre, der Fluss absorbierter Wärme zu kinetischer Energie und latenter Wärme. Sie räumen auch ein, dass Energie eine Zeitlang gespeichert oder in andere Energieformen umgewandelt werden kann.

Das Diagramm rechts, das für alle angenommenen Strahlungsflüsse konstante Werte annimmt, zeigt ein globales Ungleichgewicht von +0,9 W/m², vermutlich eine Folge der o. g. störenden Faktoren. Falls ihre Darstellung realistisch ist, bedeutet das, dass sich die Erde auch ohne Zufuhr von Treibhausgasen erwärmt.

Eine Revision dieses Diagramms, das im 5. Zustandsbericht des IPCC erscheinen wird (und das Ihnen zu zeigen mir verboten worden ist), macht das alles noch viel komplizierter. Sie ändern viele ihrer gewählten Zahlen, räumen aber jetzt ein, dass die gewählten Zahlen eine mehr oder weniger willkürliche Auswahl aus einer Reihe veröffentlichter Schätzungen sind, die jetzt mit in das Diagramm einfließen. Das Gesamt-Ungleichgewicht reduziert sich damit auf +0,6 W/m², aber die erwähnte große Bandbreite muss bedeuten, dass es eine beachtliche Ungenauigkeit in dieser Abbildung gibt. Das bestätigt, dass sich die Erde möglicherweise erwärmt, aber diese Erwärmung könnte noch viel stärker sein, oder die Erde könnte sich sogar abkühlen.

Energie-Änderungen an der Erdoberfläche finden unter Anderem statt durch die Bildung lebender Organismen, die Freisetzung gespeicherter Energie durch die Verbrennung fossiler Treibstoffe und Kernenergie sowie durch die erforderliche Energie zur Alterung oder Erosion der Oberfläche durch die Einwirkung von Wind, Ozeanen und Gletschern.

Das Klima ist eine klassische Wärmemaschine. Die Einstrahlung erfolgt von der Sonne; die von der Erde und der Atmosphäre ausgehende Strahlung geht in den Weltraum. Das Erzeugnis der Maschine ist die Gesamtheit lebender Organismen.

Wärmemaschinen erzeugen negative Entropie bei ihrem Produkt und sind damit ein Energiespeicher. Der gesamte Prozess muss den Gesetzen der Thermodynamik unterworfen sein.

Die in der Biosphäre gespeicherte Energie wird teilweise durch den Zerfall toter Organismen verbraucht. Das geschieht oft langsam und unvollständig, und die Überbleibsel können nutzbare Energie repräsentieren.

Der jüngsten Schätzung des IPCC zufolge beträgt die auf der Erde einfallende Sonnenstrahlung 160 W/m². Multipliziert man dies mit der Anzahl der Sekunden im Jahr (3,15 X 10^7) und mit der Anzahl der Quadratmeter der Erdoberfläche (5,1 X 10^14), erhält man 2,6 X 10^24 Joule pro Jahr.

Der BP Annual Review 2012 zufolge betrug der Gesamtenergieverbrauch der Erde im Jahr 2011 12476,6 Millionen Tonnen Öl-Äquivalent [Mtoe], davon 4130,5 Öl, 3987,1 Gas, 75720,1 Kohle, 791,5 Wasserkraft, 599,3 Kernkraft, 194,8 Erneuerbare. Löst man die fossilen Treibstoffe heraus, erhält man 11837,7 Mtoe. Multipliziert mit 42 X 10^12 erhält man 5,0 X 10^21 Joule pro Jahr.

Das sind etwa 0,2% der Einstrahlung von der Sonne.

Falls all diese Energie als Wärme freigesetzt wird, würde sich ein zusätzliches jährliches globales Ungleichgewicht von +0,32 W/m² ergeben oder die +1,6 W/m², von denen behauptet wird, dass sie aus Treibhausgasen stammen.

Wie ich mit ähnlichen, in meinem Buch „The Greenhouse Delusion“ (2002; erhältlich bei Amazon) Berechnungen gezeigt habe, wird der größte Teil dieser Energie in den großen industrialisierten Gebieten in Europa und Nordamerika freigesetzt, wo der lokale Input viele Male größer als im globalen Mittel ist und daher dem angenommenen Treibhauseffekt schon ziemlich nahe kommt.

Der Welt-Energieverbrauch nimmt gegenwärtig um etwa 2,5% zu.

Zusätzlich zu der Energie aus fossilen Treibstoffen gibt es weiteren Input durch Änderungen der Erde durch Kernkraft, Geothermie und Vulkane. Einige Energie wird verbraucht zur Erosion der Oberfläche durch Wind, Meer und Gletscher.

Das Energie-Ungleichgewicht der Erde ist möglicherweise positiv, aber auch extrem unsicher, so dass das IPCC-Klimamodell oben rechts sowie in der bevor stehenden Aktualisierung kaum in der Lage ist, die mögliche Rolle von Treibhausgasen bei der Modifizierung des Klimas zu belegen.

Kevin Trenberth selbst hat die Lage korrekt in einer Bemerkung zusammengefasst, die sich in den Klimagate-E-Mails fand; dass nämlich die Modelle eine „Schande“ [a travesty] sind.

Vincent Gray
75 Silverstream Road
Crofton Downs
Wellington 6035
New Zealand
064 4 9735939

Übersetzt von Chris Frey EIKE




CDU OB von Stadt Albstadt hält ein Plädoyer für eine rationale Energiepolitik

Wirklich tödlich? – es sind ja „nur“ Sandkastenspiele, die bestenfalls der Willensbildungund Entscheidungsfindung im Vorfeld von Wahlterminen dienen. Aber worin unterscheiden sich nun „Freizeit-Energiepolitiker“ von den Profis in unseren Parlamenten auf Landes- und Bundesebene? Ich würde sagen nur graduell, wenigstens das sieht Frau Schwan ähnlich. Dort gibt es in der Ausschussarbeit klare Zuordnungen und Spezialisierungen auf Einzelpolitiken, und der Bildungs- oder Innenpolitiker hat eben mit der Energiepolitik weniger am Hut, einmal abgesehen vom in der Regel fehlenden technisch-naturwissenschaftlichen Hintergrund.

Und selbst als Physiker(in) – im gegenwärtigen Bundestag zusammen mit Ingenieuren, Chemikern und Mathematikern eine Minderheit von 7,5% –, das zeigt sich ganz klar an der Bundeskanzlerin, ist man Zwängen unterworfen, die einer rationalen Entscheidung im Wege stehen. Nicht zu vergessen natürlich die ständige Beeinflussung durch Medien, Vertreter von Einzelinteressen, bezahlte Politikberatung sowie der nachvollziehbare Wunsch, wiedergewählt zu werden. Im Bereich der Energiepolitik kommt erschwerend hinzu, dass es sich um ein komplexes Thema handelt, dessen Erkenntnislücken gerne mit Glaubenssätzen aufgefüllt und durch Angstszenarien untermauert werden. Nicht zu unterschätzen darüber hinaus die Verquickung wirtschaftlicher Interessen, die gerade auch in den jungen Industrien der sog. Erneuerbaren Energien ausgeprägt ist.

Was hilft dagegen? Nicht Palaver, sondern Aufklärung und Information, so objektiv wie möglich, so umfassend wie nötig und so interessenneutral wie es nur geht. Das heißt, im Vordergrund muss das Gemeinwohl stehen. Für verschiedene Fragestellungen der Energiepolitik soll hierzu in knapper Form und unter Zuhilfenahme von Quellen und Publikationen mit naturwissenschaftlich-technischem Fokus, vorwiegend aus dem Internet, ein erster Versuch unternommen werden. Dabei hilft, dass der Verfasser als „einfacher Wirtschaftswissenschaftler“ sich dem kritischen Rationalismus von Karl Popper verpflichtet fühlt.

1. Was ist Sinn und Zweck der Energiewende?

Die Energiewende soll zwei (vermeintliche?) Probleme lösen: Erstens die Abhängigkeit von fossilen Rohstoffen beseitigen, die nach den „Prophezeiungen“ des Club of Rome über die Grenzen des Wachstums aus dem Jahre 1972 „sehr zeitnah“ nicht mehr verfügbar sein werden, sprich die Begrenztheit der Vorräte an Kohle, Öl und Gas wird ins Kalkül gezogen. Dadurch sollen sich auch die anthropogen verursachten Emissionen des Gases CO2 verringern, die vom wissenschaftlichen „Mainstream“ ganz wesentlich für den Klimawandel verantwortlich gemacht werden – Stichwort: Menschengemachter Klimawandel.

Zweitens soll das deutsche Energiesystem sukzessive, d.h. in vier Schritten von fossilen auf erneuerbare Energien wie Sonne, Wind, Biomasse und Wasserkraft umgestellt werden. Bis 2020 sollen jeweils mindestens 35%, bis 2030 50%, bis 2040 65% und bis 2050 80% der Stromerzeugung regenerativ erfolgen, die gesamte Energieversorgung zur Jahrhundertmitte zu mindestens 50%. Parallel zum Umstieg auf erneuerbare Energien erfolgt der Ausstieg aus der Kernenergie – wohl die stärkste Antriebskraft –, der allerdings schon in 2022 zu 100% vollzogen sein soll.

Dies ist das Ergebnis der im Nachgang zu der Naturkatastrophe vom 11. März 2011 – dem Erdbeben und Tsunami mit anschließender Havarie von drei Reaktoren in Fukushima/Japan – von der Bundesregierung getroffenen Entscheidungen. Kurz zuvor war der Kernkraftnutzung in Deutschland noch eine Funktion als „Brückentechnologie“ zugetraut und zugebilligt worden. D.h. sie sollte einen behutsamen Systemwechsel von Fossil auf Erneuerbar auch wirtschaftlich abfedern und begleiten.

Die vom Club of Rome angestoßene Diskussion wird heute u.a. unter Begriffen wie „Peak-Oil“ und „-Gas“ stark meinungsprägend fortgeführt, wobei die Internationale Energie Agentur (IEA) in Paris die Versorgung mit fossilen Brennstoffen noch für Jahrhunderte sichergestellt sieht (siehe hierzu nur Rudolf Kipp, Peak-Oil und Anti-Fracking Propaganda in der ARD, 28.3.2013, unter www.science-skeptical.de). In Bezug auf die Kernkraftnutzung weist die Ablehnungsfront fast krankhafte Züge auf. Dies erkennt man an der gängigen Tabuisierung des Themas, wie auch an Manifestationen der schon sprichwörtlichen „German Angst“. Dies geht soweit, dass versucht wird, neuere Entwicklungen in der Kerntechnik bewusst aus der öffentlichen Diskussion herauszuhalten.

So wurde im laufenden Wettbewerb des renommierten GreenTec Awards 2013 ein durch Online-Voting mehrheitlich nominierter Salzschmelze-Reaktor durch die nachträgliche Änderung der Wettbewerbsbedingungen aus der Wertung genommen. Zwischenzeitlich hat das Berliner Kammergericht dies per einstweiliger Verfügung für unzulässig erklärt. Dem neuen Reaktortyp der Generation IV werden aufgrund seiner Vorteile gegenüber den üblichen Leichtwasserreaktoren (u.a. inhärente Sicherheit, bessere Nutzung von Thorium und Uran, Lagerung der radioaktiven Abfälle für einen Zeitraum von 300 Jahren) auf lange Sicht – in 30 bis 50 Jahren – gute Chancen eingeräumt. Die Chinesen haben schon ihr Interesse an dieser Entwicklung artikuliert.

Der Enkel des Entdeckers der Kernspaltung und Nobelpreisträgers Otto Hahn, Dietrich Hahn, weist übrigens gerne darauf hin, dass sein Großvater, wie auch seine Patentante Lise Meitner, im hohen Alter (im 89. bzw. 90. Lebensjahr) eines natürlichen Todes gestorben sind. Und darauf, dass sich Tadatoshi Akiba, ehemaliger Bürgermeister Hiroshimas und langjähriger Präsident der weltweit aktiven Organisation “Mayors for Peace” bei der Verleihung der Otto-Hahn-Friedensmedaille am 16. April 2013 in Berlin klar für eine Fortsetzung des Kernenergienutzung in seinem Heimatland Japan ausgesprochen hat.

2. Sind die Erkenntnisse über die Ursachen des Klimawandels eindeutig?

Glaubt man der neuesten einschlägigen Publikation des Umweltbundesamtes (UBA) aus Dessau, dann sind hierzu keine Fragen mehr offen. Unter dem Titel „Und sie erwärmt sich doch“ – basta – kam im Frühjahr 2013 eine amtliche Apologetik heraus, die keine Zweifel mehr daran zulässt, dass die Erderwärmung von statten geht und anthropogen, d.h. durch den Menschen verursacht ist.

Abgesehen davon, dass es verwegen erscheint, eine so komplexe Materie wie das weltweite Klimageschehen monokausal erklären zu wollen, dass der Versuch indiskutabel ist, abweichende Meinungen durch die namentliche Nennung einzelner Autoren zu diskreditieren, dass einzelne Inhalte nicht mit den neuesten Erkenntnissen des sog. Weltklimarates (Intergovernmental Panel on Climate Change – IPCC) übereinstimmen, ist es unsäglich und wissenschaftlich unredlich, einen öffentlichen Diskurs, noch bevor dieser richtig angefangen hat, für beendet zu erklären. Sehr ausführlich und die Fehler des UBA vermeidend, hat das Europäische Institut für Klima und Energie (EIKE) aus Jena im Mai 2013 die UBA-Broschüre einem Faktencheck unterworfen (http://www.eike-klima-energie.eu/uploads/media/EIKE-Faktenckeck_des_UBA_01Juni2013_02.pdf). Dabei wird u.a. darauf hingewiesen, dass schon seit 16 Jahren nicht mehr von der globalen Erwärmung ausgegangen werden kann (vgl. S. 1), im Gegenteil, dass eine globalweite Abkühlung gemessen wird und dies nicht mit dem stetig steigenden CO2 Gehalt der Atmosphäre zusammenpasst (vgl. S. 4).

Auch Extremwetterzunahmen werden (sogar unter Bezugnahme auf das IPCC) verneint. Hier verwechsele das UBA bei Flutkatastrophen auftretende größere Schäden mit angeblich höheren Pegelständen, was allein schon durch historische Hochwassermarken widerlegt wird (vgl. S. 5). Das UBA ignoriere die Rolle des CO2 für die Ernährung der Menschen, ohne dieses Gas (mit aktuell 0,04% Anteil an der Erdatmosphäre, entspricht 400 ppm = parts per million) gäbe es kein Leben. Denn CO2 ist Hauptlieferant des für den Aufbau von Biomasse notwendigen Kohlenstoffs im Zuge der Photosynthese. Wenn fachunkundige Bürgermeister eine CO2-freie Stadt anstrebten, sei dies deshalb absurd (vgl. S. 8-9).

Carl Christian von Weizsäcker hat sich bereits in 2009 zu der Frage geäußert, wer nun recht hat? „Auf beiden Seiten (den sog. „Alarmisten“ mit dem IPCC und bei den „Skeptikern“ – JG) gibt es seriöse Wissenschaftler. Aber dafür bin ich nicht der Experte. Ich stelle mich in die Schuhe derjenigen, die sagen, es gibt diesen Klimaeffekt. Das ist die pessimistischere Variante. Das Vorsichtsprinzip lässt mich sagen: Solange wir es nicht wissen, sollten wir eher die pessimistischere Variante nehmen. Ich bin durchaus skeptisch gegenüber dem, was der Mainstream behauptet. Aber ich bin kein Naturwissenschaftler und kann es nicht hinreichend beurteilen. Deshalb sage ich: Wenn der IPCC recht hat, dann finde ich als Ökonom, dass eine rationale Klimapolitik eine andere sein muss als die, die wir jetzt betreiben. Etwa, was die erneuerbaren Energiequellen angeht. Der Glaube daran trägt schon religiöse Züge. Da werden durch Lobbyinteressen finanziell gut unterfütterte Glaubenssätze propagiert“ (http://www.novo-argumente.com/magazin.php/archiv/novo99_27).

Dieser Einschätzung kann man sich auch heute noch vorbehaltlos anschließen, wobei sicherlich die Bestimmtheit – und da liegt das UBA mit seiner Broschüre voll daneben – mit der seriöse Aussagen zur globalen Erwärmung getroffen werden, weiter abnehmend und die Bandbreite der Vorhersagen zunehmend ist. Der 5. Zustandsbericht des IPCC, der für September angekündigt ist, wird dies zeigen.

3. Welchen physikalischen und wirtschaftlichen Gesetzmäßigkeiten unterliegt die Energiewende?

Einen „Klassiker“ hierzu hat meines Erachtens Peter Heller zu Anfang des Jahres mit seinem Aufsatz „Die Energiewende scheitert an der Physik“ verfasst (http://www.science-skeptical.de/energieerzeugung/die-energiewende-scheitert-an-der-physik/009246/). Meine mehrfach gegenüber Fachleuten aus der Energiewirtschaft geäußerte Frage, ob dies denn so (einfach) sei, wie dort beschrieben, wurde durch die Bank einschränkungslos bejaht. Dazu gehört, dass sich in einem Wechselstromnetz verbunden mit der Notwendigkeit relativ konstanter Frequenz (Norm-Frequenz in Deutschland ist 50 Hertz), Energieentnahme und Energiezufuhr stets, d.h. zu jedem Zeitpunkt ausgleichen müssen, damit es stabil bleibt. Hinzu kommt, dass man elektrischen Strom nicht speichern kann (dort S. 1), sondern hier eine Energiespeicherung erst nach Umwandlung in andere Energieformen möglich ist. So z.B. über kostspielige, mit Energieverlusten verbundene Umwege, indem man mit nicht benötigtem Strom Wasser den Berg hinauf pumpt, um es bei Bedarf durch Rohrleitungen und Turbinen-Generatoreinheiten wieder ins Tal zu leiten (daher Pumpspeicherkraftwerk) und so wieder elektrische Energie zu gewinnen (dort S. 6).

Aus drei Gründen stiftet die Energiegewinnung aus Sonne und Wind in Deutschland nur bedingt Nutzen: Zum einen ist sie nicht in der Lage die plan-, steuer- und verfügbare Stromerzeugung aus konventionellen Kohle-, Gas-, und Kernkraftwerken zu ersetzen. Daher: Wenn die Sonne nicht scheint und der Wind nicht weht, müssen diese sog. verlässlichen Kraftwerke zur Stabilisierung des Stromnetzes weiterhin bereitstehen, es müssen also Kraftwerkskapazitäten doppelt vorgehalten werden (dort S. 3). Zum anderen gibt es in Deutschland bei der Energie keinen Engpass und keine gänzlich unerschlossenen Landstriche, im Gegensatz zu Ländern wie China oder Indien mit großem Nachholbedarf und „Entwicklungshunger“. Aber wir haben, drittens, das Problem, dass für die massive weitere Integration von regenerativer Stromerzeugung auf Basis von Sonne und Wind die geeigneten Stromnetze fehlen oder vorhandene erst entsprechend ertüchtigt werden müssen: Sowohl die Übertragungsnetzbetreiber (50Hertz, Amprion, TenneT und Transnet BW) als auch die großen Energieversorger (E.ON, RWE, Vattenfall und EnBW) und die vielen hundert Stadtwerke mit ihren Verteilnetzen müssten kräftig investieren und sich entsprechend finanzieren.

Die wirtschaftlichen Auswirkungen beschreibt präzise Peter Heller: „Strom wird teurer, weil man Erzeugungskapazitäten aufbaut, die man nicht braucht. In die also niemand freiwillig investieren würde, es sei denn der Staat übernimmt das finanzielle Risiko. Nichts anderes ist das EEG und nichts anderes sind die Garantien für potentielle Betreiber von Offshore-Windparks. Er wird teurer, weil die vorhandenen Kapazitäten dadurch unwirtschaftlicher arbeiten. Er wird teurer, weil man die Vorhaltung von unwirtschaftlichen Kapazitäten für die Regelenergie subventionieren muss, um die Netzstabilität zu sichern. Er wird teurer, weil man den Betreibern volatiler Quellen auch die elektrische Energie bezahlen muss, die am Bedarf vorbei produziert wird. Er wird teurer, weil Stromspeicher weniger effizient sind, als Kraftwerke.“ (dort S. 6). Fast resignierend fügt er hinzu: „Die Energiewende bedeutet nichts anderes als steigende Preise bei gleichzeitig sinkender Versorgungssicherheit. Dauerhaft.“ (dort S. 7).

4.  Was sind die Charakteristika der erneuerbaren Energien?

Die Volatilität als gemeinsames „Manko“ der erneuerbaren Energien wurde schon thematisiert. Einzige Ausnahme die Bioenergie, die sogar steuerbar produzieren kann. Ihr Problem allerdings tritt zutage, wenn man den sog. Erntefaktor vergleicht, der sich aus dem Verhältnis der durch die Anlage bereitgestellten Energie zum kumulierten Energieaufwand errechnet, der für die Bereitstellung notwendig ist. Je höher der Wert, desto effizienter die Energiequelle (siehe hierzu nurhttps://de.wikipedia.org/wiki/Erntefaktor und/oder http://www.festkoerper-kernphysik.de/erntefaktor).

Das mit Biogas betriebene Gaskraftwerk erreicht hier lediglich einen Erntefaktor von 3,5 – was auch auf den hohen Einsatz von Ressourcen für die Brennstoffbereitstellung sowie den Bau, Betrieb und Abbau des Kraftwerks hinweist (zum Vergleich: Kernkraft beginnt bei einem Erntefaktor von 75, Kohle mit 29, Erdgas hat einen Faktor von 28, Wasserkraft 36, Wind an der Küste 4, Photovoltaik (PV) auf Dächern in Süddeutschland 1,6; dabei sind bei den volatilen Kraftwerkstypen notwendige Pumpspeicher und Überkapazitäten schon erntefaktormindernd berücksichtigt).

Eine Erklärung liefert im Fall des gezielten Anbaus von Mais der große Flächenverbrauch für die durchindustrialisierte Landwirtschaft. Dabei kommt es zu ernsthaften Zielkonflikten wie „Klimaschutz vor Natur- und Vogelschutz“ oder auch „Tank vor Teller“, d.h. der Gewissensfrage, ob eine solche Verwendung angesichts der Lebensmittelknappheit weltweit verantwortbar ist (von Ulli Kulke anschaulich beschrieben in der Welt vom 7.3.2013 –http://www.welt.de/wissenschaft/umwelt/article114216742/Oeko-Strom-vertreibt-Voegel-von-deutschen-Feldern.html). Zudem sind (Mais-)Monokulturen in der Regel auch noch ökologisch problembehaftet. Anders sieht es aus, wenn Biomasse aus Rasenschnitt, Abfällen, Essensresten oder Gehölz zusammengetragen wird. Als generelles Problem bleibt aber auch hier die chronische Abhängigkeit von Subventionen bestehen, in unserem Falle von der EEG-Einspeisevergütung, im Fall der angeblich energieautarken Stadt Güssing im österreichischen Burgenland von der EU-Ziel-1-Gebietsförderkulisse. Dort musste nach Auslaufen der Förderung das auf der Verfeuerung von Holz basierende Biomassekraftwerk Insolvenz anmelden.

Der sehr niedrige Erntefaktor der Photovoltaik steht im krassen Gegensatz zur üppigen EEG-Förderung. Die PV-Anlagen sind damit die teuerste Stromerzeugungsmöglichkeit (siehe hierzu, wie auch zur Windkraftnutzung den sehr lesenswerten Aufsatz von Eike Roth, Chancen und Risiken der deutschen Energiewende, zu finden unter http://www.buerger-fuer-technik.de/Chancen_und_Risiken_der_deutschen_Energiewende.pdf, leider ohne Seitenangaben). Die mehr als eine Million PV-Anlagen in Deutschland haben im letzten Jahr mit einer Gesamtleistung von 28 GW (Gigawatt) 24 TWh (Terawattstunden) Strom erzeugt, die rund 23000 Windkraftwerke mit einer Gesamtleistung von 30 GW 52 TWh. Das heißt, Nennleistung unterstellt laufen die PV-Anlagen 850 Volllaststunden (gemessen an den 8760 Stunden des Jahres sind das lediglich 9,7 Prozent) und die Windkraftanlagen 1700 Volllaststunden (macht gerade mal 19,4 Prozent aus). Bei Windkraftanlagen auf See (Offshore) nehmen Eike Roth 3000 und das Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) im „Windenergie Report Deutschland 2012“ (http://publica.fraunhofer.de/eprints/urn:nbn:de:0011-n-2385784.pdf) für neue Anlagen sogar bis zu 4500 Volllaststunden an (entspricht 34,2 bzw. 51,3 Prozent). (Dagegen weist das IWES für Windkraftanlagen an Land (Onshore) auf S. 35 lediglich 1542 Volllaststunden aus). Zusammen genommen deckten Sonne und Wind in 2012 damit rund 13 Prozent des Stromverbrauchs ab.

Charakteristisch für Windkraft- und PV-Anlagen sind also die über den Tages- und Jahresablauf extrem schwankende und somit volatile Leistungsbereitstellung, was zur Folge hat, dass sie an Volllast gemessen im Durchschnitt 80% bzw. 90% des Jahres 2012 „stillstanden“. Bei Windkraftanlagen auf See sieht das besser aus, allerdings sind dort die Kosten höher, da der Strom vom Standort im Meer ja auch noch an Land gebracht werden und die Wind, Wasser und jedem Wetter ausgesetzte Technik ganz andere Anforderungen erfüllen muss. Aber auch hier fällt bei schwachem Wind, wie auch bei Sturm die Erzeugung auf Null. Die Stromerzeugung der Windkraftanlage, darauf weist Eike Roth hin, verhält sich proportional zur dritten Potenz der Windgeschwindigkeit: „Wenn also die Windgeschwindigkeit auf die Hälfte zurück geht, dann geht die Erzeugung … auf ein Achtel zurück! Bei einem Drittel Windgeschwindigkeit geht die Erzeugung auf ein Siebenundzwanzigstel zurück, dann ist praktisch nichts mehr da.“

Entscheidend kommt hinzu, dass enorme Anstrengungen im Ausbau von Übertragungs- und Verteilnetzen sowie hinsichtlich von Speichermöglichkeiten unternommen werden müssten. Einem forcierten Ausbau der erneuerbaren Energien sind deshalb finanzielle und planerische Grenzen gesetzt. Da hilft es auch nicht, auf technische Neuerungen zu hoffen (beispielsweise Farbstoffsolarzellen, „organische“ oder eine „konzentrierte“ PV).

Seit dem Verfall der Preise für Solarmodule besteht die ernsthafte Gefahr einer „Flucht in die Eigenversorgung“, durch die, ähnlich wie bei der EEG-Umlage, der Mehrheit der Strombezieher Kosten belastet werden (siehe die Welt vom 21.3.2013). Verstärkt wird dieser Effekt durch ein Förderprogramm der staatlichen KfW-Bankengruppe, das eine noch unausgereifte und unwirtschaftliche Batteriespeichertechnik für PV-Anlagen (einschließlich einem Tilgungszuschuss von 30 Prozent) zinsgünstig finanziert.

Charakteristisch für die erneuerbaren Energien ist auch – das folgt aus den niedrigeren Erntefaktoren – ein höher Flächenbedarf bei (unterstellt) identischer Leistungserbringung. Während dabei allein schon aufgrund der geo- und topographischen Bedingungen die Nutzung von Wasserkraft (und Pumpspeicherkraftwerken) in Deutschland eingeschränkt ist, liegen im Falle der Windkraft umfassende Expansionspläne auf dem Tisch. In Hessen werden Vorranggebiete diskutiert, die je nach politischer Couleur (schwarz-gelbe Landesregierung oder rot-grün dominierter Regionalverband) Platz zum Bau von 2300 bis 5360 Windkraftanlagen hätten, je nachdem ob man den Mindestabstand zur Wohnbebauung auf 1000 oder 750 Meter und die erforderliche Windgeschwindigkeit in 140 Meter Höhe auf 5,75 Meter oder 5,5 Meter pro Sekunde festlegt (http://www.faz.net/aktuell/rhein-main/energiewende-rhein-main-region-als-grosser-windpark-12452549.html).

Das grün-rot regierte Baden-Württemberg will bis zum Jahr 2020 auf einen Bestand von 1200 Windkraftanlagen kommen, von 400 am Ende 2012. Dabei stehen nicht nur Belange des Naturschutzes und mögliche Gefährdungen für Mensch und Tier im Weg, auch die im Südwesten weit unterdurchschnittliche Volllaststundenzahl schürt Zweifel an der Wirtschaftlichkeit des gesamten Unterfangens, die ohne die EEG-Einspeisevergütung (in Höhe von gegenwärtig 9,27 Cent/kWh) sowieso nicht gegeben ist (Angaben im Internet zu Volllaststunden in Baden-Württemberg variieren von 1155 bis 1177 (entspricht 13,4 Prozent)). Die räumliche Verteilung der Windkraftanlagen in Deutschland dokumentiert, dass es eben Standorte gibt, die windhöffiger sind (siehe bei Carsten Ender, Windenergienutzung in Deutschland. Stand 31.12.2012, die Abbildungen auf den S. 33 und 35 – http://www.dewi.de/dewi/fileadmin/pdf/publications/Magazin_42/06.pdf). Entsprechend bekommen potenzielle Investoren hier zu Recht kräftigen „Gegenwind zu spüren“ (so titelt der Staatsanzeiger vom 26.7.2013). Auch auf immer größere Nabenhöhen (Richtung 140 Meter) und Rotordurchmesser (120 Meter) zu setzen, ändert nichts an den Fakten. Das IWES verweist im Windenergie Report hierzu auf das „Square-Cube-Law“, demzufolge bei noch größeren Rotorblättern das Material an seine Grenzen stößt (S. 86).

Erneuerbare Energien sind auf Speichermöglichkeiten angewiesen, nach Eike Roth die „Achillesferse“ der Energiewende. Vorstellbar sind Pumpspeicher, die allerdings nur kurzfristig wirken, und in Deutschland nicht in ausreichender Anzahl geschaffen werden können. In dieser Hinsicht auf die norwegische Karte zu setzen erscheint illusorisch. Bei einer Reihe von Technologien (auch batteriegebundenen) ist die Reife noch nicht absehbar und vor allem die Wirtschaftlichkeit nicht gegeben. Am weitesten ist das „Power-to-Gas“-Verfahren, bei dem mit überschüssigem Wind- und Sonnenstrom durch Elektrolyse Wasserstoff erzeugt und anschließend zusammen mit Kohlendioxid in Methan umgewandelt wird. Dieses synthetische Erdgas lässt sich quasi verlustfrei im Erdgasnetz mit seinem immensen Volumen speichern und bei Bedarf rückverstromen. Es kann aber auch für den Antrieb von Erdgasautos genutzt werden – eine Option, die Audi nutzt (siehe hierzu http://www.zsw-bw.de/uploads/media/pi09-2013-ZSW-Einweihung6MWPtGAnlage.pdf).

Wie komplex unter den heutigen Randbedingungen die Steuerung der Übertragungsnetze geworden ist, zeigt auch folgender Umstand: Gab es früher kaum eine Handvoll Regelungseingriffe, so waren letztes Jahr schon über tausend notwendig. Damit wächst die Gefahr eines großflächigen und länger anhaltenden Netzzusammenbruchs, sie wird von Tag zu Tag wahrscheinlicher. Nur durch ein geschicktes Netzmanagement konnte der „Blackout“ bisher vermieden werden.

Eindeutige Schlussfolgerung: Bevor nicht klar ist, dass und wie man vernünftig speichern kann und welche Netze man wo braucht, ist der weitere Ausbau erneuerbarer Energien in Deutschland schlicht unsinnig.

5. Strickmuster und Auswirkungen des Erneuerbaren Energien Gesetzes (EEG)?

Das EEG trat zum 1. April 2000 zu Zeiten einer rot-grünen Bundesregierung in Kraft. Es löste das Stromeinspeisungsgesetz – mit dem ersten Einspeise- und Vergütungssystem zugunsten regenerativen Stroms – ab, das seit dem 1. Januar 1991 gültig war. Als Väter des ganze fünf Paragraphen starken „Gesetzes über die Einspeisung von Strom aus erneuerbaren Energien in das öffentliche Netz“ werden Matthias Engelsberger (CSU), Wolfgang Daniels (Grüne) und – als weitere Person – auch Hermann Scheer (SPD) kolportiert. Sicher ist, dass der entsprechende Gesetzesentwurf von der CDU/CSU-Fraktion eingebracht und u.a. von Helmut Kohl und dem FDP-Politiker Helmut Haussmann (dem damaligen Bundeswirtschaftsminister) unterzeichnet wurde. Wenn man so will, eine schwarz-rot-grüne Erfindung, die knapp 10 Jahre später – bei Mitwirkung von Solarunternehmern am Gesetzesvorhaben – richtig „vergoldet“ wurde.

Das Markenzeichen des an die Bedingungen im liberalisierten Strommarkt angepassten und erheblich erweiterten Erneuerbaren Energien Gesetzes – zuletzt geändert am 20.12.2012, mit zwischenzeitlich 66 Paragraphen und fünf Anhängen – sind der Einspeisevorrang für Erneuerbare, die 20 Jahre lange Garantiezeit sowie die, trotz verschiedener Anpassungen nach unten (sog. Degressionen) immer noch stattlichen Einspeisevergütungen. Mit der letzten Novellierung wurde – zum ersten Mal überhaupt – für die Förderung des weiteren Ausbaus von PV-Anlagen bei 52 GW eine Deckelung verfügt.

Der erste Erfahrungsbericht vom 28. Juni 2002 bestätigte (natürlich) den Erfolg des EEG: den gestiegenen und weiter steigenden Anteil der erneuerbaren Energien am Stromverbrauch, Umsatzrekorde der Branche mit zu diesem Zeitpunkt neu entstandenen 120.000 Arbeitsplätzen und vielen Millionen Tonnen vermiedenen Treibhausgasen. Der Erste Monitoring Bericht „Energie der Zukunft“ der Bundesministerien für Umwelt und Wirtschaft, Stand Dezember 2012, (lesenswert, nicht nur wegen des Glossars am Ende des Werkes – http://www.bmwi.de/BMWi/Redaktion/PDF/Publikationen/erster-monitoring-bericht-energie-der-zukunft,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf), geht ebenfalls auf die Beschäftigungseffekte ein. Dabei wird für die Jahre 2009 und 2010 von einer Netto-Beschäftigung von 70.000 bis 90.000 Arbeitsplätzen durch den Ausbau erneuerbarer Energien ausgegangen, zur Wirkung der in den Jahren 2011 und 2012 verabschiedeten Maßnahmen lägen noch kaum Daten vor (siehe S. 107).

Im Jahre 2005 hatte der damalige Bundesumweltminister Sigmar Gabriel bei der Novellierung des EEG, gestützt auf ein Gutachten, noch von 400.000 Arbeitsplätzen bis 2020 gesprochen. Berücksichtigt man die seit 2011 eingetretenen Insolvenzen in der PV-Branche und die offensichtlichen Schwierigkeiten im „Windkanal“, wird klar, dass die optimistischen Annahmen blauäugig und die frühen Warnungen zur angeblichen Mär von der Job-Maschine richtig waren, u.a. von Carl Christian von Weizsäcker (siehe oben S. 2-3) oder dem Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI), das schon im Jahre 2004 von bestenfalls kurzfristigen, jedoch nicht nachhaltigen, am Ende sogar negativen Effekten auf die Beschäftigung sprach.

Das EEG lädt der deutschen Volkswirtschaft zudem immense finanzielle Lasten auf: nach Bundesumweltminister Peter Altmaier, der damit am 28. Januar d. J. seinen (vergeblichen) Vorstoß mit der Strompreissicherung oder -bremse begründete, eine Billion, das sind 1.000 Mrd. €. Dass selbst Experten diese Dimension lange Zeit verborgen blieb, erklärt sich vielleicht mit der verbreiteten Interessengebundenheit, aber auch damit, dass die ganze Übung ja außerhalb des Bundeshaushalts allein über Strompreisanpassungen abläuft. Prof. Hans-Werner Sinn vom ifo Institut in München warnte im Juli 2011: „Die 17 Mrd., die das EEG die Verbraucher allein in diesem Jahr kostet, sind anderswo Einkommen, zu einem erheblichen Teil allerdings in China, denn von dort kommen zwei Drittel der Sonnenpaneelen und sicherlich auch ein großer Teil der Windräder.“ Hinzu kommen weitere Umverteilungseffekte – sozial bedenklich von unten nach oben, wie auch geographisch von der Mitte (Nordrhein-Westfalen) in den Norden (Schleswig-Holstein/Niedersachsen) und Süden (Bayern). Roland Tichy hat das in einem Kommentar in der Wirtschaftswoche am 23.2.2013 treffend mit „Die große Verteile“ umschrieben: „Von den Bundesländern ist es so vor allem Nordrhein-Westfalen, das ausblutet. An Ruhr und Rhein erstreckt sich die größte Stadtregion Europas. Die Reste der Montanindustrie – Stromkonzerne, Kraftwerke, Zulieferer verlieren ihre Existenz.“ Die RWE aus Essen könnte umziehen, aber was machen die vielen Stadtwerke, die ebenso die Energiewende verkraften müssen? Verluste “fressen” deren Eigenkapital auf. Trifft dies ein Stadtwerk in einer klammen Kommune, auch hier ist NRW führend, gehen die Lichter aus und Arbeitsplätze und Wertschöpfung unwiederbringlich verloren.

In Bezug auf diese, fast mit Händen greifbaren Verteilungswirkungen erstaunt die weit verbreitete Ahnungslosigkeit: So kommt beispielsweise im 2013 erschienen Buch von Hans-Ulrich Wehler, Die neue Umverteilung – Soziale Ungleichheit in Deutschland, Energiepolitik/das EEG überhaupt nicht vor. Dass auch im vom Bundesministerium für Arbeit und Soziales im März d. J. unter dem Titel „Lebenslagen in Deutschland“ herausgegebenen vierten Armuts- und Reichtumsbericht der Bundesregierung nichts in dieser Hinsicht zu finden ist, passt ins Bild. Allgemein wird konstatiert, dass durch die Ungleichheit das Gerechtigkeitsempfinden verletzt werde. Mit Eike Roth kann man fragen, inwieweit sich dieses Gefühl verstärkt, wenn mit zunehmender Tendenz „ … die relativ finanzarmen Mieter … Hausbesitzern den Ausbau der Solarzellen …, die kleinen Leute den Grundbesitzern die Pacht für das Aufstellen von Windenergieanlagen … zahlen, … soviel, dass diese … auch noch dicke Gewinne einstreichen können, ohne irgend ein Risiko dabei zu haben.“

Die kräftigen „Wecksignale“ sollten beachtet und richtig gedeutet, vom weitverbreiteten Wunschdenken beim Prognostizieren des Anstiegs der EEG-Umlage in Wissenschaft und Politik endlich Abstand genommen werden. Rudolf Kipp belegt dies eindrücklich (siehe www.science-skeptical.de/blog/energiewende-immer-teurer) und zeigt, dass seit 2009 die EEG-Umlage regelrecht explodiert ist (von 1,13 Cent/kWh auf 2.05 in 2010, 3,53 in 2011, 3,59 in 2012 und gegenwärtig 5,28 Cent/kWh netto, d.h. noch ohne 19% Mehrwertsteuer).

Den vier Übertragungsnetzbetreibern hat man die Verpflichtung auferlegt, die EEG-Umlage bis zum 15. Oktober eines Kalenderjahres für das folgende Kalenderjahr zu ermitteln und zu veröffentlichen (siehe hierzu http://www.eeg-kwk.net/de/EEG-Umlage.htm). Das Aufkommen aus der EEG-Umlage betrug in 2012 14,1 Mrd. €, für 2013 sind 20,4 Mrd. € eingerechnet, Tendenz weiter steigend.

Auch in Bezug auf den Klimaschutz kehrt Ernüchterung ein, nachdem der CO2-Ausstoss in Deutschland seit 2012 wieder steigt. Wie von Prof. Sinn vorhergesagt, wird „kein Gramm CO2 eingespart“, da sich das EEG und der Handel mit Verschmutzungsrechten im Grunde genommen ausschließen. Nach Einführung der Emissionszertifikate auf Ebene der Europäischen Union im Jahre 2005 wollte man vom EEG nicht lassen, da es sich als gute Einkommensquelle erwies. Gleiches trifft auch auf die Verheißungen zu, mit dem EEG würden Innovationen angestoßen. Prof. Joachim Weimann von der Universität Magdeburg hat am 31.1.2011 in der FAZ nachdrücklich davor gewarnt, dass die Subvention nicht in die Entwicklung von Zukunftstechnik, sondern ausschließlich in die Produktion gehe. Die Turbulenzen in der deutschen PV-Branche sind dafür ein eindrücklicher Beweis. Gut ist, dass nicht auch noch der Streit mit China um Schutzzölle eskaliert ist, sonst hätten wir die Zeche doppelt und dreifach gezahlt.

Im gemeinsamen Monitoring Bericht von Wirtschafts- und Umweltministerium wird auf die preisdämpfenden Wirkungen der erneuerbaren Energien an der Strombörse verwiesen (siehe S. 40). Die verringerte Nachfrage nach konventionellem Strom verdrängt entsprechend der Merit-Order (Einsatzreihenfolge von Kraftwerken nach deren kurzfristigen Grenzkosten) Kraftwerke mit höheren variablen Kosten und sorgt dafür, dass Kraftwerke mit vergleichsweise niedrigeren variablen Kosten preissetzend werden. Dabei reicht in 2011 die Bandbreite für die dadurch erzielte Absenkung des Börsenstrompreises von 0,3 bis 1,0 Cent/kWh.

In der Praxis führt dies zunehmend zur vorläufigen Stilllegung oder gar Nichtinbetriebnahme von hochmodernen Gas- und Dampfturbinen-Kraftwerken (GuD), die aber als Produzenten von Regelenergie zur Stabilisierung des Stromnetzes dringend gebraucht werden. Entsprechende Ankündigungen liegen von allen vier großen Energieversorgern, ebenso von Stadtwerken vor. So gibt es massive wirtschaftliche Probleme beim Stadtwerkeverbund „Trianel“ bezüglich dem von 32 Stadtwerken (bei insgesamt 54 über das ganze Bundesgebiet verteilten kommunalen Gesellschaftern) gemeinsam geschulterten Steinkohlekraftwerk in Lünen, das unter den gegenwärtigen Rahmenbedingungen nach voller Inbetriebnahme (zur Zeit läuft der Probebetrieb) einen jährlichen Verlust von 100 Mio. € machen wird (siehe FAZ vom 17.7.2013). Der Bundesnetzagentur sind aufgrund einer Ende letzten Jahres beschlossenen Neuregelung Stilllegungen mindestens 12 Monate im Voraus anzukündigen, auch vorläufige Abschaltungen müssen angezeigt werden. Ist ein Kraftwerk „systemrelevant“ kann die Bundesnetzagentur anordnen, dass es zwei Jahre lang weiterbetrieben werden muss.

Vermutlich auch hieran denkt Eike Roth, wenn er als „Todsünde“ der Energiewende das Auseinanderlaufen von betriebs- und volkswirtschaftlicher Optimierung bezeichnet. Von Kriegen abgesehen, sei es das Schlimmste, was Politiker tun könnten, wenn Unternehmen, die sich betriebswirtschaftlich richtig verhalten, aufgrund fehlerhafter Rahmenbedingungen der Volkswirtschaft Schaden zufügen.

6. Wie unabhängig kann Deutschland agieren und eine Vorreiterrolle einnehmen?

Unsere Volkswirtschaft ist stark in den internationalen Wettbewerb eingebunden. Eine wichtige Größe, neben Qualität und Markennamen ist der Preis deutscher Produkte, der entscheidend von der Arbeitsproduktivität beeinflusst wird. Die Energiekosten spielten dabei in jüngster Vergangenheit je nach Branche zumeist nur eine untergeordnete Rolle, auch weil es im EEG Ausnahme- und Härtefallregelungen für stromintensive Unternehmen und den beschriebenen Effekt der Börsenpreissenkung gibt (siehe zum Stand März 2011: http://www.bmu.de/fileadmin/bmu-import/files/pdfs/allgemein/application/pdf/eeg_stromkosten_bf.pdf). Dies ändert sich zunehmend und nicht nur beschränkt auf große Industrien, es wirkt sich inzwischen auf die gesamte Volkswirtschaft aus. Die Schere bei den Energiepreisen öffnet sich nicht nur, weil in den USA die Energie billiger wird, sondern weil gerade und vor allem in Deutschland die Energiekosten durch das EEG immer weiter “künstlich” in die Höhe getrieben werden. So warnte jüngst (am 29.7.2013 in der Mittelbayerischen Zeitung) der bayerische Wirtschaftsminister Martin Zeil von der FDP: „Wenn unsere Grundstoffindustrien von heute auf morgen 5,3 Cent EEG-Umlage pro Kilowattstunde Strom bezahlen müssten – das ist mehr als der gesamte Industriestrompreis in den USA –, dann wäre der Industriestandort Bayern schnell am Ende“. Er spielt damit insbesondere auf das am 6. März d. J. eröffnete förmliche Beihilfeverfahren durch die Europäische Kommission an, bei dem es um die Prüfung der Befreiung zugunsten energieintensiver Unternehmen geht und dessen Ergebnis nicht nur eine Signalwirkung zugeschrieben wird.

Wir müssen schauen, was machen unsere Nachbarn in Europa (z.B. Polen, das auf Kohle setzt) und die USA? Dort laufen beispielsweise Steuermäßigungen für Windkraftanlagen Ende 2013 definitiv aus; das sog. Fracking zur Gasgewinnung wird verstärkt genutzt, die freiwerdende Kohle exportiert (und damit auch die CO2-Emissionen im eigenen Land reduziert). Übrigens werden auch in Großbritannien und Polen riesige Vorkommen des unkonventionellen Schiefergases vermutet. China und Indien gehen aufgrund ihrer schieren Größe unbeirrt ihren eigenen Weg, ebenso Russland. Bis auf die Schweiz setzen dabei alle, sogar das arg gebeutelte Japan auf die weitere friedliche Nutzung der Kernenergie. Die Schweiz wendet sich, ebenso wie Deutschland von der Kernenergienutzung ab, allerdings in gemächlichem Tempo, Optionen offen haltend, keineswegs so überhastet und kopflos wie wir mit unserer Energiewende. Reine Gefolgschaft haben wir fast keine mehr.

Das EEG ist von den meisten EU-Mitgliedstaaten übernommen worden, jedoch selten eins zu eins und bei weitem nicht in dieser Umfänglichkeit. Statt des Einspeise- gibt es auch sogenannte Quotenmodelle. Österreich beispielsweise deckelt die Subvention auf maximal 27 Mio. € im Jahr, gibt „nur“ eine 13jährige Garantiezeit und wird in 2015 auf ein Quotenmodell umstellen. Italien, Spanien, Bulgarien, Griechenland und Tschechien haben zwischenzeitlich eine opulente Förderung zurückgeschnitten, in Prag läuft wegen der Solarsubventionen sogar eine von der nationalen Regulierungsbehörde angestrengte Strafanzeige gegen Unbekannt.

Wird an einzelnen Tagen im deutschen Stromnetz zu viel Strom erzeugt, erhält das Ganze automatisch ebenfalls eine internationale Dimension (siehe Handelsblatt vom 16.4.2013). Denn dann gehen überschüssige Strommengen aufgrund des paneuropäisch-technischen Netzverbundes notgedrungen unter anderem ins Nachbarland Polen, das sich die Übernahme zudem bezahlen lässt. Da dies auch die Sicherheit des dortigen Stromnetzes – wie in anderen europäischen Staaten – gefährdet, werden mittlerweile in Ländern wie Tschechien und Polen Überlegungen in Richtung technischer Stromsperren angestellt.

Das wohlwollende Interesse, mit dem das Ausland den deutschen Sonderweg in der Energiepolitik zunächst begleitet hat, ist verflogen. Die enge wirtschaftliche Verflechtung der deutschen Volkswirtschaft in Europa und der ganzen Welt gemahnt uns daran, die Energiekosten nicht aus dem Ruder laufen zu lassen.

7. Welche Weichenstellungen sind nach der Bundestagswahl am 22. September dringend geboten?

Wichtig ist zunächst einmal, die grassierende Panikmache zu beenden, denn „Angst essen Seele auf“ (Rainer Werner Fassbinder). Es muss ein Meinungsklima geben, in dem alle Fragen der Energiepolitik offen und vorbehaltlos diskutiert werden können. Es darf nicht sein, dass erst bei der Pensionierung von Spitzenbeamten, wie jüngst bei der Verabschiedung von Werner Ressing (einem studierten Ingenieur für Maschinenbau und Energietechnik) aus dem Bundeswirtschaftsministerium, die Stunde der Wahrheit schlägt: „Man baue mit den Erneuerbaren Energien Zigtausende Kilowatt Leistung auf, die nicht immer Kilowattstunden liefern. …. 80 Millionen Deutsche alimentieren seit 20 Jahren und für 20 Jahre eine Million Betreiber von EE-Anlagen. … Wo gibt es das in einem marktwirtschaftlichen System?“ (siehe hierzu die Wirtschaftswoche vom 6.8.2013).

Man sollte den Mut haben, das EEG abzuschaffen, die bereits aufgelaufenen Lasten zu begrenzen. Die Zeit für Halbherzigkeiten (wie der Vorschlag von Hanno Kempermann vom DIW oder auch die Altmaiersche Strompreisbremse) ist abgelaufen. Systematisch und ausgesprochen ehrenwert ist der Verfahrensvorschlag des Bundesumweltministers zur Neuregelung des EEG. Er sollte aber grundsätzliche Fragestellung nicht ausklammern. Auch sind die bisher im dafür vorgesehenen EEG-Dialog angestellten Überlegungen viel zu nahe am Status quo angesiedelt (zum BMU-Papierhttp://www.bmu.de/fileadmin/bmu-import/files/pdfs/allgemein/application/pdf/verfahrensvorschlag_eeg-reform_2012_bf.pdf und zum EEG-Dialoghttp://www.bmu.de/themen/klima-energie/energiewende/eeg-reform/1-eeg-dialogforum/). Auf dem Tisch liegende Vorschläge zu einem neuen Marktdesign, wie vom Verband kommunaler Unternehmen (VKU) oder auch die „EIKE Energiewende light“, selbst das AfD Energie-Programm und andere sind aufzunehmen und auf ihre Nützlichkeit hin sorgfältig abzuklopfen.

Dazu gehört auch die Antwort auf die hochsensible Frage, ob stillgelegte Kernkraftwerke nicht wieder ans Netz bzw. die noch nicht stillgelegten länger am Netz bleiben sollten? Auch hier gilt, dass Angst ein falscher Ratgeber sein kann. Auf jeden Fall ist im internationalen Kontext die deutsche Beteiligung an der Erforschung neuerer Kernkraftwerkstypen (der vierten Generation), wie beispielsweise dem Dual-Fluid-Reaktor, sicherzustellen. Wer hier mauert, verspielt wesentliche Zukunftsoptionen.

Es sollten zudem konkrete Anpassungsstrategien an den Klimawandel entwickelt und die Möglichkeit in Betracht gezogen werden, dass dieser maßgeblich natürliche Ursachen haben könnte. Davon unabhängig sind im internationalen Rahmen alle Möglichkeiten der Effizienzsteigerung und Energieeinsparung entlang des Neuentwurfs der Energie-Klima-Landkarte der IEA auszuschöpfen (http://www.worldenergyoutlook.org/publications/weo-2013/).

Die verbliebenen Unternehmen aus der PV- und Windkraftbranche (einschließlich des „Power-to-Gas“-Verfahrens) sind weiterhin in ihren Anstrengungen zu unterstützen, den Export in jene Länder kräftig anzukurbeln, die für die entsprechende Anwendung die günstigsten, das heißt auch günstigere Bedingungen als in Deutschland aufweisen (siehehttp://www.exportinitiative.bmwi.de/EEE/Navigation/downloads.html).

Vor allem sollte Deutschland keine kostspieligen Alleingänge mehr unternehmen. Dazu gehört, sich von der althergebrachten Formel zu verabschieden, „am deutschen Wesen, könne/solle die Welt genesen.“ Alles in allem geht es darum, planwirtschaftliche Experimente im Energiesektor zu beenden und zu einer langfristig angelegten, stärker ordnungspolitischen Variante zurückzufinden, die den Trias der Energiepolitik aus Sicherheit, Wirtschaftlichkeit und Umweltverträglichkeit dauerhaft gewährleisten kann.

Jürgen Gneveckow ist studierter Wirtschaftswissenschaftler und aktiver Kommunalpolitiker (CDU)

Mit Dank übernommen von Science Sceptical hier 




Brüssel fürchtet europäisches ‚industrielles Massaker’, ausgelöst durch hohe Energiepreise

Bild rechts: Mr. Tajani warnte, dass Europas idealistische Hinwendung zu Erneuerbaren die Strompreise auf ein unerträgliches Niveau getrieben habe, was Europa nur mühsam im Wettbewerb neben Amerika bestehen lässt. Die Schiefer-Revolution in den USA hat die Preise für Erdgas um 80 Prozent sinken lassen. Photo: © Alamy

„Ich bin einer grünen Agenda durchaus zugeneigt, aber wir können so etwas nicht zur Religion erheben. Wir brauchen eine neue Energiepolitik. Wir müssen aufhören, Anspruch auf Beachtung zu erheben, weil wir die europäische Industrie nicht Klimazielen opfern können, die unrealistisch sind und nicht weltweit verfolgt werden“, sagte er dem Daily Telegraph während des Ambrosetti-Forums globaler politischer Entscheidungsträger am Comer See.

„Der Verlust von Wettbewerbsfähigkeit ist beängstigend”, sagte Paulo Savona, Vorsitzender des Fondo Interbancario in Italien. „Wenn Menschen entscheiden müssen, ob sie eher in Europa oder in den USA investieren, denken sie zuallererst an die Energiekosten“.

Einem Bericht des American Chemical Council zufolge hat Schiefergas den  USA „einen ausgeprägten und nachhaltigen Wettbewerbsvorteil verschafft“ in der chemischen und der Kunststoffindustrie sowie damit in Verbindung stehenden Firmen. Consultants IHS erwarten auch, dass sich die Produktion von Chemieerzeugnissen in den USA bis zum Jahr 2020 verdoppelt, während sie in Europa bis dahin um ein Drittel zurück gegangen sein wird. IHS zufolge werden 250 Milliarden Dollar Umsatz durch Schiefer während der nächsten sechs Jahre zusätzlich erwartet.

Der europäische Präsident Herman van Rompuy wurde auf diesen wachsende alarmierende Problem aufmerksam und sagte, dass die oberste Priorität der EU sein müsse, Energiekosten drastisch zu reduzieren. „Verglichen mit US-Wettbewerbern zahlt die EU-Industrie heute doppelt so viel für Strom und viermal so viel für Gas. Unsere Unternehmen werden für mehr Effizienz nicht belohnt“, sagte er.

Die sich verschärfende Energiekrise in Europa hat inzwischen die Schuldenkrise als oberste Sorge ersetzt, mit erheblichen Implikationen hinsichtlich des Entwurfs der Kommission zu Schiefer, der im Oktober erwartet wird.

„Persönlich bin ich für Schiefergas in Europa, weil wir mehr für die Industrie tun müssen”, sagte Mr. Tajani.

[Es folgt eine Beschreibung der Geldpolitik der EZB und anderen, die die Probleme verschärfen, was aber mit dem Thema hier nichts zu tun hat. Wer sich dafür interessiert, halte sich bitte an das Original!]

Link: http://www.telegraph.co.uk/finance/financialcrisis/10295045/Brussels-fears-European-industrial-massacre-sparked-by-energy-costs.html

Übersetzt von Chris Frey EIKE




„Hört nicht auf, an den Klimawandel zu denken!” (bevor jedermann den Schwindel erkannt hat)

Jeder, der von diesem „Ruf nach Taten” abweicht, ist ein „Leugner“ des Klimawandels – eine Abwertung, dazu gedacht, jeden zu verunglimpfen und ruhig zu stellen, der diese Agenda ablehnt; ihn in die Nähe eines Holocaust-Leugners zu rücken. Was für ein Unsinn!

Alle von uns „Leugnern” wissen, dass die Klimaänderung real ist und der Erde immer wieder viele Zyklen mit Erwärmung und Abkühlung, Stürmen und Dürren, Eiszeiten und Kleine Eiszeiten gebracht hat. Kratzer auf Gestein, das ich eine Meile entfernt von meinem Elternhaus ausgegraben habe, zeigen, dass einst der letzte Gletscher Wisconsin unter einer Meile Eis begraben hatte. Unzählige Klimaänderungen auf unserer Erde sind gekommen und gegangen.

Was wir abstreiten sind Behauptungen, dass menschliche Kohlendioxid-Emissionen die Myriaden, komplexen, mit einander in Wechselwirkung stehenden planetarischen, solaren und kosmischen Kräfte ersetzt haben, die bislang alle Klimavariationen zuvor verursacht haben; und dass das, was wir derzeit erleben, beispiellos und wahrscheinlich katastrophal ist.

Nicht eine einzige der alarmistischen Behauptungen wird durch aktuelle Beobachtungen oder wissenschaftliche Beweise gestützt. Noch schlimmer, die Behauptungen werden mit jedem Tag lächerlicher: „Kinder werden nicht mehr wissen, was Schnee ist“, die Kriminalität steigt, Ozeane würden anders riechen als zuvor und Stürme werden immer schlimmer – wegen der globalen Erwärmung.

Im Gegensatz zu all dem Hype und der Hysterie hat unser Planet vor 16 Jahren aufgehört, sich zu erwärmen, obwohl der Kohlendioxidgehalt der Atmosphäre immer weiter steigt. Das ließ die Klima-Katastrophisten jetzt von „Klimaänderung“ sprechen, und sie machen für jedes „Extremwetter“ die CO2-Emissionen verantwortlich.

Wie ich schon früher gesagt habe, weit davon entfernt, ein „gefährlicher Verschmutzer“ zu sein (wie es Präsident Obama und die EPA immer noch sagen), macht Kohlendioxid alles Leben auf der Erde überhaupt erst möglich. Es führt zu besseren Ernteerträgen und schnellerem und besserem Pflanzenwachstum. Pflanzen werden mit mehr Nährstoffen versorgt, was ihnen hilft, Dürren zu überstehen, und es macht unsere Welt grüner.

Dieses Spurengas hat fast nichts mit planetarischer Erwärmung oder Klimaänderung zu tun. Aber man muss erwähnen, dass die USA ihre CO2-Emissionen mehr als fast jedes andere Land gesenkt haben – bis zu einem Niveau wie vor etwa 30 Jahren, und zwar dank des jüngsten Zieles der [Angriffe von] Umweltaktivisten: Fracking. Und der tägliche menschliche Beitrag CO2 zu unserer Atmosphäre ist äquivalent mit einem Penny in einer Million Dollar!

Das CO2-Niveau ist auf 400 ppm „empor geschnellt“ (0,04% der Erdatmosphäre), nicht wegen den USA oder anderer entwickelter Länder – sondern weil China, Indien und Dutzende anderer Länder verzweifelt daran arbeiten, Milliarden Menschen aus der Armut zu holen. Um das zu erreichen, brauchen sie fossile Treibstoffe, welche 80% der Energiequellen ausmachen, die moderne Zivilisation und Lebensstandards ermöglichen – und diese Länder werden ihren Verbrauch von Kohlenwasserstoffen nicht reduzieren. Anders lautende Ratschläge reflektieren eine gefühllose Geringschätzung dessen, was Familien brauchen, um ihren rechtmäßigen Platz unter den gesunden und wohlhabenden Menschen der Erde einzunehmen.

Niemand würde sagen, dass das Fehlen von Extremwetterereignissen während einer bestimmten Zeit auf die Menschen zurückzuführen ist. Allerdings widerspricht die jüngste Historie den unaufhörlichen Behauptungen, dass unser Wetter schlechter wird. In Wirklichkeit hat seit 8 Jahren kein Hurrikan der Stärke 3 oder stärker das US-Festland getroffen, das ist der längste Zeitraum dieser Art seit dem Bürgerkrieg. Mit nur wenigen Ausnahmen zu Beginn dieses Sommers erfreuen sich die USA der längsten Periode ohne starke Tornados seit Jahrzehnten. Auch haben wir derzeit die größte Ausdehnung des arktischen Meereises seit 2006, Folge des kältesten Sommers jemals am Nordpol, Rekord-Tiefstwerten der Temperatur in Alert und Eureka sowie in ganz Nunavut [früher die kanadischen Nordwest-Territorien]. Auch das Meereis um die Antarktis erreichte im August neue Rekordwerte hinsichtlich seiner Ausdehnung.

Genauso faszinierend ist, dass die meisten der rekordhohen Temperaturen, die die Alarmisten in die Welt posaunen, die bisherigen Rekorde, zumeist aus den dreißiger Jahren, um gerade mal ein paar Hundertstel Grad übersteigen. Und doch, irgendwie sind das Nachrichten.

Was die infolge des steigenden Meeresspiegels untergehenden küstennahen Städte angeht – die TOPEX – POSEIDON – Satelliten zeigen zwischen 1993 und 2001 praktisch keinen Anstieg des Meeresspiegels, und die ENVISAT-Satelliten der EU zeigen keinen Anstieg zwischen 2003 und 2011. Der stetige Anstieg um 2 bis 3 mm pro Jahr existiert nur deswegen, wie sich herausgestellt hat, weil Wissenschaftler die Rohdaten „adjustiert“ haben (immer nur nach oben, aus welchen Gründen auch immer). Aber selbst die 200 bis 300 mm pro Jahrhundert oder bis zum Jahr 2100 sind ein müder Abklatsch der 3 bis 20 Fuß [41 bis 609 cm], vor denen uns Präsident Obama und der ehemalige Vize Al Gore gewarnt haben. Selbst Mr. Obama war vor einigen Jahren von diesem Pfad abgewichen, hat er doch im Jahr 2008 gesagt: „Dies ist der Moment, an dem der Anstieg des Meeresspiegels angefangen hat, sich zu verlangsamen“. Aber es ist in Wirklichkeit eine weitere Klimakatastrophe, die wir von unserer Sorgenliste streichen können – vor allem verglichen mit dem Anstieg der Welt-Ozeane um 400 Fuß [ca 122 m] seit dem Ende der letzten Eiszeit.

Mr. Gore ist auch bekannt dafür, seine Zuhörerschaft in der „Tonight Show“ im Jahre 2009 in die Irre geführt zu haben mit der Aussage, dass es im Inneren der Erde „wirklich heiß ist, viele Millionen Grad“ – der tatsächliche Wert liegt bei 9000°F [knapp 5000°C] – und für seine permanente Ablehnung, mit irgendjemandem über die Klimaänderung zu diskutieren oder auch nur Fragen aus dem Auditorium anzunehmen, die er nicht zuvor genehmigt hat. Vielleicht muss man zu seiner Verteidigung sagen, dass er in den einzigen jemals von ihm belegten wissenschaftlichen Kursen lediglich ein C+ bzw. D bekommen hat [In D vergleichbar mit den Schulnoten 3+ bzw. 4]

Wenn es verrücktes Wetter” ist, wonach Sie suchen, arbeiten Sie sich durch die faszinierenden Wetterführer von Richard Keene, Skywatch East und Skywatch West, um zahlreiche Beispiele wilden und verrückten Wetters in den USA zu finden. Für weitere Beispiele schauen Sie nach dem Tri-State Twister [ein einzelner Tornado, der gleich durch 3 US-Bundesstaaten gezogen ist] und Children’s Blizzard. Oder konsultieren Sie den Zustandsbericht Climate Change Reconsidered des Nongovernmental International Panel on Climate Change. Sie werden erstaunt sein, wie stark sich die dort beschriebenen Fakten von den Trugschlüssen, Schwindeleien und Angst erzeugenden Aussagen unterscheiden.

Ein letzter Punkt. Keine Steuer, die Menschen und Firmen dafür bestraft, fossile Treibstoffe zu verbrauchen, ist „einkommensneutral“. Jede derartige Steuer oder Vorschrift vernichtet Profite und Arbeitsplätze, wandelt Vollzeit- in Teilzeitjobs und beeinträchtigt Gesundheit und Wohlstand der Menschen. Millionen Familien können ihre Wohnungen nicht angemessen heizen oder kühlen, ihre Miete, Raten und andere Rechnungen bezahlen, Urlaub machen oder für das Alter sparen. Der zunehmende Stress führt zu Schlaflosigkeit, minderwertiger Ernährung, höheren Raten von Depressionen und Alkoholismus, Drogen, Missbrauch von Frauen und Kindern, geringerer Lebenserwartung und höheren Selbstmordraten. Klimasteuern und –vorschriften zwingen uns auch, mit Milliarden umweltfeindliche Bio-, Wind- und Solarenergie zu subventionieren.

Das ist ein unerträglich hoher Preis für den „Schutz“ vor illusorischen und übertriebenen Klimagefahren.

Klimaalarmisten versuchen uns auszusaugen, zu behindern und uns zu „sofortigen Maßnahmen“ zu zwingen hinsichtlich Arbeitsplätze vernichtender und die Wirtschaft abwürgender Steuern und Restriktionen, bevor immer mehr Menschen mitbekommen, was wirklich passiert. Diese Schutz-Behauptung ist ein weiteres Beispiel, ein Gesetz durchzudrücken, ohne das wir sehen können, was es damit auf sich hat. Wir können es uns einfach nicht leisten, weiterhin zuzulassen, dass die Wissenschaft unheilige Allianzen eingeht, nur um Anti-Kohlenwasserstoff-Agenden zu dienen.

Forderungen, dass wir „aufhören sollen”, die „katastrophale, vom Menschen verursachte Klimaänderung nicht mehr zu beachten“, haben nichts zu tun mit der Verhinderung von Erwärmung und Abkühlung, Stürmen und Dürren, die allesamt seit Urzeiten „real“ waren. Sie haben alles damit zu tun, den Verbrauch von Kohlenwasserstoffen zu regulieren und zu behindern, die 80% der Energie zur Verfügung stellen, die unsere moderne Zivilisation und unseren Lebensstandard überhaupt erst möglich machen. Sie haben alles damit zu tun, Politikern, Bürokraten und Interessengruppen mehr Geld und mehr Kontrolle über unser Leben und unsere Wirtschaft zu bekommen – aber ohne dass sie für die Lügen, Fehler, Arbeitsplatz-Verluste, Krankheits- und Todesfälle verantwortlich gemacht werden, zu denen es unvermeidlich kommen wird, wenn der Lebensstandard in den USA sinkt und die Dritte Welt in Armut und Elend verbleibt.

Computermodelle und Angst erzeugende Vorhersagen sind keine Beweise. Gründet man energie- und wirtschaftspolitische Entscheidungen auf Klimamodelle, ist es das gleiche, wie wenn man darauf wettet, unser Leben von Computermodellen abhängig zu machen, die sich auf die Berechnung von Football-Meisterschaften spezialisiert haben. Scheitern die Prognosen, wer Meister wird, dann muss die Realität so lange „adjustiert“ werden, bis die vorhergesagte Mannschaft wirklich Meister wird.*

[*Im Original werden in diesem Abschnitt die Verhältnisse beim American Football beschrieben. Weil dessen Regeln in D nicht allgemein bekannt sind und die Begriffe meist auch keine deutsche Entsprechung haben, habe ich hier recht frei übersetzt. A. d. Übers.]

Klima-„Leugner” und Rationalisten sollten Senator Ron Johnson und andere Politiker und Wissenschaftler unterstützen, die fortwährend von Klimaalarmisten angegriffen werden, weil sie es wagen, von der vorgegebenen Orthodoxie abzuweichen. Ihre Wachsamkeit und ihre Überzeugung sind alles, was vor Energie- und ökonomischer Vernunft steht – und was bisher verhindert hat, dass die USA den gleichen destruktiven Weg einschlagen, auf dem sich Europa während der letzten beiden Jahrzehnte bewegt hat.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (http://www.CFACT.org) and author of Eco-Imperialism: Green power – Black death.
http://icecap.us/images/uploads/Screen_shot_2013-09-03_at_2.10.14_PM.png

Link: http://www.cfact.org/2013/09/03/stop-stalling-on-climate-change-before-everyone-catches-onto-the-scam/

Übersetzt von Chris Frey EIKE




Blick aus dem Ausland: Deutsche Energiewende – Selbstdemontage einer Industrienation

Zwei der am achten September gehaltenen Vorträge beschäftigten sich mit Themen, die keineswegs ausschließlich den Standort Österreich betreffen: Die Zukunft der Atomenergie einerseits und die mit geradezu religiösem Eifer vorangetriebene „Energiewende“ im Nachbarland Deutschland. Es macht den Anschein, als ob beide Themen – spätestens seit der Reaktorkatastrophe im fernen Fukushima – längst nicht mehr von harten Fakten und wissensbasierter Forschung, sondern vielmehr von Emotionen und Bekenntnissen bestimmt werden und sich einer offen geführten Debatte nahezu vollständig entziehen. Atomkraft gilt in Deutschland und Österreich mittlerweile als Inbegriff des Bösen und der menschengemachte Klimawandel als schlechterdings nicht anzuzweifelnde Tatsache. Ende der Durchsage. Mit dem „Potsdam Institut für Klimafolgenforschung“ hält sich die Kanzlerin eine Ideologiefabrik voller strenggläubiger Klimaalarmisten, deren Umgang mit kritischen Geistern stark an jenen Tomas de Tórquemadas mit nichtswürdigen Häretikern erinnert.

Gerhard Wrodnigg, Systemanalytiker und Experte für Risikomanagement und Technikabschätzung, widmete sich dem Thema „Zukunft der Kernkraft“. Genauer gesagt beschäftigte er sich mit einer nüchternen Analyse der mit dem Einsatz von Kernenergie verbundenen Risiken (und zwar den tatsächlichen, nicht den von den stets im Panikmodus laufenden Hauptstrommedien behaupteten) und den aktuellen, zum Teil sehr vielversprechenden technischen Entwicklungen. Die derzeit in Gebrauch stehenden Reaktortypen, die große Mengen an (waffenfähigem) Plutonium produzieren und damit unaufhörlich Diskussionsstoff hinsichtlich der Frage von Zwischen- und Endlagerung strahlender Abfälle liefern, könnten demnach schon bald durch solche ersetzt werden, bei denen dieses Problem nicht mehr auftritt. Auf dem Gebiet dieser „Dual-Fluid-Reaktoren“ stehen deutsche Wissenschaftler an vorderster Front. Nicht nur die Verwertung von Brennelementen, die in konventionellen Atomkraftwerken abgebrannt wurden und die weit erhöhte Betriebssicherheit (die Gefahr einer Kernschmelze besteht bei dieser Bauart nicht länger), sondern auch die wesentlich verringerte Menge (schwach) strahlenden Abfalls sprechen für den Einsatz dieser Technik. Auch die Überlegung, von Großkraftwerken wegzukommen und stattdessen kleineren Einheiten mit entsprechend verringerten Umweltrisiken den Vorzug zu geben, wird seitens der Politik nicht einmal in Erwägung gezogen. Zumindest in Deutschland und Österreich, wo man denjenigen, die auch nur das Wort „Atomkraftwerk“ in den Mund nehmen, auf der Stelle das Wort verbietet, scheint dieser Zug abgefahren zu sein. Gegen quasireligiöse Bekenntnisse mit rationalen Überlegungen zu Felde zu ziehen, ist allemal sinnlos…

Markus Fichtinger, Ökonom am Economia Institut für Wirtschaftsforschung, widmete sein Referat der in Deutschland im Jahr 2010 eingeleiteten „Energiewende“. Bis 2020 sollen dort demnach mindestens 35 Prozent des Strombedarfs aus „erneuerbaren Energien“ gedeckt werden – ein, gelinde ausgedrückt, mehr als ehrgeiziges Ziel. International ist keine vergleichbare Tendenz zur radikalen Änderung des Energiemix´ erkennbar. Dass man sich in Deutschland gefährlich weit aus dem Fenster lehnt, um die Emissionen des angeblich klimaschädlichen Kohlendioxids zu begrenzen, während außerhalb der OECD-Staaten zugleich eine drastische Zunahme der CO2-Emissionen stattfindet, scheint niemanden zu irritieren. Der ganze hochfahrende Plan, dessen Herzstück das „Erneuerbare-Energien-Gesetz“ (EEG) bildet, kann ohne weiteres als die Umstellung von der Markt- auf eine Planwirtschaft bezeichnet werden, bei der die Ausschaltung von Marktpreisen für elektrische Energie am Anfang steht.

Der Verzicht auf die gründliche wissenschaftliche Untersuchung von Möglichkeiten und Konsequenzen eines Übergangs auf „erneuerbare Energieträger“ (hauptsächlich Windkraft und Photovoltaik), wird erhebliche Folgen nach sich ziehen. Die für jedermann unmittelbar erkennbare davon liegt in einer dramatischen Steigerung der Stromkosten für die Privathaushalte. Deutsche Stromkunden bezahlen schon heute die (nach Dänemark) höchsten Gebühren pro Kilowattstunde elektrischer Energie. 85,7 Prozent der Preissteigerungen sind den auf 20 Jahre hinaus garantierten Subventionen der Einspeisetarife für Strom aus Wind- und Photovoltaikanlagen geschuldet. Unter dem Strich ergibt sich ein kollektiver Wohlstandsverlust, da die verfügbaren Einkommen nunmehr vermehrt für Energiekosten aufzuwenden sind und nicht für alternative Konsumausgaben eingesetzt werden können. Dass im Strompreis zudem mehr als 40 Prozent an Steuern enthalten sind, rundet das schauerliche Bild harmonisch ab.

Ferner bedarf es gewaltiger Investitionen in die Leitungsnetze, da die meiste Windenergie bekanntlich im Norden des Landes anfällt, während der Strombedarf aber vorrangig im Süden entsteht. Die flächendeckende und nachhaltige Verschandelung der Landschaft durch die unter Marktpreisbedingungen nicht wirtschaftlich zu betreibenden Windräder ist dagegen gar nicht in Zahlen zu fassen. Der bis spätestens 2022 geplante völlige Ausstieg aus der Atomenergie wird darüber hinaus eine ernstzunehmende Lücke in der Grundlastversorgung hinterlassen, wodurch sich das Risiko von Netzzusammenbrüchen erheblich erhöhen wird. Hier geht es schlicht an den Lebensnerv des Hochtechnologiestandortes Deutschland. Die politisch Verantwortlichen scheinen offenbar bis heute nicht erkannt zu haben, dass Strom nicht nur dann gebraucht wird, wenn die Sonne scheint und der Wind bläst. Auch nachts und bei Flaute sollte der Kühlschrank kalt bleiben. So lange es für das Problem der großtechnischen Speicherung elektrischer Energie keine brauchbare Lösung gibt, sind Produzenten, die nicht dauerhaft liefern können, nur dann etwas wert, wenn jederzeit einsetzbare Ersatzlieferanten bereitstehen. Immerhin sind ganze Industriezweige auf eine rund um die Uhr stabile und zuverlässige Lieferung elektrischer Energie angewiesen. Da die Möglichkeiten zur Gewinnung von Energie aus Wasserlaufkraftwerken aber bereits ausgeschöpft sind, führt zur Sicherung des Grundlastbedarfs kein Weg an einem massiven Aus- und Neubau konventioneller Wärmekraftwerke (die mit Gas, Öl oder Kohle befeuert werden) vorbei. Wie sich das mit dem Ziel der angepeilten CO2-Reduktion unter einen Hut bringen lassen soll, steht dahin.

Während andernorts auf – stark verbesserte – Nukleartechnologie gesetzt und durch den Einsatz modernster Methoden zur Energiegewinnung aus Schiefergas und Öl die Wettbewerbsfähigkeit der Industrie erheblich gesteigert wird, legt die Regierung Deutschlands mit dem mittelfristigen Verzicht auf Kernkraft und den Umstieg auf kostspielige „erneuerbare Energien“ den Unternehmen eine Zwangsjacke an. Die internationalen Wettbewerber dürfen dem Treiben der seltsamen Teutonen mit einer Mischung aus Unverständnis und Schadenfreude zusehen – erste Reihe fußfrei.

Mit der Politik der „Energiewende“ schickt sich Deutschland an, wieder einen Sonderweg zu beschreiten. Die Zukunft der wichtigsten Industrienation Europas wird von einer emotional motivierten, von völlig falschen Voraussetzungen ausgehenden, überstürzt angegangenen Kampagne bestimmt. Damit kann es – wenn auch um 70 Jahre verspätet – durchaus gelingen, den 1944 bekannt gewordenen Plan Henry Morgenthaus doch noch zu realisieren und das Land der Techniker und Ingenieure auf den Status eines primitiven Agrarstaates zurückzuführen. Ganz ohne äußeren Zwang und ohne Not. Die ganze Welt würde zum Zeugen des historisch einmaligen Akts der Selbstkastration der wichtigsten Industrienation der Alten Welt. Österreich wird, dank seiner intensiven wirtschaftlichen Verflechtung mit Deutschland, davon nicht unberührt bleiben. „Interessante Zeiten“ stehen uns ins Haus…

Zuerst erschienen in eigentümlich frei