1

Was ist ein Öko-Auto, oder was treibt uns in Zukunft an?

Und damit wären wir schon bei der guten Nachricht: Nachdem der Climategate-Skandal das Lügengebäude der CO2-Ideologen zum Einsturz gebracht hat, können auch in automobilen Fragen wieder messbare Fakten, sprich Leistungskennzahlen, Aufwand und Nutzen in den Blickpunkt gerückt werden.

Ganzheitlich ´ne Schraube locker?

Von „Tabubruch“ war die Rede, als Cameron Diaz bei der Oscar-Verleihung 2006 in einem Toyota Prius, einem sog. Öko-Auto, vorfuhr. 

Eine gelungene PR-Aktion wäre sicher die passendere Bezeichnung gewesen, da sich Hollywood-Größen seit jeher gern vor versammelter Presse als Umweltschützer präsentieren. Doch das nur nebenbei. Aber was, bitteschön, ist eigentlich ein Öko-Auto? Klar, eines, das die Umwelt schont. Nur, woran wird das gemessen? Dieser Frage ist der Schweizer Publizist  Patrik Etsch mayer im Newsportal nachrichten.ch nachgegangen und vergleicht in seinem Artikel eine europäische mit einer amerikanischen Untersuchung. Das Ergebnis könnte gegensätzlicher nicht ausfallen: Während beim Verkehrsclub Deutschland (VCD) die Hybridmodelle von Honda und Toyota das Rennen machen, siegt bei der US-Studie ein Jeep Wrangler vor dem Chevrolet Tracker – beides Geländewagen – und dem Toyota Yaris.

Die zu erwartende Reaktion vieler Leser dürfte Etschmayer auf den Punkt getroffen haben: „OK, wird sich da nun mancher sagen, die Amis haben, was Autos angeht, eben eine Schraube locker. Oder zwei.“ 

Aber so einfach ist es eben nicht, wenn man einen Blick auf die Bewertungskriterien wirft: Der VCD untersuchte den Verbrauch, die Abgase und den Lärm, den ein Fahrzeug verursacht. Die US-Studie betrachtete dagegen den Energieaufwand für ein Auto – vom Bau der Fabrik über die Fertigung und den Betrieb bis zu seiner Verschrottung. 

„Werden diese Punkte alle berücksichtigt“, konstatiert der Autor, „sieht es für Hightech-Mobile auf einmal schlecht aus. Die Komplexität der Technik in Hybrid-Autos, der Ersatz der Batterien, komplexe Antriebssysteme, die leichten Composite-Werkstoffe und die viel aufwändigere Entsorgung tragen dazu bei, dass ein herkömmlicher Honda Civic am Ende seines Autolebens energietechnisch besser dasteht als sein sparsamer Hybrid-Bruder.“  

Biodiesel: Ein Desaster

In den meist emotional geführten Debatten um umweltfreundliche Autos gehen vor allem zwei Aspekte oftmals völlig unter: Zum einen, was in absehbarer Zeit aus rein technischer Sicht überhaupt machbar ist, und zum anderen, was für die Hersteller wirtschaftlich vertretbar ist. 

Schließlich bleiben Letztere auf den immensen Entwicklungskosten sitzen, wenn sie ihre Autos nicht in überschaubaren Zeiträumen am Markt platzieren, sprich verkaufen können. 

Zum Stand der Technik lieferte der Verein Deutscher Ingenieure (VDI) in seiner Anfang 2008 erschienenen Publikation „Zukunft des Autos“ einen recht guten Überblick: von der Weiterentwicklung herkömmlicher Otto- und Dieselmotoren über Hybridantriebe und Brennstoffzellen bis hin zu reinen Wasserstoff- und Elektromotoren.

Nachteil der Studie: In einigen Punkten ist sie schon nach zwei Jahren wieder hoffnungslos veraltet. Das gilt u. a. für die in einem positiven Grundtenor dargestellte Verwendung von Biodiesel. Tatsächlich hat sich der noch vor wenigen Jahren massenmedial hochgejubelte alternative Kraftstoff als riesiges Desaster entpuppt. 

Die Abholzung tropischer Regenwälder sowie die Verknappung der Getreide-Anbauflächen zuguns ten der Biosprit-Produktion haben mittlerweile sogar „dunkelgrüne“ Öko-Freaks davon überzeugt, dass Biodiesel alles andere als um weltfreundlich und ressour censchonend ist.

Wasserstoff: Anfang oder Ende?

„Im Anfang war der Wasserstoff“, schrieb der Wissenschaftsjournalist Hoimar von Ditfurth vor knapp 40 Jahren – wenn auch nicht im Hinblick auf eine automobile Antriebstechnik. Dort könnte er schon bald am Ende sein. 

Wieder mal, denn auch am Wasserstoffmotor wird schon seit Jahrzehnten geforscht. Nun hat sich BMW von der Idee, Wasserstoff direkt zu verbrennen, verabschiedet. Und die Bayern haben als einziger deutscher Hersteller überhaupt diesen ambitionierten Versuch unternommen.

„Es wird vorerst keine neue Wasserstoff-Testflotte geben“, sagte BMW-Entwicklungsvorstand Klaus Draeger dem „Handelsblatt“. Der flüchtige Treibstoff muss extrem gekühlt werden, braucht einen großen Spezialtank und beeindruckt nicht gerade mit üppiger Reichweite. 

Zudem ist er auch nicht frei verfügbar, sondern muss erst energieaufwändig hergestellt werden. Bis zur Serienreife hätte es wohl noch 20 Jahre gedauert. Zu lange, angesichts der Konkurrenz – auch bei alternativen Treibstoffen.

Brennstoffzelle: Heißer Tanz

Das endgültige Aus für den Wasserstoffantrieb bedeutet das jedoch nicht, denn auch in der Brennstoffzelle kommt Wasserstoff zum Einsatz. Hier wird er aber in Strom umgewandelt, der einen Elektromotor antreibt. Um die Zukunft der Brennstoffzelle gibt es allerdings selbst unter Experten heftige Kontroversen. 

„Ungeeignet für den Großeinsatz“, heißt es bei VW. Die Wolfsburger entschieden sich als erster deutscher Hersteller gegen die Brennstoffzellentechnik. Daimler dagegen hält weiterhin daran fest: „Das ist gut für die Umwelt und die Menschen. Genau darum wollen wir diese Technologie so schnell wie möglich zur Marktreife bringen“, wird Konzernchef Dieter Zetsche vom „Tagesspiegel“ zitiert. Warum die Technik „gut für die Umwelt und die Menschen“ sein soll, ist nicht überliefert. Fakt ist aber, dass die Probleme mit Herstellung und Speicherung des Wasserstoffs nicht zufriedenstellend gelöst sind.

Elektromotor: Viel Geld für wenig Reichweite

Trotzdem treiben große Automobilfirmen weltweit die Brennstoffzellentechnik voran, um möglichst bald ein Elektro-Auto präsentieren zu können, das weiter als 50 oder 100 Kilometer fährt. Die geringe Reichweite der bereits existierenden, rein batteriebetriebenen Autos ist aber nicht deren einziges Problem: 

Die Batterie nimmt viel Platz in den ohnehin sehr kleinen Fahrzeugen ein, der Ladevorgang dauert Stunden, und obendrein sind die nicht für jeden schön anzuschauenden Autos wahnsinnig teuer. „Dafür könnte man sich schon einen BMW X5 oder eine gut ausgestattete Mercedes E-Klasse in die Garage stellen“, schrieb die „Bild am Sonntag“, als sie den E-Smart von Daimler vorstellte. 

Wer nun mit dem Null-Emissions-Argument kommt, sollte sich mal darüber Gedanken machen, woher der Strom für ein Elektro-Auto kommt, woraus die Materialien des Fahrzeugs bestehen, wie sie hergestellt und später entsorgt werden. 

Vorteil Hybrid: Konkurrenzfähigkeit

Bleibt noch der Hybrid, die Kombination aus Verbrennungs- und Elektromotor. Er hat gegenüber den anderen alternativen Antrieben vor allem einen Vorteil: Er ist bereits serienmäßig auf dem Markt – dank der japanischen Hersteller Toyota und Honda. Mit rund vier Litern Verbrauch auf 100 Kilometer und Preisen um die 20.000 Euro sind die Modelle absolut konkurrenzfähig zu herkömmlichen Benzinern und Dieseln. 

Ob sie diese langfristig vom Markt verdrängen können, kann heute aber niemand wirklich sagen, denn auch die „alten“ Verbrennungsmotoren haben noch Spar- und Entwicklungspotenzial. Der Autozulieferer Bosch zumindest glaubt nicht an einen Durchmarsch der Hybride und setzt weiterhin auf die Dieseltechnik.

Neben den immer wieder vorgebrachten Einwänden bezüglich des höheren Fahrzeuggewichts durch Elektroaggregate und Batterien könnte dem Hybridkonzept mittelfristig noch ein anderes Problem zu schaffen machen: die Rohstoffversorgung. 

„Gefährdet ist der Nachschub an sog. seltenen Erden, einer Klasse von Metallen, die u. a. zum Bau von Windkraftanlagen und Hybridautos benötigt wird“, schrieb Nora Schlüter bereits im August 2009 im Online-Portal der FTD. Marktführer China plane hier Einschnitte beim Export, die laut dem Bericht den Markt hart treffen dürften. Ausgerechnet der Toyota Prius sei „Spitzenreiter im Verbrauch der Metalle“, erläutert Schlüter: „In jedem Auto sind ein Kilogramm Neodym und zehn bis 15 Kilogramm Lanthan verbaut. Laut dem Rohstoffexperten Jack Lifton werden sich diese Zahlen verdoppeln, sobald Toyota Pläne umsetzt, das Auto noch treibstoffsparender zu konstruieren.“

Entscheidend: Wie viel Auto bekomme ich für mein Geld?

Wie soll sich der potenzielle Autokäufer aber angesichts dieser ziemlich unüberschaubaren Situation denn nun entscheiden? Vielleicht hilft gerade in unsicheren Zeiten Altbewährtes weiter, z. B. ein paar  einfache Fragen: Wie viel Auto bekomme ich für mein Geld? Will ich einen größeren Wagen oder reicht auch ein kleiner? Wie viel Komfort muss sein, und worauf kann ich verzichten? Spielen die Anschaffungs- oder die Unterhaltungskosten die entscheidende Rolle?

Den Kauf eines neuen Autos einzig und allein von seiner Antriebstechnik abhängig zu machen, könnte sich schnell als reines Vabanque-Spiel erweisen. Diesbezüglich kann man nur hoffen, dass Konstrukteure, Hersteller und Marketing spezialisten künftig nicht mehr den Verlockungen nur vermeintlicher Umweltschützer erliegen. Den Rest regelt der Markt.

von Ullrich Rothe PT-Magazin mit freundlicher Genehmigung

Nachtrag der Redaktion:

Bereits zwei mal konnte man die jeweils euphorisch begrüßte Aufnahme von Entwicklungsarbeiten an Elektroautos erleben. (Anfänge 70er und 90er Jahre). 1973 kam die erste "Ölkrise" hinzu mit Sonntagsfahrverbot, Ausnahme u.a. Elektroautos Versuche mit VW eingestellt etwa 1975, zu teuer, zu uneffectiv (Gewicht zu Ladekapazität und Reichweite, Rückspeisung noch nicht richtig nutzbar) Die Knackpunkte damals waren: Preis, Lebensdauer der Batterie, Wartungskosten.

Und 1995, stieg die nächste Hype: Die kommende Antriebsquelle ist die Batterie, die Ölreserven seien versiegt! Daimler (mit AEG), Audi/VW mit Siemens, Versuche gab´s auch in Italien und USA/Kanada.

Die Fortschritte waren: kleinere Elektrotechnik, Umformer mit Rückspeisung, Motor, Ladegerät, Konzepte mit Tauschbatterie. etwa 1997 eingestellt: Punkte wie oben –

Knackpunkte wie bereits 1973: Lebensdauer der Batterie, Wartungskosten, Tauschbatterie nur von Spezialisten austauschbar (Gewicht) – d.h. zusätzliche Kosten für Vorhaltung und Wartung(!) zusätzlicher Batterien.

Die Zeit ist mit weiteren 15 Jahren nun mal wieder reif für Elektroautos. Die Ausgangsbedingungen jedoch – Gewicht des 5*Crash-Autos, verfügbare Einbauräume etc. – noch schlechter geworden.

Unter Mithilfe von Leser Demmig.




Greenpeace Energy: Keine Energiewende, aber Geschäfte mit der Atomindustrie!

Im Oktober 2009 feierte die einst von Greenpeace-Mitarbeitern ins Leben gerufene Genossenschaft ihren zehnten Geburtstag. In der aktuellen Ausgabe von NovoArgumente (104, 1–2 2010) bewertet Novo-Chefredakteur Thomas Deichmann, was aus dem Engagement geworden ist. In einer umfangreichen Studie vergleicht der Greenpeace-Experte die hehren Ansprüche mit der Wirklichkeit und zieht ernüchternde Bilanz.
Versprochen wurde und wird die „Energiewende“, ihre Realisierung fällt jedoch schwer. Für Kunden des Ökostromanbieters wird mitunter Strom aus uralten österreichischen Wasserkraftwerken bezogen. Am einstigen Renommier- und Großprojekt Weserkraftwerk bei Bremen hat sich Planet Energy, der Kraftwerksbauer von Greenpeace Energy, verhoben. Beim Neubau eigener Ökokraftwerke werden Geschäfte mit Siemens und Areva gemacht, während der Regenbogenkriegerverein Kampagnen gegen die beiden Kernkraftwerksbauer organisiert. Greenpeace Energy liefere laut Deichmann ein Beispiel dafür, wie man sich mit einfältiger Öko-Autarkie-Ideologie das eigene Leben erschwert: „Im Kleinen zeigt sich daran, woran auch im Großen die anvisierte Energiewende nur scheitern kann.“…

Lesen und debattieren Sie bei NOVO mit 

Diskutieren Sie online über den Artikel "Greenpeace Energy: Katerstimmung zum zehnten Geburtstag"von Thomas Deichmann oder hier im Kölner Stadtanzeiger

Mehr zum Thema finden Sie im Novo-Dossier „Grüne NGOs".

Greenpeace dementiert hier.




Studie: Elektroautos sind ohne staatliche Hilfen chancenlos!

Aktuell kosten sie mehr als das Doppelte. "Angesichts der höheren Anschaffungskosten werden die Verbraucher genau prüfen, ob sich ein Elektroauto gegenüber einem Fahrzeug mit Verbrennungsmotor überhaupt lohnt", sagte BCG-Geschäftsführer Georg Sticher….

…"Momentan hält die großflächige Einführung von Elektroautos einer normalen Projektrenditeentscheidung kaum stand", sagte BCG-Manager Sticher. Daher könne "schnelle Weiterentwicklung und Marktdurchdringung nur mit Hilfe von regulativen Eingriffen und staatlichen Förderungen sichergestellt werden"

Aus "Die Welt" vom 9.1.10 ;  den ganzen Text findet man  hier

 Anmerkung der Redaktion: Im Klartext heisst das, die Käufer müssen (und werden) zum Kauf dieser teuren Spielzeuge gezwungen werden, wie heute schon bei den Erneuerbaren dank EEG etc. 




Die große Blasen-Maschine! Die menschgemachte globale Erwärmung

Schnellvorlauf bis in die Gegenwart. Es ist Anfang Juni in Washington, D.C. Barack Obama, ein populärer junger Politiker, dessen führender Sponsor im Wahlkampfes eine Investment Bank namens Goldman Sachs war – die Angestellten der Firma gaben rund 981.000 Dollar für Obamas Wahlkampf – sitzt im Weißen Haus. Nachdem Goldman unbeschadet durch das politische Minenfeld der Zeit der Bailouts navigiert hatte, widmet sich das Unternehmen wieder seinen alten Geschäften und hält Ausschau nach Schlupflöchern und Gesetzeslücken in einem neuen Markt, den die Regierung geschaffen Hat, wobei ihr ein neues Team von ehemaligen Unternehmensangehörigen behilflich ist, die Schlüsselpositionen in der neuen Regierung besetzen.

Goldman sieht voraus, daß sich der Kampf gegen die globale Erwärmung zu einem „Kohlendioxyd-Markt“ mit einem Umfang von einer Billion Dollar entwickeln wird.

Hank Paulson und Neel Kashkari sind nicht mehr im Amt. An ihre Stelle sind der Stabschef des Finanzministeriums Mark Patterson und der Chef der CFTC Gary Gensler getreten, beides frühere Goldmännner. (Gensler war Co-Chef der Finanzabteilung der Bank). Und statt Finanzderivaten, Termingeschäften mit Öl oder hypothekengesicherten Wertpapieren ist das neue große Spiel, die nächste Blase, der Handel mit CO-Emissionen – ein boomender Billionen-Dollar-Markt, der bislang noch kaum existent ist, aber rasch entstehen wird, wenn die demokratische Partei, der Goldman im letzten Wahlkampf 4.452.585 Dollar zahlte, es schafft, eine bahnbrechende neue Spekulationsblase ins Leben zu rufen, verkleidet als ein „Plan für die Umwelt“, genannt „Cap and Trade“ (CO-Emissionen begrenzen und Handel damit treiben).

Dieser neue Kohlenstoff-Kreditmarkt ist praktisch eine Wiederholung des Rohstoff-Casinos, das so freundlich zu Goldman war, bis auf den Umstand, daß er darüberhinaus noch einen weiteren höchst erfreulichen Zug hat: Wenn der Plan wie geplant umgesetzt wird, wird der Preisanstieg regierungsamtlich verordnet werden. Goldman braucht das Spiel noch nicht einmal zu manipulieren. Es wird schon von vorneherein manipuliert sein.

Und so funktioniert das Ganze: Wenn das Gesetz verabschiedet wird, wird es Grenzwerte für die CO-Emissionen (auch als Treibhausgase bekannt) von Kohlekraftwerken und anderen Energieproduzenten, für Versorger mit Erdgas und eine Vielzahl von weiteren Industriezweigen geben, die festlegen, wieviel Emissionen das betreffende Unternehmen pro Jahr produzieren darf. Wenn die Unternehmen über diesen Anteil hinaus produzierenn, können sie weitere Kontingente von anderen Firmen hinzukaufen, die es geschafft haben, weniger als die erlaubten Emissionen zu verursachen. Präsident Obama schätzt konservativ, daß in den ersten sieben Jahren CO-Emissionen im Wert von 646 Milliarden gehandelt werden, einer seiner Top-Berater in Wirtschaftsdingen spekuliert, daß die tatsächliche Zahl möglicherweise das zwei- oder dreifache dieses Betrages sein wird.

Was diesen Plan für Spekulanten so besonders interessant macht, ist der Umstand, daß die erlaubte Menge von CO-Emissionen von der Regierung beständig nach unten gesenkt werden wird, was zur Folge haben wird, daß verfügbare Emissions-Kontingente von Jahr zu Jahr rarer werden. Das wiederum bedeutet, daß dies ein brandneuer Markt ist, auf dem die Preise für das Haupt-Handelsgut mit der Zeit garantiert steigen werden. Der Umfang dieses neuen Marktes wird jährlich bei einer Billion Dollar und mehr liegen. Zum Vergleich: Die jährlichen Erträge aus allen Sparten aller Stromversorger in den Vereinigten Staaten liegen bei 320 Milliarden Dollar.

Goldman will dieses Gesetz. Der Plan lautet: erstens von Anfang an bei dieser richtungsweisenden Gesetzgebung dabeizusein, zweitens sicherstellen, auf der gewinnbringenden Seite der neuen Entwicklung zu stehen und drittens dafür zu sorgen, daß die Gewinne üppig ausfallen. Goldman machte sich schon vor langer Zeit für Cap and Trade stark, aber als das Unternehmen im letzten Jahr 3,5 Millionen Dollar für Lobby-Arbeit in Klima-Fragen ausgab, erreichten die Dinge endgültig eine neue Qualität. (Einer, der damals als Lobbyist tätig war, ist niemand anders als Patterson, jetzt Stabschef im Finanzministerium). Im Jahre 2005, als Hank Paulson als Chef von Goldman amtierte, half er persönlich, die Umweltpolitik der Bank zu formulieren, ein Dokument, das für eine Firma, die sich in allen anderen Bereichen konsequent gegen regelnde Eingriffe von Seiten der Regierung einsetzt, einige erstaunliche Elemente enthält. In Paulsons Bericht heißt es, daß „freiwilliges Handeln allein das Klimaproblem nicht lösen kann.“ Ein paar Jahre später beharrte der Kohlenstoff-Chef der Bank darauf, daß Cap and Trade allein nicht ausreichen werde, dem Klimaproblem beizukommen und forderte weitere staatliche Investitionen in Forschung und Entwicklung. Das ist zweckdienlich, wenn man bedenkt, daß Goldman schon früh in Windkraft (die Bank kaufte eine Tochterfirma namens Horizon Wind Energy), erneuerbaren Diesel (Goldman investierte in eine Firma mit Namen Changing World Technologies) und Sonnenenergie (das Unternehmen ging eine Partnerschaft mit BP Solar ein) – genau die Art von Geschäftsabschlüssen, die sich lohnen werden, wenn die Regierung die Energieproduzenten zwingt, sauberere Energien zu nutzen. Wie Paulson damals formulierte: „Wir tätigen diese Investitionen ncht, um Geld zu verlieren.“

Die Bank hält einen Anteil von zehn Prozent an der Chicago Climate Exchange, wo die Emissions-Kontingente künftig gehandelt werden. Darüber eignet Goldman eine Minderheitsbeteiligung an Blue Source LLC, einer Firma mit Sitz in Utah, die Kohlenstoff-Kontingente von der Art verkauft, nach der es starke Nachfrage geben wird, wenn das Gesetz verabschiedet wird.

Nobelpreis-Träger Al Gore, der maßgeblich an der Planung des Cap and Trade Systems beteiligt ist, startete zusammen mit drei führenden Persönlichkeiten von Goldman Sachs Asset Magement (Goldman Sachs Vermögensverwaltung) David Blood, Mark Feruson und Peter Harris ein neues Unternehmen mit dem Namen Generation Investment Management. Das Geschäftsfeld? Investitionen in Kohlenstoff-Ausgleiche. Dann gibt es da auch einen 500 Millionen schweren Green Growth (grünes Wachstum) Fonds, der von einem Goldman-Mitarbeiter gegründet wurde um in grüne Technologien zu investieren … die Liste läßt sich beliebig verlängern. Goldman ist den Schlagzeilen wieder einmal voraus und wartet nur darauf, daß jemand es am richtigen Ort regnen läßt. Wird dieser Markt größer als der Rohstoff-Termin Markt?

„Oh, er wird ihn in den Schatten stellen,“ sagt ein früherer Mitarbeiter beim Energie-Ausschuß des Repräsentantenhauses.

Nun könnten Sie fragen, wen das schert. Wenn das Cap and Trade System funktioniert, werden wir dann nicht alle vor der Katastrophe der globalen Erwärmung gerettet? Vielleicht – aber Cap and Trade, so wie es von Goldman entworfen wurde, ist in Wirklichkeit nichts anderes als ein Steuersystem, bei dem die Abgaben von privaten Unternehmen kassiert werden. Anstatt einfach eine feste Abgabe für Kohlenstoff-Emissionen zu erheben und umweltverschmutzende Energieproduzenten zu zwingen, für den Dreck, den sie verursachen, zu zahlen, ermöglicht es das Cap and Trade-System einer kleinen Gruppe von überaus gierigen Tierchen von der Wall Street, einen weiteren Markt in ein weiteres privates Abgabensystem zu verwandeln. Dies ist schlimmer als die Bailout-Aktionen: Hier wird es der Bank ermöglicht, sich des Geldes des Steuerzahlers zu bemächtigen, noch ehe es überhaupt kassiert ist.

„Wenn es eine Steuer sein soll, dann zöge ich es vor, Washington bestimmte die Höhe und kassierte das Geld,“ sagt Michael Masters, der Hedge Fond Manager, der sich gegen die Spekulation um die Termingeschäfte mit Erdöl aussprach. „Statt dessen beschließen wir, daß Wall Street die Höhe der Steuer bestimmt und daß Wall Street die Steuer kassiert. Das ist das Letzte auf der Welt, was ich möchte. Das ist einfach idiotisch!“

Cap and Trade wird Wirklichkeit werden. Und wenn nicht, wird es etwas ähnliches geben. Die Moral von der Geschichte ist dieselbe wie bei allen anderen Blasen von 1929 bis 2009, die Goldman schaffen half. In fast jedem Fall wurde die Bank, die sich über Jahre hinweg skrupellos verhielt, das System mit wertlosen Krediten und Wucherzinsen belastete und dabei nichts weiter erreichte, als massive Bonuszahlungen für einige wenige Bosse möglich zu machen, mit Bergen von praktisch frei verfügbarem Geld und Regierungs-Garantien belohnt – während die eigentlichen Opfer des unerfreulichen Spiels, die normalen Steuerzahler, für den Schaden aufkommen müssen.

Es ist nicht immer leicht zu akzeptieren, womit wir diese Leute davon kommen lassen; es gibt so eine Art kollektiver Leugnung, die aktiv wird, wenn ein Land das durchmacht, was Amerika in der letzten Zeit durchgemacht hat, wenn ein Volk soviel Ansehen und Status verliert, wie wir in den letzten paar Jahren verloren haben. Man kann die Tatsache, daß man nicht länger Bürger einer funktionierenden Demokratie der fortschrittlichen Welt ist und daß man nicht länger davor geschützt ist, am hellichten Tag ausgeraubt wird, nicht wirklich wahrnehmen, denn wie eine Person, der ein Glied amputiert wurde, fühlt man weiterhin Dinge, die Wahrheit nicht mehr vorhanden sind.

Aber so ist das. Dies ist die Welt, in der wir mittlerweile leben. Und in dieser Welt müssen die einen sich an die Regeln halten, während andere vom Direktor benachrichtigt werden, daß sie in alle Ewigkeit von den Hausaufgaben befreit sind und außerdem 10 Milliarden Dollar ohne Auflagen in einer Papiertüte erhalten, um sich ein Mittagessen zu kaufen. Es ist ein Gangster-Staat, der eine Gangster-Wirtschaft unterhält, und selbst den Preisen kann man nicht mehr trauen: Von jedem Dollar, den Sie irgendwo bezahlen, gehen versteckte Steuern ab. Vielleicht können wir das nicht ändern. Aber wir sollten wenigstens wissen, wohin die Reise geht.

Matt Taibbi, Jahrgang 1970, ist politischer Autor und Journalist, der unter anderem durch seine Berichterstattung über den Präsidentenwahlkampf 2004 bekannt wurde. Gegenwärtig arbeitet er bei der Zeitschrift „Rolling Stone“, wo er die Kolumne „Road Rage“ (Zorn der Straße) unterhält.

Quellennachweis des Originalartikels:The Great American Bubble Machine, Rolling Stone

Übersetzt vom Englischen ins Deutsche von Hergen Matussik, einem Mitglied von Tlaxcala, dem Übersetzernetzwerk für sprachliche Vielfalt (tlaxcala@tlaxcala.es, www.tlaxcala.es). Diese Übersetzung unterliegt dem Copyleft: sie kann frei verwendet werden unter der Bedingung, daß der Text nicht verändert wird und daß sowohl der Autor als auch die Quelle genannt werden. 




Teures Wohnen in der Thermoskanne!

In dem Artikel "Wohnen in der Thennoskanne" hat Herr Küffner einige Fakten angeführt, die sich aus dem EEG (Emeuerbare-Energie-Gesetz) ergeben, und die in der Öffentlichkeit bisher wenig beachtet wurde~ obwohl sie für die Eigentümer von Bestandsimmobilien von großer Bedeutung sind. Diese Hlnweise möchte ich gern durch einige Angaben aufgnmd meiner eigenen Berufstätigkeit und Erfahrung aus mehreren Jahrzehnten ergänzen.
Es ist die Rede von 18 Millionen energetisch sanierungsbedürftigen Altbauten mit Durchschnittskosten von rund 130 000 EURO je Einheit. Die Multiplikation ergibt 2,34 Billionen EURO. Das ist natürlich kein testatfähiger Rechenwert, aber es ist die Benennung einer Größenordnung, über die man nachdenken und diskutieren sollte. Für diese Bruttokosten sind 19 Prozent Mehrwertsteuer an den Fiskus abzuführen. Bei Umbauten im Bestand ist mit einer stark erhöhten Personalkostenquote zu rechnen. Die liegt nach meinen langjährigen Erfahrungen bei ca. 70 bis 75 Prozent der Gesamtkosten. Für diesen Anteil sind 42 Prozent als Beiträge an die Sozia1kassen abzuführen_ Die Zwischensooune beträgt rund 50 Prozent. Wenn man dann noch für die persönlichen Steuern der Arbeitnehmer und Unternehmer und für die auf jedem Bearbeitungs- und Transportvorgang anfallenden Steuern auf Energieverbrauch und für Mautgebühren insgesamt nur 15 Prozent addiert,. was nach meiner Schätzung ein unterer Grenzwert sein dürfte, dann kommt man per Saldo zu der schockierenden Einsicht, daß etwa zwei Drittel der gesamten Investitionskosten oder mehr, also rund 1,5 Billionen (1 500 000 000 000) EURO, an den Fiskus direkt und über die Sozialkassen indirekt abfließen. Nur aus dem restlichen Drittel seiner Investition oder weniger kann der nach einer Sanierung vennutIich aller Notgroschen entblößte und erneut verschuldete Altbaueigentümer mit einer schmalen Rendite aus gesparten Energiekosten rechnen. Meldungen aus der Gebäudewirtschaft, wonach Mietkostenzuschläge nach energetischen Sanierungen nur zu einem Viertel oder Fünftel durch Heizkostenmindenmgen kompensiert werden können, bestätigen das nachdrücklich. Mit diesen Quotenangaben sind nicht nur die von Herrn KüfIner erwähnten überlangen Amortisationszeiten erklärt, sondern auch der zusätzliche Renditeschwund durch den menschlichen Faktor. Menschen sind mit ihren Gewohnheiten keine von Computern gesteuerten Lüftungs- und Wohnautomaten.
Mit anderen Worten: Mit der Einfiihrung des EEG hat sich der Fiskus selbst einen Dukatenesel ohnegleichen beschert. Die mittelständischen Hausbesitzer aber sind unter die ideologiegeschwängerten Räuber gefallen. Mit gezahlten Steuern und Abgaben kann man weder Energiekosten sparen, noch eine Suppe kochen, noch sich die Füße wännen. Das ist des Pudels Kern! Die Unverhältnismäßigkeit von konfiskatorischen Abgaben und Zweckdienlichen, produktiv nutzbaren Investitionsanteilen ist so grotesk, daß mit Fug und Recht von einer partiellen Enteignung oder gar Ausplünderung des staatstragenden Mittelstandes durch das EEG gesprochen werden darf. Dabei ist die energetische Sanierung des Baubestandes nur eine Komponente dieses trickreichen Umverteihmgsgesetzes. Über den ökonomischen Unsinn von Windmühlen und Solardächem haben sich andere, sehr sachverständige Autoren , z.B. Prof. Sinn, Prof. Weimann, Prof. Klaus, schon früher überdeutlich geäußert. Mich erstaunt, daß die Dimension und Brisanz des politischen Spreogsatzes EEG bisher kaum erkannt und beachtet wurde.
Leider ist dies aber noch nicht das Ende dieser deprimierenden Geschichte. Erfahrene Fachleute wissen es und Herr Küffner hat darauf hingewiesen: Bei der Umwandlung von Altbauten in "Thennoskannen" ist die unbeabsichtigte Installation von Wärmebrücken häufig nicht oder nur mit großem Aufwand zu vermeiden. Da steckt dann der Teufel im wahren Wortsinne im Detail. Man sieht ihn meistens viele Jahre lang nicht, wenn er sich im Gebälk oder Mauerwerk eingenistet hat, nur Kundige können ihn zuweilen riechen. Wer durch die energetische Aufrüstung seines Altbaus nach dem Slogan "viel hilft viel" die Effizienz eines Nullenergiehauses anstrebt und diese Zielvorgabe auch noch durch zeitgeistkonformes Heizen und Lüften unterstützt, der riskiert – zwar nicht eben häufig. aber auch nicht gerade selten – • daß auf wundersame Weise das (ach so giftige) anthropogene C02-Molekül zum sepula lacrymans. vulgo «Hausschwamm", mutiert.***. und dann bekommt die virtuelle Horrorvision eines Abbruchbaggers vor der eigenen Haustür plötzlich eine ganz reale Dimension. Deshalb, ruhmreiche, kühne Weltenretter, zügelt nicht nur den eigenen Übereifer sondern auch den von naßforschen Beratern, auf daß Ihr noch lange Freude habt am eigenen Haus.
Was bleibt dem Eigentümer eines älteren Hauses als Alternative. wenn er seine mühsam ersparten Notgroschen nicht auf dem Altar der KJimahysterie opfern möchte und / oder sich noch einmal hoch verschulden will. Ich empfehle eine sehr bewährte Methode. die schon vielen Generationen vor uns geholfen hat, in angemessener Form auf frühere Wetter- und Klimaänderungen zu reagieren. Die Gelassenheit durch Einsicht in das Unvermeidbare, das Herunterregeln der Raumtemperatur um ein paar Grad und die Investition in wärmende Socken, Unterhosen und Pullover sind nicht nur viel billiger sondern auch gesünder als jeder noch so gut gemeinte oder gekonnte Umbau des eigenen Hauses nach den Regeln des EEG bei gleicher oder besserer Energieeffizienz. Lediglich die Beutelschneider von Amts wegen und die Marktschreier und Luftnummern-Equilibristen aus den Abteilungen Politik und Propaganda gehen bei Anwendung dieser Methode leer aus. Wen deswegen Skrupel plagen, dem empfehle ich zusätzlich die ebenso spannende wie naturwissenschaftlich übezeugende Lektüre des Buches .,Sterne steuern unser Klima"" von Calder und Svensmark, Verlag Patmos, und die Erinnerung an die Weisheit eines gewissen Friedrich Schiller. "Und höre nicht auf die vielen, Verstand war immer nur bei wenigen gewesen."
Dipl. Ing. Gerhard Janssen Karlsruhe

Nachtrag der Redaktion: Nicht erwähnt wurde die Tatsache, dass das Geld nur einmal ausgegeben werden kann, es sei den man befeuert bewusst die Inflation. Dieses Geld wird den Menschen, dem Handwerk, der Industrie der Wirtschaft insgesamt fehlen. Weil es überaus unproduktiv angelegt wird, zudem noch zu großen Teilen ins Ausland fliesst, (Stichwort Photovoltaik ais China) werden hier massenhaft Arbeitsplätze – zusätzlich zu den bereits in Gang befindlichen Vernichtungsprozessen durch das Emissionshandsgesetz, weiter vernichtet. Was hatte sich Maurice Strong in China lebender Ölmillionär und Direktor von vielen UNO Programmen, darunter auch der Konferenz für Nachhaltigkeit* 1992 in Rio gedacht als er forderte: 

„So in or­der to save the planet, the group de­cides: Isn’t the only hope for the planet that the in­dus­trial civi­li­za­tions col­lapse? Isn’t it our re­spon­si­bil­ity to bring that about? This group of world lead­ers form a se­cret so­ci­ety to bring about an eco­nomic col­lapse“.

in Deutsch:

"Also, um den Planeten zu retten entscheidet die Gruppe: Ist es nicht die einzige Hoffnung für den Planeten, dass die industriebasierte  Zivilisation zusammenbricht? Ist es nicht unsere Verantwortung dies herbeizuführen? Diese Gruppe von Führern formen eine geheime Gesellschaft um einen ökonomischen Kollaps herbeizuführen"

* Zur Er­in­ne­rung: In Rio wur­de un­ter an­de­rem die Kli­ma­rah­men­kon­ven­ti­on (UNFCCC) un­ter­zeich­net, Grund­la­ge für das fol­gen­de Kyo­to-Pro­to­koll. Da­raus entstand auf Strongs Be­trei­ben der ers­te World Busi­ness Coun­cil for Sus­tai­nab­le De­ve­lop­ment (WBCSD). 1999 be­grün­de­te dann der WBCSD zu­sam­men mit der UNCTAD die In­ter­na­ti­o­nal Emis­si­ons Tra­ding As­so­ci­a­ti­on), die den Markt für den Han­del mit Treib­haus­ga­sen er­öff­nen soll­te.

** Passend zum Thema am 5.1.10 in SPON:  Nordeuropa treibt die Energiewende voran. "Und ist´s auch Wahnsinn, so hat es doch Methode": Hamlet; Shakespeare

*** Halle/MZ/rgu. Mehr als sieben Millionen Wohnungen in Deutschland sind von Schimmelpilz und Feuchteschäden befallen. Davon sind rund 15 Millionen Menschen betroffen, sagte Sabine Brasche von der Universität Jena gestern in Halle. Sie könnten Allergien und Atembeschwerden auslösen. Die Wissenschaftlerin stellte dem Bundesverband der Schornsteinfegerhandwerks, der bis Freitag in Halle seine Jahrestagung abhält, die Ergebnisse einer repräsentativen Studie (der Friedrich-Schiller-Universität Jena) vor. … Sie belegt, dass rund sieben Millionen Wohnungen Feuchteschäden und/oder Schimmelpilzbefall aufweisen. Sie stellen nach Überzeugung der Autorin, Sabine Brasche, ein "erhebliches Risikopotenzial für die Gesundheit von 15 Millionen Bürgern dar." …" 




Experten prophezeien hohe Strompreise

Andere Branchenkenner sind ähnlich pessimistisch. "Das geht alles eher in Richtung steigende Preise", glaubt auch Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung.Sie macht dafür neben steigenden Kosten für erneuerbare Energien und dem Netzausbau vor allem den mangelnden Wettbewerb verantwortlich. Nach der jüngsten Studie des Verbraucherportals toptarif.de wollen allein im Januar und Februar rund 160 Stromversorger ihre Preise um bis zu 16 Prozent erhöhen. Dabei ist Strom derzeit nach Angaben der Branchenkenner schon jetzt so teuer wie noch nie…den ganzen Artikel finden Sie in "Die Welt" 

Man sehe auch hier, dass die Briten den Wahnsinn genau so weit treiben




Solarstromförderung: Ökologischer Irrsinn „made in Germany“

Sauberer Strom aus der Sonne, freundlich blitzende blaue Zellen auf dem Dach, nie wieder ein schlechtes Gewissen beim Stromverbrauch – Solaranlagen sind der Traum eines jeden Hausbesitzers mit grüner Seele. Da macht es nichts, wenn der Weg zum ökologisch bewussten Eigenheim die Klimabilanz trübt.

Am 13. Dezember um fünf Uhr morgens startet die zum Frachter umgebaute Boeing 747-400 mit der politisch korrekten Ladung aus Schanghai in Richtung Frankfurt-Hahn, Ankunft nachmittags. 110 Tonnen Solarmodule eines chinesischen Herstellers hat der Jumbo an Bord. Ein einziger Flieger reicht nicht – weitere zehn Tonnen kommen mit der nächsten Maschine.
Lesen Sie die ganze Story in der FTD



In Deutschland ist Strom so teuer wie noch nie!

In den Sonderverträgen vor allem mit der Industrie berechneten die Versorger im Schnitt einen Nettopreis inklusive mehrerer Abgaben von 9,07 Cent. Deutschlands größter Energieversorger E.on verzichtet unterdessen bis mindestens Ende März auf eine Erhöhung der Strom- und Gaspreise. Sehen Sie den ganzen Artikel hier in "Die Welt"…..




Smart-grid, smart-meter ….. „smart“ das Unwort des Jahres

„Die meisten privaten Haushalte in Deutschland wissen nur wenig darüber, wann und wie viel Energie sie monatlich, wöchentlich oder gar täglich verbrauchen. Energieverbrauch und -kosten für Haushaltskunden werden heute seitens des Lieferanten beziehungsweise Netzbetreibers noch jährlich abgerechnet.  Damit haben Verbraucher über das Jahr gesehen nur begrenzte Möglichkeiten, ihren Energieverbrauch zu kontrollieren und effektive Maßnahmen zu dessen Senkung zu ergreifen. Dabei kann es ein Leichtes sein, den eigenen Verbrauch gezielt zu steuern, die Energiekosten zu senken und damit auch zum Klimaschutz beizutragen – und das alles von zu Hause aus!“. Keiner fragt, ob dem so ist und ob der Verbraucher, der soeben eine 20 W Energiesparlampe eingeschaltet hat, weil es zum Lesen zu dunkel war oder die Waschmaschine eingeschaltet hat, weil die Wäsche gewaschen werden soll, nun  wirklich nach jeder Stunde online erfahren möchte, wie viele kWh das nun waren und was das nun aktuell gekostet hat. 

Am Ende des Jahres werden es für einen 4 Personenhaushalt rd. 4.000 kWh sein, das sollte man wissen, in sparsamen Haushalten sind es vielleicht erfreulicherweise auch nur 3.500 kWh. Jeweils zu Kosten gemäß dem vereinbarten Tarif, also etwa zwischen 800 € und 900 € im Jahr oder im Mittel rd. 2,50 € pro Tag.

In Umsetzung der Beschlüsse von Meseberg ist das Messwesen inzwischen liberalisiert. Die Verbraucher haben die freie Wahl des Messstellenbetreibers und des Messdienstleisters. Ab 2010 ist der Einbau so genannter intelligenter Zähler für Neubauten und bei umfassender Gebäudesanierung vorgesehen. Im Bestand müssen Messstellenbetreiber moderne Zähler anbieten. Das die erheblich teurer sein werden als die guten alten Ferrariszähler, ist wohl unbestritten, genau will das noch keiner sagen. 

Ab Ende 2010 sind auch Tarife mit "Anreizen" zur Energieeinsparung oder zur Steuerung des Stromverbrauchs anzubieten. Dann wird dieser Datenspuckende „smart-meter“ ohnehin zwingend erforderlich sein, ob er für den Kunden einen Mehrwert bringt, ist unerheblich.

Mit dem von der vorherigen Bundesregierung geprägten Bundesumweltministerium im Rahmen der Klimaschutzinitiative finanzierten Projekt, werden unter Federführung von IZES in Zusammenarbeit mit sechs Stadtwerken bundesweit Praxistests durchgeführt. Leider werden alle Mehrkosten von der BNA wohl problemlos als betriebsnotwendig anerkannt, so dass der gebeutelte Stromkunde auch diese Mehrkosten ohne jede Nutzenstiftung wieder zu bezahlen hat. Es wird höchste Zeit, dass die Energieversorger sich wieder mehr §1 des Energiewirtschaftsgesetzes verpflichtet fühlen, eine möglichst sichere, preisgünstige, verbraucherfreundliche, effiziente und umweltverträgliche Versorgung der Allgemeinheit mit  Elektrizität und Gas zu verwirklichen, als in Pressekonferenzen über smart-meter und smart-grid nicht erfüllbare Kostensparpotenziale zu versprechen. Immerhin ist das Attribut „preisgünstig“ an zweiter Stelle in §1 EnWG genannt. 

Prof. Dr. Helmut Alt für EIKE




Das Märchen vom guten Strom!

Es war einmal ein Volk, das wollte die Umwelt und das Klima schützen. Voller Eifer machte es sich daran, Solarzellen auf Dächer und Felder zu montieren. Und auf jeden Hügel setzte es ein Windrad. Die Regierung versprach, der so produzierte Strom werde zu einem garantierten hohen Preis abgenommen. Bald gab es eine Million Solaranlagen. Mehr als die Hälfte der Weltkapazität an Solaranlagen stand in dem eher sonnenarmen Land. Zwar kostete die Einspeisevergütung viel Geld, jedes Jahr 1,5 Milliarden Euro für Solar und 3,5 Milliarden für Windkraft. Doch die Deutschen zahlten gerne für den "guten" Strom. Schließlich helfe der, das Klima zu schützen, weil bei der Erzeugung kein Kohlendioxid (CO2) ausgestoßen werde.Allerdings gab es in dem fleißigen Volk von Umweltschützern auch einige Nörgler, sogenannte Ökonomen, die ihnen eine unangenehme Wahrheit zu erklären versuchten: Keine einzige Tonne, nicht einmal ein Gramm CO2 wird durch all die Solaranlagen oder Windräder eingespart! Auch das EU-Verbot der Glühbirne entlastet das Klima nicht um ein Gramm Treibhausgas!….

Autor: PHILIP PLICKERT Den gesamten Artikel finden Sie hier: 




Wie viele Menschenleben kostet erneuerbare Energie?

Vor Kurzem hat der Spiegel, sehr zum Erstaunen der Fachleute, eine sehr korrekte Abhandlung zur Gefahr durch Kernenergie veröffentlicht.1 Lange vor der Nutzung der Kernenergie gab es schon Tote durch Radioaktivität. Marie Curie, die Pionierin der Atomforschung, starb mit 66 Jahren an Leukämie, die durch die hohe Strahlenbelastung ausgelöst worden war, deren Gefahr die Entdeckerin der Radioaktivität noch nicht kennen konnte. Sie hatte zuvor sowohl den Nobelpreis für Physik (1903) als auch für Chemie (1911) erhalten. Heute kennt man die Wirkung radioaktiver Strahlen und sorgt sehr effektiv dafür, dass niemand im Umgang mit den strahlenden Substanzen gesundheitsschädlichen Dosen ausgesetzt wird.

 Die furchtbare, zerstörerische Wirkung der Atomenergie wurde 1945 beim Abwurf amerikanischer Atombomben auf Hiroshima und Nagasaki deutlich, durch die mehr als 200.000 Menschen getötet wurden. Der Großteil fiel dabei der Explosion mit ihrer enormen Druck- und Hitzewelle zum Opfer. Die Radioaktivität spielte eine nachgeordnete Rolle.2 Der Spiegel nennt gut 700 Tote durch Strahlenfolgen. Bei der friedlichen Nutzung der Kernkraft wird das Szenario des größten Schadens als GAU (größter anzunehmender Unfall) bezeichnet. Einen GAU hat es bislang gegeben, im Jahr 1986 in Tschernobyl. Der Spiegel nennt ca. 60 Todesopfer bis heute – das ist korrekt aus der Sicht des Strahlenschutzfachmanns. In den Medien waren auch schon oft viel höhere Zahlen zu lesen. Das liegt vor allem daran, dass zusätzlich zu den tatsächlichen noch statistische Todesfälle einbezogen werden.3 Solche „berechneten Toten“ infolge von Strahlenbelastung werden nur in Verbindung mit der friedlichen Nutzung der Kernkraft angeführt. Wenn sich der Mensch auf andere Weise – etwa durch eine Flugreise – erhöhter Strahlung aussetzt, werden normalerweise keine solchen Hochrechnungen angestellt. Würde man es tun, könnten daraus die Forderung nach dem „Ausstieg aus dem Flugverkehr“ abgeleitet werden. Rund 40 Millionen Deutsche reisen mit dem Flugzeug in den Urlaub, geschäftliche Vielflieger kommen hinzu. Die einfache Zahlenrechnung ergäbe dafür jedes Jahr ca. 100 „berechnete Tote“.4

Es hat bei der Nutzung und der Erforschung der Atomkraft wie in jedem anderen Technikbereich Unfälle gegeben, durch technisches oder menschliches Versagen. Die Zahl der Opfer war jedoch bisher gering. In Kernkraftwerken westlicher Bauart hat es durch Strahlung tatsächlich noch keinen einzigen Toten gegeben. Nehmen wir diese tatsächliche Bilanz als Maßstab, so ist bei den erneuerbaren Energien im Vergleich zur Kernkraft noch erheblicher Nachholbedarf in Sachen Sicherheit zu erkennen. Es gibt eine Vielzahl von Untersuchungen, in denen die Gefahren der Stromerzeugung mittels Kernkraft mit denjenigen durch fossile Brennstoffe einschließlich der Wasserkraft verglichen werden.5 Dem sind einige Gesichtspunkte hinzuzufügen.

Wasserkraft

Seit den 50er-Jahren, als die Entwicklung der Kernkraft begann, gab es in Europa zwei große Unglücke mit Staudämmen, die viele Tote forderten: Am 2.12.1959 brach der Malpasset-Staudamm bei Frejus (Frankreich), 421 Menschen starben. Am 9.10.1963 brachte in Longarone (Italien) ein Erdrutsch den Stausee zum Überlaufen, die Flutwelle forderte etwa 2500 Tote. Am 11.8.1979 brach der Machhu-Staudamm in Indien, die Stadt Morvi wurde überflutet. Die Zahl der Todesopfer wird oft mit mehr als 1000 angegeben, eine zuverlässig erscheinende Quelle spricht sogar von 15.000 Opfern.6 Das Unglück am Machhu-Staudamm geschah fast zeitgleich zum Atomunfall in Harrisburg (28.3.1979). Dort gab es keine Opfer, noch nicht einmal Verletzte. Dennoch wird das Unglück von Harrisburg oft genannt, der Machhu-Staudamm blieb weitgehend unbekannt.

Die Münchner Rück schrieb im Jahre 1997: Seit 1950 ereigneten sich weltweit rund 100 größere Dammbrüche; die meisten dieser Dämme sind vor 1930 erbaut worden (und daher vermutlich Erdwälle). 1975 sollen bei einem Staudammbruch am Huai-Fluss in China 26.000 bzw. mehr als 230.000 Menschen ums Leben gekommen sein.7 Es gibt auch in Deutschland ein Ereignis, dass die Gefahren eines berstenden Staudammes deutlich werden ließ: die Bombardierung der Staumauer des Edersees durch britische Bomber im Mai 1943. Damals fanden über 1000 Menschen den Tod durch die Flutwelle. In Hannoversch Münden, ca. 80 km unterhalb der Staumauer, kann man sich heute die Hochwassermarke von der Flutwelle ca. drei Meter über dem Gehsteig anschauen (HW 17.5.1953). Es gibt also durchaus eine drohende „terroristische Gefahr“, die als nicht unerheblich einzuschätzen ist.

Risikostudien

Vielen Menschen sind dennoch Kernkraftwerke nicht geheuer. Ermittelt man nach dem gegenwärtigen Stand des Wissens – und dieses ist für die Kernkraft sehr umfassend – das tatsächliche Risiko, so stellt sich dieses als sehr gering heraus. Die für deutsche Kernkraftwerke durchgeführten Risikostudien haben für die Häufigkeit einer Kernschmelze Werte um 10 hoch minus 6 pro Jahr ergeben, d.h., in einer Million Jahren ist mit einem einzigen Schadensfall zu rechnen.8 Dabei ist zu beachten, dass bei einer Kernschmelze zwar ein technisches Gerät zerstört würde, aber wie in Harrisburg kein Mensch zu Schaden kommen müsste. Im Vergleich dazu fehlen bei Staudämmen in der Regel technische Maßnahmen zur Verhinderung von Schäden an Menschen. Betrachtet man die Situation der Bewohner des Zillertals in Österreich, die unterhalb von drei Staumauern leben, so kann man nur konstatieren, dass sie im Notfall ziemlich chancenlos wären. Der Bruch nur einer Mauer – durch ein Erdbeben oder einen Anschlag – würde das ganze Tal überschwemmen, es gäbe für Zehntausende Menschen kein Entrinnen aus der Flutwelle. Falsch wäre es dennoch, angesichts solcher Katastrophenszenarien den Ausstieg aus der Wasserkraft zu fordern. Wohl aber sollte man sich der Gefahren bewusst sein und eventuell Vorkehrungen zur Schadensbegrenzung treffen.

Biomasse

Vollends harmlos erscheint auf den ersten Blick die Nutzung von Biomasse. Tatsächlich ist jedoch der gefährlichste Beruf hierzulande derjenige des Forstarbeiters. Jeder zweite Forstarbeiter erleidet pro Jahr einen Arbeitsunfall. In den Jahren 1991 bis 1994 gab es jedes Jahr in Deutschland rund 50 Unfalltote bei 36.000 gewerblichen Mitarbeitern.9 Diese Zahlen werden heute nicht wesentlich anders sein, denn die Gefahren beim Umgang mit Kettensägen und durch fallende Bäume sind geblieben. Auch sind nur Unfälle im Staatsforst erfasst, diejenigen aus dem privaten Bereich wären noch zu addieren. Bezeichnend ist, dass die Verkehrsunfälle bei der Fahrt zum Arbeitsplatz, die bei Berufen mit Bürotätigkeiten die tödlichen Unfälle dominieren, im Forstbereich zu vernachlässigen sind. Es überwiegen die Gefahren beim Holzeinschlag. Will man diese Zahlen in Beziehung setzen zu denjenigen des Tschernobyl-Unfalls, so wäre eine Hochrechnung auf alle Länder der Welt und auf ca. 50 Jahre durchzuführen. Die Opferzahl ginge schnell in die Zehntausende. Die Betroffenen sind weitgehend anonym, ihre tragischen Einzelschicksale werden in der Regel im Lokalteil der Regionalpresse vermeldet. Es gibt keine medienwirksamen Katastrophen, und es gibt keine gesellschaftlichen Debatten um die Sicherheit der Forstwirtschaft. Die Toten aber sind real, und ihre Zahl ist groß.

Auch Biogasanlagen können zur Todesfalle werden. Bei dieser noch vergleichsweise neuen Technologie wird die Biomasse in großen Reaktoren zersetzt, wobei überwiegend Methan (Erdgas) entsteht. Das Gas ist entzündlich, es kann zu Explosionen kommen, und es können Menschen durch das Gas vergiftet werden. Das ist in den letzten Jahren mehrfach geschehen, bedauerlicherweise hat es etliche Tote gegeben. Gewiss muss man einer neuen Technik zugute halten, dass sie in der Anfangszeit noch fehlerbehaftet ist (das ist der Beginn der Technikern wohl bekannten Badewannenkurve). Aus Fehlern wird gelernt, Verbesserungen und nicht Abschalten und Ausstieg sollten auch im Falle des Biogases die Konsequenz sein.

INES-Skala

Gibt es überhaupt eine Möglichkeit, sich von der Gefahr der Stromerzeugung durch Kernkraft ein zuverlässiges Bild zu machen? Es gibt zumindest ernsthafte Versuche, mögliche Gefahren genau zu beschreiben und einzustufen. Hierzu dient die INES-Skala (International Nuclear Event Scale): INES 1 ist eine Störung, INES 2 ist ein Störfall, INES 3 ein ernster Störfall, INES 4 ein Unfall, INES 5 ein ernster Unfall, INES 6 ein schwerer Unfall, INES 7 ein katastrophaler Unfall.10 Bei den in deutschen Kernkraftwerken gemeldeten Ereignissen handelt es sich zumeist um Kleinigkeiten, die mit der internationalen INES-Skala überhaupt nicht erfasst werden. Diese werden mit INES 0 bezeichnet, also unterhalb der internationalen Skala, da sie ohne Bedeutung für die Sicherheit sind. In der Statistik der deutschen Kernkraftwerke für die letzten 15 Jahre gab es 2158 gemeldete Ereignisse. Davon gehörten 96,6 Prozent zu INES 0, des Weiteren 3,3 Prozent zu INES 1, und nur 3 Ereignisse waren Störfälle nach INES 2. Hier Beispiele der Ereignisse:

· Im Kernkraftwerk Würgassen, seit 1994 stillgelegt und im Abbau befindlich, gab es am 6.5.06 einen Kurzschluss im Schleppkabel eines Krans. Einstufung: INES 0.

· Am 29.10.02 schwamm nach einem Herbststurm so viel Laub auf dem Neckar, dass beim Kernkraftwerk Obrigheim der Rechen am Kühlwassereinlauf gesäubert werden musste, dazu wurde das Kraftwerk ca. 45 Minuten abgeschaltet. Meldung an die Behörde erfolgte. Einstufung: INES 0. Die dpa-Pressemeldung lautete dennoch: „Fünfte Panne in fünf Monaten“.

· In Krümmel wurden im Nebengebäude mit den Notstromdieseln unter 630 Dübeln vier Exemplare entdeckt, die zwar die Anforderungen erfüllten, aber nicht vom vorgesehenen Typ waren. Einstufung: INES 0.

· Häufige Ereignisse nach INES 0 gibt es z.B. an den Notstromdieseln, die bei den regelmäßigen Prüfungen Abweichungen zeigen, sodass einer von bis zu acht Dieseln nicht uneingeschränkt zur Verfügung steht.

In Deutschland werden inzwischen alle Ereignisse in den Kernkraftwerken veröffentlicht, z.B. in der Fachzeitschrift atw. Man denke nur daran, dass jedes Jahr viele Tausend neue PKW von den Herstellerfirmen wegen technischer Mängel zurückgerufen werden, zumeist, weil sonst Personenschäden mit entsprechenden finanziellen Forderungen zu erwarten wären.

Risikoumgang

Es gibt nichts auf der Welt ohne Risiko. Wir lieben das Leben, obwohl es zu 100 Prozent tödlich endet. Wir lieben die Technik, denn erst die Technik ermöglichte es, die vielen Menschen überhaupt zu ernähren und vielen von uns ein angenehmes und langes Leben zu ermöglichen. Wo es noch keine Technik gibt, wo die Menschen heute noch so leben wie in unseren Breiten im Mittelalter, herrschen Analphabetentum, Mangel, Hunger und Krankheit. Die Kernkraft ist eine sehr sichere Technik, die Beschäftigten in den Anlagen dort sind kaum von Unfällen bedroht. Bei den alternativen, erneuerbaren Energien ist dies noch nicht in gleichem Maße gegeben. Hier gibt es Arbeitsplätze mit den meisten und folgeträchtigsten Unfällen, und es gibt die Möglichkeit für Unfälle mit erheblichen Opferzahlen. Sowohl in der Risikodebatte als auch in der Praxis besteht also Nachholbedarf.

Anmerkungen

1 Matthias Schulz: „Legenden vom bösen Atom“ in: Der Spiegel, 47/07 S. 160–164, wissen.spiegel.de.

2 „Strahlung, von Röntgen bis Tschernobyl“, Broschüre des GSF-Forschungszentrums, 2006.

3 Siehe hierzu Lutz Niemann: „Wie gefährlich sind radioaktive Strahlen?“ in: Novo81, S. 22–24.

4 „Tschernobyl: Gefahr vorbei?“, Ministerium für Finanzen und Energie des Landes Schleswig-Holstein, Rechenbeispiele auf S. 12f.

5 Siehe hierzu atw 51/06, Nr. 4, S. 242ff. und atw 52/07, Nr. 10, S. 620ff.; weitere Informationen hierzu unter: energie-fakten.de.

6 Steven Schultz / Jay A. Leitch: Floods and Flooding. Encyclopedia of Water Science, Second Edition, 2008, S. 380–385, informaworld.com.

7 „Überschwemmung und Versicherung“, Münchner Rück 1997, S. 29.

8 „Deutsche Risikostudie Kernkraftwerke Phase B, GRS, Verlag TÜV Rheinland, 1989.

9 „Agrarbericht der Bundesregierung“ von 1996.

10 Siehe hierzu bfs.de.

Dr. Lutz Niemann für EIKE

Der vorliegende Text ist im Magazin Novo (Nr.97, www.novo-argumente.com ) erschienen, und wurde am 19.12.2008 in DIE WELT abgedruckt (http://www.welt.de/welt_print/article2901108/Wenn-die-Natur-zurueckschlaegt.html)




Neue Studie zum Energiemix der Zukunft sieht fossile Energieträger weiter dominierend

Daher wundert es auch kaum, dass Studien von Instituten und Verbänden die sich vor allem um technische und wirtschaftliche Machbarkeit sorgen meist zu völlig anderen Ergebnissen kommen. In einer neuen Studie, die im November in der Fachzeitschrift "Handbuch Energiemanagement" erscheint, vergleicht Professor Hermann-Josef Wagner von der Bochumer Ruhr-Uni die Szenarien von acht Instituten und Organisationen und fasst deren Ergebnisse zusammen.

Trotz aller Anstrengungen, die CO2-Emissionen so schnell wie möglich zu senken, bleibt die Kohle in den nächsten Jahrzehnten ein für die Sicherung der weltweiten Energieversorgung wichtiger Energieträger.

 

Lesebeispiel zur Grafik. Klicken Sie hier!

Was dieses Ergebnis für die Zukunft der Energieversorgung auch für Deutschland bedeutet und was für wirtschaftliche und politische Weichentstellungen sich daraus ergeben erklärt Professor Wagner in einem Interview mit dem "Braunkohle-Forum".

Fokussiert auf den bundesdeutschen Energiemix, zeigt unsere Untersuchung an der Ruhr-Universität Bochum, dass Braun- und Steinkohle auch in den nächsten Jahrzehnten noch wesentliche Anteile an der Stromerzeugung halten werden. Deshalb wird die Herausforderung in dieser Übergangszeit sein, neue Kraftwerke mit maximaler Energieeffizienz auszustatten.

Der Forscher ist davon überzeugt, dass Szenarien die einen schnellen Ausstieg aus Fossilen und den Wechsel hin zu sogenannten Erneuerbaren Energien prognostizieren an der Wirklichkeit vorbei gehen. Vor allem die technische Verfügbarkeit werde in solchen Studien oft nur ungenügend berücksichtigt.

Ich stehe all den Szenarien sehr kritisch gegenüber, die das Ziel haben, nachzuweisen, dass man beispielsweise innerhalb von wenigen Jahrzehnten vollständig auf die Nutzung fossiler Energien verzichten kann. Hier ist die Gefahr groß, eine Lösung rein rechnerisch zu erreichen, ohne sich zu fragen, ob die dabei eingesetzten neuen Techniken überhaupt am Markt und mit ausreichender Reife verfügbar sind.

Dass der Weg weg von den CO2-Emissionen weiter eingeschlagen wird, davon scheint Professor Wagner überzeugt zu sein. Er sieht die Lösung vor allem in Technologien bei denen das entstandene CO2 in unterirdische Speicher eingelagert wird (CCS-Techologie). Einer kurzfristigen Machbarkeit dieser Technik steht er allerdings skeptisch gegenüber und betont, dass z.B. in China Probleme wie die Reinhaltung der Luft durch effektive Rauchgasfilter  einen wesentlich höheren Stellenwert haben. Einen schnellen Ausstieg aus der Kohle als Energieträger hält Wagner auf jeden Fall für unrealistisch.

Den Skeptikern antworte ich also, dass sie zum einen die Zeitachse beachten sollten, auf der sich Veränderungen realisieren lassen, und zum anderen sehen müssen, dass Kohle auch weiterhin in vielen Ländern der Welt ein wichtiger Energieträger bleibt, auf den nicht verzichtet werden kann.

Professor Dr. Hermann-Josef Wagner ist Geschäftsführender Direktor des Instituts für Energietechnik an der Ruhr-Universität (IE)

Rudolf Kipp EIKE




Umwelt – Klima – Energie!

Die Themen Umweltschutz, Klima und Energie beherrschen  die Schlagzeilen in der Presse.  Ich möchte mich als Ingenieur pragmatisch mit diesen Themen befassen. Der Inhalt reicht eigentlich für mindestens 3 große Vortragstagungen über mehrere Tage aus, bei der hunderte von Wissenschaftlern und Experten über ihre Erfahrungen berichten würden. Ich habe mir überlegt, wie ich dieses Problem lösen kann. Ich möchte es so versuchen. Ich berichte nur über Fakten die weder wissenschaftlich noch ingenieurtechnisch widerlegbar sind, möchte Sie dabei aber bitten, und ich will versuchen, hierfür die Grundlagen zu legen, sich Ihre eigenen Gedanken zu machen, um diese extrem komplizierten und komplexe Fragen sich selbst beantworten oder eine Meinung bilden zu können. Alle nachfolgenden Themen sind technisch und vor allem wirtschaftlich eng miteinander verbunden. Wer diese Fragen einseitig, also nur unter Berücksichtigung einzelner Themen, zu beurteilen versucht, macht zwangsläufig schwere Fehler, die zu vollständig falschen Beurteilungen führen.

Nun zum 1. Themenkreis, Umweltschutz,

der eine extreme Bedeutung in der Bevölkerung erlangt hat. Für Ingenieure war dieser Begriff nicht neu. Anlagen dieser Art waren und wurden seit Jahrzehnten gebaut:

–        Abgasreinigungsanlagen zur Reinhaltung der Luft

Zur Abscheidung von:

–        Staub, Feinstaub, Aerosolen durch Elektro-, Schlauch- oder Spezialfilter;

–        Schwefeloxide  In Nass- oder Trockenreinigungsanlagen;

–        Stickoxide durch Katalysatoren;

–        Dioxide durch Aktivkoks –Aktivkohlefilter;

Es war nur eine Frage des kostenmäßigen Aufwandes, denn alle Maßnahmen müssen ja letztlich von der Bevölkerung bezahlt werden.  Diese Maßnahmen-Investitionen führten zu einer Verschlechterung des Wirkungsgrades bei Kraftwerken um etwa 2 – 4%. Die Investitionskosten lagen bei mehreren hundert Millionen.

Die politische Bedeutung des Umweltschutzes kam mit den „Grünen“ auf. Sie ist im Prinzip auch richtig, nur sollte alles sachlich mit fachlichen Überlegungen und nicht populistisch behandelt werden.  Joschka Fischer postulierte vor etwa 30 Jahren, und damit machte er die „Grünen“ stark, dass in 10 Jahren kein Blatt mehr auf den Bäumen sei, wenn die Rauchgase der Kraftwerke nicht entschwefelt würden. Stichwort: Saurer Regen.  Damit hat er die Grundlage zur „Antienergiepolitik“, die bis heute dauert, gelegt. Die Rauchgase der Kraftwerke wurden also entschwefelt und dann auch entstickt, also die Stickoxide und dann auch die Dioxine abgeschieden.  Dies muss von den Stromkunden bezahlt werden. Ob die Entschwefelung gerechtfertigt war, sei dahingestellt. Auch heute ist der Waldboden sauer, das hat nun nichts mehr mit dem Schwefelgehalt aus den Rauchgasen von Kraftwerken zu tun, sondern mit einem seit Jahrtausenden ablaufenden Vorgang in der Natur. Abfallholz, Blätter usw. vermodern im Wald. Dabei wird Humus erzeugt, der den Waldboden düngt, das ist nun wirklich nichts Neues. Nur bei der Vermoderung entsteht auch CO2, dieses löst sich im Regenwasser und führt zum „sauren“ Waldboden. Sprudelwasser  hat in etwa den gleichen ph-Wert. Der Einfluss der zusätzlichen Schwefelsäure aus Abgasen kann nur geschätzt werden. Niemand hat das je errechnet, kann er auch nicht. Meiner Meinung nach liegt er weit unter 1%, es könnten aber auch nur promille sein, oder promille von promillen.

Dann ein Wort zur Müllentsorgung. Seit über 100 Jahre wird oder wurde der Müll überwiegend in Verbrennungsanlagen entsorgt, eine Technik, in der Deutschland weltweit führend war. Dann kamen die Abgase in Verruf. Wir entwickelten neuartige bessere Rauchgasreinigungstechniken. Letztlich eine „Gasmaske“ mittels Aktivkoks, also des gleichen Materials, das in Gasmasken enthalten ist. Ich hatte diese Idee Herrn Umweltminister Matthiesen vorgeschlagen, der dies sofort in Herten verwirklichen ließ. Ergebnis ist, dass das Rauchgas sauberer ist als die angesaugte Verbrennungsluft. Die Verbrennung ist heute immer noch die billigste und sauberste Müllentsorgung, aber der Widerstand der „Umweltschützer“ gegen diese Technik hat nicht nachgelassen. Das Ergebnis ersehen Sie in Ihren ständig steigenden Entsorgungskosten. Vor kurzem entsorgten, gegen hohe Gebühren, sogar Überseeische Länder ihren Abfall in deutschen Verbrennungsanlagen, die alle mit dieser Technik ausgerüstet sind. Dies zeigt den weltweit hohen Standard unserer Müllverbrennungsanlagen. Das Wort Müll oder Abfall wird jetzt  durch die Bezeichnung Biomüll oder Bioreststoffe durch Umweltschützer ersetzt , die Anlagentechnik ist die gleiche. Wir hoffen, dass jetzt endlich Vernunft einkehrt, zum finanziellen Vorteil der Bürger.

Nächstes Thema: Kraft-Wärmekopplung, also die kombinierte Erzeugung von Strom mit Nutzung der Abwärme. Diese Technik wurde nun wirklich nicht von den Umweltpolitikern erfunden. Sie wird seit über hundert Jahren allen  Hochschulen gelehrt. Grund für die Anwendung war aber bei den vielen hundert Anlagen, die in der Zeit gebaut wurden, als die Politiker diese  Technik noch nicht als politisierendes populistisches Argument erkannt hatten, stets die Frage der Wirtschaftlichkeit. Diese konnte in Modellrechnungen auf etwa  1% Genauigkeit berechnet werden. Die Abwärme kann aber nur dann genutzt werden, wenn Abnehmer, also Käufer, dafür vorhanden sind. Das ist aber, abgesehen von der Abwärmeverwertung in  wärmeverbrauchenden Industriebetrieben, nur zu Heizzwecken möglich. Im Sommer wird nicht geheizt, dann fehlen diese Abnehmer. Noch in den 50-etwa 80iger Jahren wurde jährlich in Deutschland etwa 100-150 Anlagen dieser Art gebaut.  Heute nur noch vereinzelt, trotz der Subventionierung. Es lohnt sich einfach aus wirtschaftlichen Gründen nicht.  Bei Müllverbrennungsanlagen, oder neu, den Bioabfall- und Bioreststoffverbrennungsanlagen macht diese Technik wirklich Sinn, denn die Erlöse aus Strom- und Abwärmeverkauf mindern die Entsorgungskosten, doch auch hier sind „Umweltexperten“ aus nicht mehr nachvollziehbaren Gründen dagegen.

Bei der Abwärmeverwertung geht ein Teil der Energie des Dampfes, die sonst zur Stromerzeugung genutzt wird, verloren. Abwärme auf Umweltniveau ist wertlos. Nur eine Nutzung/ Entspannung des erzeugten Dampfes bis auf den absoluten Nullpunkt, also  0 grad Kelvin oder  -273grad C ermöglicht einen 100%igen Wirkungsgrad bei der Stromerzeugung. Dieses thermodynamische Gesetz ist ein Naturgesetz, es kann von Ingenieuren nicht beeinflusst werden. Alle diese Fakten werden in der politischen Diskussion nicht erwähnt. Wenn solche Anlagen mit Steuergeldern  subventioniert werden, ist das nach meiner Ansicht Geldverschwendung.

 

Aber wir Ingenieure haben mit  Ideologen so unsere Probleme:

–        Wenn wir sagen, das Problem ist technisch lösbar, so wird es meist von den Umweltschützern in Frage gestellt. Ständig werden neue unrealistische, ja illusionistische Gegenthesen verbreitet. Selbst der Nachweis, dass es technisch geht, wird nicht akzeptiert.

–        Wenn wir aber sagen, das geht auf Grund von physikalischen und thermodynamischen Natur/Grundgesetzen nicht, dann wird das als Verweigerungshaltung interpretiert.

–        Das gleiche gilt für Forderungen nach Entwicklungen neuer Technologien, die seit vielen Jahrzehnten untersucht werden, leider ohne Erfolg, und bei denen sich auch keine erfolgversprechenden Lösungen abzeichnen.

–        Vor allem aber Fragen der Kosten und der Wirtschaftlichkeit werden völlig falsch beurteilt, ja meist gar nicht in Betracht gezogen. All dies hängt in der politischen Diskussion aber nun mit dem Thema Klimaschutz und Erderwärmung durch CO2 zusammen. Ich möchte ausdrücklich betonen, um alle etwaigen Missverständnisse zu vermeiden, dass Maßnahmen zur Einsparung von Energie richtig und erforderlich sind, wenn sie bezahlbar sind. Dies war eine meiner wesentlichen Aufgaben und Ziele während meiner ganzen beruflichen Tätigkeit.

Und damit wären wir beim 2.Thema.

Frage ist, kann CO2 einen nennenswerten Einfluss auf das Klima auf dem Planeten Erde haben? Diese Frage ist fast zu einer existenziellen Glaubensfrage mutiert. In den USA haben ca. 34.000 Wissenschaftler Herrn Obama aufgefordert, das Thema CO2 aufzugeben, da CO2 keinen nennenswerten Einfluss auf das Weltklima haben kann. Diese These widerspricht aber den politischen Bestrebungen der „Antienergie Lobby“.  Ich habe mir auch Gedanken darüber gemacht, und diese in einer Arbeit unter dem Thema „Klimafakten“ ausgearbeitet.

Wichtigste Grundlage bei meiner Ausarbeitung ist das unter der Regie von Herrn S. Gabriel in Niedersachsen von drei wissenschaftlichen Instituten erarbeitete und herausgegebene Werke  „Klimafakten“, -ISBN 3-510-95872-1-. Ich habe es dabei, sie können es gerne einsehen.  Für mich das beste Werk und vor allem auch fundierteste, ja sogar spannend zu lesende Werk mit dieser Thematik, das erschienen ist.

Hier steht in der Einleitung:

–        „Es ist schwierig oder gar unmöglich, zwischen natürlicher Klimaentwicklung und einer durch den Menschen beeinflussten Klimaschwankung zu unterscheiden. Es bleibt festzuhalten, dass sich zahlreiche äußere Einflussgrößen des Klimas bislang nicht mit hinreichender Genauigkeit fassen lassen. Auch die komplexen internen Prozessabläufe, die das Klima sowie dessen Zustände beeinflussen, sind nicht hinreichend entschlüsselt“.

In einem Bericht der amerikanischen National Academy of Sciences (NAS) steht:

–        „ Unsere Kenntnis der Mechanismen des Klimawechsels sind so bruchstückhaft wie unsere Daten. Nicht nur sind die grundlegenden wissenschaftlichen Fragen großenteils unbeantwortet, sondern in vielen Fällen wissen wir nicht einmal genug, um die entscheidenden Fragen zu stellen“.

Ähnliche Formulierungen und Vorbehalte finden sich auch im IPCC – Bericht, der Grundlage für alle Klimakonferenzen ist. Diese sind ehrlichen, überzeugenden Darlegungen, die in dem Werk „Klimafakten“ detailliert begründet werden, mit  eingehender Beschreibung der wesentlichen Einflussfaktoren auf das Klima.

Die wesentlichsten sind u.a.:

–        Temperatur der Luft; Temperatur der Atmosphäre;

–        Niederschläge; Verdunstung;  Luftfeuchtigkeit;

–        Wind; Bewölkung; Nebel;

–        Strahlungshaushalt; Sonneneinstrahlung; kosmische Strahlung;

–         Wasserzirkulation;

–        Wärmetransport in und durch die Meeresströmungen in den Ozeanen;

–        Wärmeaustausch zwischen Atmosphäre, Land und Ozeanen;

–        Präzessionskreis der Erdrotationsachse;

–        das Heiße innere der Erde und der Ozeane; Vulkantätigkeiten;

–        mineralogische Zusammensetzung der Erdkruste; Gasschichten und Gashüllen in der Atmosphäre;

–        die Oberfläche des Planeten Erde mit Eiskammern und Wüstengebieten;  Verwitterung;

–        Wärmeabstrahlung ins Weltall, und letztlich Einflüsse aus dem gesamten Weltall.

Diese wesentlichen in dem Werk einzeln beschriebenen Faktoren können noch beliebig erweitert werde, doch die NAS hat ja  gesagt, dass wir noch nicht einmal wissen, welche Faktoren das sein könnten. Dass  deutsche „Wissenschaftler“ verschiedener ÖKO-Institute, vor allem die Herren Prof. Schellnhuber und Rahmstorf dies alles wissen wollen, erscheint mir persönlich mehr als dubios. Auch die umfassendsten Modellrechnungen mit den größten Rechnern und Rechenprogrammen können diese Fragen nicht beantworten.  Die größten und modernsten Computer rechnen nur das aus, was mit den einzelnen Faktoren in die Programme eingegeben wird. Hier hat jeder ausreichende Variationsmöglichkeiten.

Hierzu noch ein Zitat aus „Klimafakten“:

–        „Die Klimamodelle, auf deren Vorausberechnung sich die ganzen „Global Warming“  Theorie stützen, sind grob falsch, unter anderem deshalb, weil der Einfluss der Wolken und vieler anderer, auch von der Sonne kommender Effekte völlig unzureichend berücksichtigt sind. Das stärkste Treibhausgas ist nicht CO2 sondern Wasserdampf. Rund 2/3 des gesamten sogenannten Treibhauseffektes der Erdatmosphäre wird vom Wasserdampf verursacht“.

Bei der Beurteilung des Klimas muss vor allem beachtet werden, dass keine regionalen Betrachtungen angestellt werden dürfen, sondern nur globale. Alle regionalen Beobachtungen führen bei einer Klimadiskussion zu grundlegend falschen Schlüssen.

Die USA-NASA-  messen seit 1979 mittels Satelliten die globale Temperaturverteilung auf dem gesamten Globus.

Danach wurde von 1979 bis 1986 eine niedrigere mittlere Temperatur bis -0,1 grad C gemessen. Danach stieg die Temperatur bis 2005 auf + 0,3 grad C an. Seitdem vermindert sie wieder und erreichte 2008 die gleiche mittlere Temperatur wie 1979. 2009 liegt sie bisher bei -0,1 gradC.

Prof. Menzel, Rektor der Fachhochschule Ruhr, früher Dortmund, stellte in einem Vortrag Anfang diese Jahres die These auf, dass für Klimaschwankungen vor allem die Sonnenstrahlung –Sonnenflecken- verantwortlich sein könnten. Er ermittelte auf Grund seiner Beobachtungen und Berechnungen, dass z.Zt. die mittlere globale Temperatur weiter sinkt, wir also vor einer „neuen kurzen Eiszeit“ stehen. Er sagt wörtlich, dass er sich als Wissenschaftler schäme, wenn Professoren  deutscher Klimainstitute, die nur Halbwahrheiten publizieren, als Wissenschaftler bezeichnet würden, dann wolle er keiner mehr sein.  Meine Frage:  ich möchte wissen, welcher und wie viele Politiker, die über diese Dinge oft rein populistisch reden, dieses Werk das, unter der ministeriellen Regie von Herrn Gabriel entstanden, gelesen haben?

Doch nun einige Worte zur Funktion des CO2 in der Atmosphäre.

CO2 ist ein Gas, das bei allen Verbrennungs- und Atmungsvorgängen entsteht.

Zusammengefasst:

–        CO2 ist ein Spurengas, das in der Atmosphäre mit einem Anteil von 380ppm oder 0,038 % enthalten ist;

–        Es entsteht bei allen Verbrennungsvorgängen, also von Holz, Kohle, Erdöl, Erdgas, kohlenstoffhaltigen Abfallstoffen usw.

–        Ferner durch Atmung von Menschen und Tieren und bei der Vermoderung von holzartigen Abfällen in der Natur, sowie bei Vulkanausbrüchen über der Erde und im Meeresboden.

–        Zwischen CO2 aus Verbrennungsprozessen und durch Atmung der Menschen besteht chemisch und damit auch hinsichtlich einer eventuellen Auswirkung auf das Klima kein Unterschied;

–        CO2 ist der beste Pflanzendünger, die Land- und vor allem Forstwirtschaft haben hierdurch bedeutende Vorteile;

–        Wissenschaftliche Untersuchung im Eis der Polargegenden habe zweifelsfrei gezeigt, dass eine Erhöhung des CO2-Gehaltes in der Atmosphäre stets Folge aber nie Ursache einer Erwärmungsphase war;

–        Es gibt keinen einzigen wissenschaftlichen Beweis, dass CO2 einen Einfluss auf das Klima hat;

Daraus folgt:

–        Ohne CO2 ist der Planet Erde unbewohnbar, Sauerstoff und Kohlendioxid sind die wichtigsten Gase in der Luft, die Menschen, Tiere und Pflanzen zum Atmen benötigen.

Hier eine kurze Modellrechnung, die jeder sofort ohne Rechenprogramm nachvollziehen kann:

–        Die Menschen atmen im Schnitt bei normaler Belastung etwa 320kg CO2/Jahr aus;

–        Der CO2-Ausstoss der Tiere wird in etwa in der gleichen Größenordnung angenommen;

–        Hochgerechnet auf 82 Millionen Einwohner der BRD sind dies ca. 30 Millionen toCo2/Jahr;

–        Der gesamte anthropogene CO2-Ausstoß der BRD beträgt ca. 870 Millionen toCo2/Jahr;

–        Der gesamte weltweite CO2-Ausstoss beträgt ca. 28,2 Milliarden to/Jahr;

–        Damit beträgt der Anteil der BRD weltweit 3,1%;

–        Es ist das Ziel der Bundesregierung, diesen Ausstoß in den nächsten 10 Jahren um 20%, also um ca. 200 Millionen to zu senken;

–        Die CO2- Produktion allein in China beträgt ca.3,5 Milliarden toCO2/Jahr, diese steigert sich in diesem Entwicklungsland um ca. 10%/Jahr, also um ca. 350 Millionen  to;

–        Damit produziert allein China pro Jahr etwa doppelt so viel CO2 zusätzlich, wie die BRD in 10 Jahren einsparen will;

–        Ähnliche Steigerungsraten haben  die anderen großen Entwicklungsländer Indien, Brasilien, alle asiatischen Staaten usw.;

Es ist leicht zu erkennen, dass die Zielsetzung der BRD völlig wirkungslos bleiben wird, wenn das CO2 überhaupt eine klimarelevante Bedeutung hätte, denn wir haben wissenschaftlich gesehen keine begründbare globale Erwärmung, sondern lediglich die seit Jahrtausenden vorkommenden periodischen Temperaturschwankungen. CO2 spielt dabei keine erkennbare Rolle. CO2 als „schmutziges Gas“ oder gar „Giftgas“ zu bezeichnen, wie öfter von Presse und Politikern zu hören, ist ein Zeichen von fehlender Bildung.

Alle CO2 – Theorien basieren nur auf Rechenmodellen, hierzu muss man folgendes wissen:

–        Die Zahl der unbestimmten Faktoren ist das Maß der Ungenauigkeit der Rechnung;- ein mathematischer Grundsatz;

–        Jedes Institut kann beim derzeitigen Erkenntnisstand der Klimaforschung die Faktoren in die Rechenprogramme so eingeben, dass das Ergebnis herauskommt, das man vorher habe will;

–        Die ganze „Klimaphilosophie“ beruht auf solchen Modellrechnungen;

Herr Dr. Dittrich, früher Entwicklungschef bei Thyssen, hat die Modellrechnungen des Potsdamer  ÖKO-Institutes mit dessen eigenen Programmen nachgerechnet und hat in mehreren Beiträgen,  nachgewiesen, dass in diese Berechnungen völlig falsche Werte eingesetzt worden sind.  Die Bundesregierung kennt diese Ausarbeitungen, Herr Gabriel, ist informiert, ein erbetener Besprechungstermin konnte bis heute nicht vereinbart werden.

Nun zum 3. Themenkreis, der Erzeugung elektrischer Energie.

Hierzu folgende Thesen als Grundlage zur Beurteilung:

–        Elektrische Energie, also Strom, wird in Kraftwerken durch Verbrennung von kohlenstoffhaltigen Brennstoffen verschiedener Art, vor allem durch Steinkohle, Braunkohle, Erdgas und  Erdöl.

–        Dabei entsteht durch die Verbrennung des Kohlenstoffs CO2, das ist verbrennungstechnisch nicht vermeidbar;

–        Aus den erzeugten Verbrennungsgasen, die Temperaturen von ca. 1.500 grad C haben, wird Dampf mit hohen Drücken und Temperaturen erzeugt. Dieser Dampf wird in Dampfturbinen, die Generatoren antreiben, zur Stromerzeugung genutzt;

–        Aller erzeugte Strom, auch der aus Windkraftanlagen,  wird praktisch in gleichartigen Generatoren erzeugt, nach identischem physikalischen Prozess;

–        Nach Einspeisung des Stroms in die Strom-Übertragungsnetze kann nicht mehr unterschieden werden, in welchen Anlage der Strom erzeugt worden ist;

–        Weiter wird Strom in geringerer Menge in Erdgas/Erdöl-Gasturbinen, Dieselmotoren, Wasserturbinen, Windturbinen, die alle Generatoren antreiben, und in Solaranlagen erzeugt.

Bei der Stromerzeugung müssen folgende Kernfragen beachtet werden, sie müssen die Grundlage jeder Energiepolitik sein:

–        Die Stromerzeugung ist der einzige Produktionsprozess in der Wirtschaft, bei dem die Nachfrage unmittelbar und in Sekunden die Höhe der Produktion bestimmt;

–        Die Speicherung von Strom zum Ausgleich von Belastungsschwankungen ist nur bedingt und mit hohen Kosten und Wirkungsgradverlusten möglich, also aus wirtschaftlichen Gründen nur in geringem Umfang machbar;

–        Die Entwicklung von Speichermöglichkeiten, vor allem von Batterien, ist seit Beginn der Stromerzeugung vor mehr als 140 Jahren Schwerpunkt aller weltweiten Forschungsarbeiten. Alle Anstrengungen sind de facto erfolglos geblieben. Es zeichnet sich auch leider kein technisch und wirtschaftlich erfolgversprechender Durchbruch an;

–        Alle Stromerzeugungsanlagen müssen daher regelbar sein, das heißt, sich den Schwankungen in den Übertragungsnetzen anpassen können;

–        Auf Grund des Gesetzes, dass die Stromversorgung für alle Abnehmer gesichert sein muss, muss die installierte Kraftwerksleistung in der Lage sein, die Stromversorgung auch bei den höchsten Belastungsspitzen sicherzustellen, die Kraftwerke müssen aber auch im Teillastbereich betreibbar sein;

–        Alle konventionellen Kraftwerke sind hierzu in der Lage;

–        Die Anlagen mit „Erneuerbaren Energien“ können dies nicht, sie erzeugen nur Strom, wenn der Wind weht und die Sonne scheint;

–        Der in diesen Anlagen erzeugte Strom muss von den großen Kraftwerksbetreibern aber auf Grund des EEG-Gesetzes immer abgenommen und gekauft werden. Dadurch müssen zwangsläufig bestehende und am Netz befindliche Kraftwerke im Teillastbereich unwirtschaftlichen  Strom produzieren. Die hierdurch entstehenden Kosten werden den Stromabnehmern durch  höhere  Preis verrechnet.

Die Kosten der Stromerzeugung bis zur Einspeisung in die Übertragungsnetze in den verschiedenen Anlagen sind in etwa folgende:

–        Wasserkraftwerke: ca. 4,3 cent/kwh;

–        Kernkraftwerke:       ca. 2,65 cent/kwh:

–        Braunkohlekraftwerke:  ca. 2,40 cent/kwh;

–        Steinkohlekraftwerke: ca. 3,35 cent/ kwh;

–        Erdölkraftwerke: ca. 4 – 5 cent/kwh;

–        Erdgaskraftwerke:  ca. 4,90 cent/kwh;

–        Windkraftwerke:  ca. 10 – 16 cent/kwh;

–        Solaranlagen:  ca. 40 – 60 cent/ kwk;

Als Ingenieur war ich 40 Jahre lang bemüht, meist die Wirkungsgarde von Stromerzeugungsanlagen um wenige 1/10 % zu verbessern. Dass Politiker heute einen Verteuerungsfaktor von 5 – 30, also um 500% bis zu 3.000% für „machbar“, also der Bevölkerung für zumutbar, halten, darüber soll sich jeder seine eignen Gedanken machen.

Die Erzeugungskosten des Stroms aus „Erneuerbaren Energien“, also aus Wind- und Sonnenanlagen, können so lange nicht wirtschaftlich werden, bis es wirtschaftliche Speichermöglichkeiten gibt, und diese sind seit hundert Jahren nicht in Sicht und werden in den nächsten Jahrzehnten auch nicht zur Verfügung stehen. Daher werden sie für diesen Zeitraum auch nicht wirtschaftlich werden können, alle anderen Aussagen sind illusionistisch.

Noch einmal die Kostenproblematik dieser Anlagen:

–        Auf Grund des EEG-Gesetzes, muss der in Anlagen mit Kraft-Wärmekopplung, in Wind- und Sonnenanlagen teuer erzeugte Strom von den Energieversorgern zu hohen Preisen abgenommen werden und bezahlt werden;

–        Die Kosten werden in die Strompreise für alle Verbraucher eingerechnet , der Strom wird also verteuert;

–        Nach Ansicht von Politikern sind dies keine Subventionen;

–        Zusätzlich werden die Investitionskosten von „Erneuerbaren Energie“ aus Steuermitteln mit Milliardenbeträgen hoch subventioniert;

Aus diesen Überlegungen heraus, und weil die weltweiten Reserven an den Edelenergien Öl und Gas irgendwann einmal enden oder sehr teuer werden, werden weltweit neue Kernkraftwerke geplant und gebaut. Diese These wird weltweit als richtig angesehen wird, nur nicht in Deutschland. Eine gesicherte Versorgung der Welt ohne Stromerzeugung aus Kernkraftwerken ist auf Dauer unmöglich, also eine Illusion. Vor allem die Staaten, die über die größten eigenen fossilen Energie-Rohstoffe verfügen, wollen Kernkraftwerke bauen. Nur nicht Deutschland, das rohstoffärmste Land der Welt. Dass elektrische Energie in Kraftwerken mit Verbrennung von kohlenstoffhaltigen Medien erzeugt wird, dürfte bekannt sein. Es sind feste und flüssige Brennstoffe. Die Energiepolitik der 50iger bis etwa 80iger Jahre ging von dem Grundsatz aus, in Großkraftwerken möglichst nur feste Brennstoffe, also Kohle/Braunkohle zu verbrennen. Die flüssigen und gasförmigen „Edelbrennstoffe“ Öl und Gas sollten überwiegend zur Nutzung in kleineren Anlagen, also Haushalten und Kraftfahrzeugen, sowie als Grundstoffe für chemische und verfahrenstechnische Prozesse dienen, da die  Vorkommen dieser Brennstoffe auf der Erde endlich sind und gestreckt werden sollen. Weiter wurde damals schon mit großen Preissteigerungen bei einer Verknappung gerechnet.

Bei einem Vortrag am 19.Juni 2009 in der Düsseldorfer Akademie der Wissenschaft des Landes NRW hat Herr Prof. Dr. Carl Friederich von Weizäcker in einem umfassenden Vortrag nachgewiesen, dass die Energieversorgung der Welt ohne Nutzung der Kernkraft auf Dauer unmöglich ist.

Für die BRD ergeben sich aus dieser Aussage folgende Probleme:

–        Wenn in Deutschland keine neuen Kernkraftwerke gebaut werden, dann tun es unsere Nachbarn an unseren Grenzen. Die dann zwangsläufig höheren Stromkosten gehen voll zu Lasten der Deutschen Verbraucher;

–        Wegen des hohen Anteils an Strom aus Kernkraftwerken liegen die Strompreise in Frankreich in allen Tarifgruppen bei etwa 50% der deutschen Tarife;

–        Z.Zt. sind weltweit etwa 400 Kernkraftwerke in der Planung. Für jedes dieser Kernkraftwerke werden ca. 3 Milliarden Euro investiert, das sind 1,2 Billiarden Euro;

–        Die deutschen Kraftwerksbauer hatten einen Anteil von etwa 20% am Weltmarkt, damit gehen der deutschen Wirtschaft rund 240 Milliarden Aufträge verloren, mit den entsprechenden Arbeitsplatzverlusten;

Die in Deutschland in Betrieb befindlichen Kernkraftwerke, auch die älteren Anlagen, sind unzweifelhaft mit die besten und sichersten weltweit. In allen Betriebsjahren ist nicht ein einziger Unfall mit Strahlungsfolgeschäden erfolgt, weder beim Bedienungspersonal und schon gar nicht in der Bevölkerung. Diese sicheren Anlagen sollen jetzt, da weltweit ca. 400 neue Kernkraftwerke in Planung sind, stillgelegt werden. Einen größeren volkswirtschaftlichen Unsinn kann man nicht erdenken.

Zur Beurteilung der nuklearen Probleme bei Störungen in Kernkraftwerken hat die Internationale Atomenergiebehörde Beurteilungskriterien festgelegt. Dies beinhalten 8 Störungsstufen die folgende Aspekte berücksichtigen: Radiologische Auswirkungen außerhalb der Anlage; Radiologische Auswirkungen innerhalb der Anlage; Beeinträchtigung von Sicherheitsvorkehrungen. Diese werden charakterisiert nach Unfällen, Störfällen und Störungen.

In den letzen 15 Jahren traten in allen deutschen Kernkraftwerken 2198 sogenannte meldepflichtige Ereignisse ein. Hiervon betrafen 3 die Stufe 3, 98% die Stufe 0. Selbst die Störungen im KKW Krümel wurde mit der Stufe 0 beurteilt.    Wenn Politiker und die Presse auf „Ereignisse in KKW“ hinweisen, dann sollten sie auch den Gefährdungsgrad nach dieser international gültigen Skala erwähnen.

In den 60iger Jahren wurde mit der Entwicklung der Hochtemperatur-Reaktortechnik  begonnen. Hieran war ich als Ingenieur in führender Position bei BBC/Krupp beteiligt.  Die Ausarbeitung eines Vortrages, den ich kürzlich im KKW Biblis der RWE gehalten habe, „Die Technik der Hochtemperaturreaktoren“  können Sie gerne einsehen, wer möchte, möge mir bitte seine e-mail Adresse geben, ich schicke ihn dann zu. Eine Graphitkugel, diese sieht genau so aus,  wie ein Brennelement, habe ich Ihnen mitgebracht. Ich kann den 20 seitigen Vortrag, er hat in Biblis eine Stunde gedauert, Ihnen hier nicht vortragen. Mir wurde der Vorwurf gemacht, dass ich die Technik so genau beschrieben hätte, dass er praktisch eine Bauanleitung für diese Reaktoren sein könnte.

Ich möchte daher nur kurz auf die Vorteile dieser Technik eingehen:  Die Idee stammt von Prof. Dr. Rudolf Schulten, als er junger Physiker und Ingenieur bei BBC war.

Grundlagen seiner Überlegungen waren:

–  Kugelförmige Brennelemente wegen der gute Handhabbarkeit im Reaktor;

– Umwälzung, also Beladung des Reaktors während des Betriebes;

– Graphit als Hauptwerkstoff für die Brennelemente und Reaktoreinbauten;

– Helium als Kühlmittel;

–  aus Uran 235 und Thorium 232 als Brennstoff mit der Möglichkeit,   neuen Brennstoff zu erbrüten;

– Hohe Temperaturen und Drücke bei der Dampferzeugung mit der Möglichkeit, hohe thermodynamische Wirkungsgrade zu erzielen und die Hochtemperaturwärme zur Anwendung in chemischen Prozessen mit dem Ziel, aus Bio-Massen flüssigen Brennstoff zu erzeugen.

– Die Möglichkeit, neuen nuklearen Brennstoff zu erbrüten. Dadurch ist die Versorgung von Kernkraftwerken mit nuklearem Brennstoff auf hunderte von Jahren gesichert.

– eine inhärente Sicherheit des Systems durch Vermeidung einer Kernschmelze- „GAU“- auch bei kompletten Ausfall der Reaktorkühlung – Ursache des Unfalls in Tschernobyl- zu vermeiden.

Dies wurde 1967 bei der Inbetriebnahme des AVR Reaktors in Jülich erprobt. Der 1. GAU fand also nicht in Tschernobyl, sondern in Jülich statt. Hier flog der Reaktor nicht in die Luft, sondern kühlte sich langsam von alleine ab. Dieser Vorgang wurde 1977 und dann auch in China wiederholt, mit dem gleichen Ergebnis. Nach dem genannten AVR, der 1966 mit einer  Leistung von 15 MW in Betrieb ging und praktisch störungsfrei bis 1989 lief, wurde ab 1970  der THTR in Schmehausen gebaut, hier mit einer Leistung von 300 MW. Dieser Reaktor wurde nach 16.000 Betriebsstunden 1989 aus politischen Gründen stillgelegt.

Nun wird diese HTR Entwicklung in China und SA mit unserem know how weitergeführt, mit dem zu vermutenden Ergebnis, dass wir später für unser know how, mit dem wir in den 60iger bis 80iger Jahren weltweit konkurrenzloser Spitzenreiter waren, Lizenzgebühren bezahlen müssen.

Bei der Ausarbeitung meines Vortrages habe ich mir die Frage gestellt, ob wir diese Spitzenstellung mit den bei uns vorhandenen Kenntnissen und Betriebserfahrungen nochmals erreichen können. Meine Schlussfolgerung nach Durcharbeitung vieler Unterlagen ist, wir können es in etwa 2 Jahren wieder sein. Während des Betriebes beider Kernkraftwerke ist keine einziger nennenswerter Unfall mit „Strahlenfolgen“ aufgetreten, weder beim Betriebspersonal noch in der Umgebung.

Die Betriebserfahrungen mit beiden Reaktoren zeigen:

–        HTR – Kraftwerke können im elektrischen Verbundnetz regelungstechnisch einwandfrei eingesetzt werden;

–        Die Anlagen sind sicherheitstechnisch problemlos zu betreiben;

–        Die Bestrahlungsdosis des Personals ist bei Betrieb und selbst bei Reparaturarbeiten am offenen Primärteil sehr gering;

–        Sicherheitstechnisch begründete Betriebseinschränkungen oder sicherheitstechnisch relevante Schäden hat es bei beiden Anlage nicht gegeben;

–        Die Gesamtanlage und alle Anlageteile konnten im großtechnischen Einsatz erprobt werden;

–        Die Sicherheitstechnik ist soweit entwickelt, dass selbst bei einer größten überhaupt denkbaren Störung keine Gefahr für das Bedienungspersonal oder die Bevölkerung gegeben ist. Selbst dann ist eine Evakuierung der Bevölkerung im engen Umkreis der Anlage nicht erforderlich.

Preiswerte Energie ist die Grundlage jedes wirtschaftlichen Fortschritts. Dass Strom aus Kernkraftwerken billiger ist, zeigt und Frankreich. Hier liegen die vergleichbaren Stromtarife für alle Abnehmer bei etwa 50% der Tarife in Deutschland.

Herr Werhahn hat diese Technik als „Grüne Atomkraftwerke“ bezeichnet. Eine treffende Formulierung, denn alle Argumente der Umweltschützer gegen Atomkraftwerke treffen hier nicht zu.

Ich sehe in dieser Technik die wohl einzige Chance, dass sich Deutschland  von Primärenergieimporten unabhängiger machen kann.

Zur Beurteilung der Frage der Gefährdung bzw. Strahlenbelastung der Bevölkerung durch Kernkraftwerke sollten auch folgende Kriterien berücksichtigt werden:

–        Seit Millionen von Jahren wird alles Leben auf der Erde durch die Sonne und aus der Erdkruste heraus radiologisch belastet;

–        die Frage, ob die Erde überhaupt bewohnbar ist ohne diese Strahlungen ist ungeklärt;

–        In Deutschland ist die Strahlung im Feldberggebiet im Schwarzwald mit 1.800 mrem oder 18 mSv am höchsten. Es ist kein Fall einer Strahlenschädigung bekannt.

–        Die mittlere Kollektivdosis während der Betriebszeit des von den Gegnern „geschmähten“ THTR-300 betrug 45 Personen mSv/Jahr, bei Reparaturen am offenen Kern lag sie zeitweise bei zulässigen 100 mSv;

–        Beim AVR lag die Strahlenbelastung zum Zeitpunkte der Stilllegung bei 0,39 mSv/Jahr für das Betriebspersonal, also weit niedriger, als  an „Land“;

–        Durch das Unglück in Tschernobyl (Stufe 7) wurde die Umgebung des THTR in Schmehausen mit nuklearen Niederschlägen in Höhe von 50.000 Becquerel (Bq) belastet;

–        Das Öko-Institut in Freiburg behauptet in einer Pressekampagne gegen den THTR, dass diese Belastung vom THTR durch eine unbeabsichtigte Freisetzung leicht radiologisch belasteten Heliumgases hervorgerufen wurde.  Diese Behauptung war falsch, der zusätzlich radiologische Niederschlag lag nur bei 0,1 Bq. Ein Beweis, welchen Wahrheitsgehalt die „Horrormeldungen“ solcher Institute haben.

–        Der HTR ist weltweit der einzige „katastrophenfreie Reaktor“.

Nun noch einige Bemerkungen zur Frage der Endlagerung, primär am Beispiel des THTR-300:

–        Die hochstrahlenden Brennelemente sind nach Stilllegung und Abzug aus dem Reaktorkern in Aahaus eingelagert worden;

–        Alle anderen strahlenden Anlageteile und Komponenten lagen innerhalb des Spannbetonbehälters, der auch die Funktion der Strahlenabschirmung hatte. Außerhalb dieses Behälters lagen keine noch strahlenden Anlageteile;

–        Der Sekundärteil wurde verkauft, da völlig unbelastet, und ist heute noch in Betrieb;

–        Das drucklose Containment, die Luftführungswand, wurde beibehalten;

–        Alle Durchdringungen durch Spannbetonbehälter und Containment wurde gasdicht verschweißt, mit verhältnismäßig geringem Kostenaufwand;

–        Der Raum zwischen Spannbetonbehälter und dem Containment ist radioaktiv völlig unbelastet und kann ohne Schutzbekleidung und sogar ohne Strahlendosis-Mess-Plakette betreten werden;

–        Ein sichererer Einschluss von hochstrahlende Teilen und damit sicherere Zwischen/Endlagerung ist nicht denkbar;

Daraus folgt, dass eine sichere Endlagerung strahlender Reaktorkomponenten nach Betriebsende oder von während des Betriebes ausgetauschten Komponenten technisch realisierbar ist, zu relativ geringen Kosten. Allerdings müssen ideologische, unrealistische Vorstellungen und Forderungen vermieden werden. Der Beweis, einer sicheren Lagerung liegt in Schmehausen seit nunmehr 20 Jahren vor. Niemanden stört diese Anlage, aber auch niemand will dies zur Kenntnis nehmen, denn dann würde ja zugegeben, dass das Problem der Endlagerung einwandfrei lösbar ist. Dann wäre aber auch die politische Diskussion beendet, und das wollen Politiker, die gegen die Kerntechnik sind, und auch die KKW-Gegner nicht zugeben.

Zum Schluss nochmals  einige Kernsätze  zu den sogenannten „Erneuerbaren Energien“, vor allem Sonne und Wind:

–        Die Verfügbarkeit dieser Anlagen liegt bei 1.000 bis 1.500 Stunden im Jahresdurchschnitt;

–        Die Jahresverfügbarkeit aller konventionellen Anlage einschließlich der KKW liegt bei max. 8.760 Stunden im Jahr, im Durchschnitt, wegen des erforderlichen Teillastbetriebes, bei etwa 65-70%;

–        Die Behauptung und Zielsetzung, dass „erneuerbare Energien“ in Zukunft zu 100% die Stromversorgung sicherstellen können, ist barer Unsinn. Die erforderlichen Speicherkapazitäten  sind gar nicht realisierbar, weder technisch und schon überhaupt nicht wirtschaftlich.

–        Wenn diese unrealistischen Vorstellungen von Politiker realisiert würden, würde der Strompreis bei geschätzten 5 – 10 Euro/Kwh liegen;

–        Ohne Kernkraftwerke sind die sozialen Sicherungssysteme der BRD auf Dauer nicht finanzierbar.

–        Diese Politik ist also die denkbar unsozialste Politik, die überhaupt denkbar ist.

Wenn die Finanzkrise mit ihren Auswirkungen auf die gesamtwirtschaftliche Entwicklung und die dabei entstehenden Steuerausfälle zu einer realistischen und gesamtwirtschaftlich vernünftig durchdachten Umwelt-, Energie- und Klimapolitik führen würde, wären ihre Nachwirkungen   zum Vorteil für die Wirtschaft, denn das, was weltweit, aber vor allem in Deutschland, denn hier sind wir weltweit einsame Spitze, durch eine solche Politik an Finanzmitteln eingespart werden könnte, würde alle Verluste, die  durch die Finanzkrise entstanden sind, vor allem die Steuerausfälle, in wenigen Jahren egalisieren.

Herr Hans Werner Sinn hat ein Buch herausgegeben, „Das grüne Paradoxon“. Es ist ein beachtenswertes Buch.

Wolfgang Clement hat den Begriff der „Deutschland AG“  im internationalen Wettbewerb geprägt und in einem Vortrag gefordert, den Weg zur „Deindustriealisierung in Deutschland endlich zu verlassen. Dieser Weg zur „Deindustriealisierung“ führt zwangsläufig zur „Destabilisierung“ der Deutschen Wirtschafts- und Sozialpolitik. Die Folgen dieser Politik sind leicht zu erahnen, ja heute bereits offen zu erkennen.

Altkanzler Helmut Schmidt hat dies erkannt. Er schreibt in der Einleitung seines Buches „Außer Dienst“:

„Salus publica supreme lex“.

Welche Politiker handeln noch danach?

Dr.-Ing. Urban Cleve Dortmund

Related Files




Offizielle Aussage der IEA (Internationale Energie Agentur): Klimaschutz lässt Wirtschaft kollabieren!

Dass dieser enge Zusammenhang existiert, ist allen bekannt. Bekannt ist inzwischen auch, dass CO2 Erzeugung durch den Menschen, das Klima nicht oder jedenfalls nicht messbar beeinflußt. Kyoto hätte -so Prof. Tom Wigley (IPCC Klimatologe und Al Gore Berater)- wenn denn alle Staaten ihre Versprechungen erfüllt hätten, einen gerechneten Einfluß auf die Globaltemperatur von 7/100 °C. (Bis 2050)*. Nicht mal messbar. Jetzt soll dieser Irrsinn im Dezember in Kopenhagen verstärkt werden. 

Kyoto taugt nichts, das Klima ändert sich, ob wir es wollen oder nicht. So pfeifen es inzwischen die Spatzen von den Dächern. Seit 10 Jahren sinken die Temperaturen, der Sonnenaktivität folgend, aber die CO2 Konzentration steigt. Klimaschutz zu fordern und zu versprechen ist daher wohlfeil, aber bleibt Hybris.  

Warum, so fragt sich deshalb der aufgeklärte Zeitgenosse; warum sollen wir uns dann vom Wohlstand verabschieden, unseren CO2 Ausstoß senken, wenn dies nur dazu führt, dass wir unsere Konkurrenzfähigkeit verlieren und wieder in der Armut der vorindustriellen Zeit versinken? Die Antwort kann nur lauten: Die "Klimaschutz"- Agenda hat mit dem Klima nichts zu tun? Ja womit dann? Eine mögliche Antwort wäre: Um Mittel zu bekommen – unter Vorspiegelung falscher Tatsachen- zur Förderung "Erneuerbarer" Energien. Nur das funktioniert auch nicht. Da wurde schon viel, viel Geld zwangsweise bei den Verbrauchern abkassiert und als "Anreiz" in die Taschen weniger gelenkt. Die Bilanz dieser Anreize ist extrem negativ. Jeder Arbeitsplatz bei den Erneuerbaren vernichtet 2,2 Arbeitsplätze in der konventionellen Wirtschaft. So hat es der spanische Ökonom Calzada herausgefunden. (wir berichteten hier darüber) Ähnliches berichten renommierte andere Wirtschaftsinstitute, wie das RWI.  

Was also steckt hinter dieser unseligen Politik, die die deutsche Regierung mit Hilfe der EU so kräftig fördert? Das Wohl des Volkes, das Wohl Europas kann es nicht sein. Aber, was dann? 

Sollte wirklich so eine wirtschaftsfeindliche Politik gefahren werden, wie Sie sich Maurice Strong erster UNEP-Direktor – zu Beginn der Klimadebatte 1992 in Rio-  wünschte: "Besteht nicht die einzige Hoffnung  für diesen Planeten in dem Zusammenbruch der Industriellen Zivilisation?  Liegt es nicht in unserer Verantwortung, dafür zu sorgen, daß dieser Zusammenbruch eintritt?"

Große Teile der politische Klasse behaupten offiziell das Gegenteil zu wollen. Die  eingeleiteten Maßnahmen führen aber genau dahin. Wir sollten sie an ihren Taten messen, nicht an ihren Worten.

Michael Limburg EIKE

* In Wahrheit ergaben die Berechnungen einen Rückgang um 7/1000 °C bis 2050. Dafür wurden für die Erfüllung der Kyotovorgaben bisher knapp 700 Mrd. $ aufgewendet. Quelle: http://www.oekologismus.de/  Man beachte: die Temperatur ändert sich im Tausendstel-Bereich, was offensichtlich in einem weltweiten Massstab nicht messbar ist. 




Wäre ein Aus für den Europäischen Emissionshandel eine Katastrophe?

Die Entscheidung des Europäischen Gerichtshofs den EU-Staaten ein höheres Maß an Autonomie bei der Wahl ihrer Emissionsziele für die Nationale Allokationspläne zuzugestehen wird von einigen Kommentatoren als ein schleichendes Ende der europäischen Emissionshandels interpretiert. Hardliner befürchten, das Europa seine ambitionierten Klimaziele wirtschaftlichen Problemen unterordnet. Auch wenn dieses Urteil noch etwas verfrüht erscheint, so weist diese Entscheidung auf ein fundamentales Problem des europäischen Treibhausgashandels hin. Seine Kosten sind im Vergleich zum Nutzeffekt für das Klima und für die einzelnen Länder extrem hoch. Für klimapolitische Vorreiter war dieses Problem jedoch stets von untergeordneter Bedeutung. Ihnen ging es um Planerfüllung, um auf internationalen Verhandlungen mit dem erreichten prahlen zu können. 

Tatsächlich ist die Idee des Treibhausgashandels bestechend einfach und elegant. Da eine effiziente Verteilung knapper Güter versagt, wenn keine Eigentumsrechte existieren oder einzelnen Individuen zugeordnet werden können, kamen findige Ökonomen vor Jahrzehnten auf die Idee, diesem Manko durch eine künstliche Verknappung bislang öffentlicher Umweltgüter abzuhelfen. Sie versprachen sich davon, dass der Marktmechanismus wieder in Gang gesetzt wird und der Preis für den neugeschaffenen Handelsgegenstand dessen tatsächliche Knappheit signalisiert. Das würde die Unternehmen zu Innovationen und die Konsumenten zur Sparsamkeit motivieren. Gerade in der Umweltpolitik, die ihre Legitimation zu großen Teilen aus der mangelnden Zuordnung von Einkommensrechten zu Umweltgütern zieht, erhoffte man sich mit diesem Verfahren eine rasche Verbesserung der Umweltbedingungen bei gleichzeitig geringerem Kostenaufwand. So elegant der Emissionshandel in der Theorie ist, so anspruchsvoll ist seine Implementierung und seine Wirkung hängt maßgeblich von den Eigenschaften des Umweltproblems ab. Zum einen kann der Emissionshandel seine Vorteile nur dann ausspielen, wenn er alle Schadstoffemissionen aus allen erdenklichen Quellen einschließt, zum anderen kommt es darauf an, dass das zu lösende Umweltproblem tatsächliche eine starre Zielsetzung rechtfertigt. Für einen erfolgreichen Einsatz dieses Instruments ist es maßgeblich, ob die simulierte Verknappung der Umweltinanspruchnahme durch die Wirtschaft tatsächlich der realen Knappheit entspricht. Ist dies nicht der Fall, so äußern sich kritische Stimmen, wirkt der Emissionshandel wie ein Schnellzug, der in den falschen Bahnhof geleitet wird. 

Bei der Einführung des Emissionshandels in Europa wurden diese Bedenken nie besonders ernst genommen. Natürlich gab es immer wieder Bedenkenträger unter den Experten, aber dennoch führte umweltpolitischer Aktivismus zu einer symbolischen Klimapolitik, die in ihrer Bilanz nur hektische Betriebsamkeit statt echter Wirkung gegen den globalen Ausstoss von Treibhausgasen brachte. Auch das eigentliche Ziel des Emissionshandels, die Kosten der Emissionsminderung so niedrig wie möglich zu halten, wurde bei der Umsetzung des Projekts nie ernsthaft verfolgt. Bei den üblichen Versuchen übermäßige Ambitionen mit der Realität von Interessengruppenkompromissen zu kombinieren, wurde das denkbar schlechteste Ergebnis erreicht. Von Anfang an war klar, dass eine Verteuerung der Energie durch den Emissionshandel zum Verlust der Wettbewerbsfähigkeit energieintensiver Industrien in Europa führen würde, mit dem Ergebnis von Standortverlagerungen und einer Mehrnachfrage nach Energiegütern aus dem außereuropäischem Ausland. Während für die Bürger Europas Energie immer teurer wurde und ihnen nichts weiter übrig blieb als den Gürtel enger zu schnallen, verpuffte der Reduktionseffekt bei den Treibhausgase durch die globale Mehrproduktion der Industrie. Kein Wunder, dass die einheimischen Industrien, vor allem in Osteuropa, jetzt den Riegel vor den Verlust der weiteren Wettbewerbsfähigkeit schieben wollen. Aber auch innerhalb Europas wurde das Ziel des Emissionshandels verfehlt, weil man sich nicht auf eine Politik einigen konnte, die alle Sektoren gleichermaßen mit einbezog. Im Ergebnis wenden die Unternehmen und Verbraucher in Europa für die Vermeidung von Kohlendioxid Kosten auf, die sich zwischen den Sektoren bis um den Faktor zehn unterscheiden. Wer wenig Klimaschutz zu hohen Kosten erzwingt, kann sich wahrlich nicht als Klimaschützer bezeichnen. Die EU-Kommission hat dies nicht davon abgehalten, sich trotzdem auf jeder internationalen Klimaschutztagung das Mäntelchen der Führungsposition umzulegen. 

Ohne Beachtung blieb auch die Erkenntnis der Ökonomen, dass der Emissionshandel nur das Instrument der Wahl ist, wenn dem zu bekämpfende Schadstoff tatsächlich erhebliche Schadwirkungen zugeordnet werden können. Doch ist es ein Allgemeinplatz, dass die vermeintliche Klimawirkung des Kohlendioxids nicht von jeder einzelnen Tonne, sondern von der Gesamtmenge in der Atmosphäre abhängt. Starre Zielsetzungen in einem engen zeitlichen Korsett, wie sie der Emissionshandel umsetzen helfen soll, sind daher nicht das angemessene Klimaschutzkonzept. Es ist irrelevant, ob eine bestimmte Minderung heute, in ein zwei Jahren oder auch in einem Jahrzehnt erreicht wird. Wichtig ist allein, dass die Kosten jeder Emissionsminderung nicht höher als die Schäden zusätzlicher Emissionen sind. Ein starrer Zielpfad nimmt jedoch keine Rücksicht auf Wirtschaftskrisen oder Veränderungen der relativen Energiekosten, er schreitet voran, koste es was es wolle. Auch hier ist es kein Wunder, dass sich die gebeutelten Unternehmen in Polen und Estland die engen Fesseln der europäischen Kommission nicht gefallen lassen wollen. Deren Kosten sind im Vergleich zu den Nutzen der Emissionsminderungen enorm. Hier wäre ein flexibler Ansatz notwendig gewesen, der von vornherein die Nutzen-Kosten-Bilanz der Klimapolitik nicht aus dem Auge verliert. 

Vor diesem Hintergrund kann ein Aus für den europäischen Emissionshandel wahrlich nicht als Katastrophe bezeichnet werden. Selbst unter der Prämisse eines dringenden klimapolitischen Handlungsbedarfs würde dies die Chance für eine Öffnung für neue, kreativere Klimaschutzstrategien öffnen, die vor allem der Anpassung an unvermeidliche Probleme klimatischer Veränderungen, seien sie nun durch den Menschen verursacht oder nicht, mehr Platz einräumen. Tatsächlich gilt es die Märkte für mehr Innovationen im Energiebereich zu fördern, was aber nicht viel mehr bedeutet, als die heutigen Fesseln der Industrie- und Energiewirtschaft zu lockern, aber auch unwirtschaftliche Subventionen rigoros abzubauen. Wer Effizienz im Klimaschutz erwartet, der sollte nicht engstirnig auf die schlechte Umsetzung eines an sich guten Instruments wie den Emissionshandels pochen, sondern auf den Wettbewerb einer Vielzahl von Ideen hoffen, auch wenn diese in den Lehrbüchern nicht so prominent vertreten sind. So unsicher wie unsere Klimazukunft ist, so vermessen sind Patentrezepte, vor allem dann, wenn sie nicht einmal das bekannte Wissen berücksichtigen. Den Artikel der SZ finden Sie hier

Steffen Hentrich
Referent

Friedrich-Naumann-Stiftung für die Freiheit
Liberales Institut

 Lesen Sie dazu auch den Artikel der New York Times. EU EMISSIONS TRADING SCHEME MAY DESTROY EUROPE’S COMPETITIVENESS