1

Träum weiter Deutschland! Politisch korrekt gegen die Wand!

Nach Lektüre dieses Buches dürften die meisten Leser nur eines denken: Möge das alles doch, bitte, nicht wahr sein! Doch es steht zu fürchten, dass auch diese Arbeit Günter Ederers – wie stets, wenn er zu Stift oder Kamera greift – die Wirklichkeit verlässlich abbildet. Die hier akribisch und unbestechlich vorgelegte Faktensammlung zur Lage der Nation zeigt: Die große Mehrheit der Bürger unseres Landes lebt ganz augenscheinlich in einem eigenwilligen Zustand der schwersten politischen und gesellschaftlichen Realitätsverweigerung. Die bange Hoffnung der lichten Momente, alles werde so schlimm schon nicht sein oder sich jedenfalls irgendwie schmerzlos wieder fügen, diese Hoffnung muss an den harten Wirklichkeiten brechen. Die verbreitete Illusion von einer –  natürlich politisch korrekten – Herstellung allgemeinen Weltenglücks wird an diesen, von Ederer erbarmungslos zusammengetragenen deutschen Realitäten zerschellen.

Von welchen Realitäten also erfährt der Leser hier, diesseits der öffentlich-rechtlichen und linientreu-opportunistischen Hofberichterstattung? Mit bulliger Wucht holt Ederer aus zu einem historischen, systematischen und empirischen Säbelhieb auf die deutsche Gegenwartsbefindlichkeit. Und der vorgetragene Schlag auf diese Gesellschaft, die schon so lange auf den angemahnten „Ruck“ wartet, ist ebenso notwendig, wie er derzeit – leider meist noch alternativlos – seinesgleichen sucht.  Wie also kam es zu dieser Flucht aus der Realität in den Traum?

Die erste wesentliche Wurzel dieser deutschen Realitätsverweigerung verortet Ederer bereits in der Kanzlerschaft Ottos von Bismarck. Dieser hatte bekanntlich angesichts der wachsenden staatlichen Legitimationskrise des 19. Jahrhunderts beschlossen, die durch physische Gewalt absehbar nicht mehr beherrschbaren Massen politisch stattdessen dadurch – so wörtlich – „zu bestechen, den Staat als soziale Einrichtung anzuschauen, die ihretwegen besteht und für ihr Wohl sorgen möchte“. Mit diesem agitatorischen Handstreich des eisernen Kanzlers war der Grundstein dafür gelegt, dass den Deutschen seither – faszinierender Weise ungeachtet der jeweils wechselnden Staatsform – immer wieder erfolgreich vorgespiegelt werden konnte, politische Macht werde, ganz selbstlos, stets nur zu ihrem je eigenen Wohl ausgeübt. Seit jener Zeit glaubt der Deutsche aber nicht nur allzu gerne, politische Macht diene seinem sozialen Wohl. Seit jener Zeit erwartet er darüber hinaus von seinen politischen Führern geradezu, genau diese Staatslegitimation immer wieder hergesagt zu hören. Ein solches ideologisches Geben und Nehmen konnte naturgemäß über anderthalb Jahrhunderte nicht ohne Konsequenzen bleiben.

Aus der preußischen Staatsdoktrin, dass der Befehlende für das Wohl seines Untergebenen verantwortlich sei, konnte sich in der Folge demnach ganz nahtlos die Vorstellung entwickeln, jene staatliche Fremdverantwortung müsse umso besser gelingen, je mächtiger der Befehlende sei. Die unter dieser Annahme konsequent zunehmende Übertragung von immer mehr Eigenverantwortung an den Staat musste dann, spiegelbildlich, zum Einfalltor für auch immer größere politische Machtansprüche werden. In die somit vorbereitete bürgerliche Bequemlichkeitserwartung an den Staat fügte sich das ideologische Angebot Ernst Forsthoffs aus dem Jahre 1938 nur zu trefflich, am besten doch gleich die ganze menschliche „Daseinsvorsorge“ einem allzuständigen Staat zu überantworten.

So nahm das Drama seinen weiteren Lauf. Goebbels Propaganda wusste die sozialen „Errungenschaften“ des nationalsozialistischen Staates für diese Erwartungshaltung trefflich zu verkaufen: Die Einführung des Kindergeldes, die Steuerfreiheit von Nacht- und Wochenendarbeit, die Abschaffung der Studiengebühren und die progressiven Steuern für höhere Einkommen; alles fügte sich in jenen Plan, den Hitlers Finanzstaatssekretär Fritz Reinhard auf den Begriff von der „unbedingten sozialen Gerechtigkeit“ für alle brachte.

Pikant an dieser historischen Herleitung des „sozialen Staates“ ist nicht nur, wenn Ederer die ideologischen Identitäten der nationalsozialistischen Vorgehensweise mit denen der sich „antifaschistisch“ nennenden DDR beschreibt; denn gerade die wollte bekanntlich ebenso mit „Volkseigentum in Volkeshand“ alle elementaren menschlichen Grundbedürfnisse staatlicherseits befriedigt wissen. Pikant sind umso mehr die Parallelen zwischen jenen (bezeichnenderweise auch in Staatsbankrotten geendeten) historischen deutschen Politikstrategien und denen des heute aktuell agierenden bundesrepublikanischen Staatswesens.

Denn nicht nur Hitlers Reichsfinanzminister Johann Ludwig Graf Schwerin von Krosigk war de facto ebenso pleite wie Honeckers Finanzexperten Ernst Höner, Alexander Schalck-Golodkowski oder Gerhard Schürer. Auch die Finanzmanager der Bundesrepublik Deutschland lebten und leben bekanntermaßen konsequent über die Verhältnisse der eigenen Bevölkerung: Kopfschüttelnd bemerkt Ederer, dass ausgerechnet politisch in Amt und Würden gehievte Experten wie die Vorstandsprecherin Ingrid Matthäus-Maier der Kreditanstalt für Wiederaufbau oder Peer Steinbrücks Staatssekretär Jörg Asmussen mit ihren Entscheidungen anlässlich der letzten sogenannten Finanzkrise konsequent Unsummen von Steuergeldern ihrer Bürger im Nichts versenkten – ohne jede persönliche nachteilige Konsequenz. Die seit Bismarck eingeübte bürgerliche Faktenverdrängung wiegt auch den Gegenwartsdeutschen im irrigen Gefühl, in sozialen Fragen durch Politikerhand bestens versorgt und abgesichert zu sein. Wie schlecht dieser Schlaf tatsächlich ist, zeigt Ederers Blick auf die personelle Besetzung des Verwaltungsrates der staatlichen Kreditanstalt für Wiederaufbau; wohl kaum sonst ein Banker hat in der letzten Krise mehr finanzielle Fehlentscheidungen getroffen, als die dort als Bankenmanagement versammelte ‚creme de la creme‘ der deutschen Politeliten.

Trotz alledem ist der Traum von der staatlichen Lösung aller Probleme in Deutschland noch immer nicht ausgeträumt. Im Gegenteil. Die politische Propaganda bedient unverdrossen und erwartungsgerecht den Glauben der Massen an ein „Marktversagen“. Und die Bevölkerung lässt sich von den zentralstaatlichen Glücksverheißungen nur allzu gerne in immer neuen Diskussionsrunden betören. Von einer solchen Diskussion mit Peer Steinbrück in Passau berichtet Ederer gleich an mehreren Stellen. Und es macht mehr als nachdenklich, seinen Bericht über die dortige Rhetorik des gewesenen Bundesfinanzministers lesen zu müssen. Denn wenn schon ein welterfahrener Journalist den Unverfrorenheiten dieses Gegenübers fassungslos gegenübersitzt; welcher Wille zur Macht und welche schier grenzenlose Illusionistenbereitschaft mögen hinter diesem Vorgehen des Staatsvolkswirtes noch lauern?

Den perfiden Mechanismus, durch die notorisch politische Verfolgung der „guten Zwecke“ geradewegs in die Staatspleite zu zielen, skizziert Ederer ebenso knapp wie zutreffend. Nur wenn und weil ein Staat sich ständig für politisch motivierte Subventions- und Förderungsprogramme immer weiter überschuldet, können auf der anderen Seite nämlich erst jene gigantischen Guthaben entstehen, deren Existenz dann von denselben – Scheins wieder nur gutmeinenden – Politikern populistisch als Supergewinn der marktexzessiv geldgebenden Großbanken verteufelt wird: „Damit schließt sich der unheilvolle Kreis. Weil die Bevölkerung erst mit falschen Lösungen und irreführenden Parolen berieselt wird, ergeben Umfragen, dass der Staat als Retter angesehen wird. Weil der Staat als Retter gesehen wird, verlangen Politiker mehr Einfluss des Staates auf die Wirtschaft. Erhält der Staat mehr Einfluss, verschlechtern sich die wirtschaftlichen Daten, verschärfen sich die sozialen Konflikte.“

Je komplizierter die Verhältnisse durch den somit allüberall (hier besteuernd und dort subventionierend) intervenierenden Staat gestaltet werden, desto hilfloser und überforderter steht der einzelne Bürger der Lage gegenüber. Statt aber endlich Abhilfe zu fordern, fällt er wieder und wieder reflexhaft zurück in den bequemen und blind-unkritischen Glauben, der Staat werde ja zuletzt schon alles für ihn richten. Und die politisch korrekten Meinungsmacher wissen, diesen Glauben durch notorisches Propagieren der beharrlich eingeübten Staatsziele zu stützen: Nach dem sich langsam verbrauchenden Bismarck’schen Staatszweck vom immer mehr „Sozialen“ stehen nun zunehmend die Umwelt und ihr Schutz in allen denkbaren Erscheinungsformen zur Legitimation von allfälligem Staatshandeln bereit. Während hier der kanzlerinberatende Klimaprotagonist Joachim Schnellnhuber erklärt, alle Völker der Welt seien unfähig, das Erdklima zu schützen (nur er könne es?), verkauft Frank H. Asbeck äußerst lukrativ mit Steuerzahlers Unterstützung Solartechnik und erfreuen die Grünpolitiker ihr ohnehin schon gut verdienendes Klientel mit weiteren klimafreundlichen Staatssubventionen aus einem Gesetz, das Energie für erneuerbar halten will.

Egal, wie sich der gläubig träumende Bürger dreht und wendet: Bezahlt wird alles stets mit seinem Geld. Die Chancen, das eigene Leben selbst zu gestalten und die überschaubare Welt vor der eigenen Tür besser und lebenswerter zu gestalten, schwinden unter diesen Verhältnissen immer mehr. Dass in dieser Welt, die von Berlin aus das Weltklima, nicht aber die Familie schützen will, dann auch immer weniger eigene Kinder geboren werden, verschärft auch nach Ansicht Günter Ederers die soziale Lage Deutschlands erheblich. Nachdem die Bundeskanzlerin kürzlich schon Thilo Sarrazins kleine Wahrheiten über Integrationspolitik „nicht hilfreich“ fand, bleibt abzuwarten, was sie über jene vielfachen Wahrheiten Günter Ederers verlauten lässt, sobald sie auch sein Buch nicht gelesen haben wird.

Mit diesen tragischen Verstrickungen und Verwicklungen aus Realität und Illusion sind die kritischen Beobachtungen Günter Ederers indes noch lange nicht an ihrem Endpunkt angelangt. Staatsbanken und Staatsunternehmen schicken sich auch in der Bundesrepublik nach wie vor an, die „Daseinsvorsorge“ der gutgläubigen Bürger zu gewährleisten. Doch in dem Treiben, das Milliarden um Milliarden Steuergelder (also: im Schweiße ihres Angesichtes produziertes Bürgereinkommen) verschiebt, haben alle Beteiligten längst rettungslos den Überblick verloren. Während auf der einen, beschenkten Seite schon der Beruf des „Förderrichtlinienberaters“ entstanden ist, um dort das Einheimsen von Subventionen zu optimieren, werden auf der anderen, einsammelnden Seite von einer – ebenso überforderten – Steuerverwaltung beim Mitteleintreiben unbedachtsam Existenzen vernichtet. Rechtsschutz? Vorläufig Fehlanzeige, pardon; die zuständige Richterin weilt wiederholt im Mutterschaftsurlaub! Die detaillierte Schilderung der Einzelfälle macht hilflos und zornig; sie zeigt jedoch auch das bittere Paradox für den staatsgläubigen Bürger: „Wir begeben uns freiwillig in die Hände von Vater Staat, sind dann aber zu Tode erschrocken, wenn wir feststellen, dass dieser Vater sich als Amtmann zu erkennen gibt“.

Die Dramen des verbeamteten Staates sind zuletzt nicht nur seine faktische Unbezahlbarkeit und die längst eingetretene, aber träumend verleugnete Überschuldung. Es ist die Tatsache, dass interessierte und einflussreiche Eliten sich den staatlichen Machtapparat vielerorts zunutze machen, um ihre eigenen ideologischen und/oder wirtschaftlichen Partikularinteressen rücksichtslos gegen die ahnungslose Mehrheit durchzusetzen, was ihnen (Ludwig Erhard hatte es gewusst) in einer wahrhaften Marktwirtschaft nie gelingen könnte. Den einzigen Ausweg aus diesen Dilemmata – und mithin die einzige Chance zu einem Erwachen aus dem kollektiven Staatsbeglückungstraum – sieht Ederer in einer Wiederentdeckung einer ernsthaften individuellen Freiheit und Verantwortung.

Einen unerwarteten Hoffnungsschimmer mag man darin erblicken, dass inzwischen immer mehr Bürger den Großplanungen der Behörden nicht mehr blind Glauben schenken mögen. Denn auch wenn beispielsweise der spät inszenierte Protest gegen „Stuttgart 21“ personell von eher merkwürdigen Protagonisten angeführt wurde, so zeigt er doch jedenfalls dies: „Auf der einen Seite wird der Staat als Garant für das Allgemeinwohl gesehen und gestärkt, auf der anderen laufen die Bürger Sturm gegen die Entscheidungen, die ihnen die Bürokratie im Auftrag des Staates oktroyiert.“

Damit das gegenwärtige Staatskonstrukt Deutschlands nicht wieder (wie seine Vorgänger) krachend gegen die Wand fährt, bedarf es nach Auffassung Ederers einer Art gesellschaftlicher Vollbremsung mit anschließendem Bekenntnis zu weniger Staat, zu mehr Wettbewerb, zu mehr Eigenverantwortung, zu weniger Gleichheit und zu mehr Freiheit. Denn unseren gegenwärtigen Staat kennzeichnen nach Ederers überzeugender historisch-empirischer Analyse vier tragische konstruktive Fehler: (1.) Eine Überheblichkeit und angemaßte Autorität der Eliten wie zu Kaisers Zeiten; (2.) eine wirtschaftspolitische Unsicherheit im Umgang mit wirtschaftlichen Schieflagen wie in der Weimarer Republik; (3.) eine Umverteilungsbereitschaft des Staates wie zu Zeiten des nationalen Sozialismus und (4.) die utopische Denkweise von Gleichmacherei wie in der DDR.

Wer die weitere politische und gesellschaftliche Entwicklung Deutschlands kritisch verfolgen und begleiten will, der kommt an Günter Ederers kenntnisreicher und profunder Analyse unseres Landes schlechterdings nicht vorbei. Sein Buch ist insofern alternativlos hilfreich.

Carlos Gebauer am 14. März 2011 die Originalrezension erschien auf eigentümlich frei

Wie sehr den Klimalarmisten dieses Buch bitter aufstösst zeigt dieser Beitrag auf der Klimaretter Website




Nuklearunfall Fukushima – einfach und genau erklärt!

 

Info IV Update vom 26.3.11

New Scientist Blog zur Hintergrudnstory dieses Artikels von Joseph Oehmen:

„How Josef Oehmen’s advice on Fukushima went viral“ (hier)

 

Info III vom 16.3.11 

Update zum Fukushima-Störfall von Klaus Humpich hier

und hier ein Kommentar auf dem Blog der Webseite der TAZ taz.de  „Hirnschmelze“ von Detlef Guertler

Info II vom 15.3.10 

Wegen des Aufsehens den dieser Artikel im Internet erregt hat, wurde er vom offiziellen MIT NSE Nuclear Information Hub übernommen und in modifizierter Form erneut ins offizielle MIT Netz gestellt. Sie finden ihn hier

Info I vom 15.3.10

Der Artikel wurde am 12.3.11 in Netz gestellt. Inzwischen ist viel Schlimmes in Japans Kernkraftwerken passiert. Damit stimmen einige Äußerungen bzw. Hoffnungen in dem Beitrag, nicht mit der Realität überein. Wir arbeiten an einem Update!

 

Text

Neben den verlässlichen Quellen wie IAEA und WNN gibt es eine unglaubliche Menge von Desinformation und Übertreibungen im Internet und den Medien über die Situation im Kernkraftwerk Fukushima. Im BNC Diskussionsforum „- BNC post Discussion Thread – Japanese nuclear reactors and the 11 March 2011 earthquake – werden viele technische Einzelheiten berichtet, auch regelmäßige Aktualisierungen. Aber wie steht es mit einer Zusammenfassung für Laien? Wie bekommen die meisten Menschen eine Vorstellung davon, was wann passierte und welche Konsequenzen daraus folgen?

Im Folgenden gebe ich eine Zusammenfassung der Lage wieder, die Dr. Josef Oehmen am 12.3.11 geschrieben hat, ein Wissenschaftler am MIT, Boston. Er ist ein promovierter Wissenschaftler, dessen Vater ausgiebig Erfahrung in der deutschen Kernkraft-Industrie gesammelt hat. Dieser Beitrag ist zuerst von Jason Morgan heute Nachmittag gesendet worden, und er hat mir freundlicherweise erlaubt, den Beitrag hier wiederzugeben. Ich halte es für sehr wichtig, dass diese Information weithin verstanden wird.Ich schrieb meinen Text am 12. März, um Sie zu beruhigen wegen der Probleme in Japan in Bezug auf die Sicherheit von Kernkraftwerken. Vorneweg: die Lage ist ernst, aber unter Kontrolle. Und der folgende Text ist lang! Aber Sie werden nach der Lektüre mehr über Kernkraftwerke wissen, als alle Journalisten auf der Welt zusammengenommen.

Es hat keine signifikante Abgabe von Radioaktivität stattgefunden und es wird auch keine geben!

Mit „signifikant“ meine ich eine Strahlungsmenge, die man –  sagen wir mal – auf einem Langstreckenflug aufnimmt, oder wenn man ein Glas Bier trinkt, das aus einer Gegend mit hoher natürlicher Hintergrundstrahlung kommt.

Ich lese jede Nachricht über den Vorfall seit dem Erdbeben. Es hat keine einzige (!) Meldung gegeben, die genau und fehlerfrei gewesen wäre (Teil des Problems ist auch die japanische Schwäche der Informationspolitik). Mit „fehlerfrei“ beziehe ich mich nicht auf tendenziösen Atomkraft-Nein-Danke-Journalismus – wie er heutzutage ganz normal ist. Ich meine offensichtliche Irrtümer über die Physik und die Naturgesetze, wie auch grobe Fehlinterpretationen von Fakten, weil ein offensichtlicher Mangel besteht an grundlegendem Verständnis, wie Kernreaktoren gebaut und betrieben werden. Auf CNN habe ich einen 3-seitigen Bericht gelesen mit je einem Fehler pro Absatz.

Zuerst ein paar grundlegende Dinge, bevor wir ins Eingemachte gehen.

 

Bauart des Fukushima Kernkraftwerks

Das KKW Fukushima hat sogenannte Siedewasser-Reaktoren, engl. kurz BWR (= Boiling Water Reactor). Siedewasser-Reaktoren ähneln einem Dampfkochtopf. Der Kernbrennstoff heizt das Wasser, das Wasser kocht und erzeugt Dampf, der Dampf treibt dann Turbinen, die Elektrizität erzeugen. Dann wird der Dampf heruntergekühlt und rück-kondensiert in Wasser. Das Wasser wird im Kreislauf wieder zurückgeschickt und erneut vom Kernbrennstoff erhitzt. Der Dampfkochtopf wird mit etwa  250 °C betrieben.

Kernbrennstoff ist Uran-Oxid. Uran-Oxid ist ein keramischer Stoff mit dem sehr hohem Schmelzpunkt von etwa 3000 °C. Der Treibstoff wird als Pellets hergestellt (man stelle sich kleine Röhrchen etwa so groß wie Legosteine vor). Diese Stückchen werden in ein langes Rohr aus  Zirkonium-Legierung gesteckt und dicht versiegelt. Letzteres hat einen Schmelzpunkt von 2200 °C. Das Ergebnis heißt Brennstab. Die Brennstäbe werden in größeren Bündeln zusammengefasst und eine Anzahl von Bündeln werden in den Reaktor gesteckt. Alle Bündel zusammen heißen „Kern“. (engl.: “the core”)

Die Zirkoniumhülle ist der erste Schutzwall (engl.: „Containment“). Hier wird der radioaktive Brennstoff von der Außenwelt abgeschottet.

Dann wird der Kern in den Druckbehälter (engl.: „pressure vessel“) gesteckt. Das ist der Dampfkochtopf, wie oben erwähnt. Der Druckbehälter ist der zweite Schutzwall. Er besteht aus einem massiven Stück Topf, der so gebaut worden ist, dass er den Kerntemperaturen von mehreren hundert Grad °C standhält. Das ist für Situationen vorgesehen, wo [bei einem Ausfall] die Kühlung zu einem gewissen Zeitpunkt wiederhergestellt werden kann.

Die gesamte „Hardware“ des Kernreaktors – der Druckbehälter und alle Rohre, Pumpen, Kühlmittel(Wasser)-Speicher werden dann hinter dem dritten Schutzwall eingeschlossen. Der dritte Schutzwall ist hermetisch (luftdicht) abgeschlossen, in einem sehr dicken Behältnis von härtestem Stahl. Der dritte Schutzwall wurde für einen einzigen Fall entworfen, gebaut und getestet: Auf unbestimmte Zeit einen komplett geschmolzenen Kern zu umschließen. Zu diesem Zweck ist ein großes und dickes Stahlbetonbecken unter den Druckbehälter (zweiter Schutzwall) geschoben und mit Graphit gefüllt. Alles befindet sich innerhalb des dritten Schutzwalles. Das ist der sogenannte „Kernkäfig“ (engl.: „core catcher“). Wenn der Kern schmilzt und der Druckbehälter birst (und gegebenenfalls schmilzt) wird hier der geschmolzene Brennstoff und alles andere Material aufgefangen. Der Kernkäfig ist so gebaut, dass sich der Kernbrennstoff verteilt und abkühlen kann.

Korrektur CoreCatcher: Diese japanischen AKW haben keine Core Catcher, sind aber aus Gründen des Erdbebenschutzes auf massive Gesteinsschichten gebaut. Mit Dank an Leser DH und andere

Dieser dritte Schutzwall wird anschließend vom Reaktor-Gebäude umgeben. Das Reaktor-Gebäude ist eine äußere Hülle, die nur dazu gedacht ist, Schutz gegen das Wetter zu bieten, sonst nichts. (Dieser Teil ist durch die Explosion zerstört worden, mehr dazu später).

Grundlagen der nuklearen Reaktionen

Uranbrennstoff erzeugt Hitze durch Atomspaltung. Große Uran-Atome werden in kleiner Atome gespalten. Dadurch entsteht Hitze plus Neutronen (ein Atomteilchen). Wenn ein Neutron ein anderes Uranatom trifft, zerteilt sich dieses und erzeugt noch mehr Neutronen und so weiter. Das nennt man eine nukleare Kettenreaktion.

Wenn man also eine Menge von Brennstäben aneinander packte, gäbe es rasch eine Überhitzung und nach etwa 45 Minuten ein Schmelzen der Brennstäbe. Es muss hier gesagt werden, dass Kernbrennstoff in einem Kernreaktor niemals eine Atomexplosion wie in einer Atombombe verursachen kann. Ein Atombombe zu bauen, ist wirklich sehr schwierig (fragen Sie mal im Iran nach). In Tschernobyl wurde die Explosion verursacht durch exzessiven Druckaufbau, eine Knallgasexplosion und den nachfolgenden Bruch aller Schutzwälle. Dadurch wurde geschmolzenes Kernmaterial in die Umwelt geschleudert (es war eine „schmutzige Bombe“). Warum das in Japan überhaupt nicht passieren kann, lesen Sie später.

Die Reaktor-Ingenieure benutzen zur Steuerung der Kettenreaktion sogenannte „Steuerstäbe“ (engl.: „moderator rods“). Die Steuerstäbe fangen die Neutronen ein und unterbrechen die Kettenreaktion sofort. Ein Kernreaktor ist so gebaut, dass im Normalbetrieb alle Steuerstäbe herausgefahren sind. Das Kühlwasser nimmt die Hitze auf (und wandelt sie in Dampf und Elektrizität um), im gleichen Maße, wie der Kern die Hitze erzeugt. Es gibt eine große Sicherheitsmarge bei der Standardbetriebstemperatur von 250 °C

Das Problem ist, dass nach der Einführung der Steuerstäbe und dem Abstoppen der Kettenreaktion der Kern noch weiter Hitze erzeugt. Im Uran ist die Kettenreaktion „gestoppt“. Aber eine Menge von radioaktiven Zwischenelementen war vom Uran bei der Spaltung erzeugt worden, besonders Cäsium und Jod-Isotope. Das heißt radioaktive Isotope dieser Elemente, die sich weiter in kleinere, nicht-radioaktive Atome spalten und dabei Hitze erzeugen. Sie werden nicht mehr weiter vom Uran erzeugt (nachdem der Uranzerfall durch Einfahren der Bremsstäbe gestoppt ist) und werden immer weniger. Der Kern kühlt sich im Verlauf mehrerer Tage ab, bis diese radioaktiven Zwischenelemente zerfallen sind.

Diese Restwärme verursacht derzeit die Kopfschmerzen.

Also besteht die erste „Art“ von radioaktivem Material aus dem Uran in den Brennstäben und den Zerfalls-Zwischen-Produkten, in die sich das Uran spaltet. Alles geschieht innerhalb der Brennstäbe (Cäsium und Jod).

Nun wird noch eine zweite Art von radioaktivem Material erzeugt, außerhalb der Brennstäbe. Der allergrößte Unterschied vorweg: Diese radioaktiven Materialien haben eine sehr kurze Halbwertzeit, d. h. sie zerfallen sehr rasch in nicht-radioaktives Material. Mit „rasch“ meine ich binnen Sekunden! Wenn also solche Radioaktivität in die Außenwelt gelangt, JA, Radioaktivität ist ausgetreten, und NEIN, die ist überhaupt nicht gefährlich. Warum? Weil sie sich schon in nicht-radioaktive Elemente zerteilt haben, während sie „RADIOAKTIVE KERNTEILCHEN“ buchstabiert haben. Diese radioaktiven Elemente sind N-16, das radioaktive Isotop (oder die Version) von Stickstoff (in der Luft). Die anderen sind Edelgase wie Xenon. Woher sind die gekommen? Wenn Uran zerfällt, erzeugt es ein Neutron (siehe oben). Die meisten dieser Neutronen werden auf andere Uranatome treffen und die Kettenreaktion aufrecht erhalten. Einige aber verlassen den Brennstab und treffen auf Wassermoleküle die im Wasser gelöste Luft. Dann kann ein nicht-radioaktives Element das Neutron einfangen und selber radioaktiv werden. Wie oben schon beschrieben, wird es rasch (binnen Sekunden) das Neutron wieder loswerden und zu seiner schönen Ursprungsform zurückkehren.

Diese zweite Art von Strahlung ist sehr wichtig, wenn wir später über die in die Umwelt abgegebene Radioaktivität sprechen.

Was ist in Fukushima passiert

Ich möchte die Hauptpunkte zusammenfassen. Das Erdbeben in Japan war 7 Mal stärker als das schlimmste Erdbeben, für welches das Kernkraftwerk ausgelegt war. (Die Richter-Skala ist logarithmisch, der Unterschied zwischen 8,2 – dafür war die Anlage ausgelegt – und den tatsächlichen 8,9 beträgt 7 mal, nicht 0,7). Ein Lob für die japanischen Ingenieure. Alles hielt stand.

Als die Erde mit einer Stärke von 8,9 (jetzt auf 9,0 hochgestuft) bebte, schalteten sich alle Kernreaktoren automatisch ab. Binnen Sekunden nach Beginn des Bebens fuhren die Bremsstäbe in den Kern und die Kettenreaktion des Urans stoppte. Jetzt musste das Kühlsystem die Restwärme abführen. Die Restwärme beträgt etwa 3% der Wärmelast im Normalbetrieb.

Das Erdbeben hatte die externe Stromzufuhr des Kernreaktors zerstört. Das ist einer der ernsthaftesten Störfälle in einem Kernkraftwerk und dementsprechend widmet man sich dem „Blackout“ der Anlage mit äußerster Sorgfalt beim Entwurf des Notstromversorgung. Der Strom wird zum Betreiben der Pumpen für die Kühlung benötigt. Nach Abschalten des Kraftwerks liefert es ja keinen Strom mehr für den Eigenbedarf.

Das ging für etwa eine Stunde gut. Eine Reihe von Notstromdieseln schaltete sich auf und erzeugte die nötige Elektrizität. Dann kam der Tsunami, viel größer als man vorhergesehen hatte, als die Anlage gebaut worden war (siehe oben: Faktor 7). Der Tsunami fegte die Diesel-Notstromaggregate weg.

Beim Entwurf eines Kernkraftwerks folgen die Ingenieure einer Philosophie namens „Tiefen-Verteidigung“. Das bedeutet zuvörderst, dass man alles so baut, dass es der größten anzunehmenden Katastrophe standhalten kann. Sodann, dass die Anlage so entworfen wird, dass man mit jedem Unfall (wenn er denn trotzdem passiert) nacheinander fertig werden kann. Ein Tsunami, der die gesamte Notstromversorgung wegfegt, ist so ein Fall. Die letzte Verteidigungslinie besteht darin, alles innerhalb des Reaktors hinter den dritten Schutzwall zu packen, mit allem drin, was auch immer gefährlich werden könnte: Bremsstäbe ein- oder ausgefahren, Kern geschmolzen oder nicht.

Nach Ausfall der Diesel-Generatoren haben die Reaktor-Bediener die Notbatterien angeschaltet. Die Batterien sind als Rückfallmöglichkeit für die Notstromerzeugung vorgesehen gewesen, um den Kern für 8 Stunden zu kühlen. Das hat funktioniert.

Innerhalb der 8 Stunden musste eine weitere Stromversorgung gefunden und angeschlossen werden. Das Stromnetz war wegen des Erdbebens ausgefallen. Die Diesel-Notstrom-Aggregate vom Tsunami zerstört. Also wurden mobile Diesel-Notstrom-Aggregate herangeschafft.

Und von da an ging es mächtig schief. Die externen Notstromgeneratoren konnten nicht an das Anlagen-Stromnetz angeschlossen werden (Die Steckverbindungen passten nicht). Daher konnte nach dem Leeren der Batterien die Restwärme nicht mehr abgeführt werden.

Jetzt führten die Bediener ein Notfall-Verfahren durch, das für den „Verlust der Kühlung“ vorgesehen ist. Es ist ein Schritt in der „Tiefenverteidigung“. Eigentlich hätte der Strom für die Kühlung nicht völlig ausfallen dürfen, aber es geschah dennoch, daher zogen sich die Bediener auf die nächste Verteidigungslinie zurück. So schrecklich das auch für uns klingen mag, es ist Bestandteil des alltäglichen Sicherheitstrainings der Bediener, alles durchzuspielen bis zur Kernschmelze.

Zu diesem Zeitpunkt hat man eine Kernschmelze befürchtet. Weil der Kern (nach Stunden oder Tagen) schmelzen wird, wenn die Kühlung nicht wiederhergestellt werden kann und dann käme die letzte Verteidigungslinie, der Kernkäfig, zugleich dritter Schutzwall, ins Spiel.

Doch noch wollte man zu diesem Zeitpunkt die Kern-Erhitzung steuern und sicherstellen, dass der erste Schutzwall (Die Zirkonium-Röhren mit dem Kernbrennstoff) und der zweite Schutzwall (der Druckbehälter) intakt und so lange wie möglich im Betrieb bleiben sollten, um den Ingenieuren die Zeit zum Reparieren des Kühlsystems zu verschaffen.

Weil das Kühlen des Kerns eine komplizierte Sache ist, hat der Reaktor verschiedene Kühlsysteme, jedes in mehrfacher Auslegung (das Reaktorwasser-Reinigungs-System, das Abführsystem für die Zerfallswärme, die Kühlung der Kern-Ummantelung, das Ersatz-Flüssigkeitskühlsystem, das Notkühlsystem für den Kern). Welches davon wann versagte oder auch nicht, ist derzeit nicht klar.

Jetzt stellen Sie sich unseren Dampfkochtopf auf dem Herd vor, niedrige Hitze, aber immer noch eingeschaltet. Die Bediener nutzen jede ihnen noch verbliebene Kühlkapazität, um so viel wie möglich Hitze abzuführen, aber der Druck steigt an. Jetzt gewinnt die Sicherstellung des ersten Schutzwalles oberste Priorität (die Temperatur der Brennstäbe unter 2200°C halten), als auch des zweiten Schutzwalles, des Druckbehälters.  Um den Druckbehälter zu erhalten (zweiter Schutzwall), musste der Druck zeitweilig reduziert werden. Weil die Fähigkeit dazu in einem Notfall so wichtig ist, hat der Reaktor 11 Druck-Reduzier-Ventile. Der Bediener muss nun anfangen, immer wieder Dampfdruck abzulassen. Die Temperatur zu diesem Zeitpunkt betrug etwa 550°C.

Das ist der Punkt, an dem die Meldungen von einem „Strahlungsleck“ zu kursieren begannen.

Ich glaube, oben erklärt zu haben, warum das Dampfablassen theoretisch das gleiche ist, wie Strahlung in die Umwelt abzulassen, auch warum das so ist, und warum es nicht gefährlich ist. Der radioaktive Stickstoff wie auch die Edelgase stellen keine Gefahr für die menschliche Gesundheit dar.

Irgendwann bei diesem Druckablassen ereignete sich die Explosion. Die Explosion fand außerhalb des dritten Schutzwalles (der „letzten Verteidigungslinie“) im Reaktorgebäude statt. Man erinnere sich: das Reaktorgebäude hat keine Funktion zur Zurückhaltung von Radioaktivität. Noch ist nicht klar, was passierte, aber hier ist ein wahrscheinlicher Ablauf: Die Bediener hatten sich für das Ablassen von Dampf aus dem Druckbehälter entschieden, aber nicht direkt in die Umwelt, sondern in den Raum zwischen dem dritten Schutzwall und dem Reaktorgebäude (um dem Dampf mehr Zeit zur Entspannung zu geben). Das Problem dabei ist, dass bei der hohen Temperatur, die der Kern inzwischen erreicht hatte, die Wassermoleküle sich in Wasserstoff und Sauerstoff zerlegen konnten  – in hochexplosives Knallgas. Und das ist ja dann auch explodiert, außerhalb des dritten Schutzwalles und zerstörerisch für das Reaktorgebäude. Diese Art von Explosion fand in Tschernobyl statt, aber innerhalb des Druckbehälters, der schlecht konstruiert war und unsachgemäß von den Bedienern gesteuert wurde. Das ist in Fukushima niemals eine Gefahr gewesen. Das Knallgasproblem ist ein großes, wenn man ein Kraftwerk konstruiert (es sei denn, man ist Sowjet-Russe). Deshalb wird der Reaktor so entworfen, dass das nicht innerhalb der Schutzummantelung passieren kann. Es passierte außerhalb und unabsichtlich, aber es passierte. Es geschah und stellte keine Gefahr für den Schutzwall dar.

Der Druck war unter Kontrolle, als der Dampf abgelassen wurde. Wenn man nun den Dampfkochtopf weiter erhitzt, fällt der Wasserspiegel immer weiter. Über dem Kern stehen mehrere Meter Wasser, damit er erst nach Ablauf von einiger Zeit (Stunden, Tage) freigelegt wird. Wenn die Brennstäbe oben frei sind, werden die freien Bereiche die kritische Temperatur von  2200 °C nach etwa 45 Minute erreichen. Dann wird der erste Schutzwall versagen, der Zirkoniummantel.

Und das fing nun an. Die Kühlung war nicht wiederhergestellt, als in sehr begrenztem Umfang Schäden an der Brennstoff-Umhüllung eintraten. Das Brennstoff-Material war immer noch intakt, aber die umgebende Zirkonium-Hülle fing an zu schmelzen. Jetzt vermischten sich einige Zwischenprodukte des Uranzerfalls – radioaktives Cäsium und Jod – mit dem Dampf. Das große Problem, Uran, war immer noch unter Kontrolle, weil die Uranbrennstäbe bis zu 3000 °C aushalten.

Es scheint, dass dies das Startsignal für einen großen „Plan B“ war. Die geringen Mengen von gemessenem Cäsium sagten den Bedienern, dass der erste Schutzwall an einem der Brennstäbe irgendwo nachgab. „Plan A“ war gewesen, wenigsten eins der normalen Kühlsysteme wiederherzustellen, um den Kern zu kühlen. Warum das schief ging, wissen wir nicht. Eine mögliche Erklärung ist, dass der Tsunami auch das Frischwasser verschmutzte oder wegspülte, das für das normale Kühlsystem gebraucht wird.

Das im Kühlsystem benutzte Wasser ist sehr rein und demineralisiert (wie destilliertes) Wasser. Der Grund für die Benutzung von reinem Wasser ist die oben erwähnte Aktivierung durch Neutronen vom Uran: Reines Wasser wird kaum aktiviert, es bleibt praktisch frei von Radioaktivität. Das hat überhaupt keine Auswirkungen auf den Kern – dem ist es egal, wovon er gekühlt wird. Für die Bediener und die Mechaniker ist es aber schwieriger, mit aktiviertem (d. h. leicht radioaktivem Wasser) umgehen zu müssen.

Plan A hatte also versagt – Kühlsystem kaputt oder zusätzliches reines Wasser nicht mehr verfügbar – also ging es mit Plan B weiter. So scheint es abgelaufen sein:

Um eine Kernschmelze zu verhindern, holten die Bediener Meerwasser für die Kühlung des Kerns. Ich bin mir nicht sicher, ob sie den Druckbehälter (den zweiten Schutzwall) geflutet haben oder den dritten Schutzwall, indem sie die Brennstäbe unter Wasser setzten. Das spielt hier aber keine Rolle.

Wichtig ist, dass der Kernbrennstoff jetzt abgekühlt wurde. Weil die Kettenreaktion schon seit längerer Zeit aufgehört hatte, wurde nun nur noch wenig Restwärme erzeugt. Die große Menge von Kühlwasser reichte für die Aufnahme der Hitze aus. Weil das sehr viel Wasser war, erzeugte der Kern überhaupt nicht mehr genügend Druck. Dem Seewasser wurde Borsäure zugesetzt. Borsäure ist ein flüssiger „Bremser“ wie der Steuerstab. Wenn es noch irgendwelchen Atomzerfall gibt, fängt das Bor die Neutronen ein und beschleunigt die Abkühlung des Kerns.

Die Anlage stand kurz vor einer Kernschmelze. Was schlimmstenfalls passiert wäre: Wenn kein Meerwasser zur Verfügung gestanden hätte, hätten die Bediener immer wieder Wasserdampf ablassen müssen, um den Druckaufbau zu verhindern. Der dritte Schutzwall wäre dann komplett abgedichtet worden, um bei der Kernschmelze die Freisetzung von radioaktivem Material zu verhindern. Nach der Kernschmelze hätte man eine Zeitlang abwarten müssen, bis das radioaktive Material innerhalb der Ummantelung zerfallen gewesen wäre. Das Kühlsystem wäre wiederhergestellt worden und der geschmolzene Kern auf eine handhabbare Temperatur heruntergekühlt worden. Die Ummantelung hätte innen gesäubert werden müssen. Dann hätte die schwierige Aufgabe des Trennens des geschmolzenen Kerns von der Ummantelung in Angriff genommen werden müssen. Dabei wären die Bruchstücke des nun wieder festen Brennstoffes zur Wiederaufarbeitung transportiert werden müssen. In Abhängigkeit vom Ausmaß der Schäden wäre der Block der Anlage entweder repariert oder abgewrackt worden.

Was heißt das nun alles?

* Die Anlage ist jetzt in sicherem Zustand und das wird so bleiben.

* Japan hatte einen INES Level 4 Unfall: Das ist ein Nuklearunfall mit lokalen Folgen. Schlimm für den Betreiber, dem das KKW gehört aber für niemanden sonst.

* Etwas Radioaktivität wurde freigesetzt, als das Druckgefäß gelüftet wurde. Alle radioaktiven Isotope aus dem aktivierten Dampf sind weg (zerfallen). Ganz wenig Cäsium wurde freigesetzt, auch Jod. Falls Sie zum Zeitpunkt der Druckablassung auf dem Kamin der Anlage gesessen hätten, müssten Sie jetzt mit dem Rauchen aufhören, um ihre vorherige Lebenserwartung zurückzubekommen. Die Cäsium und Jod-Isope sind auf das Meer geblasen worden und dort verschwunden.

* Am ersten Schutzwall hat es begrenzten Schaden gegeben. Daher sind geringe Mengen von Cäsium und Jod auch hier ins Kühlwasser ausgetreten, aber kein Uran oder anderes schmutziges Zeug. (Uran-Oxid ist nicht wasserlöslich). Es gibt Vorrichtungen, um das Kühlwasser zu behandeln. Radioaktives Cäsium und Jod werden entfernt und als radioaktiver Müll zur Endlagerung gebracht.

* Das zur Kühlung benutzte Meerwasser wird geringfügig aktiviert sein. Weil die Bremsstäbe vollständig heruntergekommen sind, wird es keine Uran-Kettenreaktion geben. Deshalb wird es auch keine durch Uranzerfall hervorgerufene weitere Aktivierung geben. Die radioaktiven Zwischenprodukte (Cäsium und Jod) sind bereits jetzt schon zum großen Teil verschwunden, weil der Uranzerfall schon längere Zeit gestoppt ist. Das führt zu einer weiteren Verminderung der Aktivierung. Unter dem Strich wird eine geringe Aktivierung des Meerwassers verbleiben, sie wird von den Reinigungseinrichtungen entfernt werden.

* Das Meerwasser wird im Laufe der Zeit von “normalem” Kühlwasser ersetzt werden

* Der Reaktorkern wird herausgeholt und in eine Aufarbeitungseinrichtung verbracht werden, wie bei einem normalen Brennstoffwechsel.

* Die Brennstäbe und die gesamte Anlage werden auf mögliche Schäden überprüft werden. Das wird etwa 4-5 Jahre dauern.

* Die Sicherheitssysteme aller japanischen Anlagen werden verbessert werden, so dass sie einem 9,0 starken Erdbeben und Tsunami (oder noch mehr) standhalten .

* Ich glaube, das größte Problem wird ein ausgedehnter Strommangel sein. Etwa die Hälfte von Japans Kernkraftwerken wird wahrscheinlich inspiziert werden müssen, damit wird die Energieerzeugungskapazität des Landes um 15% gesenkt. Wahrscheinlich werden im Betrieb befindliche Gaskraftwerke einspringen müssen, die normalerweise nur zur Ergänzung der Spitzenlast und zuweilen auch der Grundlast eingesetzt werden. Dadurch werden in Japan die Stromrechnungen teurer, es kann auch zu Stromknappheit während der Spitzenlastzeiten kommen.

Wenn Sie informiert bleiben wollen, dann nutzen Sie nicht die gewöhnlichen Medien, sondern die folgenden Webseiten:

http://www.world-nuclear-news.org/RS_Battle_to_stabilise_earthquake_reactors_1203111.html

Discussion Thread – Japanese nuclear reactors and the 11 March 2011 earthquake

http://ansnuclearcafe.org/2011/03/11/media-updates-on-nuclear-power-stations-in-japan/

Barry Brook & Dr. Josef Oehmen

Den Originalartikel finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE

Lesen Sie auch diesen bedenkenswerten Aufsatz in Achgut

Update 15.3.11: Hier finden Sie sachliche Informationen zur Situation in Japan




Alternative Energien werden in Großbritannien die Lichter ausgehen lassen, gibt der Chef des Energiekonzerns National Grid zu

Die Verbraucher müssen sich damit abfinden, für ausgedehntere Perioden ohne Strom auszukommen, warnt Steve Holliday, Chef von National Grid, dem größten Stromversorger im Vereinten Königreich.

Bereits am 2. März wurde die Nachricht im Daily Telegraph verbreitet.

Britischen Familien wurde jetzt die schockierende Wahrheit über den Preis der grünen Energie erzählt. Sie müssen sich darauf vorbereiten, längere Zeit ohne Strom auszukommen,  warnt UK´s Top Elektrizitäts Chef.

Steve Holliday, National Grid-Chef, sandte diese deutliche Warnung über die Folgen des britischen "Going Green" an die Hörer des Radio 4’s TodayProgramm.

Das schockierende Geständnis gelangte sofort an den "Daily Telegraph (2. März 2011), der in dem Artikel unter der Schlagzeile "Die Ära des konstanten Stroms zu Hause ist zu Ende, sagt der Versorger Chef" darüber berichtete. 

National Grid ist eines der lukrativsten privatisierten ehemaligen staatlichen Monopolunternehmen weltweit. Die britische Nation ist bereits jetzt gezwungen, jährlich 18 Milliarden Pfund für überflüssige und unpopuläre „grüne” Steuern und Subventionen auszugeben.

Den Briten wird gesagt  Windkraftanlagen! Ob Sie es mögen oder nicht

Das große Unternehmen ist geradezu versessen darauf, eine schlecht durchdachte Agenda zu befolgen, die Energiepolitik "umweltfreundlicher" durch die Konzentration auf Windenergie zu machen. Wenn er direkt befragt wird, wie das Unternehmen vermeiden wolle, dass britische Lichter ausgehen, wenn der Wind nicht weht, antwortete Mr. Holliday kaltschnäuzig "Familien müssen sich daran gewöhnen, nur  dannStrom zu verbrauchen wenn er verfügbar ist, statt wie bisher, dass er ständig fließt."

Holliday’s Plan wird die Briten wieder in die schlechten und traurigen alten Zeiten der 1970er Jahre führen, als die Streiks der Bergarbeiter die Stromerzeuger zwang, die Versorgung einzuschränken und  den Arbeitern der Nation  die "drei-Tage-Woche" aufzwang. Worauf unentsorgter Müll und nicht bestattete Leichen sich hoch türmten und Bürger  einen trostlosen Winter in tiefstem Elend ertragen mussten.

 John Sullivan

 Lesen Sie den ganzen Artikel hier und diverse andere dazu hier 




Energiekonzept & Klimaschutz? Wie die Deindustrialisierung Deutschlands beschlossen wurde!

Zudem erkennt er auch die höchst unmoralische Komponente dieser versuchten Zwangsumstellung zur angeblichen Rettung des Klimas, indem wertvolles Ackerland für stark subventionierte Treibstoff pflanzen umgewidmet und damit dem Anbau von Lebensmitteln entzogen wird. Dies trifft insbeondere die Ärmsten der Armen in vielen Entwicklungsländern, wie auch hierzulande. Wir berichteten mehrfach u.a. hier und hier und hier. 

Aber das ist nur der Anfang! Vom Gesetzgeber sind längst Gesetze beschlossen, oder in Vorbereitung, die noch konsequenter die Umstellung auf eine kohlenstoff arme Wirtschaft erzwingen wollen. Der Fahrplan dazu ist das jüngst beschlossene "Energiekonzept" der Bundesregierung. Wohin dieses führen wird, zeigen zwei vielbeachtete Vorträge auf der Anfang Dezember 2010 in Berlin anlässlich der 3. Internationalen Klima- und Energiekonferenz. Sehen Sie dazu den Vortrag von EIKE Vizepräsident Michael Limburg.

Den Vortrag von M. Limburg Energiekonzept & Klimaschutz? Passt das zusammen? können Sie auch als .undefinedppt Datei abrufen. 

Sehen Sie hier den Vortrag von Prof. Dieter Ameling zur direkten Auswirkung auf die Stahlindustie dieses Landes:

Den Vortrag "Das Energiekonzept der Bundesregierung führt zur Deindustrialisierung Deutschlands" können Sie ebenfalls  als undefined.ppt Datei abrufen.

Hier finden Sie weitere Infos zum Energiekonzept hier und hier und hier




„Klimaschutz durch E-10?“ – kritisch nachgefragt!

Aber wie ist das zu verstehen? Die Verwendung von Biomasse im Energiebereich gilt als CO2-neutral, denn jede Pflanze braucht zum Wachsen CO2 aus der Luft, dieses wird vorübergehend in jeder wachsenden Pflanze gespeichert.

Ethanol wird aus Getreide hergestellt, wir kennen das von der Bierbrauerei. Die alternative Verwendung von Getreide ist die Herstellung von Brot. Natürlich macht es bezüglich der CO2-Speicherung keinen Unterschied, wozu das Getreide verwendet wird: wenn die Ethanolherstellung als CO2-neutral gilt, dann ist auch die Herstellung von Brot CO2-neutral. Die Verwendung von Getreide zur Ernährung dient daher ebenso dem „Klimaschutz“, – wenn man denn überhaupt an die Möglichkeit des „zu schützenden Klimas“ glaubt.

Es bleibt rätselhaft, warum die Bürokraten in Brüssel und in der Folge die Politik in Berlin die Rede vom Klimaschutz durch E-10 propagieren. Entweder hat man diesen einfachen Zusammenhang nicht verstanden, oder man meint, der Bürger wäre so einfältig, den Unsinn in der Verwendung wertvoller Nahrungsmittel als Spritzusatz nicht zu durchblicken.

Deutschland ist im Bereich der Ernährung im Saldo ein Importland, vor dem Beginn der „Energiewende“ in 1998 war es zu ca. 70% durch die eigene Landwirtschaft versorgt 1). Das änderte sich durch die „Energiewende“, durch vielfältige Maßnahmen geschah eine Umstellung der Landwirtschaft von der Nahrungsmittelerzeugung zur Energieerzeugung (Biosprit, Biogas durch Vergärung, Biostrom durch weitere Veredlung von Biogas). Der Grund waren reichlich fließende Subventionen durch die Zwangsmaßnahmen des Erneuerbare-Energien-Gesetzes. In 2008 wuchsen in Deutschland auf 18% der Ackerfläche Energiepflanzen (Heinloth). Das bedeutet, dass für weitere ca. 10 Millionen Menschen die Lebensmittel nicht mehr in unserem Lande erzeugt wurden, sondern auf dem Weltmarkt zugekauft werden mussten mit der Folge von weltweiter Verknappung der Lebensmittel.

E-10 soll in Deutschland einen Anteil von 90% am Benzinverbrauch erreichen 2), dazu sind rund 3 Mill. t Ethanol erforderlich, zu dessen Herstellung werden ca. 10 Mill. t Getreide benötigt 3). 10 Mill. t Getreide sind ca. 25% der Getreideernte in Deutschland, es sind zu dessen Erzeugung rund 2 Mill. ha Ackerfläche erforderlich (16% von Deutschlands Ackerfläche). Auf 2 Mill. Hektar könnte man Nahrungsmittel für ca. 10 Millionen Menschen erzeugen.

Professor Ernst-Ludwig Winnacker (ähnlich wie Thilo Sarrazin für deutliche Worte bekannt) spricht in einem kürzlich unter der Mithilfe der CSU-nahen Hanns-Seidel-Stiftung herausgegebenen Buch „Unsere Erde gibt es nur einmal“ (H. Kaul, H. Zehetmair, ISBN 978-3-428-13183-9) auf Seite 110 von 40 Millionen zusätzlichen Hungertoten weltweit in 2008 durch den Unsinn der Bioethanolerzeugung. Es gibt Menschen, die sehen die Erde als überbevölkert an. Die weltweiten Getreidevorräte nehmen schon lange ab, in vielen Importländern herrscht Hunger (z.B. Ägypten). Mit E-10 werden die Probleme verschärft, warum wird dieses dann eingeführt? Die Politik sollte dem Bürger eine Antwort geben.

1) Agrarbericht der Bundesregierung 1996 und 2000

2) DIE WELT, 11.2.2011)

3) VDI-Nachrichten vom 2.3.07

Dr. Lutz Niemann für EIKE

Lesen Sie auch den passenden Beitrag "Ich tanke SuperPlus" von Peter Heller in Science Sceptical




Die spanische Solarindustrie nichts weiter als eine Blase!

Die spanischen Entlassungen in der grünen Branche während der letzten zwei Jahre, seit der Irrtum, diese als eine Erfolgsstory hier in den USA zu verkaufen, offenbar wurde, waren verheerend. Den Angaben der Betreiber der Erneuerbaren selbst zufolge gingen rund 40 000 Arbeitsplätze verloren, (etwa 8000 in der Windbranche und 32 000 im solaren Sektor).

Es war eine Blase. Erzeugt von teuren Systemen ‚grüner Jobs‘. Sie platzte. Und ließ Spanien weit schlimmer zurück als wenn das Land von Anfang an niemals die Schulden und den wirtschaftlichen Schaden auf sich genommen hätte.

Andere Anzeichen des Offensichtlichen schließen ein, dass (im Dezember) „Spanien Zahlungen für Windprojekte um 35% gekürzt hatte, während die Unterstützung für Solarthermieprojekte schon im ersten Jahr der Erzeugung abgelehnt worden war. Die erneuerbare Industrie in Spanien sieht sich auch einer Deckelung der Anzahl der Kilowattstunden gegenüber, für die ein Anrecht auf Subventionen besteht. Diese jüngste Runde spanischer Kürzungen folgte den Ankündigungen vom November, dass Zahlungen an Felder mit Photovoltaikanlagen um 45% gekürzt werden. So drastisch all diese Kürzungen daherkommen – sie werden große Teile der erneuerbaren Industrie demontieren – so sind sie doch eine Erleichterung für die Industrie, die noch Schlimmeres befürchtet hatte. Im Juni hatte die spanische Regierung damit gedroht, sich aus Verträgen zurückzuziehen, die sie mit der erneuerbaren Industrie geschlossen hatte, was diese im Endeffekt ruinieren würde.“ (21)

Später im gleichen Monat kürzte die Regierung die Subventionen für Windmühlen und Solarpaneele erneut. Dies schloss in gewissem Sinne die rückwirkende Kürzung für Solarprojekte ein, darin enthalten die für 25 Jahre garantierten Vergütungen.

Dann segnete die Regierung eine weitere Erhöhung des Strompreises für Haushalte und kleinere Industrien ab. Das Neujahrsgeschenk bestand in einer Steigerung des Strompreises um 9,8%, was sich insgesamt zu einer Erhöhung während der 12 Monate zuvor für Haushalte um 20% summierte. Da kommt noch mehr Unvermeidliches, denn die spanischen Strompreise lagen um 30% zu niedrig, um für die erneuerbaren Energien aufzukommen, und die wahren Kosten mussten vor den Wählern geheim gehalten werden.

Es ist wichtig festzuhalten, dass genau dieses von Forschern unter Führung von Dr. Gabriel Calzada vorhergesagt worden war, und zwar in einer Studie (22), die die Obama-Administration zusammen mit AWEA, CAP und UCS auf der Basis, dass künftige Entwicklungen nicht berücksichtigt wurden (unwahr) und dass die Zukunft gut sein würde (noch unwahrer), organisiert hatte

Innerhalb von 24 Stunden im vergangenen Frühjahr hat der Windmühlenproduzent Gamesa angekündigt, eine Anlage in Navarra (Spanien) zu schließen und seine Arbeitskräfte um 10% zu reduzieren. Gleichzeitig würde man eine Anlage in China eröffnen (23). Zusammen mit der Schließung des Redcar-Stahlwerkes in Großbritannien wegen des Zertifikatehandels und verschiedener anderer Systeme ‚grüner Jobs‘ und der gleichzeitigen Eröffnung eines anderen Werkes in Indien, leugnet der Direktor das Unvermeidliche: eine Fabrik wurde geschlossen und die Kapazität nach China exportiert.

Ich füge noch mehr sehr ähnliche Entwicklungen aus jüngster Zeit in Frankreich, Holland, Dänemark und Italien am Ende dieser Aussagen an. Wenn wir dieser Politik folgen, müssen wir diese Ergebnisse erwarten! (Hervorhebung im Original).

Chris Horner

Übersetzt von Chris Frey für EIKE

Ausführliche Informationen zum Thema finden Sie auch hier




Das schmutzige Geheimnis der Wind- und Sonnenkraftnutzung!

All diese Prinzipien sind seit Jahrzehnten in der kommerziellen Anwendung. „Forschungsvorhaben“ beziehen sich allenfalls auf die Verbesserung bekannter Verfahren. Wie (relativ) gering das Entwicklungspotential ist, kann auch der technische Laie nachvollziehen, wenn er es mit der rasanten Entwicklung von PC, mobilem Telefon usw. vergleicht. Oder noch drastischer gesagt: Erfindungen, die sich in rund einem Jahrhundert nicht am Markt etablieren, sind – aus welchen Gründen auch immer – Totgeburten. Klassisches Beispiel hierfür ist das „Elektroauto“, welches alle paar Jahrzehnte wieder auf der Bildfläche erscheint. Immer genau dann, wenn die Erfahrungen der vorhergehenden Entwicklergeneration wieder vergessen worden sind und man die alten Sackgassen wieder ungestraft neu betreten darf. Die neueste Wiederauferstehung findet gerade unter dem Deckmäntelchen der Speicherung „alternativer“ Energie statt.

Dass Wind und Sonne nicht wirtschaftlich sind, ist längst bekannt. Dass man mit ihnen überhaupt kein bedarfsgerechtes Stromnetz betreiben kann, ebenso. Man hat sie in der Energiewirtschaft deshalb stets als „Additive Energieformen“ bezeichnet, um unmissverständlich zum Ausdruck zu bringen, dass sie eben keine „Alternative“ zu einer konventionellen Stromversorgung sein können, sondern lediglich eine Ergänzung. Warum aber ein sündhaft teures zusätzlichen Energiesystem auf das ohnehin vorhandene draufsatteln, wenn man wegen der „Zufälligkeit“ von Wind und Wetter gar nicht auf eine konventionelle Stromversorgung verzichten kann? Natürlich wegen dem Klima, ein Schelm wem langsam anderes dämmert. Schließlich muss man doch um so weniger Kohle verbrennen, um so mehr elektrische Energie aus Wind und Sonne „CO2-frei“ produziert wird. Ist das wirklich so oder ist auch hier der Wunsch nach einer besseren Welt der Vater des Gedankens?

Dazu ist es notwendig, sich etwas näher mit der Technik auseinanderzusetzen. Der Wind ist ein unsteter Gesell. Jeder, der schon mal auf dem Wasser gewesen ist, weiß wie schnell er kommen kann und auch wieder verschwindet. Ganz besonders gilt das, wenn „böiges Wetter“ angesagt ist. Was soll das aber mit der Produktion von CO2 zu tun haben? Dazu muss man erst einmal die Physik einer Windmühle verstehen: Die Leistung hängt mit der 3. Potenz von der Windgeschwindigkeit ab. Mit einfachen Worten gesagt: Wenn beispielsweise bei einer bestimmten Windgeschwindigkeit eine bestimmte Leistung erzeugt wird, wird bei der doppelten Windgeschwindigkeit bereits die achtfache Leistung, bei der dreifachen Windgeschwindigkeit die 27-fache und bei der vierfachen Windgeschwindigkeit gar die 64-fache Leistung erzeugt! Eine Windmühle ist also ein regelungstechnischer Albtraum. Für den Betreiber kann die Sache nur profitabel sein, weil er die Kosten und Umweltbelastungen auf die Allgemeinheit abwälzen kann. Dies geschieht, indem der jeweilige „Netzbetreiber“ mit diesen Schwankungen technisch und wirtschaftlich leben muss und gesetzlich verpflichtet ist, sie stets und zu seinen (!) ausschließlichen Lasten „auszuregeln“. Überdies werden ihm die daraus resultierenden Umweltbelastungen (!) auch noch angelastet. Jetzt wird mancher empört sein öko-ideologisch geschultes Haupt schütteln wollen: Schließlich wird doch kein Brennstoff verbrannt, wenn die Windmühle produziert. Doch ist die Versorgung mit elektrischer Energie wirklich so simpel?

In jedem Augenblick muss genau so viel Strom erzeugt werden, wie gerade verbraucht wird. Wird mehr Strom eingespeist, als gleichzeitig verbraucht wird, erhöht sich die Netzfrequenz. Wird weniger eingespeist als verbraucht, sinkt sie ab. Dabei ist es völlig unerheblich, ob ein Kraftwerk ausfällt oder sich ein zusätzlicher Verbraucher in das Netz einschaltet. In jedem Fall muss eine ausreichende Reserve vorgehalten werden. Wobei Reserve nicht gleich Reserve ist: Es kommt entscheidend auf die Reaktionsfähigkeit an. Man muss sich das, wie bei einer Transportaufgabe vorstellen. Wenn man eine Person von A nach B befördern muss und die Ankunftszeit keine Rolle spielt, reicht es aus, ein Ersatzfahrzeug auf dem Hof bereit zu halten. Fällt das erste Fahrzeug aus, kann man ganz entspannt das Ersatzfahrzeug hinterher schicken. Völlig anders stellt sich das Problem dar, wenn die Ankunftszeit garantiert werden muss oder ein Warten aus anderen Gründen (z. B. Personenschutz) nicht möglich ist. In diesem Fall muss ein Ersatzfahrzeug bereits mitfahren, um bei einem Ausfall ein unmittelbares Umsteigen zu ermöglichen. Dieses Ersatzfahrzeug verbraucht aber auch Treibstoff. Bei der Stromversorgung ist die Reaktionszeit nahe Null. Man muss also stets eine entsprechende Reserve mitlaufen haben. In der guten alten Zeit der Vertragsfreiheit konnten die Vertragspartner (Energieversorger und Stromkunde) sich zum gegenseitigen Vorteil arrangieren. Eine Vergleichmäßigung des Stromverbrauches wurde vom Energieversorger z. B. über Leistungspreise dem Kunden honoriert. Wer gedankenlos Großgeräte einschaltet und damit das Netz stört, muss dafür kräftig zahlen. Es ist daher heute in jedem Krankenhaus und in jeder Hotelküche üblich, „Spitzenlast-Optimierung“ zu betreiben. Industrielle Großverbraucher (Stahlwerke etc.) stehen unmittelbar mit den Energieversorgern in Kontakt und müssen außergewöhnliche Lastspitzen Tage vorher beantragen und abstimmen. Umgekehrt konnten die Energieversorger durch die (nahezu) freie Standortwahl und die Gestaltung ihres Kraftwerksparks für eine optimale Erzeugung sorgen. Mit der Einführung der Planwirtschaft in Gestalt des Erneuerbare-Energien-Gesetzes (EEG) wurde dieses höchst erfolgreiche System zerstört. Es gibt nun in der Gestalt des „Windparkbetreibers“ oder „Solarstromerzeugers“ einen dritten, der ausschließlich zur eigenen Gewinnmaximierung tätig werden darf. Ausdrücklich auch dann, wenn er durch sein Gewinnstreben die Gesellschaft (wirtschaftlich) schädigt. Dieses – schon rechtsstaatlich pikante Konstrukt – wurde ausschließlich über einen angeblichen Schutz der Umwelt legitimiert. Die alte Geschichte von den angeblich „höheren Interessen“ die ein schädigendes Verhalten rechtfertigen. Inzwischen sind die wirtschaftlichen Konsequenzen für jeden offensichtlich geworden. An dieser Stelle sei nur auf die explosionsartig steigende „Umlage für Ökostrom“ verwiesen. Aber sind wir nicht alle bereit, ein paar Opfer für die Rettung der Welt zu bringen? Schließlich soll doch durch die Freisetzung von CO2 aus Kraftwerken die Welt untergehen. Mag das glauben wer will. An dieser Stelle soll es nur um die Frage gehen, ob denn überhaupt durch den Bau von „Windparks“ und „Kollektorfarmen“ tatsächlich das Klima gerettet werden kann.

Wir erinnern uns an das bisher gesagte: Wind und Sonne sind zufällige Größen, deren Vorhersage nichts weiter als Wettervorhersage ist. Sie können sich sehr schnell und mit erheblicher Stärke ändern. Der Regelungstechniker würde sagen, sie sind echte Störgrößen mit sehr starken Gradienten (z. B. Leistungsänderung infolge einer in einen Windpark einfallenden Bö). Man muss daher ständig konventionelle Kraftwerke mitlaufen lassen, um das Netz überhaupt stabil halten zu können. Diese Kraftwerke müssen zwangsläufig einen Teil ihres Brennstoffes ungenutzt verbrennen. Sei es durch den Betrieb in Teillast mit schlechteren Wirkungsgraden oder durch sogenanntes „Androsseln“. Was nichts weiter als eine Umschreibung dafür ist, dass man den aufwendig erzeugten Dampf nicht in der Turbine seine Arbeit verrichten lässt, sondern (einen Teilstrom) unverrichteter Dinge im Kondensator niederschlägt. Es ist halt genau wie mit dem leeren Fahrzeug hinter der Kolonne: Will ich jederzeit ein Umsteigen garantieren, muss das „leere Auto“ stets hinter der Kolonne herfahren. Niemand käme auf die Idee, den notwendigen „Spritverbrauch“ nur auf die Fahrzeuge „mit Personen“ zu beziehen. Spätestens beim nächsten Tankstopp müssen alle Fahrzeuge wieder betankt werden.

Will man die tatsächliche Primärenergieeinsparung durch „Wind und Sonne“ in einem Stromnetz bestimmen, sind aufwendige Messungen bzw. Simulationen notwendig. Für das grundsätzliche Verständnis reichen aber einfache Abschätzungen aus. In einem Netz ergibt sich der Nutzungsgrad als das Verhältnis aus der in dem Betrachtungszeitraum verbrauchten elektrischen Energie zu dem hierfür eingesetzten Brennstoff .

NG = E / Br

Bisher konnte man die im Netz konsumierte elektrische Energie mit der in den Kraftwerken nahezu gleich setzen. Zukünftig gestaltet sich die Bilanzierung etwas schwieriger: Wem soll man die elektrische Energie, die auf dem langen Weg vom Windpark in der Nordsee zu dem Kunden in München in der Leitung „verbraten“ wurde, als „Umweltschutz“ anrechnen? Dem Windpark in der Nordsee oder dem Kraftwerk vor den Toren Münchens? Hätte man den Strom nicht aus dem Windpark, sondern aus dem nahen konventionellen Kraftwerk bezogen, hätte er gar nicht verbraucht werden müssen. Warum sich Rechtsanwälte im Zusammenhang mit der Berechnung von „Netzentgelten“ noch nicht hinreichend mit dieser Frage auseinandergesetzt haben, entzieht sich meiner Kenntnis. Ich vermute, spätestens wenn der Handel mit „CO2-Zertifikaten“ eine lukrative Größenordnung erreicht hat, wird sich die Frage stellen, wer eigentlich die Zertifikate bezahlen muss, die ein Kraftwerk gar nicht gebraucht hätte, wenn es nicht für die Unterstützung des Windparks eingesetzt worden wäre. Will man auch nur den Anschein eines Verursacherprinzips aufrecht erhalten, werden das wohl die Windparks selber tun müssen.

Bevor es weiter gehen kann, muss an dieser Stelle mit einem unter Laien weit verbreiteten Irrtum aufgeräumt werden: Der Gleichsetzung von Wirkungs- und Nutzungsgraden. Wirkungsgrade beziehen sich auf Leistungen und geben damit grundsätzlich nur eine Momentaufnahme wieder. Nutzungsgrade hingegen bilanzieren die in einem Betrachtungszeitraum erzeugten und verbrauchten Energien. Die praktischen Konsequenzen kennt jeder von uns aus den Verbrauchsangaben in Autoprospekten. Die Verbrauchsangaben im Prospekt gelten für genau definierte Betriebspunkte (Liter Benzin bei 80 km/h) unter idealen Bedingungen und entsprechen somit Wirkungsgraden. Was wir später an der Tankstelle messen und ermitteln sind Nutzungsgrade: Den tatsächlichen Verbrauch im Zeitraum „zweier Tankfüllungen“ gemittelt über alle realen Betriebszustände. Dies ist ganz wichtig, da der Allgemeinheit immer nur Wirkungsgrade von Kraftwerken bekannt sind. Nutzungsgrade des realen Betriebs sind aus gutem Grund Geschäftsgeheimnisse! Sie hängen stark von der Betriebsweise ab. Wenn ein Kohlekraftwerk angedrosselt gefahren wird, um den Regelbetrieb zu unterstützen, hat das mit seinem Wirkungsgrad im Abnahmeversuch nur noch sehr entfernt zu tun! Man kann sich als Außenstehender nur einen Überblick über die tatsächlichen Nutzungsgrade verschaffen, wenn man sich sehr eingehend mit den Energiestatistiken auseinandersetzt. Dort wird für ein gesamtes Versorgungsgebiet (z. B. Deutschland) der in einem Kalenderjahr eingesetzte Brennstoff aufgelistet.

Wie verhält es sich aber mit den Nutzungsgraden konventioneller Kraftwerke in einem gemischten Netz? Bisher ging man stark vereinfachend von dem Ansatz aus, dass der „alternativ“ produzierte Strom eine entsprechende Menge Brennstoff in den konventionellen Kraftwerken ersetzt. Vereinfachend ermittelte man die „CO2-Einsprung“ durch die Multiplikation mit den entsprechenden Kraftwerkswirkungsgraden für Kohle, Gas etc. Gemäß der Kraftwerksverteilung konnte man so die „CO2-Einsprung“ bilanzieren. Diese Methode führt — bei immer stärkerem Einsatz von Wind und Sonne – zu einer notwendigerweise (methodisch bedingten) Überzeichnung der „CO2-Einsprung“. Ein Übergang zu den tatsächlichen Nutzungsgraden – einschließlich der Bereitschaftsverluste und den zusätzlichen Verlusten durch die Verschiebung der Betriebspunkten – ist zwingend erforderlich. In einem gemischten Netz ergibt sich der Nutzungsgrad als das Verhältnis aus der in dem Betrachtungszeitraum verbrauchten elektrischen Energie verringert um die netto „Alternativenergie“ (ohne Transportverluste) zu dem hierfür eingesetzten Brennstoff Brgem.

NGgem = (E – Ealt) / Brgem

Der in einem realen Netz durch „Alternativenergien“ eingesparte Brennstoff DeltaBr ergibt sich aus der Differenz zwischen dem in einem (rein) konventionellen Netz verbrauchten Brennstoff und dem für einen gemischten Betrieb notwendigen Brennstoffeinsatz Brgem.

DeltaBr = Br – Brgem

Setzt man in diese Gleichung die beiden ursprünglichen Gleichungen ein, erhält man:

DeltaBr = Br – Brgem = E / NG – (E – Ealt) / NGgem

Wie gesagt, der Nutzungsgrad in einem gemischten Netz NGgem muss wegen der zusätzlichen Verluste (Bereitschaftsverluste, Androsselung, Verschiebung aus den optimalen Betriebspunkten usw.) schlechter sein, als in einem konventionellen Kraftwerkspark mit optimaler Fahrweise NG. Wie hoch die tatsächliche „CO2-Einsparung“ in einem gemischten Netz ist, kann nur über umfangreiche Simulationen oder Messungen ermittelt werden. Für eine erste Abschätzung reicht jedoch ein Gedankenexperiment aus. Wie würden sich die Nutzungsgrade verhalten, wenn der Brennstoffmehrverbrauch im gemischten Betrieb gerade die Einsparung durch „Wind und Sonne“ auffressen würde? Anschließend kann man die Ergebnisse mit Erkenntnissen aus der Praxis diskutieren.

0 = DeltaBr = Br – Brgem = E / NG – (E – Ealt) / NGgem

NG / NGgem = E / (E – Ealt)

Man erhält dadurch eine Funktion für die Verschlechterung des Nutzungsgrades in einem gemischten Betrieb NGgem in Abhängigkeit von dem Anteil der „Alternativenergie“ Ealt am Stromverbrauch E.

NGgem = (1 – Ealt / E) * NG

Was besagt nun vorstehende Gleichung? Wenn 10 % der verbrauchten elektrischen Energie aus Wind und Sonne gewonnen würden, dürfte sich der Nutzungsgrad der konventionellen Kraftwerke nur auf 90 % verschlechtern, damit überhaupt eine „CO2-Einsparung“ erfolgt.

Ein modernes Braunkohlekraftwerk hat einen elektrischen Netto-Wirkungsgrad von 43%. Da diese Kraftwerke in der Grundlast laufen, entspricht der Wirkungsgrad auch ziemlich genau dem Nutzungsgrad. Ein Nutzungsgrad von 39% im Regelbetrieb mit Androsselung erscheint illusorisch. Ein modernes Kombikraftwerk (Gas und Dampf) verfügt über einen Wirkungsgrad von 57%. Sein Nutzungsgrad als „Backup“ für Wind und Sonnenkraftwerke dürfte eher bei 36% liegen, da zwar die Gasturbine recht schnell auf Laständerungen reagieren kann, nicht aber der angeschlossene Dampfkessel. So dauert es nach einem nächtlichen Stillstand etwa 15 Minuten die Gasturbine hochzufahren, der Dampfkessel braucht eine gute Stunde. Während dieser Zeit sind die Wirkungsgrade miserabel. Der Nutzungsgrad für eine Tagesperiode ist deshalb bereits wesentlich schlechter als der Auslegungswirkungsgrad.

Man muss es vielleicht noch einmal deutlich sagen: Ein Anteil von 10% an der elektrischen Energie ist bereits ein ehrgeiziger Wert, denn auf Grund der geringen Vollbenutzungsstunden dieser Energiearten ist ihr Leistungsanteil an den Tagen an denen der Wind überhaupt weht, sehr viel höher. Man möge sich mal einen Feiertag (geringer Stromverbrauch) mit stärkerem Wind und Sonnenschein betrachten. Schon heute ist an solchen Tagen der Leistungsanteil der „Alternativenergien“ höher als 50%. Solche Werte sind im Kraftwerksbetrieb nur mit erheblicher „Brennstoffvernichtung“ beherrschbar.

Von besonderer Ironie — wenngleich seit langem bekannt — ist, dass bei Sturm über Dänemark deren Stromnetz nur durch die nahen Kernkraftwerke (Leitungskapazitäten) in Deutschland und Schweden stabilisiert werden kann. Lediglich Kernkraftwerke können wegen ihrer Wärmespeicherkapazität und ihrem „Selbstregelverhalten“ (Dampfblasenkoeffizient) solch starke Leistungsgradienten (3. Potenz der Windgeschwindigkeit) ausregeln. Noch dazu, ohne wesentliche Verschlechterung des Wirkungsgrades. Gasturbinen können hier kaum mithalten, Kombikraftwerke mit Sicherheit nicht. Mit steigendem Anteil der Windenergie wird der Gasverbrauch eher steigen als sinken. Vielleicht mag man hier den Grund finden, warum zwei führende Propagandisten der Wind- und Sonnenenergie heute (?) Gasvertreter sind. In den USA ist jedenfalls die Gasindustrie nach wie vor der führende Sponsor der „Klimaindustrie“. Dies ist nicht weiter verwerflich. Wenn man ein zusätzliches Produkt (Erdgas) auf einem etablierten Markt (Kohle und Kernenergie in der Stromerzeugung) unterbringen will, muss man halt ordentlich „Überzeugungsarbeit“ leisten. In diesem Sinne sind die „Gasmänner“ Schröder, Fischer und Co ganz normale „Staubsaugervertreter“, die für ihre „Verkaufsgespräche“ adäquat entlohnt werden.

Liberalen Instituts der Friedrich Naumann Stiftung am 24.2.11

Dr. Klaus-Dieter Humpich ist Dr. Ing. für Energie- und Verfahrenstechnik. Er ist seit 1992 auf den verschiedensten Gebieten der Energie und Kraftwerkstechnik international und freiberuflich tätig.

Weiterführende Literatur:

Kent Hawkins: Wind Integration Realities – Case Studies of the Netherlands and of Colorado, Texas, Master Resource.

C. le Pair & K. de Groot: The impact of wind generated electricity on fossil fuel consumption.

K. de Groot & C. le Pair: The hidden fuel costs of wind generated electricity.




Postnormale Wissenschaft: Klimawissenschaft und „Erneuerbare“ um die Welt zu ändern!

Vortrag über die Postnormale Wissenschaft und ihre Anwender, Untersützer und Nutznießer gehalten von Prof. Werner Kirstein am 4.12.10 in Berlin. 

Sehen & hören Sie hier den Vortrag von Prof. Kirstein zur Postnormalen Wissenschaft. 

Dazu passend die Pressemitteilung des WBGU

Wir berichteten schon des öfteren über die Pläne die "postnormale" Wissenschaft zu nutzen um die Gesellschaft mit "wissenschaftlicher" Autorität zu ändern, (hier und hier) sowie über die wirklichen Absichten dahinter. Die hat z.B. Otmar Edenhofer, ehemaliger Jesuit, jetzt Chefvolkswirt des PIK und stellvertretender Vorsitzender des IPCC in einem NZZ [2]( Neue Zürcher Zeitung) Interview ganz deutlich erklärt. Er enthüllte darin, was von seiten der UNO und der sie unterstützenden Kreise eigentlich angestrebt wird:

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Passend dazu erscheint demnächst ein neues "Gutachten" des wissenschaftlichen Beirat der Bundesregierung für globale Umweltveränderungen (wbgu). In einer P R E S S E E R K L Ä R U N G zum

EU-Energiegipfel am 4. Februar

erklärt dieser: 

Energiewende in der Europäischen UNION vorantreiben Berlin, den 2. Februar 2011.

Anlässlich des am 4. Februar in Brüssel stattfindenden EU-Gipfels über die zukünftige europäische Energiestrategie plädiert der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) für eine beschleunigte Harmonisierung der Energiepolitiken in den EU-Staaten. Ziel sollte die Dekarbonisierung der europäischen Energiesysteme bis Mitte des Jahrhunderts sein. Dafür empfiehlt der WBGU die Implementierung einer umfassenden Strategie zur massiven Steigerung der Energieeffizienz, eine konsequente Förderung erneuerbarer Energien sowie den koordinierten, raschen Ausbau der Netzinfrastruktur für Strom und Gas und den Aufbau von Speicherkapazitäten. Für diese Elemente sollten jeweils ambitionierte mittelfristige Ziele vereinbart werden. Damit würden Klimaschutz und Energiesicherheit gleichermaßen gefördert. Die heute noch kontrovers diskutierte gemeinsame Energiepolitik könnte in den kommenden Dekaden zu dem zentralen europäischen Leuchtturmprojekt werden. Förderung erneuerbarer Energien schrittweise harmonisieren Eine EU-weit einheitliche, ambitionierte Einspeisevergütung würde den Aufbau einer klimaverträglichen europäischen Energieerzeugung beschleunigen und wäre der kostengünstigste Weg für ein dekarbonisiertes Energiesystem mit möglichst hohen Anteilen erneuerbarer Energien. Sie ist allerdings frühestens binnen einer Dekade sinnvoll, weil zuvor die notwendige Netzinfrastruktur geschaffen werden muss. Bisher existieren Einspeisevergütungen bzw. -prämien in 21 Mitgliedstaaten der EU. Die Mitgliedstaaten der EU sollten jetzt verbindlich festlegen, dass in den nächsten Jahren in allen Staaten der EU Einspeisevergütungen für erneuerbare Energien eingeführt und existierende Fördersysteme schrittweise angeglichen werden. Dies würde bereits jetzt die Gefahr eines zu starken Ausbaus an weniger geeigneten Standorten und damit die Kosten senken sowie den Ausbau an Gunststandorten beschleunigen. Die EU sollte ihre kontinentweiten erneuerbaren Energiepotenziale bündeln: Windenergie von der Nord- und Ostsee, Biomasse aus Osteuropa, Sonnenenergie aus Südeuropa und Systemwissen zum Ausbau transeuropäischer Netze aus Deutschland und anderen technologiestarken Ländern. Mittelfristig sollte ein einheitliches Fördersystem eingeführt werden, das Energie- und Kosteneffizienz miteinander verbindet. Netzausbau vorantreiben Der WBGU warnt allerdings vor der Einführung einer sofortigen europaweit einheitlichen Einspeisevergütung. Solange die grenzüberschreitenden Infrastrukturen zum Transport von Strom aus erneuerbaren Quellen nicht vorhanden sind, droht die Gefahr, dass an Gunststandorten Strom produziert wird, der nicht zum Verbraucher transportiert werden kann. In Regionen mit weniger günstigen Bedingungen würde der Ausbau erneuerbarer Energien gebremst und ein Ausweichen auf weniger nachhaltige Energieformen wahrscheinlich. Zwingende Voraussetzung für eine unionsrechtliche Harmonisierung der Einspeisevergütung ist daher der beschleunigte Ausbau der Netze. Die EU sollte durch den koordinierten Netzausbau die Voraussetzungen dafür schaffen, dass eine nahezu vollständige Versorgung Europas mit erneuerbaren Energien bis Mitte des Jahrhunderts möglich wird. Dafür bedarf es der entsprechenden Gesetzgebungskompetenz der EU. Die Europäisierung der Einspeisevergütung sollte im Einklang mit dem Netzausbau schrittweise erfolgen. Insbesondere sollte keine Phase der Investitionsunsicherheit entstehen, die den Ausbau der erneuerbaren Energien insgesamt bremsen würde. Unbedingt erhalten bleiben sollten wichtige Elemente aus dem deutschen EEG, wie der Vorrang der Einspeisung für Strom aus erneuerbaren Energieträgern sowie die Fördergarantie für einzelne Anlagen über einen bestimmten Zeitraum. Die Förderhöhe für Neuanlagen sollte dynamisch angepasst werden, so dass die angestrebten Ausbauraten erreicht werden können, aber keine Überförderung an Gunststandorten erfolgt. Nationale industriepolitische Interessen überwinden Angesichts der Herausforderungen des Klimawandels, einer zunehmenden Abhängigkeit vom Import fossiler Energieträger sowie steigenden Energiepreisen ist die Energiewende in der EU dringend erforderlich. Ziele der Europäisierung der Energiepolitik sollten der optimierte Zubau von erneuerbaren Energien, die Ausschöpfung von Innovationspotenzialen und möglichst kostengünstige Lösungen sein. Eine gemeinsame europäische Energiepolitik hätte zudem eine enorme Symbolwirkung und würde die politische Kraft Europas zum gemeinsamen Handeln in zentralen Zukunftsfeldern unterstreichen, die Wettbewerbsfähigkeit der Union stärken und Ausstrahlungskraft auf die Weltwirtschaft entfalten. Es ist daran zu erinnern, dass die Europäische Union einmal als Europäische Gemeinschaft für Kohle und Stahl oder Montanunion auf der Grundlage fossiler Energien Gestalt angenommen und politische Identität begründet hat. Heute können energie- und industriepolitische Initiativen im Bereich der erneuerbaren Energien ähnliche Impulse für die Vertiefung der Europäischen Union und ihren Einfluss in Weltwirtschaft und Weltpolitik setzen. Diesen übergeordneten Zielen sind kurzfristige nationale industriepolitische Interessen unterzuordnen. Der WBGU geht davon aus, dass die erneuerbaren Energien wie Solarthermie, Photovoltaik, Wind und Biomasse ab dem Erreichen einer weltweiten Kapazität von etwa 5.000 TWh für jede einzelne dieser Energiequellen auch ohne Förderung wettbewerbsfähig werden, so dass das EU-Fördersystem langfristig auslaufen kann. Einbezug Nordafrikas prüfen Der WBGU empfiehlt, mittelfristig auch die internationale Kooperation über die Grenzen der Europäischen Union hinaus auszuweiten. Dazu sollten Optionen zur Einbindung Nordafrikas in ein System europäischer Einspeisetarife geprüft werden. Dadurch könnten zusätzliche Potenziale, insbesondere Solar- und Windeenergie, erschlossen und die Energiewende in den Maghreb-Staaten gefördert werden. Voraussetzung für den Einbezug Nordafrikas wäre jedoch ein transkontinentales Hochleistungsnetz, das voraussichtlich nicht vor 2030 realisierbar sein wird. Um auch die 500 Millionen Menschen in Afrika südlich der Sahara zu versorgen, die derzeit keinen Zugang zu Strom haben, ist zusätzlich der Aufbau eines transafrikanischen Netzes notwendig. Neues Gutachten Am 22. März wird der WBGU sein neues Gutachten „Transformation zur klimaverträglichen Gesellschaft“ an die deutsche Bundesregierung übergeben. Es zeigt, wie die globale Transformation zur klimaverträglichen Gesellschaft gelingen kann. Der WBGU Der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) wurde 1992 im Vorfeld der Rio-Konferenz von der Bundesregierung als unabhängiges wissenschaftliches Beratergremium eingerichtet. Seine Aufgaben sind, globale Umwelt- und Entwicklungsprobleme zu analysieren, nationale und internationale Forschung auf dem Gebiet des Globalen Wandels auszuwerten, im Sinne von Frühwarnung auf neue Problemfelder hinzuweisen, Forschungsdefizite aufzuzeigen, Impulse für die Wissenschaft zu geben sowie Handlungs- und Forschungsempfehlungen zu erarbeiten. Vorsitzender des WBGU ist Hans Joachim Schellnhuber. Rückfragen bitte an: WBGU-Geschäftsstelle: 030-263948-0 oder wbgu@wbgu.de.

Als willige Vollstreckerin hilft mal mal wieder die evangelische Kirche,

die mit der Ev. Akademie Tutzing zu einem  -von (zum großen Teil steuerfinanzierten) Umweltorganisationen viel beworbenen Seminar über die "Große Transformation" einlädt (Akademie-Direktor Dr. Friedemann GreineE-Mail: greiner@ev-akademie-tutzing.de ; Veranstaltungsleiter Dr. Martin Held E-Mail: held@ev-akademie-tutzing.de): Eine Aufforderung von EIKE diese offensichtliche Indoktrination zu unterlassen, oder wenigstens die Teilnehmer auch von dritter Seite neutral informieren zu lassen, lehnte Veranstaltungsleiter Dr. Held in einem Telefonat mit EIKE (am 21.2.11) brüsk ab. Geworben wird für diese Veranstaltung:

Grosse Transformation zu einer klimaverträglichen Gesellschaft: 

Die Herausforderung für die Umsetzung meistern

Die Transformation zur klimaverträglichen Gesellschaft ist dringend notwendig, denn ein ungebremster Klimawandel würde gefährliche, irreversible und kaum beherrschbare Risiken mit sich bringen. Um den globalen Temperaturanstieg auf 2°C gegenüber dem vorindustriellen Niveau zu begrenzen, muss das auf fossiler Energienutzung basierende Wirtschaftssystem bis Mitte des Jahrhunderts weitgehend auf eine low-carbon economy umgestellt sein.

Das könnte auf den ersten Blick den Eindruck erwecken, dass dies noch in weiter Zukunft liegen würde. Tatsächlich müssen jedoch dafür die Weichen in den nächsten Jahren gestellt werden, soll die Herausforderung gemeistert werden. Das zeigt das aktuelle Gutachten des WBGU, das am 22. März 2011 erscheint.

Auf der Tagung wird diskutiert, wie die Umsetzung dieser „großen Transformation“ (Karl Polanyi ) durch Politik, Wirtschaft und Gesellschaft gelingen kann und wie man für die Pioniere des Wandels Freiräume schaffen und erweitern kann.

Herzliche Einladung nach Tutzing zu einem spannenden Dialog zum Zukunftsthema des 21. Jahrhunderts.

Dr. Friedemann Greiner, Direktor Evangelische Akademie Tutzing

Prof. Dr. Hans Joachim Schellnhuber, Vorsitzender Wissenschaftlicher

Beirat der Bundesregierung Globale Umweltveränderungen (WBGU), Potsdam

Beschleunigung der Transformation zu einer klimaverträglichen Gesellschaft: Die nächsten Schritte

Podiumsdiskussion mit

Ministerin Tanja Gönner

Bärbel Höhn MdB

Fred Jung

Prof. Dr. Hans Joachim Schellnhuber

Das Anmeldeformular finden sie als pdf im Anhang. Oder hier online

Related Files




Der Biosgasschwindel. Jetzt auch mit toten Fischen

Jetzt aber gehen manche Naturverbände auf die Barrikaden. 

Sie wettern gegen den hoch subventionierten „Bio“-Gasschwindel, für den riesige Flächen in Maismonokulturen verwandelt und Böden ruiniert werden – Artenrückgang inklusive. Auf dem platten norddeutschen Land, wo der Irrsinn für jedermann sichtbar ist, tippen sich die Bauern an die Stirn, sofern sie nicht selber vom Maisgeschäft profitieren. Die können rechnen, und jeder Landmann weiß natürlich, dass der Riesenaufwand für die Erzeugung von ein bisschen Wärme aus Maisvergärung ohne die staatliche Subventionsgießkanne krass unwirtschaftlich wäre. Ökologisch ist Biogas sowieso kontraproduktiv. Felder müssen gepflügt und heftig gedüngt werden, die Ernten wollen eingebracht werden, PS-starke Schlepper müssen unablässig zwischen verstreuten Anbauflächen und den Biogasanlagen hin- und herbollern. „Was Biogaserzeugung allein an Diesel schluckt, ist mehr als das, was hinten an Energie raus kommt“, sagt ein junger Bauer aus der Unterelberegion. Er sucht händeringend nach bezahlbaren Pacht-Wiesen, um Heu für seine Tiere machen zu können. Durch den Maisanbauboom sind freie Felder rar und drastisch teurer geworden.

Hier ein Video vom 21.2.11 von REPORT München das dieses Thema ausführlich beleuchtet. Sie können den Podcast hier herunterladen. Das Transscript der Sendung finden Sie hier!

Doch das ist längst nicht alles. Wo die allerorten aus dem Boden sprießenden Biosgasanlagen müffeln, schwimmt so schnell kein Fisch mehr.  „Seit Jahrzehnten schwimmen Jahr für Jahr Forellen und andere Fische gesund und munter durch die herrlich gelegenen Teiche in Lahmstedt-Nindorf“, meldete unlängst die „Niederelbe-Zeitung“ (NEZ). Damit war´s vorbei, als in der Nähe eine Biogasanlage den Betrieb aufnahm.

Die steht laut NEZ in Verdacht, durch Einleitung von Gärsubstraten oder anderen Gärresten in die Gewässer dafür gesorgt zu haben, dass urplötzlich 3000 Teichfischlein bauchoben trieben, verreckt an Nitratvergiftung und Sauerstoffmangel. Es ist das dritte Fischesterben innerhalb von drei Jahren in den Teichen. Dem Biogasanlagen-Betreiber wurden bereits Auflagen erteilt, wie die NEZ recherchierte. Ob der Fischetod auch diesmal aus der Biogasanlage kam oder aus anderen trüben Quellen des Bauernhofs, auf dem die Anlage steht, werde noch untersucht.

Für die Gasanlage als Verursacher spricht viel. Eine Website aus der betroffenen Region (http://www.osten-oste.de) googelte einfach mal „Fischsterben“ in Kombination mit „Biogas“. Siehe da, nicht nur in Niedersachen, sondern in der ganzen Republik gab es schon eine Vielzahl ähnlicher Kollateralschäden. Über Wiesen, die kniehoch von Gülle überschwemmt wurden, verseuchte Flüsse und massenweise tote Fische finden sich Meldungen im Überfluss.

Doch während ein publizistischer Orkan losbricht, wenn auf dem Scheißhaus eines AKW-Pförtners nur mal eine Glühbirne durchknallt und deshalb irgendwo die Sicherung raus springt („Störfall!“), ist der Zusammenhang von Biogaserzeugung, Gewässerverschmutzung und Fischesterben für viele Medien tabu. Kein Wunder. Subventionen-Abgreifer und Couponschneider, die haufenweise Kohle aus vorgeblich sanfter, sauberer, nachhaltiger Energieerzeugung generieren, stehen in Deutschland unter Artenschutz. Darunter sind nämlich nicht wenige Redakteure von grün grundierten Presseerzeugnissen und öffentlich-rechtlichen Sendeanstalten. Die bescheinigen sich ungern selber, dass sie sich mit Dreckschleudern ein Zubrot verdienen.

Wie die Ermittlungen auch ausgehen, dicht gemacht wird die Lahmstedter Brühefabrik wohl nicht. Im Gegenteil, demnächst will der Gemeinderat über die Verdoppelung der Biogasanlage entscheiden. Die Teichepächter ihrerseits haben den Pachtvertrag gekündigt. Sehr weise. Wenn die Nachbarn einen auf bio machen, macht man sich besser schnell vom Acker.

von Wolfgang Röhl mit freundlicher Genehmigung

zuerst erschienen auf ACHGUT

Weiterführende Links:

http://blog.br-online.de/report-muenchen/2011/02/21/biogasboom-bauern-in-bedrangnis.html

http://www.br-online.de/content/cms/Universalseite/2010/07/26/cumulus/BR-online-Publikation-ab-10-2010–99096-20110221223339.pdf
http://www.br-online.de/content/cms/Universalseite/2010/07/26/cumulus/BR-online-Publikation-ab-10-2010–98935-20110221185931.pdf

http://www.nez.de/lokales/news0/fischsterben-durch-biogasanlage.html

http://www.achgut.com/dadgdx/index.php/dadgd/article/die_kanonen_von_nawaro_ein_bio_rohrkr




Hilfe, wir haben zu viel Energie!

Ergebnis: Die Energiezukunft sieht heute viel rosiger aus, als noch vor 5 Jahren. Es hat sich nur noch nicht herumgesprochen: Überall auf der Welt wurden riesige Gasvorkommen entdeckt, von Israel bis Katar, von Südafrika bis in die Ukraine oder Polen. Die Funde übertreffen alle Erwartungen. Die USA fanden so viel Gas, dass sie von Importen gänzlich unabhängig werden könnten. Beim jetzigen Verbrauch reichen sie für mindestens 100 Jahre. Und auch Europa hat Gas für mindestens weitere 50 Jahre – wobei die zweitgrößten Vorkommen unter dem Emsland bis Nordrhein-Westfalen schlummern. Alle großen Energie-Konzerne investieren riesige Summen in Probebohrungen und neue Technologien. Die Internationale Energieagentur IEA spricht von einer „stillen Revolution“.

Doch statt sich über die „Gasschwemme“ (IEA) zu freuen, sind viele selbsternannte Gestalter unserer Energiezukunft jetzt mächtig erschrocken. Die Russen und ihr Staatskonzern Gasprom , weil sie auf ihrem Gas sitzen bleiben, und sich Pipelines wie „Northstream“ nicht mehr rechnen könnten. Das gleiche gilt für Projekte wie „Nabuco“ und „Southstream“. Ebenfalls erschrocken sind die deutschen Energieträumer mit ihren Solarzellen, weil Erdgas als relativ umweltfreundliche und obendrein viel billigere Zukunftsoption die grünromantische Alternativenergie-Landschaft unterspülen dürfte. Erdgas ist umweltfreundlicher als Kohle und Erdöl, man kann damit Heizen, Strom erzeugen und sogar Auto fahren (Erdgaskraftwerke sind nebenbei auch besonders gut in der Lage, Schwankungen der Windenergie auszugleichen). Und wie reagiert man hierzulande auf die frohe Kunde? Wie gehabt: Der Protest gegen Erdgas-Probebohrungen schwillt an. Statt durch Gasverbrennung soll Energie weiterhin durch Geldverbrennung erzeugt werden.

Dirk Maxeiner & Michael Miersch 

Erschienen in ACHGUT am 21.2.11 und die DIE WELT am 18.02.2011 

Weiterführende Links:

Schiefergas entwertet teure Pipelines

Unsere Energieträumer verbrennen Geld anstatt Gas




In Nord NEW BRUNSWICK, Kanada, sind die Windräder eingefroren

Update: 

Umfrage der (britschen) Daily Mail*, ob im Vereinigten Königreich weiterhin in Windenergie investiert werden sollte:

Ja: 39%
Nein: 61 %

Der britische Mainstream ist offensichtlich besser informiert über den tatsächlichen Nutzen (und die Kosten!) der Windkraft als die Deutschen.

GDF SUEZ Energy, die Firma, der die Anlage gehört und die sie betreibt, arbeitet daran, die Windräder wieder in Gang zu setzen, sagte eine Sprecherin des Unternehmens. "Das Wetter können wir nicht machen," sagte Julie Vitek in einem Interview am Firmensitz in Houston, Texas. "Wir bemühen uns, besser damit umzugehen und probieren Einiges aus." Die Wetterbedingungen in Nord NEW BRUNSWICK hätten in diesem Winter verheerende Schäden  in den Windfarmen angerichtet. "Kaltes und trockenes Wetter, wie es normalerweise in jener Region vorherrscht, ist für uns gut. Kaltes und feuchtes Wetter kann problematisch werden, wenn keine wärmeren Tage mit Tauwetter dazwischen sind, wie es in diesem Jahr der Fall war. Diese Wetterlage war eine besondere Herausforderung.

Das Wetter hatte die Anlage auch im vergangenen Winter zeitweilig stillgelegt, nur wenige Monate nach Fertigstellung. Mehrere bis zu allen Turbinen waren für einige Tage wegen besonders schwerer Vereisung abgeschaltet.
Die Vereisung verändert die Aerodynamik der Rotoren und macht sie unwirksam. Zusätzlich führt erhöhtes Gewicht zur Stilllegung.

Die Arbeiter würden nun versuchen, den Eisansatz zukünftig zu verhindern, sagte Vitek. Die Abschaltung hatte keine Auswirkung auf die Beschäftigung in der Anlage. Dort sind 12 feste Dauerarbeitsplätze.

Suez hatte im Februar 2008  einen Vertrag erhalten, um eine Windfarm mit 33 Turbinen auf dem CARIBOU MOUNTAIN zu errichten. NB POWER hat sich vertraglich verpflichtet, 20 Jahre lang die 99 Megawatt Energieerzeugungskapazität abzukaufen. Die Anlage ist im November 2009 in Betrieb gegangen.

Seinerzeit wurde das Projekt dafür gelobt, dass NB POWER im Jahre 2010 sein Ziel einer Windenergiekapaziät von 400 Megawatt erreichen könnte. Die Anlage kann 19 000 Haushalte versorgen.
Melissa Morton, Sprecherin von NB POWER, sagte, der Vertrag würde keine periodenbezogenen Lieferungen vorsehen, stattdessen eine jährliche Menge. "Es gibt Zeiten, wo die Erzeugung geringer ist als erwartet und Zeiten, wo sie höher ist", sagte sie. "Wir zahlen nur für die Energie, die in unser Übertragungsnetz geht. Aber weil sich die Preise am Energiemarkt ständig ändern, haben wir keine Möglichkeit zu erkennen, ob NB POWER viel oder wenig für die Ersatzenergie bezahlt."

"Es kann teurer, kann aber auch billiger sein," sagte sie, aber die Schwankungen in der Erzeugung aus anderen Anlagen könnte das wettmachen. "Wir hoffen, dass es sich über eine 12-Monats-Periode ausgleicht. Das war schon immer so."

Trotz der Probleme mit aufeinanderfolgenden Wintern macht sich NB POWER keine Sorgen wegen der Verläßlichkeit der Versorgung vom CARIBOU MOUNTAIN.

Die Webseite von SUEZ behauptet, dass die Windfarmen jährlich mit etwa 35 Prozent ihrer Kapazität Strom erzeugen, darin wären auch tägliche und jahreszeitliche Schwankungen des Windes berücksichtigt.

David Coon, Geschäftsführer des CONSERVATION COUNCIL von NEW BRUNSWICK, sagte, dass der Winter stärkere Winde in die Provinz brächte, und das würde die Strom-Produktion der Windfarmen erhöhen. Die Probleme mit CARIBOU MOUNTAIN wären überraschend, weil andere Projekte in kalten Klimagegenden keine Schwierigkeiten hätten. "Ich weiss nicht, warum," sagte er, "es gibt viel mehr Windfarmen im Norden von uns in QUEBEC, und ich kann nicht verstehen, warum man Probleme hat."

NB POWER hat auch Verträge zur Stromlieferung von anderen Windfarmen in der Region.

Eine Windfarm der TRANSALTA im Süden von MONCTON hat 18 Turbinen und ist damit die größte Windfarm in ATLANTIC CANADA.

NB POWER hat auch Verträge zur Lieferung von Strom aus dem ACCIONA Windprojekt in LAMÈQUE und einen Vertrag mit einer weiteren SUEZ Windfarm auf der PRINCE EDWARD Insel. Auf der Insel betreibt SUEZ eine zweite Windfarm. SUEZ hat auch Einrichtungen in Mittel- und Südamerika und in Europa.

Von Greg Weston, Telegraph-Journal, 15. 2. 2011

Übersetzt von Helmut Jäger EIKE

Weiterführender Link. Windkraftanlagen liefern nicht bei Kälte

 * Mit Dank an – Wattenpresse – Infodienst des Wattenrates Ost-Friesland 

         




Energiepolitik: Der kommende Bürgerkrieg um „Erneuerbare“: Schiefergas revolutionioniert die Energieversorgung

Helen Chivers vom britischen Met Office musste zugeben, dass die in den letzten Jahren immer öfter von Norden her über die britischen Inseln ziehenden Kältehochs meist zu Windstille über der ganzen Insel führen. Das Jahr 2010 brachte den britischen Inseln weniger Wind als alle Jahre seit dem Beginn der offiziellen Aufzeichnungen im Jahre 1824. Die Ursache dafür sehen Meteorologen in der Umkehrung des Index-Vorzeichens der so genannten Nordatlantischen Oszillation (NAO). Ist dieser Index positiv, liegen über Island im statistischen Mittel meistens Tiefdruckgebiete und über den Azoren Hochs. Im vergangenen Jahr war der Index aber so stark negativ wie noch niemals zuvor seit dem Beginn der offiziellen Wetteraufzeichnungen. Aus dem statistischen Konstrukt „Island-Tief“ ist ein Island-Hoch geworden. Es springt ins Auge, dass diese Vorzeichen-Umkehrung zeitlich zusammenfällt mit einem Minimum der Sonnenflecken-Aktivität. Von daher ist ansehbar, dass die Winter in nördlichen Breiten in den kommenden Jahren noch kälter und windärmer werden. Mehr Wind ist hingegen am Mittelmeer zu erwarten.

Gerade wenn der Energiebedarf am höchsten ist, können die Windfarmen an oder in der Nordsee also kaum Strom liefern. Daher erscheint es umso bedenklicher, dass sich die konservativ-liberale Regierung unter David Cameron, EU-Vorgaben folgend, verpflichtet hat, bis zum Jahre 2020 30 Prozent der Elektrizität aus „erneuerbaren“ Energiequellen zu erzeugen. Um das zu erreichen, müsste die Zahl der Windräder verdoppelt werden. Gleichzeitig müssten Kohle- Öl- und Gaskraftwerke für windstille Zeiten bereitstehen. Doch Kohle- und Ölkraftwerke sollte es bis dahin nach dem Willen der EU-Kommission eigentlich gar keine mehr geben. Auf jeden Fall würden sich die Energiekosten der Privathaushalte bis 2020 verdoppeln. Jeder Haushalt müsste dann jedes Jahr im Schnitt 2.400 Pfund (2.890 Euro) für Heizung und Beleuchtung ausgeben.

In Deutschland stellt sich Lage noch dramatischer dar. Der an der Fachhochschule Aachen lehrende Prof. Dr. Ing. Helmut Alt,  der früher für den Stromkonzern RWE tätig war, hat die Leistungsganglinien aller in Deutschland installierten Windkraftanlagen (WKA) von 2006 bis 2010 ausgewertet und festgestellt, dass diese statt der Nennleistung von inzwischen etwa 26.500 Megawatt öfters stunden- oder tagelang Leistungen nahe Null in das Stromnetz einspeisten. Für diese windstillen Tage mussten also Reservekapazitäten in Höhe der Gesamtkapazität aller Windkraftanlagen vorgehalten werden. In der Praxis bedeutet das, dass alte Kohlekraftwerke auf völlig unwirtschaftliche Weise am Köcheln gehalten werden müssen, um sie bei Bedarf rasch hochfahren zu können.

Am teuersten kamen die Stromverbraucher jedoch windreiche Feiertage, an denen die WKA ihre volle Leistung lieferten, aber kaum Stromabnehmer vorhanden waren. So am 3. und 4. Oktober 2009, als die deutsche Industrie wegen des Nationalfeiertags auf Sparflamme arbeitete. An diesen Tagen mussten die Stromanbieter an der Leipziger Energy Exchange EEX bis zu 1.500 Euro je Megawattstunde zuzahlen, um für den überschüssigen Windstrom überhaupt Abnehmer zu finden. Ähnlich, aber nicht ganz so schlimm, war die Situation an den beiden Weihnachtsfeiertagen des gleichen Jahres. Die Erzeuger von teurem Windstrom erhalten auch in diesem Fall den ihnen zugesicherten Erlös. Denn nach dem Erneuerbare Energien-Gesetz (EEG) hat die Einspeisung von Wind- oder Solarstrom immer Vorrang vor konventionellen Energiequellen. Alle dadurch entstehenden Zusatzkosten werden auf die Endverbraucher abgewälzt. Im Jahre 2009 haben die deutschen Stromverbraucher die „Erneuerbaren“ nach Berechnungen von Prof. Dr. Ing. Helmut Alt bereits mit fast neun Milliarden Euro subventioniert. Für dieses Jahr wird dieser Betrag auf über 14 Milliarden Euro geschätzt. Hier sammelt sich sozialer Sprengstoff an.

Aus Angst vor Verbraucherprotesten hat sich Norbert Röttgen vor kurzem mit der Solar-Lobby immerhin auf eine Kürzung des Einspeisetarifs um 15 Prozent ab Juli 2011 geeinigt. Doch das wird den sich anbahnenden Konflikt mittelfristig noch verschärfen. Denn bei aller künstlich erzeugter Euphorie hinsichtlich der „Erneuerbaren“ hat es die Berliner Regierung in ihrem „Energiekonzept“ vom September 2010 versäumt, etwas über die zukünftige Rolle des umweltfreundlichen Energieträgers Erdgas zu sagen. Doch gerade hier (und nicht bei den „Erneuerbaren“) bahnt sich zurzeit wegen der technisch und wirtschaftlich möglich gewordenen Nutzung „unkonventioneller“ Schiefergas-Lagerstätten eine wirkliche Revolution an. Nach erfolgreichen Probebohrungen von ExxonMobile, Wintershall und BEB in Deutschland und Polen gilt es als sicher, dass hier Erdgasvorräte liegen, die die heimische Versorgung für etliche Jahrzehnte sichern und Erdgas-Importe aus Russland überflüssig machen könnten. Weltweit sollen sich die nutzbaren Erdgasvorräte durch die neue Fördertechnik nach Schätzung texanischer Geologen fast verzehnfachen! Offenbar passte diese Revolution nicht in Angela Merkels "Energiekonzept", weil sie nicht geplant war. So gibt es nun selbst im schwarz-gelben Regierungslager Stimmen, die dafür plädieren, den neu entdeckten Schatz gar nicht erst zu heben. Es ist dennoch absehbar, dass Erdgas in den kommenden Jahrzehnten auf den europäischen Märkten so reichlich und so preisgünstig zu haben sein wird, dass es schwerer wird, den teuren deutschen Alleingang mit „Erneuerbaren“ fortzusetzen. Es dürfte den Regierenden schwerer fallen, ihre Wähler angesichts kälter werdender Winter den Sinn der Förderung unzuverlässiger und obendrein teurer Energien zu vermitteln.

Dabei ist dem zuständigen Bundeswirtschaftsminister Rainer Brüderle ohnehin bewusst, dass die Wette mit den „Erneuerbaren“ nur aufgehen kann, wenn der „grüne“ Strom von den projektierten Windparks in der Nordsee und anderen Erzeugungsorten zu den Verbrauchern in den Ballungsgebieten geleitet werden kann. Dafür sind insgesamt etwa dreieinhalbtausend Kilometer zusätzliche Hochspannungsleitungen nötig. Davon wurden im vergangen Jahr gerade einmal achtzig gebaut. Mit aufwändigen Werbekampagnen will Brüderle den verständlichen Widerstand der Landbevölkerung gegen neue Stromtrassen überwinden. Ob ihm das gelingen wird, steht dahin. Der in den Niederlanden erscheinende Spezialdienst „European Energy Review“ spricht bereits von Anzeichen eines kommenden Energie-Bürgerkrieges in Deutschland.

Auf diesem Hintergrund wird verständlich, warum der EU-Ministerrat am 3. und 4. Februar sich vorrangig mit der Förderung von „low carbon technologies“ sowie mit „societal challenges“ befasst hat. Eine dieser Herausforderungen ist der Ausbau grenzüberschreitender Stromnetze. Dafür will die EU-Kommission über 200 Milliarden Euro locker machen. Über die Ausgestaltung des internationalen Stromnetzes gibt es aber noch keine Einigkeit zwischen den EU-Mitgliedsstaaten. Denn es macht einen großen Unterschied, ob vornehmlich Windstrom von Norden nach Süden oder Solarstrom in umgekehrter Richtung transportiert werden soll. Eigentlich sollte im Ministerrat das Thema "Energieeffizienz" im Vordergrund stehen. Doch dieses Thema wird in der Abschlusserklärung kaum erwähnt. Das "Handelsblatt" meldete allerdings am 9. Februar 2011, die EU-Kommission bereite eine Verordnung über die Entsendung von Energieeffizienz-Inspektoren in die Betriebe vor. Diese Inspektoren sollen der privaten Industrie Beine machen, damit die EU ihr Ziel einer 20-prozentigen Steigerung der Energieeffizienz bis zum Jahre 2020 noch erreichen kann. Das bestärkt die Befürchtung, dass die Klima-Planwirtschaft der EU Eingriffe in private Eigentumsrechte notwendig macht. Beim beschlossenen Ausbau des Stromnetzes werden solche Eingriffe aber wahrscheinlich auf massiven Widerstand stoßen.

Edgar L. Gärtner zuerst erschienen in eigentümlich frei

Literatur:

Wind farms don’t work in the cold

Customers face huge bills for wind farms that don’t work in the cold

Britain is becoming less windy

Prof. Dr. Ing. Helmut Alt: Nettosubventionierung für „Erneuerbare“ 2009 betrug netto 8,7 Mrd. Euro

Schiefergas entwertet teure Pipelines

Germany’s coming civil energy war

European Council 4 February 2011: Conclusions

11. Februar 2011




Lobbyismus vom Feinsten, die Krakenarme der Lobby für „Erneuerbare“: Vortrag des Fernsehjournalisten G. Ederer auf der 3. Int. Klima- und Energiekonferenz in Berlin

Vortrag über die "Erneuerbaren" Lobby des ökoindustriellen Komplexes gehalten von Günter Ederer am 4.12.10 in Berlin. Zu deren parlamentarischen Lobbyarbeit sehen Sie bitte auch diesen Beitrag (hier)

Und unten sehen Sie als aktuellen Beweis einen weiteren hochrangigen Lobbyisten für "Erneuerbare", der ungeniert und von höchster Stelle vor dem Europa Parlament die Klimaleugnerkeule schwingt, um die durch Angstmache erzeugte zwanghafte Umverteilung zugunsten der Ökolobby zu steigern.

Allerdings muss man wohl beim Oberlobbyisten Prinz Charles davon ausgehen, dass er – mangels angeborener Einsichtsfähigkeit – es nicht besser weiß.

Jedoch Charles´eigener Lebensstil schafft einen CO2–Fussstapfen, der 100 Mal grösser als der jeder anderen Person im Vereinigten Königreich. Präs. Barroso will vor 2050 die Treibhausgase um bis zu 95% mindern – bedauert jedoch, dass die “Bekämpfung des Klimawandels” in den Hintergrund getreten sei,und zwar wegen schwacher nationaler Etats und Arbeitslosigkeit!

Mit Dank an den Honigmann für diese ergänzenden Informationen

Related Files




Björn Lomborg: “Grüne Jobs” könnten sich als Bumerang erweisen !

Keine ökonomischen Vorteile

Dr. Gülen fand in seiner Untersuchung, dass es keine Grundlage gibt,  die Erschaffung neuer Jobs als “einen weiteren Vorteil” von gut gemeinter grüner Politik zu verteidigen. Tatsächlich ist es so, dass die Zahl der Arbeitsplätze die durch grüne Politik vernichtet werden zumindest gleich groß ist wie die Zahl der neuen Arbeitsplätze die dadurch erschaffen werden.

Ein weiteres Ergebnis war, dass in einigen Untersuchungen in denen die Vorteile der neu geschaffenen Arbeitsplätze herausgestellt werden sollten, keine Unterscheidung vorgenommen wurde zwischen befristeten Aufträgen (wie etwa dem Bau von Windturbinen) und den langfristig erzeugten Arbeitsplätzen (wie etwa dem Betrieb und der Wartung der Windräder). Manche der untersuchten Studien gingen so weit, ohne weitere  Begründung einfach anzunehmen, dass diese neuen Arbeitsplätze pauschal zu einer besseren Bezahlung führen würden, als  solche in der konventionellen Energieerzeugung.

Schwammige Definition von “grünen Arbeitsplätzen”

In anderen Fällen war die Definition der “grünen Arbeitsplätze” so schwammig, dass sie für eine vernünftige Einordnung völlig untauglich war. Falls etwa ein Beauftragter für Nachhaltigkeit seine Anstellung bei einer Zementfabrik kündigte und stattdessen für eine Firma arbeitete, die ihr Geld mit erneuerbaren Energien verdient, wurde das von einigen Studien als die Schaffung eines “neuen” Arbeitsplatzes angesehen.

Auch beruhten viele Abschätzungen über die Neuerschaffung von grünen Jobs auf Annahmen zur Produktion von “grüner Energie”, welche belastbare seriöse Schätzungen bei weitem übertrafen.

Höhere Kosten kaum beachtet

Ein weiterer Punkt der in vielen Studien zu den “Erneuerbaren Energien” ebenfalls kaum Beachtung fand, waren die höheren Kosten für die Erschaffung von Arbeitsplätzen und die Verluste von Jobs in anderen Bereichen durch die Umsetzung grüner Politik. So führen steigende Kosten für Elektrizität, Heizenergie und Kraftstoffe zu steigenden Produktionskosten und reduzieren die Zahl der konventionellen Arbeitsplätze. Diese Effekte führen insgesamt betrachtet sogar zu einer Reduzierung des verfügbaren Einkommens.

Sobald man diese Effekte mit in Betracht zieht stellt sich heraus, dass die angeblich neu geschaffenen Stellen durch grüne Energien zumindest ebenso viele “alte Jobs” vernichten. Einige ökonomische Modelle zeigen sogar insgesamt einen Rückgang der Beschäftigung. Das bedeutet also, dass trotz des erheblichen finanziellen Aufwandes für die Anstrengungen der Regierungen zur Erschaffung von grünen Jobs insgesamt die Zahl der Arbeitsplätze sogar verringert wird.

Oft ließe sich das Geld sinnvoller einsetzen

Wenn man noch in Betracht zieht, dass es andere Bereiche gibt in denen die gleichen Summen zu mehr Stellen führen, als ein Beispiel wird der Gesundheitssektor genannt, stehen die “umweltfreundlichen Arbeitsplätze” in einem noch schlechteren Licht da.

Auch weitere Behauptungen darüber, was die grünen Jobs alles für unsere Gesellschaft leisten können, wie etwa eine erhöhte Produktivität, ein höheres verfügbares Einkommen und verringerte betriebliche Aufwendungen, wurden genauer unter die Lupe genommen. Und auch hier kam Dr. Gülen zu dem Ergebnis, dass solche Aussagen “keine beweisbare Grundlage haben und völlig inkonsistent mit den Realitäten der grünen Energien und der Energiemärkte” sind.

Insgesamt lässt sich aus der Studie folgern: Sogenannte Grüne Jobs sind vor allem teuer, für die Zahl der Arbeitsplätze zumindest nutzlos und im Gesamtergebnis wahrscheinlich sogar kontraproduktiv.

Quellen und weiterführende Links:

Die komplette Studie (PDF) – Defining, Measuring and Predicting Green Jobs

Reuters – “Green” job creation risks backfiring

Copenhagen Consensus Center – Economic Analysis of the Promise of ‘Green Jobs’

Richard Tol – The Costs and Benefits of EU Climate Policy for 2020

Copenhagen Consensus Center und Buchautor. Auf deutsch erhältlich sind von ihm Apocalypse No!, eine faktenreiche Abrechnung mit der Litanei der Umweltbewegung und Cool it!: Warum wir trotz Klimawandels einen kühlen Kopf bewahren sollten.

Man sehe auch hier: Die Staganaro Studie zur Jobvernichtung durch "grüne Jobs" in Italien, bzw. hier die Calzada Studie zur Jobvernichtung durch "grüne Jobs" in Spanien.

Von Rudolf Kipp EIKE; Der Beitrag erschien zuerst auf Science Sceptical 

Ähnliche Beiträge (Automatisch generiert):




Texas: Wir haben Milliarden in Windenergie investiert – und bekommen Stromausfälle!

Trotz des gewaltigen Ausbaus an installierter Windkraft-Nennleistung waren diese Anlagen nicht imstande, oft mangels Wind, den Ausfall von zwei konventionellen Kraftwerken auszugleichen. Eine Zeit lang prahlte Texas damit die Nr. 1 für Windenergie zu sein, (was es ist) und wir wurden mit TV-Werbespots und Zeitungsartikelln zugemüllt, die für den  "Pickens Plan"warben, der für massive Ausgaben für Windenergie stand. Pickens selbst plante den Bau riesiger Windparks im Nordwesten von Texas. Er hat jetzt alle Aufträge dazu storniert und den Weiterbau gestoppt. 

Natürlich haben auch andere Länder wie Großbritannien bei kaltem Wetter und leichten Winden Wind-Stromausfälle erlebt (und rollende Blackouts)  So auch im vergangenen Winter der US Bundesstaat Minnesota. Ich denke, wir sollten von ihnen lernen. 

Wenn Texas dieselbe Dollar Investitionen in neue Kohle-und / oder Atomkraftwerkn gemacht hätte, sie würden es jetzt wahrscheinlich mollig warm haben. Müssen wir wirklich während extremer Kälte unsere Familien und deren Sicherheit zusammen mit der Produktivität aus Gründen der politischen Korrektheit, opfern ?

Kommentar: 

„Erneuerbaren Energien” auszubauen und damit andere Energieerzeugung zu ersetzen? Texas hat diese Idee jetzt unfreiwillig in die Tat umgesetzt – und schweren Schiffbruch erlitten. Die unzuverlässige Windenergie kann konventionelle Kraftwerke (einschließlich Wasserkraft) nicht ersetzen. Darauf ausgerichtete Planungen sind Phantasiegebilde, die die Gesellschaft großen Gefahren für die Versorgungssicherheit (mit allen daran anschließenden Problemen) aussetzen.

Unter Verwendung von Texten von W. Kreuzmann auf Klimaskeptikerinfo

Englisches Original hier