1

Fukushima – Der Jahrestag – Die Medien – Die Fakten! Stellungnahme des Strahlenschutzverband Schweiz 13.3.2012

Ich habe die Veranstaltung besucht und möchte Ihnen hiermit eine kurze qualitative Zusammenfassung im Telegrammstil liefern, die in Diskussionen vielleicht hilfreich sein dürfte.   

   Fakten:

·         Kernaussage aller Referenten: Fukushima ist nicht Tschernobyl

·         Durch den Ozean und die günstige Wetterlage wurden Radionuklide größtenteils auf das Meer getragen und extrem verdünnt

·         Alle radiologischen Daten aus Fukushima umfassen den Zeitraum 2 Monate nach dem Ereignis bis jetzt, d.h. die ersten 2 Monate nach dem 11. März 2011 sind nicht erfasst, können nur abgeschätzt bzw. müssen rekonstruiert werden

·         Dies läge an der mangelnden messtechnischen Ausrüstung in dieser Region auch schon vor dem Ereignis; die unzureichende vorhandene Ausrüstung zum Zeitpunkt des Ereignisses sei durch das Erdbeben bzw. die Flutwelle überdies größtenteils verloren gegangen.

·         Inklusive Faktum fehlender bzw. nur zu rekonstruierender radiologischer Daten: Kein einziger radiologisch bedingter Todesfall und auch kein einziger radiologisch bedingter nachweisbarer Krankheitsfall infolge des Reaktorunglücks liegt vor – weder bei Arbeitern der Anlage noch in der Bevölkerung

·         Zwei Arbeiter in den Anlagen seien ertrunken, 4 Arbeiter seien mechanisch verletzt worden, z.B. durch Frakturen

·         Block 2 der insgesamt 4 relevanten Reaktorblöcke wird als Hauptquelle für radioakt. Emissionen bezeichnet

·         Die geborstene Kondensationsringkammer (KoKa) von Block 2 war trotz der Leckagen wiederum auch Rückhaltequelle für Schwermetalle

·         Da radioaktiver Dampf vor Austritt ins Freie erst die KoKa durchströmte musste, konnten Strontium, Uran und Plutonium dort durch Restwasser / Schwerkraft sowie andere Effekte gebunden werden

·         Hauptradionuklid heute und für die Zukunft ist Cäsium, die Werte seien jedoch „beruhigend“

·         Es gibt mehrere Dutzend „hot spots“ radioaktiver Belastung in der Gegend um Fukushima, die meisten Flächen weisen heute nur Belastungen wie die Hintergrundstrahlung im Schwarzwald auf  

·         Nahrungsmittel in Fukushima und generell in Japan und sind entgegen der öffentlichen Wahrnehmung kein Problem. Nur Pilze und Wildfleisch sollten gemieden werden.

·         Interne und externe Exposition der Bevölkerung bewegt sich im Bereich von Millisievert  (mSV)

·         Einige wenige Arbeiter kamen auf Werte bis 250 mSv, der maximale Einzelfall wird auf 680 mSv geschätzt, was i.w. eine Schilddrüsenbelastung wegen nicht benutzter (doch vorhanderner!) Atemschutzmasken darstellen wird

·         Damit sind keinerlei pathologische Folgen zu verzeichnen, d.h. keine direkten Auswirkungen des Unfalls auf die Gesundheit der Menschen sind nachweisbar, auch wird dies später nicht möglich sein.

·         Es gibt lediglich ein theoretisches, rein zurechenbares Risiko einer zusätzlichen Krebserkrankung, d.h. gegenüber zivilisatorisch auftretendem Krebs. Dieses entspricht pro Jahr dem Risiko durch Höhenstrahlung bei einem Transatlantikflug.

·         Zu beachten ist hingegen das toxikologische Risiko durch havarierte Chemieanlagen in der Tsunamiregion, was momentan unverständlicherweise weder amtlich noch öffentlich thematisiert wurde

Die Folgen und Aussichten:

·         80.000 Menschen wurden evakuiert, 156.000 haben insgesamt die Gegend um Fukushima verlassen

·         Die Gegend um Fukushima wird relativ schnell wieder besiedelt werden, Dekontamination mittels Hochdruckreinigern und Erdabtrag an Hotspots oder neuralgischen Punkten wie z.B. Kinderspielplätzen hat stattgefunden bzw. findet noch statt

·         Es wird in der Nähe der Reaktoren erwogen, den Meeresboden zu betonieren, um eine Sedimentversiegelung zu schaffen

·         Alle Maßnahmen zur Wiederherstellung des öffentlichen Lebens inkl. privaten Wohnraumes werden mittlerweile generalstabsmäßig von den Behörden geplant und durchgeführt, ab diesem Monat (März 2012) existieren Aktionspläne für jede Gemeinde

·         Es besteht kein Zweifel daran, dass größtenteils normales Leben in und um Fukushima wieder einkehren wird

·         Hot spots (im Umkreis bis 60 km) mit weiterhin bzw. dauerhaft >20mSV/Jahr werden allerdings weiterhin evakuiert bleiben oder Zugangsbeschränkungen unterliegen

·         Japanische Exportgüter werden bereits in Japan auf Kontamination strengstens kontrolliert

·         Es gibt nochmals in DE eine entsprechende Kontrolle an den Flughäfen

·         Die INES Skala, nach der Fukushima ebenfalls wie Tschernobyl in Kategorie 7 eingestuft wurde, wird von allen seriösen Experten in Bezug auf schwere Unfälle als nicht mehr zeitgemäß bzw. nicht mehr brauchbar eingestuft, da beide Ereignisse radiologisch nicht vergleichbar seien

·         Es gibt weiterhin in den (insbes. deutschen Medien) eine beispiellose Vermischung der Erdbebentoten mit dem Reaktorunglück, was nur als Hetze bezeichnet werden kann

·         Ein offizieller Uno-Bericht von UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) zu Fukushima und den Folgen wird 2013 vorliegen.

 A. Opitz/Leipzig    

mit Dank an "Bürger für Technik" Herrn Dr. Lindner




Hart aber Daneben: Ranga Yogeshwar als Wirtschafts-Ignorant! Todesanzeige für Peakoil!

Eine Energiewende sei für ihn damit unverzichtbar und natürlich müsse dafür anfangs Geld in die Hand genommen werden. Dieser Öko-Mythos ist unsterblich wie ein Zombie, ungeachtet aller gegenteiliger Daten und Fakten.

Todesanzeige für „Peak Oil“

Das Konzept, das in den Neunzigerjahren das Salon-Geschwätz dominierte – „Peak Oil” – ist irrelevant geworden. Das sagen die Rohstoff-Spezialisten der Citigroup und vielleicht wären politische Entscheidungsträger wohlberaten, diese Ergebnisse genauer zu betrachten.

„Peak Oil” ist der Punkt, an dem die Produktion von normalem Rohöl unumkehrbar rückläufig wird. Für die einen ist das der Punkt, an dem die knappheitsbedingten Preissteigerungen einen gewaltigen Wandel in den Industriegesellschaften erzwingen würden. Für die anderen war „Peak Oil“ nichts anderes als der Ruf von Mutter Erde, doch zu einem vorindustriell geprägtem Lebensstil zurückzufinden. Ein Beispiel für diese Auffassung ist die „Transition Towns“-Bewegung, ein Mittelklasse-Phänomen, das sich in Pendler-Vororten Großbritanniens entwickelt hat.

Doch eine lesenswerte Studie [PDF], die jetzt veröffentlicht wurde (und die auch implizit Kritik an der Industrie übt), hält das für voreilig. Auf Grund von “unkonventionellem” Erdöl und Erdgas, das dank des technologischen Fortschritts gefördert werden kann, ist “Peak Oil“ einfach tot:

Der Glaube, dass die globale Erdölproduktion ihren Gipfel überschritten hat oder kurz davor steht, hat über zehn Jahre den Run auf Öl beflügelt. Die Wiederauferstehung der US-Gasförderung, die mittlerweile ihren Höhepunkt der Siebzigerjahre weit hinter sich gelassen hat und in den letzten sieben Jahren global zur Nummer Eins aufgestiegen ist, lässt sich auf das Hydraulic Fracturing – Fracking – zurückführen, Fördertechnologien, die bei Schiefergasvorkommen in allen Teilen der USA angewendet werden. Die gleichen Unternehmen nutzen nun diese neuen Techniken bei Schieferölvorkommen, mit Ergebnissen, die in vielen Fällen ähnlich erfolgversprechend sind, wie in den Frühstadien der Schiefergas-Revolution. Die US-Ölförderung steigt mittlerweile an, und zwar ausschließlich auf Basis der Schieferöl-Förderung, da konventionelle Quellen wie in Alaska oder Kalifornien strukturbedingt immer weniger hergeben und die Förderung im Golf von Mexiko im Nachfeld von Macondo erst noch auf Erholung wartet.

Die Schwarzseher hatten gute Gründe, daran zu zweifeln – doch ihnen entging das vollständige Bild, nämlich eines, das auch technische Innovationen einbezieht. Sie wollten einfach zu gerne Schwarzsehen. Die Studie sagt weiter:

Der Glaube an „Peak Oil“ wurde bestärkt durch wiederholte Fälle, in denen die tatsächlichen Fördermengen nie die optimistischen Prognosen erreichten, die von diversen Regierungsstellen und internationalen Energieagenturen propagiert wurden. Die IEA, die Benchmark der Industrie, machte gerne Jahres-Prognosen über große Zuwächse bei der Förderung im Nicht-OPEC-Bereich und war dann die nächsten 18 Monate damit beschäftigt, diese wieder zurückzunehmen.

Die Citigroup kritisiert auch die Ölindustrie und die Experten dafür, dass sie einen Faktor nicht berücksichtigt haben – zu viel versprechen und zu spät liefern.

Man muss es gelesen haben. Die Ölförderung ist weitaus abhängiger von Upstream-Investitionen, als es sich viele Leute vorstellen können. Wenn sie aber anspringt, springt sie rasch an; in den USA hat sich die Anzahl der Bohrstellen in drei Jahren um 500 Prozent erhöht.

Wie geht’s weiter?

“Peak Oil” ist nicht das einzige Opfer der jüngsten Entwicklungen auf dem Energiesektor. Der Tod von „Peak Oil“ zieht etlichen durch unsere Bürokraten und ihrer Berater verfolgten Politikentwicklungen den Teppich unter den Füßen weg. Während der letzten zwei Jahrzehnte konnten wir ein Anwachsen der „Nachhaltigkeitssektors“ beobachten, der fast vollständig von staatlicher Förderung abhängt und von den gleichen falschen Grundvoraussetzungen ausgeht.

Die These war, dass wir in jedem Fall zu akzeptieren haben, dass die moderne Industriegesellschaft auf einer Ressource aufgebaut ist, die nur endlich vorhanden und nur schwer ersetzbar ist. Da gibt es aber noch einen wichtigen anderen Aspekt. Das „Peak Oil“ Gedankengebäude basiert auf der Idee, dass Rohöl nicht durch unkonventionelles Öl bzw. nicht rechtzeitig durch synthethische Kohlenwasserstoffe ersetz werden könnte. Wir können jetzt aber einen Anstieg der unkonventionellen Ölförderung feststellen und in zehn Jahren werden auch kohlenstoffarme synthetische Ersatzstoffe für Öl produktionsbereit sein, unter der Annahme, dass der Preis pro Barrel zwischen 40 – 50 $ bleibt.

Das Problem, dass der Denke von “Nachhaltigkeit“ und „Peak Oil“ gemeinsam zu Grunde liegt ist, das, dass in beiden Fällen eine Ressource nicht als Vektor, sondern als Sache gesehen wird – eine Sache, die selten, einzigartig und unersetzlich ist.

Zu viktorianischen Zeiten war man von Walfett für Beleuchtungs- und Heizungszwecke abhängig und sorgte sich – ähnlich wie die Nachhaltigkeitsleute von heute – darüber, was da als Ersatz dienen könnte. Der menschliche Erfindungsgeist lieferte Altenativen. Auch gab es Zeiten, als sich Politiker über das limitierte und volatile Angebot an Salpeter erregten, ein Nitrat, dass zur Ernährung der Bevölkerung und zur Produktion von Schießpulver unerlässlich war. Die Rettung kam durch die Chemie. Natürlich ist eine Ressource eine Kombination aus vielen Dingen – die Grenze des menschlichen Erfindergeistes ist da nur eines.

Diese Unflexibilität des Denkens jedoch ist verhängnisvoll.

Nur, weil wir einfach ganz gut sind, wenn es um Erfindungen geht, heißt das natürlich nicht, dass wir kurz vor der Gründung von Utopia stehen oder dass sich die normale Politik irgendwie aufhört. Zukünftige Technologien werden ihren Preis kosten, nur begrenzt verfügbar sein und sich auch missbrauchen lassen. Aber sie setzen ein Signal für das nahende Ende dessen, was wir Apokalypse-Politik nennen könnten – mit der unpopuläre und dämliche Politmaßnahmen Erfolg haben können, nur weil ihre Advokaten behaupten, dass sie durch irgendwelche katastrophalen und unverrückbare historische Trends zu rechtfertigen seien. Nur Abergläubische können das noch glauben. ®

Dr. Benny Peiser

Übersetzung H.B.

Originalartikel: The Register

Zuerst erschienen bei ACHGUT




Fukushima Gedenken: hochgespielter Super-Gau!

Es sind für viele Mitteleuropäer erstaunliche Aussagen, die Wolfgang Weiss vor kurzem machte. Weiss ist Vorsitzender des Uno-Wissenschaftskomitees zu den Auswirkungen atomarer Strahlung (UNSCEAR). Gemäss den heute zur Verfügung stehenden Informationen seien die gesundheitlichen Auswirkungen der Atomkatastrophe von Fukushima wohl gering, sagte Weiss. Vor allem wegen der zügigen Evakuation seien die Radioaktivitätsdosen, die die Bevölkerung abbekommen habe, «sehr tief». Einige wenige Arbeiter im havarierten Werk hätten zwar hohe Dosen abbekommen. Es seien bis jetzt aber keine gesundheitlichen Probleme bei ihnen zu beobachten – insbesondere auch keine Strahlenkrankheiten, wie sie bei vielen Arbeitern nach der Atomkatastrophe 1986 in Tschernobyl auftraten.

Weiss’ Aussagen kontrastieren mit dem Bild, das man sich in der Schweiz und in Deutschland von «Fukushima» macht. Das Unglück gilt als «eine der grössten Technik­katastrophen aller Zeiten» (Bild der Wissenschaft). Zum Jahrestag sprechen die Medien von der «Strahlen­hölle» (Tages-Anzeiger), suggerieren verhee­rende Auswirkungen auf die Gesundheit der Bevölkerung und betonen unablässig, dass die Evakuierten wohl nie mehr in ihre Heimat zurückkehren könnten. Dass der Tsunami, der die Havarie auslöste, etwa 20.000 Menschen ­tötete, fast eine halbe Million Häuser zerstörte und etwa 500 Quadratkilometer Land verwüstete, trat in der hiesigen Berichterstattung rasch in den Hintergrund. Das Atomunglück war auch der Grund, dass die Schweiz und Deutschland kopfüber den Ausstieg aus der Atomenergie beschlossen. Wer sich hingegen auf Fakten stützt, muss zum Schluss kommen, dass Wolfgang Weiss richtig liegt. «Fukushima» war, verglichen mit anderen Katastrophen, nur ein Ereignis mittlerer Bedeutung. Das zeigen Recherchen der Weltwoche.

Nach der Atomkraftwerk-Havarie in Fukushima am 11. März letzten Jahres gelangte an radio­aktivem Material grob geschätzt etwa ein Zehntel dessen in die Umwelt wie nach der Katastrophe in Tschernobyl 1986. Ein grosser Teil davon wurde Richtung Pazifik weggetragen und hat darum kaum Schaden angerichtet. Trotz düsterer Medienberichte waren freigesetztes Strontium und Plutonium nie ein Problem. Von Bedeutung bei den ausgestossenen radioaktiven Substanzen waren Iod, das mit einer Halbwertszeit von acht Tagen aber nur einige Wochen lang relevant war, und Cäsium. Mit ­einer Halbwertszeit von dreissig Jahren ist Cäsium hauptverantwortlich für die heute noch vorhandenen Belastungen um das AKW Fukushima.

Wegen der Radioaktivität infolge des Atom­unglücks ist bis heute kein einziger Mensch ums Leben gekommen. Und die Chancen stehen gut, dass es auch in Zukunft kaum Opfer geben wird. Die meisten Arbeiter, die nach der Havarie im AKW im Einsatz waren, haben eine Dosis unter 100 Millisievert (mSv) erhalten. Es gibt keine wissenschaftlichen Belege dafür, dass einmalige Radioaktivitätsdosen bis zu diesem Wert schädlich sind. Allerdings ist auch das Gegenteil nicht bewiesen. Darum ­gehen Präventivmediziner davon aus, dass es ­keine untere Schwelle der Schädlichkeit gibt. Sie rechnen die negativen gesundheitlichen Folgen, die man bei hohen Dosen beobachtet, linear auf tiefe Dosen herunter. Auch unter diesen Annahmen hat sich aber das Risiko, im Alter an Krebs zu erkranken, bei den Arbeitern mit einer Dosis bis 100 mSv um maximal ein halbes Prozent erhöht. Es gibt jedoch 110 Arbeiter, die stärker bestrahlt wurden, sechs davon mit mehr als 250 mSv (Spitzenwert 678 mSv). Ihr Risiko für Krebs in späteren Jahrzehnten ist aber gegenüber nichtbestrahlten Menschen höchstens um wenige Pro­zent gestiegen.

Dank der zügigen Evakuationen unmittelbar nach dem Unglück wurde die Bevölkerung gesundheitlich kaum beeinträchtigt. Etwa 100.000 Bewohner im Umfeld des AKW Fuku­shima müssen (auf die ganze Lebenszeit hochgerechnet) mit einer zusätzlichen Dosis von bis zu 50 mSv rechnen. Das ist wenig im Vergleich zur natürlichen Strahlung, die im weltweiten Schnitt für eine Lebensdosis von etwa 150 mSv sorgt. In einigen Gebieten der Welt ­beträgt die Belastung durch natürliche Radioaktivität sogar das Zwei-, Drei- bis Zehnfache dieses Durchschnittswerts. Dazu zählen viele Orte in den Alpen. Bis heute konnten an solchen Orten aber nie negative Auswirkungen der Strahlung auf die Gesundheit nachgewiesen werden. Doch selbst wenn man annimmt, dass auch tiefe Dosen schädlich sind, sind die Auswirkungen in Fukushima für die Bevöl­kerung gering. Die statistische Lebenszeit­verkürzung bei einer zusätzlichen Dosis von 10 mSv beträgt etwa zweieinhalb Tage, bei 50 mSv knapp zwei Wochen. Im Vergleich zu anderen Lebensrisiken ist das fast vernach­lässigbar.

Wie eine Zigarette alle acht Jahre

Auch die Belastung durch verstrahlte Lebensmittel kann als unbedeutend angenommen werden. In Japan wurde und wird die Bevölkerung konsequent vor belasteter Nahrung geschützt. Während im Mai noch bei fünf Prozent aller Lebensmittelproben die Grenzwerte überschritten wurden, waren es im Juli noch drei Prozent und im August weniger als zwei. Zudem stellt die Überschreitung eines Grenzwertes noch längst keine Gesundheitsgefahr dar. In der Regel liegen die Grenzwerte (in ­Japan und bei uns) um das Tausendfache unter den Dosen, die medizinisch relevant sind. Die Schweizer Medien bauschen die Gefahren aber auf. So berichtete der Gesundheitstipp im letzten Oktober von angeblich verstrahltem Tee aus Japan in Schweizer Läden. Die maximal gemessene radioaktive Verstrahlung betrug dabei 6,1 Becquerel pro Kilogramm. Greenpeace warnte düster vor dem Konsum des Tees. In Wahrheit entspricht das Risiko – selbst wenn man dauerhaft täglich sechs Tassen dieses Tees trinken würde – lediglich dem Risiko ­einer Zigarette alle acht Jahre. Das zeigen Berechnungen der Weltwoche.

Viele Schlagzeilen erzeugte das Wasser, das in Fukushima zur Kühlung eingesetzt wurde und darum radioaktiv belastet war. Als im letzten April ein Teil dieses Wassers infolge von Lecks ins Meer floss, wurde in den Medien eine Verseuchung des Pazifiks suggeriert. Meerwasser ist aber ganz natürlich ebenfalls radioaktiv. Ein Kubikkilometer Wasser enthält im weltweiten Schnitt zum Beispiel drei Tonnen Uran. Die zusätzliche Radioaktivität, die ins Meer gelangte, entspricht der natürlich vorhandenen Radioaktivität einiger hundert Kubikkilometer Meerwasser. Das tönt nach viel, ist es aber nicht: Man kann davon ausgehen, dass das Kühlwasser innert kurzer Zeit stark verdünnt wurde und die Kontamination der entsprechenden Wasserschichten schon bald vernachlässigbar klein war. Ein Teil des radioaktiven Materials setzte sich zwar in Meeres­sedimenten fest, was jedoch höchstens lokal von Bedeutung ist: Nimmt man an, dass etwa zehn Prozent des radioaktiven Materials in den Meerboden sickerte, und vergleicht man diese Menge mit der natürlichen Radioaktivität von Böden (oberster Meter), entspricht die zusätzliche Belastung derjenigen, die etwa hundert Quadratkilometer Meerboden ganz natürlich aufweisen – ein eher geringer Betrag.

Auch das Kühlwasser, das sich im Untergrund der Reaktoren gesammelt hat, stellt kein Problem mehr dar: Dessen maximale ­radioaktive Belastung entsprach im vergangenen Februar lediglich der von gewöhnlichem Regenwasser, wie Messungen zeigen. In manchen Gebieten der Welt ist Regenwasser sogar mehr als hundertfach höher belastet. Denn ­Regen wäscht natürlich vorhandene radioaktive Substanzen in der Luft aus.

Doch was ist mit den etwa 100.000 Menschen, die noch immer nicht in ihre Häuser zurückkehren können? Ist die Errichtung grossflächiger Sperrzonen von unbestimmter Dauer nicht der Beweis, dass die Produktion von Atomenergie unverantwortlich ist? Zum Jahrestag des Reaktorunglücks sind die Medien voll von berührenden Berichten über Menschen, die noch immer in Notunterkünften leben und alle Perspektiven verloren haben.

Eine Evakuation unbestimmter Dauer ist tatsächlich eine gewaltige Belastung. Allerdings scheint es, dass statt der radioaktiven Strahlung vielmehr die übertriebene Angst vor ihr für solches Leid verantwortlich ist. «Weil Evakuierte Haus und Heimat, meist auch ihre Jobs und Zukunftsperspektiven verlieren, können Stress und Angst ihre Gesundheit viel stärker gefährden als niedrige Strahlendosen», sagte Maria Blettner von der deutschen Strahlenschutzkommission, deren Mitglieder vom Bundesumweltministerium berufen werden. Angesichts der Tatsache, dass die zu erwartende (zusätzliche) Lebensdosis in weiten Teilen der Sperr­zone in Fukushima nicht höher liegt als in bekannten Kurorten der Welt, muss man sich fragen, ob eine Rückkehr nicht angezeigt ist. Bezüglich der Atomkatastrophe von Tschernobyl, die viel gravierender war, kam ein breit abgestütztes Wissenschaftsgremium unter Leitung der Uno zum Schluss, dass nicht die Strahlung, sondern die Beeinträchtigung der Psyche infolge von Stress und Angst das grösste Gesundheitsproblem war.

Eine Million Kubikmeter Giftschlamm

Tatsächlich können in Japan viele Evakuierte mit einer Rückkehr in ihre Häuser rechnen, denn die Entgiftung der belasteten Gebiete schreitet voran. Die Regierung hat ­diese Gebiete in drei Zonen eingeteilt. Für ­etwa 300 km2, in denen die Belastung unter 20?mSv pro Jahr liegt, soll die Rückkehr der Bevölkerung in einigen Monaten beginnen und bis März 2014 abgeschlossen sein. Weitere ­zirka 600 km2, wo die Belastung heute zwischen 20 und 50 mSv beträgt, sollen so weit dekontaminiert werden, dass eine Rückkehr ebenfalls bis März 2014 möglich ist. Nur etwa 150 km2, wo die Belastung über 50 mSv pro Jahr liegt, ­bleiben für die nächsten fünf Jahre evakuiert.

Eher geringfügig sind die Auswirkungen von «Fukushima» auch dann, wenn man mit anderen Umweltkatastrophen vergleicht. Im Ok­tober 2010 brach im ungarischen Kolontár ein Rückhaltebecken zur Lagerung von Rotschlamm, der bei der Aluminiumproduktion anfällt. Etwa eine Million Kubikmeter Giftschlamm ergossen sich über 40 km2 Fläche. Zehn Menschen starben. Der Schlamm enthielt unter anderem ungefähr fünfzig Tonnen hochgiftiges Arsen. Die ausgestossene Menge an Gift, gemessen in potenziell tödlichen Dosen, war beim Schlammunglück in Ungarn etwa zehnmal grösser als beim Reaktorunglück in Fukushima. All das zeigt, dass der Bruch des Rückhaltebeckens viel gravierendere Auswirkungen für Mensch und Umwelt hatte als das AKW-Unglück in Japan. Während aber nach der Atomhavarie der Ausstieg aus der Kernenergie sofort zum Thema wurde, verlangte nach dem Unglück in Ungarn niemand den Verzicht auf die Produktion von Aluminium.

(Axel Reichmuth – WELTWOCHE 10/12) mit freundlicher Genehmigung

Siehe auch:

» Zettels Raum: ein sehr lesenswerten Artikel um Thema finden Sie hier

» WELT: Die deutsche Atomhysterie ist welt weit verpufft

» Kritischer Hörer beim WDR 5-Tagesgespräch zu Fukushima (9.3.)




Windturbinensyndrom schlimmer als gedacht

Als Teil seiner Dissertation hat Zhenhua Wang eine Studie über den Lärm von Windfarmen durchgeführt. Zhenhua Wang studiert Geographie, Umwelt und Bevölkerung (Environment and Population) an der University of Adelaide, Australien.

Windturbinen-Syndrom lässt mehr Menschen leiden als gedacht

Die Ergebnisse zeigen, dass 70% der Befragten, die im Abstand von bis zu 5 km von Windfarmen leben, vom Lärm der Windturbinen negativ beeinträchtigt sind. Mehr als 50% sind „sehr oder moderat negativ beeinträchtigt“. Das ist beträchtlich höher als frühere Studien aus Europa zeigen.

Die Untersuchung wurde nahe der Waterloo-Windfarm in Südaustralien durchgeführt. Dort stehen 37 Vestas V90 3 MW Turbinen über eine Ausdehnung von mehr als 18 km (1).

Diese Megaturbinen sollen, wie berichtet wird, mehr Geräusch im Niedrigfrequenzbereich (Low Frequency Noise – LFN) emittieren als kleinere Modelle. Daher sind mehr Menschen über größere Distanzen von den bekannten Symptomen des Windturbinensyndroms betroffen: Schlaflosigkeit, Kopfschmerzen, Übelkeit, Stress, geringere Konzentrationsfähigkeit, Erregbarkeit usw. Das führt zu schlechterem Gesundheitszustand und einer reduzierten Widerstandsfähigkeit gegen Krankheiten. Die dänische Regierung hat kürzlich anerkannt, dass LFN eine erschwerende Lärm-Komponente ist, dem Menschen in der Nachbarschaft von Windfarmen ausgesetzt sind. Das führte zum Erlass von Vorschriften, um die niederfrequenten Geräuschpegel innerhalb der Wohnungen auf 20 dB(A) zu begrenzen. Unglücklicherweise wurden die Berechnungsparameter so manipuliert, dass niederfrequenter Lärm bis zu 30 dB(A) innerhalb von Wohnungen in 30% der Fälle erlaubt ist, wie Professor Henrik Moller offenlegte. „Kaum jemand würde 30 dB(A) nachts in der Wohnung akzeptieren“, schrieb der Professor im vergangenen Monat (2).

Eine Zusammenfassung der australischen Studie steht hier (3), aber die vollständige Doktorarbeit ist nicht veröffentlicht. Die European Platform against Windfarms (EPAW) und die North-American Platform against Windpower (NA-PAW) haben die University of Adelaide um die Freigabe dieses wichtigen Dokumentes im Interesse der öffentlichen Gesundheit gebeten.

Ein Nachbar der Waterloo-Windfarm, Andreas Marciniak, schrieb in der vergangenen Woche an eine Lokalzeitung: „Halten Sie es für lustig, dass ich in meinem Alter nach Adelaide in einen Schuppen meiner Mutter umziehen musste und mein Bruder nach Hamilton in einen Wohnwagen ohne Wasser oder Elektrizität?“ (4) Sowohl Herrn Marciniak als auch seinem Bruder ist von den behandelnden Ärzten einschließlich eines Kardiologen angeraten worden, ihre Wohnungen zu verlassen und nicht mehr zurückzukehren, solange sich die Windturbinen drehen.

„Wie viele Menschen werden noch gezwungen sein, ihre Wohnungen zu verlassen, bis die Regierungen auf die Tausende von Windfarm-Opfern aufmerksam werden, die von EPAW und NAPAW vertreten werden? Es wird noch etwas Zeit brauchen, bis genügende Geld für einen großen Prozess gesammelt worden ist,“ sagte Sherri Lange von der NAPAW, „aber die Zeit arbeitet für uns: Die Opferzahlen werden ständig größer.“

von Mark Duchamp

Originalartikel hier

Übersetzung: Helmut Jäger, EIKE

Referenzen:

(1) http://ecogeneration.com.au/news/waterloo_wind_farm_officially_opened/054715/

(2) http://wattsupwiththat.com/2012/02/09/windfarm-noise-renowned-acoustician-denounces-double-standards-in-noise-regulations

(3) http://www.wind-watch.org/documents/evaluation-of-wind-farm-noise-policies-in-south-australia/

(4) Letter sent to the Editor of the Burra Broadcaster by Mr. Andreas Marciniak, windfarm victim. http://www.disturbines.org.nz/modules.php?name=News&file=article&sid=100




Energiewende in Aktion!

250 000 Euro für einen Arbeitsplatz, das müssen „wir“ bezahlen, was wir gerne tun wenn Produkt und Preis stimmen, wenn die Werschöpfung es uns wert ist.  Aber je mehr Arbeitsplätze in der Photovoltaik zu 250 000 Euro entstehen, desto teurer wird das Produkt bei gleicher Qualität. Da ist doch was falsch mit „diesen“ Arbeitsplätzen. 

Wenn wir ein Auto kaufen, da ist das doch irgendwie anders: Da ist es gut wenn „pro Auto“ weniger Arbeitsplätze dranhängen, dann ist das Auto billiger. Laufend wird versucht, bei gleicher Qualität billiger zu produzieren. Ja … verlieren wir hier Arbeitsplätze? Nein, wenn sich jeder dann ein Auto leisten kann, dann sind es in der Summe mehr. „Diese“ Arbeitsplätze scheinen von anderer Qualität, „diese“ Arbeitsplätze haben uns letztlich aus dem Mittelalter heraus in den Wohlstand geführt. 

Aber beim Produkt „Energie“ ist alles anders und die Situation wird noch verschlimmert durch die Tatsache, dass sich Subventionskosten potenzieren: 
http://www.achgut.com/dadgdx/index.php/dadgd/article/strompreise_elektrisieren_betriebe/ 
Nicht die Eurokrise, sondern steigende Energiepreise nennen die Unternehmen als ihr größtes Problem. Diese hier verlorenen Arbeitsplätze sind natürlich gegenzurechnen. 

Und das alles für 3% Solarstromanteil ! 
Was passiert, wenn sich der Anteil verzehnfacht? 
Wollen wir das? 
Oder anders gefragt: 
Geht das überhaupt? 

Man mag einwenden, dass sich teurere Energie rechnet gegen die Gefahren, die von der Atomenergie ausgehen. Man kann nicht immer die billigere Variante wählen, wenn sie mit gesundheitlichen Gefährdungen (auch Arbeitsschutz macht Arbeitsplätze teurer) oder Umweltgefahren einhergeht. Das ist richtig, aber zur Photovoltaik gibt es Alternativen. 

Thema 2: Superbenzin E10 

In Europa soll bis zum Jahr 2020 der Anteil von E10 auf 10 % gesteigert werden, was eine Anbaufläche von knapp 70.000 km² bedeutet – die zweifache Fläche Belgiens. 
http://www.spiegel.de/wissenschaft/natur/0,1518,749055,00.html 
Überschlagen wir mal: 
10% vom Sprit für E10 und 
E10 hat wiederum 10% Ethanol, 
also benötigen wir für 1% Ethanol im Gesamtsprit. 
Bafür brauchen wir als Anbaufläche zwei mal die Fläche Belgiens = 60.000 km2, vollständig als landwirtschaftliche Monokultur. Zwei mal die Fläche Belgien heisst nicht zwei mal die landwirtschaftliche Anbaufläche Belgiens, nein … vollständig die Fläche mit allem was drauf ist, bebaut in Fruchtfolge für maximalen Ertrag an Stärke und Zucker. 
Und wir brauchen Kunstdünger: 
Der Einsatz von Düngern ist heute etwa beim Maisanbau in den USA der Haupt-Energieverbraucher, und hat noch mehr als die Mechanisierung dazu beigetragen, dass die Landwirtschaft mehr Energie verbraucht als sie in Form von Lebensmitteln erzeugt. Das macht zumindest dahingegen noch Sinn, dass man Dünger nicht essen kann. Und wir haben ja neben der Energiebilanz auch noch die Kostenbilanz. 

Somit exportieren wir das Problem dahin, wo sich das Problem noch rechnet, das hier sind die Glücklichen: 
Brasilien baut Zuckerrohr für Ethanol an, Indonesien gewinnt Biodiesel aus Palmöl. Mais aus Mexiko wird in den USA in großen Mengen zu Biosprit verarbeitet. 
Ja: „Wir müssen uns überlegen, ob wir mit 200 Kilo Mais einen Kleinwagen 1000 Kilometer antreiben oder davon die 700.000 Kalorien gewinnen, um einen Menschen ein Jahr lang zu ernähren.“ 
http://www.rp-online.de/politik/ausland/Ein-Menschenleben-fuer-1000-Kilometer-mit-Biosprit_aid_554661.html 
So packen wir das Brot für den Tank: 
Der grüne Zeitgeist fordert Energie vom Acker und ökologisch korrekte Ernährung. Während der Nutzen für Klima und Natur umstritten ist, schießen die Agrarpreise in die Höhe, und der Hunger breitet sich weltweit aus. Die Zeit drängt, die teure Förderung von Bioenergie zu stoppen. 
Ein Großteil der Inflation in Deutschland geht inzwischen auf das Konto von Nahrungsmitteln. Die Bundesbürger können es verschmerzen. Ihr Einkommen ist global gesehen hoch, der Anteil der landwirtschaftlichen Rohstoffe am Endverbraucherpreis gering. Von den 25 Cent, die der Bäcker für eine Schrippe erhält, entfällt auf den Rohstoff Weizen weniger als ein Cent. 
Fast eins zu eins schlagen die Preissteigerungen dagegen in den Ländern mit der ärmsten Bevölkerung durch, in denen die Menschen nicht 14 Prozent wie in Deutschland, sondern 70 bis 95 Prozent ihres verfügbaren Einkommens für Nahrungsmittel verwenden müssen. 
http://www.wiwo.de/politik-weltwirtschaft/brot-fuer-den-tank-458874/ 
Landenteignung durch Biosprit-Boom am Beispiel Brasilien: 
Auch im brasilianischen nordöstlichen Bundesstaat Bahia ist die „Agrosprit-Welle“ angekommen. Die dort geplanten Biodiesel-Projekte stellen eine große Gefahr für die artenreichen Cerrado- und Caatinga-Wälder, für die traditionellen Weiden in Gemeindebesitz, Küstenwälder und die kleinbäuerliche Landwirtschaft dar. 
Von Landraub und Existenzverlust ist auch das sich im baianischen Bezirk Casa Nova befindende traditionelle Weidegebiet Areia Grande betroffen. Dort eskalierte nun am 7. Februar 2009 der Konflikt zwischen den in diesem Gebiet lebenden traditionellen Gemeinschaften und den Biodiesel-InvestorInnen: Die Leitfigur des Widerstands – der Kleinbauer José Campos Braga – wurde erschossen. 
Seitdem das Gebiet von Areia Grande in Bezug auf das geplante Agrosprit-Projekt zur Diskussion steht, kommt es laut der „Bischöfliche Kommission für Landpastoral“ (CPT Comissão Pastoral da Terra) immer wieder zur gezielten Zerstörungen von Häusern, Stallungen und Zäunen der dort ansässigen Familien vonseiten sogenannter Schlägertruppen, mit dem Ziel, die Bevölkerung einzuschüchtern und zu vertreiben. 
http://www.oneworld.at/start.asp?ID=231503 
Pater Tiago: Rund eine Million Menschen arbeiten jetzt schon für Brasiliens Ethanol-Industrie, etwa 400.000 davon sind Zuckerrohrschneider. Mit dem Ökoboom werden es täglich mehr. Aber sehr viele von ihnen werden gehalten wie Sklaven. 
http://www.spiegel.de/wirtschaft/0,1518,602457,00.html 

Und das alles für 1% Anteil am Sprit ! 
Was ist der Effekt? 
Auch 1 %? 
Was passiert, wenn sich der Anteil verzehnfacht? 
Wollen wir das? 

Thema 3: Biodiesel 

Das Umweltbundesamt lehnt in einem Bericht vom 1. September 2006 die Herstellung von Biodiesel ab und stellt fest: „Potenzial Biodiesel: Wegen der beschränkten Ackerflächen kann mit in Deutschland angebautem Raps maximal etwa fünf Prozent des im Verkehrssektor benötigtem Dieselkraftstoff ersetzt und ein bis vier Prozent der Treibhausgasemissionen in diesem Bereich vermieden werden. Hierzu müsste aber bereits die Hälfte der gesamten deutschen Ackerfläche zum Biodiesel-Rapsanbau in vierjähriger Fruchtfolge genutzt werden, was eher unrealistisch ist. Das tatsächliche Potential liegt deshalb eher in der Größenordnung von 1 bis 2 % der Dieselmenge.“ (Anmerkung: Die Nahrungsmittelindustrie schlägt hier auch zu) Somit exportieren wir das Problem dahin, wo sich das Problem noch rechnet, das hier sind die Glücklichen (Hatten wir das nicht schon mal?): Die glücklichen Menschen: Innocence Dias starb einen grausamen Tod. Die Mörder schnitten ihm die Kehle durch, und er hatte sieben Messerstiche im Körper. Sein Fehler war, dass er sein Land nicht an eine Gruppe von Paramilitärs verkaufen wollte, die eines Tages in seinem Dorf Llano Rico im kolumbianischen Departement Antioquia auftauchte. Nach dem Mord gab Dias` Familie auf und floh. Heute wachsen auf dem Land der Vertriebenen Ölpalmen der Biokraftstoff-Firma Urapalma. http://www.focus.de/wissen/wissenschaft/klima/tid-6666/biokraftstoffe_aid_64512.html Die glücklichen Nashörner: Palmöl-Boom und “Naturheilkunde” vernichten die letzten Nashörner http://www.achgut.com/dadgdx/index.php/dadgd/article/palmoel_boom_und_naturheilkunde_vernichten_die_letzten_nashoerner/Die glücklichen Orang-Utans: Blutiges Palmöl: http://www.faszination-regenwald.de/initiative/download/download_palmoel.php Letzte Orang-Utans durch Ölpalmen-Plantagen akut bedroht: Indonesien ist das Land, in dem die Urwaldvernichtung am schnellsten voranschreitet. Seit 1950 sind 74 Millionen Hektar Wald zerstört worden – eine Fläche, die doppelt so groß wie Deutschland ist. Besonders dramatisch für das Klima und die Artenvielfalt sind die Rodung und anschließende Trockenlegung der Torfwälder, nachdem die rund zehnmal mehr Kohlenstoff speichern als andere Urwälder und zahlreiche vom Aussterben bedrohte Arten wie Orang-Utans, Sumatra-Tiger oder Java-Nashörner beheimaten. Aufgrund seiner extremen Urwaldzerstörung ist Indonesien mittlerweile bereits der drittgrößte Produzent von Treibhausgasen – unmittelbar hinter China und den USA. http://www.oekonews.at/index.php?mdoc_id=1049021 Der glückliche Lobbyist: Joschka Fischer wird den Handelskonzern Rewe beraten. Der frühere Vizekanzler soll bei der Vermarktung von Bio-Lebensmitteln behilflich sein. http://www.welt.de/wirtschaft/article9436192/Joschka-Fischer-wird-Oeko-Berater-bei-Rewe.html Sich der Problematik das Palmöls bewusst, hat die Industrie den RSPO (Roundtable on Sustainable Palm Oil) gegründet, der Palmöl zertifiziert. Umweltschützer werfen dieser Organisation zu lasche Regeln vor. Zahlreiche Palmölproduzenten seien Mitglieder, die gar nicht oder nur in geringem Umfang nachhaltig arbeiteten. http://www.wwf.de/presse/details/news/industrie_pfeift_auf_nachhaltiges_palmoel/ So hat die RSPO-Zertifizierung überhaupt keine Aussagekraft, sagt Peter Gerhardt, Agrarreferent der Umweltschutzorganisation Robin Wood. So sei es nach Kriterien des RSPO erlaubt, „weiterhin Wald in Ackerflächen umzuwandeln“. Gerhardt appelliert an die Konzerne, überhaupt kein Palmöl einzusetzen, und an die Verbraucher, möglichst unverarbeitete Lebensmittel zu kaufen. http://www.taz.de/!43988/ RSPO -Zertifikat praktisch wirkungslos: Zahlreiche Untersuchungen wie von Greenpeace oder Rettet den Regenwald e.V. belegen die praktische Wirkungslosigkeit des RSPO. Monokulturen können nicht nachhaltig sein, so die Argumentation der Gegner des RSPO. Zudem sind Landraub, Vertreibung indigener Völker und die Zerstörung von Primär-Regenwald an der Tagesordnung, da die Auflagen des RSPO zu schwach sind und keine wirkungsvollen Sanktionen vorgesehen sind. Täuschung der Verbraucher durch Greenwashing: Das Vertrauen von Verbrauchern wird durch Unternehmen missbraucht, indem sie Produkte aus “umweltfreundlicher Produktion” anbieten und Palmöl aus RSPO-zertifizierter Produktion als nachhaltig ausweisen. Der Dokumentarfilm “Der Pakt mit dem Panda”, der im Juni 2011 in der ARD lief, zeigt Auswirkungen der RSPO und greift die hier beschriebenen Kritikpunkte auf. http://de.wikipedia.org/wiki/Roundtable_on_Sustainable_Palm_Oil Seit 2007 gilt in Deutschland eine Beimischungspflicht von 4,4 % Biodiesel zu herkömmlichem Diesel, das alles für: Ja das alles für 4,4% Anteil am Sprit ! Was ist der Effekt? Auch 4,4 %? Was passiert, wenn sich der Anteil verzehnfacht? Wollen wir das? Achso ja: 

Thema 4: 

Eine Million Elektroautos würden gerade 0,5 Prozent des deutschen Stromverbrauchs benötigen, das führt nicht zu merklichen Mehrbelastungen bei Kraftwerken und Netzen: http://www.vde.com/de/verband/pressecenter/pressemeldungen/fach-und-wirtschaftspresse/seiten/2010-35.aspx Wir haben in Deutschland 57 Millionen gemeldete Kraftfahrzeuge, wir sprechen also von 2% aller gemeldeten Kraftfahrzeuge. Keine merklichen Mehrbelastungen bei Kraftwerken und Netzen führen also auch zu keinen merklichen positiven Effekten. Geht man von 100% elektrischer Fahrzeuge aus (wenn’s mit Elektrofahrzeugen so gut geht, künftige Batterieentwicklungen eingeschlossen, warum soll dann noch einer mit Verbrennungsmotor fahren), dann sind es schon fast 30% plus an Stromverbrauch. Ich erwarte, dass das schon in die aktuellen Netzausbaupläne eingeplant ist, wie auch die Erzeugung des Stroms … an der Stelle möge der geneigte Leser oben wieder zu lesen beginnen … 

Anmerkung dazu: Wie soeben berichtet stellt GM für Wochen die Produktion von Elektroautos ein. 

General Motors stoppt Produktion von E-Autos

Dr. Rupert Reiger arbeitet da in einem Forschungszentrum der Luft- und Raumfahrtindustrie an Software und Algorihmen. 





Deutsche Atom-Hysterie kostet 2,6 Milliarden Euro im Jahr

Der Verband steht für 80 Prozent des industriellen Energieeinsatzes in Deutschland. Der VIK hat Deutschland mit Großbritannien und Skandinavien verglichen. Die Preisentwicklung auf diesen Märkten korrelierte bis zur Abschaltung der acht deutschen Kernkraftwerke kurz nach der Atomkatastrophe in Fukushima vor einem Jahr traditionell stark. Seitdem ist es jedoch damit vorbei: Der Preis in Deutschland hat gegenüber dem britischen um vier Euro je Megawattstunde zugelegt, gegenüber dem skandinavischen sogar um sechs Euro..

Siehe dazu das Handelsblatt:

Der VIK schreibt dazu in seiner Pressemitteilung:

VIK-Pressemitteilung

Strompreis und Kernkraftmoratorium – der Einfluss ist da!

Vergleich von Strompreisen in UK und Skandinavien mit Deutschland untermauert hohe Kosteneffekte für die Verbraucher

Essen, 6. März. 2012 – Ein aktueller Strompreisvergleich des VIK, der Interessenvertretung energieintensiver Unternehmen, zeigt: Trotz derzeit relativ stark gesunkenem Strompreis, hat der beschleunigte Kernenergieausstieg die deutschen Strompreise doch nachweisbar erhöht. Die VIK-Preisvergleiche des deutschen Strommarktes mit denen in UK und Skandinavien zeigen, wie sich das deutsche Preisniveau deutlich gegenüber diesen nach oben verschoben hat. Das widerlegt sehr deutlich die Behauptung, der deutsche Strompreis sei vom beschleunigten Kernenergieausstieg unbeeindruckt geblieben.

„Ausgehend von der These, der deutsche Strompreis hätte sich ohne Moratorium wie zuvor weiter in großer Korrelation mit dem Preis in UK entwickelt, zeigt eine Gegenüberstellung der Preiskurven: der deutsche Preis hat um ca. 4 €/MWh gegenüber dem britischen zugelegt und könnte heute um diese 4 €/MWh niedriger liegen. Beim Vergleich mit dem skandinavischen Markt fällt das Ergebnis noch höher aus. Hier sind es im Durchschnitt 6 €/MWh Strommehrkosten, die auf das Konto der deutschen Wettbewerbsnachteile zugebucht wurden. Auf Basis des Mittelwertes dieser beiden Ergebnisse, ergibt sich ein Preiseffekt der beschleunigten Energiewende mit Strommehrkosten für die Industrie von jährlich 1,1 Mrd. €. Für die Verbraucher insgesamt sind das über 2 Mrd. € Mehrkosten. Diese Zahlen müssen in eine ganzheitliche Debatte und Weiterentwicklung der deutschen Energiewende eingebunden werden!“, so Dr. Annette Loske, Hauptgeschäftsführerin des VIK.

 

Abb. 1 zeigt die Entwicklung des für die langfristige Stromlieferung entscheidenden Terminmarkts an der Endex in UK und der EEX in Deutschland für das Stromprodukt Baselieferung über das 1. Quartal 2012. Der Vergleich von Deutschland mit UK eignet sich besonders gut, um Sondereffekte zu isolieren, da die weitgehend voneinander unabhängigen (wenige Verbindungsleitungen) Strommärkte in UK und Deutschland in der Vergangenheit einen sehr ähnlichen Preisverlauf gezeigt haben. Das liegt im Wesentlichen daran, dass in beiden Märkten der Gaspreis entscheidend für den Strompreis ist, da die Gaskraftwerke häufig preissetzend sind. Dies hat zur Folge, dass sich die Preise weitgehend parallel verschoben entwickelt haben.

Das hat sich auch nach dem Kernenergiemoratorium Mitte März so weiterentwickelt. Allerdings hat sich die Parallelverschiebung deutlich verändert. Das heißt: die Preiskurven ticken weiterhin im gleichen Takt, haben sich aber deutlich angenähert. Lag der Preisabstand vor dem Moratorium im Mittel bei 6,84 Euro/MWh, so hat er sich danach auf 3,63 Euro/MWh verringert. Wenn also die Strompreise heute relativ niedrig erscheinen, so sind sie aber dennoch durch das Moratorium und die Verknappung der Erzeugungskapazitäten hochgehalten worden und könnten bei Normalentwicklung noch um ca. 4 €/MWh niedriger liegen.

Die Gegenüberstellung macht deutlich, die Sichtweise, dass das Strompreisniveau in Deutschland nach dem Kernenergiemoratorium wieder auf dem Wert vor der Abschaltentscheidung angekommen sei, ist allzu vereinfachend und dabei auch noch irreführend. Nicht der absolute Preis ist ein brauchbarer Indikator für die Preiseffekte des Kernenergieausstiegs, sondern die relative Preisentwicklung der Märkte zueinander. Und danach haben die deutschen Stromkunden klar verloren.

*Im Zeitraum vom 14. März bis 25. November 2011 hat der Strompreis am Terminmarkt der EEX für das Kalenderjahr 2012 im Mittel bei 57,45 €/MWh gelegen. Ein Plus von rd. 4,34 €/MWh gegenüber dem 14. März 2011 (53,11 €/MWh). Im Zeitraum März bis Dezember finden i.d.R. die meisten Stromvertragsabschlüsse statt. Der Gesamtverbrauch der Industrie betrug im Jahr 2010 rd. 223 TWh (Quelle BDEW/BMWi). Unter der Annahme eines ähnlichen Verbrauchs im Jahr 2012 ergeben sich 2012 Strommehrkosten für die Industrie von 968 Mio. Euro (223 TWh x 4,34 €/MWh = 968 Mio. Euro).

Für den gesamtdeutschen Strommarkt bedeutet das eine Erhöhung der Stromkosten, bei einem angenommen Verbrauch von 500 TWh, von 2,17 Mrd. Euro.

VIK Verband der Industriellen
Energie- und Kraftwirtschaft e.V.

 

Dipl.-Ing. Roland Schmied

Pressesprecher




Das Ökostrom-Gesetz ist verfassungswidrig!

"….Das zentrale Gesetz zur Umsetzung der ökologischen Energiewende in Deutschland verstößt gegen die Verfassung. Zu diesem Schluss kommt ein Gutachten, das die Rechtsfakultät der Universität Regensburg im Auftrag des Gesamtverbandes Textil und Mode verfasst hat. In dem Gutachten, das „Welt Online“ vorliegt, stellt der Staatsrechtler Gerrit Manssen fest, dass die Kostenwälzung des Erneuerbare-Energien-Gesetzes (EEG) nach der 2010 in Kraft getretenen Novellierung eine „Sonderabgabe“ darstellt, die in allen wesentlichen Punkten mit dem früheren „Kohlepfennig“ vergleichbar ist. Der vom Stromverbraucher zu zahlende Kohlepfennig zur Subventionierung des deutschen Steinkohlebergbaus war 1994 vom Bundesverfassungsgericht verboten worden…."

Hier weiter lesen

Die FTD schreibt zum selben Thema

EnergiewendeEon warnt vor Baustopp bei Offshore-Windkraftanlagen

Der Energiekonzern macht den Netzbetreibern schwere Vorwürfe: Sie kommen mit dem Anschluss der Windparks auf See nicht hinterher, weil sie sich zu viel vorgenommen und die Probleme unterschätzt haben. Die Situation sei katastrophal und gefährde die Energiewende in Deutschland.




Wie der Schiefer-Boom in den USA die Welt verändern wird

Etwas Merkwürdiges auf dem Weg zu einer sauberen Energiezukunft ist im Gange – die Realität halt Einzug. Es gibt ‚unwiderlegbare Beweise’ über ökonomisches Wachstum und Arbeitsplätze schaffende Auswirkungen des Booms unkonventionellen Gases und Öls – über 600 000 Arbeitsplätze stehen direkt im Zusammenhang mit der Ausbeutung von Schiefergas. Selbst Präsident Obama lobt die Arbeitsplätze schaffenden Vorteile von ‚Amerikas Ressourcen-Boom’. Amerika erhält seinen Energieglücksbringer zurück, und das sind gute Nachrichten, aber nicht die ganze Geschichte.

Wieviel Schiefergas gibt es in den Vereinigten Staaten? Im Juli 2011 hat die EIA in den USA (Energy Information Administration) eine Übersicht der sich abzeichnenden Ressourcen veröffentlicht: Schiefergas und Schieferöl in den USA, gefördert von INTEK. Dies ist ein aktualisierter Zustandsbericht über technisch förderbares Erdgas und Erdöl in den 48 Kernstaaten. Dem Bericht zufolge finden sich die größten technisch erschlossenen Gasreserven im Nordosten (63%), an der Golfküste (13%) und im Südwesten (10%). Die größten Schiefergasfelder sind das Marcellus-Feld (410,3 Billionen Kubikfuß, 55 Prozent der gesamten Ressourcen), Haynesville (74,7 Billionen Kubikfuß, 10 Prozent der Gesamtmenge) und Barnett (43,4 Billionen Kubikfuß, 6 Prozent der Gesamtmenge). Der Bericht wurde erstellt, … um einen Anfangspunkt für die zukünftige Arbeit zu geben.

Die USA verfügen über dreimal so viel nachgewiesene Reserven an Schieferöl wie Saudi-Arabien.


Die globalen Schieferölreserven tragen mehr als 10 Billionen Barrel. Mehr als 1,8 Billionen Barrel liegen eingehüllt von Schiefer auf bundeseigenem Land in den westlichen USA, also in den Bundesstaaten Colorado, Utah und Wyoming, wovon 800 Milliarden als förderwürdig angesehen werden – dreimal so viel wie die nachgewiesenen Reserven in Saudi-Arabien. Der Bericht von INTEK für die EIA fand 23,9 Milliarden Barrel von technisch abbaubaren Schieferölreserven in den 48 Kernstaaten der USA. Das Monterey/Santos-Feld in Südkalifornien ist das größte Feld, und man schätzt, dass dort 15,4 Milliarden Barrel oder 64 Prozent der Gesamtmenge an Schieferöl liegen, gefolgt von den Feldern Bakken und Eagle Ford mit 3,6 bzw. 3,4 Milliarden Barrel Schieferöl.

Die Schaffung neuer Arbeitsplätze wird durch niedrige Energiekosten gefördert. In einem Bericht von PricewaterhouseCoopers für die National Association of Facturers heißt es, billiges nationales Erdgas wird die Herstellkosten in der Fertigungum 11 Milliarden Dollar pro Jahr während der nächsten 10 Jahre absenken sowie mehr als eine Million neuer Arbeitsplätze schaffen. Diese neue Niedrigkosten-Energiewirklichkeit wird das verfügbare Einkommen pro Haushalt um 2000 Dollar pro Jahr zunehmen lassen. Das Wachstum der nationalen Gaserzeugung aus unkonventionellen Quellen (Schiefergas) hat die Gaspreise in den USA vom Weltöl- und Flüssiggaspreis abgekoppelt, hat die Abhängigkeit der USA von Flüssiggasimporten umgekehrt und die Preise  nahe neuer Rekord-Niedrigwerte gedrückt für eine langzeitliche verlässliche heimische Energieversorgung.

Die Schaffung neuer Arbeitsplätze führt zu wachsenden Sorgen wegen des Fachkräftemangels und zu einem wilden Werben um Talente.

Gerade zu Beginn des Schiefer-Phänomens steht der Markt der seit langer Zeit lauernden Realität gegenüber, nämlich, dassmehr als 10 000 Menschen pro Tag aus den Babyboomjahren allein in den USA in den Ruhestand treten. Das gleiche Schicksal oder Schlimmeres droht den anderen globalen Märkten. Die gute Nachricht ist, dass die Nachfrage nach Erfahrung, Können und technologischem Expertenwissen bei den Arbeiternin der Öl- und Gasindustrie zum längeren Arbeiten überredet werden, oder ihre Erfahrung teuer verkaufen können, um ihre finanziellen Ruhestandsreserven aufzufüllen, die während der großen globalen Rezession gebeutelt wurden. Es wird erwartet, dass die Nachfrage nach erfahrenen Kräften die Reihen der Ingenieure, Entwicklungs-Techniker, , Wissenschaftler auffüllen wird, und sich auf die Mathematik-,  und Softwareprogrammierer- und Universitätsausbildung erstrecken wird, um die Nachfrage zu decken. Aber noch mehr werden Schweißer, Klempner, Elektriker, erfahrene Maschinisten und andere Handwerker gebraucht, um die notwendige technische Unterstützung sicherzustellen und die technologische Entwicklung weltweit zu unterstützen.

Auf dem freien Markt fossiler Brennstoffe wird die Kohle zugunsten von Erdgas zurückgedrängt.


Nachdem den fossilen Treibstoffen mit immer mehr Verordnungenein wahrer Krieg erklärt zur Unterminierung der Wirtschaft erklärt worden war und auch um die Unterstützung für billige Energie-Erzeugung zu schwächen, um die Nachfrage und damit die Emissionen zu reduzieren, sehen sich die Gegner fossiler Treibstoffe nun auch mit einer starken neuen Realität konfrontiert. Neue Verordnungen können die vorzeitige Schließung von Kohlekraftwerken erzwingen, aber deren Kapazität wird wahrscheinlich durch hoch effiziente erdgasbefeuerte nicht erneuerbare Energieersetzt. Niedrige Gaspreise sind für die Kohle eine viel größere Bedrohung als alles, wovon die EPA [die US-amerikanische Umweltbehörde] nur träumen kann. Es ist also kein schlechtes Ergebnis des freien Marktes, wenn ältere Kohlekraftwerke durch neuere, sauberere und billigere Erdgaskraftwerke ersetzt werden. Auch für die Umwelt ist das nicht schlecht. Inzwischen bleibt der EPA nichts anderes übrig, als ihre regulatorischen Übertreibungen schmerzlich zu bedauern, die sie in Zeiten ökonomischer Unsicherheit aufgehäuft hat und ihre vorsätzliche Unterminierung der amerikanischen Wachstums- und Produktivkraft. Die weniger effektiven älteren Kohlekraftwerke werden durch Erdgaskraftwerke im Lastfolgebetrieb zurückgedrängt. Erdgas ist der Treibstoff der Wahl in fast jedem Energiemarkt, und Gas wird als Reserve für jedes MW Erneuerbarer Energie gebraucht. Niedrige Gaspreise durch die zunehmende Produktion von Schiefergas macht Gas zur billigsten Quelle, was für fast jede Region das Beste ist.

Die verbrauchte Energie im Transportsektor wächst von 27,6 Billiarden Btu [British Thermal Unit] im Jahr 2010 auf 28,8 Billiarden Btu bis 2035, dem AEO2012-Referenz Szenario zufolge (Figure 7). Der Energieverbrauch leichterer Fahrzeuge [Light Duty Vehicles, LDVs] einschließlich kommerzieller Kleinlastwagen nimmt im Referenzszenario ab, und zwar von 16,5 Quadrillionen Btu im Jahr 2010 auf 15,7 Billiarden Btu im Jahr 2025. Dies ergibt sich durch die projizierte höhere Sparsamkeit im Treibstoffverbrauch von Autobahnfahrzeugen. Der projizierte Energieverbrauch für leichte Fahrzeuge nimmt nach 2025 auf 16,3 Billiarden Btu im Jahr 2035 zu.

Billiges Schiefergas treibt die Kosten für die Stabilisierung des Netzes durch Erneuerbare nach unten.


Die gleichen Marktkräfte, die alte Kohlekraftwerke verdrängen zugunsten einer neueren, sauberen, mit Erdgas befeuerten Generation von Kraftwerken beeinflussen auch die erneuerbare Energie, vor allem Wind und Solar. Die Flut von Solarpaneelen und Windturbinen, durch Überproduktion in China auf der Suche nach wachsendem Export auf den Markt geworfen, hat jetzt dazu geführt, dass europäische Regierungen Einspeisevergütungen und Subventionen verringert oder ganz gestrichen haben, weil dort fallende Preise die Preise für erneuerbare Energien auf die Ebene der Wettbewerbsfähigkeit mit Erdgas bringen würden. Aber die Realität sieht anders aus: Die infolge der Produktion von Schiefergas niedrigen Gaspreise drücken die Preise für den Paritätspunkt im Netznach unten. Regierungen in der EU, schwer gebeutelt von der Finanzkrise in der Eurozone, können sich die Subventionen für die Einspeisung nicht mehr leisten. Viele US-Bundesstaaten, die den Anteil an Erneuerbarer Energieerzeugung erhöhen wollten,, passen ihre Ziele an, nur wenige folgen Kalifornien bei dessen Führung zu  einem noch höheren Ziel von 33% RPS [California Renewables Portfolio Standard] (Anteil von Erneuerbaren an der Energieerzeugung). Unter dem Strich: Die Erneuerbaren werden zu einer vorwiegenden Energieerzeugungs-Quelle, wenn sie den Anschluss an oder nahe dem Netzparitätspreis finden, profitabel sind sie aber nur durch Subsidien. Die Konsolidierung fegt durch diesen Sektor, kleinere Teilnehmer werden von den großen globalen Spielern mit größeren Geldbeuteln übernommen.

Zähmung der bösen Buben in der Nachbarschaft.


Da das Potential und die Entwicklung von Schiefergas weltweit immer besser verstanden wird, ist ein subtiler giftiger Trend in Gang gekommen, während die zur Ausbeutung des Schiefergases notwendige Technologie und die Infrastruktur immer weiter verbessert wird. Die bösen Buben in jeder Region stehen plötzlich unter Druck von ihren Nachbarn, sich zu bessern. Warum? Der starke Wettbewerb zum technologischen Zugang ermöglicht es multinationalen Firmen, frei zu entscheiden, wo sie arbeiten – und sie wählen keine Stellen aus, an denen Aufrührer auf sie schießen, ihre Projekte zum Platzen bringen oder wo sie von ungehemmter Korruption ausgebeutet werden. Ein informeller Verhaltenskodex entwickelt sich, der jeden sich entwickelnden Markt nach seinem eigenen Potential zur Erzielung von Profiten durch die Technologie- und Infrastruktur-Lieferanten beurteilt. Das im Wettbewerb als nächstes zur Auswahl stehende Gebiet zwingt die Leute vor Ort dazu, ihr schlechtes Verhalten zu zügeln und ihren Platz in der Warteschlange zu verbessern. Zusammen mit niedrigen Preisen, die das schlimme Subventionspotential von Iran, Russland und anderen traditionellen Unheilstiftern reduzieren, und mit dem Wunsch zum Zugang zur benötigten westlichen Technologie von seiten der Staatenund Nationalen Großfirmen  sichern sich die erfahreneren politischen Führer in ihrer regionalen Nachbarschaft untereinander ab, um ihre Wirtschaften zum Wachstum zu bringen.

Wirtschaftliches Wachstum führt zu einer wachsenden Mittelklasse und zur Forderung auf weniger Korruption, mehr Reformen und dauerhaften demokratischen Änderungen. Die Entwicklung der Schiefergasförderung ist die Muttermilch für demokratische Änderungen, wie sie im arabischen Frühling deutlich werden, aber sie werden unterdrückt von den bösen Buben in der Nachbarschaft. Der Enthusiasmus für Wachstum verstärkt das Verlangen nach Änderung. Die Lektionen der Zähmung der bösen Buben in der Nachbarschaft kommen den Despoten nicht zugute. Einige wollen standhalten, sie werden durch eine Kombination von heimischem Verlangen nach Änderung und dem ‚Verhaltenskodex’ hinausgedrängt, der sie an den Schluss der Warteschlange drückt Die Gefahr, hinter der Welle globalen wirtschaftlichen Wachstums zurückzubleiben, erweist sich als zu stark, um ihr zu widerstehen.

Üppige Energievorräte reduzieren globale Konflikte.


Reichliche und gleichmäßig verteilte Energievorräte (Erdgas) reduzieren die Intensität des Wettbewerbs um neue Energiequellen für neue Kernstaaten wie Indien und China. Neue Treibstoffe auf die Märkte zu bringen, hat höhere Priorität als energiepolitische Abenteuer (Chinas Suche nach Energie in Afrika). Es erlaubt auch wichtigen globalen Spielern, sich auf das Wachstum ihrer Wirtschaft zu konzentrieren und nicht ihr Militär zu verstärken, um gegen Energieknappheit gewappnet zu sein.

Üppige Energievorräte lassen globale Konflikte zunehmen.


Neue Energiequellen und neue Technologie sorgen dafür, dass nationale Regierungen Ressourcen ausschöpfen, wo sie diese zuvor nicht ausschöpfen konnten. Diese neuen technologischen Möglichkeiten verstärken Konflikte auf lokaler, regionaler und globaler Ebene. Einheimische Gruppen, lokale Übelstände  und Autonomiebewegungen entstehen in den neuen, energiereichen Gebieten von selbst. Lange schwelende Grenzkonflikte werden neuen Zündstoff erhalten, wenn in diesen Gebieten neue reiche Energievorkommen gefunden werden. Die Regierungen werden die Ausbeutung in diesen Gebieten priorisieren aus Furcht, dass der Nachbar ihre eigenen Lagerstätten anzapft..

Technologische Implikationen

Nationale Öl- und Gasgesellschaften werden gezwungen, sich im Wettbewerb um horizontale Bohrungs- und Fracking-Technologien und die Ausrüstung zu bewerben. Mit vielen Schiefergasquellen verlieren große und die Riesen-Unternehmen das Interesse, mit so mancher Nationalen Öl-Gesellschaft zusammen zu arbeiten, mit der es traditionell schwierig war oder die zuviel Profit abhaben wollte.

Der Zugang zu Wasser erweist sich als eine der größten Herausforderungen bei der Erzeugung von Schiefergas.


Der Widerstand gegen den Verbrauch von Trinkwasser für das Fracking vor allem in ariden Gebieten wie dem Nahen Osten, wo das Wasser wertvoller ist, wächst immer mehr. Dies führt zu Investitionen in die Infrastruktur, um recyceltes Wasser nutzbar zu machen sowie in die Entsalzung vor allem von Brackwasser. Mit der sich erweiternden Infrastruktur werden die Wasserspeicherung, die Überwachung und die Verteilersysteme effizienter, und weniger Wasser geht durch Lecks verloren, vor allem aus alten Systemen.

Der Nahe Osten wird zu einem Labor für die Entwicklung neuer Energien mit kombinierten Wärme- und Stromprojekten sowie Mikronetzen, die die Entwicklung von Schiefergas stützen. Der erweiterte Gebrauch von Solarpaneelen für Anwendungen in kleinen Bereichen profitiert von den fallenden Preisen der in China hergestellten Paneele. Die Nachfrage nach so viel neuer Energie und Umweltinfrastruktur rückt den Nahen Osten ins Zentrum der Entwicklung sauberer Energie und der Entwicklung der entsprechenden Technologie. Dadurch werden Investitionen von China und anderen beflügelt, die auch darauf brennen, Zugang zu fortgeschrittener Technologie zu bekommen, um ihre eigenen Schiefervorkommen zu erschließen.

Die wachsende Nachfrage nach Technologie bedroht konventionelles Wissen und überwindet herkömmliche Geschäftsmodelle.

Die globalen Großunternehmen und die Führer in der Technologie horizontaler Bohrungen schaffen einen Wettbewerbsmarkt für ihre Dienste und zwingen die Nationen sich um Zusammenarbeit mit ihnen zu bemühen anstatt der traditionellen staatlichen Ausschreibungen und Konzessionsvergaben.

Die Öl- und Gas-Geschäftsmodelle verschieben sich vom Besitz des Produktes zur Bereitstellung der Technologie und sich mit handelbaren Anteilen von nachgewiesenen Reserven bezahlen zu lassen. Dies führt zu großen Beständen an verteilten „Schiefer“-Reserven als handelbare Gütermit denen Risiken ausgeglichen, Potenzial bezahlt und beschleunigtes Wirtschaftswachstum in einem offenen Markt belohnt wird, anstelle durch die von OPEC Russland oder Quatar dominierten Monopole oder durch die Nationalen Öl-Gesellschaften. In diesem Wettbewerbsmärkten bleiben böse Buben wie Iran, Venezuela und andere draußen vor, sind sie doch nicht in der Lage, in offenen Märkten zu bestehen und unfähig, die ansässigen Firmen zu erpressen, wenn diese damit drohen, wegzuziehen oder anderswo nach besseren Möglichkeiten zu suchen. Adere Märkten wie Mexiko, wo selbst auferlegte Hindernisse für Investitionen von außen oder Übernahmen durch ausländische Eigentümer dafür gesorgt haben, dass das Wachstum unterminiert worden ist und der Zugang zur Technologie begrenzt wurde,  finden in offenen Märkten einen Ausweg aus der Falle und ergreifen ihre Chance durch die Nachfrage nach neuer Technologie, um ihre Exploration und Förderung zu steigern und nutzen den globalen Börsenhandels, und bezahlen für die Entwicklung ihrer Entwicklungs- und Fördertechnologie mit handelbaren Kontrakten auf die zukünftige Produktion und Reserven.

Investitionen in die Entwicklung von Technologien und Infrastruktur steigen sprunghaft,


da jeder regionale Markt danach trachtet, seinen Platz in der Warteschlange zu verbessern und nach neuen Technologie-Firmen  sucht, die von den Energie-Riesen Geschäft abziehen wollen, indem sie neuen in diesem Sektor tätigen Firmen bessere Bedingungen bieten.  Tatsächlich wird dieser wachsende Markt neuer Energietechnologie von den Energie-Riesen, den Staatsfonds undtraditionellen Energieanbietern finanziert., die Zugang zu diesen neuen Technologien suchen.

Die sich allmählich ausbreitende Auswirkung des Explorations- und Produktions-Wachstums lässt das globale Bruttoinlandsprodukt wachsen, ermutigt Investoren, führt Millionen aus der Armut und intensiviert die Forderung nach demokratischen Reformen, um nachhaltiges Wachstum sicherzustellen.

Die mit der Entwicklung der Exploration und Produktion von „Schiefer“-Ressourcen verbundenen globalen finanziellen Auswirkungen

PriceWaterhouseCoopers berichtete, dass in den ersten drei Quartalen des Jahres 2010 das Umsatzvolumen von Firmenfusionen und Übernahmen (Mergers and Acquisitions) auf 20,1 Milliarden Dollar gestiegen ist, gegenüber 6,8 Milliarden Dollar im gleichen Zeitraum des Jahres 2007. Dieser Umsatzvolumenzuwachs ist das Ergebnis einer Hebelung der Finanzkraftseitens der  Energieriesen im „Schiefer“-Geschäft und die „Schiefer-Marktsektor“-Reserven wurden von „wilden“ privaten Ölbohrern und von kleinen unabhängigen Firmen wie Mitchell Energy angetrieben, die sich auf horizontale Bohrung und Fracking spezialisiert hat, um sich den eigenen Markt zu erschließen und nicht mit den Energieriesen im Wettbewerb stehen zu müssen. Aber das Wachstum in der Exploration und Produktion von unkonventionellem Öl- und Gas hat die Riesen  sowie andere Investoren angezogen, die alle von dem steigenden „Schiefer“-Markt profitieren wollen. Heute sind große Ölgesellschaften große Investoren in „Schiefer“, haben sie doch das Wachstumspotential erkannt, das sie mit Hebelwirkung benutzen als Alternative zu konventionellen Öl- und Gas-Vorkommen , die durch zunehmende Umweltbeschränkungen und rapide abnehmende Förderraten gekennzeichnet sind. Tatsächlich hat das Wachstum bei unkonventionellem Öl und Gas längst den Rückgang bei der Förderung aus amerikanischen Reserven wettgemacht.

Etwa ein Drittel der gesamten, in den USA verbrauchten Energiemenge, 23,4 Trillionen Btu, waren 2010 im Industriesektor verbraucht worden. Verglichen mit dem AEO2012-Referenzszenario wird der gesamte industrielle Energieverbrauch um 16 Prozent wachsen, von 23,4 Trillionen Btu im Jahr 2010 bis 27,0 Trillionen im Jahr 2035. Der größte Energieverbraucher ist die großchemische Industrie im Industriesektor mit einem Verbrauch von 21 Prozent der gesamten im Jahre 2010 verbrauchten Energie. Bis zum Jahr 2026 jedoch wird die Raffinerie-Industrie, definiert als Einrichtungen zur Erzeugung von Petroleum, Biotreibstoffen und Kohleverflüssigung unter Einbezug des Eigenverbrauchs zur größten Energie verbrauchenden Industrie im AEO2012-Referenzzeitraum.

Die energieintensiven Fertigungs-Industrien zusammen, wie z.B. die Großchemie, Raffinerien, Papierprodukte, Eisen und Stahl, Aluminium, Nahrung, Glas und Zement erzeugen etwas mehr als ein Viertel des Gesamtwertes der Industrieproduktion bei einem Anteil von etwa zwei Dritteln des gesamten Energieverbrauchs im Industriesektor.  Obwohl erwartet wird, dass sich die energieintensiven Industrien von der jüngsten Rezession erholen werden, wird sich ihr langzeitliches Wachstum verlangsamen, und zwar wegen des zunehmenden internationalen Wettbewerbs und einer Verschiebung der in den USA erzeugten Verbrauchsgüter hin zu höherwertigen Gütern. Der Dollarwert der Auslieferung  von Gütern der energieintensiven Industrien wächst von 2010 bis 2035 um 29 Prozent im AEO2012-Referenzfall, während der Wert der nicht von energieintensiven Industrien stammenden Güter um 57 Prozent zunehmen wird. Als Ergebnis der Verlagerung hin zu einer nicht so energieintensiven Produktion nimmt der Energieverbrauch langsamer zu als die Auslieferungen, und die Energieintensität industrieller Produktion geht zurück.

Niedrige Energiepreise sorgen auch für Energiesicherheit, wenn eine zuverlässige Versorgung durch die Verminderung von Amerikas Abhängigkeit von Öl- und Gasimporten aus dem Nahen Osten gewährleistet ist und durch die Verminderung der  Ölpreisschwankungen, weil die Nachfrage durch „Schiefer“ über breiter angelegte Liefermöglichkeiten verteilt wird.Niedrige Energiepreise vor allem beim Öl unterminieren die Wirtschaft der OPEC-Staaten und reduzieren ihre geopolitische und globale wirtschaftliche Macht. Dies kann zu einer Änderung der US-Außenpolitik führen, und zwar hin zu Prioritäten weg vom Mittleren Osten.

By. Gary L. Hunt

Link: OilPrice.com, 15 February 2012

Übersetzt von Chris Frey unter Mithilfe von Helmut Jäger




Peak Oil war gestern– Öl wird in absehbarer Zeit nicht knapp

„Peak Oil” ist der Punkt, an welchem die Produktion konventionellen Rohöls anfängt, irreversible zurückzugehen. Einige sagen, dass die Auswirkung hiervon durch Angtsmache induzierte Preissteigerungen sind und dass sich industrielle Gesellschaften dadurch gewaltig verändern müssen. Für Einige war Peak Oil der Ruf von Mutter Erde selbst, der eine Umkehr zu einem Lebensstil wie im vorindustriellen Zeitalter erfordert. Ein Beispiel hierzu ist das Netzwerk der „Übergangsstädte“ (transition towns), ein Phänomen der Mittelklasse in den Wohngebieten der Pendler rings um die Städte in UK.

Aber in einer in diesem Monat veröffentlichten Note (.pdf) (die implizit auch industriekritisch ist) ist dies voreilig. Dank „unkonventionellen“ Öls und Gases, welches man dank technologischer Fortschritte jetzt fördern kann, ist Peak Oil Vergangenheit:

Der Glaube, dass die Ölproduktion ihren Gipfelpunkt erreicht habe oder demnächst erreichen wird, hat geholfen, ein über ein Jahrzehnt währendes Wettrennen anzutreiben. Das Wiederaufleben der Gasproduktion in den USA weit über die bisherige Spitze in den siebziger Jahren hinaus und global auf Platz eins während der letzten sieben Jahre ist das Ergebnis von hydraulischem Brechen – Fracking –, eine Technik, mit der man jetzt die Schiefergasreserven in den USA erschließt.

Die gleichen Gesellschaften benutzen jetzt die gleichen Techniken, um auch die Reserven an Schieferöl zu erschließen, mit Ergebnissen, die in vielen Fällen genauso vielversprechend aussehen wie zu Beginn der Schiefergas-Revolution. Die Ölproduktion der USA steigt wieder, ausschließlich wegen der Förderung von Schieferöl, da konventionelle Quellen wie z. B. in Alaska oder Kalifornien strukturbedingt in punkto Ergiebigkeit nachlassen und die Produktion im Golf von Mexiko sich noch von der Bohrkatastrophe erholen muss.

Vorhersagen können sowohl aufwärts als auch abwärts führen.

Untergangspropheten hatten vernünftige Gründe, dies zu vermuten – haben es aber versäumt, das größere Bild zu betrachten, eines, das technologische Innovationen einschließt. Sie wünschten den Untergang einfach zu stark herbei. In der kurzen Note heißt es weiter:

Der Glaube an Peak Oil wurde gestützt, weil es wiederholt nicht gelungen war, entsprechend den optimistischen Vorhersagen durch verschiedene regierungsnahe und internationale Energieagenturen zu leben. Die IEA, der Eckpfeiler der Industrie, hat es sich zur Gewohnheit gemacht, große Fortschritte im kommenden Jahr aus nicht-OPEC-Gebieten vorherzusagen, nur um während der nächsten 18 Monate dieser Vorhersagen nach unten zu korrigieren.

Citigroup watscht auch die Ölindustrie und Experten ab, weil sie dies nicht berücksichtigt hatten – zuviel versprochen hatten und spät geliefert haben.

Man muss es lesen. Die Ölproduktion ist viel stärker von vorausschauenden Investitionen abhängig, als viele Leute ahnen. Wenn sie reagiert, reagiert sie schnell; die Zahl der US-Bohrstellen hat sich innerhalb von drei Jahren um 500 Prozent erhöht.

Anzahl der Bohrtürme in den USA: eine Explosion der Produktionskapazität

Was also jetzt?

Nun ist Peak Oil nicht der einzige Punkt jüngster Entwicklungen im Energiesektor. Das Ende von Peak Oil stößt eine ganze Menge der Begründungen beiseite, die der Politik unserer Bürokratien und ihren Beratern zugrunde liegen. Während der letzten zwei Jahrzehnte durften wir das rapide Wachstum des Sektors der „Nachhaltigkeit“ erleben, welcher fast vollständig von staatlichen Zuwendungen abhängt und dem ähnlich irrige Hypothesen zugrunde liegen.

Die Aussage, die zu akzeptieren wir in jedem Falle aufgefordert sind, lautet, dass eine moderne Industriegesellschaft auf einer Ressource aufbaut, die ausgebeutet wird und die sich nicht so einfach ersetzen lässt. Der zweite Teil dieser Aussage ist ziemlich grundlegend. Der Gedanke an Peak Oil basierte auf der Idee, dass man Rohöl nicht beizeiten mit synthetischen Hydrocarbonaten ersetzen könne. Jetzt erleben wir den rasanten Aufschwung der Förderung unkonventionellen Öls, und in einem Jahrzehnt werden die kohlenstoffarmen synthetischen Ersatzstoffe für Öl produziert werden, und zwar unter der Annahme, dass der Ölpreis bei 40 bis 50 Dollar pro Barrel liegt.

Das tiefer liegende Problem bei den Gedanken sowohl an „Nachhaltigkeit“ und an „Peak Oil“ ist, dass beide Seiten darauf bestehen, eine Ressource nicht als eine Richtung, sondern als eine Sache anzusehen – eine Sache, die selten, einmalig und unersetzlich ist.

Die Viktorianer waren einst abhängig von Waltran zum Erleuchten und Heizen – und sorgten sich genau wie die heutige Nachhaltigkeitsmeute darum, durch was man diesen Stoff ersetzen könnte. Der menschliche Erfindungsgeist stellte dann sehr schnell eine Alternative zur Verfügung. Und Politiker wurden einst durch die angespannte und volatile Versorgung mit Salpeter eingeengt, das Nitrat, das sowohl für die Ernährung der Bevölkerung als auch zur Produktion von Explosivstoffen unabdingbar war. Dann kam die Chemie zu Hilfe. Natürlich ist eine Ressource eine Kombination mehrerer Dinge – die Grenzen menschlicher Innovationsfähigkeit sind davon nur eine.

Diese unflexible Denkweise stellt sich als fatal heraus.

Dass wir ziemlich gut bei der Einführung neuer Dinge sind, bedeutet natürlich nicht, dass Utopia unmittelbar bevorsteht oder dass die Politik ‚as usual‘ irgendwie aufgegeben wird. Zukünftige Technologien werden immer noch ihren Preis haben, werden rationalisiert und missbraucht werden. Aber sie signalisieren den Anfang vom Ende dessen, was wir als apokalyptische Politik bezeichnen können – wobei unpopuläre und unsinnige politische Maßnahmen Aufmerksamkeit gewinnen, einfach weil ihre Befürworter behaupten, dass sie durch einige katastrophale und irreversible historische Trends gerechtfertigt sind. Niemand außer den Gläubigen kann das jetzt noch glauben.

Mehr von  Andrew Orlowski  hier

Link: http://www.theregister.co.uk/2012/02/23/peak_oil_is_dead_citigroup/

Übersetzt von Chris Frey

Update der Redaktion:

Die links-grüne TAZ jammert schon dass die Regierung trotz Forderung der EU nicht den Import von Öl aus Ölsänden verboten hat. hier

Auszug daraus:

Auf Teersand gebaut

KOMMENTAR VON RUTH REICHSTEIN

Wieder einmal hat es die Bundesregierung versäumt, Verantwortung für die Umwelt zu übernehmen. Am Donnerstag haben EU-Experten über einen möglichen Import-Stopp für den ökologisch gefährlichen Teersand beraten – doch zu einer Entscheidung konnte sich die Runde nicht durchringen. Und das nicht zuletzt, weil Deutschland sich enthalten hat.




Hysterie ist eine Krankheit- egal ob Klimahysterie oder Strahlenhysterie

1.     Es wurde ein internationales Gremium geschaffen, durch dessen Namensgebung die Existenz die „Gefahr“ festgeschrieben bzw. behauptet wurde, das sind beim Klima das

IPCC (Intergovernmental Panel on Climate Change) und bei Strahlen das

ICRP (International Commission radiological Protection).

Beide Gremien werden dafür bezahlt, für „Klimaschutz“ oder „Strahlenschutz“ zu arbeiten. Die Namensgebung ist nicht ganz logisch: Im ersten Falle ist das Klima zu schützen, im zweiten Falle ist vor Strahlen zu schützen. Wichtig ist bei der Namensgebung der Wortteil „Schutz“, denn dieser ist positiv belegt.

2.     In der Folge wurden nationale Institutionen geschaffen, die mit reichlich Geld versehen der Namensgebung folgend die alleinige Aufgabe haben, die „Gefahr“ zu bekämpfen. Das sind das

Potsdam-Institut (PIK) des Herrn Prof. Schellnhuber und bei Strahlen das

Bundesamt für Strahlenschutz (BfS) mit seinem Präsidenten König.

Um den eigenen Arbeitsplatz zu erhalten, sind beide Institutionen vor allen Dingen bemüht, die „Gefahren“ der Klimaerwärmung bzw. der Strahlen von Radioaktivität zu beweisen. Natürlich wird dabei aus jeder Mücke ein Elefant gemacht. Durch Gebrauch vom Konjunktiv mit den Worten könnte, hätte, müsste werden Aussagen juristisch unangreifbar gemacht.

3.     Die Folgen der „Gefahr“ sind hypothetisch, heute nicht nachweisbar, allenfalls in sehr ferner Zukunft vielleicht real.

Das Klima ändert sich immer, das hat es in der Vergangenheit getan und wird es auch in Zukunft tun. Niemand kann wissen, in welchem Zeitrahmen eine Änderung feststellbar sein wird: Es kann Jahrhunderte oder sogar Jahrtausende dauern. Und dann werden natürliche Ursachen und eventuelle menschliche Ursachen nicht unterscheidbar sein.

Krebs, das als Folge der Strahlung diskutiert wird, tritt erst 20 Jahre nach der Exposition auf. Und dann kann die Krankheit nicht einer bestimmten Ursache zugeordnet werden. Was in der Karenzzeit von 20 Jahren in der Zelle geschieht, liegt im Dunkeln.

4.     Der Effekt ist gering, andere Ursachen haben einen viel größeren Effekt.

In der Klimadiskussion ist die Infrarot-Absorption von Wichtigkeit, aber dabei ist der Effekt von Wasser viel größer als derjenige von Kohlendioxid. Der Wasserkreislauf auf der Erde verteilt die von der Sonne gelieferte Energie, Kohlendioxid darf man dabei getrost vergessen.

Krebs ist eine Krankheit, die Schrecken verbreitet. Aber bei Krebsentstehung ist der Effekt von Ernährung, Rauchen, Alkohol, genetischer Disposition viel größer als ein eventueller Effekt von Radioaktivität. Der Krebs entsteht in den Körperzellen. Um Möglichkeiten der Krebsbekämpfung zu finden, müssten die Prozesse in der Zelle verstanden werden. Das ist (rote) Gentechnik, in Deutschland unerwünscht.

5.     In der Kampagne werden Schreckensszenarien entworfen.

Durch die Klima“katastrophe“ wird die Erde oder weite Teile von ihr unbewohnbar, so wird behauptet. Das Schreckensszenarium des Al Gore-Film „Eine unbequeme Wahrheit“ wurde durch Verleihung vom Friedensnobelpreis geadelt.

Alles ist „verstrahlt“, mit dieser neuen Vokabel wurde ein Schreckenswort geschaffen, das in keiner Weise definiert ist. Weite Landstriche sind „auf ewig und 3 Tage verstrahlt und unbewohnbar“, so wird behauptet. Aber das stimmt nicht, weder damals beim Tschernobyl-Unfall noch heute in Japan.

6.     Zum „Beweis“ der Wirksamkeit der Noxe werden einfache Modellvorstellungen beschrieben, die jedermann verstehen kann, die aber in der Realität nur nebensächlich oder sogar bedeutungslos sind.

CO2 ist ein Treibhausgas, mehr CO2 erhöht die Temperaturen auf der Erde, verändert das Klima, so wird behauptet. Es ist jedoch der Wasserkreislauf auf der Erde mit positiven und negativen Rückkopplungen und der Einfluß der Sonne von viel größerer Wirksamkeit auf das Klima (s.o. Pkt. 4).

Strahlen sind Geschosse, ein Treffer zerstört die DNA und es kann Krebs entstehen, so wird behauptet. Es sind jedoch die natürlichen DNA-Brüche viel tausendfach häufiger, zum Beispiel in der Haut durch ganz normale UV-Bestrahlung der Sonne. Daher sind die Strahlen durch radioaktive Stoffe (fast) bedeutungslos.

7.     In der Wirklichkeit ist der Effekt der Noxe im realen Konzentrationsbereich nützlich, darüber wird in den Medien nicht berichtet.

CO2 ist ein notwendiger Dünger für Pflanzen, mehr CO2 in der Luft bewirkt besseres Pflanzenwachstum. Ohne CO2 gäbe es keine Pflanzen und keine Tiere und keine Menschen.

Ionisierende Strahlen im Dosisbereich unserer ganz normalen Umwelt sind nicht schädlich, sie sind nützlich für Lebewesen (s. Veröffentlichungen von Prof. Becker, Feinendegen, Wachsmann, Jaworowski, UNSCEAR 1994). Im Jahre 2001 hatte sich der damalige Präsident der ICRP, Prof. R. Clarke zum Ziel gesetzt, die Grenzwerte im Strahlenschutz aufzuweiten in den Bereich von 20 bis 30 mSv/Jahr. Das ist nicht gelungen, heute geht der Weg der ICRP zu immer kleinern Dosisgrenzwerten, weit unter den Bereich, den die Natur den Menschen zumutet. Das widerspricht der Natur.

8.     Der „gefährliche“ Bereich der Noxe ist in der Natur fast unmöglich und daher selten, in der Technik sind Gefahren möglich, sie werden aber sicher beherrscht.

Bei CO2 ist ein Beispiel aus der Natur bekannt, der CO2-Ausbruch vom Nyos-See in Kamerun 1986 mit 2000 Opfern durch die sich talwärts wälzende CO2-Wolke. In der lebensnotwendigen Technik gibt es viele gefährliche CO2-Konzentrationen, z.B. aus jeden Schornstein oder Autoauspuff kommt diese. Allerdings wird sie sofort auf ungefährliche Konzentration verdünnt. Dennoch gibt es Fälle mit Todesopfern, z.B. Suizid. Weitere gefährliche CO2- Konzentrationen kann es in der Bodenluft von Gärkellern oder in Höhlen geben.

Es gibt in der Natur kein Beispiel von einer gefährliche Strahlung durch Radioaktivität. In den Brennelementen eines Kernkraftwerkes gibt es Radioaktivität in gefährlicher Konzentration, diese wurde bisher erfolgreich von der Biosphäre fern gehalten; mit einer Ausnahme: Tschernobyl. Es gab in ca. 50 Jahren seit den Anfängen durch den Umgang mit Radioaktivität und Kernkraft bisher 100 Todesopfer weltweit, dabei ist Tschernobyl eingeschlossen (s. Dr. Hermann Hinsch).

Wie ist die Situation heute?

Die Klimahysterie scheint langsam abzunehmen. Wer aus dem Fenster schaut, erkennt dass es keine Klimaerwärmung durch CO2 gibt. Gerade herrscht in Europa eine sibirische Kälte. Professor Vahrenholt ist das jüngste Beispiel, der seine Meinung über CO2 geändert hat, das ist lobend zu erwähnen.

Bei der Strahlenhysterie liegen die Verhältnisse etwas schwieriger, denn es fehlt das Wissen um Strahlung und dessen Wirkung auf Lebewesen. Der Bürger kann die Angaben in den Medien zu Aktivität, Dosis und Dosisleistung nicht einordnen. Sicherlich ist die Handlungsweise Deutschlands falsch, es geht nun einmal nicht ohne Stromerzeugung durch Kernkraftwerke.

Den Deutschen wird vielleicht erst dann ein Licht aufgehen, wenn durch Strommangel das Licht ausgeht.

Dr. Lutz Niemann für EIKE




Erneuerbare Energien“ beurteilt unter dem Aspekt des „Kosten-Energie-Äquivalenzgesetzes“

… Gemäß dieser Vorstellung lassen sich die Energieverbräuche verschiedener Herstellungsverfahren einfach anhand der Herstellungskosten vergleichen, während die üblichen Berechnungen von Energieverbräuchen stets unsicher sind, da die Zurückverfolgung der Energieverbräuche bis auf die Rohmaterialgewinnung niemals im Detail möglich ist. (Letzteres führt z.B. zu dem Befund der Verbraucherberatung, dass die Angabe der Effizienz von Wärmedämmungsmaßnahmen „ davon abhängt, wer sie macht“) Die Schlussfolgerung, dass Erzeugung von Elektrizität durch Wind und Sonnenenergie, angesichts von 3 bis 10 fachen Herstellungskosten, im Vergleich mit Erzeugung in konventionellen Verbrennungskraftwerken, eine gigantische Verschwendung von Primärenergierohstoffen darstellt und (wenn man denn schon mit Schädlichkeit von CO2 Emission argumentiert eine ebenso sinnlose wie gigantische CO2 Emission), wurde jedoch angezweifelt. Die zentrale Annahme, die Kosten seien ausschließlich Energiekosten, wurde in Frage gestellt.Die zentrale Vorstellung von Kosten als Energieäquivalent wurde jedoch kürzlich klar nachvollziehbar und auf naturwissenschaftlichen Prinzipien beruhend nachgewiesen von Dr. Heinz Schütte in der renommiertesten Zeitschrift der Energiewirtschaft „et-ENERGIEWIRTSCHAFTLICHE TAGESFRAGEN“ Ausgabe 12/2011, Seite 32-37

Hier der Beitrag von Dr. Schütte als Zusammenfassung. Den ganzen Beitrag finden Sie in voller Länge als pdf Datei im Anhang:

„Erneuerbare Energien“ beurteilt unter dem Aspekt des „Kosten-Energie-Äquivalenzgesetzes“

  • Zusammenfassung

Das „Kosten-Energie-Äquivalenzgesetz“ beruht auf naturwissenschaftlichem, lehrbuchgängigem Grundwissen. Aufbauend auf dem naturwissenschaftlichen Gesetz des 2. Hauptsatzes der Thermodynamik gelang I. Prigogine der durch den Chemienobelpreis 1977 anerkannte Nachweis, dass Ordnung und damit Information und daraus resultierend Leben nur entstehen kann, wenn dem zugrunde liegenden chemischen System ein Überschuss an Energie zur Verfügung steht. Dabei ist Energie nicht nur die Voraussetzung für die Entstehung des Lebens sondern folgerichtig auch für seinen Fortbestand und damit für jede körperliche und geistige Aktivität eines Lebewesens, wobei die dem jeweiligen Vorgang physikalisch äquivalente Menge an Energie verbraucht wird. Sämtliche materielle und geistige Wertschöpfung des Menschen beruht damit quantitativ und ausschließlich auf dem Verbrauch von Energie und ist nur durch den Einsatz von Energie realisierbar.

Aufgrund unterschiedlicher Effizienz des Energieverbrauchs bei der Wertschöpfung ist die Menge an benötigter Energie kein Maß für den erzeugten Wert. Zusätzlich ist ein erzeugter Wert Schwankungen des Marktes unterworfen, die sich nicht an seinem physikalischen Energieinhalt orientieren. Um dennoch die Werte, die bei dem wirtschaftlichen Tun des Menschen in Form eines Tauschhandels den Besitzer wechseln, miteinander vergleichen zu können, bedarf es eines Maßstabs für die Werte. Der Maßstab eines Wertes sind gemäß den Regeln der Wirtschaftswissenschaften die Kosten, die ein Erwerber – als Tausch mit Werten aus seinem eigenen Energiereservoir – zu zahlen bereit ist. Da ausnahmslos alle Werte allein auf Energieverbrauch beruhen, sind folgerichtig sämtliche im Weltwirtschaftssystem auftretenden Kosten zu 100 % reine Energiekosten.

Dieser auf naturwissenschaftlichen Grundgesetzen beruhende wirtschaftswissenschaftliche Zusammenhang trägt den Namen „Kosten-Energie-Äquivalenzgesetz“. Dieses Gesetz, angewandt auf die Herstellung „Erneuerbarer Energien“, führt zu aufschlussreichen Erkenntnissen.

Die Quelle für ,,Erneuerbare Energien" ist die Sonne. Ihre Energie steht gratis zur Verfügung. Zur Umwandlung der Sonnenenergie in elektrischen Strom durch Fotovoltaik, Sonnenkollektoren, Windräder, Biogasanlagen oder Ähnliches entstehen jedoch Kosten. Diese Kosten sind – wie oben dargelegt – reine Energiekosten und müssen durch Verbrauch fossiler Energien wie Kohle, Erdöl, Erdgas oder auch Kernenergie getragen werden.

Die Herstellkosten von ,,Erneuerbaren Energien" sind bei diesem Umwandlungsprozess sehr viel höher als die Herstellkosten für die gleiche Menge Energie, wenn sie mit fossilen Energieträgern in klassischen Wärmekraftwerken hergestellt wird. „Erneuerbare Energien“ benötigen das 3- bis 10-fache der Kosten des klassischen Herstellungsprozesses. Mit anderen Worten ausgedrückt: Um 1 Kilowattstunde ,,Erneuerbare Energien“ herzustellen, werden 3 bis 10 Kilowattstunden an Energie aus Kohle, Erdöl, Erdgas oder Kernkraft verbraucht. Diese zur Herstellung von ,,Erneuerbaren Energien“ benötigten, fossilen Energieträger müssen zusätzlich importiert werden. Eine Erhöhung der Produktion „Erneuerbarer Energien“ macht Deutschland damit automatisch noch abhängiger von Energieimporten aus dem Ausland und erzeugt zusätzlich die entsprechende Menge an CO2. Das entspricht dem genauen Gegenteil dessen, was als Begründung für „Erneuerbare Energien“ offiziell verkündet wird!

Dr. rer. nat Heinz Schütte:

Der in Marburg promovierte Chemiker arbeitete zunächst im Vorstandsbereich der Hoechst AG dann als Technischer Geschäftsführer des Pharma-Bereichs der Hoechst AG mit weltweiter Verantwortung für Wirkstoffproduktion, Prozessentwicklung, Arzneifertigung, Ingenieurwesen und Investitionen  

Related Files




Blackouts gerade noch vermieden: Stromhändler sollen die Schuldigen sein!

So berichtet das ehemalige Nachrichtenmagazin "der Spiegel" in seiner Onlineausgabe heute: 

Stromhändler zocken fast bis zum Blackout

Der deutsche Strommarkt stand in den vergangenen Tagen mehrfach vor dem Zusammenbruch. Laut Bundesnetzagentur waren dafür aber nicht die Kälte oder der Atomausstieg verantwortlich, sondern Energiehändler – die offenbar ihre Profite maximieren wollten. Die Aufsichtsbehörde ist alarmiert.

Der deutsche Strommarkt wurde bis vor wenigen Tagen durch gefährliche Handelsgeschäfte in die Nähe eines Zusammenbruchs gebracht. Die "Berliner Zeitung" zitiert aus einem Schreiben der Bundesnetzagentur, das die Aufsichtsbehörde am Montag an die verantwortlichen Händler verschickt hat, weil es zu gefährlichen Defiziten im Stromnetz kam. Ein Sprecher der Netzagentur bestätigte SPIEGEL ONLINE den Wortlaut des Briefs.

Darin heißt es, das deutsche Stromnetz habe seit dem 6. Februar zu unterschiedlichen Tageszeiten "erhebliche, über mehrere Stunden andauernde Unterdeckungen verzeichnet". Deshalb sei "im Störungsfall teilweise keine Regelleistung verfügbar gewesen"…..

Offensichtlich fand die Sprachregelung des Umweltministers für solche Fälle schnell willige Anwender.

Der als Energiewendenbefürworter bekannte Abteilungsleiter beim Bundesverband der Verbraucherschützer Holger Krawinkel befand gar: "Nicht der Atomausstieg gefährdet die Versorgungssicherheit, sondern die Gier der Marktteilnehmer."

Lesen Sie den ganzen hanebüchenen Beitrag hier




Studie der EU-Kommission – „Biokraftstoff schadet Klima“

Nicht nur die FAZ berichtet über den neusten Öko-Flop zur vermeintlichen Rettung des Weltklimas: 

Auszug aus dem FAZ Beitrag: 

Die Nutzung von Biokraftstoff, der aus Palmöl, Sojabohnen oder Raps hergestellt wird, belastet das Klima stärker als herkömmliche Treibstoffe aus Erdöl. Das geht einer noch internen Studie der Europäischen Kommission hervor, die die Behörde in den kommenden Wochen offiziell vorstellen will. In der Studie werden erstmals auch die indirekten Folgen der Herstellung von Biokraftstoffen für deren Ökobilanz berücksichtigt. Davon spricht man, wenn bisher unberührter Regenwald oder Feuchtgebiete landwirtschaftlich genutzt werden, weil auf den zuvor genutzten Flächen Pflanzen zur Biokraftstoffproduktion angebaut werden. Nur die Biokraftstoffe, die aus Zuckerrohr, Zuckerrüben oder Mais hergestellt werden, schneiden nach der Studie eindeutig besser ab als herkömmliche Kraftstoffe…

Lesen Sie den ganzen Beitrag hier 

Auch die Welt berichet darüber 

Der Biosprit führt Umweltpolitik ad absurdum

Eine Studie der EU stellt den ganzen Unsinn des Biosprits heraus. Er ist nicht nur umweltschädlich, sondern vermehrt auch den Ausstoß von Treibhausgasen…Im Jahr 2050 werden zwei Milliarden Menschen mehr als heute leben. Mehr Lebensraum, mehr Ackerfläche werden benötigt. Beides gilt als nahezu erschöpft. Deshalb sind neue Technologien gefordert, auch neues Saatgut. 

Vor diesem Hintergrund wird es von Tag zu Tag zynischer, in welcher absurden Bewegung wir Deutschen den Rest der Welt mitreißen wollen. Die neue „grüne Revolution“ wird ausgebremst, biotechnologische Ansätze werden zum Teufelszeug deklariert. Die Menschheit möge sich vom Ökolandbau ernähren…

Lesen Sie den ganzen Beitrag von Ulli Kulke hier




Jetzt bestätigt: Klimaschutz ist Religion – Beichte nun möglich!

Die Beichten selber sind auch sehr schön:

Beispiel: „Ich habe heute jmd Fleisch essen sehen und nichts dagegen getan!“

Hoffentlich ist das Beispiel Ironie. Schwer zu sagen!




Energiewende verstehen? E = mc²!

Bild rechts: Prof. Albert Einstein bei seiner 11. Josiah Willard Gibbs-Lektion auf dem Treffen der American Association for the Advancement of Science im Auditorium des Carnegie Institue of Technology Little Theater in Pittsburgh am 28. Dezember 1934. Photo: AP

E = mc²

Während meiner Collegezeit besuchte ich einen Kursus, in dem es um die großen politischen Philosophen ging – Hobbes, Locke, Rousseau, Kant, John Stuart Mill und Karl Marx.

Nach meiner Erinnerung habe ich sie den historischen Zeiten zugeordnet, die sie beeinflusst hatten – Hobbes und die Monarchen des 18. Jahrhunderts, Locke und die amerikanische Revolution, Rousseau und die Romantik des 19. Jahrhunderts, Kant und die Nationalstaaten des 19. Jahrhunderts, Marx und der Kommunismus des 20. Jahrhunderts.

Dann sah ich eines Tages eine Zeitskala, auf der gezeigt wurde, wann sie alle gelebt haben und gestorben sind. Zu meinem Erstaunen hatte jeder einhundert Jahre vor der Zeit gelebt, die ich  ihnen zeitlich zugeordnet hatte. Es schien klar, was das bedeutet. „Es dauert etwa hundert Jahre, bevor ein neuer Gedanke die Bühne der Geschichte betritt“.

Vor fast genau einhundert Jahren hat Albert Einstein die Gleichung E = mc² in seiner “Speziellen Relativitätstheorie” eingeführt. Die Gleichung bot einen neuen Weg, die Ursprünge chemischer Energie zu beschreiben sowie eine neue Energiequelle, die bis dahin historisch völlig unbekannt war – Kernkraft. Die Kernkraft gab ihr furchtbares Debut in der Geschichte 40 Jahre später in Gestalt einer Atombombe. Aber 100 Jahre später haben die Amerikaner [und vor allem auch die Deutschen, A. d. Übers.] noch nicht richtig die weit größeren Implikationen von Einsteins Gleichung erfasst – eine neue Form von Energie, die fast unbegrenzte Energie mit einem verschwindend geringen Einfluss auf die Umwelt zur Verfügung stellen kann.

E = mc². Wer hat noch nichts davon gehört? Selbst Mariah Carey hat ihr letztes Album danach benannt. „E“ steht für Energie, „M“ für Masse und „C“ für die Lichtgeschwindigkeit – das ist einfach genug. Aber was bedeutet das wirklich? (Die Antwort lautet nicht „Relativität“).

Was E = mc² besagt ist nichts weiter als dass Materie und Energie austauschbar sind. Es gibt eine Verbindung zwischen den beiden. Energie kann sich in Materie verwandeln und Materie in Energie. Es sind zwei verschiedene Aspekte der gleichen Sache.

Dieses Prinzip der Gleichartigkeit von Energie und Materie war eine total unerwartete Abwendung von allem, was es bis dahin gegeben hatte. Im 18. Jahrhundert hat Antoine Lavoisier, der große französische Chemiker, die Erhaltung der Materie begründet. Durch sehr sorgfältige Experimente wie das Verbrennen eines Holzscheites fand er heraus, dass das Gewicht der entweichenden Gase und Aschen immer genau gleich dem Gewicht des Ausgangsmaterials war. Materie kann nicht erzeugt oder vernichtet werden, sondern nur seine Form ändern.

Im 19. Jahrhundert dann begründete eine ganze Reihe brillanter Wissenschaftler – Count Rumford, Sadi Carnot, Rudolf Clausius, Ludwig Boltzman – das gleiche Prinzip für Energie. Energie kann viele Formen annehmen – Wärme, Licht, Bewegung potentielle Energie – aber die Menge bleibt immer die gleiche. Energie kann auch nicht erzeugt oder vernichtet werden.

Als dann das 20. Jahrhundert herauf dämmerte, kam Albert Einstein mit einem dritten Prinzip, dass die anderen beiden in völlig unerwarteter Weise vereinigte. Einstein bewies das Erhaltungsgesetz zwischen Materie und Energie. Nichts dergleichen konnte man sich früher vorstellen. Das Bedeutendste an der Sache ist der Koeffizient – das Quadrat der Lichtgeschwindigkeit. Das ist eine sehr, sehr große Zahl mit einer Größenordnung von 1 Quadrillion.

Wir haben nicht wirklich einen Referenzpunkt, um uns einen Faktor von einer Quadrillion vorzustellen. Wir wissen, was eine Trillion ist – das öffentliche Haushaltsdefizit [der USA]. Aber eine Quadrillion ist immer noch jenseits unseres Horizontes. Jedoch bedeutet genau das, dass eine sehr, sehr große Energiemenge sich in eine sehr, sehr kleine Menge von Materie verwandeln kann, und dass eine sehr, sehr kleine Menge von Materie zu einer sehr, sehr großen Energiemenge werden kann.

Vielleicht gibt es einen Weg, die Wichtigkeit von Einsteins Gleichung mit einer anderen Gleichung zu vergleichen, und zwar der Formel für kinetische Energie:


Kinetische Energie ist die Energie sich bewegender Objekte. „E“ steht wieder für Energie, „m“ für Masse und „v“ für die Geschwindigkeit des sich bewegenden Objektes. Wenn man beispielsweise einen Tennisball durch einen Raum wirft, wird die Energie berechnet, indem man die Masse des Balles mit dem Quadrat seiner Geschwindigkeit multipliziert – vielleicht etwa 50 Meilen pro Stunde.

Die beiden Formeln sind im Wesentlichen gleich. Stellt man sie nebeneinander, ergeben sich zwei Dinge:

  1. Bei einer vorgegebenen Energiemenge sind Masse und Geschwindigkeit umgekehrt proportional. Je höher die Geschwindigkeit, umso weniger Masse ist erforderlich, und umgekehrt.
  2. Vergleicht man das mit den Geschwindigkeiten sich bewegender Objekte in der Natur – Wind und Wasser zum Beispiel – ist der Koeffizient in Einsteins Gleichung fünfzehn Größenordnungen größer – der gleiche Faktor wie von einer Quadrillion.

Wie merken wir das im täglichen Leben? Das meiste von dem, was wir „erneuerbare Energie“ nennen, sind tatsächlich die kinetischen Flüsse von Materie in der Natur. Wind und Wasser sind sich bewegende Dinge, die wir zur Energieerzeugung abernten. Daher werden sie mit der Formel für kinetische Energie gemessen.

Beginnen wir mit Strom aus Wasserkraft. Von einem hohen Damm herunterfallendes Wasser erreicht eine Geschwindigkeit von etwa 60 Meilen pro Stunde [ca. 95 km/h] oder 80 Fuß pro Sekunde [ca. 24 m/s]. Erhöht man den Damm um 80 oder mehr Fuß, kann die Geschwindigkeit dadurch nicht um mehr als 20 Meilen pro Stunde [ca. 32 km/h] erhöht werden. Der einzige Weg, den Energieoutput zu erhöhen besteht darin, die Masse zu erhöhen, d. h. mir müssen mehr Wasser verbrauchen.

Die größten Dämme – Hoover und Glen Canyon am Colorado – sind 800 Fuß hoch [ca. 240 m] und halten ein Reservoir mit einer Fläche von 250 Quadratmeilen [ca. 400 km²] zurück. Dies erzeugt 1000 Megawatt, Standard für eine stromerzeugende Station. (Lake Powell hinter dem Glen Canyon Damm versandete irgendwie und erzeugt nur 800 MW).

Umweltaktivisten begannen in den sechziger Jahren, gegen Wasserkraftwerke mobil zu machen, weil sie so riesige Landschaftsräume verbrauchen, weil sie landschaftlich schöne Täler und historische Canyons ertränken. Sie haben diese Mobilmachung bisher nicht beendet. Der Sierra-Klub, der gegen die Errichtung des Hetch-Hetchy-Damms in Yosemite 1921 kämpfte, versucht immer noch, diesen niederzureißen, obwohl er Trinkwasser und 400 Megawatt Strom für San Francisco zur Verfügung stellt. Als Ergebnis dieser Kampagne werden jedes Jahr mehr Dämme eingerissen als neu gebaut.

Wind weist eine viel geringere Energiedichte als Wasser auf, so dass der Landverbrauch sogar noch größer ist. Zeitweilige 50 Stockwerke hohe Windmühlen erzeugen 1½ MW pro Stück, so dass man 660 Windmühlen braucht, um 1000 MW zu erzeugen. Sie müssen eine halbe Meile [ca. 800 m] entfernt voneinander errichtet werden, so dass ein 1000 MW-Windpark 125 Quadratmeilen [ca. 200 km²] Land überdeckt. Unglücklicherweise erzeugen die besten Windmühlen Strom gerade mal in 30% der Zeit, so dass 1000 MW in Wirklichkeit einen Landverbrauch von 375 Quadratmeilen [ca. 600 km²] weit voneinander entfernter Standorte erfordert.

Gezeitenkraft, oft als eine weitere erneuerbare Energiequelle genannt, leidet unter den gleichen Problemen. Wasser hat eine größere Dichte als Wind, aber die Gezeitenströme bewegen sich nur mit einer Geschwindigkeit von etwa 5 mph [ca. 8 km/h]. An den bestgeeigneten Standorten der Welt würde man etwa 20 Meilen [ca. 32 km] Küstenlinie benötigen, um 1000 MW zu erzeugen.

Was ist mit der Solarenergie? Die Sonnenstrahlung ist ein Ergebnis einer Transformation von E = mc², da die Sonne Wasserstoff zu Helium verbrennt. Unglücklicherweise findet diese Reaktion 90 Millionen Meilen entfernt statt. Die Strahlung streut mit dem Quadrat der Entfernung, so dass die Sonnenenergie, wenn sie die Erde erreicht, um fast den gleichen Faktor abgeschächt ist, 10 bis 15. Folglich beträgt die auf einen Quadratmeter einfallende Sonnenstrahlung 400 Watt, ausreichend, um vier 100-WQatt-Glühbirnen zum Leuchten zu bringen. „Thermische Solar“ – große Anordnungen von Spiegeln, die eine Flüssigkeit erhitzen – können 30 Prozent davon in Strom umwandeln. Photovoltaikzellen sind mit einer Umwandlung von 25 Prozent etwas weniger effizient. Ergebnis: Die Strommenge, die wir von der Sonne bekommen, reicht aus, um eine 100-Watt-Glühbirne pro Kartentisch zu erleuchten.

Das ist keine insignifikante Strommenge. Falls wir jedes Hausdach im Lande mit Solarkollektoren zupflastern, könnten wir möglicherweise unsere Hausbeleuchtung plus einige grundlegende Haushaltsgeräte damit betreiben – tagsüber. Der große Vorteil der Sonne liegt darin, dass sie gerade dann ihr Maximum erreicht, wenn es gebraucht wird, während heißer Sommernachmittage wenn die Klimaanlagen den Stromverbrauch in die Höhe schnellen lassen. Das Zusammentreffen mit diesen Spitzen ist ein ständiges Problem für Energieversorger, und der Sonnenstrom kann eine signifikante Rolle bei der Erfüllung des Bedarfs spielen. Das Problem taucht auf, wen Solarenthusiasten zu behaupten versuchen, dass die Solarkraft grundlastfähigen Strom für eine Industriegesellschaft liefern kann. Es gibt keine Technologie, Energie in für kommerzielle Verwendung ausreichender Mengte zu speichern. Bis etwas entwickelt wird – was unwahrscheinlich erscheint – können Wind- und Solarkraft nur als zeitweilige unvorhersagbare Energiequellen dienen.

Es gibt nur so viel Energie, wie wir aus erneuerbaren Quellen anzapfen können. Sie ist begrenzt, entweder durch die erreichte Schnelligkeit oder durch die Distanz, die die Sonnenenergie bis zum Erreichen der Erdoberfläche überwinden muss. Gibt es also irgendwo in der Natur eine Stelle, an der wir einen Vorteil aus jenem „c2“-Koeffizienten ziehen und Masse in Energie verwandeln können? Es gibt eine, die wir durch die Geschichte benutzt haben. Sie nennt sich „Chemie“.

Chemische Energie wird gemeinhin durch „Ladungszahlen” beschrieben. Ein Natriumatom hat eine Wertigkeit von +1, was bedeutet, dass ihm ein Elektron in der äußeren Hülle fehlt. Gleichzeitig besitzt das Chloratom eine Wertigkeit von -1, was bedeutet, dass es ein Elektron zu viel hat. Zusammen bilden sie Natriumchlorid (Tafelsalz). Alle chemischen Reaktionen laufen entweder „endothermisch“ oder „exothermisch“ ab, was bedeutet, dass Energie bei diesem Prozess entweder abgegeben oder verbraucht wird. Der Bunsenbrenner in der Chemieklasse ist ein Weg, einer Reaktion Energie zuzuführen. Das andere, was passieren kann, geschieht gelegentlich in Chemielaboratorien, nämlich ein plötzliches Freisetzen von Energie, genannt „Explosion“.

Der große Fortschritt der Quantenphysik des 20. Jahrhunderts war es, die chemischen Reaktionen zu beschreiben mit E = mc².

Verbrennt man eine Gallone (ca. vier Liter) Benzin, wird nur ein Milliardstel der Masse des Benzins vollständig in Energie umgewandelt. Diese Umwandlung erfolgt in der Elektronenhülle. Die Menge ist so gering, dass es bisher noch niemandem gelungen ist, sie zu messen. Und doch reicht die Energieerzeugung aus, um ein 1000-Kilo-Fahrzeug 50 Kilometer fahren zu lassen – eine bemerkenswerte Leistung, wenn man darüber nachdenkt.

Elektronen machen nur etwa 0,01 Prozent der Masse eines Atoms aus. Die anderen 99,99 Prozent befinden sich im Atomkern. Und so erhob sich die Frage, ob es möglich wäre, die viel größere, im Atomkern gespeicherte Energiemenge auf die gleiche Weise abzugreifen, wie wir das mit den Elektronen durch Chemie getan haben?

Lange Zeit bezweifelten viele Wissenschaftler, dass das gelingen könnte. Einstein selbst war skeptisch, indem er sagte, dass die Spaltung eines Atoms so wäre wie „der Versuch, nachts Vögel zu jagen in einem Land, in dem es kaum Vögel gibt“. Aber andere Wissenschaftspioniere – Enrico Fermi, George Gamov, Lise Meitner und Leo Szilard – entdeckten, dass es gemacht werden kann. In den späten dreißiger Jahren ist klar geworden, dass Energie in bisher nicht gekannter Menge durch Spaltung des Uranatoms gewonnen werden könnte.

Unglücklicherweise ging der Einführung der Kernkraft der II. Weltkrieg voraus. Dies ist eine historische Tragödie. Die Atombombe steht zur Kernkraft im gleichen Verhältnis wie Schießpulver zu Feuer. Während das Schießpulver in der Geschichte eine bedeutende Rolle gespielt hat, war die Rolle des Feuers von viel größerer Bedeutung. Würden wir das Feuer aufgeben, nur weil es zur Entwicklung von Gewehren geführt hat? Und doch wirft die Atombombe weiterhin einen Schatten auf die gleichermaßen bedeutende Entdeckung der Kernkraft.

Es stellte sich heraus, dass der Energieausstoß aus einem sich teilenden Uranatom 2 Millionen mal größer ist als die Kohlenstoff-Wasserstoffbindung in Kohle, Öl oder Holz aufzubrechen. Verglichen mit allen von den Menschen benutzten Formen der Energiegewinnung ist die Kernkraft jenseits aller Grenzen. Wind besitzt nur ein Zehntel der Energiedichte von Holz, Holz die Hälfte der Energiedichte von Kohle und Kohle die Hälfte der Energiedichte von Oktan. Alle zusammen unterscheiden sie sich um einen Faktor von etwa 50. Die Kernkraft besitzt etwa 2 Millionen mal die Energiedichte von Benzin. Es ist schwierig, dies im Licht unserer bisherigen Erfahrungen auszuloten. Und doch hängt unsere Energiezukunft großenteils davon ab, die Bedeutung dieses Differentials zu erfassen.

Eine elementare Vergleichsquelle ist die Überlegung, was man braucht, um ein Kohlekraftwerk im Gegensatz zu einem Kernreaktor wieder aufzutanken. Ein 1000-MW-Kohlekraftwerk – unser Standard – wird durch einen 110 Waggons langen „Kohlezug“ gefüttert, der alle 30 Stunden an dem Kraftwerk ankommt – 300 mal im Jahr. Jeder individuelle Kohlewaggon wiegt 100 Tonnen und erzeugt 20 Minuten lang Energie. Wir bringen die Kapazität unseres Schienensystems durch dieses Herumfahren der Kohle in unserem Land an seine Grenzen. (In China ist es bereits komplett zusammengebrochen).

Ein Kernreaktor andererseits wird aufgetankt, wenn eine Flotte von sechs Sattelschleppern an dem Kraftwerk mit einer Ladung Brennstäbe einmal alle 18 Monate ankommt. Die Brennstäbe sind nur schwach radioaktiv und können mit Handschuhen angefasst werden. Sie werden fünf Jahre im Reaktor verbleiben. Nach diesen fünf Jahren werden sich etwa 6 Unzen (ca. 170 g) Materie vollständig in Energie verwandelt haben. Wegen der Stärke nach E = mc² reicht die Metamorphose von 6 Unzen Materie aus, die Stadt San Francisco fünf Jahre lang mit Strom zu versorgen.

Das ist es, was den Leuten so schwerfällt zu verstehen. Es liegt fast jenseits unserer Vorstellungskraft. Wie kann man eine ganze Großstadt fünf Jahre lang mit 6 Unzen Materie fast ohne jeden Umwelteinfluss mit Strom versorgen? Es scheint so unvorstellbar zu sein, dass wir Probleme erfinden, um alles wieder normal aussehen zu lassen. Ein Reaktor ist eine Bombe, die darauf wartet zu explodieren. Der Abfall lagert ewig, was werden wir je damit tun können? Es liegt etwas Unheimliches darin, Energie aus dem Atomkern zu erzeugen. Die Technologie liegt jenseits der menschlichen Beherrschbarkeit.*

Aber die Technologie liegt nicht jenseits der menschlichen Beherrschbarkeit. Es ist auch nichts Unheimliches an der Kernkraft. Es liegt nur jenseits von allem, was wir uns vor Beginn des 20. Jahrhunderts auch nur vorstellen konnten. Zu Beginn des 21. Jahrhunderts ist es Zeit, damit anzufangen, sich das vorzustellen.

William Tucker is the author, most recently, of Terrestrial Energy: How Nuclear Power Will Lead the Green Revolution and End America’s Energy Odyssey.

Link: http://www.energytribune.com/articles.cfm/2469/Understanding-E-=-mc2

Übersetzt von Chris Frey

*Bemerkung des Übersetzers: Der Artikel von Tucker stammt vom 21. Oktober 2009, ist also schon älter. Alles hierin Gesagte gilt  natürlich auch für die Energiequelle Thorium, von der damals offenbar noch nichts bekannt war und die nun auch das Risiko einer Verstrahlung gegen Null tendieren lässt.