1

AFP meldet: Jeder Solar-Job kostet in Deutschland 250.000 Euro

Doch laut einer Studie des Instituts für Energiewirtschaft und Rationelle Energieverwendung der Universität Stuttgart aus dem letzten Jahr, wird das Ende der Kernenergie bis zum Jahr 2022 nur kurzfristig eine begrenzte negative Auswirkung auf Arbeitsplätze haben. "Aber der Verlust im Jahr 2025 von ca. 185.000 Arbeitsplätzen  wird auch hier aufgezeichnet werden", hieß es. Zusätzlich glauben einige Forschungsinstitute, dass der erwartete Anstieg der Kosten für Strom in Deutschland das Wachstum aufhält und deshalb kurzfristig eine Beschäftigungszunahme die von der Umstellung auf erneuerbare Energie profitiert neutralisieren wird. Ein aktuelles Beispiel unterstreicht diese Ängste-das deutsche Unternehmen SGL Carbon hat angekündigt, es würde eine neue Kohlefaser-Fabrik lieber in den Vereinigten Staaten als in Deutschland bauen, da Strom dort billiger ist….

Von Aurelia End (AFP) 8.1.12   BERLIN

Den ganzen Artikel finden Sie hier




Die Finanzierung des IPCC sofort stoppen

Willis Eschenbach schreibt in WATTSUPWITHTHAT:

Heute früh bin ich von schlechten Nachrichten überrascht worden.
Der (U.S.) Rechnungshof teilte mit, dass die US-Regierung die Finanzierung des IPCC während des vergangenen Jahrzehnts verheimlichte.
Die Regierung ist schon früher gewarnt worden, so etwas nicht mehr zu tun. Im Rechnungshof-Bericht von 2005 stand die Warnung unter dem vielsagenden Titel “Die Berichte über die Finanzierung des Klimawandels sollten klarer und vollständiger sein“.
Die hinterhältigen Bürokraten hielten sich aber überhaupt nicht daran.

Der jüngste 2011er Rechnungshof-Bericht stellt fest, dass die US-Regierung überhaupt nichts geändert hat. Heimlich wurde etwa die Hälfte der Betriebskosten des IPCC während der vergangenen Dekade bezahlt. In anderen Worten: die Finanzierungsvereinbarung mit dem IPCC gehört wie aus einem Stück zu dessen „wissenschaftlichen“ Behauptungen und dessen weiteren Aktionen: Die sind heimlichtuerisch, schäbig, mit einer verborgenen Zielsetzung und voll von Desinformation.

Laut Bericht hat das US-Außenministerium dem IPCC $19 Mio gezahlt. Herzlichen Dank dafür! Mir Narr war diese Bezahlung für die Parties in Cancun und Durban nicht aufgefallen und mir ist neu, dass dies Teil der Aufgaben des amerikanischen Außenministeriums war.

Auch habe ich nun gemerkt, dass das IPCC aus dem Forschungsprogramm (US Global Change Research Program) $12,1 Mio erhalten hat. Das bringt mich wirklich zur Weißglut. Das IPCC gibt geradeheraus selbst zu, dass man nicht ein einziges Stück wissenschaftlicher Forschung betreibt … Weshalb also zahlt das US Global Change Research Program dafür rund 12 Mio, die eigentlich für Forschung ausgegeben werden sollen?
Ich könnte das zum Beispiel sehr gut für meine Forschungen gebrauchen.

Zur Geheimfinanzierung der Klima-Gewinnler bemerkt der 2011er Bericht. Wir lesen: „Der Kongress und die Öffentlichkeit können die Bundeszuschüsse oder Ausgaben für den Klimawandel über einen längeren Zeitraum nicht nachvollziehen“,
Halt – nein, das hatte der Rechnungshof ja schon 2005 geschrieben.
Unglücklicherweise hat der Rechnungshof keine Machtbefugnisse. Diesmal konnte er nur feststellen, dass die Finanzierungen:
„ … in den Haushaltsplänen oder auf den Webseiten der betroffenen Bundesbehörden nicht verfügbar sind. Die Behörden sind generell nicht verpflichtet, dem Kongress diese Informationen zur Verfügung zu stellen.“

Mit anderen Worten: Wie gehabt seit 2005 !

Hallo Abgeordnete! Ihr passt nicht auf. Diese Menschen beantragen Geld für Forschungen und geben es für Parties in Durban und anderen schönen Plätzen rund um die Welt aus. Die USA bezahlen das seit einem Jahrzehnt.

Kann mir irgendjemand auch nur eine einzige werthaltige Sache nennen, die vom IPCC kam? Kann mir irgendjemand eine Leistung des IPCC nennen, die dessen Existenz rechtfertigen würde? Ich kann es nicht! Die feiern feine Feste, das ist sicher, zu ihrer letzten globalen Sause kamen 10. 000 Gäste … doch für das Voranbringen der Klimadiskussion haben sie nichts getan, außer zu einem Rückschritt beigetragen.

Und der kommende Auswertebericht Nr. 5 (AR5) wird noch bedeutungsloser sein als der letzte. Dieses Mal wird man erleben, wie das IPCC sich weigern wird, Erklärungen von seinen Autoren über Interessenkonflikte abzufordern. Dieses Mal wird man erleben, wie bekannte Wiederholungstäter wissenschaftlichen Fehlverhaltens in einflussreiche Positionen zum Schreiben des Berichts gehievt werden. Dieses Mal wird man die kleinkarierten Machenschaften des Eisenbahningenieurs erleben, der die Veranstaltung leitet, trotz der Rücktritts-Aufforderung aus den Reihen seiner Helfer.

Der AR5-Bericht des IPCC ist bereits vorab diskreditiert. Er wird zweifelsohne mit lauten Fanfarenstößen verkündet werden und dann wie ein Stein im Wasser versinken, heruntergezogen von der politisierten, schlecht zusammengefassten Pseudowissenschaft und den wiederaufgewärmten NGO-Sprechblasen, die vom IPCC verbreitet werden, als wären sie Wissenschaft.

Leute, können wir nicht dieser IPCC-Parade von nutzlosen und sogar anti-wissenschaftlichen Aktionen ein Halt! zurufen? Können wir nicht die endlosen Parties zu Lasten der Steuerzahler stoppen? Können wir die Strolche nicht zum Teufel jagen und zur echten Klimawissenschaft zurückkehren?

Ich meine: Dem IPCC muss jetzt der Geldhahn zugedreht werden!

Willis Eschenbach

PS – der Rechnungshofbericht (GAO report) ist hier.

Noch ist nicht alles verloren. Über FoxNews erfahren wir, dass wenigstens ein US-Abgeordneter sich bemüht, dem IPCC den Geldhahn abzudrehen: 

Verpackt in den vielen Ergänzungen, die kürzlich den Kongress passiert haben, und die einen Sparumfang von $60 Mio haben, ist ein Streichvorschlag über $13Mio für das IPCC, der vom Republikanischen Kongressabgeordneten von Missouri, Blaine Luetkemeyer kommt.

Ein Kongress-Mitarbeiter Luetkemeyers teilte in FoxNews.com mit, dass dieser ein Gesetz vorlegen möchte, unabhängig davon, ob es im umfangreicheren Haushaltsplan der Republikaner enthalten ist oder nicht:
“Der Abgeordnete beabsichtigt, weiter in seinem Bemühen fortzufahren, die IPCC-Finanzierung zu streichen und er ist vorsichtig optimistisch, dass der Senat die Vorlage annimmt,“ sagte Keith Beardslee, Sprecher für den Abgeordneten. “Für den Fall des Scheiterns, wird eine davon unabhängige Gesetzesvorlage zum Stopp der Finanzierung des IPCC aus dem 111. Kongress erneut vorgelegt.”

Willis Eschenbach

Übersetzung: Helmut Jäger, EIKE

Wie recht Eschenbach mit seiner Forderung hat beweist einaml mehr die kanadische Journalistin Donna Laframboise. Lesen Sie dazu den Beitrag der Zürcher Weltwoche 

Propaganda statt Wissenschaft

Nachtrag:

Der schwedische Meteorologe und Klimaforscher Hans Jelbring* geht noch weiter. Er fordert die sofortige Auflösung des IPCC wegen Mißbrauchs der Wissenschaft. Details dazu hier

Einer seiner Tutoren war Bert Bolin. Mitbegründer und 1. Chairman des IPCC. Jelbring bezeichnet ihn wie folgt: 

"My tutor when writing my exam paper in meteorology was Bert Bolin, the founder of IPCC. He was for sure a screwed influential politician and a dishonest and ordinary scientist."




Der Siegeszug der Kernkraft beginnt erst!

Vorbemerkung I

Im Gegensatz zu Deutschland läuft im Rest der Welt weiterhin eine mächtige Aktivität zur Verstärkung und auch insbesondere zur erstmaligen Einführung dieser Technologie. Die Arbeitsgemeinschaft "Internationale Forum IV. Generation (GIF)" – siehe Vorbemerkung III – arbeitet gemeinsam an 7 neuen Reaktorkonzepten, die sämtlich eine noch weit erhöhte Sicherheit im Vergleich zu heutigen KWK bieten; teilweise auch eine „inhärente“ Sicherheit, also die physikalische Unmöglichkeit einer Kernschmelze.

Zahlreiche innovative Neuentwicklungen verbreiten das Anwendungsfeld der Nukleartechnik auf sämtliche Bereiche der Energieanwendung.  Zu erwähnen ist insbesondere die Entwicklung von Kleinreaktoren, die der Nukleartechnik sehr große neue Anwendungsfelder eröffnen (siehe Vorbemerkung IV).

Daß vor diesem Hintergrund von deutschen Politikern wiederholt von der Kernkraft als nur noch für kurze Zeit brauchbare „Brückentechnologie“ gesprochen wird, zeigt ihren Versuch, eine unwillkommene quantitativ und insbesondere qualitativ zunehmende internationale Entwicklung durch das Etikettieren mit abwertenden Begriffen als vorübergehende Erscheinung  darzustellen.

Die Regierungen der übrigen Nationen beachten das nicht, wie die folgenden Ausführungen zeigen.

Eine zusammenfassende Bilanz der weltweiten Aktivitäten:

(Da KKW aus einem oder mehreren Reaktorblöcken bestehen können, ist es sinnvoll, nur die Blöcke zu zählen. Da die Blockleistung bei neuen Anlagen oft 1.000 – 1.500 MW (Megawatt) erreicht, bedeuten neue Reaktorblöcke häufiger als früher neue leistungsstarke KKW mit nur einem Block.)

► Seit dem Jahre 2004, als 22 KKW-Blöcke im Bau waren, ist die Anzahl der im Bau befindlichen Projekte kontinuierlich gestiegen.

► Im Oktober 2011 waren in 31 Ländern insgesamt 432 Reaktoren mit einer Gesamtleistung von 369.000 MWel in Betrieb.

► 6 KKW haben 2010 den Betrieb neu aufgenommen.

► Mitte Oktober 2011 gab es 63 aktive Bauprojekte in 13 Ländern für KKW  (1. Beton gegossen bzw. in der Ausrüstung):

(Argentinien:1; Brasilien:1; Kanada:3; China:27; Finnland:1; Frankreich:1; Indien:6; ;Japan:2; Südkorea:5; Pakistan:1; Russland:10; Slowakische Republik:2;  Taiwan:2, USA:1).

► Bereits bestellt bzw. im fortgeschrittenen Planungsstadium waren in 20 Ländern 152 KKW-Blöcke (Genehmigung und Finanzierung bzw. größere Finanzierungszusagen liegen vor; erwartete Betriebsaufnahme in 8 – 10 Jahren).

►  Vorgeschlagen sind weitere 350 Blöcke, davon 120 in China, 40 in Indien, 30 in Russland, 27 in USA, 16 in Saudi-Arabien (erwartete Betriebsaufnahme in ca. 15 Jahren).

Hiermit wird ein weltweiter, detaillierter Überblick über diese Entwicklung – d.h. die Neubauprojekte und die konkreten Planungen –  präsentiert.

Die Fukushima-Katastrophe hat weltweit unterschiedliche Reaktionen hervorgerufen, über die hier ebenfalls berichtet wird – siehe die fettgedruckten Passagen in den folgenden Länderberichten:

Australien, Chile, China, Deutschland, England, EU, Finnland, Frankreich, Indien, Italien, Japan, Korea, Polen, Russland, Schweden, Schweiz, Slowakische Republik, Spanien, Tschechien, Türkei, USA, Venezuela, Weißrussland.

Daraus wird deutlich, daß es in keinem Land auch nur annähernd so extreme Reaktionen gab, wie in Deutschland. Offensichtlich setzen nahezu alle Länder ihre Kernkraftaktivitäten wie geplant fort, wobei Sicherheitsaspekte noch stärker ins Gewicht fallen als zuvor. Veränderungen in dieser Hinsicht planen die Schweiz und Japan (s.d.).

Unmittelbare Konsequenzen ergeben sich  für alle durch schwere Erdbeben gefährdete Nationen, insbesondere die auf dem sog. pazifischen Feuerring liegenden (Japan, Indonesien, Kalifornien, Chile) und ebenso für die Türkei. Wie das Tohoku-Erdbeben vom 11. März zeigte, sind die an erdbebengefährdeten Küsten liegenden existierenden KKW selbst gegen derart schwere Erschütterungen gut gerüstet, aber ob das auch in jedem Einzelfall für Tsunamis gilt, kann man  anzweifeln.

Vorbemerkung II

Die weltweite nukleare Renaissance erfolgt auf drei Wegen:

► Die überwiegend staatlich geleitete und finanzierte Fortführung des Nuklearanlagen-Baus in Ländern mit existierender Industrie, wie Frankreich, Finnland, Südkorea, China, Indien und Russland;

 Erneuerte Unterstützung der Kerntechnik in Ländern mit existierender Industrie, die aber keine Neubauten in den letzten Jahrzehnten sahen, wie insbesondere das Vereinigte Königreich und die USA;

 Eine Reihe potentieller Newcomer im Nuklearmarkt, wobei die substantiellste Gruppe aus diversen aufsteigenden Wirtschaftsnationen Asiens und des Mittleren Ostens besteht.

 Drei Länder hatten sich für die Beendigung der Nuklearenergie entschieden: Belgien, Deutschland  und Schweden. Schweden hat  seine Meinung geändert. In Belgien gab es inzwischen eine Laufzeitverlängerung für zwei KKW. Italien, das keine KKW besitzt, wollte ein Neubauprogramm beginnen. Nach dem Ergebnis eines kürzlich dazu durchgeführten Referendums wird das nicht erfolgen.

Doch in Osteuropa und Asien wurde der Aufbau neuer nuklearer Kapazitäten zu keinem Zeitpunkt gestoppt, im Gegenteil.

Die Situation in Japan ist vorübergehend unklar: Zunächst wird man bemüht sein, die vorhandenen unbeschädigten  KKW nach Sicherheitsüberprüfungen komplett wieder in Betrieb zu bringen, da der Strom dringend benötigt wird. Die Neubaupläne wird man vorübergehend auf Eis legen, aber später vermutlich – evtl. mit sicherheitstechnischen Modifikationen und Auflagen – wieder verfolgen, weil es nicht vorstellbar ist, daß Japan in großem Stil wieder Kohlekraftwerke baut.

Die Schweiz wird voraussichtlich in 2 – 3 Jahren eine Volksabstimmung zur Kernkraft haben.

Vorbemerkung III

Das "Internationale Forum IV. Generation (GIF)"

► Im Jahre 2001 unterzeichneten 13 Nationen das Gründungsdokument (die Charta):  Argentinien, Brasilien, Kanada, Frankreich, Japan, Republik Korea, Republik Südafrika, Großbritannien, USA. Anschließend traten weitere Nationen dem GIF bei: Schweiz 2002; EURATOM 2003; VR China und Russland 2006.

► Die EU-Kommission benannte ihre Generaldirektion Joint Research Centre (JRC) als ihre Instanz für die Vertretung der EURATOM-Interessen in der GIF. Obwohl Deutschland Mitglied der Europäischen Atomgemeinschaft EURATOM ist, beteiligt es sich faktisch nicht an GIF-Reaktorentwicklungen. Deutsche

Kernforschungsinstitute erhalten keine staatlichen Mittel dafür; nur für Sicherheitsforschung, die aber ohne die unverzichtbare Beteiligung an neuen Reaktorentwicklungen auch bei aller Bemühung und Fachkompetenz kaum nennenswerte Beiträge liefern kann.

► Das Ziel des GIF: Identifizierung und Auswahl von 7 nuklearen Energiesystemen zu deren weiterer Entwicklung. Die auszuwählenden 7 Systeme bieten eine

Vielzahl von Reaktor-, Energieumwandlungs- und Brennstoffkreislauf-Technologien. Ihre Designs weisen thermische und schnelle Neutronenspektren auf, geschlossene und offene Brennstoffkreisläufe und eine größere Spannweite von Reaktorgrößen – von sehr klein bis sehr groß. Abhängig von ihrem einzelnen technischen Reifegrad erwartet man, dass die Systeme der IV. Generation im Zeitraum zwischen 2020 und 2030 und danach zur Anwendung kommen.

► Die von der GIF ausgewählten Systeme sind:

  • 1. Gasgekühlter Schneller Reaktor (GFR): 

  • mit schnellem Neutronenspektrum, einem mit Helium gekühlten Reaktor und geschlossenem Brennstoffkreislauf; Temperatur 850 Grad Celsius; Herstellung von Strom und Wasserstoff. Beteiligt: Japan, Frankreich, Euratom, Schweiz

  • 2. Hochtemperaturreaktor (VHTR):

  • Graphit-moderierter, Helium-gekühlter Reaktor mit offenem Einweg-Uran-Brennstoffkreislauf ; hoher Druck; Temperatur 900 – 1000 Grad C; dadurch            fähig zur thermochemischen Wasserstofferzeugung über einen zwischengeschalteten Wärmetauscher; vollständige passive Sicherheit.
  • Aufgabe: Strom und Wasserstoffherstellung.
  • Beteiligt: USA, Japan, Frankreich, Kanada, Korea, Schweiz, Euratom, China.

  • 3. Superkritischer wassergekühlter Reaktor (SCWR):

  • wassergekühlter Hochtemperatur- und Hochdruck-Reaktor, der oberhalb des thermodynamischen kritischen Punktes von Wasser arbeitet; sehr hoher Druck von 25 MPa; Neutronenspektrum thermisch bis schnell; :Temperatur 510 – 625 Grad C;
  • Aufgabe: Stromerzeugung.
  • Beteiligt: Euratom, Kanada, Japan, Korea als Beobachter

  • 4. Natriumgekühlter Schneller Reaktor (SFR): 

  • Schnelles Neutronenspektrum, Kühlung mit flüssigem Natrium, geschlossener Brennstoffkreislauf für das effiziente  Management von Aktiniden (Transurane) und für die Umwandlung von Natururan in Spaltmaterial; Druck nahe bei Atmosphärendruck; Temperatur 500 – 550 Grad C; 
  • Aufgabe:  Stromerzeugung.
  • Beteiligt: Japan, USA, Frankreich, Euratom, Korea, China, Russland als Beobachter

  • 5. Bleigekühlter Schneller Reaktor (LFR): 

  • Mit schnellem Neutronenspektrum und einer Kühlung mit flüssigem Blei oder einer flüssigen eutektischen Blei-Wismut-Mischung;  Temperatur 480 – 800 Grad C; Aufgabe: Erzeugung von Strom und Wasserstoff;
  • Beteiligt: Euratom und Japan (MoU in Verhandlung); USA und Russland als Beobachter

  • 6. Schneller Salzschmelze-Reaktor (MSFR): 

  • Umlaufende  geschmolzene Fluoridsalz-Brennstoff-Mischung;   geschlossener Brennstoffkreislauf mit  vollständigem Aktiniden-Recycling; niedriger Druck; passive Kühlung; Temperatur: 700 – 800 Grad C;
  • Aufgabe: Strom- und  Wasserstoffherstellung;
  • Beteiligt: Euratom, Frankreich und USA: MoU in Verhandlung; Russland als Beobachter.

  • 7. Hochtemperatur-Salzschmelze-Reaktor (AHTR): 

  • Thermisches (langsames) Neutronenspektrum; gleiche Grafitkernstruktur wie VHTR, jedoch Kühlmittel Fluoridsalze anstelle von Helium; offener Brennstoffkreislauf; passive Kühlung; Temperatur: 750 – 1000o C;
  • Aufgabe: Erzeugung von Wasserstoff.;

.

Bewertung des GIF: "Diese Systeme bieten signifikante Fortschritte in Nachhaltigkeit, Sicherheit und Zuverlässigkeit, Wirtschaftlichkeit, Schutz gegen Weiterverbreitung und in physikalischem Schutz."

Vorbemerkung IV

Miniatur-Kernkraftwerke – eine neue Klasse kompakter Strom-Wärme-Erzeuger

In der Kerntechnik wußte man schon lange, daß der Bau von wesentlich kleineren Reaktoren als die derzeit den Kraftwerkspark der Welt beherrschenden Typen ohne weiteres möglich ist. Forschungsreaktoren und Reaktoren für die Herstellung von medizinisch nutzbaren Isotopen gibt es schon lange. Einige Kleinreaktoren wurden auch in beachtlicher Stückzahl gebaut, allerdings überwiegend als Antriebs-Energiequelle in Atom-U-Booten und nur wenige in Handelsschiffen und Eisbrechern. Weitere dienten als Energiequellen für entlegene Standorte im hohen Norden.

Dies hat sich seit einiger Zeit grundlegend geändert: Jetzt werden Kleinreaktoren in enormer Vielfalt und in allen bekannten Reaktortechnologien entwickelt.

Mit Kleinanlagen sollen Versorgungslücken geschlossen und neue Anwendungen erschlossen werden. Ihre durchweg hohe Sicherheit, durch die ihre Akzeptanz bei der Bevölkerung erhöht werden kann, und ihre sehr oft unterirdische Bauweise    prädestiniert diese Systeme als stadtnahe Strom- und Fernwärmelieferanten. Weiterhin ist die Meerwasserentsalzung bei mehreren Kleinsystemen ein Anwendungszweck, ebenfalls die Wasserstoffproduktion. Auch könnte die Stromversorgung in Ländern mit wenig Infrastruktur und geringerer Bevölkerungsdichte dadurch bezahlbar werden. Die günstigen Kosten können durch die Komplett-Vorfertigung in der Fabrik mit ihren Preis- und Qualitätsvorteilen erzielt werden. Die Modularität erhöht die gesamte Anlagenverfügbarkeit und zugleich die Sicherheit.

Nukleare Kleintechnik bietet daher vor allem einen Weg für Entwicklungsländer, um eine Nuklearindustrie zu einem Bruchteil der Kosten und Risiken aufzubauen, die üblicherweise mit großen konventionellen Kernkraftwerken in Verbindung gebracht werden. Kleine Nuklearanlagen können die Energielösung für die Grundlastversorgung für viele Entwicklungsländer darstellen, die ansonsten auf fossile Brennstoffe angewiesen wären. Für alle Länder, die in gemäßigten oder kälteren Zonen liegen, kann diese Technik Gas und Heizöl ersetzen. Durch die Wasserstofferzeugung könnten chemische Treibstoffe mit Hilfe der Nukleartechnik hergestellt werden.

Diese Entwicklung bedeutet eine Ausweitung der Kernenergie-Anwendung in mehrere neue und bedeutende Energiemärkte, die kaum unterschätzt werden kann.

Eine Übersicht über die derzeit in der Entwicklung befindlichen Kleinsysteme mit elektrischen Leistungen bis 100 MW: 

Leichtwasser-Reaktoren

KLT-40S (Russland)

Als Nachfolger der schon länger in Eisbrechern eingesetzten KLT-40-Reaktoren entwickelte das russische Unternehmen OKBM den 35 MWe -Druckwasserreaktor KLT-40S. Er soll als schwimmendes Kraftwerk eingesetzt werden, das entlegene Hafenstädte mit Strom und Wärme versorgen kann.

Zur Sicherheitsauslegung gehören 5 Barrieren (Uranpellets, Brennstäbe, der Primärkreislauf, das Containment und der abgeschlossene Reaktorraum), die den Austritt von radioaktivem Material verhindern sollen. 

Die Konstruktion begann 2007, am 30.6.2010 fand in der baltischen Werft in St. Petersburg der Stapellauf des ersten schwimmfähigen Kernkraftwerks Akademik Lomonossow statt. Die Installation der zwei Reaktoren erfolgt 2011 und ebenfalls der erste Test, 2013 die Endabnahme.

Jeweils 2 dieser Reaktoranlagen werden auf einer 144 m langen Barke installiert.  

Als Option ist auch die Ausrüstung mit zwei Entsalzungsanlagen zur Trinkwasserherstellung  vorgesehen. Das schwimmende Heizkraftwerk  soll für eine 35 bis 40-jährige Betriebsdauer ausgelegt sein.

Erster Einsatz soll 2012 an der Halbinsel Kamtschatka zur Versorgung der Siedlung Viljuchinsk erfolgen. Russland bemüht sich stark um Exporte dieser Anlage nach Asien, Lateinamerika und Nordafrika.

mPower (USA)

Babcock & Wilcox (B&W) hat ein mPower genanntes Konzept für ein aus modular aufgebauten 125 MWe -Leichtwasser-Reaktorblöcken bestehendes Kraftwerk konzipiert.  Die Anlagen können mit 1 bis 10 Reaktor-Modulen bestückt werden. B&W bezeichnet diese Anlage als „Generation 3++“, womit auf den höheren Sicherheitsstandard hingewiesen werden soll.

Reaktor und Dampferzeuger sowie eine Lagermöglichkeit für abgebrannte Brennelemente bilden bei diesem Design eine in einem gemeinsamen Behälter befindliche Einheit. Dieses sog. Nuclear Steam Supply System NSSS befindet sich in einem unterirdischen Containment. Bei einem Brennelemente-Wechsel oder bei Reparaturarbeiten muß nur ein Modul heruntergefahren werden, während die übrigen weiter laufen.

Jedes Modul soll für eine Laufzeit von 60 Jahren ausgelegt sein, während ein Betriebszyklus 4,5 Jahre betragen soll.

Ein wesentlicher Vorteil dieses Konzepts sei die kostengünstige und qualitativ überlegene Komplettfertigung des NSSS in einer Fabrik, von der es zur Kraftwerksbaustelle transportiert und eingebaut werden kann.   Daher soll die Bauzeit für eine Anlage nur 3 Jahre betragen.

Betont werden die erweiterten Sicherheitsfunktionen der Reaktoren: Insbesondere passive Sicherheitssysteme, keine aktiven Kernkühlsysteme. Keine Notstromaggregate, sondern Batterieversorgung.

Erste Arbeiten in der Produktion sollen 2013 beginnen. B&W und Bechtel haben eine Gemeinschaftsentwicklung für das mPower-Konzept vereinbart.

B&W verfügt für den mPower bereits über Verträge mit drei Versorgern (TVA; First Energy; Oglethorp Power).

NuScale (USA)     

NuScale entwickelt ein Konzept für modular aufgebaute Leichtwasser-Reaktoren.

Eine NuScale-Anlage soll aus 12 Modulen bestehen und eine Leistung von 540 MWel liefern, wobei das Einzelmodul 45 MWel beisteuert. Der einzelne Reaktor-Druckbehälter, der die Abmessungen 14 m Länge und 3 m Durchmesser besitzt, befindet sich in einem separaten Containment von 18 m Länge und 4,5 m Durchmesser. Auch Dampferzeuger und Druckhalter befinden sich in dem Modul.

Für einen Brennelementwechsel muß nur ein Einzelmodul herunter gefahren werden. Es wird dann von den Speisewasser- und Dampfleitungen getrennt und mittels eines Krans in ein Wechselbecken befördert, wo der BE-Wechsel per Fernbedienung ausgeführt wird.

Zur Erhöhung der Sicherheit wurden verschiedene zusätzliche Barrieren eingeführt: Ein Containment-Pool, der die einzelnen Module umgibt, dann die Stahlbetonhülle des Pools, ein biologischer Schild und schließlich das Reaktorgebäude selbst. Das Notkühlsystem des Reaktors arbeitet passiv und bedarf keiner Stromversorgung.

Ferner sind alle kritischen Komponenten unterirdisch installiert – als Schutz gegen äußere Einwirkungen (Flugzeugabstürze etc.).

Wie beim Konzept mPower werden die Module in einer Fabrik komplett gefertigt und per Zug, LKW oder Schiff zur Baustelle gebracht.

SMART (Südkorea)

Das Korea Atomic Energy Research Institute KAERI arbeitet seit 1997 gleichfalls an einem modularen Kleinreaktorkonzept „System-Integrated Modular Advanced Reactor (SMART)“. Es handelt sich um einen Druckwasserreaktor, der für  Stromerzeugung, Meerwasserentsalzung und Fernwärmeversorgung eingesetzt werden soll.

Sein integraler Aufbau bedeutet, daß alle Primärkomponenten wie der Reaktorkern, der Dampferzeuger, die Kühlpumpen und Druckhalter in einem Behälter untergebracht sind. Die Leistung beträgt über 330 MWt und 100 MWe ; die Anlage ist auf eine 60-jährige Betriebsdauer ausgelegt.

Neben einer Vielzahl von Sicherheitssystemen stellt die passive Ableitung der Restwärme  eine Neuerung dar.

KAERI ist eine Partnerschaft mit dem KEPCO-Konsortium (siehe Korea) eingegangen. Die Designarbeit soll Ende 2011 abgeschlossen werden.

CAREM (Argentinien)

Ein modularer 27 MWe Druckwasserreaktor mit integriertem Dampferzeuger. Für Stromerzeugung oder Wasserentsalzung. Das primäre Kühlsystem ist innerhalb des Druckbehälters untergebracht. Das Kühlsystem basiert allein auf Wärmeableitung. Jährliche Brennstoff-Nachfüllung. Fortgeschrittene Entwicklung; in ca. 10 Jahren Einsatz in der NW-Provinz Formosa.

VKT-12 (Russland)

Der VKT-12 ist ein kleiner transportabler 12 MWe Siedewasserreaktor (BWR), der dem   VK-50 – BWR-Prototyp in Dimitrowgrad ähnelt. Ein Kreislauf, Keramik-Metall-Kern. Brennstoffwechsel alle 10 Jahre. Reaktorbehälter 2,4 m Innendurchmesser,

Höhe 4,9 m.

ABV (Russland)

Ein in Entwicklung befindlicher kleiner Druckwasserreaktor von OKBM Afrikantow ist der ABV mit einem Leistungsspektrum von 45 MWt  (ABV-6M) bis herunter zu 18 MWt  (ABV-3), somit 18 – 4 MWe. Die Einheiten haben einen integrierten Dampfgenerator. Sie werden in einer Fabrik für die Montage auf festem Grund oder auf einem Lastkahn    produziert .  Brennstoffwechsel-Intervall ist ca. 8-10 Jahre; Betriebsdauer ca. 50 Jahre.

NHR-200 (China)

Der Nuclear Heating Reactor (Nuklearer Heizreaktor) NHR-200, entwickelt vom Institute of Nuclear and New Energy Technology der Tsinghua Universität, ist ein einfacher

200 MWth Druckwasserreaktor für die Fernheizung oder Wasserentsalzung. Er basiert auf dem NHR-5. Im Jahre 2008 stimmte die Regierung dem Bau einer sog. Multi-Effekt-Entsalzungsanlage (MED) mit dem NHR—200 auf der Halbinsel Shandong zu.

Holtec HI-SMUR (USA)

Holtec International gründete im Februar 2011 eine Tochter – SMR LLC – um ein 140 MWe  – Reaktorkonzept „Holtec Inherently Safe Modular Underground Reactor – HI-SMUR 140“) kommerziell zu verwerten. Es ist ein Druckwasserreaktor mit externem Dampfgenerator. Er besitzt völlige passive Kühlung sowohl im Betrieb als auch nach Abschaltung. Das gesamte Reaktorsystem soll unterirdisch installiert werden. Holtec will den Antrag für die Design-Zertifizierung durch das NRC gegen Ende 2012 einreichen. Die Shaw-Gruppe leistet Engineering-Unterstützung.

TRIGA (USA)

Das TRIGA Power System ist ein Druckwasserreaktor, dessen Konzept auf General Atomics bewährtem Forschungsreaktor-Design beruht. Es ist ein 64 MWth , 16,4 MWe  System, das bei relativ niedriger Temperatur arbeitet. Das Sekundärkühlmittel ist Perfluorkohlenstoff. Der Brennstoff ist Uran-Zirkon-Hydrid. Verbrauchter Brennstoff wird im Reaktorbehälter gespeichert.

Schnelle Salzschmelze-Reaktoren

FUJI (Japan)

Dieses maßgeblich von dem japanischen Wissenschaftler Dr. Kazuo Furukawa begleitete Reaktorkonzept gehört im Grunde bereits zur IV. Generation (Nr.6 in Vorbemerkung III) der Flüssigsalz-Reaktoren (MSR). Mit diesem Konzept beschäftigt sich ein internationales Konsortium aus Japan, Russland und den USA.

Der FUJI ist ein kleiner Brutreaktor mit eigenem Brennstoffkreislauf.

Als Vorstufe soll eine kleinere Version – der miniFUJI – gebaut werden, der eine Größe von nur 1,8 m Durchmesser und 2,1 m Höhe aufweisen und dabei jedoch die respektable Leistung von 7 bis 10 MWel erreichen soll. Nach mehrjähriger Erprobung soll dann der FUJI gebaut werden, der mit 5,4 m Durchmesser und 4 m Höhe eine Leistung von 100 bis 300 MWel erreichen könnte.

Das Prinzip: Grafitmoderierung; keine Metallteile im Inneren des Reaktors, das Flüssigsalz ist nicht brennbar (im Gegensatz zum Natrium-gekühlten Brutreaktor) und chemisch inaktiv.  Der Reaktor wird passiv gekühlt und der Brennstoff kann jederzeit durch Schwerkraft, also ohne Pumpen etc., aus dem Reaktor entfernt werden. Dabei gelangt der Brennstoff in einen Entladetank, der von einem passiven Kühlsystem umschlossen wird. Ein System aus Schutzbarrieren soll den FUJI umgeben.

Auch soll das sehr gut verfügbare Thorium (etwa 10-fach größere Vorräte als Uran vorhanden) als Brennstoff mitgenutzt werden.

Am 18.6.2010 wurde in Tokio die International Thorium Energy & Molten-Salt Technology Inc. (IThEMS) gegründet, die innerhalb von 5 Jahren den ersten Thorium-MSR miniFUJI bauen will.

Zu den Vorteilen gehört insbesondere die praktische Unmöglichkeit einer Kernschmelze und/oder einer Freisetzung großer Mengen an radioaktiven Substanzen.  Auch existiere eine weitgehende Verringerung der terroristischen Bedrohung, da kaum waffenfähiges Plutonium im Reaktor erzeugt wird.

Eine wichtige zusätzliche Eigenschaft, die prinzipiell alle schnellen Brutreaktoren und damit auch der FUJI aufweisen, ist die Verbrennung (Spaltung) von langlebigen radioaktiven Abfällen aus Leichtwasser-Reaktoren der II. und III. Generation, die dem FUJI als Brennstoff dienen können – wodurch Spaltprodukte mit einer mittleren Halbwertszeit von nur ca. 100 Jahren als Abfall übrig bleiben.

Flüssigmetall-gekühlte schnelle Reaktoren

HPM (USA)

Die Hyperion Power Generation Inc. in Santa Fe baut einen Minireaktor „Hyperion Power Module, HPM“  mit einer Leistung von 25 MW (elektrisch) und 75 MW (thermisch).

Es handelt sich um einen bleigekühlten Schnellen Reaktor (LFR)  mit  Kühlung durch eine flüssigen eutektischen Blei-Wismut-Mischung. Eine Version dieses Reaktortyps fuhr jahrelang in der russischen Alpha-U-Boot-Klasse als Antriebsquelle, aber Hyperions HPM-Design hat einen anderen Ursprung: Das Los Alamos National Laboratory (LANL) hat das Konzept entwickelt und es steht nach wie vor als „brain trust“ hinter dieser Entwicklung. Hyperion ist ein „spin-off“ des LANL zum Bau und zur Vermarktung des Typs.

Der HPM weist ein geschlossenes Brennstoffsystem auf. Der kleine Reaktor – mit den Abmessungen 1,5 m Durchmesser, 2,5 m Höhe – wird vollständig in einer Fabrik hergestellt und dann per Bahn, LKW oder Schiff zum Einsatzort gebracht. Der enthaltene Brennstoffvorrat reicht für einen 10-jährigen Betrieb, nach dem der Reaktor zur Fabrik zurück gebracht und dort mit neuem Brennstoff versehen wird. Die gesamte Anlage ist kleiner als ein Acre (4047 m2) und wird unterirdisch eingebaut.

Hyperion hat mit dem Savannah River National Laboratory SRNL, das dem Energieministerium DOE gehört, ein Abkommen zur Errichtung des HPM auf dem SRNL-Gelände abgeschlossen.

Das Unternehmen hat eine weitere Anwendung im Blick: Schiffsantriebe. Ein Konsortium der Strategic Research Group von Lloyd´s Register, Hyperion Inc., dem britischen Entwickler BMT Nigel Gee und dem griechischen Schiffsbetreiber Enterprises Shipping and Trading SA will den HPM als Antrieb großer Schiffe, speziell Großtanker, voranbringen. Man denkt an Kleinreaktoren mit über 68 MW (das hieße 2-3 HPM) als „plug-in“ Nuklear-“Batterien“.

Lloyd´s R. Sadler: „…wir werden nukleare Schiffe auf bestimmten Handelsrouten früher sehen, als viele derzeit annehmen.“

Am 9.12.2010 hat Hyperion der NRC die erste formelle Präsentation des HPM vorgestellt und damit den ersten Schritt zur Lizensierung des Designs getan.

Die Finanzierung erfolgt durch die Risikokapital-Firma Altira, Denver.

SSTAR (Japan)

Dieser bleigekühlte schnelle Reaktor wird von Toshiba u.a. entwickelt. Er wird bei

566o C betrieben, besitzt einen integrierten Dampferzeuger und soll unterirdisch installiert werden. Wirkungsgrad 44%. Nach 20 Betriebsjahren ohne neuen Brennstoff wird der komplette Reaktor zum Brennstoff-Recycling abgeholt. Der Kern ist 1 m hoch und hat 1,2 m Durchmesser (20 MWe –Version).

SVBR-100 (Russland)

Der Blei-Wismut-gekühlte Schnelle Reaktor SVBR mit 75-100 MWe und

400 – 495 oC wurde von Gidropress entwickelt. Bei seinem integrierten Design sitzt der Dampfgenerator im gleichen Behälter wie der Kern. Der Reaktor würde in der Fabrik gefertigt und dann mit 4,5 m Durchmesser und 7,5 m Höhe in einem Wassertank installiert, der passive Wärmeabfuhr und Abschirmung bietet. Russland baute 7 Alfa-Klasse U-Boote, die mit einem kompakten 155 MWth Pb-Bi-gekühlten Reaktor angetrieben wurden – was im Wesentlichen ein SVBR war. Damit wurden 70 Reaktorjahre an Betriebserfahrung gesammelt.

Ende 2009 wurde AKME-Engineering (ein Gemeinschaftsunternehmen von Rosatom und der En+ Gruppe) gegründet, um eine Pilotanlage des SVBR zu entwickeln und zu bauen. Das Design soll 2017 komplettiert sein und 2020 soll der 100 MWe -SVBR  in Dimitrowgrad ans Netz gehen.

Der SVBR-100 könnte damit der erste Schwermetall-gekühlte Schnelle Reaktor sein, der zur Stromerzeugung eingesetzt wird. Nach den gleichen Designprinzipien ist ein SVBR-10 mit 12 MWe geplant.

4S (Japan)

Toshiba und das Central Research Institute of Electric Power Industry (CRIEP) entwickeln zusammen mit SSTAR Work und Westinghouse (ein Toshiba-Unternehmen) den Super-Safe, Small & Simple (4S) Natrium-gekühlten schnellen Reaktor – der auch als „nukleares Batteriesystem“ bezeichnet wird. Der 4S besitzt passive Sicherheitseigenschaften. Betriebstemperatur 550oC. Die Einheit wird in der Fabrik gebaut, zum Standort gebracht und unterirdisch eingebaut. Sie soll 3 Dekaden ohne neue Brennstoffzufuhr kontinuierlich laufen. Eine 10 MWe –Version (0,68 m Kerndurchmesser, 2 m Höhe) und eine 50 MWe –Version (1,2 m Kerndurchmesser, 2,5 m Höhe) sind geplant.

Nach 30 Betriebsjahren wird 1 Jahr zur Abkühlung des Brennstoffs abgewartet.

Aufgabe: Stromerzeugung und elektrolytische Wasserstofferzeugung. Ein erster Standort wird Galena/Alaska sein. Die Design-Zertifizierung durch die NRC (USA) steht bevor.

Der L-4S ist eine Blei-Wismut-gekühlte Version des 4S-Designs.

EHNS (USA)

Die „Encapsulated Nuclear Heat Source“ EHNS ist ein 50 MWe  Flüssigmetall-gekühlter Reaktor, der von der University of California, Berkeley, entwickelt wird. Ein Sekundär- Kühlkreis liefert die Wärme an 8 separate, nicht verbundene Dampfgeneratoren. Außerhalb des Sekundär-Pools ist die Anlage luftgekühlt. Der Reaktor sitzt in einem 17 m tiefen Silo. Der Brennstoffvorrat soll 15 – 20 Jahre reichen. Danach wird das Modul abtransportiert und durch ein neu aufgefülltes ersetzt. Die ENHS ist für Entwicklungsländer entworfen und ist äußerst Proliferations-sicher.  Die Kommerzialisierung ist noch entfernt.

Gasgekühlte Hochtemperatur- Reaktoren

HTR-10 (China)

Chinas HTR-10 ist ein 10 MWth  experimenteller gasgekühlter Hochtemperaturreaktor am Institute of Nuclear & New Energy Technology (INET) an der Tsinghua Universität nördlich Pekings. Vorbild war der deutsche HTR bzw. AVR. Er erreichte 2003 volle Leistung. Der Brennstoff ist ein „Kugelbett“ (27.000 Elemente), von denen jedes 5 g auf 17% angereichertes Uran enthält. Betriebstemperatur 700oC. Im Jahre 2004 erfolgte  ein extremer Sicherheitstest, in dem der Umlauf des Kühlmittels Helium unterbrochen wurde, ohne den Reaktor abzuschalten. Bedingt durch die Physik des Brennstoffs ging die Kettenreaktion zurück und endete nach 3 Stunden. Ein Gleichgewicht zwischen der Kernwärme und der Wärmeableitung durch den Stahlreaktor wurde dabei erreicht und die Temperatur überstieg niemals sichere 1600oC.

Beim AVR (Jülich) hatte man früher den gleichen Test erfolgreich durchgeführt.

Adams Engine (USA)

Adams Atomic Engines´10 MWe  HTR-Konzept besteht aus einem einfachen Brayton-Zyklus (Gasturbine)  mit Niederdruck-Stickstoff als Kühl- und Arbeitsgas sowie Grafitmoderation. Der Reaktorkern ist ein festes, ringförmiges Bett mit ca. 80.000 Brennstoffelementen. Die Ausgangstemperatur des Kerns ist 800oC. Eine Demo-Anlage soll 2018 fertig gestellt sein.

MTSPNR (Russland)

Der kleine Hochtemperaturreaktor MTSPNR wurde vom N.A. Dolezal Research and Development Institute of Power Engineering (NIKIET) entwickelt. Es ist ein modularer, transportabler, luftgekühlter HTR kleiner Leistung mit geschlossenem Gasturbinen-Kreislauf für die Wärme- und Stromversorgung entlegener Regionen.  Eine 2-Reaktoren-Einheit liefert 2 MWe  ; sie ist für eine Laufzeit von 25 Jahren ohne weitere Brennstoffergänzung vorgesehen. Ein Vorläufer-Gerät war der von Sosny gebaute Pamir-630D von 1976-1986, ein 300-600 kW HTR, auf LKW montiert. Seit 2010 kooperiert NIKIET mit SPA Luch und Sosny, um einen transportablen Kernreaktor zu entwickeln.

Bilanz der weltweiten Kernkraft-Aktivitäten

Ägypten

Der frühere ägyptische Präsident Hosni Mubarak hatte am 29.10.2007 den Bau mehrerer Kernkraftwerke zur ausschließlich friedlichen Nutzung angekündigt. "Mit dieser strategischen Entscheidung übernehmen wir neue Verantwortung und ziehen Konsequenzen aus der Energiesituation in Ägypten", sagte Mubarak. Im August 2010 teilte die staatliche Nachrichtenagentur MENA mit, dass Präsident Mubarak die Zustimmung für den Bau des ersten KKW an der Mittelmeerküste in Dabaa  gegeben habe. Den Bauauftrag will Ägypten noch 2010 ausschreiben. Bis 2025 wollte das Land 4 KKW bauen.

Am 11.November traf der ägyptische Minister für Energie und Elektrifizierung Ägyptens, H. Junis, in Russland mit Rosatom-Generaldirektor S. Kirienko zusammen. Man besprach die Zusammenarbeit auf dem Gebiet der Kernenergie und die Beteiligung Russlands an der bevorstehenden Ausschreibung über die Errichtung des 1. KKW in Ägypten. In Vorbereitung darauf haben bereits 20 ägyptische Spezialisten eine Qualifizierung in Rosatom-Unternehmen abgeschlossen; 20 weitere sollten folgen.

Algerien

Politik: 
Algerien und die USA unterzeichneten im Juni 2007 ein Nuklearabkommen, das die Zusammenarbeit von Labors und Forschern in Anlagen der USA gestattet. Anlässlich des Besuchs des französischen Staatspräsidenten Sarkozy in Algier Ende 2007 wurde in der dortigen Presse über den Bau von bis zu einem Dutzend Reaktoren spekuliert. Bis zu diesem Zeitpunkt gab es zwei Versuchsprojekte. Auch Interesse von russischer Seite bestünde. Im Juni 2008 unterzeichneten dann Frankreich und Algerien ein ziviles Atomabkommen.

Im November 2008 unterzeichneten Argentinien und Algerien ein Abkommen über die Zusammenarbeit in der Kernenergie.

Der algerische Energieminister Chakib Kheli gab im Februar 2009 bekannt, dass Algerien bis 2020 ein KKW errichten werde. Darüber hinaus sehe Algerien vor, "alle 5 Jahre" einen neuen Reaktor zu bauen.

Projekte:

Der Vorsitzende von Algeriens Atomenergiebehörde Comena Dr.M. Derdour war Anfang Februar 2010 in Südafrika, um den Einstieg seines Landes in das PMBR-Projekt (Hochtemperatur-Kugelhaufenreaktor) auszuloten. In einer Pressemitteilung hieß es, Algerien untersuche den Einsatz kleiner Kugelhaufen-Reaktoren, um seine Energieabhängigkeit zu verringern und seine Dörfer im Inland mit Strom und Wasser versorgen zu können.

Derdour: "Wir planen den Bau von 1000 MW nuklearer Kapazität bis 2022 und 2.400 MW bis 2027. Da diese Energie sowohl für die Stromerzeugung als auch für die Meerwasserentsalzung eingesetzt werden soll, scheint die Technologie des Kugelhaufenreaktors eine extrem attraktive Option zu sein."

Jaco Kriek, Chef der PMBR Ltd., sah gute Chancen für eine Zusammenarbeit. Seit 2003 bestehe bereits ein Kooperationsabkommen auf dem Feld der Kernenergie zwischen Comena und dem südafrikanischen Ministerium für Wissenschaft und Technik.

Nach der Beendigung des PMBR-Projektes in Südafrika (siehe dort) stellt sich die Frage, ob Algerien jetzt über diese Technologie mit anderen Ländern – z.B. mit China – verhandeln wird. 

Argentinien

Politik:
In Argentinien ist seit 25.11.2009 ein neues Kernenergiegesetz in Kraft. Es ermöglicht den Bau eines 4. Kernkraftwerks von 1.200 MW Leistung sowie die Laufzeitverlängerung um 30 Jahre des seit 1983 in Betrieb befindlichen  KKW Embalse (PHWR, 600 MW) als "Projekte von nationalem Interesse."

Darüber hinaus wurde die nationale Atomenergiekommission Comision Nacional de Energia Atomica (CNEA) beauftragt, den Bau des Reaktorprototyps Carem in Angriff zu nehmen. Es handelt sich dabei um einen Druckwasserreaktor argentinischer Auslegung, der bis 300 MW Leistung erweiterbar ist und dessen Prototyp in der NO-Provinz Formosa errichtet werden soll. Formosas Gouverneur Insfran kündigte an, dass seine Provinz die "nordargentinische Hauptstadt für nukleare Entwicklung" werde. (Siehe Vorbemerkung IV.)

Im Jahre 2005 hat der damalige Staatspräsident Nestor Kirchner in seinem

Energieprogramm die notwendige Fertigstellung der Anlage Atucha II  betont – ebenso den weiteren Ausbau der Kernenergie.

Projekte:

Bau des kleinen Reaktorprototyps Carem (s.o. Vorbemerkung IV).

Die Arbeiten an der Schwerwasser-Reaktoranlage Atucha II  (745 MW) am Rio Parana nahe der Stadt Zarate waren 1990 gestoppt worden; der Reaktor war zu 80% fertiggestellt.  Die abschließende Fertigstellung, die 2006 begann,  wurde der eigens gegründeten Nucleoelectrica Argentina S.A. (NA-SA) übertragen. Siemens hatte 1980 den Letter of Intent (Absichtserklärung) zu Auslegung und Bau der Anlage Atucha II erhalten. Es handelt sich – ebenso wie bei Atucha I – um Druckkessel-Schwerwasser-Reaktoren vom Typ PHWR, die bei Siemens in Anlehnung an die eigene Leichtwasser-Reaktortechnik entwickelt wurden. Als Brennstoff wird Natururan (UO2) verwendet, weshalb der Kern mit Schwerwasser (D2O) moderiert und gekühlt werden muss.

Als anlagentechnische Referenz dient das KKW Grafenrheinfeld , weshalb die Basisauslegung der Sicherheitstechnik von Atucha II den deutschen Konvoi-Anlagen entspricht.

Jetzt ist Siemens Argentina mit der Montage des Dampfturbosatzes und des Generators abermals beteiligt.

Die argentinische Regierung hat am 25. Oktober 2010 die Urananreicherungsanlage im Technologiekomplex Pilcaniyeu in der Provinz Rio Negro offiziell wieder in Betrieb genommen. Diese Gasdiffusionsanlage der Comision Nacional de Energia Atomica (CNEA) war in den 1990er Jahren vorläufig stillgelegt worden. Die argentinische Präsidentin Cristina Fernandez de Kirchner erklärte dazu, daß Argentinien nun den gesamten Brennstoffzyklus handhaben könne, von der Uranproduktion bis zum Abfallmanagement. Die Anlage soll 2011 das erste schwach angereicherte Uran herstellen.

Armenien

Russlands Präsident Dimitrij Medwedew vereinbarte im August 2010 mit seinem armenischen Amtskollegen eine umfassende gegenseitige Zusammenarbeit auf militärischem und wirtschaftlichem Gebiet. Darunter ist auch der Bau eines neuen KKW, für den der russische Atomkonzern Rosatom den Zuschlag erhielt. Auftragsvolumen 5 Mrd. Dollar.

Das Abkommen regelt die Kooperation beim KKW-Bau des russischen Typs WWER (1000 MW) und die Ausbildung von Fachpersonal. Russland wird ferner Kernbrennstoff liefern. Laut dem armenischen Ministerium für Energie und Bodenschätze könnte der Bau des ersten KKW 2011 beginnen.

In Betrieb ist z.Zt. nur Mezamor 2, ein WWER-440, der 1980 in Betrieb ging und auf 30 Betriebsjahre ausgelegt ist.

Australien

Politik:

Um die Abhängigkeit von fossilen Brennstoffen zu verringern, plante die jetzige Regierung erneut den Atomeinstieg. Premierministerin Julia Gillard wollte die Atompolitik im Lichte der japanischen Katastrophe noch nicht bewerten. Eine Debatte müsse später geführt werden.

Australien verfügt über sehr erhebliche Kohle- und Uranvorkommen  (23% der Uran-Welt-Reserven), von denen die Exportwirtschaft profitiert.

Australien besitzt bisher kein KKW.  Es gab bereits einen Vorschlag für ein KKW: Im Jervis Bay Territorium an der Südküste von New South Wales. Mehrere Umweltstudien und auch Standortarbeiten wurden durchgeführt, zwei Bieter-Runden eröffnet und ausgewertet.  Die Regierung entschied jedoch, das Projekt nicht weiter zu verfolgen.

Im Juni 2006 wurde Dr. Switkowski zum Vorsitzenden eines Commonwealth-Regierungs-Untersuchungsteams zur Ermittlung der Nützlichkeit einer nationalen Kernkraftindustrie ernannt. Diese Taskforce stellte fest, dass Australien die Kernkraft in seinen Energiemix einfügen sollte. Andere Wissenschaftler bestritten anschliessend diese Feststellung. Switkowski wurde im März 2007 von Wissenschaftsministerin Julie Bishop zum Vorsitzenden der Australian Nuclear Science and Technology Organization (ANSTO) ernannt. Ende 2010 läuft seine Berufung aus.

Ende 2006 und Anfang 2007 machte Premier John Howard weit beachtete Aussagen zu Gunsten der Kernkraft – mit dem Hauptargument des Klimaschutzes. Die von ihm  geführte Regierung ging im November 2007 mit einem Pro-Nuklear-Programm in die Parlamentswahl – es gewann jedoch die Anti-Kernkraft-Partei Labour. Die folgende  Regierung unter Kevin Rudd bezeichnete Kernkraft als nicht erforderlich. Zuvor hatten Queensland und Tasmanien als Reaktion auf Howard´s Position Verbote des KKW-Baus auf ihrem Territorium erlassen. 

Projekte:

Australiens erster Kernreaktor – kein KKW – war der Schwerwasser-moderierte High Flux Australian Reactor (HIFAR), der 1960 seine volle Leistung von 10 MW therm. erreichte. Er wurde am Standort der ANSTO-Forschungseinrichtung in Lucas Heights gebaut und diente der Materialforschung und Isotopenherstellung. HIFAR wurde am 30.1.2007 ausser Betrieb genommen.

Ein gleichartiger Ersatzreaktor OPAL mit 20 MW wurde rechtzeitig gebaut und lief 6 Monate parallel zu HIFAR; anschliessend übernahm OPAL die Aufgaben des Vorgängers.

Einschätzung:

In Anbetracht der immensen Vorräte und der starken Kohleindustrie ist es nicht verwunderlich, dass Australien seinen Strom mit Kohlekraftwerken erzeugt. Hier gilt nicht das von den Erdöl und Erdgas liefernden Nationen (Russland, Golfstaaten) übereinstimmend genannte Motiv für die Kernkraft zur Stromerzeugung: Diese wertvoll gewordenen Energieträger wolle man nicht mehr in Kraftwerken verfeuern, sondern exportieren. Strom wird dann mit Kohle oder – zunehmend – mit Kernkraft erzeugt. Für Australien insofern keine Frage, was man angesichts seiner noch für Jahrhunderte reichenden Kohlereserven wählt.

Bahrain

Im Oktober 2007 gab König Hamad einen Plan zur Einführung der Technologie der nuklearen Energieerzeugung bekannt. Im März 2008 unterzeichneten Bahrain und die USA ein Kooperationsabkommen im Bereich der Kernenergie. Im Dezember 2008 führten Bahrain und Frankreich Gespräche über ein Atomprogramm.

Bangladesch

Der Leiter der Kommission für Atomenergie in Bangladesch gab im September 2007 bekannt, dass bis 2015 ein neues KKW am Standort Rooppur errichtet werden soll. Russland und Bangladesch unterzeichneten im Juli 2009 ein Abkommen über eine Zusammenarbeit im Kernenergiebereich.

Belgien

Belgien will bis 2025 aus der Kernenergie aussteigen. Darauf hätten sich die Parteien des Landes geeignet, so eine Regierungssprecherin am 31.10.2011. Der Beschluß dazu stammt aus dem Jahre 2003. Vor dem endgültigen Ausstieg müsse aber sichergestellt sein, daß es genügend alternativen Strom gebe und die Preise nicht explodierten. Erst dann sollen die ältesten drei Reaktoren bis 2015 abgestellt und bis 2025 sollte komplett aus der Kernenergie ausgestiegen sein.

Belgien hat 7 Blöcke in 2 KKW: Doel und Tihange. In Belgien hat der (gesamtnationale) Minister für Energie am 1.10 2009 die Inkraftsetzung eines Königlichen Dekrets angekündigt, mit dem eine 10-jährige Laufzeitverlängerung für die 3 ältesten KKW Doel 1, Doel 2 und Tihange 1 genehmigt wird; also bis 2025…………………

…………………………….
Den gesamten sehr umfangreichen (78 Seiten A4) hervorragend recherchierten Beitrag können Sie als pdf Datei aus dem Anhang herunterladen. 

……………………………….

Schlusskommentar

"Nach Limitierungen und Revisionen der früheren Beschlüsse zum Ausstieg aus der Kernenergie in Schweden, Belgien und Spanien ist Deutschland jetzt das einzige Land der Welt, das die Kernkraft ganz auslaufen lassen will."

(Zitat: VGB PowerTech e.V.; "Electricity Generation 2010/2011", Sep. 2010).

Dieser Satz gilt unverändert auch nach der Katastrophe von Fukushima.

Deutschlands Haltung hat sich im Grunde nicht verändert: die Nutzung der Kernkraft soll nach wie vor beendet werden; die einzigen Fragen sind: Wann ? Wie soll die wegfallende Grundlast sichergestellt werden ? Durch neue Kohlekraftwerke oder durch Atomstrom-Importe ? Sollen die sog. erneuerbaren Energien derart stark ausgebaut werden, daß zwangsläufig  bei dann drastisch gestiegenen Strompreisen die energieintensive Industrie aus Deutschland flüchtet ? Die jetzige emotionale und realitätsferne Debatte deutet darauf hin, daß Deutschland erst sehr tief in die genannten Schwierigkeiten geraten muß, bevor seine Politiker über unerträgliche Energiepreise, wachsende Arbeitslosigkeit und einbrechende Staatseinnahmen ihre Lektion lernen: Die Gesetze der Physik, der Mathematik und die Gesetze des Marktes sind weder durch Ideologie, durch Sonntagsreden, durch Hysterie oder durch unhaltbare Versprechungen von angeblich kurz bevor stehenden  Wundertechniken auszuhebeln.

Die Betrachtung der weltweiten Aktivitäten, der die vorliegende  Arbeit dient, beweist, daß auch weiterhin kein anderes Kernenergie nutzendes Land aus dieser Technik aussteigen will.  Selbst diejenigen Nationen, die erstmals die Kernkraft nutzen wollen, halten an ihren Plänen fest.

Verschärfen wird sich nach Fukushima der jeweils hinsichtlich der Sicherheit der Anlagen betriebene staatliche Kontrollaufwand; möglicherweise werden die Reaktorhersteller auch in einigen Fällen eine Änderung ihrer Auftragslage feststellen: Weniger Reaktoren der 2. Generation und statt dessen – trotz höherer Kosten – mehr Reaktoren der 3. Generation mit ihrer überlegenen Sicherheit.

Im Lichte der hier aufgelisteten neuen, weltweiten  Aktivitäten sowohl bei Kernkraftwerks-Neubauten als auch insbesondere angesichts der massiven und bereits sehr weit gekommenen Entwicklungen für die IV. Generation erscheint die deutsche Kernenergiepolitik als bemitleidernswerte Verirrung in eine ideologische Nische. Als besonders seltsam erweist sich die von Politikern erfundene Bezeichnung "Brückentechnologie", die inzwischen den Charakter einer hilflosen Beschwörungsformel erreicht hat, was aber den Rest der Welt nicht daran hindert, die Kerntechnik als die ausschlaggebende und zukunftsträchtigste Energietechnologie voran zu treiben. Diese Brücke ist mindestens 300 Jahre lang. Für die deutsche Forschung und Industrie geradezu deprimierend ist der technologische Vorsprung derjenigen Länder, die zu keinem Zeitpunkt ihre Entwicklungsarbeiten eingestellt haben: Russland, China, Indien, Frankreich, Südkorea, Japan und auch die U.S.A.

Deutschland hatte niemals die Chance, diese Entwicklung mit seiner angstgesteuerten Verhinderungspolitik auch nur zu verzögern, geschweige denn aufzuhalten. Es sind nur Arbeitsplätze vernichtet und Marktchancen verspielt worden, wertvollstes  Know-how ging verloren – sonst nichts. Noch sind deutsche Hersteller von Komponenten für Kernkraftwerke respektierte Mitspieler am Weltmarkt, aber auch das könnte sich bei andauernder Bekämpfung dieser Industrie noch zum Negativen verändern. Denn es ist zu befürchten, daß die Bundesregierung aus Schwäche, Konzeptionslosigkeit und Furcht vor den Medien am Ende auch die Exportbürgschaften auf den grünen Opferaltar legen und damit auch noch die verbliebene Zulieferer-Industrie preisgeben wird.

Im Grunde könnten die im Nuklearbereich noch vorhandenen Restpotenziale in der deutschen Industrie und Forschung theoretisch bei jetzt wieder einsetzender politischer Unterstützung (ohne Subventionen) wenigstens einen bescheidenen Anteil am expandierenden Milliardenmarkt retten.

Man zeige uns aber die Politiker oder Gewerkschaftler, die diese Haltung zu vertreten wagen, selbst wenn sie so denken. Von den Medien ganz zu schweigen.

Weitaus mehr gilt heute der Satz von Fritz Vahrenholt, der 2006 als damaliger Chef des Windkraftunternehmens Repower Systems feststellte: "Der deutsche Atomausstieg, der als weltweites Vorbild gedacht war, bleibt ein Alleingang."

Ein Jahr darauf äußerte sich die Bundeskanzlerin, die heute – nach wie vor im Amt – den vollständigen Ausstieg aus der Kernkraft verkündet,  zum gleichen Thema folgendermaßen: "Die Welt wird sich wenig nach unserer Meinung richten." 

Unter den zahlreichen Quellen sind hervorzuheben:

atw – atomwirtschaft-atomtechnik, International Journal for Nuclear Power, INFORUM GmbH, Berlin, ISSN-1431-5254 ; www.atomwirtschaft.de

bwk Brennstoff, Wärme, Kraft

www.areva.com

www.nuklear-forum.ch

www.buerger-fuer-technik.de

www.gen-4.org

www.world-nuclear.org

www.kernfragen.de

World Nuclear Association

vdi-nachrichten

DER SPIEGEL

FOCUS

Financial Times Deutschland

Handelsblatt

Dr.-Ing. Günter Keil, Sankt Augustin und Dipl.-Ing. Jürgen Wahl, Wachtberg b. Bonn

Related Files




Der Klimawandel hat natürliche Ursachen

Einleitung des Übersetzers

Der Autor J.R. Jensen leitet seinen Beitrag mit einer Bemerkungen zu einem Email-Verkehr zwischen Kevin Trenberth, Phil Jones u. a. aus 2004 ein. Trenberth zeigte darin eine atemberaubende Intoleranz gegenüber einem Wissenschaftler, der dem Konsensdenken nicht folgte und keinen Zusammenhang zwischen tropischer Hurrikan-Häufigkeit und dem behaupteten Klimawandel erkennen konnte. Da Trenberth’ Worte eine unwissenschaftliche ideologische Verhärtung zeigen, kann die Vorbemerkung und Hoffnung auf einen offenen Diskurs nur ironisch gemeint sein.

Abrupte Änderungen in den Temperaturaufzeichnungen der Wetterstationen im Global Historical Climatology Network (GHCN) widersprechen den Behauptungen von einer anthropogenen Erwärmung

von Jens Raunsø Jensen

Vorbemerkung

Angesichts der Worte von Dr. Kevin Trenberth in der Climategate 2.0-Email #3946 (siehe hier) möchte man hoffen, dass die Klimatologen offen sind für eine Überlegung, derzufolge die globale Erwärmung im 20. Jh. sich hauptsächlich als abrupte Änderungen der gemittelten Temperaturen in Verbindung mit natürlichen Ereignissen entpuppen könnte. Beobachtungsdaten stützen diese Vermutung, die im Gegensatz zum „Konsensdenken“ von der Anthropogenen Erwärmung (AGW) steht.

Zusammenfassung

Abrupte oder sprunghafte Veränderungen im Temperaturverlauf sind Gegenstand vieler Diskussionen hier und in anderen Blogs und in der fachbegutachteten Literatur. Die Frage ist nicht nur eine statistische. Viel erheblicher ist, dass das Vorhandensein von sprunghaften Veränderungen in gemittelten Temperaturverläufen den Behauptungen und Modellen der Klimawandel-Theorie widerspricht, also den Behauptungen einer zunehmend sich beschleunigenden Temperaturerhöhung, verursacht hauptsächlich durch anthropogene Emissionen von Treibhausgasen in der zweiten Hälfte des 20. Jh.

In diesem Beitrag werden 232 vollständige nicht-adjustierte GHCN-Stationsaufzeichnungen auf sprunghafte Veränderungen im Zeitraum von 1960-2010 untersucht. Daraus lassen sich folgende Behauptungen ableiten:

  • • Abrupte Veränderungen der Temperaturen könnten großenteils für die “globale Erwärmung“ während der zweiten Hälfte des 20. Jh. ursächlich sein.
  • • 50% der Stationen aus der Stichprobe zeigen keine Zunahme der mittleren Temperaturen (“Erwärmung”) seit über 18 Jahren.
  • • 70% der Stationen in Europa zeigen seit über 20 Jahren keine Erwärmung.
  • • Die entsprechende Rolle natürlicher Vorgänge bei der globalen Erwärmung wird sehr wahrscheinlich vom IPCC unterschätzt.
  • • Die Globalen Temperaturverläufe sind Vergleiche von ”Äpfeln und Birnen” und sie werden großenteils fehlinterpretiert, indem lineare Trend- und Glättungstechniken angewendet werden, die das Muster einer weitverbreiteten gleichförmig zunehmenden Temperatur vortäuschen.

Ziel und Methode.

Dieser Beitrag setzt einen früheren Beitrag zu diesem Thema fort. Diesmal ist eine Stationsanalyse auf fast globaler Ebene einbezogen. Der Beitrag beruht auf einer Powerpoint-Präsentation mit zusätzlichen Details aus einem Arbeitstreffen von Forschern an der Universität von Kopenhagen am 15. November 2011.

Das Ziel der Analyse ist (I) die Auswertung der Temperaturaufzeichnungen der Landstationen im Bodennähe und größeren Höhen hinsichtlich sprunghafter Veränderungen während des Zeitraums 1960-2010, und (II) die Beurteilung der Bedeutung hinsichtlich der globalen Erwärmung in jenem Zeitraum. Man beachte, dass es kein Ziel ist, (wahrscheinliche) anthropogene Erwärmungssignale zu verwerfen oder ein Klimamodell zu formen oder Vorhersagen für die Zukunft zu machen. Das Thema sind sprunghafte Veränderungen in den beobachteten Daten von 1960-2010.

Zur Erkennung von der Umschwünge in einem vorherschenden System (Regime Shift Detection Tool) wurde das dokumentierte Rodionov-Werkzeug (2004, 2006 www.beringclimate.noaa.gov/) benutzt. Die Ergebnisse können als statistisch gesichert betrachtet werden. (Verweis auf die Powerpoint-Präsentation wegen Einzelheiten zu den Parameter-Einstellungen und der Verifizierung der Annahmen konstanter Varianz und einem wahrscheinlich negierbaren Einfluss von Auto-Korrelation).

Die Daten der Beobachtungsstationen stammen vom GHCN (“after combine”, http://data.giss.nasa.gov/gistemp/station_data/ ) und sie enthalten ALLE Stationen mit vollständigen Temperaturaufzeichnungen im Zeitraum von 1960-2010 in weit definierten Auswahlbereichen (sampling regions).
(ref. Fig. 1)

Insgesamt 232 Stationen wurden bestimmt, 54% davon in Europa und Russland. Die Auswahlkriterien für die Stichprobe ergaben große Unterschiede zwischen den „Regionen“ in Bezug auf Stationsanzahl, Stationsdichte und Verteilung. Die „Regionen“ sind mehr oder weniger klimatologisch homogen. Das hat aber keine substanzielle Bedeutung für die folgenden Darstellungen und Schlussfolgerungen.

Fig. 1. Verteilung der Stationsauswahl in Bezug auf die Auswahlkriterien.

Ergebnisse

Deutliche Sprungveränderungen sind sehr häufig in den Temperaturaufzeichnungen zu finden und in repräsentativen Beispielen für 3 “Regionen” werden in Fig. 2a-c gezeigt. Der Temperaturanstieg an den Sprungstellen hat typischerweise eine Größe, die mit der oft zitierten globalen Erwärmung im 20. Jh. vergleichbar ist.

Fig. 2a. Alaska-Temperaturanomalie (n=9). Sprung, 1977; T-Änderung = 1.5 oC; Signifikanz 0.000001

Fig. 2b. Fichtelberg, Europe. Sprung 1988; T-Änderung = 1.0 oC; Signifikanz 0.0000

Fig. 2c. Malakka, Südost-Asien. Sprünge: 1978, 1990 and 1998; T-Änderung = 0.4+0.3+0.4 = 1.1 oC; Signifikanz 0.0004, 0.0007 und 0.003.

Auf der Ebene der Stationen war die Erwärmung von 1960-2010 ganz klar einnicht-linearer Prozess. Das Sprungmuster war unterschiedlich von “Region” zu „Region“. Die globale Temperaturdurchschnitts-Anomaliekurve, gebildet durch Durchschnittsbildung über die Temperatur-Anomaliekurve der Stationen, täuscht daher stark fast-linear ansteigende Temperaturen vor, was im Gegensatz zu den Vorgängen an den einzelnen Stationen steht. Deshalb werden bei der globalen Kurve der Temperatur-Anomalie „Äpfel mit Birnen“ verglichen. Sie darf nicht dazu benutzt werden, einen bedeutungsvollen globalen Erwärmungstrend herauszulesen, wenn die sprunghaften Veränderungen unberücksichtigt bleiben. Des weiteren stellt der augenscheinliche Erwärmungstrend in Wirklichkeit den aggregierten Effekt plötzlicher Sprünge dar. (So z. B. Foster and Rahmstorf, 2011).

Die Sprünge sind auf kurze Perioden konzentriert. Unter Ausschluss von 39 Sprüngen nach 2005 (die höchst ungewiss und noch “im Gange” sind; 2/3 nach oben, 1/3 nach unten) kann gezeigt werden:

  • Die Sprünge fanden vorwiegend (58%) während dreier 3-Jahres-Perioden statt: 1977/79, 1987/89 und 1997/99 (Fig. 3).72% aller Stationen und über 50% der Stationen in jeder “Region” (außer Arktis) zeigen einen oder mehrere Sprünge während dieser Perioden (z.B. 89%, 56% und 93% aller Stationen in Europa, Russland , Südost-Asien; Fig. 4).78% der europäischen Stationen zeigen einen Sprung 1987/89, während dieser Zeitspanne fand augenscheinlich der größte Teil der gesamten Erwärmung in der 2. Hälfte des 20. Jh. statt.
  • 2 oder 3 Sprünge fanden zugleich auch in Südost-Asien statt (besonders 1987/89 und 1997/99), aber nur ein Sprung zeigt sich in allen Aufzeichnungen aus Alaska (1977/79), Europa (1987/89) und Russland (1987/89).

Fig. 3. Verteilung der Sprungveränderungen nach Ereignisjahr.

Fig. 4. Prozent der Stationen mit einem oder mehr Sprüngen in den angezeigten 3 Perioden.

Ähnliche Sprungveränderungen können in nationalen Aufzeichnungen von Durchschnitten aufgefunden werden (siehe die oben zitierte Präsentation): USA-Festland für 48 Staaten (GISS): 1986 and 1998; Australien (BOM): 1979 and 2002; Dänemark (DMI): 1988. Die Sprünge in den globalen Temperaturaufzeichnungen finden sich in: Crutem3gl: 1977, 1987 und 1998; GISS L/O: 1977, 1987 und 1998; Hadcrut3: 1977, 1990 und 1997.

Die Sprünge sind statistisch hoch-signifikant. Gibt es aber dafür eine physikalische Ursache? Die Antwort muss JA für die Mehrzahl der Sprünge sein. Die Sprünge finden in einem zeitlichen und räumlichen Muster statt, das mit wohl-dokumentierten Ereignissen und Verlaufsänderungen im Meeres-Atmosphären-System zusammenfällt:

  1. • 1976/77: großer pazifischer Wechsel von einem “kalten” zu einem “warmen” Modus (z.B. Trenberth, 1990; Hartmann und Wendler, 2005).1987/89 und 1997/99: mit den beiden deutlich intensivsten El Niños der Zeit,
  • • 1986/88 und 1997/98, mit einer Intensität, die hier als Ereignis-akkumulierte Nino3.4 Anomalien definiert ist (NOAA’s ONI index); es hat zwei weniger intensive Ereignisse 1982 und 1991 gegeben, deren Auswirkung vermutlich von den großen Vulkanausbrüchen El Chichon und Mt. Pinatubo überdeckt wurde und eine große Änderung in der Meeresoberflächentemperatur auf der Nordhalbkugel (NH SST) 1988/89 (Yasunaka and Hanawa, 2005).
  • • ein Umschwung im vorherrschenden System konstanter Temperatur nach dem 1997/98er El Niño, d.h. das inzwischen weithin akzeptierte „Pausieren“ der globalen Erwärmung.

    • Dokumentierte Sprungveränderungen und die großen Veränderungen in Meeres-Ökosystemen, z.B. in den späten 1980ern in Europa and im Japanischen Meer.

    • Der kurzzeitige und regional unterschiedliche globale Einfluss der ENSO-Ereignisse sind wohlbekannt. (ENSO = El Nino Southern Oscillation)

Die empirischen Befunde aus dieser Analyse der Daten der Beobachtungsstationen und aus anderen Quellen sind eindeutig: Die sprunghaften Veränderungen der mittleren Temperaturen fanden wirklich statt und sind an natürliche Ereignisse gekoppelt.  Die physikalischen Mechanismen müssen noch geklärt werden und es soll keinesfalls behauptet werden, dass ENSO-Ereignisse die einzigen Elemente einer natürlichen Ursache-Wirkungskette seien.

Man kann daher schließen, dass der größere Teil der Temperaturveränderung (globale Erwärmung) in der 2. Hälfte des 20. Jh. durch abrupte Änderungen bei den gemittelten Temperaturen in der Folge von natürlichen Ereignissen im Meeres-atmosphärischen System stattfand. Dennoch könnte ein (wenn auch im Vergleich mit den großen Sprüngen) geringer Erwärmungs- oder Abkühlungstrend in diesem Modell der Umschwünge des vorherrschenden Systems (regime shifts) verborgen sein. Unvorstellbar erscheint aber, dass ein stetig steigender CO2-Spiegel ursächlich für die plötzlichen und großen Veränderungen sein könnte, wie sie z.B. in Alaska 1977, in Europe 1988 und in Südost-Asien 1998 beobachtet wurden. Prinzipiell könnten die von natürlichen Ereignissen hervorgerufenen Sprünge durch menschlich verursachte Erwärmung verstärkt worden sein, aber das ist derzeit reine Spekulation.

In der Existenz der „Sprünge“ liegende Implikationen

(1) Generalisierende Behauptungen wie:

“Zunehmende Temperatur und sich verstärkende Erwärmung” werden durch diese Studie nicht bestätigt. Der Großteil der “globalen Erwärmung” fand wahrscheinlich in abrupten Sprüngen statt. 50% der analysierten Stationen melden überhaupt keine signifikante Erwärmung seit über 18 Jahren (Fig. 5). In Europa melden 70% der Stationen keine signifikante Veränderungen der mittleren Temperaturen seit über 20 Jahren.

In Südost-Asien beträgt der mittlere Durchschnittswert 13 Jahre, da viele Stationen ebenfalls eine sprunghafte Veränderung 1997/98 erlebten

(Fig. 4).

Jahre Fig. 5. konstanter Temperaturmittelwerte vor 2010. Box-Whisker plot, 1st and 3rd quartiles. (Anm.: die ungesicherten Rauf- und Runter-Sprünge von 2006-2010 sind ausgelassen).

(2) Infragestellen des IPCC-Konsenses,

so z. B. : “Der Großteil der beobachteten Zunahme der globalen Durchschnittstemperatur seit der Mitte der 20. Jh. geht sehr wahrscheinlich auf die beobachtete Zunahme der anthropogenen Treibhausgas-Konzentrationen zurück”.

Die oben beschriebenen Ergebnisse (Die mit natürlichen Prozessen einhergehenden abrupten Änderungen sind wahrscheinlich ursächlich für den Großteil der Erwärmung von 1960-2010) widersprechen der IPCC-Behauptung von der relativen Wirkung natürlicher und anthropogener Ursachen. Wenn also das IPCC (AR4) die Temperaturkurve nur erzeugen kann, indem Treibhausgas-Wirkungen einbezogen werden, muss logischerweise gefolgert werden:

  • Entweder bilden die IPCC GCM Modelle die natürlichen Prozesse mit hoher Auswirkung auf die Temperaturänderungen nicht richtig ab (man traut der Projektion der Veränderungen in der ENSO-Variabilität und der Häufigkeit der El Niños immer noch nicht so recht, siehe den jüngsten SREX-SPM IPCC report),
  • und/oder das IPCC überschätzt die Klimasensitivität der CO2-Veränderung, so z. B. werden zur Erklärung natürlicher Temperaturanstiege CO2-induzierte Feed-back Prozesse herangezogen.

    In jedem Falle wird die relative Bedeutung natürlicher Prozesses für die Temperaturänderungen vom IPCC wahrscheinlich unterschätzt.

Gesamtergebnisse

Die Studie hat festgestellt, dass Sprungveränderungen in allen Temperaturaufzeichnungen der landgestützten Stationen von 1960-2010 anzutreffen sind, dass diese wirklich stattfanden und mit natürlichen Klimaereignissen verbunden sind. Die Sprungveränderungen sind statistisch hoch-signifikant, sie zeigen ein systematisches, aber regional unterschiedliches Muster des Vorkommens, das mit größeren Klimaereignissen und Umschwüngen im vorherrschenden System (regime shifts) verbunden ist. Dieses Ergebnis hat weitreichende Konsequenzen für unsere Analysen der Klimaaufzeichnungen und für die Erklärung der globalen Erwärmung.

Obgleich vielerlei statistische Modelle zur Erkennung des Musters der Temperaturänderung benutzt werden können, disqualifiziert die Existenz von sprunghaften Veränderungen die weithin benutzten statistischen Techniken linearer Trendbildung und Glättung als Werkzeuge zur Erkennung des Musters der Temperaturänderung von 1960 – 2010.

Die sprunghaften Veränderungen sind ursächlich für den größten Teil der Temperaturänderungen in der 2. Hälfte des 20. Jh. Die logische Konsequenz ist, dass natürliche Vorgänge die Hauptursache für die Temperaturänderung in jener Periode sind, andere Ursachen, wie z. B. ein anthropogener Treibhauseffekt, spielen nur eine untergeordnete Rolle.

Jens Raunsø Jensen Associate Professor, Ph. D. Faculty of Life Sciences, University of Copenhagen, Department of Basic Sciences and Environment, Agrohydrology

Übersetzung: Helmut Jäger, EIKE

Den Originalbeitrag finden Sie hier




Energiewende wirkt: Milder Winter – Stromausfälle häufen sich bereits!

Schon im Mai 2011 stellte dazu das Büro für Technikfolgenabschätzung (TAB) fest

Bei Stromausfall droht "Kollaps der Gesellschaft"

„Schon nach wenigen Tagen Stromausfall in einer deutschen Region ist die flächendeckende Versorgung mit lebenswichtigen Gütern und Dienstleistungen nicht mehr sicherzustellen. Das ergab eine Untersuchung des Büros für Technikfolgenabschätzung beim Bundestag (TAB). Die Sprecherin von Bundesumweltminister Norbert Röttgen (CDU) sagte, einen Blackout wegen mangelnder Bereitstellung von Strom werde es nicht geben.“

Dieser kühne Spruch des Ministeriums entpuppt sich – wie so oft – als politische Beruhigungspille, man kann auch vom „Pfeifen im Walde“ sprechen. Denn…

„Die Stromversorgung in Deutschland ist Glückssache“[1] titelt die Welt nur wenige Monate später am 5.1.12 in Ihrer Online Ausgabe  und schreibt: „Die deutsche Stromversorgung war noch nie so unsicher wie in diesem Winter. Nach der Abschaltung von acht Atomkraftwerken im vergangenen Sommer müssen die Netzbetreiber inzwischen fast täglich mit Sonder- und Notfallmaßnahmen in den Energiemarkt eingreifen, um die stabile Versorgung weiterhin garantieren zu können….

Wenn jetzt noch die Temperaturen stürzen, Frankreichs Stromlieferungen wegen Eigenbedarfs ausbleiben und Windflauten den Nachschub an Ökostrom lahmlegen, kann es auch noch ganz eng werden mit der deutschen Versorgungssicherheit.

Nicht auszuschließen, dass die Netzbetreiber irgendwann auch mal industrielle Großverbraucher von den Leitungen abklemmen müssen, damit das Stromnetz nicht zusammenbricht. Diesen letzten Ausweg vor dem Blackout sehen die deutschen Energiegesetze ausdrücklich vor.“

Und SPON titelt zeitgleich:

„Deutschland muss österreichische Kraftwerke anzapfen[2] ..

und erläutert dann:

„Die deutschen Stromnetze stehen in diesem Winter unter massiver Belastung. Wie die "Welt" berichtet, musste der Netzbetreiber Tennet bereits am 8. und am 9. Dezember erstmals auf Kraftwerksreserven in Österreich zurückgreifen. Dafür musste unter anderem ein altes Ölkraftwerk bei Graz wieder ans Netz gebracht werden.

..Die Bundesnetzagentur bestätigte den Vorgang, der zuvor auch schon in österreichischen Zeitungen thematisiert worden war, jedoch bislang noch nicht in Deutschland.

..Am 8. und 9. Dezember kam es zu einer extremen Konstellation. Durch das Sturmtief "Ekkehard" arbeiteten die Windanlagen an der Küste mit voller Kraft. Die gut 20.000 Megawatt Kapazität wurden fast vollständig ausgenutzt. Wegen fehlender Leitungen konnte diese Energie aber nicht nach Süden transportiert werden."

Und die zunehmend kritischer werdende Welt[3] schreibt zusätzlich weiter in ihrer Online-Ausgabe vom selben Tag :  

Österreich rettet deutsche Stromversorgung

„Die Abschaltung deutscher Atomkraftwerke macht sich bemerkbar. Netzbetreiber können nur noch mit Reserve-Kraftwerken aus Österreich die Versorgung stabil halten….“

Voraus ging eine Information des Verbandes der Industriellen Energie- und Kraftwirtschaft VIK die im Netz ein breites Echo fand.

Industrie in Deutschland befürchtet verstärkt Stromausfälle und Blackouts als Folge der Energiewende

„..Mit der anstehenden Energiewende, die bis zum Jahr 2022 realisiert werden soll, warnt die Industrie in Deutschland vor vermehrten Stromausfällen und Blackouts. Für die Verbraucher hierzulande kaum spürbar muss einige Firmen sich bereits mit Stromschwankungen arrangieren, deren Folgen Millionenschäden verursachen könnten.

Bereits am Anfang des vergangenen Jahres hatte die Bundesnetzagentur gewarnt, dass es im Zusammenhang mit der geplanten Energiewende und der sofortigen Abschaltung von Atomkraftwerken insbesondere im Winter zu Stromengpässen kommen könnte. Zumindestens für diesen Winter konnte man in dieser Hinsicht Entwarnung geben, dennoch gebe es bereits zum jetzigen Zeitpunkt schon Probleme."

Und am Freitag dem 06.01.2012 konnte man dazu auch Details in der Freien Presse lesen:

Industrie klagt über häufigere Stromausfälle

Verband: Energiewende führte zu "bedenklichen Qualitätsverlusten bei der Stromversorgung"

Düsseldorf (dapd). Die deutschen Verbraucher sind bislang trotz des Atomausstiegs von Blackouts verschont geblieben, doch die Industrie klagt über eine wachsende Zahl von Stromausfällen. Die beschleunigte Energiewende habe "zu bedenklichen Qualitätsverlusten bei der Stromversorgung" geführt, sagte der Vorstandsvorsitzende des Verbandes der Industriellen Energie- und Kraftwirtschaft (VIK), Volker Schwich, dem "Handelsblatt".

Auf die VIK-Mitglieder entfallen rund 80 Prozent des industriellen Energieeinsatzes in Deutschland. Das Problem ist, dass schon kurze Stromunterbrechungen im Millisekundenbereich und Frequenzschwankungen, die für den "Normalbürger" gar nicht bemerkbar sind, in der Industrie zu erheblichen Problemen führen können.

Der norwegische Aluminiumhersteller Norsk-Hydro warnte laut "Handelsblatt" in einem Brandbrief an die Bundesnetzagentur, das Unternehmen sehe sich mit einer "beunruhigenden Häufung von Netz- und Frequenzschwankungen" konfrontiert, wie es sie in den vergangenen Jahrzehnten nicht gegeben habe.

Die Bundesnetzagentur kündigte an, sie werde das Gespräch mit den Betroffenen suchen. Allerdings gebe es bislang überhaupt keine belastbaren Zahlen zur Dimension des Problems. Bisher erfasst die Überwachungsbehörde nur Stromausfälle, die länger als drei Minuten dauern. Hier schneidet Deutschland mit Stromunterbrechungen von durchschnittlich nur 15 Minuten pro Jahr und Endverbraucher bislang im internationalen Vergleich sehr gut ab.

Und dabei hatten wir noch keinen richtigen Winter. Aber der kommt bestimmt. Wenn nicht dieses dann nächstes Jahr. Und dann sind Wahlen! Leider ohne Auswahl!

Umweltminister Röttgen darf sich inzwischen zusammen mit den Chinesen weiter über Rekordzuwächse bei der Installation von Solaranlagen freuen: 

Deutscher Solarzubau sprengt alle Rekorde

titelt heute Die Welt und schreibt:

Allein im Dezember 3000 Megawatt mehr

Die Zahl neuer Solaranlagen in Deutschland ist im Dezember explosionsartig gewachsen. Der Zubau betrug nach Angaben der Bundesnetzagentur 3000 Megawatt. Damit wurde so viel an neuen Anlagen zugebaut wie nie zuvor. Der bisherige Rekord war der Juni 2010 mit 2100 Megawatt. Wider Erwarten wurde mit 7500 Megawatt dank des Dezembers auch der bisherige Installationsrekord von 2010 (7400 Megawatt) noch übertroffen…..

….Bislang wird der Zubau von Solaranlagen in Deutschland unbegrenzt gefördert, die Kosten werden auf die Stromrechnung aller Verbraucher umgelegt. Die bis Ende 2011 zugebauten Solarmodule werden wegen dieser Vergütungsgarantie die Verbraucher nach Berechnungen von Ökonomen in den kommenden 20 Jahren mit mehr als 120 Mrd. Euro belasten. Derzeit hat Solarstrom rechnerisch einen Anteil von etwa drei Prozent an der deutschen Elektrizitätsversorgung. Allerdings fällt der Beitrag der Solarenergie in den Wintermonaten fast komplett aus und muss durch andere Kraftwerke ersetzt werden….

Michael Limburg EIKE

Nachtrag:

als pdf-Anhang der Bericht des Bundestags-Ausschusses für Bildung, Forschung und Technikfolgenabschätzung (18. Ausschuss) gemäß § 56a der Geschäftsordnung zur "Gefährdung und Verletzlichkeit moderner Gesellschaften – am Beispiel eines großräumigen und langanhaltenden Ausfalls der Stromversorgung".

Die Vorstellung, bei solch einem langanhaltenden Ereignis mit veilleicht 20 weiteren Personen eng aneinander gedrängt in einem Fahrstuhl eingeschlossen zu sein ……..

Admin


[1] http://www.welt.de/debatte/kommentare/article13798392/Die-Stromversorgung-in-Deutschland-ist-Glueckssache.html

[2] http://www.spiegel.de/wirtschaft/unternehmen/0,1518,807268,00.html

[3] http://www.welt.de/dieweltbewegen/article13798376/Oesterreich-rettet-deutsche-Stromversorgung.html

Related Files




US Klimaforscher Hansens hat neue „Studie“ eingereicht!

Normalerweise bevorzuge ich es heutzutage, nur mit wissenschaftlichen Studien zu arbeiten, was natürlich Traktate wie Hansens Zeug ausschließt. Aber in diesem Falle möchte ich eine Ausnahme machen. Mein alleiniger Grund, dies hier zu posten, ist Folgender (Hervorhebung von mir [Eschenbach]):

Die Präzision, die inzwischen durch die fortschrittlichste Generation von Satelliten zur Messung des Strahlungshaushaltes erreicht wird, ist gekennzeichnet durch das planetarische Energie-Ungleichgewicht, gemessen durch die noch laufenden CERES-Messungen (Ceres = Clouds and the Earth’s Radiant Energy System) (Loeb et al. 2009). Dabei stellt sich ein gemessenes Ungleichgewicht im 5-Jahres-Mittel von 6,5 W/m² heraus (Loeb et al. 2009). Weil dieses Ergebnis nicht plausibel ist, wurden Kalibrierungsfaktoren bei den Instrumenten eingeführt, um das Ungleichgewicht auf ein Niveau zu reduzieren, wie es die Klimamodelle berechnen, nämlich 0,85 W/m² (Loeb et al. 2009).

Ich bringe das hier, weil es sich dabei um Klimawissenschaft vom Feinsten handelt. Die Beobachtungen entsprechen nicht der erwarteten Größenordnung, aber anstatt herauszufinden, warum die Ergebnisse falsch sein könnten, verdrehten sie die Stellknöpfe zu „Das [gemessene] Ungleichgewicht zu dem von den Modellen berechneten Ungleichgewicht zu reduzieren“.

Und komischerweise stammt der Wert des „von den Modellen berechneten Ungleichgewichts“ von etwa 0,85 W/m² aus Hansens früherer Studie. Diese seine frühere Studie, zufälligerweise mit dem Titel „Energie-Ungleichgewicht der Erde: Bestätigung und Implikationen“ (hier) zeigte diese 0,85 W/m² als Ergebnis von Hansens eigenem GISS-Klimamodell… aber all dieses inzestuöse Schulterklopfen ist möglicherweise nur ein weiterer Zufall.

Natürlich wissen Sie, was all das bedeutet. Schon bald werden die Modellierer behaupten, dass die Ergebnisse der CERES-Satellitenmessungen verifizieren, dass GISS und andere Klimamodelle akkurat die Beobachtungen duplizieren…

Daran können Sie erkennen, warum Hansens „Wissenschaft“ nicht mehr auf meiner Agenda steht.

Willis Eschenbach

den Originalbeitrag finden Sie hier

P.S. Nach weiteren Nachforschungen fand ich heraus, dass sie Loeb et al. (2009) zufolge nicht einfach die Stellknöpfe der CERES-Messungen verdrehten, um die von ihnen gewünschte Antwort zu erhalten, wie ich dummerweise zu Anfang gesagt habe.

Nein, das haben sie mitnichten getan. Stattdessen verwendeten sie…

…einen objektiven einschränkenden Algorithmus, um SW- und LW TOA-Flüsse [?] innerhalb der Bandbreite von Ungewissheit anzupassen, um die Inkonsistenz zwischen dem mittleren globalen TOA-Fluss und der Wärmespeicherung im System Erde – Atmosphäre zu beseitigen.

Ich werde heute Nacht besser schlafen, wenn ich weiß, dass es nicht einfach ein Verdrehen der Stellknöpfe war, sie haben tatsächlich einen einschränkenden Algorithmus verwendet, um es an ihr Prokrustes-Bett anzupassen…*

[Zu Prokrustes-Bett siehe hier. A. d. Übers.]

Link zu Hansens Artikel, auf den Eschenbach sich bezieht: “Earth’s Energy Imbalance and Implications

Übersetzt von Chris Frey für EIKE




Aktion Kernkraftstrom erfolgreich!

Zusammen beziehen diese Interessenten mehr als 3 Millionen kWh im Jahr. Nach Auskunft einiger Stadtwerke ist diese Menge für einen Stromversorger sehr interessant.

Die potentiellen Bezieher sind über ganz Deutschland verteilt, Schwerpunkte sind aber zu erkennen, jedoch noch nicht ausgewertet.

Preisvorstellungen:

Naturgemäß würden  46 % den KK-Strom gerne billiger beziehen, weitere 42 % würden ihn auch dann beziehen wollen, wenn er gleich teuer wie heute wäre. Immerhin noch 12 % ist das egal und sie würden auch dann KK-Strom kaufen, wenn er teurer wäre.

Leider ist unsere Datenbank nicht so gut organisiert, dass jegliche Äußerung z.B. in den Kommentaren zum Thema, auch sofort gefunden werden kann.

(Mit Dank an G. Wiedenroth)

Nächste Schritte:

Um die ganze Sache voranzutreiben, habe ich daher die Fachleute für Firmengründung und Bezug von Strom im Ausland gebeten, Kontakt aufzunehmen um weitere praktische Schritte zu verabreden. Zu gegebener Zeit werde ich wieder darüber berichten. Ich danke allen Lesern für die Vorschläge und Unterstützung. Das neue Jahr wird spannend!

Update 7.1.12

Warum ist Strom aus Kernenergie nicht viel billiger?

Einige Leser wundern sich, warum Kernkraftstrom nicht sehr viel billiger angeboten werden könne, wenn man ihn denn beziehen könnte. Diese Frage wurde umfassend im Vorlaufartikel beantwortet. Kurz gesagt: Der Grund ist, dass die Herstellkosten (also der Preis der Stromherstellung je nach Kraftwerkstyp) nur 10 bis 20 % des vom Verbraucher zu zahlenden Endpreises betragen. Den Löwenanteil kassiert inzwischen der Staat über Steuern und Abgaben, aber auch andere betriebswirtschaftlich notwendige Zuschläge müssen bezahlt weden. 

Zum besseren Vergleich wiederholen wir deshalb hier diesen Beitrag vom 19. November 11 in Teilen

….Allerdings sollten sich unsere Leser keine allzu großen Hoffnungen machen, bald sehr viel billigeren Kernkraftstrom beziehen zu können. Denn neben den möglicherweise bestehenden rechtlichen Hürden, die es zu überwinden gälte, hat der eigentliche Erzeugerpreis fast den kleinsten Anteil an den gesamten  Stromkosten.

Aus Wikipedia z.B. kann man unter http://de.wikipedia.org/wiki/Strompreis die folgende Tabelle entnehmen:

Jahr

Stromerzeugung,
-transport,
und -vertrieb

Konzessions-
abgabe

KWK-Umlage

Stromsteuer

EEG-Umlage

Umsatzsteuer

Strompreis
Brutto

Anteil
Steuern, Abgaben und Umlagen [%]

1998

0,1289

0,0179

0,0000

0,0000

0,0008

0,0237

0,1713

24,7 %

1999

0,1159

0,0179

0,0000

0,0077

0,0010

0,0228

0,1653

29,9 %

2000

0,0862

0,0179

0,0013

0,0128

0,0020

0,0192

0,1394

38,1 %

2001

0,0860

0,0179

0,0020

0,0153

0,0023

0,0197

0,1432

39,9 %

2002

0,0971

0,0179

0,0025

0,0179

0,0035

0,0222

0,1611

39,7 %

2003

0,1023

0,0179

0,0033

0,0205

0,0042

0,0237

0,1719

40,5 %

2004

0,1082

0,0179

0,0031

0,0205

0,0051

0,0248

0,1796

39,7 %

2005

0,1122

0,0179

0,0034

0,0205

0,0069

0,0257

0,1866

39,9 %

2006

0,1175

0,0179

0,0031

0,0205

0,0088

0,0268

0,1946

39,6 %

2007

0,1219

0,0179

0,0029

0,0205

0,0103

0,0329

0,2064

40,9 %

2008

0,1301

0,0179

0,0019

0,0205

0,0116

0,0346

0,2165

39,9 %

2009

0,1412

0,0179

0,0024

0,0205

0,0131

0,0371

0,2321

39,2 %

2010

0,1390

0,0179

0,0013

0,0205

0,0205

0,0378

0,2369

41,3 %

2011

0,1357

0,0179

0,0003

0,0205

0,0353

0,0398

0,2495

45,6 %

 

Sie sagt zwar viel über den ständig steigenden Staatsanteil samt EEG Umlage aus , aber wenig bis nichts über die eigentlichen Gestehungskosten . Diese sind – man glaubt es kaum- sehr schwer zu ermitteln. Aus verschiedenen Quellen kenne ich einen Gestehungspreis für Kernstrom um 2,5 ct/kWh.  Vergleichbar dem aus Braunkohle. Das macht gerade mal 10 % des heutigen Gesamtpreises aus.  Unterstellt, dass in den 13,57 ct/kWh, die uns im bisherigen Mix in Rechnung gestellt wird – ohne die zwangsweise und immer zu zahlende EEG Umlage mit gut 3,5 ct/kWh – ein Gestehungs-Preis von 5 ct/kWh enthalten ist, dann wäre reiner Kernkraftstrom – wo immer er herkäme- um ca. 10 % oder 2,5 ct/kWh  billiger. Für einen normalen Haushalt mit ca. 3500 kWh pro jahr wäre das eine Einsparung von knapp 90 € pro Jahr. Nicht sehr viel, aber ich würde es trotzdem machen. Sie auch?

Hier noch einmal der Link zur Registration

PS. Übrigens verbraucht ein abgeschaltetes Kernkraftwerk immer noch und auf Dauer eine erhebliche Kühlleistung. Beim Kernkraftwerk Unterweser sind das 6 MW Leistung rund um die Uhr. Und das Land Niedersachsen muss gleichzeitig auf einen "Kühlwassercent" für das Weserwasser in Höhe mehrerer Millionen Euro verzichten. (Mit Dank an Hinweisgeber Prof. Dr. Appel)

Michael Limburg EIKE




IPCC Klimakonferenz 2011 in Durban – war da was? Eine Pressenachlese!

FAZ, 12.12.2011, S. 1; "Farce von Durban" ;

"Es darf nämlich bezweifelt werden, ob es (Anm.: DURBAN) das Prädikat "historisch" verdient, denn das Ergebnis von Durban fällt mager aus. Es hält den schleppenden Verhandlungsprozeß zwar in Gang – das war es aber auch."

"Von einem ‚rechtlich bindenden Abkommen‘, wie es die Europäer gerne gesehen hätten, ist in dem Beschluß nicht mehr die Rede. Jetzt redet man bestenfalls über ein ‚vereinbartes Ergebnis mit Rechtskraft‘ ".

"Wenig besser steht es um das Kyoto-Protokoll" … "Die EU will das Kyoto-Protokoll weiter als Faustpfand in den Verhandlungen nutzen. Doch der Vertrag leidet an Schwindsucht: Japan, Russland und Kanada haben ihren Ausstieg angekündigt, die USA waren von Anfang an nicht dabei. Damit emittieren die verbliebenen Industrie-Staaten unter den Kyoto-Mitgliedern, vor allem die EU, am Ende gerade 15% der global ausgestoßenen Treibhausgase."

"Das zeigt: Wer seine klimapolitischen Hoffnungen vor allem auf "Kyoto" setzt, hat schon verloren."

"Die Weltklimakonferenz ist am Ende, der Ertrag ist mager…".

"Auf der Seite der Blockierer saßen auch in Durban die USA, China, Indien. Alles wie gehabt also. So werden die Klimakonferenzen zur Farce. … Ein Brummkreisel, der sich schneller dreht, kommt trotzdem nicht vom Fleck."

 

FAZ, 12.12.2011, S. 2; "Die Ergebnisse der Weltklimakonferenz" ;

"Weltklimafonds wird eingerichtet."er soll dazu beitragen, daß ab dem Jahr 2020 jährlich 100 Milliarden Dollar zur Verfügung stehen. Woher das Geld kommt, ist offen."

 

FTD, 14.12.2011, S. 9; "Kanada prellt die Klima-Zeche" ;

"Ein Kyoto-Nachfolger soll ab 2020 erstmals Industrie- und Schwellenländern Emissionsziele auferlegen. Christoph Görg, Klimapolitikexperte am Helmholz-Zentrum für Umweltforschung, glaubt, daß Kanadas Kyoto-Ausstieg die Verhandlungen dazu erschweren könnte: Nach Durban haben wir weder konkrete Emissionsziele, noch sind wir sicher, inwieweit die Vereinbarung rechtlich verbindlich ist. Wenn dann beim einzig verbindlichen Vertrag die Schlupflöcher genutzt erden, macht es das noch einmal schwieriger."

 

DER SPIEGEL, 17.12.2011, S. 38-39;  "Riskante Wette" ;

"Nach dem UNO-Gipfel von Durban steht die EU mit ihren CO2-Zielen allein da. Die anderen Volkswirtschaften setzen auf fossile Energie."

 "Hedegaard will im Ergebnis von Durban festschreiben lassen, daß auch Indien, China und die USA bis 2015 einem verbindlichen Weltklimavertrag beitreten. … Die Gegenwehr ist groß. ‚Wir wollen diese Frage offen lassen‘, zischt die Beraterin der indischen Ministerin."

"Anschließend feiert Europa das Ergebnis von Durban als Durchbruch. Bundesumweltminister Norbert Röttgen sieht alle Länder an Bord für einen Weltklimavertrag, der 2020 in Kraft treten soll. Doch das ist eher eine vage Hoffnung."

"…Klimapolitik der USA … im Kongreß würde ein Weltklimavertrag in tausend Stücke zerrissen werden, weil die Mehrheit der US-Politiker Eingriffe von außen in ihre Energiepolitik grundsätzlich ablehnt. Republikaner bezeichnen den Klimawandel als einen Schwindel…"

"China hält sich alle Optionen offen. Kurz nachdem die Konferenz zu Ende war, attackierte die kanadische Regierung den globalen Klimaschutz frontal. Sie erklärte, daß sie aus dem Kyoto-Protokoll aussteigt…". "Japan und Russland sind zudem nicht bereit, im Rahmen des Kyoto-Protokolls neue Reduktionsziele zu akzeptieren."

"Europa steht nach dem UNO-Klimagipfel in Wahrheit ziemlich allein da. Was von Durban bleibt, ist vor allem die Zusage der EU, als einzige Wirtschaftsmacht in den kommenden Jahren neue Reduktionsverpflichtungen im Rahmen des Kyoto-Protokolls einzugehen. Der Rest der Welt kann ungebremst Kohle, Öl und Erdgas verbrennen. Hat die EU in Südafrika zu hoch gepokert und verloren?"

"Ökonomisch ist die Wette der EU durchaus riskant: an eigenen Klimazielen festzuhalten, während andere ihre Wirtschaft mit billigem Kohle- und Atomstrom wachsen lassen."

Zusammengetragen von Klaus E. Puls EIKE




Die beiden Koreas, 1950 – 2008: Ein ungeplantes Experiment wirtschaftlicher Systeme, der Kohlenstoffabdruck und menschliches Wohlergehen

 

 

Ostasien des nachts, das obere Foto von 1994/95, in dem Nordkorea klar hervor tritt, stammt von: http://photoblog.msnbc.msn.com/_news/2011/12/19/9564314-satellites-document-north-koreas-dark-ages?pc=25&sp=25.

Das untere Foto stammt aus dem Jahr 2009. Quelle: http://agora. ex.nii.ac.jp/~kitamoto/research/rs/stable-lights.html.en.

Die Fotos illustrieren nicht nur das Fehlen jeglicher ökonomischer Entwicklung in Nordkorea, sondern sie zeigen auch, dass Nordkorea den schwächsten Kohlenstoff-Fußabdruck der Welt hat. Und die verschiedenen Indikatoren menschlichen Wohlergehens spiegeln diese dunkle Realität, wie die folgende Tabelle zeigt.

So war es nicht immer. In den frühen fünfziger Jahren, so lange Daten verfügbar sind, lagen beide Länder hinsichtlich der wirtschaftlichen Entwicklung und des menschlichen Wohlergehens etwa gleichauf. Der Weltbank zufolge war die Lebenserwartung in Nordkorea 1960 etwas höher als im Süden (55,2 Jahre <-> 53,0 Jahre). Natürlich können die Daten aus dem Norden von der Regierung etwas aufgeblasen worden sein, bevor sie von der Weltbank übernommen worden waren, aber da bin ich nicht sicher.

Aber mit der Zeit ist die Lebenserwartung durch das freiere ökonomische System in Südkorea immer weiter gestiegen. Dann hat der Verlust von äußerer Unterstützung durch den Zusammenbruch der Sowjetunion Nordkorea in einen hoffnungslosen Fall verwandelt, und zwar seit den neunziger Jahren (siehe folgende Abbildung). Schließlich ist der Süden noch demokratischer und die wirtschaftlichen und sozialen Systeme immer transparenter geworden. Die Folgen davon sind in den obigen Fotos und der folgenden Abbildung eindrucksvoll erkennbar.

Bruttoinlandsprodukt und CO2-Emissionen, jeweils pro Kopf, von 1950 bis 2008. Quellen: Maddison (2008) und Weltbank (2011).

Die Bilder und die Tabelle sind unter Anderem eine eindrückliche Warnung vor den Gefahren einer übereifrigen Reduzierung des Kohlenstoff-Fußabdrucks eines Landes.

Indur Goklany

Den Originalartikel finden Sie hier

Übersetzt von Chris Frey für EIKE

Update 5.1.12

Die Nahezu-Stromausfälle und richtigen Stromausfälle nehmen auch bei uns dramatisch zu. U.a. der zunehmend kritischer werdende Daniel Wetzel von „Die Welt „hat das heute mal wieder thematisiert:

Glückssache Versorgung

Österreich rettet die deutsche Stromversorgung




Klimawissenschaft und das Ungewissheitsmonster

Ungewissheit in Verbindung mit der Klimawissenschaft und der Wissenschaftspolitik zeigt besondere Herausforderungen, geschuldet einmal der Komplexität des Klimasystems selbst, dem Potential für ungünstige sozio-ökonomische Auswirkungen der Klimaänderung und der politischen Durchsetzung von Maßnahmen zur Reduktion der Verwundbarkeit der Gesellschaft durch den Klimawandel. Die Herausforderungen beim Umgang mit der Ungewissheit im Spannungsfeld Wissenschaft – Politik werden durch den Rahmen einer ‚Monster’-Metapher beschrieben, und Maßnahmen zur Zähmung des Monsters werden vorgeschlagen. Ein Lexikon der Ungewissheit wird angeboten, das die Art und das Niveau der Ungewissheit beschreibt und das Wege aufzeigt, wie man Ungewissheit repräsentieren und dazu Überlegungen anstellen kann. Ungewissheiten der Klimamodelle wird im Zusammenhang mit der Unzulänglichkeit der Modelle sowie deren Eingangsparameter und den Anfangsbedingungen interpretiert. Wir untersuchen die Herausforderung der Bildung von Vertrauen in die Modelle, und im Besonderen das Vertrauen in Simulationen des Klimas im 21. Jahrhundert. Die Behandlung der Unsicherheit in den IPCC-Zustandsberichten wird untersucht, einschließlich der Schlussfolgerung aus dem 4. Zustandsbericht hinsichtlich der Klimaentwicklung in der zweiten Hälfte des 20. Jahrhunderts. Gedanken zur Zähmung des Monsters werden diskutiert, für Institutionen, individuelle Wissenschaftler und Gemeinden.

Einführung

Zweifel ist keine vergnügliche Sache, aber Gewissheit ist absurd 1” Voltaire

Während des gesamten Verlaufs der Geschichte wurde etwas, das einer Generation unerforschlich und unvorstellbar erschien, für nachfolgende Generationen mehr oder weniger nur noch zu einer technischen Herausforderung. Die „endlose Grenze“ der Wissenschaft (Bush 1945) kommt immer weiter voran, wenn Wissenschaftler immer mehr ausreizen, was möglich ist, sowohl in der Theorie als auch in der Praxis. Zweifel und Ungewissheit über unser gegenwärtiges Verständnis sind an der Wissensgrenze inhärent. Während die Erweiterung der Wissensgrenze die Ungewissheit oft reduziert, führt sie unweigerlich zu größerer Unsicherheit, wenn unerwartete Komplexitäten entdeckt werden. Die Perspektive eines Wissenschaftlers hinsichtlich der Wissensgrenze wird von Feynman (1988) beschrieben: „Wenn ein Wissenschaftler die Antwort auf ein Problem nicht kennt, ist er unwissend. Wenn er eine Ahnung hinsichtlich des Resultats hat, ist er unsicher. Und wenn er sich ziemlich sicher ist, wie das Resultat aussehen könnte, hat er immer noch einige Zweifel. Wir haben herausgefunden, dass es von höchster Bedeutung ist, dass wir, um Fortschritte zu erzielen, unser Nichtwissen erkennen und Raum für die Zweifel lassen müssen. Wissenschaftliche Kenntnis besteht aus einer Anzahl verschiedener Aussagen mit verschiedenen Niveaus der Gewissheit – einige höchst unsicher, einige fast sicher, aber keine absolut sicher“.

Wie man die Ungewissheit in der Klimawissenschaft verstehen und damit umgehen soll, ist ein Thema, dem zunehmend Aufmerksamkeit geschenkt wird, sowohl in der wissenschaftlichen als auch in der philosophischen Literatur. Eine solche Untersuchung ist von höchster Wichtigkeit, weil die Herausforderungen der Klimawissenschaft mit dem Spannungsfeld Wissenschaft – Politik sowie deren sozioökonomischer Bedeutung zusammen hängen, wie es in den Zustandsberichten des IPCC zum Ausdruck kommt.2

Das ‚Monster der Ungewissheit’ ist ein Konzept, das 2005 von van der Sluijs in eine Analyse der unterschiedlichen Wege eingeführt worden war, mit denen die wissenschaftliche Gemeinschaft auf Unsicherheiten reagiert, die zu zähmen sehr schwierig ist. Das ‚Monster’ besteht aus der Konfusion und der Doppeldeutigkeit in den Gegensätzen Wissen gegen Unwissen, Objektivität gegen Subjektivität, Tatsachen gegen Schätzungen, Vorhersage gegen Spekulation und Wissenschaft gegen Politik. Das Monster der Ungewissheit sorgt für aufsteigende Unbequemlichkeit und Furcht, teilweise auch hinsichtlich unserer Reaktionen auf Dinge oder Situationen, die wir nicht verstehen oder kontrollieren können einschließlich der Vorahnung von gänzlich unbekannten Gefahren.

Eine Anpassung der Strategien van der Sluijs’, mit dem Unsicherheitsmonster im Spannungsfeld Wissenschaft – Politik umzugehen, wird im Folgenden beschrieben.

Verstecken des Monsters: Das Verstecken der Ungewissheit oder die „niemals Fehler zugeben“-Strategie kann durch eine politische Agenda oder durch die Angst motiviert sein, dass ungewisse Wissenschaft in der Außenwelt als ärmliche Wissenschaft beurteilt wird. Unabhängig von den ethischen Dingen, Monster zu verstecken, könnte das Monster zu groß sein, um es zu verstecken; oder das Verstecken könnte das Monster erzürnen.

Vertreibung des Monsters: Der Exorzist des Ungewissheitsmonsters konzentriert sich darauf, die Ungewissheit durch Förderung von noch mehr Forschung zu reduzieren. In den neunziger Jahren kam ein wachsendes Gefühl über die Undurchführbarkeit der Modellierung des Klimas auf, und zwar wegen des fortgesetzten Auftauchens immer neuer Komplexitäten und Unsicherheiten. Van der Sluijs stellt fest: „Die Monstertheorie sagt voraus, dass (die Reduktion der Ungewissheit) sich langfristig als vergeblich herausstellen wird: für jedes Haupt des Unsicherheitsmonsters, das die Wissenschaft abschlägt, tauchen wegen unvorhergesehener Komplexitäten mehrere neue Häupter auf“, analog der Hydra der griechischen Mythologie.

Vereinfachung des Monsters: Die Vereinfacher versuchen, das Monster zu transformieren, indem sie es subjektiv quantifizieren und den Zustand der Ungewissheit vereinfachen. Die Vereinfachung des Monsters findet sich explizit in den IPCC-Zustandsberichten 3 und 4 in Form von Richtlinien, die Unsicherheit durch die Annäherung an einen Konsens von Expertenbeurteilungen zu charakterisieren, und zwar im Zusammenhang mit einer subjektiven Bayesianischen Analyse (Moss und Schneider 2000).

Aufspüren des Monsters: Der erste Typ eines Ungewissheits-Detektivs ist der Wissenschaftler, der die bestehenden Thesen in Frage stellt und daran arbeitet, die Wissensgrenze zu erweitern. Ein zweiter Typ ist ein Auditor als Wachhund, dessen wichtigste Sorge darin besteht, die Verantwortlichkeit, Qualitätskontrolle und Transparenz der Wissenschaft zu überwachen. Ein dritter Typ ist der Händler des Zweifels (Oreskes und Collins 2010), der Unsicherheiten verzerrt und aufbauscht, und zwar als Rechtfertigung für Untätigkeit aus finanziellen oder ideologischen Gründen.

Assimilation des Monsters: Bei der Assimilation des Monsters geht es darum zu lernen, mit ihm zu leben und der Unsicherheit einen expliziten Platz in der Betrachtung und dem Management von Umweltrisiken einzuräumen.

Die Abschätzung und der Umgang mit Ungewissheit und Unkenntnis zusammen mit einer erweiterten ebenbürtigen Gemeinschaft sind bei der Assimilation des Monsters unabdingbar. Die Herausforderung hinsichtlich dessen Assimilation besteht in der ewig sich ändernden Natur des Monsters und der Geburt weiterer Monster.

Diese Studie erforscht Wege, Unsicherheit in der Klimawissenschaft zu verstehen, sich ihrer anzunehmen und darüber zu diskutieren, und zwar mit spezieller Applikation zum IPCC-Prozess der Zustandsbeschreibung. Abschnitt 2 beschreibt die Herausforderungen des Verstehens und der Charakterisierung der Ungewissheit in dynamischen Modellen komplexer Systeme, einschließlich der Herausforderungen, das Ensemble der Simulationen für das 21. Jahrhundert zu interpretieren, wie es in den IPCC-Zustandsberichten gemacht wird. In Abschnitt 3 werden einige Dinge hinsichtlich des Umgangs mit Ungewissheit angesprochen, und es wird beleuchtet, wie das IPCC in seinen Zustandsberichten mit diesen Unsicherheiten umgeht. In Abschnitt 4 geht es um die Unsicherheit hinsichtlich der Entdeckung und Zuordnung der anthropogenen Klimaänderung. Abschnitt 5 schließlich führt einige Gedanken und Strategien ein, das Ungewissheitsmonster zu zähmen, und zwar auf dem Niveau von Institutionen, individuellen Wissenschaftlern und Gemeinden.

1 Quelle: http://www.quotationspage.com/quote/33103.html

2 Alle IPCC-Zustandsberichte sind online auf

http://www.ipcc.ch/publications_and_data/publications_and_data_reports.htm#1. Die vier Zustandsberichte werden hier als FAR, SAR, Tar und AR4 plus den bevorstehenden AR 5 bezeichnet. Sofern nicht anders angegeben, beziehen sich Zitate im Text auf Berichte der Arbeitsgruppe I.

Judith Curry und P.J. Webster

den gesamte Text finden Sie unter diesem Link: http://journals.ametsoc.org/doi/pdf/10.1175/2011BAMS3139.1

Übersetzt von Chris Frey für EIKE

Hinweis des Übersetzers: Es folgt die 38-seitige Abhandlung zu diesem Thema. Aus Zeitgründen wird diese hier nicht mit übersetzt.




Der Ozean versauert nicht!

 

Abbildung 1 PH-Wert-Bandbreite mit einigen Beispielen.

Das Erste, was man hinsichtlich des PH-Wertes beachten muss, ist, dass sich Alkalinität auf lebende Dinge stärker auswirkt als leichte Versauerung. Beide wirken korrosiv auf Gewebe, aber Alkalinität hat die stärkere Auswirkung. Es erscheint nicht eingängig, aber es stimmt. Zum Beispiel ist nahezu unsere gesamte Nahrung sauer. Wir essen Dinge mit einem PH-Wert von 2, fünf Einheiten unter dem neutralen Wert 7… aber nichts mit dem korrespondierenden Wert 12, fünf Einheiten über dem neutralen Wert. Die am meisten alkalischen Nahrungsmittel sind Eier (PH-Wert bis 8) sowie Datteln und Cracker (PH-Wert bis zu 8,5). Aber was soll’s, unsere Magensäure hat einen PH-Wert von 1,5 bis 3,0, und unseren Körpern macht das überhaupt nichts aus… aber man versuche nicht, Drano zu trinken, die Lauge würde den Bauch zerstören.

Dies ist der Grund, warum man Lauge und nicht Säure auf einen unbequemen Körper schüttet, wenn man ihn loswerden will. Es ist auch der Grund, warum Fische oftmals eine dicke Schleimschicht auf ihrem Körper haben, nämlich um sie vor der Alkalinität zu schützen. Im Gegensatz zu Alkalinität ist Versauerung kein Problem für das Leben.

Als nächstes kommt eine Frage der Terminologie. Wenn eine Base mit Säure kombiniert wird, zum Beispiel wenn man Backnatron auf eine ausgelaufene Autobatterie schüttet, bedeutet das eine „Neutralisierung“ der Säure, und zwar weil sich das Ganze hin zum Neutralen bewegt. Ja, der PH-Wert nimmt zu, aber trotzdem wird es „neutralisieren“ genannt und nicht „alkalisieren“.

Die gleiche Terminologie gilt bei der Messung des PH-Wertes. In einem Prozess mit dem Namen „Titration“ misst man, wie viel Säure man braucht, um eine unbekannte basische Lösung zu neutralisieren. Fügt man zu viel Säure hinzu, fällt der PH-Wert unter 7,0 und die Mixtur versauert. Fügt man zu wenig Säure hinzu, bleibt die Mixtur alkalisch. Das Ziel der Titration ist es, gerade genug Säure hinzuzufügen, um die basische Lösung zu neutralisieren.

Ganz ähnlich sieht es aus, wenn Regenwasser (leicht sauer) in den Ozean fällt (leicht basisch). Dann kommt es zu einem neutralisierenden Effekt des leicht alkalischen Ozeans. Regenwasser lässt den PH-Wert des Ozeans leicht abnehmen. Dennoch sagen wir normalerweise nicht, dass Regenwasser den Ozean „versauert“. Stattdessen sagen wir, weil sich der Ozean in Richtung neutral bewegt, dass es den Ozean neutralisiert.

Das Problem bei Verwendung des Ausdrucks „versauern“ bei dem, was das Regenwasser im Ozean macht, besteht darin, dass die Leute den Vorgang nicht verstehen. Sicher könnte ein aus festem Holz geschnitzter Wissenschaftler beim Hören des Wortes „versauern“ an „abnehmenden PH“ denken. Aber die meisten Leute glauben: „Ooooh, Säure, schlecht, das verbrennt die Haut“. Das führt dazu, dass die Leute Dinge wie das folgende Kleinod sagen, das mir gerade gestern vor Augen gekommen ist:

Rasche Zunahme des CO2 (wie es heute der Fall ist) überfrachten das System und führen dazu, dass Ozeanwasser korrosiv wird.

In Wirklichkeit ist es genau umgekehrt. Das zunehmende CO2 macht den Ozean nicht korrosiver, sondern neutraler. Da sowohl Alkalinität als auch Säure korrosiv wirken, lautet die einfache Wahrheit, dass Regenwasser (oder mehr CO2) den Ozean etwas weniger korrosiv macht, indem die leichte Alkalinität neutralisiert wird. Das ist das Problem mit dem Term „Versauerung“, und es ist der Grund, warum ich darauf bestehe, den genaueren Term „neutralisieren“ zu benutzen. Der Begriff „versauern“ ist sowohl alarmistisch als auch inkorrekt. Der Ozean wird nicht sauer durch zusätzliches CO2. Er wird neutralisiert durch zusätzliches CO2.

Mit diesem Prolog möchte ich mich nun der Studie zum ozeanischen PH-Wert zuwenden.

Die Studie trägt den Titel “High-Frequency Dynamics of Ocean pH: A Multi-Ecosystem Comparison” (hiernach als pH2011 bezeichnet). Wie der Titel schon verrät, betrachteten die Autoren die aktuellen Veränderungen des PH-Wertes an verschiedenen Stellen des Ozeans. Sie zeigen „Schnappschüsse“ über 30 Tage von einer ganzen Palette von Ökosystemen. Die Autoren merken an:

Diese organismusspezifischen PH-Signaturen zeigen die gegenwärtigen Niveaus sowohl hoher als auch geringer Auflösung von CO2 auf. Sie demonstrieren oft, dass heimische Organismen schon jetzt einem PH-Regime ausgesetzt sind, das den Vorhersagen zufolge nicht vor 2100 eintreten sollte.

Zuerst zeigen sie einen 30-Tage-Schnappschuss sowohl vom offenen Ozean als auch von einem Riff im Ozean:

 

Abbildung 2. Ununterbrochene 30 Tage lange Messungen des PH-Wertes im offenen Ozean und an einem Unterwasserriff. Die x-Achse zeigt die Tage, die y-Achse die Größe der möglichen Änderung des PH-Wertes bis 2100, wie sie in der pH2011-Studie abgeschätzt worden ist.

Ich erkenne, dass der PH-Wert nicht einmal im offenen Ozean konstant ist, sondern über die 30 Tage etwas variiert. Diese Änderungen sind ziemlich kurz und stehen wahrscheinlich im Zusammenhang mit Regenereignissen während des Monats. Wie oben erwähnt, neutralisieren diese Regenfälle die Oberfläche des Ozeans leicht (und vorübergehend). Mit der Zeit mischt sich das in tiefere Wasserschichten. Über dem Kingman-Riff gibt es länger andauernde kleine Schwingungen.

Man vergleiche die beiden in Abbildung 1 gezeigten Regionen mit einigen anderen „Schnappschüssen“ von Korallenriffen mit dreißig Tage langen PH-Wert-Messungen.

 

Abbildung 3 Dreißig-Tage-„Schnappschüsse” der Variation des PH-Wertes an zwei tropischen Korallenriffen. Auf der x-Achse sind die Tage aufgetragen.

Ein paar Dinge sind in Abbildung 3 bemerkenswert. Erstens, die Variation des PH-Wertes zwischen Tag und Nacht stammt von dem CO2, dass durch das Riffleben als ganzes gebildet wird. Auch beträgt die Schwingung von Tag zu Nacht im Palmyra-Riff etwa ein Viertel einer PH-Wert-Einheit… was bereits um 60% höher liegt als die projizierte Änderung durch CO2 bis zum Jahr 2100.

Des Weiteren gibt es vor der kalifornischen Küste ein paar Gebiete mit aufsteigendem Wasser:

 

Abbildung 4 Dreißig Tage lange Aufzeichnungen des PH-Wertes in Gebieten mit aufsteigendem Wasser. Dieses Aufwallen findet unter anderem entlang der Ostküsten der Kontinente statt.

Hier sehen wir sogar noch größere Schwingungen des PH-Wertes, viel größer als die vorhergesagte Änderung durch CO2. Man erinnere sich, dass hier nur eine Periode von einem Monat betrachtet worden ist, so dass es sehr gut auch einen Jahresgang geben könnte.

Abbildung 5 zeigt die Vorgänge in den Tangwäldern:

 

Abbildung 5 PH-Wert-Aufzeichnungen in Tangwäldern.

Wieder erkennt man eine ganze Palette von Schwingungen des PH-Wertes, sowohl lang- als auch kurzfristig. An Land finden sich sogar noch größere Schwingungen, wie aus Abbildung 6 ersichtlich wird:

 

Abbildung 6 Zwei PH-Wert-Aufzeichnungen von einer küstennahen Umgebung und in einem Flussmündungssystem.

Wieder erkennt man große Änderungen des PH-Wertes in sehr kurzen Zeiträumen, sowohl in Flussmündungsgebieten als auch in küstennahen Gebieten.

Meine Schlussfolgerungen aus all dem?

Erstens, es gibt eine ganze Reihe von Stellen im Ozean, an denen die PH-Schwankungen sowohl schnell vonstatten gehen und auch ein großes Ausmaß haben. Das Leben in diesen Teilen des Ozeans scheint weder von der Größenordnung noch von der Geschwindigkeit dieser Änderungen beeinflusst zu werden.

Zweitens, die mögliche Änderung des PH-Wertes bis zum Jahr 2100 ist im Vergleich zu diesen natürlichen Schwingungen nicht groß.

Drittens, infolge einer ganzen Reihe von abfedernden Mechanismen im Ozean könnte die Änderung des PH-Wertes bis 2100 kleiner sein, aber höchstwahrscheinlich nicht größer als die Schätzung der oben gezeigten Vorhersage.

Viertens, ich wäre sehr überrascht, wenn wir in neunzig Jahren immer noch fossile Treibstoffe verbrennen würden. Möglich, aber sehr zweifelhaft. Also kann auch aufgrund dieses Effektes die Änderung des ozeanischen PH-Wertes kleiner sein als oben gezeigt.

Fünftens, wie die Autoren schon angemerkt haben, in einigen Gebieten des Ozeans herrschen schon jetzt Bedingungen, die vor dem Jahr 2100 gar nicht auftreten sollten… und dies ohne negative Folgen.

Im Endergebnis mache ich mir also keine allzu großen Sorgen über eine kleine Änderung des PH-Wertes im Ozean aufgrund der Änderung des atmosphärischen CO2-Gehaltes. Der Ozean wird sich anpassen, die Verbreitungsgebiete mancher Spezies werden sich ein wenig ändern, einige andere Spezies werden leichte Vorteile, wieder andere leichte Nachteile haben. Aber der CO2-Gehalt war schon vorher hoch. Alles in allem, wenn man den Ozean ein wenig neutraler macht, wird es wahrscheinlich dem Leben gut tun, welches Alkalinität nicht mag, dem Versauerung aber nichts ausmacht.

Zum Schluss möchte ich sagen, dass ich wissenschaftliche Studien dieser Art mag, die tatsächlich reale Beobachtungen nutzen anstatt von Theorien und Modellen abhängig zu sein. Schon seit einiger Zeit habe ich darauf hingewiesen, dass der ozeanische PH-Wert nicht konstant ist… aber bis zum Erscheinen dieser Studie habe ich nicht gewusst, wie variabel er tatsächlich ist. Es ist ein Maß für die „Elfenbeinturm“-Natur in weiten Bereichen der Klimawissenschaft, dass die Hysterie über die sog. „Versauerung“ schon seit so langer Zeit im Gange ist, ohne dass man die tatsächlichen Verhältnisse im Ozean betrachtet hat. Dann hätte man sehen können, welchen Unterschied eine kleine Änderung hin zu mehr Neutralität wirklich ausmacht.

BEMERKUNG: Für jene aus festem Holz geschnitzte Wissenschaftler, die immer noch das Hinzufügen einer kleinen Menge Säure zu einer basischen Lösung „Versauerung“ nennen und die behaupten, dass dies die korrekte „wissenschaftliche Terminologie“ ist, verlange ich, dass sie auf die wissenschaftliche Terminologie der Titration schauen und sich daran anpassen. Diese Terminologie wird benutzt, wenn PH-Werte im Labor gemessen werden. In dieser Terminologie nennt man es „Neutralisierung“, wenn man sich hin zum neutralen PH-Wert 7 bewegt.

Willis Eschenbach

Link: http://wattsupwiththat.com/2011/12/27/the-ocean-is-not-getting-acidified/

Übersetzt von Chris Frey für EIKE




Preise für CO2 Emissionsrechte springen nach einem Urteil um 32 Prozent nach oben

Der Preis für ein Zertifikat über eine Tonne CO2 sprang darauf augenblicklich um 32 Prozent oder so, etwa von € 7 auf € 10. Die 68 Mitglieder starke Kommission konnte also de facto den Wert seiner Billionen Euro teuren Industrie innerhalb weniger Minuten verändern, einfach durch "Hand heben".

Die finanziellen Transfers durch dieses "Hand heben" bedeuten umgerechnet Zehnermilliarden von Dollar pro Kopf der "Handheber". Und jetzt versuchen Sie mal, mich zu überzeugen, dass diese Leute neutral handeln können, ohne jeden externen Druck und externe Verbindungen. Aber seien Sie darauf vorbereitet, dass ich hysterisch über Ihren Witz lachen werde, und der Wind durch mein Lachen könnte Sie bis zum Mond pusten.

Die Unschuldsvermutung sollte daher durch die Schuldvermutung ersetzt werden, wenn es sich z. B. bei der Umweltkommission des EU-Parlamentsum geht. Es ist m.E.n. für die meisten dieser Leute vermutlich physisch ziemlich  unmöglich, nicht zu korrupten Kriminellen zu werden, die finanziell mit den Halunken verbunden sind, die diese verabscheuungswürdigen Papiere für Milliarden von Dollar kaufen und verkaufen.

Es wird nicht genau gesagt, ob die „Märkte“ (welche mit freien Märkten in diesem Falle nichts zu tun haben) dieses Votum und dessen erwartete Folgen schon im Voraus kennen. In jedem Falle gilt, dass Leute, die entweder beeinflussen können, ob die Abstimmung stattfindet, oder ob das Ergebnis Ja lautet, im Endeffekt auch das Potential haben, Hunderte Milliarden Dollar zu machen. Natürlich reicht schon ein winziger Teil von etwa 1% davon aus, dass diese Leute superreich werden.

Es ist praktisch undenkbar, dass diese Leute in der Umweltkommission niemals mit den Haltern der Zertifikate kommuniziert haben. Diese gehören fast mit Sicherheit zu den Leuten, mit denen sie sich am häufigsten austauschen. Stellen Sie sich also vor, Sie halten Kohlenstoff-Zertifikate im Wert von 10 Milliarden Euro in der Hand und kennen einen Typ, der eine solche Abstimmung, die den Wert Ihrer Papiere auf 13 Milliarden Euro steigern wird,  organisieren könnte. Sie würden 3 Milliarden Euro Profit machen, und daher wollen Sie Ihren Freund im EU-Parlament davon überzeugen, dieses Votum zu organisieren.

Sie könnten ihm sagen, dass seine Frau, vielleicht Managerin in einer kleineren Firma, ihr Gehalt plötzlich verdreifachen könnte, auf etwa 3 Milliarden Euro pro Jahr. Das Geld kommt aus den Kohlenstoff-Zertifikaten. Für beide Seiten würde das kein schlechter Deal sein. An diesem Punkt habe ich vermutet, dass der Vorgang fast unter Garantie von dieser 68 Köpfe starken Kommission gestützt wird.

Sollte das Ja nicht garantiert sein, werden sich die Details ändern, aber die Tatsache, dass da das Potential für gewaltige Bestechungen – fast unvermeidliche Bestechungen – weiter besteht, wird sich nicht ändern. Wenn die Abstimmung ungewiss ist, könnte eine ausreichende Zahl von ihnen gekauft werden. Nehmen wir an, dass 25 Kommissionsmitglieder garantiert Ja-Sager sind. Man braucht dann noch 10 weitere, bisher „unentschiedene“ Leute, die Ja sagen. Noch einmal, wenn man weiß, dass sich der Wohlstand aufgrund dieses Votums um 3 Milliarden Euro erhöhen wird, hätte man eine ausreichend große Geldmenge zur Verfügung, die 10 Leute dahingehend zu beeinflussen, wie sie abstimmen sollten. Natürlich wäre schon der tausendste Teil dafür ausreichend.

Es ist nicht nötig, dass jeder Halter von Kohlenstoffzertifikaten dieses Spiel mitmacht. Es reicht, wenn es Einige sind, und schon würden Millionen Dollar um jedes Kommissionsmitglied kreisen. Nun könnte man sagen, dass alle Kommissionsmitglieder, die mindestens 1 Million Euro aufgrund dieser Abstimmung verdient haben würden, ins Gefängnis wandern oder in ein psychiatrisches Asyl geschickt werden sollten.

Diese Kohlenstoff-„Märkte” sind total verrückt, weil sich der Preis ständig brutal ändert, und de facto tut er das aufgrund von Abstimmungen wie diese. Daher ist es ein Markt, aber eine Versammlung von 68 Bürokraten bestimmt de facto den Preis, den sie haben wollen, indem sie die Zertifikate entsprechend anpassen. Das Potential für Bestechung – ob man nun die o. g. Algorithmen heranzieht oder andere – ist fast unbegrenzt. Falls es ein Problem mit Treibhausgasen gäbe, das es in Wirklichkeit nicht gibt, wäre eine direkte Steuer oder eine Extra-CO2-Abgabe eine ehrlichere Lösung als diese Lösung eines Marktes, der kein echter Markt ist.

Und das ist das Memo.

Link: http://motls.blogspot.com/2011/12/carbon-allowances-jump-32-percent-after.html

Übersetzt von Chris Frey für EIKE