1

Zur Verweildauer von CO2: Henne oder Ei?

1

Abbildung 1 (rechts): Die Abnahme von C14 nach dem Ende der Kernwaffentests im Jahre 1963, zusammengetragen aus europäischen Aufzeichnungen von Gösta Persson.*

[*Hinweis: Die Schreibweise von C14 und anderer Isotope im Original ist:

Im Texteditor der EIKE-Website lässt sich das in dieser Schreibweise jedoch nicht darstellen. Gleiches gilt für alle anderen Isotopen-Bezeichnungen in diesem Beitrag. A. d. Übers.]

Das 1963 zu Ende gegangene Programm mit Kernwaffentests in der Atmosphäre hat die Konzentration von C14O2 verdoppelt im Vergleich zur kosmogenischen Grundlinie [= kosmische Hintergrundstrahlung?]. Allerdings ist nach dem Stopp die Hälfte des in der Atmosphäre übrig gebliebenen C14 innerhalb von 10 Jahren verschwunden. Nach 50 Jahren war fast alles verschwunden. Warum sollten die anderen CO2-Isotope nicht genauso schnell verschwinden?

In Kommentaren zu meinem letzten Beitrag sagt Mr. Born, dass die Verweildauer von CO2 keinen Einfluss auf dessen atmosphärische Konzentration hat: „Es geht nicht darum, über welches Kohlenstoffisotop wir reden. Es geht um den Unterschied zwischen der CO2-Konzentration und der Verweildauer eines typischen CO2-Moleküls oder welches Isotop auch immer in der Atmosphäre. Die Bombentests, die einige CO2-Moleküle angeregt haben, zeigten uns Letzteres, und ich habe keinen Grund für die Annahme, dass sich die Verweildauer irgendwelcher Isotope davon sehr unterscheidet“.

Weiter nimmt er an, dass die CO2-Konzentration unabhängig von der Verweildauer ist, also:

(1).

Setzen wir jetzt CO2 in der Atmosphäre frei, und zwar aus allen Quellen mit einer Rate von e = e12 + e14 und daraus wieder entfernt mit einer Rate u. Dann wird die Massenänderung von CO2 mit der Zeit durch Gleichung 2 beschrieben:

(2),

die besagt, dass die Gesamtmasse m des CO2 und damit der Konzentration mit der Gesamtemission variiert, welche die Differenz zwischen den Raten aus der Quelle e und der Senke u ist.

Beispiel: falls e = u ist, bleibt die Gesamtmasse m unverändert, selbst wenn einige individuelle Moleküle lange Zeit in der Luft verbleiben. Auch gilt: wenn e > u, dann wird m steigen, bis e = u. Solange danach nicht u > e wird, glaubt er, dass die Masse m unbegrenzt erhöht bleibt. Im Gegensatz dazu, sagt er, ist die Änderungsrate der Masse von C14O2 gegeben durch die Gleichung 3:

(3),

die uns seiner Ansicht nach sagt, dass selbst wenn e und u gleich bleiben, so dass die Gesamt-CO2-Konzentration konstant bleibt, die darüber hinaus gehende C14O2-Konzentration durch Gleichung 4 beschrieben wird:

(4),

welche den Unterschied beschreibt zwischen der (ursprünglich angehobenen) C14O2-Konzentration und der kosmogenischen Grundlinie der C14O2-Konzentration zuvor. Die darüber hinaus gehende C14O2-Konzentration würde also immer noch abnehmen, und zwar mit einer Zeitkonstante m/u, welche uns daher sagt, wie lange die CO2-Konzentration auf einem höheren Niveau verharren würde, auf das jene zuvor durch verstärkte Emissionen gehoben worden ist. In diesem Szenario bleibt die Konzentration beispielsweise für immer erhöht, selbst wenn x abnimmt. Mr. Born schließt daraus, dass die Abnahmerate x die Änderungsrate [turnover rate] von CO2 in der Luft beschreibt, aber nichts darüber aussagt, wie schnell sich die Aufnahmerate u an gesteigerte Emissionen anpassen wird.

Andererseits, wenn man Prof. Pettersson zusammenfasst, tendieren reversible Reaktionen zu einem Gleichgewicht, definiert durch die Konstante k. Emissionen in ein Reservoir stören dieses Gleichgewicht, worauf das überschüssige x aus dem Reservoir hinaus gedrängt wird, wodurch sich mit der Zeit erneut ein Gleichgewicht einstellt. Wo µ die Raten-Konstante der Abnahme ist, die reziprok der Verdrängungszeit ist, gibt Gleichung 5 den Anteil von x, der im Reservoir zu jeder Zeit t verbleibt, wo e, hier einheitlich, im Exponent steht:

(5).

Die jüngsten Schätzungen des IPCC der vorindustriellen Grundlinie des Kohlenstoff-Reservoirs betragen 600 PgC in der Atmosphäre, 2000 PcG in der Biosphäre und 38.000 PgC in der Hydrosphäre. Entsprechend beträgt die Gleichgewichtskonstante k, äquivalent mit dem vorindustriellen Verhältnis des Kohlenstoffgehaltes von Atmosphäre einerseits sowie Biosphäre und Hydrosphäre andererseits, 600 / (2000 + 38,000) oder 0,015, so dass 1,5% jedes überschüssigen x, dass der Mensch oder die Natur in die Atmosphäre entlässt, unbegrenzt in der Luft verbleiben werden.

Empirisch hat Pettersson den Wert der Abnahme-Ratenkonstante µ mit ~0,07 ermittelt, was eine Verdrängungszeit 1/µ von ~14 Jahren zeigt, entsprechend der roten, an die Daten angepassten Kurve in Abbildung 1 oben rechts. Jährliche Werte des in der Luft verbleibenden Anteils dieses überschüssigen x mit der Zeit, von mir mittels Gleichung 5 ermittelt, zeigt Tabelle 1.

Abbildung 2: Der globale Kohlenstoff-Zyklus. Die Zahlen zeigen die Größe der Reservoire in PgC und die Kohlenstoff-Austauschflüsse in PgC pro Jahr. Dunkelblaue Zahlen und Pfeile kennzeichnen geschätzte vorindustrielle Reservoir-Größen und natürliche Flüsse. Rote Pfeile und Zahlen kennzeichnen Flüsse gemittelt über den Zeitraum 2000 bis 2009, die sich aus CO2-Emissionen durch Verbrennung fossiler Treibstoffe, Zementproduktion und Landverbrauch ergeben. Rote Zahlen in den Reservoiren kennzeichnen kumulative Änderungen des Industriezeitalters von 1750 bis 2011. Quelle: IPCC (2013), Abbildung 6.1).

Tabelle 1: Jährliche Anteile des überschüssigen, in der Luft verbleibenden x von C14O2 in einem gegebenen Jahr t im Anschluss an den Verlauf nach den Bombentests, berechnet mit Gleichung 5. Es zeigt sich ein Verbleib der Hälfte von C14 von ~10 Jahren. Wie erwartet nehmen die jährlichen Anteile nach 100 Jahren auf ein Minimum ab, das noch um 1,5% über der zuvor existiert habenden kosmogenischen Grundlinie liegt.

Nun wird sofort augenscheinlich, dass die Analyse von Prof. Pettersson unterschiedlich zu der des IPCC und zu der von Mr. Born ist, und zwar in vielerlei Hinsicht. Wer hat recht?

Mr. Born bietet eine elegante Analogie an:

„Man nehme eine Quelle an, die eine Flüssigkeit F1 mit 1 l pro Minute in ein Reservoir emittiert, das bereits 15,53 l von F1 enthält. Gleichzeitig nehme eine Senke 1 l pro Minute des Inhalts des Reservoirs auf. Der Inhalt bleibt konstant bei 15,53 l.

Jetzt ändere man die Quelle auf eine andere Flüssigkeit F2, immer noch mit einem Ausfluss von 1 l pro Minute und ideal mit F1 vermischt. Sie soll auch die gleiche Dichte und die gleichen Fließeigenschaften aufweisen. Nach 50 Minuten werden 96% von F1 das Reservoir verlassen haben, aber dieses wird immer noch 15,53 l enthalten.

Als nächstes füge man zusätzlich 1 l der Flüssigkeit F2 zu, was den Inhalt des Reservoirs auf 16,53 l steigen lässt. Was bedeutet die Abnahme um 96% innerhalb von 50 Minuten für die Geschwindigkeit, mit der sich der Inhalt des Reservoirs danach von 16,53 l ändert? Ich glaube, dass uns das gar nichts sagt. Es ist die Differenz zwischen Quell- und Sinkrate, die uns sagt, wie schnell sich das Flüssigkeitsvolumen im Reservoir ändert. Die oben beobachtete Rate, mit der sich der Inhalt ändert, sagt uns das nicht.

Das konzeptionelle Problem kann aus der Tatsache resultieren, dass die C14-Injektion so klingt, als ob sie parallel verläuft zum zweiten Schritt oben: er bestand aus der Hinzufügung eines Schwalls CO2 über zuvor bestehende Quellen. Aber diese hinzugefügte Menge war im Wesentlichen infinitesimal: Es gab keine messbare Änderung der CO2-Konzentration. Also änderte sich dadurch bloß die isotopische Zusammensetzung dieser Konzentration, nicht die Konzentration selbst.

Daher ist die C14-Injektion parallel zum ersten Schritt oben, während die jüngsten CO2-Emissionen der Menschen dem 2. Schritt entsprechen“.

Wie alle Analogien hinkt aber auch diese an bestimmten Punkten.

Abbildung 3: Vergleich zwischen den Abnahme-Kurven des in der Luft verbleibenden Anteils des überschüssigen x von CO2 über das Zeitintervall t in (1, 100) Jahren.

Wie Abbildung 3 zeigt, hat die Gleichgewichtskonstante k des Anteils der gesamten überschüssigen Konzentration von x, der unbegrenzt in der Luft verbleibt – wenn er groß genug ist – einen erheblichen Einfluss auf die Abnahme-Rate. Da Pettersson k = 0,15 als die Grundlinie des vorindustriellen Verhältnisses des Kohlenstoffgehaltes in der Atmosphäre, sowie in der Bio- und Hydrosphäre berechnet hat, ist die Abnahme-Kurve nahe einer Standard-Exponentialkurve, und zwar so, dass k in Gleichung 5 gleich Null ist. Allerdings ist der Verlauf der Abnahme-Kurve am Punkt 0,217, der im Bern-Klimamodell angenommen wird und auf dem alle anderen Modelle beruhen, markant verändert durch die ungerechtfertigt erhöhte Gleichgewichtskonstante.

Schon aus diesem Grunde allein würde man erwarten, dass das CO2 kürzer in der Atmosphäre verbleibt als das Bern-Modell und die darauf beruhenden Modellen annehmen. Nach Mr. Borns eigener Analogie: falls irgendeine gegebene Menge Flüssigkeit in einen Container gegossen wird, verbleibt sie dort kürzere Zeit, als sie es sonst getan hätte (kurz gesagt, falls die Flüssigkeit schneller den Weg aus dem Container findet als die festgesetzte Rate, die seine Analogie nahelegt), dann wird es weniger Flüssigkeit in dem Container geben.

Anders, als es Mr. Born über den Inhalt des Reservoirs in seiner Analogie beschrieben hat, wird der Anteil des in der Luft verbleibenden Überschusses am Ende der Abnahme-Kurve unabhängig sein von der Emissionsrate e und der Sinkrate u.

Da die Analogie am Ende des Prozesses versagt und daher bis zu einem gewissen Grad auch während des Prozesses – versagt sie dann auch bei der Frage, ob die Änderungsrate des Inhalts des Reservoirs e minus u ist, wie es Mr. Born im Gegensatz zu dem sagt, was Pettersson in Gleichung 5 zeigt?

Schauen wir, was Skeptical Science zu dem schreibt, was Soziologen eine „negative Referenz-Gruppe“ nennen – eine Bezeichnung dafür, dass das Einzige, worauf man sich verlassen kann ist, dass sie in fast allem unrecht hat. Die Schuljungen an der University of Queensland, die sich darüber wirklich schämen sollten, fürchteten Prof. Salbys Annahme, dass die Temperaturänderung, nicht der Mensch, der wesentliche Bestimmer der CO2-Konzentrations-Änderung ist.

Sie trachteten danach, seinen Gedanken zu verwerfen, und zwar mit der üblichen üblen Masche mit der höhnischen Bemerkung, dass die Änderung der CO2-Konzentration gleich ist der Summe der anthropogenen plus der natürlichen Emissionen. Da es keine nennenswerte anthropogene CO2-Aufnahme gibt, haben sie das folgende mickrige Gleichung-chen ersonnen:

(6)

Diese Kindischen [kiddiwinks] sagen, dass die Änderung der CO2-Konzentration gleich ist der Summe anthropogener plus natürlicher Emissionen minus der natürlichen Aufnahme. Sie fügen hinzu, dass wir jedes Jahr die Zunahme der CO2-Konzentration messen können (gleich der Gesamtemission), und wir können zuverlässig die anthropogenen Emissionen aus dem globalen jährlichen Verbrauch fossiler Treibstoffe ableiten. Die Umformung von Gleichung 6 ergibt Gleichung 7:

(7)

Da die beobachtete e ≈ 2ΔCO2 ist, sagen sie, dass die natürliche Welt auf der linken Seite von Gleichung 7 zwangsläufig insgesamt eine CO2-Senke ist, keine Quelle, wie sie Prof. Salby glaubten verstanden zu haben. Aber sein Gedankengang war hier wie überall sonst viel subtiler, als sie erfassen können.

Prof. Salby, der mit Hilfe von sorgfältigen Über-Kreuz-Korrelationen über alle Zeitperioden – selbst kurzen (Abbildung 4 links) – gezeigt hat, dass die CO2-Konzentrations-Änderung einer Temperaturänderung hinterher läuft, hat dies in den Mauna Loa-Aufzeichnungen gezeigt, falls man diese mit einer höheren Auflösung untersucht als die, die gewöhnlich verwendet wird (Abbildung 4 rechts). Es gibt eine Variation von 3 µatm von Jahr zu Jahr bei der jährlichen Erhöhung der CO2-Konzentration (= der Gesamtemission).

Abbildung 4: Links: CO2-Änderung hinkt hinterher und könnte durch eine Temperaturänderung ausgelöst worden sein.

Rechts: Die mittlere jährliche CO2-Zunahme beträgt 1,5 µatm, aber die Variabilität von Jahr zu Jahr ist doppelt so hoch.

Die jährlichen Änderungen der anthropogenen CO2-Emissionen liegen nicht annähernd bei 3 µatm (Abbildung 5 links). Allerdings hat Prof. Salby entdeckt – und ich glaube, er war der Erste, der das entdeckt hat – dass die jährlichen Fluktuationen der Zunahme der CO2-Konzentration sehr eng mit jährlichen Fluktuationen der Bedingungen an der Erdoberfläche korrelieren.

Abbildung 5: Links: die globalen jährlichen anthropogenen CO2-Emissionen steigen nahezu monoton, und die jährlichen Differenzen sind klein.

Rechts: Ein Index der Bedingungen an der Oberfläche (blau: 80% Temperaturänderung, 20% Feuchtegehalt im Boden) korreliert eng mit Fluktuationen der CO2-Konzentration (grün).

Die jährlichen Fluktuationen anthropogener CO2-Emissionen sind gering, aber diejenigen der atmosphärischen CO2-Konzentration sind sehr viel größer. Prof. Salby schließt daraus, dass der wesentliche Grund dafür nicht der Mensch, sondern die Natur ist, und zwar über Änderungen der Temperatur. Zum Beispiel sagt Henrys Gesetz, dass ein kälterer Ozean mehr CO2 aufnehmen kann.

In diesem Gedanken liegt vielleicht der Ausgleich zwischen den Ansichten von Born und Pettersson, da die Quellen und Senken von CO2 nicht statisch sind, wie die Gleichungen und die Analogie von Mr. Born annehmen, sondern dynamisch. Man lasse die CO2-Konzentration zunehmen, und die Biosphäre reagiert mit einer gemessenen globalen Zunahme der Pflanzen-Produktivität. Der Planet wird grüner, wenn Bäume und Kräuter das Pflanzenfutter aufnehmen, das wir für sie emittieren.

Ganz ähnlich sieht es aus, wenn das Wetter deutlich wärmer wird, wie es kurze Zeit der Fall war während des Großen El Niño von 1997/1998. Dann werden die Ozeane kurze Zeit die doppelte Menge von CO2 emittieren. Aber falls es deutlich kühler wird, wie es in den Jahren 1991/1992 nach dem Ausbruch des Pinatubo der Fall war, geht die jährliche Gesamtakkumulation von CO2 in der Atmosphäre auf fast Null zurück, egal wie groß unsere anthropogenen Emissionen sind. Es ist daher möglich, dass die Senke Ozean mehr CO2 aufnimmt, als wir emittieren, da sich die Welt mit der fortgesetzten Abnahme der Sonnenaktivität abkühlt. Dies gilt selbst dann, wenn wir unsere Emissionen nicht reduzieren.

Interessanterweise arbeiten viele Gruppen daran, dies zu zeigen, genauso wie Prof. Salby jüngste Fluktuationen der CO2-Konzentration als Funktion des Zeitintegrals der Temperaturänderung erklären kann. Die Temperaturänderung wiederum kann erklärt werden als eine Funktion des Zeitintegrals der Variationen der Sonnenaktivität. Es ist die Sonne, Dummkopf!

Es ist eine Binsenweisheit, dass wir der Atmosphäre jedes Jahr neues CO2 zuführen, im Gegensatz zu den C14-Impulsen, die 1963 mit den Bombentests zu Ende gegangen waren. Allerdings zeigt die Kurve der Bombentests, dass fast alle CO2-Moleküle, die bequemerweise mit einem oder zwei zusätzlichen Neutronen in ihren Kernen markiert sind, innerhalb von 50 Jahren aus der Atmosphäre verschwunden sind.

Aus einem anderen Blickwinkel betrachtet: wenn wir heute jede CO2-Freisetzung in die Atmosphäre stoppen, wäre der in der Atmosphäre verbleibende Überschuss etwa 1,5% all dessen, was wir emittiert haben, und das ist alles. Mehr noch, dieser Wert lässt sich nicht nur theoretisch ableiten als Verhältnis der Inhalte des atmosphärischen Kohlenstoff-Reservoirs mit den aktiven Reservoirs von Hydro- und Biosphäre, sondern ist auch empirisch konsistent mit der beobachteten Kurve der Bombentests (Abbildung 1 oben rechts).

Falls das IPCC jedoch recht hätte, würde die CO2-Verweildauer in der Atmosphäre von 50 bis 200 Jahren für ein oder zwei weitere Jahrhunderte erheblich erhöhte Konzentrationen implizieren, weil es anderenfalls die Verweildauer nicht so an die große Glocke hängen würde. Die Verweildauer von CO2 in der Atmosphäre macht sehr wohl einen Unterschied für das Konzentrationsniveau in der Zukunft.

Machen wir die umgekehrte Beweisführung, indem wir annehmen, dass jedes von uns emittierte CO2-Molekül nur für den Bruchteil einer Sekunde in der Atmosphäre verbleibt. Dann wäre der Einfluss des anthropogenen CO2 auf die globale Temperatur vernachlässigbar, und Änderungen der CO2-Konzentration würden nahezu vollständig von natürlichen Einflüssen abhängen.

Die atmosphärische CO2-Konzentration akkumuliert sich in der Atmosphäre schon jetzt mit einer Rate, die weniger als halb so groß ist wie unsere Emissionen. Die Hälfte allen von uns emittierten CO2 scheint sofort aus der Atmosphäre zu verschwinden. Diese immer noch unerklärliche Diskrepanz, die das IPCC in seinen nicht ganz so unehrlichen Tagen als die „fehlende Senke“ bezeichnet hat, entspricht mehr oder weniger genau dem, was Prof. Pettersson gesagt hat, dass nämlich die Verweildauer von CO2 in der Atmosphäre wirklich so kurz ist, wie die Kurve der Bombentests zeigt, und nicht 50 bis 200 Jahre lang ist, wie es sich das IPCC vorstellt.

Und was hat das IPeCaC* über die Bombentest-Kurve zu sagen? Nicht viel:

„Weil das CO2 aus fossilen Treibstoffen frei von C14 ist, zeigt das Isotopen-Verhältnis C14/C des atmosphärischen CO2 aus Baumringen einen abnehmenden Trend (Levin et al 2010, Stuiver und Quay 1981) nach der massiven Einbringung von C14 in die Atmosphäre durch Kernwaffentests, die am Anfang jenes Signals der Abnahme stand“.

[*Das stand so im Original. Ich habe die Anspielung aber nicht verstanden. A. d. Übers.]

Und das ist schon alles, was sie dazu zusagen haben.

Hat Prof. Pettersson den Mechanismus beschrieben, der erklärt, warum Prof. Salby recht hat? Falls sich die Arbeit dieser beiden nach der Wahrheit Suchenden als verdienstvoll erweist, wäre das das Ende der Angst vor der globalen Erwärmung.

Kommentar von Prof. Lindzen, nachdem Prof. Salby ihm zum ersten Mal vor drei Jahren von seinen Ergebnissen erzählt hat: Da ein gegebener CO2-Exzess nur ein Drittel der vom IPCC behaupteten Erwärmung verursacht und falls nicht mehr als die Hälfte dieses CO2-Exzesses anthropogenen Ursprungs ist und falls es wesentlich kürzer in der Atmosphäre verbleibt als die Modelle sagen, gibt es kein Ziel mehr für die Klimaextremisten. Jede einzelne Komponente ihrer Theorie wäre zerschlagen.

Weil die Konsequenzen seiner Forschungen so potentiell bedeutend sind, habe ich diesen Vorgang hier sehr ausführlich beschrieben. Es ist nicht Sache eines neugierigen [fumblesome]  Laien wie mich zu entscheiden, wo Prof. Pettersson und Prof. Salby (letzterer unterstützt durch Prof.Lindzen) recht haben. Oder hat Mr. Born recht?

Quid vobis videtur?

Link: http://wattsupwiththat.com/2013/11/21/on-co2-residence-times-the-chicken-or-the-egg/

Übersetzt von Chris Frey EIKE




Peterchens Mondfahrt mit der Deutschen Bahn

Das Ungemach begann, weil es dem Königreich zu gut ging, ihm zu wohl wurde. Ihr kennt sicher alle das Sprichwort vom Esel und dem Eis, liebe Kinder. Andere Königreiche waren auf den Erfolg unseres Königreichs schon neidisch und missgünstig. Diese lagen zwar oft unter schönerer Sonne, aber Milch und Honig wie in unserem Königreich flossen deswegen nicht. Man sang und tanzte mehr als bei uns und arbeitete dafür weniger. Und dann musste es ja passieren: Übermut ergriff unsere königliche Regierung, denn die böse Hexe „Profitia“ verwirrte den Verstand: „Profitabler muss die Deutsche Bahn werden“, „Privatisierung, Börsengang“ und weiteres neumodische Zeugs treufelte sie der Regierung in die offenen Ohren.

Vor allem sind die Bahn-Diener viel zu faul, man muss möglichst viele von ihnen entlassen. Mit dem eingesparten Geld soll man lieber die neuen tollen Erfindungen der Windrädlein und des Einfangens der Sonnenstrahlen in Tüten vorantreiben“ sprach die Hexe. „Ihr Regierungsleute werdet dadurch alle berühmt, denn das Windrädlein und Sonnentüten sind schließlich die Rettung der Welt“ lockte sie weiter. Die Regierung bekam große Augen und dachte sich …. NICHTS. Sie hatte nämlich schon lange keine Mitglieder mehr, die nachdenken konnten. Eine neue Königin hatte sie alle weggebissen. Die Regierung erkannte deswegen auch nicht, dass sie den Einflüsterungen einer bösen Hexe aufgesessen war. Und die Deutsche Bahn? Die musste natürlich gehorchen. Die Folgen aber, liebe Kinder, die waren fatal. Fangen wir zuerst mit der Deutschen Bahn an!

Von Pünktlichkeit keine Spur mehr. Strecken in die weniger nachgefragten Regionen des Königreichs wurden ausgedünnt. Kaum noch die schönschnellen IC-, EC- oder gar ICE-Karossen, vorwiegend unbequeme, ratternde S-Kutschen mit vorgespannten Ackergäulen kamen in Richtung Oberfranken, Friesland, Saarland und weitere abgelegene Gebiete zum Einsatz. „In diesen finsteren Regionen gibt es ohnehin nur Euch feindlich gesonnene Trolle“ flüsterte Profitia in königliche Regierungsohren.

Im Winter müssen sich nun Untertanen, die auf das königliche Karossen-Angebot angewiesen sind, in stark wärmende Pelze hüllen. Die Bahn-Herolde auf den bitterkalten, zugigen Bahnhöfen verkündeten nämlich immer öfter solches: Die königliche IC-Karosse „Mondschein“ hat 5 Minuten Verspätung, wenig später, hat 10 Minuten Verspätung, wenig später, hat 15 Minuten usw., bis hin zu 40 Minuten oder noch mehr.  Glücklicherweise trifft die Karosse mit vor Erschöpfung schnaubenden Pferden nach 30 Minuten ein. Hungrige Dumme, die sich auf die 40 Minuten der Herolde verließen, um zwischendurch an einem Ausschank ein leckeres Brot zu verzehren und das hübsche Schneewittchen hinter der Theke zu beäugen, kamen eine Minute zu spät zurück und hatten das Nachsehen. Selber schuld, warum warten sie auch nicht in der Kälte, nicht wahr, liebe Kinder?

Aber nicht nur Profitia erzeugte Unfrieden im Königreich, Grünlinge pusteten ihm schließlich den letzten Verstand aus. Sie vermehrten sich wie die sprichwörtlichen Karnickel und verdrängten überall die Fachleute. Ihnen gelang es in jahrzehntelanger Angst-Wühlarbeit die Untertanen des Königreichs von der extremen Gefährlichkeit der segensreichen Zauberin Urania zu überzeugen. Zudem schleussten sie ihre grünen Genossen in alle Verkündigungs-Redaktionen des Königreichs, in die Ministerien sowie die königlichen Universitäten auch. Einer Ihrer Coups war, eine Grünlingdame, die so dämlich war, dass sie buchstäblich nicht bis Drei zählen konnte, sogar in eine Professur für königliche Wirtschaft zu hieven. Diese Dame verkündet nun bis zum heutigen Tage allen Untertanen die Vorzüge des grünen Glaubens und nervtötet mit ihrem dummdreisten Gelaber jeden Vernünftigen bis hinunter zu den Haustieren. Fachleute hört man auf solchen Verkündigungsveranstaltungen des Königreichs schon lange nicht mehr, denn die Stunde der Grünlinge ist angesagt.

Die Zauberin Urania sorgte unterdessen ununterbrochen und fleißig für zuverlässigen, kräftigen Hafer der Zugpferde der Deutschen Bahn sowie aller Arbeitspferde im Königreich. Außerdem krümmte sie niemals irgend einem der königlichen Untertanen mit ihrer Haferherstellung auch nur ein einzigs Haar. Es hat alles nichts genutzt. Ihr wurde zum Verhängnis, dass zwei andere Königreiche in unvorstellbarer Dummheit die Betriebsanleitungen ihrer Haferfabriken missachteten, so dass schreckliche Havarien die Folge waren. Zusammen mit der grünen Verkündigung ihrer ungemeinen Gefährlichkeit war damit das Schicksal der guten Urania in unserem Königreich besiegelt.

Die neue Königin, die mit schlauen Methoden aus dem Reich des Bösen (dem sie Gottlob entrann) alle anderen Prätendenten auf den Thron platt gemacht hatte, herrschte mittlerweile ohne lästige Konkurrenz. Ihr wichtigster Einflüsterer wurde ein großer Klima-Zauberer namens Schellen-Hüpfer mit seiner Werkstatt im schönen Potsdam. Schellen-Hüpfers Hauptfeind war der mächtige CO2-Zauberer. Ihm schob er bösartige Beeinflussung des Klimas in die Schuhe und verlangte von der Königin nicht nur scharfe Remedur sondern sogar eine große Transformation. Seine Forderung nach Remedur war erfolgreich. Die Königin setzte nämlich eine Kommission zur „Haferwende“ ein. „Haferwende“ wurde von da an DAS Wort in allen Gazetten und öffentlichen Verkündigungen, ein ganzes Königreich wurde davon besoffen und hirnlos. So ist es bis heute geblieben, liebe Kinder.

In der „Haferwendekommission“ waren so gut wie nur Grünlinge vertreten, aber auch drei schwarz gekleidete Herren, die in Häusern mit hohen Türmen über Glaubensdinge zu predigen pflegen. Niemand saß freilich in der Haferwendekommission, der auch nur einen leisesten Schimmer von der Haferproduktion hatte. Lustige Windrädlein und Einfangen von Sonnenstrahlen in Hafertüten wurden von dieser Kommission als Bollwerk gegen den CO2-Zauberer und vor allem gegen die gute Urania beschlossen. Alle anderen Königreiche dieser Welt rieben sich vor Verwunderung die Augen. Kann das wirklich gut gehen, fragten sie sich. Viele freilich waren der Wahrheit schon näher und erkannten, dass unser Königreich  einfach übergeschnappt war.

Königliche Untertanen, die Sonnentüten auf ihre Dächer setzten oder in Windrädlein investierten, wurden von nun an mit Goldtalern belohnt. Diejenigen, die nicht in eigenen Häusern wohnten und daher nicht mitmachen konnten, gingen leer aus – selber schuld. Die königliche Regierung schuf in den lästig gewordenen Wäldern Platz für richtig große Windrädlein. Nun wurden endlich die dummen, hässlichen Fledermäuse und die bösen Greifvögel von lustig quirlenden Propellern zerstückelt – war schließlich höchste Zeit, diesen unnötigen Tieren eins überzubraten – und Anrainer mit gefälligen Schattenspielen und liebreizenden Infraschall-Tönen verwöhnt. Grüner Hafer, das Produkt von Sonnentüten und Windrädlein, den man bald neumodisch „grünen Strom“ nannte, sollte von nun an alle Arbeitspferde des Königreichs ernähren.

Das klappte leider nicht, denn grüner Hafer kann ja, wie Ihr vielleicht wisst, liebe Kinder, nur zappelig produziert und nicht aufgehoben werden. Es war zum Haare raufen. Selbst dem großen Zauberer Schellen-Hüpfer gelang es nicht, Wind und Sonne zum Gehorsam zu zwingen. Die Arbeitspferde des Königreichs hungerten entweder, oder sie mussten anderen Tags so viel grünen Hafer fressen, dass sie kotzten. Daher verschenkte man besser den überschüssigen grünen Hafer an andere Königreiche und half bei Mangel widerwillig mit altem soliden Hafer aus. Das kostete viele, viele Talerlein, liebe Kinder. Und es machte natürlich den königlichen Planern großen Kummer. Aber es war nichts zu machen. Sogar ein Minister von gewaltigem körperlichen Umfang konnte es nicht richten. „Egal“ sagte die Königin, „das schert mich alles wenig. Es solle immer mehr grüner Hafer produziert werden, denn Zauberer Schellen-Hüpfer und ich als weise Königin wollen es so„.

Ist doch ohnehin der alte Hafer früher viel zu billig gewesen. Die ehemals königlichen Fabriken, die zuviel des alten Hafers benötigten, mussten daher aus dem Königreich verschwinden. Niemand brauchte sie mehr, auf neumodisches Zeugs wie Stahl und Aluminium konnte das Königreich nun wirklich verzichten. Birkenstock-Latschen und Müsli reichten. Nur den SVU ließen sich die dummen Untertanen des Königreichs nicht ausreden, hier blieben sie stur. Wäre ja auch noch schöner, liebe Kinder, dann müsstet ihr ja zu Fuß in die Schule gehen und Mama mit der Straßenbahn fahren. Glücklicherweise hatten die Schurken, die dieses Stahl- und Aluminium-Gerümpel produzierten, die Lektion begriffen und verschwanden aus unserem Windrädlein-Königreich auf Nimmerwiedersehen. Ab mit euch! Auch die noch bösere Chemie begann ihre Produktionen in andere Königreiche zu verlagern. „Sollen sie doch alle, wir haben im Königreich ohnehin Vollbeschäftigung genug und außerdem kommen Arbeitsplätze durch Sonnentüten und Windrädlein dazu“ laberte wieder einmal unsere schon bekannt bekloppte Grünlingsdame. Und weiter klärte sie uns auf „Wir müssen die Haferwende“ zum Erfolg führen, weil wir es so gewollt haben„. Das war von unbezwingbarer Logik, oder, liebe Kinder.

Und die Deutsche Bahn? Auch sie musste natürlich den Zauberer Schellen-Hüpfer zu ihrem Einflüsterer erkiesen. Sie füttert ihre Pferde jetzt nur noch mit grünem Strom, so ihre brandneue Werbung. Es war der endgültige Durchbruch in die Zukunft! Es ist freilich nicht so einfach mit dem grünen Strom, liebe Kinder. Ihr geht ja in die Schule und wisst deswegen, dass man nachts keine Sonnenstrahlen einfangen kann und bei Windstille auch die Windrädlein still stehen. Wie geht das dann mit den „grünen Strom“, wenn die Zugpferde der ICE-Karossen der Deutschen Bahn trotzdem nächtens bei Windstille dahertraben? Wer füttert sie und womit? Die Lösung dieses Rätsels soll hier nicht verraten werden. Zauberer Schellen-Hüpfer weiß es, das muss uns und der Deutschen Bahn genügen.

Um die in ihren Karossen reisenden Untertanen zu belehren und zu unterhalten hat die Deutsch Bahn auch eine kluge Schrift auf den Sitzen ausgelegt, die sie „Bahn mobil“ nennt. Hierin befragte sie den Zauberer Schellen-Hüpfer, wie Peterchens Mondfahrt vor sich gehen könnte (hier). Sie plant nämlich, so höret und staunet, liebe Kinder, die Fahrt zum Mond. Ihr glaubt es nicht? Es geht ganz einfach: „Wenn wir schon nur mit grünem Strom nachts bei Windstille fahren können„, so die logisch korrekte Schlussfolgerung der klugen königlichen Beamten der Deutschen Bahn, „ist natürlich auch eine Linie zum Mond möglich„. Peterchens Mondfahrt, liebe Kinder, kommt also doch. Um diesen kühnen Plan aber auch absolut wasserdicht zu machen, führte die Deutsche Bahn eine ganz genaue Befragung von Schellen-Hüpfer durch (neumodische Leute nennen das „Interview“) und schrieb diese Befragung in „Bahn mobil“ hinein. Alle werden von diesem Meilenstein an Interview profitieren. Schellen-Hüpfer einmal ganz locker und ehrlich, der große Zauberer.

Zuallererst brannte der Deutschen Bahn natürlich die Frage nach dem schlimmsten aller bösen Zauberer, nämlich dem furchtbaren CO2 und dem durch ihn verursachten noch schrecklicheren Klimawandel auf den Nägeln. „Der Klimawandel fällt uns noch auf den Kopf“, hauchte die Deutsche Bahn mit vor Furcht zitternder Stimme. „Können wir etwas dagegen tun, lieber Zauberer Schellen-Hüpfer?

Ja„, sagt dieser nachsichtig lächelnd, „wir müssen bloß meinen ärgsten Widersacher, den bösen Zauberer CO2 vernichten. Dann klappt es. Das muss aber noch vor 2 Uhr mittags geschehen„. Vielleicht hat er es etwas anders gemeint, aber so haben wir Schellen-Hüpfers Zauberzeichen „2 °C“ verstanden. Liebe Kinder fragt besser Euren Lehrer, was es mit dem Zauberzeichen „2 °C“ auf sich hat. Wir wissen es nicht, denn in den schlauen Büchern aller anderen Zauberer und Gelehrten des Königsreich, ja der ganzen Welt, die uns Dummchen die Geheimnisse des Klimas erklären, können wir über das geheimnisvolle Zeichen „2 °C“ nichts auffinden. Nur Schellen-Hüpfer kennt die Bedeutung.

Schellen-Hüpfer fordert auch härtere Gesetze für die Vernichtung von CO2. Sind ihm doch die immer weiter um sich greifenden demokratischen Sitten schon lange ein Dorn im Auge. Er spricht auch davon, dass ganz böse Unwetter drohen werden, wenn wir nicht seine Warnung beachten. Oh weh, liebe Kinder, strengt Euch an und esst um Gottes willen keine Bohnen mehr, auf dass nicht zuviel des bösen CO2 aus Euch entfleuche. Von seinen missgünstigen Zauberkollegen, die seine Maßnahmen für zu pessimistisch ansehen, hält Schellen-Hüpfer absolut gar nichts, „Das sind aus meiner Sicht Ablenkungsmanöver“ sagt er. Recht hat er, wer weiß es schließlich besser?

Schellen-Hüpfer erklärt dann weiter der Deutschen Bahn, dass sie nicht mehr lange den alten bewährten Hafer zum Füttern ihrer Zugpferde zur Verfügung hätte. „Da ist nichts zu machen„, meint er, nur sanfte Winde und die sanfte Sonne können diesen Mangel in Zukunft beheben. Natürlich weiß Schellen-Hüpfer, dass seine Feindin, die uns bereits bekannte Zauberin Urania, Hafer für Hunderte von Millionen Jahren bereit hält. Urania fängt nämlich inzwischen an, ihr Haferzeugs, das vor Kraft nur so strotzt, nicht mehr so einfach zu verbrennen, sondern zu erbrüten und braucht damit 100 Mal weniger des kostbaren Stoffs als bisher. Auch fällt die böse Haferasche, die man sonst tief in der Erde verbuddeln muss, fast ganz weg. Inzwischen hat sie sogar mit dem Zauberer der Meere einen Pakt geschlossen, um ihren Hafer aus seinen Ozeanen zu holen. „Macht gar nichts„, sagt ihr der Zauberer aller Meere, „kannst so viel holen, wie Du willst, das Zeugs wird ohnehin von den Bächlein und Flüsslein aus dem Boden ausgewaschen und wieder in meine Ozeane gespült. Es wird praktisch nie alle„.

Dem Zauberer Schellen-Hüpfer ist Urania aber derart zuwider, dass er ihre Hafer-Vorräte nicht mit einer einzigen Silbe erwähnt. Er wird seine Gründe dafür haben und wir brauchen daher nicht weiter nachzudenken. Nur andere Königreiche dieser Erde scheren sich nicht darum und heißen Urania willkommen. Die werden schon sehen, was sie davon haben. Unser Königreich war schließlich schon immer Genesungsvorbild für alle Königreiche der ganzen Welt. Dafür ist es bekannt, das wisst Ihr aber doch selber, liebe Kinder.

Nach vielen weiteren schlauen Ausführungen Schellen-Hüpfers in „Bahn mobil“, die wir Euch in ihrer ganze Fülle ersparen wollen (lest Original-Bahn-mobil) fragt die Deutsche Bahn ihren großen Zauberer dann schließlich ein wenig zweifelnd „Kann die neue Wirtschaft, die „Green Economy“, die bestehenden Industrien ersetzen?“ Hier wird Schellen-Hüpfer ungehalten und lässt absolut keinen Irrtum mehr aufkommen. Er schreibt der Deutschen Bahn Folgendes ins Stammbüchlein:

Davon bin ich überzeugt. Es ist ja nicht so, dass das alte Modell glänzend funktioniert, wie man in einigen Ländern Europas gut erkennen kann. Die Leute fragen sich: »Was ist denn aus unserem Fortschritt und Wachstum geworden?«. Wir stehen so oder so vor einer industriellen Revolution. Ich rede von neuen Formen der Energie­erzeugung, des Konsums und der Produktion. Die Energie wird zum Großteil aus rege­ne­rativen Quellen kommen.

Wo..ow, liebe Kinder, wie recht hat Schellen-Hüpfer, denn was ist denn aus unserem Fortschritt und Wachstum geworden? Nichts, absolut gar nichts! Nur wirklichkeitsfremde Miesepeter und unverfrorene Schnapphähne wagen noch daran zu erinnern, dass in früheren Jahrhunderten die Leute Ratten und sogar ihre eigenen Angehörigen schlachteten, weil die Ernten erfroren waren und sie sonst verhungert wären, dass Tuberkulose, Syphilis, Pest, Kinderlähmung, Malaria sowie schwere Erkältungskrankheiten Hekatomben an Opfern forderten, dass die mittlere Lebenserwartung um die 30 Jahre lag, dass ein Beinbruch im Alter das Todesurteil bedeutete und dass auch ein harmloser Zahnarztbesuch beim Bader ein lebensgefährliches Unterfangen war.

Liebe Kinder, glaubt nicht diesen unverantwortlichen Mist vom Fortschritt, verzapft von Strolchen und Miesepetern. Lasst sie vom Fortschritt faseln und hört einfach nicht hin! Schellen-Hüpfer sagt, es gibt keinen. Und so ist es eben, Punkt. Uns geht es schlecht, von Fortschritt und Wachstum weit und breit nichts zu sehen. Insbesondere bedauernswerte Urlauber, die unter der winterlichen Sonne auf den kanarischen Inseln schmachten, haben größte Probleme, auf so weite Entfernung zu uns den fehlenden Fortschritt zu erkennen. Kurz und Gut, der liebe Zauberer Schellen-Hüpfer kennt die Lösung – Revolution! Liebe Kinder, so eine Revolution ist überhaupt nicht schlimm und macht einen „Mords“-Spaß. Schon jetzt hat die Regierung der weisen Königin für die ersten Anfänge gesorgt. Grüner Hafer, heute noch weit unter 20 Prozent soll bald auf 80 Prozent allen Hafers im Königreich ansteigen. Der Zauberer Schellen-Hüpfer macht es möglich. Wir freuen uns alle darauf. PETERCHENS MONDFAHRT wird dann WIRKLICHKEIT, hurra liebe Kinder.

Auch über die Knatterkutschen der königlichen Untertanen hat Zauberer Schellen-Hüpfer gründlich nachgedacht und uns eine tolle neue Erfindung beschert. Darüber haben wir aber schon berichtet (hier). Das war’s nun liebe Kinder. Ihr müsst jetzt schön ins Bett gehen, weiter süß von Peterchens Mondfahrt träumen, keine Bohnen oder gar böses Fleisch mehr essen, nur Müsli knabbern und den klugen Zauberer Schellen-Hüpfer alles für uns richten lassen. Wer kann es sonst?




Fukushima Block IV – Die Geschichte

Damit ist bereits die erste und wichtigste Erkenntnis gewonnen: Ein Standort muß gegen die – auch hier – bekannten Naturkatastrophen gesichert sein. Ein Verdrängen kann zur Katastrophe führen. Die Statistik ist gnadenlos: Ein Jahrtausendereignis kann schon morgen eintreten. Andererseits ist es wenig hilfreich, einen Tsunami auch in Bayern als potentielle Gefahr zu sehen.

Die zweite wichtige Erkenntnis ergibt sich aus der Anordnung der Blöcke im Kraftwerk Daichi. Dort sind die Blöcke 1 bis 4 praktisch “Wand an Wand” mit vielen gemeinsamen Gängen und Leitungen gebaut. Die Blöcke 5 und 6 stehen einige hundert Meter weiter entfernt. Auch hier ist die Erkenntnis geradezu trivial: Wenn man Reaktorblöcke unmittelbar nebeneinander baut und sogar miteinander verbindet, besteht die Gefahr, daß sich Ereignisse (Feuer, explosive Gase etc.) wie bei Dominosteinen weiter ausbreiten. Ja, die Problematik geht sogar über das eigentlichen Ereignis hinaus. Die Intervention durch Menschen wird auf lange Zeit durch großräumige Kontamination verhindert. Deutlicher, als im Falle des Reaktors 4, kann man das gar nicht aufzeigen: Der Reaktor 4 war zum Zeitpunkt des Ereignisses gar nicht in Betrieb und vollständig entladen. Es wäre also gar nichts passiert, weder durch die starken Erdstöße noch durch die Flutwelle! Erst das in den anderen Reaktoren entstandene Knallgas wurde ihm zum Verhängnis. Es hat sich über das gemeinsame Lüftungssystem ausgebreitet. Die Explosion brachte das obere Geschoß des Reaktorgebäudes zum Einsturz.

Die Sonderrolle der Blöcke 5 und 6

Die Blöcke 5 und 6 befinden sich einige hundert Meter nördlich von den Blöcken 1 bis 4 auf dem gleichen Gelände. Der Block 5 entspricht den Blöcken 2 bis 4 (Siede​wasser​reaktor BWR/4 (Mark I) mit 760 MWe) und ging zwei Jahre später als Block 3 (ebenfalls von Toshiba) in Betrieb. Bei Block 6 handelt es sich um eine modernere Version (BWR/5 (Mark II) mit 1069 MWe) ebenfalls von Toshiba errichtet und 1979 in Betrieb gegangen.

Im Zusammenhang mit dem Tsunami ist festzustellen, daß diese beiden Reaktoren praktisch nicht beschädigt wurden. Sie befanden sich zum Zeitpunkt des Unglücks gar nicht in Betrieb, sondern waren planmäßig für Wartungsarbeiten abgeschaltet. Beide Reaktoren waren frisch nachgeladen und bereits wieder vollständig verschlossen und zur Wiederinbetriebnahme bereit. Im Block 5 fand während des Unglücks gerade eine Druckprobe statt. Bei Wartungsarbeiten am Aufzug des Schornsteins kam ein Arbeiter durch das Erdbeben zu Tode. Der einzige Tote infolge des schweren Erdbebens und des Tsunami im Kraftwerk; obwohl sich während des Unglücks über 500 Arbeiter auf der Schicht befanden.Fukushima Block IV 20.11.13 15:01

Die Flutwelle richtete nicht so schweren Schaden, wie bei den benachbarten vier Reaktoren an. Hauptgrund dürfte gewesen sein, daß das Gelände rund drei Meter höher gelegen ist. Da die Reaktoren während der Naturkatastrophe abgeschaltet waren, war der Eigenstrombedarf kleiner: Es mußte nur die sehr viel geringe Nachzerfallswärme abgeführt werden. Ein Reaktor nach einem Brennelementewechsel, setzt aber nur wenig Wärme frei, da die sehr kurzlebigen (und damit sehr viel Zerfallswärme produzierenden) Elemente bereits während der Zwischenlagerung im Abklingbecken zerfallen sind. Entsprechend gering ist auch die benötigte elektrische Leistung für die Kühlmittelpumpen. Ein entscheidender Unterschied zu der Situation in den Reaktoren 1 bis 3.

Technisch gesehen, könnten die Blöcke 5 und 6 wieder den Betrieb aufnehmen. Derzeit erscheint das aber politisch nicht gewünscht. Eine endgültige Stilllegung erscheint wahrscheinlicher. Es gibt bereits den Vorschlag, diese Reaktoren als “Übungsgelände” für den komplizierteren Abriss der Ruinen 1 bis 4 zu nutzen.

Der Wert gemeinsamer Baugruppen

Fukushima Daiichi hatte eine elektrische Nettoleistung von 4546 MW. Entsprechend stark und vielfältig waren die Verbindungen mit dem Netz. Trotzdem wurden praktisch alle Leitungen und Schaltanlagen großräumig zerstört: Das Kraftwerk war auf seine Eigenversorgung angewiesen. Da wegen der schweren Erdstöße eine vollautomatische Schnellabschaltung ausgelöst wurde, war auch keine Eigenstromerzeugung mehr möglich. Als einzige Quelle blieben die Notstromdiesel. Die Blöcke 2, 4 und 6 verfügten jeweils über luftgekühlte Notstromdiesel. Allerdings wurden durch die Flutwelle alle Schaltanlagen der Blöcke 1 bis 4 zerstört, sodaß nur noch der Diesel von Block 6 einsatzbereit war. Ihm ist es zu verdanken, daß die Blöcke 5 und 6 planmäßig in einen sicheren Zustand überführt werden konnten. Wären die Diesel und ihre Schaltanlagen gegen Hochwasser gesichert gewesen (hochgestellt oder wasserdichte Gebäude), wäre praktisch nichts passiert!

Da bei diesen älteren Reaktoren, keine passiven Notkühlsysteme vorhanden sind, führt ein (längerer) Ausfall der Stromversorgung zwangsläufig zu einer teilweisen Schmelze von Brennelementen und damit zum Totalschaden. Genau diese passiven Kühleinrichtungen, die kein Eingreifen in den ersten 72 Stunden erforderlich machen, sind der entscheidende Sicherheitsgewinn der sogenannten Generation III+. Auch bei dem Tsunami hätte diese Zeitspanne ausgereicht, um Notstromaggregate von weit entfernt “einzufliegen”.

Als Konsequenz der Naturkatastrophe von Fukushima, richtet man nun überall überregionale Zentren mit zusätzlicher Sicherheitstechnik (Pumpen, Notstromaggregate, Werkzeuge etc.) ein. Sie übernehmen die (zusätzliche) Rolle von Feuerwehr-Wachen. Auch bei schweren lokalen Zerstörungen infolge Naturkatastrophen etc. kann dadurch sehr schnell eine Unterstützung mit Material und Fachpersonal erfolgen.

Als besonders gefährlich hat sich die Bauweise “Wand an Wand” erwiesen. In Deutschland waren solche Entwürfe von Anfang an ausgeschlossen. In Japan – und insbesondere im Ostblock – hat man die Sache offensichtlich etwas anders gesehen. Der Gewinn durch geringere Investitionskosten wurde durch die angebliche, gegenseitige Nutzungsmöglichkeit von Sicherheitseinrichtungen meist noch verklärt. Imposant oder gruselig – je nach Standpunkt des Betrachters – sind die gigantischen Turbinenhallen sowjetischerFukushima Kraftwerke. Nach Tschernobyl und Fukushima sind solche Konstruktionen international Geschichte. Ganz nebenbei, ist dies ein Beispiel dafür, daß man die technische Lebensdauer von Kernkraftwerken nicht beliebig ausdehnen sollte. Es gibt durchaus Kraftwerke, die so grundsätzliche Schwachstellen haben, daß man sie besser außer Betrieb nimmt und durch neue (sicherheitstechnisch überlegene) Konstruktionen ersetzt.

Besonders fatal ist es, wenn gemeinsame Lüftungssysteme und Kanäle vorhanden sind. Der Block 4 war zum Zeitpunkt des Unglücks abgeschaltet und vollständig entladen. Ein Unglück wäre praktisch ausgeschlossen gewesen, wenn nicht Wasserstoffgas von außen über das Lüftungssystem in das Gebäude hätte eindringen können. Ein eher klassisches Unglücks-Szenario einer Raffinerie oder einer chemischen Anlage. Block 4 würde heute noch genauso unversehrt dastehen, wie die Blöcke 5 und 6, wenn er nicht über das Lüftungssystem mit seinem “verunglückten Nachbarn” verbunden gewesen wäre! Damit wären wir beim zweiten grundsätzlichen Konstruktionsfehler dieses Reaktors. Das Gebäude war vertikal zweigeteilt. Im unteren Teil befand sich der Reaktor mit seinem Sicherheitsbehälter. Dieser Teil war durch dicke Betonwände geschützt. Diese Betonwände dienten primär der Abschirmung von Strahlung. Der obere Teil hingegen, war eine einfache Stahlträger-Konstruktion, die gegen Wind und Wetter mit Blech verkleidet war. Diese “Stahlbau-Halle” ist durch die (chemische) Wasserstoffexplosion eingestürzt und hat auch alle Krananlagen mit sich gerissen. Ein solches Unglück ist bei Kraftwerken, die gegen Flugzeugabstürze gesichert sind (also bei allen deutschen Reaktoren!) ausgeschlossen, da der erforderliche “Betonpanzer” natürlich auch gegen inneren Explosionen wirkt. Um es noch mal deutlich zu sagen: Alle modernen Reaktoren (auch heutige russische Anlagen) befinden sich in einem Betonbunker mit meterdicken Stahlbetonwänden, um sie gegen Einwirkungen von Außen (“EVA”, Flugzeugabsturz, Terrorismus etc.) zu schützen. Eine solche Konstruktion kann (praktisch) nicht zum Einsturz gebracht werden.

Abbruch von Block 4

Die Beseitigung von Block 4 ist die einfachste Aufgabe der Aufräumarbeiten. Alle Brennelemente haben sich zum Zeitpunkt des Unglücks außerhalb des Reaktors im Brennelementebecken befunden. Räumt man das Brennelementebecken aus, befindet man sich kurz vor dem sog. “gesicherten Einschluß”. Darunter versteht man die Entfernung aller Flüssigkeiten und möglichst aller brennbaren Materialien. Anschließend “mauert” man die restlichen (strahlenden) Teile ein und läßt die Strahlung erst einmal abklingen. Ein in den USA und Großbritannien vielfach erprobtes und in großem Maßstab angewendetes Verfahren. Das schöne am radioaktiven Zerfall ist ja, daß er immer nur abnimmt. Ganz im Gegenteil z. B. zu Quecksilber oder Asbest, die nie von allein weniger werden. Man muß nur lange genug warten (einige Jahrzehnte), bis die Radioaktivität so weit abgeklungen ist, daß man den restlichen Abriss ohne große Schutzmaßnahmen vornehmen kann. Allerdings wäre es bei der derzeitigen “Gemütslage” in Japan auch nicht überraschend, wenn man den Abriss unter großem Kostenaufwand “in einem Rutsch” durchführen würde.

Ein Lagerbecken für Brennelemente ist nichts weiter, als ein großes Schwimmbecken. In Großbritannien gibt es immer noch solche Becken – seit den frühen fünfziger Jahren – als “Freibäder”. Bisher ist nichts passiert. Allerdings ist das starke Algenwachstum und der Staubeintrag ein ständiges Problem: Die Becken verschlammen mit der Zeit immer mehr und die Wartung wird immer aufwendiger. Man ist deshalb vonFukushima dieser Methode abgekommen. Insofern ist die “Leichtbauhalle” oberhalb der Reaktoren von Fukushima eher dem damaligen Zeitgeist entsprechend gewesen.

Das Geheimnis solcher Lagerbecken ist ihre Tiefe. Das Wasser dient weniger der Kühlung, als der Abschirmung gegen Strahlung. Man braucht oberhalb der abgestellten Brennelemente noch einen

Arbeitsraum und darüber muß noch so viel Wasser vorhanden sein, daß die erforderliche Abschirmung gewährleistet ist. Andererseits ist diese Wassertiefe die ideale “Schutzschicht” für die am Boden stehenden Brennelemente. Sie hat den Schwung der rein gekrachten Teile (komplette Kranbahn mit Stahlträgern) so weit abgebremst, daß sie letztendlich “sanft” auf die Brennelemente herabgesunken sind. Die Brennelemente eines Siedewasserreaktors sind auch nicht gerade zerbrechlich, sodaß es wenig Schäden gegeben hat. Diese sind seit Monaten durch Unterwasserkameras genau dokumentiert.

Das Lagerbecken ist eine sehr stabile Konstruktion. Es besteht aus 140 bis 185 cm dicken massiven (ohne Durchbrüche für Rohrleitungen etc.) Stahlbetonwänden und ist komplett mit 6 cm Edelstahl ausgekleidet. Trotzdem hat man es nach der Explosion unterhalb durch eine zusätzliche Stahlkonstruktion verstärkt. Man wollte sicher sein, daß die Statik auch nach dem zusätzlichen Gewicht der Trümmer ausreichend ist. Inzwischen haben Neuberechnungen und umfangreiche Simulationen ergeben, daß es auch ohne Verstärkung schwersten Erdbeben standgehalten hätte. Eine ständige Vermessung zeigt, daß es sich auch durch alle Nachbeben und Taifune nicht bewegt hat.

Der schwierigste und gefährlichste Teil der Arbeit ist bereits erledigt: Das Abräumen des Trümmerhaufens auf dem Reaktor. Um das komplette Reaktorgebäude herum, hat man – weitestgehend ferngesteuert – eine gewaltige Stahlkonstruktion aufgebaut. Diese mußte so stabil sein, daß sie gleichzeitig als Kranbahn für einen Deckenkran und eine komplette Lademaschine dient und eine Schutzhülle für die “Baustelle” darstellt. Die gesamte Konstruktion steht auf eigenen Fundamenten neben dem ursprünglichen Reaktorgebäude und kragt freitragend über dieses hinweg, um zusätzliche Lasten für die Ruine zu vermeiden. Alles sicher, auch gegen schwerste Erdbeben und Wirbelstürme versteht sich. Eigentlich erstaunlich, daß ausgerechnet aus dem Land der Juristen, Sozialwirte und Lehrer, in dem man nicht einmal mehr einen Flughafen bauen kann, immer so getan wird, als sei Japan mit dem Ereignis von Fukushima total überfordert. Wieviel Jahre und Arbeitskreise es in Deutschland wohl gedauert hätte, bis man sich überhaupt auf eine Vorgehensweise geeinigt hätte?

Wahrscheinlich würden die Arbeiten immer noch ruhen, weil wir nicht genug Bischöfe für die unzähligen Ethikkommissionen etc. bereitstellen könnten. Völlig zu Recht, hat man mit gewissem Stolz bereits Journalisten an das Lagerbecken gelassen. So viel auch zum Thema Transparenz. Wer je versucht hat, an ein Brennelementebecken eines deutschen Kernkraftwerkes zu treten, weiß wovon ich rede. Strahlenphobie hat viele Ursachen, auch hausgemachte!

Parallel zu den Arbeiten, hat man bereits Transportbehälter angefertigt. Sie ähneln unseren Castoren. Diese werden mit dem Kran aufs Dach gehoben und in das Brennelementebecken zum Umpacken abgesenkt. Nach der Beladung werden sie zur genauen Untersuchung in das vorhandene Zentrallager auf dem Gelände gebracht. Alle Arbeiten finden bei Unterdruck statt, um etwaige Austritte von radioaktiven Gasen und

Aerosolen zu verhindern. Dafür hat man in der Ruine eine gigantische “Lüftungs- und Filteranlage” errichtet. Das Entladen ist nun fast schon eine Routinearbeit, wie in jedem anderen Kernkraftwerk unzählige maleFukushima ausgeführt.

Sind die Brennelemente wirklich keine Gefahr?

Kurz nach dem Unglück, haben sich “Deutsche Qualitätsmedien”, angefeuert von “Atomexperten”, gegenseitig versucht zu überbieten. Es wurden die wildesten Geschichten von schmelzenden Lagerbecken und einem größeren Schaden als durch die Atombombe von Hiroshima zusammengefaselt. Angst verkauft sich halt gut und war schon immer ein probates Mittel einschlägiger politischer Kreise. Kurz vor der Räumung des Lagerbeckens 4 drehen noch einmal alle Propagandaabteilungen voll auf: Es werden gekonnt Halbwahrheiten miteinander gemischt, bis man die “gefährlichste Situation in der Geschichte der Menschheit” konstruiert hat. Erstaunlich ist immer wieder, für wie dämlich die ihr Publikum halten. Ein Brennelementelagerbecken enthält notgedrungen sehr viel Wasser, da die Wasserschicht über den Elementen als Abschirmung der Strahlung dient. Eine Kettenreaktion in einem solchen Becken ist schon aus geometrischen Gründen ausgeschlossen. Es muß daher nur die Nachzerfallswärme abgeführt werden. Diese nimmt aber innerhalb der ersten Stunden nach dem Abschalten sehr stark ab. Sie ist so gering, daß ein Sieden des Wassers in solch einem Becken ausgeschlossen ist. Das Wasser wird lediglich erwärmt (deutlich unter 100 °C) und kann nur verdunsten, aber nicht “leer kochen”, wie ein Kochtopf auf der Herdplatte. Der vorhandene Kühlwasserkreislauf dient nur dazu, daß im Reaktorgebäude keine unnötig hohe Luftfeuchtigkeit entsteht.

Jedenfalls war das viel belächelte Besprühen aus Betonpumpen eher ein Gürtel zum Hosenträger. Es hätte auch gewirkt, wenn das Lagerbecken (Erdbeben, Explosion, reingestürzte Trümmer) undicht geworden wäre. Insofern eine richtige Maßnahme.

Es ist also keine Überraschung, daß die ersten geborgenen Brennelemente “wie neu” aussehen. Wenn einige der 1533 (1331 benutzte, 202 neue) vorhandnen Elemente undicht oder beschädigt sind, ist auch das kein Beinbruch. Man wird sie zusätzlich in Kassetten verpacken. Auch das ist zig mal geschehen. Anschließend beginnt das große Umpacken auf dem Gelände. Jeder Reaktor hat sein eigenes Abklingbecken. Zusätzlich befindet sich auf dem Kraftwerksgelände ein zentrales Lagerbecken in einem eigenen Gebäude. Dies dient auch bisher schon zur Zwischenlagerung bis zur Wiederaufbereitung. Um dort Platz zu schaffen, baut man nun ein Trockenlager. In diesem werden die “abgekühltesten” Brennelemente zukünftig gelagert. Wir kennen das in Deutschland aus dem Zwischenlager Gorleben.

Irgendwelche schwerwiegenden Unfälle während der Räumung sind äußerst unwahrscheinlich. Es handelt sich nicht um einen Haufen Mikado-Stäbchen, wie immer wieder von “Atomexperten” behauptet. Ein Brennelement besteht zwar aus vielen, fingerdicken Stäben, die aber durch Abstandshalter miteinander verbunden sind. Bei einem Siedewasserreaktor ist das Element auch noch von einem stabilen “Blechkasten” umgeben, um unerwünschte Querströmungen im Reaktor zu verhindern. Da die Fragestellung neuartig war, hat man in Japan inzwischen mit “unbenutzten” Brennelementen Versuche durchgeführt: Man hat aus einer Höhe von 5 m (!) 100 kg (!) schwere Stahlgewichte auf die Brennelemente fallen lassen. Dies hat zwar zu schweren Verformungen geführt, aber die Brennstäbe haben sich trotzdem nicht einmal geöffnet. Außerdem liegen die Brennelemente nicht einfach im Becken herum. Es gilt die “Bierkastenmethode”: Die Brennelemente werden vorsichtig von oben in stabile Lagergestelle (jeweils 10 Elemente in 3 Reihen) gestellt.  Oben guckt nur noch der Henkel des Brennelementes heraus. Der Spalt zwischen Brennelement und Kasten beträgt weniger als 15 mm. Umfallen kann da gar nichts. Ferner sind die Brennelemente durch die Gestelle vor herabfallenden Dingen geschützt. Es gibt nur zwei potentielle Gefahren: Die “Henkel” sind zu stark beschädigt oder kleinste Trümmerstücke sind in die Spalte zwischen Brennelement und Lagergestell gefallen.

Vor jedem Zug werden deshalb die “Henkel” mit einer extra entwickelten Meßtechnik vermessen. Erscheinen sie nicht mehr sicher genug, müssen andere “Greiftechniken” angewendet werden. Das Rausziehen geschieht nur sehr langsam (etwa 10 Minuten pro Element) um ein Klemmen oder Verkanten zu verhindern. Werden die Zugkräfte zu groß, wird sofort angehalten.

Das Kapitel der Reaktoren 4, 5 und 6 wird in wenigen Jahren abgeschlossen sein. Schon jetzt geht von diesen “Atomruinen” kaum noch eine Gefahr aus. Anders verhält es sich mit den Reaktoren 1 bis 3. Wie man aus dem Störfall in Harrisburg weiß, wird noch einige Zeit und viel Arbeit vergehen, bis auch diese drei Ruinen beseitigt sind. Es kann durchaus noch vier Jahrzehnte dauern, wenn die Japaner ihre extrem hohen Anforderungen aufrecht erhalten wollen. Dann allerdings, dürfte aus dem Kraftwerksgelände ein Erholungspark geworden sein. Sehr zum Bedauern aller “Atomkraftgegner”.




Ein Modell, eine Wahl

Durch die gute Arbeit von Nic Lewis und Piers Forster, denen ich sehr danke, habe ich ein Set von 20 passenden Modell-Antriebs-Inputs und korrespondierende Temperatur-Outputs erhalten, wie sie vom IPCC benutzt werden. Das sind die individuellen Modelle, deren Mittelwert ich in meinem Beitrag mit dem Titel Model Climate Sensitivity Calculated Directly From Model Results [etwa: Klimasensitivität der Modelle direkt berechnet aus Modellergebnissen] behandelt habe. Ich dachte mir, zuerst die Temperaturen zu untersuchen und die Modellergebnisse mit dem Datensatz HadCRUT und anderen zu vergleichen. Begonnen habe ich mit dem Vergleich der verschiedenen Datensätze selbst. Eine meiner bevorzugten Werkzeuge zum Vergleich von Datensätzen ist der „Violin-Plot“. Abbildung 1 zeigt einen Violin-Plot eines Datensatzes mit Zufallswerten, also eine Gauss’sche Normalverteilung.

Abbildung 1 (rechts): Violin-Plot von 10.000 Zufalls-Datenpunkten mit einem Mittel von Null und Standardabweichung.

Man erkennt, dass die Form einer „Violine“, also der orangefarbene Bereich, aus zwei bekannten „Glockenkurven“ zusammengesetzt ist, die vertikal Rücken an Rücken angeordnet sind. In der Mitte gibt es einen „Kasten-Plot“, welches der Kasten ist, dessen whiskers sich nach oben und unten erstrecken. Die Ausreißer, die sich oben und unten über den Kasten hinaus erstrecken, haben die gleiche Höhe wie der Kasten, eine Distanz, die bekannt ist unter der Bezeichnung „interquartiler Bereich“, weil er sich vom ersten bis zum letzten Viertel der Daten erstreckt. Die dicke schwarze Linie zeigt nicht das Mittel, sondern den Median der Daten. Der Median ist der Wert in der Mitte des Datensatzes, wenn man den Datensatz nach Größe sortiert. Als Folge wird er weniger durch Ausreißer beeinflusst als das Mittel des gleichen Datensatzes.

Kurz gesagt, ein Violin-Plot ist ein Paar spiegelbildlicher Dichteplots, das zeigt, wie die Daten verteilt sind, hinterlegt mit einem Kasten-Plot. Mit diesem Prolog wollen wir uns jetzt ansehen, was uns Violin-Plots über den Temperatur-Output der zwanzig Klimamodelle sagen können.

Für mich ist eines der bedeutendsten Merkmale [metrics] jedes Datensatzes der „erste Unterschied“. Dabei handelt es sich um die Änderung eines gemessenen Wertes zum nächsten. In einem Jahres-Datensatz wie den Temperatur-Modelloutputs besteht der erste Unterschied eines Datensatzes aus einem neuen Datensatz, der die jährliche ÄNDERUNG der Temperatur zeigt. Mit anderen Worten, um wie viel wärmer oder kälter ist die gegebene Temperatur eines Jahres im Vergleich zum Vorjahr? Sehen wir in der realen Welt und in den Modellen große oder kleine Änderungen?

Diese Änderung bei einigen Werten wird oft mit dem Symbol Delta „∆” bezeichnet, was die Differenz in einigen Messungen im Vergleich zum vorigen Wert bedeutet. Zum Beispiel würde man die Änderung der Temperatur mit „∆T” bezeichnen.

Fangen wir also an mit der Betrachtung der ersten Unterschiede der modellierten Temperaturen ∆T. Abbildung 2 zeigt einen Violin-Plot des ersten Unterschiedes ∆T in jedem der 20 Modell-Datensätze, also mit 1 : 20, plus dem HadCRUT-Datensatz und den Zufalls-Normal-Datensätzen.

Abbildung 2: Violin-Plots von 20 Klimamodellen (beige) plus dem Beobachtungs-Datensatz HadCRUT (rot) und einem normalverteilten Gauss’schen Datensatz (orange) zum Vergleich. Horizontale gepunktete Linien in jedem Fall zeigen die Gesamt-Bandbreite des HadCRUT-Datensatzes.

Nun… als Erstes fällt auf, dass wir hier sehr, sehr unterschiedliche Verteilungen sehen. Man betrachte zum Beispiel GDFL (11) und GISS (12) im Vergleich zu den Beobachtungen…

Was bedeuten nun die Unterschiede zwischen den Mittelwerten von GDFL und GISS, wenn wir auf die Zeitreihe ihrer modellierten Temperaturen schauen? Abbildung 3 zeigt die beiden Datensätze, GDFL und GISS zusammen mit meiner Nachbildung jedes Ergebnisses.

Abbildung 3: Modellierte Temperaturen (gepunktete graue Linien) und Nachbildungen von zwei Modellen, GDFL-ESM2M und GISS-E2-R. Das Verfahren der Nachbildung wird im ersten Link oben des Beitrags erläutert. Zeitpunkte zwei wesentlicher Vulkanausbrüche sind als vertikale Linien eingezeichnet.

Der Unterschied zwischen den beiden Modell-Outputs tritt ziemlich deutlich hervor. Es gibt nur eine geringe Variation von Jahr zu Jahr bei den GISS-Ergebnissen, halb so groß oder noch kleiner, als wir es in der realen Welt beobachten. Andererseits zeigen sich sehr große Variationen von Jahr zu Jahr bei den GDFL-Ergebnissen, bis zu zweimal so groß wie die größte jährliche Änderung, die jemals in den Aufzeichnungen aufgetreten war…

Nun ist es offensichtlich, dass die Verteilung jedweder Modellergebnisse nicht identisch sein wird mit den Beobachtungen. Aber einen wie großen Unterschied können wir erwarten? Um dies zu beantworten, zeigt Abbildung 4 einen Satz mit 24 Violin-Plots von Zufalls-Verteilungen, und zwar mit der gleichen Anzahl von Datenpunkten (140 Jahre mit ∆T) wie die Modell-Outputs.

Abbildung 4: Violin-Plots verschiedener Randwert-Datensätze mit einer Beispielgröße von N = 140, und die gleiche Standardabweichung wie im HadCRUT-∆T-Datensatz.

Wie man sieht, kann man schon mit einer kleinen Beispiel-Auswahl von 140 Datenpunkten eine Vielfalt von Formen erhalten. Das ist eines der Probleme bei der Interpretation von Ergebnissen aus kleinen Datensätzen: man kann kaum sicher sein, was man sieht. Allerdings gibt es ein paar Dinge, die sich nicht groß ändern. Die interquartile Distanz (die Höhe des Kastens) variiert nicht sehr stark. Und auch nicht die Stellen, an denen die Ausreißer enden. Wenn man jetzt die modellierten Temperaturen von GDFL (11) und GISS (12) untersucht (wie sie in Abbildung 5 der Bequemlichkeit halber noch einmal gezeigt werden), kann man sehen, dass sie in keiner Weise irgendeinem der Beispiele normalverteilter Datensätze ähneln.

Es gibt noch einige weitere Merkwürdigkeiten. Abbildung 5 enthält drei andere Beobachtungs-Datensätze – den globalen Temperaturindex von GISS sowie die Datensätze von BEST und CRU ausschließlich vom Festland.

Abbildung 5: Wie Abbildung 2, aber diesmal mit den Temperatur-Datensätzen GISS, BEST und CRUTEM unten rechts. Die horizontalen gepunkteten Linien zeigen die Gesamt-Bandbreite des HadCRUT-Beobachtungs-Datensatzes.

Hier können wir eine merkwürdige Konsequenz der Manipulation der Modelle erkennen. Ich habe noch nie gesehen, wie stark das gewählte Ziel die Ergebnisse beeinflusst. Man bekommt unterschiedliche Ergebnisse abhängig davon, welchen Datensatz man auswählt, an den man das Klimamodell anpasst … und das GISS-Modell (12) wurde offensichtlich frisiert, um die GISS-Temperaturaufzeichnung zu spiegeln (22). Es sieht so aus, als hätten sie sie ziemlich gut frisiert, um zu jenen Aufzeichnungen zu passen. Und mit CSIRO (7) könnte es das Gleiche sein. In jedem Falle sind das die einzigen beiden, die eine ähnliche Form haben wie die globale Temperaturaufzeichnung von GISS.

Und schließlich sehen die beiden Datensätze nur mit Festlandswerten (23, 24, in Abbildung 5 unten rechts) ziemlich ähnlich aus. Man beachte jedoch die Unterschiede zwischen den beiden globalen Datensätzen HadCRUT (21) und GISS LOTI (22) sowie den beiden Festlands-Datensätzen BEST (23) und CRUTEM (24). Man erinnere sich, das Land erwärmt sich schneller als die Ozeane und kühlt sich auch schneller wieder ab. Wie man also erwarten würde, gibt es größere jährliche Schwingungen in den beiden Festlands-Datensätzen, was repräsentiert wird durch die Größe des Kastens und der Position der Endpunkte der Ausreißer.

Allerdings passen einige Modelle (z. B. 6, 9 und 11) viel besser zu den Festlands-Datensätzen als zu den globalen Temperatur-Datensätzen. Dies würde auf Probleme hindeuten mit der Repräsentation der Ozeane in diesen Modellen.

Schlussfolgerungen? Nun, die größte Änderung von Jahr zu Jahr der Temperatur der Erde während der letzten 140 Jahre hat 0,3°C betragen, sowohl für steigende als auch für fallende Temperatur.

Sollten wir also einem Modell vertrauen, das eine doppelt so große Änderung von Jahr zu Jahr zeigt wie beispielsweise GFDL (11)? Welchen Wert hat ein Modell, deren Ergebnisse nur halb so groß sind wie die Beobachtungen, wie GISS (12) und CSIRO (7)?

Meine wesentliche Schlussfolgerung lautet: an irgendeiner Stelle müssen wir den Gedanken der Klimamodelle-Demokratie verwerfen und alle Modelle über Bord werfen, die nicht die Realität abbilden, die nicht einmal ansatzweise die Beobachtungen spiegeln.

Mein letzter Punkt ist ein Seltsamer. Er betrifft die merkwürdige Tatsache, dass sich ein Ensemble (ein origineller Ausdruck für einen Mittelwert) der Klimamodelle im Allgemeinen besser macht als irgendein ausgewähltes Einzelmodell. Ich habe das aus folgendem Grunde verstanden.

Nehmen wir einen Haufen kleiner Kinder an, die noch nicht so gut werfen können. Man zeichnet ein Ziel an einer Scheune, und die Kinder werfen Schlammbälle auf das Ziel.

Was wird nun näher am Zentrum des Zieles liegen – das Mittel aller Würfe der Kinder oder ein speziell ausgewählter individueller Wurf?

Es scheint eindeutig, dass das Mittel aller schlechten Würfe die bessere Wahl ist. Eine Folge davon ist, je mehr Würfe es gibt, desto genauer wird das Mittel wahrscheinlich sein. Also ist dies vielleicht die Rechtfertigung in den Köpfen der IPCC-Leute für die Einbeziehung von Modellen, die die Wirklichkeit gar nicht abbilden … sie wurden mit einbezogen in der Hoffnung, dass sie ein genauso schlechtes Modell auf der anderen Seite ausbalancieren.

ABER – es gibt Probleme bei dieser Annahme. Ein Problem ist, falls alle oder die meisten Fehler in die gleiche Richtung gehen, dann würde das Mittel nicht besser sein als ein Einzelwert-Ergebnis. In meinem Beispiel nehme man an, dass das Ziel sehr hoch auf die Scheune gemalt wurde, und die meisten Kinder treffen einen Bereich darunter. Dann würde das Mittel nicht besser aussehen als irgendein individuell ausgewählter Wurf.

Ein weiteres Problem ist, dass viele Modelle große Teile der Codierung gemeinsam haben, und noch wichtiger, sie teilen eine ganze Reihe theoretischer (und oftmals nicht untersuchter) Annahmen, die hinsichtlich des Klimas stimmen können oder nicht.

Ein tiefer gehendes Problem in diesem Falle ist, dass die verbesserte Genauigkeit nur für die Nachhersage der Modelle gilt … Und sie sind ohnehin schon sorgfältig frisiert worden, um diese Ergebnisse zu zeigen. Keine Frisierung nach Art des „Drehens am Knopf“, sondern wieder und immer wieder evolutionäre Frisierung. Als Folge zeigen sie alle ziemlich gut die Temperaturvariationen der Vergangenheit, und das Mittel ist sogar besser als die Nachhersage … lediglich diese blöde Vorhersage ist immer das Problem.

Oder wie es die Börsianer an den US-Börsen ausdrücken: „Das Verhalten der Vergangenheit ist keine Garantie für zukünftige Erfolge“. Es spielt keine Rolle, wie gut ein individuelles Modell oder eine Modellgruppe die Vergangenheit abbilden kann – das bedeutet absolut nichts hinsichtlich ihrer Fähigkeit, die Zukunft vorherzusagen.

Anmerkungen:

Datenquelle: Die Modell-Temperaturdaten stammen aus einer Studie von Forster, P. M., T. Andrews, P. Good, J. M. Gregory, L. S. Jackson, and M. Zelinka, 2013, Journal of Geophysical Research, 118, 1139–1150 mit dem Titel Evaluating adjusted forcing and model spread for historical and future scenarios in the CMIP5 generation of climate models, dankenswerterweise zur Verfügung gestellt von Piers Forster. Sie steht hier und ist des Lesens wert.

Daten und Codierung: Wie üblich ist mein R-Code ein Gewirr, aber zu was das taugt, steht hier. Die Daten finden sich in einer Excel-Tabelle hier.

Link: http://wattsupwiththat.com/2013/11/21/one-model-one-vote/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Ich bitte um Verständnis, dass ich diesem Text inhaltlich manchmal nicht ganz folgen konnte.




Eine weitere bekannte Unbekannte – vulkanische CO2-Ausgasungen

Bild rechts: Medicine Lake Volcano from Schonchin Butte, Lava Beds National Monument (Photo credit: Ray Bouknight)

Diese inflationär steigenden Zahlen, füge ich hastig hinzu, bedeuten nicht, dass unser Planet plötzlich mehr CO2 ausgast.

Die Menschheit tut das mit Sicherheit, aber jedwede Änderungen des vulkanischen Hintergrund-Niveaus würde über Generationen erfolgen und nicht während einiger Jahre. Der Anstieg, den wir hier sehen, ist daher kein echter Anstieg, sondern es war schon immer so viel. Durch den unsere Perspektive erweiternden wissenschaftlichen Prozess wird umrissen, wie hoffnungslos gering unser Wissen über Vulkane ist.

Schlafende Riesen

Die Ausgasungen unseres Planeten können spektakulär offensichtlich sein. Die Feuerwerke sind jedoch nur ein Teil des Bildes. Wir wissen jetzt, dass die Freisetzung von CO2 bei Vulkanausbrüchen fast vernachlässigbar ist verglichen mit dem, was passiert, wenn die Kameraleute des Filmens müde sind. Die wirklich eine Rolle spielenden Emissionen sind verborgen. Die ruhigen, silbrigen Rauchwolken, die sich gegenwärtig über den 150 oder so aktiven Vulkanen gen Himmel wälzen, enthalten auch den größten Teil ihres Kohlendioxids. Sie mögen das Augenmerk auf sich ziehen – aber zwischen den Ausbrüchen [tantrums] fördert das stetige Ausatmen der Vulkane im Stillen eine Viertelmillion Tonnen CO2 pro Jahr.

Wir denken. Die Schätzungen der Wissenschaftler [the best estimates] dagegen basieren auf Hypothesen. Es könnte überraschend sein zu erfahren, dass bis weit in dieses neue Jahrhundert hinein etwa 80 Prozent der von mir erwähnten Raucher hinsichtlich ihrer emittierten CO2-Menge immer noch so mysteriös sind wie eine Generation zuvor: wir haben erst 33 davon vermessen.

Wenn die verbleibenden 117 einem ähnlichen Trend folgen, kann die gegenwärtige Projektion der Forschergemeinschaft bestehen bleiben. Aber wenn man durch ein nur so kleines Fenster schaut, können wir nie in Erfahrung bringen, ob das, was wir da sehen, typisch ist oder nicht. Es ist wie ein Lichtstrahl, der auf einen verdunkelten Globus trifft: vielleicht beleuchtet er gerade Australien, und man glaubt, alles gesehen zu haben – während außerhalb des Lichtkegels unbemerkt Asien liegt. Die isolierten vulkanischen Grenzen unseres Planeten können sehr gut ein oder zwei Monster verbergen; und mit ein wenig weiterer Erkundung könnte unsere Abschätzung des vulkanischen CO2-Ausstoßes sogar noch mehr steigen.

Sie glauben, dass würde reichen. Das kann meine Schuld sein – ich tendiere dazu, mir das Verrückteste bis zum Ende aufzuheben. Vor Kurzem kam eine schillernde Quelle vulkanischen Kohlenstoffes ans Licht, die nichts mit Lava oder selbst Kratern zu tun hat. Inzwischen sieht es so aus, dass es nicht nur für uns unerreichbares CO2 gibt, sondern auch solches, das wir nicht einmal bemerken können.

Noch unglaublicher: Es scheint, dass einige als inaktiv angesehene Vulkane hinsichtlich ihres Potentials, neues Land zu erschaffen, immer noch erhebliche Beiträge in die Atmosphäre leisten durch das diffuse Freisetzen von CO2. Restliche Magmavorräte unter schlafenden Kratern können immer noch aus der Distanz Gase freisetzen, selbst wenn sie niemals die Erdoberfläche erreichen sollten. Erstaunlicherweise sieht es nach dem Bisschen, das die Wissenschaftler bislang gemessen haben, so aus, als ob dieser Prozess noch einmal halb so viel CO2 in die Atmosphäre entweichen lässt, wie es durch aktive Vulkane der Fall ist.

Wenn diese zusätzlichen ‚kohlenstoff-aktiven’ Vulkane mit einbezogen werden, erhöht sich die Anzahl der ausgasenden Kegel auf über 500. Davon haben wir gerade mal 9 Prozent vermessen. Möglicherweise kann man jetzt mehr dazu tun – wir müssen mehr Berge erklimmen.

Link: http://wattsupwiththat.com/2013/11/16/another-known-unknown-volcanic-outgassing-of-co2/

Übersetzt von Chris Frey EIKE




Kombikraftwerke für 100 % „Erneuerbare“ (Teil 2). Ein Projekt von Tagträumern oder Hütchenspielern?

Teil 2

Deshalb machen wir nun die Probe aufs Exempel und übertragen dieses Ergebnis auf die bereits installierte Menge von sog. „Erneuerbaren“ besser Neue Instabile Energien (NIE) in ganz Deutschland. Mit ca. 36,3 GW PVA und rd. 34,3 GW Wind liegen wir Ende 2013 zusammen bei rd. 71 GW. Mit Biomasse betriebene Kraftwerke können derzeit knapp 3 GW [1] (Ende 2011) bereitstellen. Das Verhältnis liegt also heute schon bei 1: 23, also ungefähr wie im Feldversuch auch. Damit könnten wir zwar theoretisch eine Netzlast von bis zu 71 GW + 3 GW = 74 GW abdecken, aber nur dann, wenn diese auch tatsächlich erzeugt würde. Das ist aber nur sehr selten und in den Herbst- und Wintermonaten so gut wie nie der Fall. In diesen Monaten brauchen wir jedoch gerade in der Spitze um die 81 GW [2], die aber von keinem dieser Anbieter bereitgestellt werden können.

Wir müssten also die Biomasse als einzig grund- und mittel-und evtl. spitzenlastfähige Stromerzeugungsart der NIE erheblich ausbauen, um uns den Luxus der Regelenergie in Spitzenlastzeiten aus Wind und PVA leisten zu können. Aber auch die Spitzenlast könnte damit nicht sicher bereitgestellt werden. Weder am Mittag noch am Abend. Denn es ist nicht sicher, das am Mittag und Abend der Wind bläst, die Sonne scheint abends schon mal gar nicht.

Biomasse-Kraftwerke müssten auf mindestens 80 GW (ohne Reserve!) hochgefahren werden

Insgesamt ist daher festzustellen, dass zur Sicherstellung von 100 % EE-Strom der Bestand an  Biomassekraftwerken zur Sicherung der Grundversorgung auf mindestens 80 GW (ohne Reserve) hochgefahren werden müsste. Dass das in jeder Hinsicht völlig illusorisch ist, nicht nur, weil der Plan der Bundesregierung zur Energiewende nur ca. 6 GW vorsieht, zeigt schon eine grobe Betrachtung des Flächenverbrauches.  Allein der wäre so gigantisch, wie es heute bereits die Umweltbelastung durch die bestehenden Monokulturen ist. Zwar müsste man nicht den Dauerbetrieb dieser Faulgasgeneratoren übers Jahr einplanen und dafür die entsprechende Menge an Energiepflanzen oder Gülle vorhalten, aber ein wesentlicher Teil müsste schon für den Fall der Fälle vorgehalten werden.Derzeit benötigt Deutschland ca. 600 TWh an elektrischer Arbeit. Diese Energiemenge wird durch Grund- Mittel- und Spitzenlastkraftwerke bereit gestellt. Etwa 40 % (2005) davon werden als Grundlast bereitgestellt, von Kraftwerken, die 7000 oder mehr Volllaststunden gefahren werden. Die Mittellast von ebenfalls ca. 40 % wird hingegen nur an ca. 2/3 des Tages gebraucht. Die Spitzenlast muss dann in sehr kurzer Zeit einige den Rest der der Leistung bereitstellen, was bisher und wohl auch in Zukunft nur Pumpspeicher und Gaskraftwerke können. Sie wird je nach Wochentag in 10 bis 20 % der Zeit benötigt, dann aber bis 100 %. (Siehe Abbildung).

Abbildung 3: Lastverlauf über den Tag Verteilung von Grund- Mittel- und Spitzenlast im Winter (Quelle: VDEW http://de.wikipedia.org/wiki/Grundlast)

Das bedeutet, dass auch genügend Biomasse vorgehalten werden muss, um diesen Bedarf zu decken. Wie hoch der letzendlich sein muss, lässt sich nur abschätzen, denn Wind und Sonne liefern ja, wenn auch oft sprunghaft und nicht unbedingt dann, wenn man die Energie braucht.

Rechnen wir der Einfacheit halber mit 40 % der benötigten Energiemenge. Das wären rd. 600 x 0,4 = 240 TWh.

Um ein konventionelles Kraftwerk mit 1 GW Leistung komplett und übers Jahr mit  Faulgasanlagen zu ersetzen, bräuchte man Maisanbauflächen lt einer VDE (Verband deutscher Elektroingenieure) Berechnung [3], unter Bestbedingungen, in der Größe von mindestens 1.600 km2. Dabei sind die für die Lagerung erforderliche Flächen und die Energie für die Produktion der Biomasse, ihren Transport und ihre Umwandlung noch nicht berücksichtigt. Sie erhöhen den Netto-Flächenbedarf nochmals erheblich.

Es wäre in der Lage bis zu 7,9 TWh nach Bedarf zu liefern. Das bedeutet, zur Abdeckung  von 40 % der Strommenge durch Biomassekraftwerke (bei angenommenen 7000 Betriebsstunden p.a.) müssten Biomasse für ca. 1600 x 240/7,9= 48.606 km2 für die Produktion von Biomasse vorgehalten werden. Zusätzlich natürlich noch die Flächen für Lagerung etc. wie oben beschrieben, Und selbst dann wäre es technisch wohl kaum möglich die erforderliche Spitzenlast in der notwendigen kurzen Zeit bereit zu stellen. Das schaffen bisher nur hocheffiziente  schnelle Gaskraftwerke. Umgekehrt können diese Kraftwerke bei plötzlichen Ausfällen im Sekundenbereichen nichts nachschieben, das können nur die mit großen Schwungmassen ausgestatteten Turbinen der Großkraftwerke.

Insgesamt hat Deutschland aber nur 119.000 km2  Ackerfläche. D.h. rd. 41 % könnte und müsste nur für die Bereitstellung von Energieplanzen vorgehalten und bewirtschaftet werden. Unsere Nahrung müsste dann zum großen Teil hinzugekauft werden- da fragt sich von welchem Geld- oder die ganze Nation verzichtet auf eine sichere Stromversorgung und vertraut auf Wind und Sonne und deren Wohlwollen. Das wäre unweigerlich das Ende Deutschlands als Industrienation, aber ein grünes Paradies für Wildschweine und andere Nutznießer der Monokulturen.

Eine weitere Begrenzung stellt die notwendige Zahl der Biomasse-Faulgas Anlagen dar. Wie der VDE weiter ermittelt hat, lassen sich Biomasse-Kraftwerke nur bis 20 MW Leistung vernünftig bauen. Zur Bereitstellung der erforderlichen  80 GW müssten demnach 80.000 MW/20 = 4.000 Anlagen dieser Größe errrichtet werden.

Vielleicht auch deswegen resumieren die VDE Autoren:

 „Mit den vorher genannten verfügbaren Flächen beträgt das Potenzial zur Erzeugung elektrischer Energie aus dem großflächigen Anbau von Biomasse ca. 5.000 MW, was ca. 4,5 % der zurzeit installierten elektrischen Leistungen in Deutschland entspricht. Der Anteil der erzeugten elektrischen Energie könnte dabei ca. 7 % betragen, da Biomasseanlagen ganzjährig als Grundlasterzeuger betreibbar sind.“

Es wird also schon aus diesem Grund nichts mit der Grund- und Regellast aus Faulgasgeneratoren bei 100 % Ökostrom.

Und weil die Organisatoren des Feldversuches Kombikraftwerk 2 das wissen, fordern sie mal eben schnell eine Änderung der Regeln für die Zulassung zur Lieferung von Regelleistung. Unter der Überschrift „Fazit und Änderungsbedarf am Regelenergiemarkt“, fordern sie, die Regeln zugunsten der fluktuierenden „Erneuerbaren“ aufzuweichen, indem man auch ganz kurzfristige Angebote als Einspeisung zulässt. Dass damit der Bock zum Gärtner gemacht wird, leuchtet sofort ein, denn damit wird das zerstörerische Element der Vorrangeinspeisung auch auf die Regelenergie übertragen und dem schon heute zunehmendem Chaos im Netz ein weiteres breites Einfallstor geöffnet.  Zigtausende bis Millionen von „Erneuerbaren“ Erzeugern würden dann  zu jeder beliebigen Zeit, die nur vom Wettergott abhängt, zu- oder abregeln dürfen.  Das Chaos wäre der Normalfall, die Netzstabiltität endgültig dahin.

Aber es blieben nicht nur technischen die Randbedingungen völlig ausgeblendet, sondern auch die vielleicht noch wichtigeren Kosten dieses Kombikraftwerkes.

Welche Kosten kommen auf uns zu?

Die Befürworter der Neuen Instabile Energien (NIE ) wie man die „Erneuerbaren“ treffender nennen sollte, wollen uns einreden, dass 100 % „Erneuerbare“ aus übergeordneten Gründen überaus erstrebenswert seien, schweigen sich aber über die Kosten dieser Energieherstellung, sowie ihre zahllosen, naturgesetzlich bedingten, Schwächen komplett aus. Wenn sie dann doch mal genannt werden müssen, dann mutieren sie zur sattsam bekannten „Kugel Eis“ des ehemaligen Umweltministers Jürgen Trittin. Mehr würden sie nicht kosten, behauptete dieser Star der Grünen Bewegung vor einigen Jahren, als er gerade das EEG durchgedrückt hatte. Das war ebenso unverfroren wie falsch. Im Laufe des Jahres 2013 kostete diese „Kugel Eis“ bereits 23 Mrd €, die die Netzbetreiber an die Besitzer der NIE Anlagen auszuschütten hatten.

Doch bleiben wir vorerst beim „Kombikraftwerk 2“ und seinen Kosten. Es besteht wie in Tabelle 1 gezeigt – aus 37 Windkraftanlagen in Brandenburg, mit einer Nennleistung von   76,4 MW, ferner aus 12 Photovoltaik Anlagen in der Kasseler Umgebung mit 1 MW und 7 kleinen Faulgas (Biomasse)-Anlagen mit insgesamt 3,6 MW Leistung.

Biomasse-Kraftwerke

Der Fachverband Biogas e.V. beziffert die Investitionskosten pro Kilowatt installierter Leistung auf ca. 2.500 Euro/Kilowatt für größere Biogasanlagen und ca. 4.000 Euro/Kilowatt für kleinere Anlagen. Hier handelt es sich zweifelsfrei um kleine Anlagen. D.h. es fielen dabei Investitionen in Höhe von ca. 14,4 Mio € an

Praktisch für die Investoren dieser Anlagen ist, dass auch diese Anlagen (bis zu einer Leistung von 20 MW) sich nicht an der Lastregelung noch an der Spannungs- oder Frequenzregelung des Netzes beteiligen müssen. Sie können soweit technisch und betriebsbedingt möglich ständig unter Volllast produzieren, die Abnahme ist garantiert.

Windkraftanlagen

Einbezogen wurden die Windkraftanlagen der „stromautarken“ (eigene Angaben) Gemeinde Feldheim in Brandenburg. Sie wurden im wesentlichen ab dem Jahr 1999 errichtet.

Onshore Windkraftanlagen kosten heute nach dem Verbraucherportal Solar-und-Windenergie als Kleinanlagen zwischen  600 und 870 €/kW als Großanlagen zwischen  770 und 1030 €/kW [4] . Enercon gibt an, dass seine Großanlagen derzeit mit ca. 1250 €/kW zu Buche schlagen. Wir rechnen hier mit 1000 €/kW, damit dürfte ein vernünftiger Mittelwert gefunden sein.

Photovoltaik-Anlagen

Photovoltaik Anlagen sind rapide im Preis gefallen. Das Branchenportal Solaranlagen.eu[5] nennt Preise in 2007 von noch 4500 €/kWp gegenüber heutigen Preisen von ca. 1700 €/kWp[6]. Zwischen 2012 und 213 ist kam die Preisreduktion zum Stillstand.

Damit hätten wir die Investitionskosten für die Anlagen zusammen. Beachtet werden muss jedoch, dass die erforderliche dezentrale Netzanbindung nicht enthalten ist.

Windkraftanlagen Photovoltaik Faulgas Braunkohle KW Niederaußem
Anzahl 37 12 7 1
Kosten pro kW in € 1000 1700 4000 1200
Nenn-Leistung in MW 76,4 1 3,6 1.012
Kosten in Mio € 76,4 1 14,4 1.200

Tabelle 2. I Investitionskosten für das Kombikraftwerk 2 und Braunkohle KW nach heutigen Preisen

Zusammen kosteten die Komponenten des Kombikraftwerkes 2  rd. 91,8 Mio €, jedoch ohne Netzanbindung. Ein Kohle-, Öl-, Kern- oder Gaskraftwerk, würde man für diese mickrigen Leistungsdaten nicht bauen. Das rechnete sich nicht. Trotzdem kann man die Investition pro kW, der heute für ein modernes konventionelles Kraftwerk (z.B. BoA Niederaußem) gestemmt werden muss, bestimmen und vergleichen. Er liegt bei rd. 1.200 €/kW[7].

Das sieht auf den ersten Blick sehr ähnlich aus, wenn man vom Ausreißer Faulgas mal absieht. Doch das geht nicht, denn der ist es, der dem ganzen Projekt vom Kombikraftwerk 2 erst die Existenz erlaubt. Ohne ein Kraftwerk, das jederzeit die volle Leistung bedarfsgerecht produzieren kann, fällt die gesamte Logik des Projektes in sich zusammen.  Es ist also für die Funktion bestimmend.

Eigentlich hätten das die eifrigen Förderer vom BMU schon vorher erkennen und die Förderung verweigern müssen. Denn nur mit Hilfe eines nach Angebot und Nachfrage steuerbaren Kraftwerks, kann in Flauten und/oder sonnenarmen oder dunklen Tagen die Leistung bereitgestellt werden, die die heutige Zivilgesellschaft in jedem Moment in Deutschland benötigt. Allein und nur rechnerisch betrachtet kostet das Kombikraftwerk 2  demnach 91,8 Mio € mit einer Nennleistung von 81 MW. Pro kW installierter Lesitung sind das  1.133 €/kW und damit in etwa genau so viel pro installierter kW, wie das Braunkohle-Kraftwerk BoA in Niederaußem. Sogar etwas weniger.

Fordert man hingegen einen unter allen Umständen sicheren Betrieb, was bei einem derart lebenswichtigen Produkt wie Strom, nicht nur eine Selbstverständlichkeit ist, sondern auch per Gesetz gefordert wird, dann tun sich Welten zwischen beiden auf. Dann müssten die Faul(Bio)Gas Kraftwerke in Zahl und Leistung erheblich ausgeweitet werden, nämlich auf die volle Nennleistung des gesamten Kombikraftwerkes 2. Das wären die bereits erwähnten 81 MW.

Ohne diese Investition stünden im Bedarfsfall nur die mickrigen 3.6 MW der jetzigen Anlagen zur Verfügung, die Verbraucher für den Rest von 77,4 MW gingen leer aus, wenn, wie jeden Abend und in der Nacht, die Sonne nicht scheint, oder der Wind nicht weht. In den Herbst und Wintermonaten oft beides gleichzeitig.

Damit erhöhten sich  allein die Investitionskosten der Versuchsanlage um satte 324 Mio und summierten sich auf 401 Mio €.  Ein vergleichbares konventionelles Kraftwerk hingegen käme nur auf 97,2 Mio €. Ein Faktor von 4,1 zuungunsten  des Kombikraftwerkes.

Selbst wenn man auch bei Faulgasanlagen nur noch große Anlagen mit Kosten von 2.500 €/kW bauen würde, wäre eine Investition in Höhe von 202,5 Mio € zusätzlich zu tätigen. Insgesamt beliefe sich die Investition damit dann auf knapp 280 Mio €. Immer noch rd. 3 mal soviel wie rein konventionell.

Welche Kosten kämen bei 100 % NIE auf uns zu?

Überträgt man diese Erebnisse auf 100 % NIE Versorgung für ganz Deutschland, wofür ja der Versuch den Beweis antreten sollte, dann müssten zur Absicherung des Gesamtbedarfes von rd. 80 GW, wenn auch nur für rd 40 % der Zeit, ca. 200 Mrd € in Biomasse Kraftwerke (4000 x 2.500 €/kWh x 80.000.000 kW Leistung) zusätzlich investiert werden.  Sie würden sich natürlich ebensowenig rechnen wie die heutigen konventionellen Kraftwerke, da die vglw. geringe Betriebsstundenzahl keine Amortisation zulässt. Dafür hätten wir dann mindestens eine Dopplung des jetzigen Kraftwerksbestandes hinbekommen, ergänzt um die vielen GW Erbringer aus NIE Anlagen, mit Wind- und Sonne betrieben.

Die bleibt als offene Frage, die auch dieser Versuch nicht beantworten will:

Wie also sollen 100 % NIE erreicht werden, ohne die Faulgasanlagen, wie zuvor beschrieben, auf 70 bis 80 GW Nennleistung auszuweiten? Die wiederum könnten allein von der verfügbaren Anbau-Fläche nicht mit in Deutschland erzeugten „Energiepflanzen“ betrieben werden. Der Bedarf wäre viel zu groß, auch wenn man davon ausgehen kann, dass die Mittel- und Spitzenleistung von 70 GW nicht an allen Tagen im Jahr gebraucht würde. Da hilft nur großvolumiger Strominport aus dem nahen Ausland. Erzeugt per Kernkraft versteht sich. Oder Verzicht, gesteuert per Smartmeter!

Fazit:

Der Feldversuch Kombikraftwerk 2 beweist nur, dass seine Initiatoren das Geld für teuere Spielchen verbraten durften, deren Erkenntnisse bei einfacher , ehrlicher und analytischer Betrachtung auch ohne diesen Versuch hätten gewonnen werden können. Das Versuchsergebnis aber demonstriert erneut, wenn auch unabsichtlich, dass  die Energieversorgung eines Industrielandes nicht von den schwankenden Ergebnissen der NIE´s abhängig gemacht werden darf. Das  zumindest hat der Versuch einmal mehr sehr deutlich gezeigt. Weder ist eine sichere Versorgung mit elektrischer Energie damit möglich, noch sind die extremen Kosten dafür zu rechtfertigen.


[1] Wikipedia Ende 2011 waren in Deutschland rund 7.200 Biogasanlagen mit einer installierten elektrischen Anlagenleistung von ca. 2.850 MW

[2] lt BDEW wurden 81,2 Gigawatt am 7. Dezember 2012 gemessen.

[3] Wikipedia Ende 2011 waren in Deutschland rund 7.200 Biogasanlagen mit einer installierten elektrischen Anlagenleistung von ca. 2.850 MW

[4] Lt. VDE Biomassekraftwerke  Ein Beitrag des ETG-Fachbereichs V1 „Zentrale und dezentrale Erzeugung elektrischer Energie“ liefert z.B. der energiereiche Silomais 1000 kWh/t, pro ha. Es wird mit einen Ertrag von 50 t/ha, gerechnet. Der Wirkungsgrad der Stromerzeugung wird incl. Ankopplung eines Blockheizkraftwerkes mit 40 % angegeben.  Die für die Lagerung erforderliche Fläche und die Energie für die Produktion der Biomasse, ihren Transport und ihre Umwandlung wurden von der produzierten Energie nicht abgezogen, dadurch erhöht sich aber der spezifische Netto-Flächenbedarf.

http://www.vde.com/de/fg/ETG/Arbeitsgebiete/V1/Aktuelles/Oeffentlich/Seiten/Biomassekraftwerke.aspx

[5]  Quelle: http://www.solar-und-windenergie.de/windenergie/kosten-und-bau-windkraftanlagen.html

[6] Quelle: http://www.solaranlage.eu/solar/solaranlagen-preise

[7] Die Einheit kWp (Kilowatt Peak) steht für die Nennleistung dieser Anlage im Neuzustand und unter optimalen Laborbedingungen

[8] Quelle- http://de.wikipedia.org/wiki/Kraftwerk_Niederau%C3%9Fem