1

U-Battery aus Europa

Interessant ist schon mal die Erschließung völlig neuer Marktsegmente durch die Reaktorleistung (hier 10 MWth und 4 MWel) und die nutzbare Temperatur (hier 750 °C). Diese neue Klasse wird als MMR (.micro modular reactor) bezeichnet. Wie schon die Bezeichnung „Uran-Batterie“ andeutet, wird ferner eine ununterbrochene Betriebszeit von mindestens 5 – 10 Jahren vorgesehen. Hiermit wird das Marktsegment der Kraft-Wärme-Kopplung auf der Basis von „Schiffsdieseln“ und kleinen Gasturbinen angestrebt. Ein sich in der Industrie immer weiter (steigende Strompreise und sinkende Versorgungssicherheit durch Wind und Sonne) verbreitendes Konzept. Hinzu kommen die Inselnetze in abgelegenen Regionen (Kleinstädte), Bergwerke und Produktionsplattformen auf dem Meer, Verdichterstationen in Pipelines usw. Hierfür kann ebenfalls auch die hohe Betriebstemperatur — selbst bei reiner Stromproduktion — von Vorteil sein, da sie problemlos Trockenkühlung (Wüstengebiete) erlaubt.

Die treibende Kraft hinter diesem Projekt ist — in diesem Sinne sicherlich nicht ganz zufällig — das Konsortium URENCO. Ein weltweiter Betreiber von Urananreicherungsanlagen. Solche Kaskaden aus Zentrifugen brauchen kontinuierlich gewaltige Mengen elektrische Energie. Man sucht also selbst nach einer Lösung für die immer teurere Versorgung.

Der Reaktor

Wieder ein neuer „Papierreaktor“ mehr, könnte man denken. Ganz so ist es aber nicht. Man hat von Anfang an auf erprobte Technik gesetzt. Es ist reine Entwicklungsarbeit — insbesondere für die Nachweise in einem erfolgreichen Genehmigungsverfahren — aber keine Forschung mehr zu leisten. Insofern ist der angestrebte Baubeginn 2024 durchaus realisierbar.

Fangen wir mit dem Brennstoff an. Es sind [TRISO] (TRISO) Brennelemente vorgesehen. Dieser Brennstofftyp ist bereits in mehreren Ländernerfolgreich angewendet worden. Diese Brennelemente überstehen problemlos Temperaturen von 1800 °C. Dadurch sind solche Reaktoren inhärent sicher. Gemeint ist damit, daß die Kettenreaktion auf jeden Fall infolge des Temperaturanstiegs zusammenbricht und eine Kernschmelzedurch die Nachzerfallswärme (Fukushima) ausgeschlossen ist. Man braucht somit keine Notkühlsysteme, dies spart Kosten und vor allem: Was man nicht hat, kann auch nicht kaputt gehen oder falsch bedient werden. Der Sicherheitsgewinn ist dadurch so groß, daß sich alle denkbaren Unfälle nur auf den Reaktor und sein schützendes Gebäude beschränken. Nennenswerte Radioaktivität kann nicht austreten und damit beschränken sich alle Sicherheitsanforderungen nur noch auf das Kraftwerksgelände selbst. Eine „revolutionäre Feststellung“, der sich die Genehmigungsbehörden langsam anschließen. Dies hat erhebliche Auswirkungen auf die möglichen Standorte, Versicherungsprämien etc. Ein nicht mehr umkehrbarer Schritt auf dem Weg zu einem „normalen Kraftwerk“ oder einer „üblichen Chemieanlage“. Die Errichtung solcher Reaktoren in unmittelbarer Nähe zu Städten (Fernwärme) oder Industrieanlagen (Chemiepark, Automobilwerk etc.) ist nur noch eine Frage der Zeit.

Als Kühlmittel ist Helium vorgesehen. Der Reaktorkern wird aus sechseckigen Brennelementen als massiver Block aufgebaut. Mit dieser Technik besitzt GB eine jahrzehntelange Erfahrung. Kein Land besitzt mehr Betriebsjahre mit Reaktorgraphit. Der Vorteil gegenüber einem Kugelhaufen sind definierte Kanäle für das Kühlmittel und die Regelstäbe. Vor allen Dingen ergibt sich aber kein Staubproblem aus dem Abrieb der Kugeln während des Betriebs. Die notwendigen Rohrleitungen und das Gebläse zur Umwälzung des Heliums bleiben sauber. Dies erleichtert etwaige Wartungs- und Reparaturarbeiten. Der komplette Reaktor kann in einer Fabrik gebaut und getestet werden und mit einem LKW einsatzbereit auf die Baustelle gebracht werden.

Als Brennstoff dient angereichertes Uran. Die Anreicherung (< 20% U235) erlaubt einen mehrjährigen Betrieb ohne einen Brennstoffwechsel („Batterie“). Ob der Brennstoff vor Ort im Kraftwerk gewechselt werden muß oder der gesamte Reaktor zurück zum Hersteller gebracht werden kann, ist noch nicht abschließend geklärt (Strahlenschutz). Der Ansatz einer „Batterie“ verringert jedenfalls die Größe eines etwaigen Brennelementenlagers am Kraftwerk und schließt eine mißbräuchliche Nutzung praktisch aus (Proliferation). Damit ist ein solches Kraftwerk auch problemlos in „zwielichtigen Staaten“ einsetzbar. Ferner verringert sich der Personalaufwand im Kraftwerk. Ein solches Kraftwerk wäre halbautomatisch und fernüberwacht betreibbar. Was den Umfang des erforderlichen Werkschutzes anbelangt, sind die Genehmigungsbehörden noch gefragt. Eine Chemieanlage — egal wie gefährlich — kommt heutzutage mit einem üblichen Werkschutz aus, während von Kernkraftwerken erwartet wird, eine komplette Privatarmee zu unterhalten. Alles Ausgeburten von „Atomkraftgegnern“ um die Kosten in die Höhe zu treiben. Verkauft wird so etwas als Schutz gegen den Terrorismus.

Der konventionelle Teil

Man plant keinen Dampfkreislauf, sondern eine Gasturbine als Antrieb des Generators. Kein ganz neuer Gedanke, aber bisher ist z. B. Südafrika an der Entwicklung einer Heliumturbine gescheitert. Helium ist thermodynamisch zu eigenwillig und außerdem ist bei einem Kugelhaufenreaktor mit einer radioaktiven Staubbelastung zu rechnen. Bei der U-Battery hat man sich deshalb für einen sekundären Kreislauf mit Stickstoff entschieden. Vordergründig kompliziert und verteuert ein zusätzlicher Wärmeübertrager zwischen Reaktorkreislauf (Helium) und Turbinenkreislauf (Stickstoff) das Kraftwerk, aber man hat es sekundärseitig nur noch mit einem sauberen und nicht strahlenden Gas zur beliebigen Verwendung zu tun. Stickstoff ist nahezu Luft (rund 78% N2) und man kann deshalb handelsübliche Gasturbinen verwenden. Auch an dieser Stelle erscheint das wirtschaftliche Risiko sehr gering. Der Wärmeübertrager Helium/Stickstoff übernimmt lediglich die Funktion der Brennkammer eines Flugzeugtriebwerkes (Leistungsklasse). Bei der vorgesehenen hohen Temperatur von 750°C des Stickstoffs bleibt nach der Turbine noch jegliche Freiheit für die Verwendung der Abwärme (Fernwärme, Prozessdampf etc.). Die immer noch hohe Temperatur am Austritt einer Gasturbine erlaubt problemlos eine Kühlung mit Umgebungsluft ohne große Verschlechterung des Wirkungsgrades. Ein immenser Vorteil für alle ariden Gebiete.

Die Projektierer

Eine zügige Verwirklichung scheint durch die Zusammensetzung der beteiligten Unternehmen nicht unwahrscheinlich: Amec Foster Wheeler (über 40000 Mitarbeiter in 50 Ländern) mit umfangreicher Erfahrung in Öl- und Gasprojekten. Cammel Laird als Werft. Laing O’Rourke als Ingenieurunternehmen. Atkins für Spezialtransporte. Rolls Royce als international führender Produzent von Gasturbinen (Flugzeuge und Schiffe), darüberhinaus mit umfangreicher Erfahrung in der Kerntechnik.

Bemerkenswert ist die Ausweitung des Projektes auf den Commonwealth. Kanada und Indien sind bereits dabei. Läßt der „Brexit“ hier grüßen? Nach bisherigem Stand der Dinge, könnte der erste Reaktor in Chalk River in Kanada gebaut werden. Dies ist auch kein Zufall, da in Kanada bereits über 200 potentielle Standorte für einen solchen MMR ermittelt wurden. Für diese potentiellen Kunden ist bereits ein neuartiges Geschäftsmodell in Arbeit: Sie bezahlen nur die gelieferte Wärme und und die elektrische Energie. Das Kraftwerk wird dann von einer Zweckgesellschaft finanziert, gebaut und betrieben. So kann dem Kunden das wirtschaftliche Risiko abgenommen werden. Es ist nicht anzunehmen, daß irgendein Bergwerk oder eine Ölraffinerie bereit ist in das „Abenteuer Kerntechnik“ einzusteigen. Andererseits sind solche sog. „Betreibermodelle“ in der einschlägigen Industrie lange bekannt und erprobt.

Noch ein paar Daten

Der Reaktor hat einen Durchmesser von etwa 1,8 m und eine Länge von etwa 6 m. Er ist damit problemlos auf einem LKW transportierbar. Das Helium soll einen Betriebsdruck von ca. 40 bar haben und eine Austrittstemperatur von 750 °C. Damit ergibt sich eine notwendige Wandstärke von unter 100 mm. Dies ist wichtig, weil hierfür keine speziellen Schmieden bzw. Rohlinge erforderlich sind. Nur wenige Unternehmen weltweit können demgegenüber Druckbehälter für Leichtwasserreaktoren schmieden.

Als Brennstoff soll auf knapp 20% angereichertes Uran (high assay, low enriched uranium (HALEU)) verwendet werden. Damit werden die TRISO-Kügelchen hergestellt, die zu Tabletten mit einer Höhe von ca. 40 mm und einem Außendurchmesser von ca. 26 mm gepreßt werden. Aus diesen werden die sechseckigen Brennelemente mit einer Kantenlänge von 36 cm und einer Höhe von 80 cm aufgebaut. Sie enthalten alle Kanäle für Regelstäbe, Instrumentierung usw. Der Kern des Reaktors besteht aus je 6 Brennelementen in 4 Lagen übereinander. Er beinhaltet etwa 200 kg Uran. Dies reicht für einen ununterbrochenen Vollastbetrieb von 5 Jahren.

Eine Doppelblockanlage (2 x 4 MWel) erfordert einen Bauplatz von ca. 10 x 12 m (Reaktoren, Wärmeübertrager und Turbinen im „Keller“, Halle für Wartungsarbeiten darüber). Hinzu käme noch Platz für Schaltanlagen, Kühler, Büros etc.

Es wird von Baukosten zwischen 45 bis 78 Millionen € für eine Doppelblockanlage ausgegangen (5600 bis 9750 €/KW). Das mag auf den ersten Blick hoch anmuten, aber man bewegt sich mit dieser Leistung von 8 MWel im Marktsegment der sog. Dieselmotoren-Kraftwerke. Hinzu kommen in entlegenen Standorten noch die meist höheren Kosten für den Dieselkraftstoff. Der für die „U-Battery“ ermittelte Strompreis von 9 Cent/KWh dürfte somit für den angepeilten Kundenkreis sehr attraktiv sein.

Inzwischen gibt es eine sehr enge Kooperation zwischen Kanada und GB. Ein paralleles, aber kooperatives Genehmigungsverfahren zeichnet sich ab. Weiterhin sind Indien, Japan, Polen, USA und Neuseeland bereits mit im Boot. Vielleicht schon die erste Morgendämmerung, wohin die Reise von GB nach dem Brexit geht? Jedenfalls nicht in das Rest-Europa, in dem unsere Kanzlerin so gut und gerne lebt.




Die „parallele Logik“ für eine Dekarbonisierung der Welt

Eine kritische Würdigung dieser Sendung ist hier auf EIKE zu finden.

Dieses große Lob gilt allein dem MONITOR-Forum, das gegenwärtig eine sachliche und sehr konträre Diskussion zwischen Befürwortern und Gegnern eines vorgeblich menschengemachten Klimawandels ermöglicht. Diese Diskussion wurde von der Redaktion zunächst mit einer Beschreibung der besagten Sendung eröffnet, also mit dem üblichen Skeptiker-Bashing. Aber dann, man lese und staune, konnten dort auf dem MONITOR-Forum konträre Ansichten völlig unzensiert ausgetauscht werden, wie es die dortigen Spielregeln versprechen, Zitat vom MONITOR-Forum:

Mitdenken. Mitreden. Mitstreiten.
Das MONITOR-Forum soll eine freie und unzensierte Plattform sein. Um Missbrauch zu verhindern wird das Forum moderiert – die Einträge werden erst nach vorheriger Kontrolle durch die Redaktion veröffentlicht. Wir bitten um Ihr Verständnis – und ggf. etwas Geduld
.“

Respekt, in diesem MONITOR-Forum werden vom Klimamainstream abweichende Meinungen tatsächlich nicht unterdrückt. Und damit kann man die Hoffnung verbinden, dass dieses Beispiel in der gesellschaftlichen Diskussion Schule machen möge. Denn man hebt eine gesellschaftliche Spaltung nicht auf, indem man einer kritischen Minderheit den Mund verbietet.

Im Verlauf dieser Diskussion auf dem MONITOR-Forum wurde aus der Vorgehensweise in der Studie “Quantifying the consensus on anthropogenic global warming in the scientific literature” von Cook at al. (2013) über einen 97%-Konsens für den vorgeblich menschengemachten Klimawandel (Anthropogenic Global Warming = AGW) eine „parallele Logik“ abgeleitet. Diese  „parallele Logik“ wurde dann als derjenige Hütchentrick entlarvt, mit dem aus einer verketteten Aussage (1)->(2)->(3) die verständnisstiftende Bezugsgröße (2) entfernt wird, um damit dann in der Öffentlichkeit eine „parallele Wahrheit“ (1)->(3) verbreiten zu können:

(1)    Zunächst wird eine Gruppe als 100%-Gesamtmenge (1) untersucht. Aus der zugrunde liegenden Fragestellung ergeben sich dann mehrere Teilmengen mit einem jeweils einheitlichen Spezifikum, die in ihrer Summe wiederum diese 100% ergeben.

(2)    Dann wird eine beliebige Teilmenge(2) mit einem ganz bestimmten Spezifikum ausgegliedert (1)->(2) und als neue 100%-Basis einer näheren Untersuchung unterzogen. Deren prozentuale Unter-Teilmengen beziehen sich dann in Summe ausschließlich auf die ausgegliederte Teilmenge (2).

(3)    Am Ende wird für eine dieser Unter-Teilmenge eine Aussage (3) abgeleitet und mit einem Prozentsatz aus der 100%-Teilmengenbasis (2) belegt, wobei der originäre Bezug (1)->(2)->(3) für den Wahrheitsgehalt dieser Aussage von entscheidender Bedeutung ist.

(4)    Die aus (1)->(2)->(3) abgeleitete Aussage bleibt also nur so lange wissenschaftlich gültig, wie die „Umetikettierung“ in Punkt (2) nicht verloren geht oder unterdrückt wird.

(5)    Und jetzt kommt der Hütchentrick der „parallelen Logik“ zum Tragen: Früher oder später wird die Aussage (1)->(2)->(3) einfach ohne die zwingende Einschränkung aus (2) direkt mit der ursprünglichen Gesamtmenge aus (1) in Beziehung gesetzt und führt zu einer ganz neuen „parallelen Wahrheit“ (1)->(3).

Vergleichen wir nun diese „parallele Logik“ mit dem Ergebnis von Cook et al. (2013):

(1)    Es wurden die Zusammenfassungen von 11.944 wissenschaftlichen Arbeiten aus der begutachteten wissenschaftlichen Literatur auf Aussagen zu AGW untersucht.

(2)    66,4 Prozent der Zusammenfassungen machten keine Angaben zu AGW und die verbleibenden 32,6 Prozent mit einer Position zu AGW wurden näher untersucht.

(3)    Von diesen 32,6% mit Aussagen zu AGW bestätigen 97,1% die AGW-Theorie.

Inzwischen wird das Ergebnis der Studie von Cook et al. (2013) aber öffentlich als 97%-Zustimmung aus der Gesamtmenge der dort untersuchten Klimaartikel und als Beweis für einen wissenschaftlichen 97%-AGW-Konsens verbreitet, so beispielsweise auch von Cook et al. (2016) selbst, wo man in der Kernaussage von allen publizierenden Klimawissenschaftlern spricht.

Die Differenz zwischen Propaganda und Wissenschaft beträgt am Beispiel von Cook et al. (2013) also genau 65,4%, nachfolgend der Beweis mittels konventioneller Logik:    

„Parallele Logik“ [%]: (1)->(3) mit 97,1% Zustimmung ohne Hinweis auf (2)

Konventionelle Logik [%]: (1)->(2)->(3) mit 97,1% Zustimmung aus 32,6% (1) = 31,7%

 [97,1% von Cook (2013) @Teilmenge(2)] – [31,7% von Cook (2013) @Gesamtmenge(1)] = 65,4%

Die mathematische Analyse verfügt genauso wenig über eine „parallele Logik“, wie sich die Wissenschaft selbst eine „höhere Wahrheit“ zuschreiben kann. Vielmehr hat sich die Wissenschaft im historischen Rückblick immer mehrheitlich mit demjenigen gesellschaftlichen System arrangiert, in dem sie tätig geworden ist. Die Unterscheidung zwischen Wahrheit und Ideologie unterliegt daher jedem Einzelnen von uns selbst. Man kann also entweder selbständig nachdenken, oder man muss eben alles glauben, was einem so erzählt wird.

Merke: „Wer nichts weiß, muss alles glauben(Marie von Ebner-Eschenbach)

Das 97-Prozent-Problem war übrigens schon vor langer Zeit einmal Thema hier im KS-Blog.

Der Beitrag erschien zuerst bei die kalte Sonne hier




Das Sommertheater im Juli und andere Klima-Phantasien

Sehr geehrter Herr Limburg,

unser  Bericht über die Sonnenaktivität im Juli zeigt erneut, dass die Sonnenfleckenzahl mit 1,6  im langjährigen Vergleich außerordentlich schwach war. Dies gilt insgesamt für den im Dezember 2008 begonnenen und etwa noch 1 Jahr andauernden Sonnenzyklus, der seit 200 Jahren die schwächste Sonnenaktivität aufweist. Klimatisch wird das deswegen bedeutsam, weil auch der nächste Zyklus, der etwa bis 2030 andauern wird, sehr schwach zu werden droht.Die Auswirkungen werden wir erst mit einem Zeitverzug von einigen Jahren feststellen können. Aussagen über klimatische Einflüsse natürlichen oder anthropogenen Ursprungs kann man eben nur über eine Zeitdauer von 30 Jahren und mehr treffen.

Das Sommertheater im Juli

In der Hitze des nordeuropäischen Sommers hatte man einen anderen Eindruck. Da reichte schon ein heisser Juli in einer Region des Erdballs, um den letzten Beweis der Klimakatastrophe hervorzuzaubern.
„In 17 Jahren Wettervorhersage habe ich so etwas noch nicht erlebt“, echauffierte sich der Meteorologe Özden Terli im ZDF.
Das ist schlicht falsch. Im Juli 2015 war es auf der Nordhalbkugel wärmer, im Juli 2016 ebenso und auch im Juli 2017 war es wärmer. Und der Juli 2006 war in Deutschland  deutlich wärmer.

Temperaturen im Sinkflug

Entscheidend ist die globale Mitteltemperatur. Und da sind wir in 2018 im Sinkflug. Auch der August 2018 hat das eindrucksvoll belegt. Die heute bekanntgegebenen Daten der satellitengestützen UAH-Messungen für August zeigen nur noch eine um 0,19 °C  große Abweichung vom 30-jährigen Mittelwert. Ich werde mich nicht hinreißen lassen, daraus voreilige Schlüsse zu ziehen. Aber das, was sich grüne Alarmisten in  Politik, Wissenschaft und Medien an Sommertheater geleistet haben, ist nur noch zu subsumieren unter „Der Zweck heiligt die Mittel“.

Kippelemente für eine angstgeleitete Politik

Das gilt auch für  eine Arbeit, die in der Schwüle des Juli Furore machte. Eine Reihe von Wissenschaftlern um den bekannten Hans Joachim Schellnhuber ( die Arbeit wurde am 19. Juni eingereicht und am 6. Juli akzeptiert, ein neuer Sprintrekord zwischen Abgabe und Annahme) entwerfen darin eine Szenario, in dem bestimmte Kippelemente das Klima der Erde in neue, unentrinnbare heiße Gleichgewichte treiben. Das Entscheidende steht in der Schlussfolgerung : Zu vermeiden geht das nur durch eine neue „Erdsystemverwaltung“. Der Leser war gespannt auf Berechnungen, Softwarecodes, empirische Herleitungen- und findet nichts dergleichen. Reine Spekulation.Science Fiction. Hokus-Pokus.

Die Temperaturtrends bleiben konstant

Es bleibt dabei : trägt man Jahr für Jahr seit 1960 den Trend der ansteigenden Temperaturen auf, also von 1960 bis 1990, 1961 bis 1991, bis hin zu  1988 bis 2018, dann bleiben die Steigungen bei 1,6 bis 1,8 C pro Jahrhundert seit dreissig Jahren konstant. Da müsste man keine grosse Angst haben, vor dem was uns in diesem Jahrhundert erwartet. Das sagt uns die Empirie. Da braucht man Kippelemente aus der Science Fiction-Welt, um uns zu einer angstgeleiteten Politik zu verführen.

WGBU fordert Klimapass

Wie schlimm die Instrumentalisierung von Politik durch Klimawissenschaft und umgekehrt  geworden ist, zeigt eine brandneue Studie des WGBU (Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen) Zeitgerechte Klimapolitik -Vier Intitiaven für Fairness.
Vorsitzender des Beirats ist Prof. Schellnhuber. Der Beirat berichtet direkt an die  Bundesregierung  und empfiehlt ihr Klimapässe für klimabedingte Migranten und Migrantinnen auszustellen. Der Klimapass „soll den einzelnen Menschen in die Lage versetzen, frei über seine Fortwanderung zu entscheiden“. Der WGBU geht von „Schätzungen für globale umweltbedingte Migration bis zum Jahr 2050 von 25 Mio. bis zu 1 Mrd. betroffenen Personen“ aus.“Schier unerträglich ist die Vorstellung, dass Millionen Klimamigrant*innen in den kommenden Jahrzehnten auf kriminelle Schlepperorganisationen angewiesen wären“. „In einer ersten Phase sollte der Klimapass den Bevölkerungen kleiner Inselstaaten, deren Staatsgebiet durch den Klimawandel unbewohnbar werden dürfte, frühzeitige, freiwillige und humane Migrationswege eröffnen. Mittelfristig sollte der Pass auch massiv bedrohten Menschen anderer Staaten, einschließlich Binnenvertriebener, zur Verfügung stehen. Als Aufnahmeländer sollten sich Staaten mit erheblichen historischen wie heutigen Treibhausgasemissionen und somit großer Verantwortung für den Klimawandel engagieren.“ Als kurzfristigen ersten Schritt schlägt der WGBU vor :“ Im Rahmen der 24. Klimakonferenz in Katowice (im Dezember 2018,d.Verf.) sollte die Bundesregierung als Vorreiterin potenzieller Aufnahmeländer den Klimapass als Angebot für die Bevölkerung flacher Inselstaaten vorschlagen“.

Flächenvergrößerung in Tuvalu

Erneut geht es mehr um Science Fiction. Denn es gibt mehrere Arbeiten der jüngsten Vergangenheit, die ein „Untergehen“ vieler Inselstaaten ausschließen, sondern ehereine Flächenvergrößerung feststellen.
Es lohnt sich das Politikpapier ( so nennen es die Wissenschaftler) nachzulesen, um das krude Denken derjenigen aufzuspüren, die mit allen Mitteln eine „Große Transformation“ herbeisehnen. Adressat ist die Bundesregierung, die das Papier in Person der Bundesumweltministerin Schultze und dem Wissenschaftstaatsekretär Schütte brav entgegennahmen und versprachen, die Vorschläge zu prüfen.
Es ist schlimm, wie dilettantisch unsere Bundesregierung agiert, es ist schlimm,wie eindimensional sie Kommissionen besetzt und es ist schlimm, dass niemand in dieser Bundesregierung den Mut hat, Vorschläge, die auf falschen Behauptungen beruhen, als das zu bezeichnen, was es ist : politische Propaganda sich selbst überschätzender Wissenschaftler.
Niemand widerspricht. Es ist unfassbar.

Herzlichst
Ihr
Fritz Vahrenholt




Die Modellrechnung

Zeitlich abgestimmt auf die Arbeit der „Strukturwandelkommission“, umgangssprachlich als „Kohlekommission“ und in interessierten Kreisen als „Kohleausstiegskommission“ bezeichnet, präsentiert das Deutsche Institut für Wirtschaftsforschung (DIW) eine Studie mit Modellrechnungen zum zügigen Kohleausstieg, vor allem in Nordrhein-Westfalen. Nachdem öffentlich wurde, dass der Strukturwandel durch einen Kohleausstieg die Lausitz härter treffen würde als das Rheinland, richtet das DIW nun Kimme und Korn nach Westen. Die Hoffnung, die Reviere würden künftig ihre Forderungen konfrontativ stellen („Nein, fangt ihr an“), dürfte sich indes kaum erfüllen.

Der „Wochenbericht  33“ des DIW vom 15. August enthält den Beitrag „Erfolgreicher Klimaschutz durch zügigen Kohleausstieg in Deutschland und Nordrhein-Westfalen“und stellt nicht weniger als die Erreichung von Emissionszielen und mithin die Weltrettung der Bundesregierung und der Regierung in NRW anheim. Zu Beginn wird schlechtes Gewissen gemacht: Steinkohle und Braunkohle in Deutschland trügen mehr als ein Viertel zu den deutschen Treibhausgasemissionen bei. Verschwiegen wird, dass dafür 40 Prozent des Strombedarfs gesichert werden. Zudem stünden in NRW die meisten und ältesten Kohlekraftwerke und der Beitrag der erneuerbaren Energien zur Stromerzeugung betrüge derzeit nur 12,5 Prozent und sei somit „weit unterhalb des Bundesdurchschnitts von 36 Prozent“. Nachholbedarf wird gesehen.

Einen Blick auf die Ursachen wirft das DIW nicht, die Wissenschaftlichkeit des Berichts bleibt knapp über der Rasenoberkante. Hat der Anteil der Regenerativen in den Bundesländern vielleicht auch mit der geografischen Lage und mit der Bevölkerungsdichte zu tun? 524 Menschen teilen sich in Binnenland NRW einen Quadratkilometer, in Mecklenburg-Vorpommern sind es nur 69. Abstandsregeln für Windkraftanlagen sind für das Institut ohnehin kein Thema. Die Regierung in Düsseldorf versucht gegenwärtig, ihrer Vorsorgeverpflichtung gegenüber der Bevölkerung besser als ihre Vorgänger nachzukommen und will die Abstände erhöhen.

Präsentiert wird eine Modellrechnung für drei Pfade. Ein Referenzmodell, das die Entwicklung ohne politische Eingriffe beschreibt und zwei schärfere Ausstiegsvarianten. Das erinnert mich an Bertolt Brechts „Ballade von der Unzulänglichkeit menschlichen Planens“:

Ja, mach nur einen Plan!
Sei nur ein großes Licht!
Und mach dann noch’nen zweiten Plan
Gehn tun sie beide nicht.

Die zwei beschleunigten Ausstiegspfade orientieren sich an den Vorschlägen zu frühzeitigen Stilllegungen von Kohlekraftwerken bis zum Jahr 2020, welche rund um die Jamaika-Sondierungen im November 2017 diskutiert wurden. Mit anderen Worten: Ein halbgarer politischer Kompromiss dient als Grundlage einer „wissenschaftlichen“ Betrachtung.

Da die berechneten Abschaltungen nicht die Emissionen ausreichend senken, sollen weiter laufende Kraftwerke auf 4.000 Betriebsstunden pro Jahr begrenzt werden. Natürlich wird kein Gedanke daran verschwendet, dass dann wirtschaftlicher Betrieb nicht mehr denkbar ist und eine Subventionierung nötig wäre. Generell wird der ökonomische Aspekt des ganzen Vorhabens standhaft ignoriert, ein geistiges Armutszeichen für ein Institut, das sich der „Wirtschafts“forschung verschrieben haben will.

„Zurzeit wird ein Teil des deutschen Kohlestroms ins Ausland exportiert.“Nein, liebe Laien, es wird Strom exportiert. Man kann ebenso wenig nur Kohlestrom exportieren, wie man nur Ökostrom beziehen kann. Im Netz ist immer ein Strommix aus verschiedenen Quellen. Klingt komisch, ist aber so. Zudem wird manchmal mit Strom gehandelt und manchmal ist der Export pure Verzweiflung zum Zweck der Netzrettung, was sogar zu negativen Strompreisenim Großhandel führt. Dies passiert mit schöner Regelmäßigkeit, wenn viel Wind bläst und oder viel Sonne scheint. Dann können trotzdem nicht alle Kohlekraftwerke abschalten, weil immer noch jemand regeln und die Netzdienstleistungen bereitstellen muss, wozu die Regenerativen nicht in der Lage sind. So gesehen wird dann vor allem regenerativ erzeugter Strom exportiert.

Auf ähnlich dünner Basis geht es weiter. Bei den absehbaren Versorgungsproblemen durch Atom- und Kohleausstieg bei gleichzeitiger Sektorkopplung erspart man sich Berechnungen, sondern bleibt wolkig und schiebt die Verantwortung in Richtung Politik:

„Im Zuge einer verstärkten Verzahnung der Sektoren Strom, Wärme und Verkehr könnte die jährliche Spitze der Stromnachfrage entsprechend steigen. Die zunehmende Elektrifizierung sollte daher von einer adäquaten technologischen, marktlichen, ordnungsrechtlichen und regulatorischen Rahmensetzung flankiert werden. Diese sollte darauf hinwirken, dass gleichzeitig auftretende Spitzen der Stromnachfrage in den gekoppelten Sektoren vermieden oder zumindest gemildert werden.“

Im Klartext bedeutet dies, eine Rationierung einzuführen. Heizen und E-Mobil laden nur mit entsprechend genehmigtem Budget. Oder Wäsche waschen statt Heizen. Oder Auto laden statt Wäsche waschen. Energiearmut ist abzusehen, die verfügbare Strommenge wird sinken, die Preise werden steigen. Aber steigende Kosten bei eingeschränkter Versorgung für die Verbraucher sind kein Thema für das DIW. Stattdessen versteigt sich Frau Professor Kemfert zu der abwegigen Vorhersage, dass der Strom in Zukunft absehbar billigerwerden würde. Das war 2016 und es gibt wirklich keine Anzeichen, die diese aus der Luft gegriffene Prognose stützen würde. Wir sind Strompreis-Europameister beim Haushaltsstrom und Vizemeister beim Industriestrompreis. Im Jahr 2011 weissagte „Miss Energiewende“ (ZEIT) nach einem Blick in die grünglasige DIW-Prognosekugel eine EEG-Umlage für 2020 von 3,64 Cent pro Kilowattstunde. Wir werden sehen.

Das Thema Versorgungssicherheit schiebt man ebenso ab:

„Einerseits kann der Gesetzgeber verstärkt angebots- und nachfrageseitige Potentiale zur Flexibilisierung heben. Hierzu zählen beispielsweise Großbatteriespeicher . . .“.

Auch hier hätte man rechnen können. Keine Angabe zu nötigen Kapazitäten, verfügbaren Technologien, Preisen, Kosten, Betreibern, Standorten und notwendigen Terminen von Inbetriebnahmen. Wirklich alles von dem, was der „Wochenbericht“ vorschlägt, müsste über „Politikmaßnahmen“ reguliert werden und ließe sich nicht über den Markt herbeiführen. Energetischer Staatsdirektionismus soll Markt ersetzen. Bisher hat Plansozialismus realwirtschaftlich noch nie nachhaltig funktioniert.

Wirtschafts-Voodoo statt Wissenschaft

Dringend notwendige Berechnungen erspart sich das Institut. Was hätte man alles modellrechnen und berücksichtigen können?

–      Wie werden die deutschen wegfallenden Kapazitäten ersetzt?

  • Wie gehen die gesicherten Kapazitäten in den Nachbarländernzurück?
  • Anmerkung der Redaktion: Wie die europäischen gesicherten Kapazitäten zurückgehen hätte das DIW bei der EU erfragen oder hier der Zeitung „Die Welt“ entnehmen können. Haben sie aber nicht, das wäre zwar wissenschaftlich gewesen, hätte aber das gewünschte Ergebnis zerstört. Mit Dank an Leser Ordowski für den Hinweis
  • Welcher Speicherbedarf entsteht durch weiteren Zubau volatiler Einspeisung?
  • Welcher Strombedarf entsteht durch die Sektorkopplung? Welcher Netzausbaubedarf entsteht dadurch?

–      Was kostet das Ganze und wie hoch ist der Preis für eine Tonne CO2-Vermeidung? Wenn dieser höher ist als der Zertifikatspreis, wäre es sinnvoller, diese aufzukaufen und zu löschen.

Stattdessen bemüht das DIW den Adam Riese ausschließlich für den mathematischen Zusammenhang zwischen Kohlekraftwerksleistung und CO2-Emission, geht in die Prosa und erzählt vermeintlich positive Nebenwirkungen. Der schützenswerte Wald von Hambach könne erhalten bleiben, wenn der Tagebau nicht kommt. Was die Autoren denken, aber nicht schreiben: Dann kann man auch in diesen Wald Windkraftanlagen stellen. Der Tagebau Inden soll nicht bis 2030 betrieben werden, sondern schon 2020 schließen. Wer dann die Rekultivierung bezahlen soll, wenn der Betreiber dafür keine Rücklagen mehr bilden kann, wird nicht ausgeführt. Ökonomisches Denken ist nicht die Stärke der beauftragten Wirtschaftsvisionäre.

Auch sei die Nichterreichung der Senkungsziele im Gebäude- und Verkehrssektor nicht so schlimm, wenn man nur mehr Kohlekraftwerke abschaltet. Die wurden vermutlich nur zur CO2-Erzeugung gebaut.

 

Der Chef des DIW, Professor Fratzscher, bezeichnete höchst selbst die Energiewende  als „Experiment“(1). Seine Subalternen wollen aus einem laufenden Experiment heraus konkrete Entscheidungen für die Zukunft zimmern.

Kein Institut, außer dem DIW, kann davon leben, sich beim Thema Energie ausschließlich mit dem Kohleausstieg zu beschäftigen. Die Antwort auf die Frage, woher das Geld für diesen „Wochenbericht“ kommt, den man angesichts der flachen Qualität nicht mal als Gefälligkeitsgutachten bezeichnen kann, ist naheliegend.

Inzwischen schlägt die EU neue „Klimaziele“ für 2030 vor. 45 statt 40 Prozent sollten nun eingespart werden. Damit dürfte der nächste DIW-Wochenbericht zum noch schnelleren, ehrgeizigeren, entschlossenerem,  mutigeren, progressiveren Kohleausstieg nicht lange auf sich warten lassen. Mit dem zu erwartendem Fazit: Problemlos möglich, wenn nur die Politik endlich schnell, ehrgeizig, entschlossen, mutig und progressiv handeln würde.

Die alles entscheidende Berechnung bleibt das DIW in seinen Modellrechnungen ohnehin schuldig: Wie viel Grad globale Erwärmung werden durch die angepeilte Emissionssenkung vermieden?

1)Marcel Fratzscher „Die Deutschland-Illusion“, S. 96




Schwimmflügel für die Kernkraft

Russland befüllt jetzt mit den notwendigen Brennelementen das erste schwimmende Kernkraftwerk zur Versorgung von Verbrauchern an Land  Es ist die Akademik Lomonossow, deren Reaktoren von 2 x 35 MW Weiterentwicklungen der im jahrzehntelangen Einsatz befindlichen Reaktoren der russischen Eisbrecherflotte sind. Insbesondere asiatische Inselstaaten melden Interesse an.

Von Petr Zikmund.

Ende Juli begann im Nordhafen Murmansk die Beladung des weltweit einzigen schwimmenden Kernkraftwerks mit Brennstoff (Die Achse berichtete bereits). Das einzigartige Projekt zieht eine erhöhte Aufmerksamkeit auf sich: Mobile Atomkraft auf dem Wasser – lohnt sich das und ist es überhaupt sicher? Greenpeace nimmt seine übliche Position. Rosatom setzt sich für die Sicherheit des Projekts ein und erwartet, dass daraus ein Exportschlager wird.

Ab 2019 wird das schwimmende Atomkraftwerk Akademik Lomonossow, das erste seiner Art, mit der Strom- und Wärmeversorgung der Hafenstadt von Pewek im Nordosten Sibiriens beginnen, wo es zwei technologisch veraltete Erzeugungsanlagen ersetzen wird: das Atomkraftwerk Bilibino und das Wärmekraftwerk Tschaunskaja. Damit wird es zum nördlichsten Atomkraftwerk der Welt.

Zuvor wurde das Reaktorschiff, 144 Meter lang und 30 Meter breit, mit Hilfe von Schleppern durch die Ostsee von St. Petersburg, seiner „Wiege“, nach Murmansk transportiert – nun beladen dort die Experten von Atomflot, einer Tochtergesellschaft von Rosatom, die Reaktoren mit Kernbrennstoff. Die Akademik Lomonossow ist mit zwei Reaktoren mit je 35 MW Leistung ausgestattet (also beträgt die Gesamtkapazität der Anlage 70 MW), basierend auf den Technologien, die seit Jahrzehnten in Eisbrechern verwendet werden – naturgemäß angepasst und aktualisiert. Somit kann angenommen werden, dass die Zuverlässigkeit der Reaktoren von der Akademik Lomonossow durch langfristigen Betrieb der weltweit einzigen Atomeisbrecherflotte erwiesen ist. Diese Ansicht wird jedoch nicht von allen geteilt.

Greenpeace zeigt sich besorgt – seine Vertreter eifern anscheinend miteinander um die Wette, die Akademik Lomonossow in zwei oder drei Worten möglichst prägnant zu stigmatisieren, sie lefern sich sozusagen einen Wettbewerb um die beste Metapher. Die Spitzenanwärter:  „Tschernobyl auf Eis“ und “Nukleare Titanic“.

Im Allgemeinen halten sich die Umweltschützer an ihre traditionelle Rhetorik gegen Kernenergie und betonen, dass es sich um Kernreaktoren handelt, die nach ihrer Ansicht auf See noch mehr Risiken mit sich bringen. Besondere Bedenken verbindet der Greenpeace-Experte für Atomenergie Heinz Smital mit der von Russland geplanten Serienproduktion von schwimmenden Atomkraftwerken.

Geht die Akademik Lomonossow in Serie?

Bei Rosatom wiederum sieht man keinen Grund, die Sicherheit der Akademik Lomonossow zu bezweifeln: die Anlage sei mit hoher Sicherheitsreserve konzipiert, die alle möglichen Bedrohungen abdeckt und die Reaktoren gegenüber Tsunamis und anderen Naturkatastrophen unverwundbar macht. Offenbar gibt es hier einen direkten Bezug auf die Fukushima-Katastrophe im Jahr 2011, die, wie einst Tschernobyl, erhöhte Aufmerksamkeit auf nukleare Sicherheit und ihre Verbesserungsmöglichkeiten lenkte.

Die zwingende Notwendigkeit der Einhaltung aller Sicherheitsstandards, einschließlich der sicheren und umweltgerechten Behandlung der Brennstoffe, hebt Prof. Dr. Marco K. Koch, Vorstandsmitglied der Kerntechnischen Gesellschaft e.V., Leiter der Arbeitsgruppe Plant Simulation and Safety an der Ruhr-Universität Bochum hervor: Kleine modulare Reaktoren (die insbesondere auf der Akademik Lomonossow installiert sind) besitzen gewisse Vorteile, meint der Experte, wie beispielsweise die Kombination von aktiven und passiven Sicherheitssystemen, erhöhte Kühlungschancen im Falle eines hypothetischen Störfalls sowie ein dynamischeres An- und Abfahrverhalten.

Welche Aussichten bestehen also für die Akademik Lomonossow, wenn das Schiff seinen Betrieb beginnt? Wird es „Nachfolger“ haben? Rosatom blickt optimistisch in die Zukunft: Generaldirektor Alexej Lichatschow meldete schon früher Interesse an schwimmenden Kernkraftwerken aus mehreren südostasiatischen Ländern. Konzepte kleiner modularer Reaktoren könnten für Länder mit Inselnetzen tatsächlich interessant werden, glaubt Prof. Dr.-Ing. Thomas Schulenberg, Leiter des Instituts für Kern- und Energietechnik (IKET) am Karlsruher Institut für Technologie: „Darunter verstehen wir Netze, die nicht verbunden sind wie in Europa, sondern lokal begrenzt“, erläutert er.

Hier ist auch die Finanzseite sehr wichtig – besonders wenn es Entwicklungsländer angeht: Ein Entwicklungsland habe große Probleme, eine Summe von 10 Milliarden Euro für ein großes Kernkraftwerk zu bekommen – einen Kredit für eine zehnmal kleinere Summe bekommt man deutlich einfacher, so Schulenberg. Auf diese Weise könnte der Einsatz gleichartiger Anlagen wie die Akademik Lomonossow auf lange Sicht zur Erweiterung des Klubs von Staaten führen, die die Atomenergie nutzen.

Der Autor Petr Zikmund ist Tscheche, lebt seit 2016 in Deutschland und arbeitet als freier Journalist mit den Schwerpunkten Energiepolitik, -wirtschaft und -versorgung. 

Übernommen von ACHGUT hier




Alleserklärer vom ZDF – Prof. Harald Lesch verwendet gefälschte Grafik

Von Michael Limburg mit Material vom Klimamanifest von Heiligenroth
Harald Lesch gibt gern den allwissenden, ehrlichen Wissenschaftler, der so viel mehr weiß als alle anderen, so dass er nichts dabei findet auch Kollegen – Wissenschaftler, die anderer Meinung sind, darüber zu belehren, dass sie von ihrer Materie keine Ahnung haben.

So auch bei einigen seiner jüngeren Vorträgen zum Klima und hier insbesondere den Kollegen, die im Buch „Die kalte Sonne“ den solaren Einfluss und die von ihm getriggerten atlantischen und pazifischen Strömungen als Haupttreiber für die Klimaänderungen der Vergangenheit ausgemacht hatten. Diese erklären die Temperaturschwankungen der Vergangenheit recht gut, jedenfalls wesentlich besser, als die dafür getunten Computermodelle, die grundsätzlich alle natürlichen Einflüsse weglassen, wie es uns der Meteorologe Schönwiese (siehe Video unten) vor einiger Zeit erklärte.

Anzunehmen, dass die Sonne maßgeblichen Einfluss hättte, wäre einfach absurd, meint jedoch der Klimaexperte Lesch, schließlich sei die Sonne der am Besten untersuchte Stern des Universums.

Um seine Zuhörer zu überzeugen, verwendet er dazu eine recht komplizierte Grafik mit diversen Zeitreihen, die zeigen sollen, dass die Sonne nicht der Treiber ist. Das Problem dabei. Die Grafik wurde verfälscht. Seine Grafik wurde so „getuned“, dass sie bis kurz hinter das Jahr 2015 reicht. Die Daten taten das aber nicht, sie enden bereits kurz hinter dem Jahr 1990. Eine grobe und ganz bewusste Fälschung:

Es fällt schwer zu glauben, dass dem Viel- und Besserwisser Lesch diese Fälschung nicht auffiel.

Video vom Klimamanifest von Heiligenroth über H. Leschs Erklärungen mit gefälschter Grafik und einigen Verdrehungen, Irreführungen und anderen Unklarheiten des ZDF-Vorzeige-Erklärers Harald Lesch

Das Klimamanifest von Heiligenroth schreibt dazu:

Denn wir hatten in der letzten Woche die Information erhalten, dass Harald Lesch in jedem seiner drei öffentlich-gehaltenen Vorträgen im Jahr 2018, die auch bei Youtube hoch geladen worden sind, eine gefälschte Grafik verwendet hat, die im Ursprung mit einer ganz anderen Aussage bei WIKIPEDIA.DE zu finden ist.

Diese kritische Behauptung haben wir natürlich sofort überprüft. Und wahrhaftig: Die WIKIPEDIA-Grafik war gefälscht, sogar sehr plump und dilettantisch  gefälscht und wir haben über unsere Recherchen und Erkenntnisse nun ein 32-minütiges Video erstellt, was den Sachverhalt im Detail erklärt..Zusätzlich im Video haben wir noch zwei weitere „Peinlichkeiten“über Harald Lesch thematisiert, die ebenfalls dokumentieren, wie Harald Lesch seine Zuschauer und Zuhörer mit definitiv falschen Fakten täuscht. So täuscht Harald Lesch in seinen Vorträgen seine Zuhörer über angebliche „Temperaturprognosen“ und im ZDF bei Markus Lanz über angebliche „Hitzerekorde im Sommer 2018„. Diese beiden Täuschungen werden in dem obigen Video von uns aufgedeckt.

Abgesehen von der Frage, ob Lesch die Grafik insgesamt als Fälschung hätte erkennen können oder nicht, hätte er aber erkennen müssen, dass in dem letzten Sektor der Grafik fünf Jahre fehlen und die Grafik deshalb alleine schon angreifbar gewesen ist. Die fehlenden fünf Jahre in der Skalierung des Schluss-Sektors hätten Lesch definitiv auffallen müssen, und deshalb hätte Lesch die Grafik niemals verwenden dürfen. Diesem Vorwurf kann sich Lesch nicht entziehen, auch wenn das Erkennen der Grafik als Gesamt-Fälschung womöglich, auf den ersten Blick jedenfalls, nicht so leicht möglich gewesen ist. Die fehlerhafte Skalierung aber hätte Lesch jederzeit auffallen müssen.

Vielleicht fiel ihm die Fälschung auch auf, und er brachte sie trotzdem, vielleicht fiel sie ihm nicht auf. Wer weiß das schon bei diesem vielbeschäftigten Mann? Wir können hier nur Vermutungen anstellen.

Allerdings nahm es Kollege Lesch auch in der Vergangenheit nicht immer mit der Wahrheit so genau, z.B. als er im Sommer 2016 fälschlich behauptete, er hätte versucht das EIKE Büro in Jena zu besuchen und „denen“ (also EIKE) hinterher telefoniert zu haben. Nichts davon war wahr.

Das Klimamanifest von Heiligenroth hat diese Fälschung und einige weitere Verdrehungen und Irreführungen des Harald Lesch in einem unglaublichen Video zusammen gefasst. Man muss es gesehen haben, um es zu glauben. Dem Leser, der uns auf diese Fälschung aufmerksam machte sei an dieser Stelle herzlich gedankt. Er wird auch im Abspann des obigen Videos anonymisiert dankend genannt.

Es wäre auch wohl sehr hilfreich, wenn jeder, der das obige Video gesehen hat, eine Mail an das ZDF schreibt, damit das ZDF durch öffentlichen Druck dazu gezwungen wird, für Aufklärung in dieser Angelegenheit zu sorgen und dafür zu sorgen, dass Harald Lesch zu den Vorwürfen öffentlich Stellung nimmt.

Video nicht mehr verfügbar
Kurzversion des Videos (17 Minuten) vom Klimamanifest von Heiligenroth über H. Leschs Erklärungen mit gefälschter Grafik und einigen Verdrehungen, Irreführungen und anderen Unklarheiten des ZDF-Vorzeige-Erklärers Harald Lesch




Worüber hier niemand berichtet: Die australische Regierung verspricht, grüne Subventionen aufzugeben und Klimaziele zu ignorieren

Der neue australische Energieminister Angus Taylor hat eine neue Energiepolitik vorgestellt, die sich ausschließlich auf die Senkung der Strompreise konzentriert. In einem starken Signal wird die Regierung Morrison alle Anstrengungen zur Senkung der CO2-Emissionen aufgeben. Der Umzug kommt eine Woche, nachdem das Problem des Klimawandels die Absetzung des ehemaligen Premierministers Malcolm Turnbull ausgelöst hat. - The New Daily, 30. August 2018


Subventionen für erneuerbare Energien und Emissionsreduktionsziele werden durch eine Senkung der Strompreise unter der Regierung Morrison ersetzt. Der neue Energieminister Angus Taylor sagte, die Energiepolitik des Bundes sei "ein Durcheinander" gewesen und die Tatsache, dass die Preise gestiegen sind, während Blackouts anhalten, bedeutet, dass etwas "schrecklich schief gelaufen" ist. Der Daily Telegraph ist sich darüber im Klaren, dass Emissionsreduktion auch in der Energiepolitik keine zukünftige Rolle spielen wird. - The Daily Telegraph, 30. August 2018
 
 
Der neue Premierminister - der einen Kohleklumpen ins Parlament gebracht hat und Labour wegen "Koalaphobie" beschuldigte - wird von Kollegen unter Druck gesetzt, saubere Kohletechnologie zu unterstützen. Ob es um die Randplätze in Queensland, West Sydney oder Victoria geht, die Botschaft ist klar: Die Wähler wollen Maßnahmen zu Energiepreisen und nicht zu Emissionszielen. - Geoff Chambers, Der Australier, 28. August 2018



Erscheinungsbild – in eigener Sache!

von Redaktion
Beim Versuch einige Änderungen in unserem Webaufbau einzuführen, haben wir offensichtlich unbemerkt unser bisheriges Erscheinungsbild zerstört. Wir versuchen es sobald als möglich wieder herzustellen. Von Rückfragen, warum das jetzt anders aussieht, bitten wir abzusehen. Danke für Ihr Verständnis.




Weitere Nutzung für „Atommüll“

Zwischen dem Betreiber von zwei Candu 6 Reaktoren in Quinshan TQNPC (China National Nuclear Corporation subsidy Third Quinshan Nuclear Power Company) und der kanadischen SNC-Lavalin wurde ein Vertrag zur Lieferung von Brennelementen aus 37M NUE (Natural Uranium Equivalent) abgeschlossen. Dies ist das Ergebnis einer mehr als zehnjährigen gemeinsamen Forschung und Entwicklungsarbeit. Seit 2008 werden im Reaktor QP III immer wieder NUE-Brennelemente als Dauertest eingesetzt. Diese praktischen Versuche dienten der Anpassung einiger Sicherheitsparameter und der Durchführung des Genehmigungsverfahrens. Jetzt sind die Arbeiten abgeschlossen und der Betrieb mit recyceltem Uran kann beginnen.

Die Reaktoren

Bei den Candu Reaktoren in Quinshan handelt es sich um mit schwerem Wasser (D2O) gekühlte und moderierte Reaktoren. Dieser Reaktor hat im Gegensatz zu Leichtwasserreaktoren keinen Druckbehälter in dem sich die Brennelemente befinden, sondern viele Druckröhren in denen jeweils nur eine Reihe einzelner Brennelemente stecken. Die Druckröhren sind waagerecht und sitzen wiederum in einem mit Schwerwasser gefüllten drucklosen Tank. Vorteil dieser Konstruktion ist, daß man kein dickwandiges Druckgefäß benötigt, sondern lediglich druckfeste Röhren von etwa 10 cm Durchmesser. Druckbehälter können nur eine Handvoll Schmieden weltweit fertigen. Deshalb kann diesen Reaktortyp z. B. Indien selbst herstellen. Als Nachteil erkauft man sich dieses Prinzip mit einem Gewirr von Rohrleitungen: Jede Druckröhre muß mit Vorlauf- und Rücklaufleitung mit den Dampferzeugern verbunden werden. Insgesamt ist die Herstellung aufwendiger und damit teurer.

Durch den Einsatz von Schwerwasser als Kühlmedium und Moderator gehen wesentlich weniger Neutronen verloren als bei Leichtwasserreaktoren. Man kommt deshalb mit Natururan als Brennstoff aus. Eine Anreicherung ist nicht nötig. Darüberhinaus ist das Konzept so flexibel, daß auch andere Brennstoffe wie Thorium oder eben abgebrannte Brennelemente aus Leichtwasserreaktoren eingesetzt werden können. (Siehe hierzu auch den Artikel Reaktortypen in Europa – Teil6, CANDU in diesem Blog.)

Die Wiederaufbereitung

Wenn Brennelemente „abgebrannt“ sind, müssen sie entnommen werden und durch frische Brennelemente ersetzt werden. Sie sind aber keinesfalls Abfall, sondern können und sollten recycelt werden. Auch in Deutschland war deshalb eine eigene Wiederaufbereitungsanlage nach dem PUREX-Verfahren vorgesehen. Übergangsweise hat man Brennelemente in Frankreich und GB aufbereiten lassen. Aus bekannten ideologischen Gründen ist man davon abgegangen. Der Kampf gegen das Atom ist der zentrale Gründungsmythos von Bündnis 90 / Die Grünen.

Die Kerntechnik war der erste Industriezweig der nicht einfach Abfall produzieren wollte, sondern vielmehr der Begründer des industriellen Recyclings. In einem „abgebrannten“ — oder besser abgenutzten und für seinen ursprünglichen Verwendungszweck nicht mehr geeigneten — Brennelement sind lediglich rund 5 % Spaltprodukte. Das ist die „Asche“ der nuklearen Energieherstellung. Aber über 93% des Urans und zusätzlich rund 1% Plutonium sind für die Energiegewinnung wiederverwendbar!

Bei dem PUREX-Verfahren werden die Brennstäbe aufgelöst und anschließend durch eine mehrstufige flüssig-flüssig Extraktion in möglichst reines Uran und Plutonium zerlegt. Alles andere ist bei diesem Verfahren Abfall, wird in Glas eingeschmolzen und ist zur Endlagerung vorgesehen. Das Plutonium wird seit Jahrzehnten — auch in Deutschland — zusammen mit abgereichertem Uran zu sogenannten Mischoxid-Brennelementen verarbeitet und erneut in Leichtwasserreaktoren zur Energiegewinnung eingesetzt. Das zurückgewonnene Uran wird bisher fast ausschließlich eingelagert. Man kann es als „Ersatz“ für Natururan in Anreicherungsanlagen einsetzen. Es muß dazu aber in Uranhexafluorid umgewandelt werden. Ein, bei den heutigen Preisen für Natururan nicht wirtschaftlicher Weg.

Der NUE-Weg

Das Uran für Leichtwasserreaktoren hat eine ursprüngliche Anreicherung von 3% bis 5% U235. Im Reaktor wird sowohl U235 als auch Pu239 gespalten. Das Plutonium bildet sich kontinuierlich aus dem U238 durch das (parasitäre) Einfangen von Neutronen. Ein Teil davon, wird sofort wieder im Reaktor gespalten. Deshalb kann nicht alles U235 aufgebraucht werden bevor die zulässige Betriebsdauer des Brennelements erreicht ist. Oft hat das recycelte Uran noch einen höheren Anteil davon als das Natururan (0,7% U235). Es kann daher noch in Schwerwasserreaktoren eingesetzt werden. Allerdings ist die Natur immer etwas komplizierter als die Theorie. Nicht jeder U235 Kern wird auch gespalten, wenn er von einem Neutron getroffen wird. Es bildet sich auch U236 und sogar Spuren von U234. Alle diese Isotope haben ihre charakteristischen neutronenphysikalischen Eigenschaften. Es wird deshalb durch Verschneiden mit abgereichertem Uran ein dem „Natururan entsprechendes Äquivalent“ (NUE) hergestellt. Dies ist aber eine reine Frage der Analyse (welche Isotopenzusammensetzung?), der Rechnung (neutronenphysikalische Bestimmung) und der Mischung. Ein vergleichbar geringer Aufwand, verglichen z. B. mit einer Anreicherung.

Man kann etwa mit dem recycelten Uran aus vier Leichtwasserreaktoren einen zusätzlichen Schwerwasserreaktor betreiben. Die zusätzliche Energie wird ohne zusätzlichen Verbrauch von Natururan erzeugt — Energie aus „Atommüll“. China betrachtet ihr kerntechnisches Programm offensichtlich von Anfang an als System. Im Zentrum stehen die Leichtwasserreaktoren und eine Wiederaufbereitung des „Atommülls“. Nach dem Vorbild von Frankreich wird dadurch der endgültig zu lagernde Abfall beträchtlich entschärft und verringert. Das anfallende Plutonium wird über Mischoxid wieder den Leichtwasserreaktoren zugeführt. Das zurückgewonnene Uran den Schwerwasserreaktoren. Mittelfristig soll eine weitere Nutzung über natriumgekühlte Reaktoren mit schnellem Neutronenspektrum erfolgen. Beachtenswert ist die Vorgehensweise: Zwar in voller Breite aller am Weltmarkt erhältlichen Reaktortypen, aber stets in kleinen Schritten in enger Kooperation mit internationalen Partnern. Ganz nebenbei ist dadurch eine der bedeutendsten kerntechnischen Industrien der Welt aufgebaut worden. Ein nicht zu unterschätzender und bewußt angestrebter Nebeneffekt. Kerntechnik ist eine Schlüsseltechnologie, die weit in die industrielle Welt ausstrahlt. So war es einst auch in Deutschland, aber hier wird dieser Vorteil zusehends aufgebraucht. Manch ein Grüner wird sich noch die Augen reiben, wie schnell der „Exportweltmeister“ zu einem mittelmäßigen Industriestandort verkommen sein wird.

Der Beitrag erschien zuerst bei NUKEKLAUS hier



„Es ist der natürliche Klimawandel – Stupid“

Die heutigen Temperaturen sind max 0,2 C höher als im Mittelalter! Das ergibt sich eindeutig aus dem letzten Klimabericht von 2013/14.

0,2 C – das ist – einfach ausgedrückt – Nichts! Was soll daran unnatürlich sein?

Alle Tausend Jahre gibt es natürliche Warmzeiten. Heute erleben wir genau das – die Moderne Warmperiode. Vor tausend Jahren war es die Mittelalterliche und vor zweitausend Jahren die Römische Warmperiode und davor andere Warmperioden. Es ist alles im normalen Rahmen des natürlichen Klimapendels. Vergleichbar mit Ebbe und Flut an der Nordsee. Wenn dort die Flut kommt regt sich doch auch keiner auf.

Die bisherigen Wetterphänomene sind alle nichts Neues, sondern sind schon immer geschehen.

Der Klimahistoriker Pfister schreibt sogar in seinem Buch Wetternachsage von einem „klimatischen Gunstjahrhundert“. Da früher im 19. Jahrhundert und davor alles viel schlimmer war.

Zitat:

Pfister, S. 263,:

„Die gesamte Belastung durch Überschwemmungen, Lawinen und Stürme war am größten im 19. Jahrhundert. Dies trägt mit zum Verständnis dafür bei, warum die Gesellschaft damals zur vorbehaltlosen Eindämmung und Zähmung der wildgewordenen Natur mit allen verfügbaren Mitteln entschlossen war (Walter, 1996). Am geringsten war die Belastung im 20. Jahrhundert, das seine Bezeichnung als klimatisches Gunstjahrhundert offensichtlich auch in dieser Hinsicht zu Recht trägt.“

 

Und hier das Diagramm dazu:

 

IPCC Klimabericht 2013/14

Die heutigen globalen Temperaturen sind leicht höher (0,2 Grad) als im Mittelalter um das Jahr 1.000. Das Ergebnis ist recht entspannend. Von Klimaalarm keine Spur. Das folgende Diagramm aus dem letzten IPCC Klimabericht 2013/14 wurde in der Öffentlichkeit bisher leider kaum beachtet.

 

Unbekannt.jpg

 

Information from Paleoclimate Archives (WG1, AR5, Kapitel 5) – Grüne Linien und Temperaturdifferenz wurden hinzugefügt. – Es wurden geglättete Daten – (50 Jahre) – verwendet.

 

 

Studie Harmonic Analysis of Worldwide Temperature Proxies for 2000 Years

 

Unbekannt_1.jpg

 

Die heutige Erwärmung passt beinahe „harmonisch“ zu den Erwärmungszyklen der Vergangenheit.

Diagramm aus der Studie*: Die blaue Linie zeigt den tatsächlich ermittelten globalen Temperaturverlauf der letzten 2.000 Jahre. Die rote Linie zeigt den berechneten Zyklusverlauf (Fourier-Analyse) bis in die nächste Zukunft der Abkühlung.

* Studie: Harmonic Analysis of Worldwide Temperature Proxies for 2000 Years, The Open Atmospheric Science Journal, 2017, Prof. Dr. Horst-Joachim Lüdecke (Physiker), Prof. Dr. Carl Otto Weiss (Physiker)




Die Nachtspeicherheizung

Elektrisch heizen ist eine bequeme Sache. Man spart den Schornstein, den Öltank, den Platz für die Gastherme oder das Wärmepumpenaggregat. Ein Knopfdruck oder ein Befehl der Automatik sorgen völlig geräusch-, wartungs- und emissionsfrei für angenehme Wärme.

In den 1960er Jahren verbreitete sich die Nachtspeicherheizung als moderne Heizungsvariante und verdrängte einen Teil der Kohleöfen, später nach der Ölkrise 1973 zunehmend auch Ölkessel. Der Ausbau der Kernenergie schien zu garantieren, dass es dauerhaft billigen Strom geben werde. Zudem existierte im alten Energieversorgungssystem ein deutlicher Verbrauchsunterschied von Tag und Nacht. Im Vergleich zu heute arbeitete ein geringerer Teil der Industrie im 24/7-Betrieb. Zudem waren die Kraftwerke schlechter regelfähig als heute.

Das Prinzip der Elektroheizung ist denkbar einfach. Gewendelte Heizdrähte bilden einen ohmschen Widerstand, der den Strom zu 100 Prozent in Wärme umsetzt. Diese heizt einen oft aus Keramik bestehenden Speicherkörper auf und sorgt für eine Wärmespeicherung über die Zeiten, in denen kein preisgünstiger Heizstrom zur Verfügung steht. Eine andere Variante sind Infrarot-Heizgeräte. Moderne Elektroheizungen haben mitdenkende Automatiken. Sie merken sich den Verbrauch vom Vortag und speichern nach Abfrage des Außentemperaturgebers nur so viel Wärme ein, wie vermutlich gebraucht werden wird. Reicht das nicht aus, wird kurzfristig zum Lichtstromtarif zugeheizt.

In den Anfangszeiten der sechziger und siebziger Jahre war die Nachtspeicherheizung auch preislich konkurrenzfähig. Den Strom gab es nachts schön billig und CO2war halt Lebensbaustein, Löschmittel und in Getränken drin. Heute zahlt man 18 bis 22 Cent für die Kilowattstunde Heizstrom, es gibt nur wenige überregionale Anbieter. Die Umrüstung auf kostengünstigere Wärmequellen ist eher schwierig, denn viele Häuser wurden mit der E-Heizung projektiert und haben keine Schornsteine und Wasserumlaufsysteme mit Heizkörpern. Speziell bei Mehrfamilienhäusern fällt die Umrüstung aus Kostengründen meist aus.

Nicht nur durch die heftig gestiegenen Strompreise bekam die Nachtspeicherheizung einen schlechten Ruf. In der heutigen CO2-zentrierten Weltsicht erweist sich der energetische Umweg Brennstoff -> Wärme -> Strom -> Wärme gegenüber Brennstoff -> Wärme nicht nur als teurer, sondern vor allem als emissionsreicher. Zudem richtete sich die öffentliche Diskussion zunehmend darauf, dass die Nachtspeicherheizungen vor allem für die Erzeuger, also die großen und bösen Stromkonzerne, von Vorteil sind.

So trat am 1. Oktober 2009 die Energieeinsparverordnung (EnEV 2009) in Kraft, die eine schrittweise Außerbetriebnahme von elektrischen Speicherheizsystemen vorsah. Danach durften Nachtstromspeicherheizungen, die vor 1990 in Wohngebäude mit mehr als fünf Wohneinheiten eingebaut wurden, nur noch bis Ende 2019 betrieben werden. Später eingebaute Nachtstromspeicherheizungen durften noch bis zum Ablauf von 30 Jahren nach Einbau betrieben werden. Die Pflicht zur Umstellung entfiel, wenn das Gebäude die Anforderungen der Wärmeschutzverordnung vom August 1994 einhält.

Vorwärts zurück

Obwohl das Verbot der EnEV 2009 nur einen kleinen Teil der Nachtspeicherheizungen betraf, beschloss der Bundestag im Jahr 2013, es wieder außer Kraft zu setzen. Der betreffende § 10a EnEV, der die Außerbetriebnahme von Nachtspeicherheizungen regelte, wurde wieder aufgehoben. Spielen die höheren Emissionen plötzlich keine Rolle mehr? Immerhin steht eine Elektroheizung für etwa 600 Gramm CO2pro Kilowattstunde, entsprechend dem deutschen Strommix. Ein erdgasgefeuerter Brennwertkessel emittiert weniger als die Hälfte. Aus klimapolitischer Sicht ist „Power to heat“ (P2H) also kontraproduktiv. Die als Sektorkopplung bezeichnete Ausweitung der Elektrizität auf Wärme und Verkehr dürfte den jetzigen Strombedarf verdoppeln bis verdreifachen.

Genau das ist das Ziel der Ökolobby. Die jetzige Stromversorgung und die Möglichkeiten der verbraucherfernen Einspeisung geraten an Grenzen. Indem neue Stromverbraucher planwirtschaftlich generiert werden, zum Beispiel eine Million E-Mobile, verdrängt man die bisher für Transport und zur Wärmegewinnung genutzten Brennstoffe. Das sorgt das für die Absatzsicherung Zufallsstrom erzeugender Anlagen.

Diese mit Vehemenz betriebene Initiative zur Sektorkopplung indoktrinierte die Politik erfolgreich. Es herrscht der Aberglaube, die Umstellung von Wärme- und Verkehrssektor auf Elektrizität sei kostengünstig möglich, da künftig Unmengen von Strom fast zum Nulltarif aus Wind und Sonne zu erhalten seien. Insbesondere Erzeugungsspitzen, die heute zum Abregeln auch der regenerativen Anlagen führen, seien damit gut nutzbar.

Das ist ein Holzweg. Die These vom reichlich verfügbaren billigen Strom ist Wunschdenken und von keinerlei Fakten gedeckt. Zeitweise Erzeugungsspitzen durch atlantische Tiefausläufer können keine Versorgung mit Strom, Wärme und Mobilität sichern. Der Rückgang der gesicherten Stromproduktion stellt sich nach Erhebungen des BDEW (Bundesverband der Energie- und Wasserwirtschaft e.V.) so dar:

Eine Jahreshöchstlast von über 80 Gigawatt wird schon ab 2023 schwerlich ohne Importe abgesichert werden können. Das Maß erwarteter Überschüsse aus Wind- und Sonnenkraft ist unklar und in jedem Fall nur temporär. Heizen und Fahren erfordert aber Energie zu jeder Zeit. Damit bleiben nur zwei Optionen:

Entweder die P2H-Anlagen haben nur begrenzte Betriebsstunden und müssen durch andere, herkömmliche Systeme ergänzt werden oder sie beziehen ihren Strom auch aus konventionellen Quellen. Die erste Variante wäre teuer, die zweite würde die konventionelle Erzeugung stabilisieren und sogar seinen Ausbau auf bis zu 100 Gigawatt erfordern (siehe hier).

 

P2H würde Sinn machen bei einem hohen Anteil CO2-armer, stabiler und kostengünstiger Erzeugung, die aber durch den weiteren Zubau volatiler Anlagen nicht erreichbar ist.

 

Während Deutschland seinen Strombedarf zum völlig falschen Zeitpunkt hochtreibt,  bemüht sich die EU, ihn zu senken. Dabei dreht sie am ganz großen Rad und kümmert sich – um Staubsauger. Seit September 2017 gilt die Öko-Design-Verordnung 666/2014. Danach darf die Stromaufnahme von neuen Geräten 900 Watt nicht mehr überschreiten. In einem Normalhaushalt ist vermutlich eine halbe Stunde Staubsaugen pro Woche (zweimal „Tagesschau“ hintereinander!) schon reichlich angesetzt. Die Einsparung gegenüber einem Altgerät mit 1600 Watt übers Jahr ist lächerlich angesichts der Strommengen, die in Deutschland durch P2H verbraten werden sollen.

Die Verordnung schuf zunächst Arbeit für den Europäischen Gerichtshof (EuGH). Strittig war die Frage, ob die zulässige Stromaufnahme nur bei sauberem Staubfangbeutel erreicht werden muss und dann mit weiterem Beutelfüllstand ansteigen darf und damit die Vorgabe dennoch erfüllt wird. Die Firma Dyson bietet hingegen beutellose Geräte an, deren Leistungsaufnahme weitgehend konstant ist. Dyson prozessierte gegen die vermeintliche Bevorteilung der herkömmlichen Geräte mit Staubbeutel wie bei den Produkten von BSH (Bosch-Siemens-Hausgeräte) – und verlor.

Mit Spannung sehen wir den nächsten Öko-Design-Richtlinien entgegen.

 

So sparen wir Strom beim Staubsaugen und verschwenden ihn beim Heizen. Elektrizität ist die edelste Form der Energie. Sie ist universell einsetzbar und die unverzichtbare Grundlage von Digitalisierung und Industrie 4.0. Wenn sie auf Niedertemperaturwärme reduziert wird, kommt das einer Degradierung gleich. Stefan Fassbinder formuliert es so: „Mit Strom heizen ist, wie Möbel verbrennen, die man nicht verkaufen kann. Aber warum stellt man dann die Möbel erst her?“




ACHGUT Seite auf Facebook behindert

Mitteilung zu Achgut.com auf Facebook

Seit heute Vormittag treten erhebliche Probleme bei der Verwaltung unserer Facebook-Präsenz auf. Beiträge, welche externe Links enthalten, können nicht mehr auf der Facebook-Seite der Achse des Guten gepostet werden oder werden nach wenigen Minuten gelöscht. Wir können Sie daher auf Facebook leider nicht mehr auf unsere aktuellen Artikel und Fundstücke hinweisen.

Eine Begründung hat Facebook nicht angegeben. Wir prüfen derzeit rechtliche Schritte.

Bei Twitter (@Achgut_com) gibt es keine Einschränkungen.

Sie können diese Information gerne in den sozialen Medien weiterverbreiten.

Social Media Redaktion

Achgut.com




Zwischenbilanz: Was ist aus den Thesen der kalten Sonne geworden?

1) KLIMAWIRKUNG DER SONNE: Im Buch wird eine Vielzahl von gut dokumentierten Fallstudien aufgearbeitet, die eine deutliche Klimawirkung der Sonne auf Temperatur und Niederschläge beschreiben. Dies steht im krassen Gegensatz zum IPCC-Ansatz in den Klimamodellen, der einen fast vernachlässigbar geringen Einfluss der Sonne auf das Klima in seinen Berechnungen zugrundelegt. Ganz offensichtlich klaffen hier die rekonstruierte Klimageschichte und theoretische Klimamodellwelt krass auseinander. Seit Erscheinen des Buches ist eine große Anzahl weiterer begutachteter Fachpublikationen erschienen, die eine starke solare Beeinflussung des Klimas feststellten. Übersichten auf Google Scholar, Scopus, Maarten Blaauw. Die im Buch identifizierte Diskrepanz besteht weiterhin und gefährdet die Akzeptanz der Klimamodellierungsergebnisse.

2) OZEANZYKLEN: Im Buch wird der systematische Einfluss der 60-jährigen atlantischen und pazifischen Ozeanzyklen (AMO, NAO, PDO) auf das Klima beschrieben und in den Kontext der globalen Temperaturentwicklung der letzten 150 Jahre gesetzt. Während führende Modellierer sie zur Zeit der Buchveröffentlichung noch als unwichtiges Rauschen abtaten, haben die Ozeanzyklen in den letzten Jahren einen regelrechten Durchbruch in der Fachwelt erlebt. Die kühlenden und wärmenden Halbphasen der Ozeanzyklen sind nun anerkannte Klimafaktoren und werden jetzt sogar in vielen Mittelfristprognosen berücksichtigt (siehe z.B. Tung & Zhou 2013, Gervais 2016, Seidov et al. 2017). Die gebremste Erwärmung der letzten anderthalb Jahrzehnte ist Teil dieser Zyklik.

3) MITTELALTERLICHE WÄRMEPERIODE: Vor 1000 Jahren ereignete sich in vielen Teilen der Erde eine natürliche Wärmephase, die mit einer erhöhten Sonnenaktivität zusammenfiel. Klimamodelle können die Warmphase nicht reproduzieren, was nicht verwundert, denn der einzige aktive Wärmetreiber in den Modellen – das CO2 – war weitgehend konstant in den letzten 10.000 Jahren der vorindustriellen Zeit. Um verlässliche Zukunftsprognosen abzugeben, müssen Modelle jedoch zwingend die bekannte Vergangenheit abbilden können, ansonsten ist auch die Qualität ihrer Klimaprognosen fraglich. Der IPCC hat den im Buch bemängelten schwerwiegenden Modellierungsfehlschlag mittlerweile in seinem neuesten Klimazustandsbericht eingeräumt, wenn auch versteckt auf Seite 414 in Kapitel 5.3.5 (Arbeitsgruppe 1). Eine Erwähnung des schweren Mangels in der Zusammenfassung für Politiker unterblieb jedoch, so dass die Erkenntnis der großen Öffentlichkeit verborgen blieb. Die mangelnde Transparenz seitens des IPCC im Umgang mit unbequemen Resultaten verwundert ein ums andere Mal.

4) AEROSOL-JOKER: Im Buch wird die fragwürdige „Joker-Rolle“ der Schwefeldioxid-Schwebstoffe (SO2) in den Klimamodellen kritisiert. Als vor einigen Jahren bekannt wurde, dass der Ruß viel stärker wärmt als vormals angenommen, wurde die plötzlich überschüssige Wärme in den Modellen einfach über das kühlende SO2 aufgefangen. Allein diese Maßnahme erlaubte es den Modellierern, die angesetzte starke Erwärmungswirkung des CO2 beizubehalten. Im anderen Fall hätten die in den letzten 150 Jahren beobachteten Erwärmungsraten die simulierten Raten weit unterschritten und die CO2-Klimasensitivität hätte entsprechend erniedrigt werden müssen. In den vergangenen Jahren hat sich nun jedoch gezeigt, dass die Kühlwirkung der SO2-Aerosole signifikant überschätzt wurde, was in etlichen Fachpublikationen aus dem Bereich der Aerosolforscher deutlich belegt wurde (z.B. Stevens 2015, Malavelle et al. 2017). Der schnell aus dem Ärmel gezauberte Aerosol-Joker ist damit hinfällig, wie im Buch bereits befürchtet.

5) CO2-KLIMASENSITIVITÄT: Hinsichtlich der CO2-Klimasensitivität werden Im Buch Szenarien am unteren Rand der IPCC-Spanne von 1,5-4,5°C pro CO2-Verdopplung diskutiert. Vormals hatte der IPCC einen besten Schätzwert von 3,0°C abgegeben. Eine ganze Reihe von Fachpublikationen bestätigt nun, dass der IPCC die CO2-Klimasensitivität vermutlich lange Jahre lang stark überschätzt hatte. Die Hamburger Stevens-Gruppeerrechnet jetzt eine reduzierte Klimasensitivität von nur noch 2,21°C pro CO2-Verdopplung. Andere Arbeiten aus der jüngsten Zeit gehen von ähnlich niedrigen Werten aus, darunter Masters (2014) mit 2,2°C, von der Heydt et al. 2014 mit 2,26°C; Loehle 2014 mit 1,99°C, Skeie et al. 2014 mit 1,8°C, Lewis & Curry 2015 mit 1,64°C und Spencer & Braswell 2014 mit 1,3°C.

6) ENERGIEWENDE: Im Buch wird davor gewarnt, die deutsche Energiewende zu überstürzen, da dies zu einem enormen Kostenrisiko führen würde. Sechs Jahre nach Veröffentlichung dieser Kritik ist nun genau dies eingetreten und gefährdet ernsthaft die Zukunft der schlecht geplanten Energiewende. Viele Medien und Experten teilen jetzt die Sorge (z.B. Daniel Wetzel in der Welt: Kurzschluss bei der Energiewende; Justus Haucap in der FAZ: Deutschlands teurer Energie-Irrweg).

7) BIOTREIBSTOFFE: Im Buch wurde davor gewarnt, dass die Umweltbilanz von Biostreibstoffen weniger gut ausfällt als lange behauptet. In den letzten Jahren wurde dies nun bestätigt und es wurde die traurige Gewissheit erlangt, dass Biostreibstoffe nahezu kein CO2 einsparen und zudem zur Umweltzerstörung beitragen (z.B. Sterman et al. 2018, Gnansounou 2018).

 

Für eine weitere Prognose aus dem Buch „Die kalte Sonne“ ist es für ein Fazit noch zu früh. Lüning und Vahrenholt rechnen im Buch für die kommenden Jahre mit einer leichten globalen Abkühlung, da sowohl Sonnenaktivität und Ozeanzyklen in eine kühlende Phase eintreten. Da die derzeit erlahmende Sonne aufgrund der trägen Ozeane erst mit mehrjähriger Verzögerung klimatische Wirkung zeigt und vieljährige Mittelwerte zu betrachten sind, wird diese Prognose erst in einigen Jahren überprüfbar.

Zwischenzeitlich nutzten Klimaaktivistenkreise den kurzzfristigen Anstieg der globalen Temperaturen im Rahmen des El Nino 2015/16 und interpretierten dies als angebliches Indiz für das Scheitern der Prognose. Mittlerweile (Stand 2018) sind die Temperaturen jedoch wieder auf das allgemeine Temperaturplateau zurückgefallen, dass seit 2000 herrscht. Die auf Wikipedia verbreitete Graphik wurde indessen auf dem Höhepunkt des El Nino 2016 eingefroren, so dass die enorme nachfolgende Abkühlung dem Wikipdia-Leser verborgen bleibt. Aufforderungen zur Aktualisierung der Graphik blieben ergebnislos, ebenso wie die Aufforderung zur Korrektur und Ergänzung vieler anderer Details im Wikipedia-Artikel zu Sebastian Lüning. Wie in vielen politisch sensiblen Bereichen sind leider auch die Seiten zum Klimawandel auf Wikipedia fest in Aktivistenhand. Die reale globale Temperaturentwicklung laut RSS-Satellitendaten sieht um einiges wenger dramatisch aus als in der Wikipedia-Graphik suggeriert.

Abbildung: Globale Temperaturentwicklung (Anomalien in °C) laut UAH Satellitendaten (via WoodforTrees).

Der Beitrag erschien zuerst bei „Die kalte Sonne“ hier




Das Windrad, technisch nüchtern betrachtet

Das Fatale daran ist, so der Autor, dass sie ihren jeweiligen Glauben von ihrem Erwartungshorizont abhängig machen. Genau das trifft heute für viele zu, die sich mit keiner oder minimaler Kenntnis über Elektrotechnik und deren Gesetzmäßigkeiten eine schöne Welt der Energieerzeugung vorstellen, allein, weil sie der Auffassung sind, damit Gutes zu tun.

Ähnlich wie derzeit die deutsche Sprache verkehrt wird, weil man meint, der Gattungsbegriff verstoße gegen die Gleichberechtigung von Mann und Frau (oder Frau und Mann), wird mit sprachlichen Floskeln („Liebe Mitbürgerinnen und Mitbürger“) auch im Energiebereich versucht, erfolgreich zu agieren. Eines der bekanntesten Beispiele lieferte hierzu Herr Trittin, der die sog. Energiewende an einer Kugel Eis pro Monat festmachte. Diese besagte Kugel hat jedoch eine Dimension bekommen, dass sie kein Mensch je vertragen könnte. Die Fortsetzung findet sich dann in Sätzen, wie „Wind und Sonne schicken keine Rechnung“ und „Irgendwo weht der Wind immer“. Beim ersteren Satzkonstrukt wäre es konsequent, wenn Wind und Sonne zusätzlich die Rechnung für die Erstellung von Wind- und Solarkraftwerken und deren Instandhaltung gleich mit übernehmen würden. Der zweite Satz ist bereits in der Formulierung falsch, richtig wäre einzig – wenn man eine großflächige Totalflaute außer Acht

lässt – „Immer weht der Wind irgendwo“. Wenn nämlich der Wind irgendwo immer weht, wäre es sicher ergebnisorientiert, wenn man nur dort Windräder aufbauen würde.

Das was durch die verfahrene Politik in Unkenntnis elektrotechnischer Grundlagen aus dem Ruder läuft, wird nun ebenfalls durch sprachliche Kunstwerke vertuscht. Begriffe wie „Zappelstrom“ und „Stromautobahnen“ sollen dem Normalbürger Perspektiven eröffnen, das dasjenige, was von den Grundlagen her nicht umsetzbar ist, durch weitere Hilfskonstrukte korrigiert und wirtschaftlich funktionsfähig und sinnvoll gemacht werden kann.

Das Studium der Publikation „Wie sauber sind die weißen Riesen“ von H.-J. Wagner (Lehrstuhl Energiesysteme und Energiewirtschaft, Institut für Energietechnik, Ruhruniversität Bochum) hat mich inspiriert, einmal ein Excel-Blatt aufzumachen und die erforderlichen Energien zu kalkulieren, da die dort angegebene energetische Amortisationszeit von lediglich einigen Monaten bei mir Skepsis ausgelöst hat.

Orientierung lieferte die in der Publikation gezeigte Abbildung 5, die Angaben für ein 1,5 MW Anlage enthält. In meiner Energiebilanz für ein 2 MW Windrad habe ich mit der Eisengewinnung aus Erz im Hochofen begonnen, gefolgt vom Materialaufwand für Gondel und Nabe, Generator, Umrichter, Fundament mit Zementbrennen, Armierungsstahl, Verarbeitungs- und Umformenergie, was zusammen zu immerhin 5,5 GWh führt. Reduziert man dieses Ergebnis linear auf ein 1,5 MW Windrad entsprechend der zitierten Publikation, ergeben sich 3,46 GWh, die mit dem publizierten Wert in Einklang stehen, auch wenn die berücksichtigten Terme etwas unterschiedlich sind.

Das, was die Publikation aus welchen Gründen auch immer verschweigt und zu dem phantastischen Ergebnis weniger Monate Amortisationszeit führt, ist die von der Windgeschwindigkeit abhängige Leistung. Die Publikation setzt dauerhaft die Nennleistung von 1,5 MW an, was zwar rechnerisch möglich ist, aber in krassem Missverhältnis zur Realität steht. Bekanntlich nimmt die Leistung einer Windkraftanlage in 3. Potenz mit der Windgeschwindigkeit zu. Die angegebenen 1,5 MW sind aber die Grenzleistung, bevor das Windrad abgeschaltet werden muss. Derartige Arbeitspunkte kommen nur wenige Minuten oder Stunden innerhalb eines Jahres vor. Entscheidend ist also das über das Jahr sich ergebende Windprofil, davon hängt ab, ob die mittlere Leistung 10 %, 5 % oder noch weniger von der Nennleistung beträgt.

Entsprechend der Publikation ergibt sich rechnerisch bei einer durchgängigen Windgeschwindigkeit von 13,5 m/s eine energetische Amortisationszeit von 0,3 Jahren unter Bedingungen, die es in der realen Welt nicht gibt. Auch bei einer unrealistischen durchgängigen Windgeschwindigkeit von 6 m/s beträgt die energetische Amortisationszeit 3,4 Jahre, was der Leistungsabhängigkeit in der 3. Potenz von der Windgeschwindigkeit geschuldet ist. Ohne nun die Windprofile je Region zu differenzieren, lässt sich ein vom Windprofil abhängiges „eta“ einführen, welches regional unterschiedlich ist und sich zwischen 2 % und 8 % bewegt. Die daraus errechenbaren energetischen Amortisationszeiten liegen bei 6 bis zu 12 Jahren und sind nur für jedes einzelne Windrad vor Ort bestimmbar.

Geht man von einer Lebensdauer von 20 Jahren aus, so kann die für die Erstellung der Windkraftanlage erforderliche Energie als Hypothek betrachtet werden, die das Windrad in rund 10 Jahren erst einmal zurückzahlen muss, bevor ein nutzbarer Energiebeitrag für den freien Verbrauch zur Verfügung steht. Bezogen auf das Gesamtsystem kann man das auch als einen Wirkungsgrad von rund

50 % bezeichnen, indem man Nutz-Energie zur aufgewandten Energie ins Verhältnis setzt.

Dabei sind die Energien für Erdarbeiten, Zuwegung, Transporte, Systeme für die Netzanbindung und Netzregelung usw. nicht einmal einbezogen. Das alles mit einer Kugel Eis je Monat bewerkstelligen zu wollen, spricht dafür, dass interessierte Leute die Menschen mit politischen Aussagen von der Wahrheit entfernt halten wollen. Das ist insofern einfach, da diese Leute zu keiner Zeit zur Verantwortung gezogen werden können und damit geneigt sind, ihre Ideologie zusammen mit einem immensen Unwissen politisch oder vorsätzlich irreführend erfolgreich an den Mann zu bringen. Hier darf ich wieder auf die Formulierungen des anfangs zitierten Buches verweisen.

Prof. Dr.-Ing. Peter Puschner

(Dipl.-Ing der Elektrotechnik, promovierter Maschinenbauer, Honorar-Professor)

Anlage (hier):

„Wie sauber sind die weißen Riesen“ von H.-J. Wagner (Lehrstuhl Energiesysteme und Energiewirtschaft, Institut für Energietechnik, Ruhruniversität Bochum)

Energiebilanzen gehören dank der beruflichen Einbindung in schweißtechnische Prozesse zum Alltag des Autors, sie sind sozusagen sein Handwerkszeug, um z. B. autonom arbeitende Punktschweißprozesse für die Automabilindustrie bewerkstelligen zu können.




Dürregeschichte Mitteleuropas: Klimaforscher Christian Pfister mit unerklärlichen Gedächtnislücken

Am 2. August 2018 brachte SRF ein längeres Radiointerview mit dem bekannten Berner Klima-Historiker Christian Pfister zur diesjährigen langen Dürreperiode in Mitteleuropa:

Extreme Trockenheit – Droht uns eine Megadürre?
Klimaforscher Christian Pfister warnt: Trotz technologischem Fortschritt sind wir den Wetterextremen ausgeliefert. Der Mensch müsse klüger werden – und sich anpassen. […] Um die verheerenden Auswirkungen längerer Dürreperioden zu veranschaulichen, erinnert der Berner Historiker an die Megadürre von 1540. Der Jahresniederschlag betrug nur gerade ein Drittel der üblichen Menge, teils fiel wochenlang kein Tropfen Regen über Mitteleuropa. In Basel und Köln liess sich der Rhein auf dem Rücken von Pferden überqueren. Die fatale Kombination aus Hitze und Trockenheit hinterliess verbrannte Erde. […] Doch Pfister warnt vor falschen Schlüssen: «Solche Ausreisser wie 1540 gab es immer, allerdings extrem selten.»1542 sei bereits ein kaum je überliefertes, nasskaltes Jahr ohne Sommer gewesen. Heute müsse man dagegen von einem Trend sprechen: «Was wir derzeit erleben, zeigt an, wie die normalen Sommer der Zukunft aussehen. Dazu kommen Extreme, die wir noch nie gesehen haben.» Der Klimawandel sei kein Papiertiger, warnt Pfister.

Weiterlesen beim SRF

Pfister bezeichnet das Dürrejahr 1540 als Ausreißer, während die Dürre 2018 die zukünftige Norm darstellen könnte. Eine steile These. Zumal sie dem widerspricht, was der heute emeritierte Klimahistoriker Pfister noch im Jahr 2000 selber feststellte (pdf hier). Eine seltsame Gedächtnislücke. Im Fazit der Arbeit lesen wir doch tatsächlich, dass beim Vergleich des Zeitraums von 1525 bis 2000 die häufigsten Dürren in Mitteleuropa während des Maunder-Minimum im 17. Jahrhundert auftraten und am wenigsten im 20. Jahrhundert:

Die bisherigen Forschungen zu sommerlichen Trockenperioden in Mitteleuropa haben sich bisher stark am Beispiel der Periode 1943 bis 1952 mit ihrem Höhepunkt im Dürresommer 1947 orientiert, die vielfach als einzigartig in den letzten Jahrhunderten betrachtet worden sind. Die vorliegenden Ergebnisse tragen dazu bei, diese Ansicht zu relativieren: Sie unterstreichen nicht nur den seit einiger Zeit bekannten Tatbestand, dass die Dürre des Sommers 1540 jene von 1947 punkto Dauer und Intensität buchstäblich in den Schatten stellte. Sie deuten auch daraufhin, dass, was die Häufigkeit von Dürresommern betrifft, die letzten fünf Jahrhunderte in zwei unterschiedliche Perioden von annähernd gleicher Länge gegliedert werden können, indem sommerliche Trockenperioden in den zwei Jahrhunderten 1525 bis 1730 wesentlich häufiger auftraten als seither. Bei der Interpretation dieser Zahlen ist allerdings zu berücksichtigen, dass die Daten in der älteren Periode fast ausschliesslich aus der Zentral- und Nordostschweiz stammen, wodurch regionale Effekte stärker ins Gewicht fallen, während die Daten von 1780 und vor allem von 1864 an die westlichen Landesteile mit berücksichtigen. Ihren Höhepunkt erreichte die Tendenz zur Häufung von sommerlichen Dürreperioden in den Jahren 1718 bis 1728, als jeder zweite Sommer wesentlich zu trocken war. Zwar trat in diesen 11 Jahren kein Jahrhundertereignis hervor, aber zweimal (1718/19 und 1723/24) kamen unmittelbar aufeinanderfolgende Trockensommer und dazwischenliegende regenarme Winter und Frühjahrsperioden in ihrer kumulativen Wirkungen auf den Wasserhaushalt einem solchen gleich. Die Auswirkungen dieser langen Dürreperiode auf Ökosysteme wäre zu untersuchen. Gesamthaft gesehen war die Belastung des 20. Jahrhunderts durch Dürresommer bemerkenswert gering, wie dies bereits für Naturkatastrophen (Lawinen, Überschwemmungen) festgestellt worden ist. Auch in dieser Hinsicht trägt das zu Ende gehende Jahrhundert seine Bezeichnung als Gunstjahrhundert offensichtlich zu Recht.

Man reibt sich verwundert die Augen. Was passiert hier genau? Will oder kann sich Pfister nicht mehr erinnern? War alles falsch, was er früher gemacht hat? Steht er lieber auf der Seite der vermeintlich Guten und verbiegt zu diesem Zweck sogar die Realitäten?

Übernommen von die kalte Sonne hier