1

SMR Teil 3 — Innovative Reaktoren

Zwar ist die Wärmeerzeugung immer noch mit großem Abstand die überragende Energieanwendung, aber nur ein geringer Bedarf entfällt davon auf Hochtemperatur-Wärme (chemische Prozesse). Die “Endlichkeit” von Kohle, Öl, Erdgas und Uran hat sich längst als Wunschtraum unbelehrbarer Anhänger der Planwirtschaft erwiesen. Längst ist man daher in diesen Kreisen auf eine indirekte Verknappung (Klimaschutz – wir dürfen gar nicht so viel fossile Brennstoffe nutzen, wie wir zur Verfügung haben) umgestiegen. Es lohnt sich nicht, sich damit weiter auseinander zu setzen. Für diese Betrachtungen reicht folgender Zusammenhang vollständig aus:

Energieverbrauch und Wohlstand sind die zwei Seiten ein und derselben Medaille. Wer das Recht aller Menschen auf ein Mindestmaß an Wohlstand anerkennt, muß von einem weiter steigenden Energiebedarf ausgehen. Oder andersherum ausgedrückt: Wer eine Senkung des Energieverbrauches fordert – wie es scheinbar immer populärer wird – will die Armut für den größten Teil der Menschheit weiter festschreiben.

Mit fortschreitender Entwicklung steigt der Verbrauch elektrischer Energie überproportional an. Der für eine zuverlässige und kostengünstige Stromversorgung einzusetzende Primärenergieaufwand, steigt damit weiter an. Ersetzt man die hierfür notwendigen Mengen an Kohle und Erdgas durch Kernenergie, bekommt man mehr als genug dieser Energieträger frei, um damit Industrie und Transportsektor zu versorgen. Die USA führen diesen Weg mit der Erschließung unkonventioneller Öl- und Gasvorkommen – bei gleichzeitigem Ausbau der Kernkraftwerke – eindrucksvoll vor.

Hat man diesen Zusammenhang verstanden, wird auch die Entwicklung der “kleinen” Reaktoren in den nächsten Jahrzehnten vorhersagbar. Das Streben nach “hohen Temperaturen” hat durch die Entwicklung des Erdgasmarktes (außerhalb Deutschlands!) an Bedeutung eingebüßt. Erdgas – egal aus welchen Vorkommen – ist der sauberste und kostengünstigste Brennstoff zur Erzeugung hoher Temperaturen und zur Gewinnung von Wasserstoff. Zur Stromerzeugung eigentlich viel zu schade!

Das Argument des geringeren Uranverbrauches durch Reaktoren mit höherer Temperatur ist ebenfalls nicht stichhaltig: Die Uranvorräte sind nach menschlichen Maßstäben unerschöpflich und der Minderverbrauch durch höhere Wirkungsgrade wiegt den wirtschaftlichen Mehraufwand bei weitem nicht auf. Ein Anhaltspunkt hierfür, bietet die Entwicklung bei Kohlekraftwerken: Sie liegt heute noch in Regionen mit“billiger” Kohle eher in der Größenordnung von Leichtwasserreaktoren (ungefähr 33 %) als bei deutschen und japanischen Steinkohlekraftwerken (fast 46 %). Bis Uran so teuer wird, daß sich eine Wirkungsgradsteigerung um 40 % wirtschaftlich lohnt, dürften eher Jahrhunderte, als Jahrzehnte vergehen. Damit dürften alle Hochtemperaturreaktoren eher Nischenprodukte bleiben, was aber gerade dem Gedanken einer Serienproduktion widerspricht. Gleiches gilt auch für sog. “Schnelle Brüter”.

Gleichwohl sind einige gasgekühlte Reaktoren und Reaktoren mit schnellen Neutronen in der Entwicklung. Diese Prototypen sollen im Folgenden etwas näher vorgestellt werden

NPMC-Reaktor

National Project Management Corporation (NPMC) hat zusammen mit dem Staat New York , der City of Oswego und der Empire State Development einen Antrag auf Förderung für einen heliumgekühlten Kugelhaufen-Reaktor mit 165 MWel eingereicht. Dem Konsortium hat sich National Grid UK, die New York State Energy Research Development und die Pebble Bed Modular Reactor (PBMR) of South Africa angeschlossen.

Eingereicht wurde ein Gas Turbine Modular High-Temperature Reactor (GT-MHR). Die Entwicklung beruht auf dem in Deutschland entwickelten THTR-Reaktor. Sie wurde in Südafrika fortgesetzt. Anders als in Deutschland und China, wollte man aber nicht einen konventionellen Dampfkreislauf sekundärseitig verwenden, sondern wollte zur Stromerzeugung eine Gasturbine einsetzen. Die Entwicklung eines solchen geschlossenen Gasturbinen-Kreisprozesses mit Helium als Arbeitsmittel überstieg aber bei weitem die wirtschaftlichen Möglichkeiten Südafrikas, was letztendlich zur Aufgabe führte.

Eine Gasturbine hat so hohe Austrittstemperaturen, daß problemlos eine trockene Kühlung mit Außenluft möglich wird. Die Schwierigkeit in den Verbrauchsschwerpunkten in Südafrika ist die Bereitstellung von ausreichend Kühlwasser. Unter dem Wassermangel leiden dort alle konventionellen Kraftwerksprojekte (hauptsächlich Kohle). In New York gibt es zwar genug Wasser, aber die (angebliche) Umweltbelastung durch Kühlwasser ist der Hauptansatz gegen die vorhandenen und geplanten Kernkraftwerke. Nichts desto trotz, könnten SMR mit geschlossenen Gasturbinen ein Modell für die dezentrale Versorgung in zahlreichen ariden Gebieten auf der Welt sein.

China verfolgt ebenfalls konsequent den Kugelhaufen-Hochtemperatur-Reaktoren weiter. Allerdings sind alle in Bau und Planung befindlichen Kraftwerke mit konventionellen Dampfkreisläufen ausgerüstet

Energy Multiplier Module (EM2)

Auch General Atomics (GA) hat ein Gas-Turbine Modular Helium Reactor (GT-MHR) Konzept mit 265 MWel eingereicht. Man geht aber nicht von einem Kugelhaufen (siehe oben), sondern von hexagonalen Prismen als Brennelementen aus. Basis ist ein eigenes Modell aus den 1980er Jahren. Das Modul soll bei einer thermischen Leistung von 500 MWth komplett und fertig mit Brennstoff beladen, auf einem LKW zur Baustelle transportiert werden. Die Austrittstemperatur des Heliums soll (extrem hohe) 850 °C betragen. Damit wäre der Einsatz als Wärmequelle in der Verfahrenstechnik, bis hin zur thermischen Wasserstoffproduktion, denkbar. Ein Turbosatz mit hoher Drehzahl wird auf einem zweiten LKW angeliefert. Die Gasturbine und der angeschlossenen Generator laufen mit mehreren 10.000 Umdrehungen pro Minute. Die Umwandlung der elektrischen Energie in “netzfähigen Strom” erfolgt über elektronische Umformer. Bei der eingereichten Variante handelt es sich um ein reines Kraftwerk zur Stromerzeugung. Im Begleittext wird betont, daß dieser Reaktor lediglich die Abmessungen eines “Schulbusses” hätte. Hinzu käme ein etwa gleich großes Modul für den Turbosatz. Insofern wäre die Leistungsdichte (umbauter Raum) konkurrenzlos gering. Wegen der hohen Austrittstemperatur hätte dieses Kraftwerk einen elektrischen Wirkungsgrad von 53 %. Das Kraftwerk käme mit Luftkühlung aus und wäre damit äußerst flexibel einsetzbar. Durch den hohen Wirkungsgrad und seine neutronenphysikalischen Eigenschaften, wäre selbst ohne Wiederaufbereitung der “Atommüll” um 80% geringer, als bei üblichen Reaktoren.

Noch innovativer als der Turbosatz, ist das Brennstoffkonzept: Der Reaktor wird in der Fabrik mit Brennstoff beladen und komplett nach 30 Jahren Laufzeit wieder in die Fabrik zurückgeliefert. Das ganze ähnelt also eher einer Batterie, als einem klassischen Kraftwerk. Dieses Konzept würde die gesamte Stromversorgung revolutionieren. Ein “Energieversorger” mietet sich quasi für 30 Jahre eine “Stromerzeugungseinheit” und gibt diese nach Gebrauch komplett wieder zurück. Durch die speziellen Sicherheits- und Betriebsanforderungen löst sich auch das Problem der Personalkosten: Verkleinert man einfach heutige Reaktorkonzepte, steigt der spezifische Personalaufwand stark an. Das ist leider die Umkehrung der Betriebskostendegression mit zunehmender Kraftwerksgröße. Die Kombination aus geringen Investitionskosten, kaum Betriebskosten, kaum Netzkosten, keine “Atommüllprobleme”…, könnte einen ähnlichen Quantensprung, wie die Einführung des PC in der Datenverarbeitung auslösen. Davon dürften sicherlich nicht alle begeistert sein!

Die Brennelemente besitzen eine Umhüllung aus einem Siliziumcarbid-Faser-Verbundwerkstoff. Das Material verträgt Temperaturen von weit über 2000 °C und reagiert wegen seiner keramischen Eigenschaften praktisch nicht mit Luft und Wasser. Der Brennstoff ist inhärent sicher und selbstregelnd: Steigt die Temperatur zu stark an, bricht die Kettenreaktion in sich zusammen (Dopplereffekt). Auch die Nachzerfallswärme kann dem Brennstoff praktisch nichts anhaben, da er sich gefahrlos so weit aufheizen kann, daß schon die Wärmeabgabe durch Strahlung (Kühlmittelverluststörfall) dauerhaft ausreicht. Dieses Verhalten ist unzählige male experimentell bestätigt worden.

Jeder Reaktor wird erstmalig mit etwa 20 to abgebranntem Brennstoff aus Leichtwasserreaktoren oder abgereichertem Uran beladen. Hinzu kommt als “Starter” rund 22 to auf 12% angereichertes Uran. Nach 30 Jahren Betriebszeit werden in einem speziellen Aufbereitungsprozess die entstandenen etwa 4 to Spaltprodukte entfernt und durch 4 to abgebrannten Brennstoff aus Leichtwasserreaktoren ergänzt.

General Atomic ist eines der führenden Unternehmen (nicht nur) der Kerntechnik. Am bekanntesten dürften die weltweit gelieferten 66 TRIGA-Reaktoren (Training, Research, Isotopes, General Atomic) sein. Zusätzlich gehören zu dem Bewerbungskonsortium noch zwei der weltweit führenden Anlagenbauer: CB&I und Mitsubishi Heavy Industries und die Mutter der schnellen Reaktoren und der Wiederaufbereitung: Das Idaho National Laboratory (INL). Es fehlt also nicht an Kapital und Sachverstand. Größte Hürde dürfte das NRC mit seinem “unendlichen” Genehmigungsverfahren sein. Aber auch auf dem Sektor des Bürokratismus bewegt sich in den USA etwas: Nicht nur, wegen der Drohkulisse, die China am Horizont aufbaut.

PRISM

Ein weiterer “schneller” Reaktor, aber mit Flüssigmetallkühlung, ist der von General Electric und Hitachi Nuclear Energy (GEH) propagierte Power Reactor Innovative Small Module (PRISM). Es handelt sich ebenfalls um einen vollständig vorgefertigten und transportierbaren Reaktor, mit einer thermischen Leistung von 840 MWth und 311 MWel . Es ist geplant, je zwei solcher Einheiten auf einen konventionellen Turbosatz (typisches Kohlekraftwerk) mit 622 MWel zusammenzuschalten.

Das PRISM-Konzept bricht ziemlich radikal mit der heutigen Nutzung der Kernenergie und ihrem Brennstoffkreislauf. Es senkt konsequent den Einsatz von Natururan und entlässt als Abfall wesentlich geringere Mengen mit deutlich kürzerem Gefährdungszeitraum. Um dieses Ziel zu erreichen, ist nicht nur der Übergang auf “schnelle” Neutronen nötig, sondern auch auf einen völlig neuen Brennstoffkreislauf. Durch die Verwendung von Neutronen mit hoher Energie (hoher Geschwindigkeit) kann man praktisch alle Aktinoide spalten – allerdings um den Preis einer geringeren Wahrscheinlichkeit. Man braucht deshalb eine wesentlich höhere Konzentration von U235 bzw. Pu239 um überhaupt eine Kettenreaktion in Gang setzen zu können. Außerdem muß man auf Wasser als Kühlmittel verzichten. Ein in diesem Sinne ideales Kühlmittel, ist das Metall Natrium. Geht man auf ein flüssiges Metall als Kühlmittel über, macht es Sinn, auch den Brennstoff in metallischer Form zu verwenden. Eine Legierung aus Uran, Zirconium und – gegebenenfalls allen möglichen – Transuranen, hat sich als besonders geeignet erwiesen. Wenn man aber schon einen Brennstoff in metallischer Form vorliegen hat – und keinerlei Ambitionen hegt, Kernwaffen zu bauen – bieten sich die erprobten Verfahren der Elektrometallurgie (Aluminium-, Kupferproduktion etc.) an. Vereinfacht gesagt, löst man den zerstückelten “abgebrannten” Brennstoff in geschmolzenem Lithiumchlorid auf und legt eine Spannung von 1,34V an. Nun wandert das Uran und alle sonstigen Aktinoide zur Kathode und scheiden sich dort ab. Die Spaltprodukte bleiben im Lithiumchlorid zurück. Die Kathode wird eingeschmolzen und daraus neue Pellets hergestellt. Diese werden in Stahlrohre (H9) gesteckt, mit flüssigem Natrium zur besseren Wärmeleitung ausgegossen und mit einem Gaspolster aus Helium versehen, zu einem neuen Brennstab verschweißt. Im Prinzip ist diese Technik so simpel und automatisierter, daß sie in ein (größeres) Kraftwerk integriert werden könnte. Die übrig geblieben Spaltprodukte – etwa 1 kg für jedes 1 MWel produziert über ein ganzes Jahr – kann man “irgendwo” lagern, da sie nach wenigen hundert Jahren auf die Intensität des ursprünglichen Uranerzes abgeklungen sind – also die Gefahr, wieder voll und ganz, natürlich ist.

Sicherheitstechnisch betrachtet, hat sich dieser Reaktortyp als äußerst gutmütig erwiesen. Selbst, wenn man alle Regelstäbe voll gezogen hatte, regelte er sich selbst herunter, da durch den starken Temperaturanstieg die nukleare Kettenreaktion unverzüglich zusammenbricht. Für die Leistungsregelung gibt es Regelstäbe aus Borkarbid (B4C). Zusätzliche Regelstäbe hängen an Magneten. Fällt der Strom aus oder geht der Magnetismus infolge zu hoher Temperaturen verloren, fallen sie in den Reaktor und stellen ihn dauerhaft ab.

Allerdings hat Natrium einen entscheidenden Nachteil: Es reagiert sowohl mit Luft als auch mit Wasser sehr heftig. Deshalb sind der Reaktorkern, die zwei Wärmeübertrager und die vier elektromagnetischen Pumpen (ohne rotierende Teile) alle zusammen in einem mit Natrium gefüllten Topf eingebettet. Dieses Gefäß ist zusammen mit dem Sicherheitsbehälter am Deckel fest verschweißt. Sowohl das Reaktorgefäß, wie auch der Sicherheitsbehälter haben keine Durchbrüche. Die etwa 20 cm Zwischenraum und der Arbeitsraum über dem Deckel sind mit Argon – unter leichtem Überdruck zur Kontrolle auf etwaige Leckagen – befüllt. Da Natrium durch Neutronenbeschuß strahlend wird (Halbwertszeit etwa 1 Minute), wird die Wärme durch die Wärmeübertrager im Reaktorgefäß an einen zweiten Kreislauf mit Natrium übertragen. Dieses Natrium ist nicht radioaktiv und wird ständig überwacht. Das Natrium gelangt durch Rohr in Rohr Leitungen zum überirdischen Dampferzeuger. Der Dampferzeuger ist ein hoher, zylindrischer Behälter, der vollständig mit Natrium gefüllt ist. In diesem Behälter verlaufen schraubenförmige Rohrleitungen, in denen das Wasser zum Antrieb der Turbine verdampft wird. Im Normalbetrieb sorgen zwei elektromagnetische Pumpen für die Umwälzung des Natriums. Zur Abführung der Nachzerfallswärme nach Abschaltung des Reaktors, würde der sich einstellende Naturumlauf ausreichen. Wegen der vorliegenden Temperaturspreizungen (Kerneintritt: 360 °C, Kernaustritt: 499 °C, Dampferzeuger Eintritt: 477 °C, Austritt 326 °C) besteht ein ausreichend großes Sicherheitsgefälle.

Der Reaktor benötigt keinerlei elektrische Energie nach einer Schnellabschaltung. Ein Unglück wie in Fukushima ist daher ausgeschlossen. Die Nachzerfallswärme kann auf drei Wegen abgeführt werden:

1.     Über einen Bypass der Turbine, über den normalen Dampfkreislauf des Kraftwerks.

2.     Zwischen dem Dampferzeuger und seiner Isolierung befindet sich ein Luftspalt. Ist der Weg 1 nicht möglich (z. B. Bruch einer Dampfleitung), kann über den Naturzug die Wärme an die Umgebung abgegeben werden.

3.     Zwischen Sicherheitsbehälter und Betongrube befindet sich ebenfalls ein Luftspalt. Dieser ist mit Abluftkaminen oberhalb der Erde verbunden. Die durch die Nachzerfallswärme des Reaktors aufgeheizte Luft kann in diesen aufsteigen und wird durch nachströmende kühle Umgebungsluft ersetzt (Reactor Vessel Auxiliary Cooling System RVACS).

Anders, als bei Leichtwasserreaktoren, werden die abgebrannten Brennelemente nicht in einem separaten Brennelementelagerbecken gelagert, sondern verbleiben mindestens für einen weiteren Zyklus (Ladezyklus 12 bis 24 Monate, je nach Betriebsweise) im Reaktorbehälter. Dazu entfernt die automatische Lademaschine das gewünschte Brennelement, ersetzt es durch ein neues und stellt das alte zur Zwischenlagerung in das “obere Stockwerk” des Reaktorbehälters. Erst, wenn die Brennelemente zur Wiederaufbereitung sollen, werden sie von der Lademaschine aus dem Reaktor gezogen, gereinigt und übergeben. Sie sind dann bereits soweit abgekühlt, daß sie problemlos “an die Luft können”, da die Brennstäbe aus Stahlrohren gefertigt sind.

Neu, ist die ganze Technik überhaupt nicht. Allein der Experimental Breeder Reactor EBR-II hat 30 Jahre erfolgreich gelaufen. Wenn sich jetzt mancher fragt, warum solche Reaktoren nicht längst gebaut werden, ist die Antwort einfach: Wir haben einfach noch nicht genug von dem, was “Atomkraftgegner” als “Atommüll” bezeichnen! Eine Serienproduktion macht wirtschaftlich nur Sinn, wenn die Stückzahl ausreichend groß ist. Dieser Reaktor braucht zur Inbetriebnahme 11% bis 17% spaltbares Plutonium und kann 18% bis 23% Transurane vertragen. Um 100 Reaktoren erstmalig zu befüllen, benötigt man daher geschätzt 56.000 bis 70.000 Tonnen Schwermetall in der Form abgebrannter Brennelemente aus Leichtwasserreaktoren. Es ist jetzt der richtige Zeitpunkt, mit Planung und Bau eines Prototypen zu beginnen. Diesen kann man gut mit “Bomben-Plutonium” aus der Abrüstung oder bereits vorhandenem Plutonium aus Wiederaufbereitungsanlagen bauen. Die Zeit läuft nicht weg: Natururan ist noch billig und je länger die abgebrannten Brennelemente lagern, um so einfacher lassen sie sich aufbereiten. Geht man von kostenlos erhältlichem “Atommüll” aus – manche meinen ja sogar, man benötige ein Milliarden teueres Endlager für abgebrannte Brennelemente – liegen die kompletten Brennstoffkosten (einschließlich geologischem Lager für die Spaltprodukte) für diesen Reaktortyp weit unter 1/2 Cent pro kWh elektrischer Energie. Spätestens jetzt sollte jedem klar sein, warum man die abgebrannten Brennelemente so sorgfältig in so aufwendigen Behältern verpackt “zwischenlagert”. Sehen so Mülltonnen aus? Die Lagerhalle von Gorleben beispielsweise, ist eher ein Goldschatz.

ALFRED

Das einzige europäische Projekt ist der Advanced Lead Fast Reactor European Demonstrator (ALFRED). Er wird zur Zeit von dem Konsortium aus ENEA und Ansaldo Nuclear aus Italien und der rumänischen ICN verfolgt. Es wird auch Fostering Alfred Construction FALCON genannt. Die über 1 Milliarde Euro Kosten, sollen wesentlich von der EU, aus verschiedenen Töpfen aufgebracht werden. Der Standort soll in Mioveni in der Nähe von Pitesti in Rumänien sein. Baubeginn ist für 2017 und eine Fertigstellung bis 2025 gedacht. Er soll eine Leistung von 125 MWel bei 300 MWth haben. Es ist wohl eine reine Demonstrationsanlage. An eine Serienfertigung ist eher nicht gedacht.

Die Verwendung von Blei als Kühlmittel, ist ein Abfallprodukt der europäischen Entwicklung eines, durch einen Beschleuniger angetriebenen, unterkritischen Reaktors. Zum Betrieb eines “schnellen” Reaktors ist Blei ein eher exotisches Kühlmittel. Alle anderen Nationen verwenden ein Eutektikum aus Blei-Bismut als Kühlmittel. Die längste – und negativste Erfahrung – mit Blei und Blei-Bismut hat Rußland. Dort wurden sie zum Antrieb von Atom-U-Booten der sog. Alpha-Klasse in den 1950er Jahren entwickelt. Wegen ständiger Schäden – bis hin zum Totalverlust – verwendet auch die russische Marine inzwischen Leichtwasserreaktoren.

Als Vorteil von Blei bzw. Blei-Bismut werden immer wieder gerne, folgende Vorteile plakativ in den Vordergrund gestellt:

·       Blei reagiert nicht mit Wasser (gemeint ist, im Gegensatz zu Natrium) und es könnten daher die Dampferzeuger angeblich gefahrlos im Reaktorgefäß integriert werden.

·       Sehr hohe Siedetemperatur (1745 °C) bei sehr geringem Dampfdruck. Daraus wird ein günstiger Blasenkoeffizient der Reaktivität abgeleitet, der einen angeblichen Sicherheitsvorteil ergibt.

·       Blei wäre ein besonders schlechter Moderator und besässe besonders kleine Absorptionsquerschnitte.

Ansonsten fallen einem leider nur Nachteile ein:

·       Blei wird überhaupt erst bei 327 °C flüssig. Darum haben die Russen von Anfang an, mit einem Eutektikum aus Blei und Bismut (Schmelzpunkt 124 °C) gearbeitet. Wartungs- und Inspektionsarbeiten bei so hohen Temperaturen sind Neuland. Der Reaktor muß ständig beheizt werden. Es gibt den neuen Störfall “(lokale) Unterkühlung” mit entsprechenden Konsequenzen für das Genehmigungsverfahren.

·       Flüssiges Blei ist korrosiv. Die Russen haben dieses Problem nie so richtig in den Griff bekommen. Die Wege über den Sauerstoffgehalt und Beschichtungen waren nicht zielführend – ein überhöhter Verschleiß (Lebensdauer) ist die Folge. Darüber hinaus, ist flüssiges Blei auch noch abtragend. Die Strömungsgeschwindigkeit muß deshalb klein gehalten werden.

·       Durch die grosse Masse des Bleis im Reaktor, sind besondere Schutzmaßnahmen gegen Erdbeben notwendig.

·       Durch die hohe Dichte des Bleis werden die Regelstäbe von unten eingeschwommen (völlig neues Prinzip, Genehmigungsverfahren) oder von oben pneumatisch eingeschossen (nicht passiv).

·       Als Brennstoff sind Uranoxid oder Urannitrid vorgesehen. Wegen der, gegenüber metallischen Brennstoffen schlechten Wärmeleitung, besteht (wieder) die Gefahr der (lokalen) Kernschmelze. Der Effekt einer inhärenten Sicherheit scheint nur schwer nachweisbar. Eine Kühlung über unterkühltes Blasensieden (wie auch in jedem Druckwasserreaktor) scheidet durch den hohen Siedepunkt (der ja immer als Vorteil bezeichnet wird) aus.

·       Bisher gibt es bei ALFRED kein echtes Notkühlsystem. Die Nachzerfallswärme müßte immer über die innenliegenden Dampferzeuger abgeführt werden. Der Nachweis, auch nach einer physikalischen Dampfexplosion oder eines abschnittsweisen Verstopfens durch Einfrieren, dürfte sich schwierig gestalten.

Bis ein mit flüssigem Blei gekühlter Reaktor in einem westlichen Land genehmigungsfähig ist, dürften noch Jahrzehnte Forschungs- und Entwicklungsarbeit nötig sein. Insofern dürften sie außerhalb der Konkurrenz mit anderen SMR-Entwürfen stehen. Manchmal fragt man sich wirklich, warum sich manche Kerntechniker immer selbst im Wege stehen müssen. Man könnte fast sagen: Gott schütze uns vor diesen Forschern, mit den “Atomkraftgegnern” werden wir schon selber fertig.

Vorläufiges Ende

Hier ist das vorläufige Ende des Drei-Teilers erreicht. Es wurden die im derzeitigen Rennen um Förderung für SMR vorne liegenden Typen vorgestellt. Was noch fehlt, wären z. B. der Super-Safe, Small and Simple, 4S von Toshiba; die Encapsulated Nuclear Heat Source ENHS; der Flibe Energy Salzbadreaktor; der International Reactor Innovative & Secure IRIS Druckwasserreaktor; der Purdue Novel Modular Reactor PNMR Siedewasserreaktor; der Travelling Wave Reactor TWR; der ANTARES von Areva, der Advanced Reactor Concept ARC–100 und wer weiß noch, welche sonst alle….




Viele Klima-Rekonstruktionen werden fälschlich Temperaturänderungen zugeordnet

Bild rechts: Die Fichte bei Churchill, Manitoba (Quelle: der Autor). Siehe Text weiter unten!

Die IPCC-Definition einer Klimaänderung hat den Brennpunkt dafür auf menschliche Ursachen verengt, hat aber das Ganze verschärft, indem es Variablen ignoriert, in ihrer Bedeutung herabgestuft und missbraucht hat. Am wichtigsten und auch grundlegend war Wasser in all seinen Zuständen und Funktionen (hier). Die Besessenheit begrenzte die Sichtweise auf höhere Temperaturen und zunehmendem CO2. Finanzielle Förderung wurde für Analysen hinsichtlich der Auswirkungen auf Wirtschaft und Umwelt ausgegeben, anstatt dass man eine Kosten/Nutzen-Analyse durchgeführt hätte. In Klimastudien ging es nur um die Temperatur, wobei gewöhnlich und fälschlich durch Niederschlag ausgelöste Änderungen der Temperatur zugeordnet wurden. Diese Praxis zeigte sich höchst augenscheinlich in paläoklimatischen Rekonstruktionen, ausgeführt entweder durch IPCC-Teilnehmer oder ausgewählt zum Einfließen in die IPCC-Berichte.

Es ist fast schon eine Maxime: wenn die Mitarbeiter an der Climatic Research Unit CRU, die effektiv die IPCC-Wissenschaft kontrolliert haben, auf ein Thema geschaut haben, dann nur in der Hinsicht, dass es vielleicht eine Bedrohung ihrer vorbestimmten Hypothese sein könnte.

Tom Wigley übernahm den Posten des Direktors an der CRU von Hubert Lamb und bestimmte weitgehend die Richtung früher Forschungen. Dann behielt er seinen Einfluss, als die durchgesickerten E-Mails bekannt geworden sind. Er hat die Ziele von Lamb vollständig umgelenkt, hatte dieser doch die Notwendigkeit von Daten betont, bevor irgendein Verständnis erwachsen kann:

„Als Erstes und Wichtigstes muss man die Fakten des Klimas der Vergangenheit etablieren, bevor irgendwelche Zusatzeffekte durch menschliche Aktivitäten von Bedeutung werden könnten“.

Lamb war gegen Wigleys Ansichten und scheint bereut zu haben, diesen einzustellen, schrieb er doch über die andere Richtung, in die Wigley die CRU gelenkt hat. Er schrieb:

„Prof. Tom Wigley war hauptsächlich daran interessiert festzuschreiben, dass Änderungen des Weltklimas die Folge menschlicher Aktivitäten seien, vor allem durch das Verbrennen von Holz, Kohle, Öl und Gasvorräten…“

Das wurde zum Brennpunkt der CRU und in der Folge auch des IPCC. Es war die vorbestimmte Hypothese, die zur Manipulation der Klimawissenschaft geführt hatte. Die durchgesickerten CRU-E-Mails enttarnen Wigley als die graue Eminenz, an die sich alle Studenten und Kollegen an der CRU wandten, wenn sie Rat und Anleitung brauchten.

Eine klassische Gefahr in der Klimaforschung und eine frühe Bedrohung der Behauptungen hinsichtlich eines menschlichen Signals war, dass man sie als das Ergebnis einer Auto-Korrelation bloßstellen konnte. Das Ganze wurde bereits 1944 in dem Klassiker von Conrad benannt: Methods in Climatology. Im Jahre 1999 haben Tsonis and Elsner in einem Artikel mit dem Titel The Autocorrelation Function and Human Influences on Climate (etwa: Die Autokorrelations-Funktion und menschliche Einflüsse auf das Klima) Wigleys Versuch kommentiert zu beweisen, dass ein menschlicher Einfluss nicht aufgrund von Autokorrelation zu verzeichnen ist. Sie schrieben:

Dieses Ergebnis von Wigley ist beeindruckend, und es könnte tatsächlich einen menschlichen Einfluss auf das Klima geben. Allerdings ist die Verwendung der Autokorrelations-Funktion für solche Bestimmungen problematisch. Klimamodelle konstituieren dynamische Systeme, egal ob erzwungen oder nicht. Falls diese Modelle wirklichkeitsgetreu die Dynamik des Klimasystems repräsentieren, dann sollte ein Vergleich zwischen einer Beobachtung/Messung und einer Modellsimulation zeigen, ob diese beiden Ergebnisse die gleiche dynamische Grundlage haben.

In dem Beitrag Quantitative approaches in climate change ecology haben Brown et al. das Problem identifiziert:

Wir präsentieren eine Liste mit Themen, die angesprochen werden müssen, um Rückschlüsse auf eine sicherere Grundlage zu stellen, einschließlich (1) Berücksichtigung von Datenberschränkungen und der Vergleichbarkeit von Datensätzen, (2) alternative Mechanismen, die eine Änderung auslösen, (3) geeignete Variablen, (4) ein passendes Modell für diesen untersuchten Prozess, (5) zeitliche Autokorrelation, (6) räumliche Autokorrelation und Verteilungen und (7) die Überwachung der Änderungsraten. Während maritime Studien bei unserer Übersicht im Vordergrund standen, können diese Grundlagen aber auch für Studien auf dem Festland angewendet werden. Die Berücksichtigung dieser Vorschläge wird helfen, das Wissen um die globalen Klimaauswirkungen und das Verständnis für die Prozesse, die ökologische Änderungen treiben, voranzubringen.

Die zwei ersten Bedingungen in der Liste von Brown et al. zur Lösung von Autokorrelations-Problemen stehen auch im Mittelpunkt, um die Korruption und die Irreführung des IPCC zu verstehen.

(1) Datenbeschränkungen

Wie schon Lamb erkannt hat, waren und sind fehlende Daten die ernsteste Begrenzung. Die Lage ist vollständig ungeeignet für die Temperatur, vermeintlich die am stärksten gemessene Variable. Wie kann es sein, dass zwei so große Agenturen wie HadCRUT und GISS zu so unterschiedlichen Ergebnissen kommen, und das vermutlich aus dem gleichen Datensatz? Paul Homewood erstellte die folgende Tabelle, in der Ergebnisse von vier Datenquellen der Periode 2002 bis 2011 verglichen werden:

Es zeigt sich eine Differenz zwischen GISS und UAH von 0,36°C, was für einen neun-Jahres-Zeitraum enorm ist. Man vergleiche das mit der Erwärmung um 0,6°C seit 140 Jahren, eine Änderung, von der das IPCC im Jahre 2001 behauptet hat, dass sie dramatisch und unnatürlich sei.

Die Datengrundlage ist räumlich und zeitlich sogar noch viel schlechter, wenn es um Wasser in all seinen Formen geht, vor allem Niederschlag. In einer klassischen Untertreibung heißt es im IPCC-Bericht aus dem Jahr 2007:

Unterschiede bei der Messung des Niederschlags verbleiben als Sorgenkind bei der Quantifizierung des Ausmaßes, mit dem sich Niederschläge im globalen und regionalen Bereich verändert haben.

Weiter stellen sie fest:

Wenn Modelle akkurat die sich mit der Jahreszeit verändernde Verteilung von Niederschlägen simulieren sollen, müssen sie eine Reihe von Prozessen korrekt simulieren (z. B. Verdunstung, Kondensation, Transport), die im globalen Maßstab schwierig zu evaluieren sind.

Das Fehlen von Daten ist schlimmer als Temperatur und Niederschlag für alle andere Wetter-Variablen. Es gibt nur unzureichend Daten, um die Interferenzen von Autokorrelationen zu bestimmen.

(2)Alternative Mechanismen von Änderungen

Die Fähigkeit, Mechanismen und deren Implikationen zu bestimmen ist ohne adäquate Daten unmöglich. Abgesehen davon, wir verstehen die meisten Mechanismen gar nicht, so dass die Berücksichtigung von Alternativen schwierig ist. Viele Mechanismen sind erkannt, aber viele andere sind nach wie vor unbekannt. Eine Äußerung von Donald Rumsfeld bringt es auf den Punkt:

„…Es gibt bekannte Bekannte; das sind Dinge, von denen wir wissen, was wir wissen. Es gibt aber auch unbekannte Bekannte; das heißt, es gibt Dinge, von denen wir wissen, dass wir nichts wissen. Außerdem gibt es aber auch noch unbekannte Unbekannte – das sind Dinge, von denen wir nicht wissen, dass wir nichts wissen“.

Der Widerspruch in den Ergebnissen verschiedener Behörden wie z. B. bei den Temperaturdaten beweist diesen Punkt. Das IPCC hat dieses Problem mit einer begrenzten Definition umgangen, die es ihm gestattete, die meisten Mechanismen zu ignorieren. Oftmals waren die Entschuldigungen ziemlich bizarr, so wie diese aus dem Kapitel 8 des Berichtes aus dem Jahr 2007:

Infolge der unberechenbaren Kosten im Zusammenhang mit der Notwendigkeit einer gut aufgelösten Stratosphäre enthalten die zur Abschätzung des jetzigen Zustands verwendeten Modelle nicht die QBO.

Das IPCC hat genau das getan, wovor Einstein einst gewarnt hatte: „Alles sollte so einfach wie möglich gemacht werden, aber nicht noch einfacher“.

Jenseits von Autokorrelation?

Autokorrelation ist in der Klimatologie eine Gefahr, aber was beim IPCC passiert ist, geht weit darüber hinaus. In den grundlegenden Rekonstruktionen des Klimas in der Vergangenheit wurden Temperaturreihen aus Daten und Prozessen erstellt, die primär infolge von Niederschlägen aufgetreten waren.

Baumringe-Klimatologie [Dendroclimatology]

Viele dieser Temperaturreihen begannen als chronologische Rekonstruktionen. Baumringe begannen als Baumring-Chronologie; eine absolute Datierungsmethode geht davon aus, dass in jedem Jahr ein neuer Baumring entsteht. Das Alter von Borstenkiefern ermöglichte dies wenigstens. A. E. Douglass begründete die Disziplin der Jahresringchronologie im Jahre 1894 und verwendete später Baumringe zur Rekonstruktion solarer Zyklen und von Niederschlägen; Letzteres war das Ziel aller frühen Klima-Rekonstruktionen.

Die verfügbare Feuchtigkeit erklärt zum größten Teil das Wachstum von Pflanzen, wie Landwirte und Gärtner wissen. Köppen hat dies bei seiner Klima-Klassifizierung erkannt, die sich zuallererst auf den Niederschlag bezog (B-Klimata) und erst in zweiter Linie auf die Temperatur (A- und C-Klimata).

Der groß angelegte Missbrauch von Baumringen, um die Mittelalterliche Warmzeit (MWP) zu eliminieren kam ans Tageslicht durch unsaubere statistische Manipulationen. Die Schlussfolgerung im IPCC-Bericht 2001 behauptete, dass die Baumringe (der Effekt) keine Zunahme der Temperatur zeigen (die Ursache). In Wirklichkeit gehen mit der Klimaänderung auch Änderungen aller Variablen des Wetters einher, wodurch es zu dem Autokorrelations-Problem kommt.

Das Ausmaß der Änderung jeder Variablen ist eine Funktion der geographischen Breite, wandern doch wesentliche Wettermechanismen pol- oder äquatorwärts. Zum Beispiel hat sich während der Eiszeiten die polare Klimaregion hauptsächlich in die Klimazonen mittlerer und niedriger Breiten ausgedehnt, vor allem in den Wüstengürtel, etwa zwischen 15° und 30° Breite. Die Wüsten in niedrigen Breiten wurden zu feuchten Gebieten, was man traditionell pluvial nennt. Zu Anfang hatte man gedacht, dass es in mit der Hadley-Zirkulation zusammenhängenden tropischen Gebieten keine Beweise einer Eiszeit geben würde.

Feuchtigkeit ist ein grundlegender Faktor selbst unter harten Temperaturbedingungen an der Baumgrenze. Forschungen bei Churchill in [der kanadischen Provinz] Manitoba zeigten die wesentlichen Prädiktoren des Wachstums im Herbst des voran gegangenen Jahres und die winterliche Schneedecke.

Die Fichte in der Abbildung oben rechts befindet sich an der Baumgrenze bei Churchill. Sie ist etwa 100 Jahre alt. Die unteren Äste sind größer und befinden sich auf allen Seiten, weil sie von den beißenden Winterwinden durch Schnee geschützt sind. Über der Schneedecke hat der starke und persistente aride Nordwestwind verhindert, dass die Zweige wachsen. Lokal wird gewitzelt, dass man drei Bäume gefällt und sie dann zu einem vollständigen Weihnachtsbaum zusammen gebunden hat.

Das Wachstum von Bäumen, vor allem im jährlichen Maßstab, hängt primär von Feuchtigkeit ab, nicht von der Temperatur. Die von der Pflanze benötigte Feuchtigkeitsmenge und die verfügbare Menge an Feuchtigkeit variieren beide mit der Windgeschwindigkeit. An der Baumgrenze ist die Fähigkeit, Schnee an sich zu binden, für das Überleben kritisch. Schmale Ansammlungen oder Einzelbäume können jenseits der Baumgrenze nur überleben, solange sie Schnee festhalten können. Genauso wird eine offene Fläche diesseits der Baumgrenze baumfrei bleiben, solange der Schnee vom Wind fortwährend verblasen wird.

Speläologie (Höhlenforschung; Stalaktiten/Stalagmiten)

Stalaktiten (an der Decke) und Stalagmiten (am Boden) sind ein weiteres Beispiel für von Niederschlägen beeinflusste Features, von denen behauptet wird, dass sie die Temperatur repräsentieren. Sie entstehen durch Regenwasser, das durch Absorption von CO2 beim Fallen durch die Luft leicht sauer ist. Beim Sickern durch Kalkstein wird dieser ein wenig gelöst, und wenn der Tropfen an der Decke hängt, verdunstet ein winziger Bruchteil davon und lässt den gelösten Kalk zurück. Das Gleiche passiert, wenn der Tropfen auf den Boden fällt. Das Wachstum von beiden ist eine direkte Folge von Änderungen des Niederschlags an der Oberfläche.

Glaziale Schichtenfolge und Eisbohrkerne

Jahreszeitliche oder jährliche Schichtfolgen bilden ein Kollektiv, das unter der Bezeichnung rhythmites bekannt ist. Im Anfangsstadium von Klimarekonstruktionen war die Verwendung von Rhytmites eine spezifische Form, Varves genannt, und bezogen auf jährliche Sedimentschichten in voreiszeitlichen Seen. Im Jahre 1910 hat der schwedische Wissenschaftler Gerard de Geer eine wichtige Chronologie für glaziale Sequenzen im Holozän erarbeitet. Die Dicke der Sedimentschicht ist eine Folge der Temperatur, aber auch eine Folge der Regenmenge während des Sommers, die die Schmelzraten von Schnee und Eis beeinflusste.

Jahreszeitliche Schichten in einem Gletscher spiegeln oftmals Temperaturänderungen, werden aber auch durch Niederschläge modifiziert. Die Bewegung der Gletscher wird als Indikator für Temperaturänderungen angesehen, ist aber auch ein Indikator für Änderungen der Niederschlagsmenge. Die Dicke der Schicht variiert mit der Schneefallmenge (ja, auch im Winter gibt es Dürren [wie z. B. in Bayern im Dezember 2013! A. d. Übers.]). Mit einer Dicke von etwa 50 m wird Eis unter Druck plastisch und beginnt zu fließen. Eis fließt immer in Richtung der Gletscherzunge innerhalb des Gletschers. Die Distanz zwischen Vordringen und Zurückweichen der Gletscherzunge hat genauso viel mit der Akkumulation von Schnee über der Grenze ewigen Schnees zu tun wie mit Temperaturänderungen.

Schmelzwasser eines Gletschers ist genauso eine Funktion der Temperatur wie des Niederschlags. Wenn es auf den Gletscher regnet, nimmt die Schmelzrate von Schnee und Eis dramatisch zu. Dies ist wahrscheinlich eine Haupterklärung für die rapide Schmelze und die rasante Ausbreitung eiszeitlicher Seen, während des Optimums des Holozäns. Die Dynamik eines kontinentalen Gletschers ist eine allmähliche Akkumulation von Schneeschichten, der ein relativ rasches Abschmelzen folgt, wenn der Schnee in Regen übergeht.

Die Menge des CO2 in den Eiskristallen variiert mit der Temperatur des Wassertröpfchens genauso wie die CO2-Kapazität des Meerwassers variiert. Dies bedeutet, dass Schmelzwasser von Gletschern eine höhere CO2-Konzentration aufweist, und wenn es durch die Eisschichten sickert, werden die Eisbläschen modifiziert. Jaworowski hat dies in seiner Präsentation vor dem US-Senatskomitee im März 2004 erläutert.

Dies ist so, weil die Eisbohrkerne nicht das essentielle Kriterium eines abgeschlossenen Systems erfüllen. Eines davon ist das Fehlen flüssigen Wassers im Eis, was die chemische Zusammensetzung der zwischen den Eiskristallen eingeschlossenen Luftbläschen dramatisch verändern kann. Dieses Kriterium ist nicht erfüllt, da selbst die kältesten Stellen im antarktischen Eis (bis zu -73°C) flüssiges Wasser enthalten. Mehr als 20 physikalisch-chemische Prozesse, meistens bezogen auf das Vorhandensein flüssigen Wassers, tragen zur Veränderung der ursprünglichen chemischen Zusammensetzung der Lufteinschlüsse im polaren Eis bei.

Das IPCC hat sich auf den Kohlenstoffkreislauf konzentriert, aber der Wasserkreislauf ist viel wichtiger, vor allem, weil er mit der Dynamik der Veränderung in Beziehung steht. Man lege einen dehydrierten Stein in eine Kammer und verändere die Temperatur so viel wie möglich – und es wird kaum etwas geschehen. Jetzt füge man ein paar Tropfen Wasser hinzu, und der Zusammenbruch (Verwitterung) des Steines ist dramatisch. Jedes Klimaexperiment oder jede Klimaforschung, die Wasser ausschließt, wie etwa eine Liste von Treibhausgasen in trockener Luft, ist bedeutungslos. Wasser existiert überall auf dem Planeten.

Niederschlag fällt auch über den Ozeanen, aber wir haben nahezu keinerlei Messmöglichkeiten. Daher können wir auch keine Aussagen zu den Verdünnungseffekten des Niederschlags auf den Salzgehalt machen und den Bestand von Gasen in der kritischen Oberflächenschicht. Wie stark beeinflusst Niederschlag als eine 10 prozentige Lösung von Kohlensäure die CO2-Messungen dieser Schicht? Schneeschmelze hat einen höheren CO2-Prozentanteil.

Windrichtung und –geschwindigkeit bestimmen grundlegend die Verteilung von Wasser in der Atmosphäre und damit auf der ganzen Welt. Sie verändern die Auswirkungen der Temperatur, wie wir aus dem Windchill-Faktor oder Messungen des Heizgrades wissen. Welche Auswirkungen hat eine geringe Zunahme der Windgeschwindigkeit in regionalem, hemisphärischen oder globalen Maßstab auf Wetter und Klima?

Der atmosphärische Luftdruck variiert mit der Temperatur, die das Gewicht und den Druck der Atmosphäre auf den Boden bestimmt. Wie stark verändert sich durch diese Effekte der Meeresspiegel? Durch Flutwellen im Zuge intensiver Tiefdrucksysteme wissen wir, dass er erheblich sein muss.

Die Liste der offiziell vom IPCC ausgeschlossenen ungemessenen und unbekannten Variablen für seine Wissenschaft macht ihre Modelle und ihre Behauptungen bedeutungslos und ungültig. Sie illustriert auch das Ausmaß der Autokorrelation, mit der die Klimaforschung konfrontiert ist. Es scheint, dass Wigley und damit auch das IPCC diese Probleme kennen. Aber sie haben beschlossen, sie zu umgehen, indem die Aufmerksamkeit sorgfältig in eine bestimmte Richtung gelenkt wird – eine wissenschaftliche Fingerfertigkeit.  

Link: http://wattsupwiththat.com/2013/12/27/many-climate-reconstructions-incorrectly-attributed-to-temperature-change/#more-99965

Übersetzt von Chris Frey EIKE




„Energiewende ins Nichts“, Teil 1: Anmerkungen zum Vortrag von Prof. Hans-Werner Sinn

Zuerst die gute Nachricht

Ein Kompliment an H-W. Sinn für seinen Mut an politischer Inkorrektheit. Er sprach in seinem Vortrag die praktisch unlösbaren Probleme der Energiewende klar aus und legte ihren ökonomisch-technischen Irrsinn schonungslos offen. Was diese Seite seines Vortrags angeht, war sie – mit Ausnahme eines einzigen gravierenden Fehlers – makellos. Die von ihm genannten Zahlen sind nachprüfbar. Der Inhalt seines Vortrags, der die Kosten und den technischen Aberwitz der Energiewende betrifft, ist im Übrigen praktisch identisch mit den schon seit Beginn der Energiewende-Aktion erschienenen und inzwischen kaum noch zu zählenden EIKE-News in der Rubrik "Energie"

Video des Vortrags von Prof. H-W-Sinn über die naturgesetzlichen Beschränkungen der "Energiewende" und deren unvermeidbare Folgen für den Wirtschaftsstandort Deutschland

Allerdings: Jedesmal, wenn der Vortrag von H-W. Sinn andere Fachgebiete streifte, wurde es schwammig, aber keineswegs ganz falsch. So sollte, um ein stellvertretendes Beispiel zu nennen, ein Physiker, den es vermutlich auch im IFO gibt, Herrn Sinn die permanente Verwechslung von Atomkraftwerken mit Kernkraftwerken ausreden. Kernkraftwerke beziehen ihre Energie aus Umwandlungen der Atom-KERNE, Atomkraftwerke aus Umwandlungsvorgängen der Elektronenhülle des Atoms (meist Verbrennungsvorgänge). Insofern sind die klassischen Kohle- und Gaskraftwerke „Atomkraftwerke“. Nur die grüne Anti-Kernkraft-Lobby hat die Bezeichnung „Atomkraft“ in den deutschen Sprachgebrauch eingepflanzt, weil sie das Wort „Kernkraft“ für ihre Agenda als unerwünscht positiv besetzt beurteilte. Diesen physikalisch unsinnigen Sprachgebrauch sollte man nicht mitmachen.

Auch H-W. Sinns Anmerkungen zu schnellen Brütern, Uran aus dem Meer, Uranreichweite von 3000 Jahren etc. waren sämtlich in etwa richtig, könnten aber Korrekturen und Ergänzungen gut vertragen. Es wäre schön gewesen, H-W. Sinn hätte zu seiner korrekten Schilderung über die Einwirkung der radioaktiven Strahlung auf den Menschen auch das Phänomen der Hormesis erwähnt, d.i. die bei  geringeren Dosen gesundheitsfördernder Wirkung von radioaktiver Strahlung (hier). Er hätte die Reichweite von Uran mit schnellen Brütern und Urangewinnung aus dem Meer korrekt mit vielen Millionen Jahren und nicht mit 3000 Jahren angeben sollen [1]. Seine Schilderung des Speicherproblems erschien uns ferner etwas zu kompliziert-umständlich, ob hier die Zuhörer noch folgen konnten? Es geht auch einfacher und anschaulicher.

Und schließlich das Elektroauto: H-W. Sinn vergaß zu erläutern, wie die Glättung des Zappelstroms aus Wind und Sonne mit Hilfe von 1 Mio. Elektroautos denn nun praktisch ablaufen soll. Diese von grünen Hirnen ausgebrütete "Idee" ist nämlich nur eine weitere unter vielen anderen unsinnigen der Energiewende. Das Umweltproblem der permanenten Entsorgung von Millionen Batterien voll giftiger Metallverbindungen wäre ebenfalls einer Erwähnung wert gewesen. Und schließlich: Wie soll das „Tanken“ von 1 Mio. Elektroautos eigentlich erfolgen? Unser 220 Volt Netz wäre damit hoffnungslos überfordert. Man müsste separate Hochspannungsleitungen zu den "Tankstellen" legen, man müsste die Spannung heruntertransformieren (denn man kann Elektroautos nicht mit Hochspannung laden), man müsste die Transformatoren kühlen …. ein weiterer technischer Abersinn.

Schade, leider doch ein kapitaler Fehler im Vortrag

Neben den vorbeschriebenen Korrekturen und Verbesserungen enthielt der Energiewendeteil aber auch einen kapitalen Fehler, den Prof. Helmut Alt (FH Aachen) in seinem uns zur Verfügung gestellten Schreiben an Herrn H-W. Sinn spezifiziert und kommentiert hat. Wir zitieren aus dem Schreiben von H. Alt wörtlich wie folgt:

"Sie erklärten bei 99 prozentiger Sicherheit 1 GW der Windleistung als gesicherte Leistung. Da ich bereits im Jahr 1968 unter Prof. Mandel als Diplomarbeitsthema die Thematik: „Berechnung der Reserveleistung im Verbundbetrieb der Kraftwerke“ in Deutschland behandeln durfte, möchte ich Ihnen zu der gesicherten Leistung folgendes darlegen: Der Erwartungswert für die gesicherte Leistung für die Stromerzeugung von 99 %, wie auch von Herrn Kohler in der dena-Netzstudie I genannt, ist für die Praxis der Energieversorgung vollkommen unzureichend: In der elektrischen Energieversorgung in Deutschland wurde bisher die notwendige Reserveleistung bei einer Versorgungssicherheit aus dem Kraftwerksmix von 10.000 Jahre/Tag, entsprechend einer Versorgungssicherheit von 99,9999 % ermittelt, also noch vier Neunen hinter dem Komma.

Wenn die Lufthansa z.B. mit 99 % iger Sicherheit fliegen würde, wäre im Mittel jeder hundertste Flug der letzte Flug. Eine sehr missliche Situation, keiner würde mehr fliegen. Daher erwartet man dort auch eine Sicherheit (Erwartungswert) in der Größenordnung von 99,9999 %. Damit ist jeder Millionste Flug rein statistisch der Letzte, darüber lässt sich so langsam reden, da kaum einer mehr als 30.000 Flüge in seinem Leben absolviert, also noch 970.000 weitere Flüge ebenso unfallfrei zu erwarten wären.

Ebenso misslich wäre dies für die Stromversorgung; von 365 Tagen wäre bei 99 % Sicherheit im Mittel an 3,65 Tagen im Jahr die Stromversorgung ausgefallen, für eine Industrienation eine unzumutbare Situation. Bereits aus den Leistungsganglinien kann man ersehen, dass es bei ¼ h iger Leistungsauflösung der zeitgleichen Leistung aller Wind- und Sonnenanlagen in Deutschland von derzeit rd. 32 GW Windleistung und 34 GW Sonnenleistung fast in jedem Monat einige Stunden gibt, in denen die Summenleistung nahezu Null ist d.h. bei 99,9999 %iger Sicherheit die verfügbare gesicherte Leistung sogar deutlich unter 1GW = 1000 MW liegt.(Sehen Sie den ganzen Brief von H. Alt an H-W.Sinn als pdf im Anhang)

Der von H. Alt kommentierte Fehler sieht zunächst "harmlos" aus. Er ist es aber nicht. 99% Verfügbarkeit, die definitiv nicht ausreichen, erzeugen nämlich in den Köpfen der Energiewende-Enthusiasten die irrationale Hoffnung, mit "smart grids" und ähnlichem Unsinn ihr ideologisches Ziel doch erreichen zu können. Dagegen steht fest: Ihr Ziel zu erreichen ist technisch und unter einigermaßen vertretbaren Kosten UNMÖGLICH!

Ein Fazit zum Energiewende-Treil des Vortrags

Der realitätsferne Aberwitz der "Energiewende" wurde von H-W. Sinn den Zuhörern nahezu mustergültig und sachlich zutreffend vermittelt – mit Ausnahme des o.g. kapitalen Fehlers.

Nun die schlechte Nachricht

Um es vorwegzunehmen: Die Autoren nehmen die nachfolgend erläuterte "CO2-Klima-Katastrophen-Überzeugung" einem Wissenschaftler wie H-W. Sinn, der mit Zahlen umgehen kann und zu recherchieren versteht, einfach nicht ab. Die Autoren sind vielmehr der Überzeugung, dass H-W. Sinn hier nicht seine wahre Auffassung schilderte. Er benötigt vermutlich die CO2-Problematik als entscheidendes "Zusatzargument" für seine bezüglich der "Energiewende" sachlich absolut korrekte Propagierung der Kernenergie. Eine andere Erklärung ist für einen Wissenschaftler vom Format eines H-W. Sinn nicht denkbar.

H-W. Sinn bzw. seinem mithelfenden Stab kann unmöglich unbekannt sein, dass das CO2 in der von ihm gezeigten Vostok-Eisbohrkern-Kurve der Temperatur-Kurve um etwa 800 Jahre nachfolgt. Dies ist etwa die Zeit, die ein Weltmeer zur vollkommenen Umwälzung benötigt. CO2 für die Temperaturschwankungen zwischen Warm- und Eiszeiten verantwortlich zu machen, entspricht dem bekannten Irrtum, Korrelation mit Kausalität gleichzusetzen. Die Löslichkeit von CO2 in Wasser hängt von der Temperatur ab, das Meer "atmet" CO2 bei kalten Temperaturen ein und bei warmen aus, ein ganz normaler und bestens bekannter Vorgang. H-W. Sinn müsste auch die Düngewirkung des CO2 bekannt sein, die nach 20-jährigen Auswertungen von NASA-Satelliten bereits aktuell die Ernten weltweit verbessert hat und unseren Planeten ergrünen ließ [2] und hier, hier. Er und seine IFO-Mitarbeitern müssten auch die beiden Physik-Nobelpreisträger R. Laughlin und Ivar Glaever kennen sowie etwas von den in viele Tausende gehenden Meteorologen und Klimaexperten gehört haben, die der IPCC-Hypothse von der anthropogenen Erwärmung in Fachpublikationen, Manifesten und öffentlichen Deklarationen widersprechen (hier). Er müsste auch etwas von den folgenden Verlautbarungen des wissenschaftlichen Beirats für globale Umweltveränderungen (WBGU) im Sondergutachten "Klimaschutz" auf S. 8, Abschnitt 2.1, letzter Absatz vernommen haben: „Wegen der hohen natürlichen Klimavariabilität ist es sehr schwierig nachzuweisen, ob der Mensch die beobachtete Klimaänderung mitverursacht hat“ (hier). Diese Aussage des WBGU erfolgte 1997, also praktisch zum Scheitelzeitpunkt der Erwärmung des 20. Jahrhunderts und zu einer Zeit als der WBGU noch mit Fachexperten und nicht, wie heute, mit grün-roten Glaubenskriegern besetzt war.

Bis zum heutigen Tage konnte ein anthropogener Einfluss auf Erdtemperaturen aus dem natürlichen Temperaturrauschen des Klimas nicht herausgefiltert werden. Es gibt keinen wissenschaftlichen Fachartikel, der dies belegen würde. H-W. Sinn müßte auch wissen, dass die globale Mitteltemperatur seit gut 15 Jahren leicht abnimmt oder zumindest stagniert und diese Stagnation, ebenso wie die lange Abkühlungsperiode ab 1935 bis 1975, nicht mit dem stetig zunehmenden atmosphärischen CO2-Gehalt zusammenpasst.

Die Autoren schätzen H-W. Sinn als einen sorgfältig recherchierenden Wissenschaftler und nehmen ihm deshalb, wie bereits betont, seine Aussagen zur CO2-Gefahr nicht ab. Diese Annahme wird unterlegt dadurch, daß Sinn in seinem Vortrag mehrfach die Hockey-Stick-Diskussion der Lächerlichkeit preisgab. Ein solch dreister Betrug, wie er vom US-Klimaforscher M. Mann mit seinem "Hockey-Stick" vorgenommen wurde, hat tatsächlich etwas Lächerliches an sich.

Kurzum: Wenn es hilft, die Kernenergie dem Volk durch ihre völlige CO2-Emissionsfreiheit wieder akzeptabel zu machen, so mag das einen politischen Sinn haben. Es sei an dieser Stelle aber betont, dass dieses Argument – wenn man sich der wissenschaftlichen Wahrheit verpflichtet fühlt – nicht zur Propagierung der Kernenergie verwendet werden sollte. Solche "Hilfestellung" hat die Kernenergie ihrer technisch-ökonomischen Vorteile wegen nicht nötig.

Die Diskussion nach dem Vortrag

Hier möchte man laut fragen: Gibt es in ganz München – dort befinden sich immerhin die LMU, die TU, Fachhochschulen und Unternehmen mit technisch kundigen Mitarbeitern – keine Experten, die mit Wortmeldungen zu einer interessanten Diskussion nach dem Vortrag hätten beitragen können? Über die Qualität der gestellten Fragen kann dagegen nur der Mantel höflichen Schweigens gebreitet werden, denn es war meist schrecklich. Die Fragenden hatten in der Regel anscheinend beim Vortrag nicht richtig hingehört. H-W. Sinn konterte dementsprechend alle Einwände souverain und erschien bei einigen Fragen zu recht etwas genervt.

Den Vogel schoss zweifellos der ehemalige Energieminister Bayerns, Martin Zeil, mit seiner Anmerkung zur Kernenergie ab. Er halte einen "Ausstieg aus dem Ausstieg" der Kernenergie hierzulande politisch und DAHER REAL für absolut unmöglich. Na, dann brauchen wir uns ja nicht mehr zu wundern! So ist das also: Eine grün-rote Clique von Ökofaschisten hat es in Jahre langer Wühlarbeit, mit gewaltsamen, rechtsbrechenden Castortransport-Blockaden, mit Gleiszerstörungen, mit tätlichen Angriffen auf Polizisten und mit willfähriger Unterstützung der grün-rot majorisierten deutschen Medien zuwege gebracht, die deutschen Hirne mit Öko-Unsinn zu vermüllen und irrationale Ängste vor allem, was mit "Atom" oder "Kern" anfing, einzupflanzen. So etwas ist zwar gerade hierzulande, wie es die deutsche Geschichte belegt, nicht allzu schwierig. Es belegt aber den niedrigen naturwissenschaftlich-technischen Bildungsstand unserer Bevölkerung (gemittelt, denn wir haben an der Spitze ausgezeichnete Fachleute).  Wer sich am politisch unkorrekten Begriff "Ökofaschismus" stört, möge sich vielleicht die Indoktrinationen von Schülern an deutschen Schulen ansehen (hier, hier, hier). Wir leben in der heutigen Bundesrepublik inzwischen in einer Ökodiktatur mit all den bekannten Begleiterscheinungen, wie Schulerziehung, beruflichen Nachteilen für Kritiker sowie Seilschaften von Profiteuren. Der letzte Schritt, das Einsperren der Kritiker, fehlt glücklicherweise noch.

Nun, da sich die öffentliche Meinung von der Nutzung der Kernenergie abgewandt hat, muss man es gemäß Energieminister A.D. Martin Zeil also dabei bewenden lassen. Da kann man eben nichts machen. Änderungen sind politisch und daher gemäß messerscharfer Logik von M. Zeil auch REAL unmöglich. Bei uns steuert der "Zeitgeist" die Realität, und wahrscheinlich können nur noch infolgedessen eintretende Pannen und Katastrophen für eine – dann wohl meist zu späte – Korrektur sorgen. Warum in aller Welt sind eigentlich nur wir Deutschen so dumm und entfernen die grünen Rattenfänger und solche Politiker, die diese Rattenfänger gewähren lassen, nicht früher aus unserem Hause?

Hierzulande wird nicht einmal thematisiert – wie es H-W. Sinn unüberhörbar betonte – dass uns definitiv niemand auf der Welt bei unserem Energiewende-Irrsinn und so gut wie niemand in unserer irrationalen Aufgabe der Kernenergie folgen will und wird. Im Gegenteil, 85% emotionale Zustimmung für die Energiewende in der Bevölkerung! Wir sind wieder einmal die Schlauesten auf der ganzen Welt. Spricht man mit Windrad-Anrainern, die gegen diese Monster zu Felde ziehen, hört man: "Wir sind ja für die Energiewende, bloß nicht für diese Ungetüme vor unserer Haustüre". Kommentar dazu überflüssig, das Mitleid verflüchtigt sich, und man denkt still bei sich: "…diese Dummköpfe, sind selber schuld und verdienen es nicht besser".

Zurück zu dem w.o. zitierten ehemaligen Energieminister Bayerns: "Vielen Dank für Ihre aufschlussreiche politische Aufklärung, sehr geehrter Herr Zeil. Wir wissen nun Bescheid. Vielleicht kommt aber doch einmal irgend einem Politiker die leise Ahnung, warum ‚Ihre Kaste‘ so beliebt ist". Uns bleibt nur die Hoffnung, die niemals aufgegeben werden darf. Außerdem könnte man das nächste Mal vielleicht irgend eine vernünftige Alternative für Deutschland wählen. Aber vielleicht liegt es ja auch in den deutschen Genen, in denen offensichtlich die Furcht fest verankert ist, sich als falsch erkannten Entwicklungen entgegenzustellen; Entwicklungen, von denen man im Grunde sehr gut weiß, dass sie verhängnisvoll sind. Konsens hat das Primat bei uns und wenn dabei alles in die Brüche geht. In anderen Ländern gehen die Leute auf die Straße oder leisten wenigstens passiven Widerstand. Nicht so hierzulande. Wir halten bis zur buchstäblichen, letzten Patrone durch. Nur die Älteren wissen noch, dass heimkehrende deutsche Soldaten nur wenige Tage vor Kriegsende noch wegen Fahnenflucht erschossen wurden. Und auch im Energiewende-Desaster werden wir wieder bis zur ökonomischen Katastrophe oder einem Black-Out durchhalten.

Es gibt aber auch Amüsantes zu berichten: die Medien der ganzen Welt lachen über die grünen Aktivisten in der Antarktis, welche die globale Erwärmung belegen wollten und dabei mit ihrem Schiff in einem mindest 40jährigen Eis-Maximum stecken blieben. Die Ausdehnung des antarktischen Eises nimmt nämlich schon seit Jahrzehnten stetig zu und hat dieses Jahr ein wahrscheinlich sogar säkulares Maximum erreicht. Dies war den australischen ‚AGW-Wissenschaftlern‘ der "Akademik Shokalski" zu ihrem Schaden unbekannt. Über die klimatischen Gründe dieser Schiffs-Havarie ist freilich in den deutschen Medien nichts zu vernehmen.

[1] H.-J. Lüdecke, Energie und Klima, Chancen, Risiken, Mythen (hier)

[2] M.L. Parry et al.: Effects of climate change on global food production under SRES emissions and socio-economic scenarios, Global Environ. Change 14, 53, 2004

Related Files




Über Meteorologie und Moral

Für die wirklich Gläubigen ist die Parteilinie sozial bequem, politisch nützlich und finanziell profitabel. Schließlich handelt es sich um die Parteilinie. Für jene, die als Herde oder Bienenschwarm denken, ist das sicher. Es ist eine schmutzige Sicherheitsdecke. Es ist die bedrückende Sicherheit in Zahlen, die für den unvernünftigen Mob der Gütestempel ist.

Aber stimmt das auch? Der Herde und dem Bienenschwarm ist es egal. Oder besser, es ist ihnen tatsächlich nicht egal. Sie kümmern sich sehr darum, falls jemand es wagt, die Frage zu stellen „stimmt das denn auch?“ Dann sind sie aufgebracht, geschockt und wütend. Sie richten ihr Gift und ihren Zorn und ihre Wut auf jene von uns, die fragen „aber stimmt das auch?“, selbst dann, wenn wir sehr höflich fragen.

Ihre Reaktion ist kaum zu unterscheiden vom Verhalten der Anhänger irgendeines primitiven Aberglauben-Kultes, die erleben müssen, dass jemand einige ungeheuerliche, offensichtlich verrückte Fragen zu Aspekten des Dogmas stellt, das die Hohepriester ausgegeben haben.

Sie sind einer Religion verfallen, aber sie nennen es Wissenschaft. Sie sind einer Religion verfallen, aber sie wissen nicht, dass sie einer Religion verfallen sind. Sie sind einer Religion verfallen, aber sie haben den Sinn der Religion nicht verstanden, ebensowenig wie die Grundlage der Wissenschaft: objektive Wahrheit.

Es erhebt sich die Frage: Kann Wissenschaft ordentlich oder überhaupt funktionieren beim Fehlen einer Religion und deren Bestehen auf Moral? Für die Wissenschaft gilt, dass sie auf der Suche nach Wahrheit etwas verfolgt, das ein ausgeprägt moralisches Streben ist – oder zumindest zum allergrößten Teil sein sollte.

Was aber ist, wenn eine Handvoll schlechter Wissenschaftler absichtlich Daten verändert, Ergebnisse fabriziert und Zustimmung für Behauptungen fordert, für die es keine echte wissenschaftliche Rechtfertigung gibt? Und was ist, wenn die große Mehrheit ihrer Kollegen ängstlich in die andere Richtung schauen und nichts hinsichtlich ihrer auf Abwege geratenen Kollegen tun? Das Ergebnis hiervon ist die Angst vor der globalen Erwärmung.

Wie jeder Theologe weiß, ist es der einfachste und gewöhnlich auch sicherste Test für die Gegenwart einer Moral, ob die Wahrheit gesagt wird oder nicht. Die wirklich Gläubigen in den Neuen Aberglauben* sagen nicht die Wahrheit. Wie jeder objektive Test zeigt, lügen sie und profitieren durch ihre Lügen, und sie tun das auf Kosten von Ihnen und mir, und sie werben dafür, das Zeitalter von Erleuchtung und Vernunft zu verlassen und uns in die dumpfe Freudlosigkeit eines neuen Dunklen Zeitalters zu werfen.

[*Auch im Original hat Monckton diese Begriffe groß geschrieben].

Gegen die vielen Lügen wird natürlich nichts getan, weil die vielen Lügen der Parteilinie folgen, und niemand wanderte jemals ins Gefängnis, der die Parteilinie nachplapperte.

„Die Wissenschaft ist settled! Es gibt einen Konsens! Einen Konsens von 97%! Zweifler sind so schlimm wie Holocaust-Leugner! Die globale Temperatur steigt gefährlich! Es ist jetzt wärmer als während der letzten 1400 Jahre! Nun, 400 Jahre, was soll’s. Baumringe sagen uns das zuverlässig! Die Rate der globalen Erwärmung wird immer stärker! Die globale Erwärmung führte zum Supersturm Sandy! Und zum Taifun Hayian! Und zu 1000 anderen Katastrophen! Das arktische Meereis wird bis 2013 verschwunden sein! OK, dann bis 2015! Oder vielleicht 2030! Santa Claus wird keinen Ort zum Wohnen mehr haben! Die niedlichen Eisbären stehen vor der Ausrottung! Hungernde Eisbären werden anfangen, Pinguine zu fressen! Die Himalaya-Gletscher werden bis zum Jahr 2035 abschmelzen! Em, man mache daraus 2350! Millionen Spezies werden aussterben! Nun, eher Dutzende, aber was soll’s! Der Meeresspiegel steigt gefährlich! Er wird um 3 Fuß steigen! Nein, 20 Fuß! Nein, 246 Fuß! [jeweils ca. 90 cm; 610 cm; 68 m]. Wegen des steigenden Meeresspiegels wird es bis zum Jahr 2010 50 Millionen Klimaflüchtlinge geben! OK, vielleicht bis 2020! Die Ozeane werden versauern! Die Korallen werden sterben! Globale Erwärmung tötet! Es gibt eine Chance von 1 zu 10, dass die Welt bis 2100 untergeht! Wir wissen, wovon wir reden! Wir wissen das am besten! Wir sind die Experten! Sie können uns vertrauen! Unsere Computermodelle sind unfehlbar! Die Wissenschaft ist settled! Es gibt einen Konsens!“

Und so weiter und immer weiter, ad nauseam, ad ignorantiam, ad infinitum.

Jede einzelne dieser pathetisch ausgerufenen Statements zum Klima ist substantiell unwahr. Die meisten wurden zum ersten Mal durch Wissenschaftler in den Raum geworfen, die für einst respektierte Universitäten und Regierungsagenturen arbeiteten. Die Aussage beispielsweise, dass es eine Chance von 1 zu 10 gibt, dass die Welt bis zum Jahr 2100 untergehen wird, ist die fundamental törichte Hypothese im Stern-Report 2006 zur Klima-Ökonomie, geschrieben von einem Team am Ministerium des Schatzkanzlers der damals sozialistischen Regierung, die die gewünschte, aber nicht die wahrheitsgemäße Antwort erhalten hat, weil sie die Wahrheit nicht hören wollte.

Früher konnte man sich darauf verlassen, dass man nichts als die Wahrheit hören würde von den Menschen in weißen Kitteln und klecksenden Kugelschreibern in ihrer Brusttasche. Jetzt aber, wenn es um das Thema globale Erwärmung geht, kann man sich darauf verlassen, dass man nichts weniger als profitablen Unsinn von Ihrem freundlichen Laboratorium der lokalen Universität zu hören bekommt. Diese machen den Profit: Sie bekommen den Unsinn.

Der zentrale Grund, warum das, was Prof. Nils Axel Mörner die „größte jemals erzählte Lüge“ bezeichnet hat, ist nicht der Schaden an der Zivilisation durch ausufernde Kosten, die bald 1 Milliarde Dollar pro Tag erreichen werden. Auch nicht die direkte Bedrohung des Westens durch die erklärtermaßen antidemokratische, antifreiheitliche Politik der UN, des IPCC und die kostspieligen, nicht gewählten Agenturen mit den Anfangsbuchstaben des gesamten Alphabetes durch räuberische Regierungen, die von der unfreiwilligen Freigiebigkeit der Steuerzahler leben. Und auch nicht durch die verheerenden Umweltschäden durch Windmühlen und andere mittelalterliche Maßnahmen, die darauf abzielen, die nicht existente globale Erwärmung zum Verschwinden zu bringen.

Der Hauptschaden der Großen Lüge resultiert aus der Tatsache, dass nichts weniger als die regierende Klasse des gesamten Globus‘ es als nützlich oder bequem oder profitabel gefunden hat, die Große Lüge zu übernehmen, damit hausieren zu gehen und zu paradieren, sie nachzuplappern und sie weiterzugeben, ohne Rücksicht darauf, ob irgendetwas, was sie zum Thema Klima behauptet, in der Wissenschaft irgendeine Wahrheit welcher Art auch immer hat.

Das fundamentale Prinzip, auf dem Aristoteles die Kunst und Wissenschaft der Logik gegründet hat, lautet, dass jede individuelle Wahrheit konsistent mit jeder anderen individuellen Wahrheit ist. Die Wahrheit ist eine unscheinbare Sache. Religion begründet sich ebenfalls auf diesem fundamentalen Prinzip der Einheit aller Wahrheit.

Auch Wissenschaft – oder die klassische wissenschaftliche Methode auf jede Art, umrissen von Thales of Miletus und Al-Haytham und zur Reife gebracht von Newton, Huxley, Einstein und Popper – wurzelte auch im Verständnis, dass es nur eine Wahrheit, nur ein physikalisches Gesetz gibt, und dass daher jede Wahrheit, ans Licht gekommen durch den neugierigen und hart arbeitenden Empiriker oder Theoretiker, wenn sie wirklich wahr ist, an jedem Punkt konsistent sein muss und in jeder Einzelheit mit jeder Wahrheit in Einklang stehen muss, die jemals zuvor entdeckt worden ist, und mit jeder Wahrheit, deren Entdeckung noch bevorsteht.

Es liegt an dem Verständnis für dieses zentrale Prinzip der bemerkenswerten Einheit und Selbstkonsistenz aller Wahrheit, dass Männer echter Religion und echter Wissenschaft sich vereinigen sollten. Weil es eine schreckliche Schönheit in der Wahrheit gibt, der ganzen Wahrheit und nichts als der Wahrheit. Keats drückt es so aus: „Schönheit ist Wahrheit, Wahrheit Schönheit – das ist alles!“

Die Schönheit der Wahrheit ist besudelt, die nahtlose Robe zerfetzt, nicht von lediglich einigen wenigen individuellen Wissenschaftlern, sondern der gesamten politischen Klasse nicht nur einer einzigen Nation, sondern des ganzen Planeten. Die Reichen bereichern sich weiter, die Armen verarmen immer mehr – alles nur, weil gelogen, gelogen und nochmals gelogen wird im Namen der Rettung des Planeten durch die Errichtung kostspieliger und für die Umwelt verheerender Nicht-Lösungen für etwas, das nachweislich ein Nicht-Problem ist.

Der ganze Stoff, aus dem das Universum besteht, ist durch eine so monströse und erschreckend persistente Lüge verzerrt. Diejenigen Wissenschaftler, die beim Herumtrampeln auf der Wahrheit ertappt worden sind und diejenigen Universitäten, in denen fast universal Übereinstimmung gibt, dass das beste Mittel, die Gelder am Fließen zu halten, nichts über die Große Lüge zu sagen ist – sie alle verleugnen durch ihre Taten oder Nicht-Taten die reine Rechtfertigung und die Daseinsberechtigung der Wissenschaft: Nach Wahrheit zu trachten, sie zu erklären, sie auszuweiten, um uns alle auf diese Weise der Antwort auf die größte aller Fragen näher zu bringen: wie kommt es, dass wir und alles um uns herum hier sind?

Wir, die wir nicht nur Wissenschaftler sind, sondern auch einer Religion angehören – wir glauben, dass die Antwort auf diese Frage vor etwa 2000 Jahren in einer Krippe in Bethlehem gegeben worden ist. Das wahre menschliche Gesicht des wahren Göttlichen war „perfekt Gott und perfekt Mensch“, wie es das Konzil von Chalzedon so wunderbar auf den Punkt gebracht hat.

Wir können nicht beweisen, dass ein Nazarener das Universum erschaffen hat, oder dass irgendeine Göttliche Agentur auch nur das geringste Interesse daran hat, ob wir die Wahrheit sagen. Aber solange es keinen Beweis für das Gegenteil gibt, steht es uns frei, das zu glauben. Und es liegt im Rahmen unserer Freiheit zu glauben, dass das, was nicht als falsch bewiesen worden ist, dass nämlich der Wert echter Religion und der Wert echter Wissenschaft nicht zu unterscheiden ist. Unsere Religion lehrt uns, dass Aufrichtigkeit gut und absichtliche Falschheit falsch ist. Wir können nicht beweisen, dass es so ist, aber wir glauben es trotzdem.

Wissenschaft jedoch ist kein Ding des Glaubens (es sei den, man gehört zu Greenpeace oder irgendeiner anderen marxistischen Frontorganisation, die sich als Umweltgruppe maskiert). Sie ist ein Ding disziplinierter Beobachtung, sorgfältiger theoretischer Ableitung und vorsichtiger Präsentation der Ergebnisse. Der wirkliche Wissenschaftler sagt nicht „ich glaube“: sondern er sollte sagen, wenn er auf irgendeine Art neugierig ist und Ehrfurcht in seiner Seele hat: „Ich frage mich…“ Diese drei Wörter sind die Grundlage aller aufrichtigen wissenschaftlichen Forschung.

Nun hat die Angsterzeugung vor der globalen Erwärmung gezeigt, wie ungemein gefährlich Wissenschaft ohne Moral ist. Der Wissenschaftler, der sich nach niemandes Worten für irgendetwas richtet (nullius in verba) akzeptiert a priori nicht, dass es irgendeinen objektiv wertvollen moralischen Code gibt. Er sieht sich selbst nicht notwendigerweise unter irgendeiner moralischen Verpflichtung, nach der Wahrheit zu suchen oder, so er sie irgendwann findet, davon zu sprechen.

Daher ist die Wissenschaft zu sorglos beim Zurückweisen irgendeines Wertes in der Religion und in der großen moralischen Ethik, an die religiöse Menschen glauben und der sie zumindest versuchen zu folgen. Und daher trägt Wissenschaft in sich bereits die Saat, sich selbst zu zerstören.

Oh ja, und die Wahrheit ist dahin… (Jesaja 59, Vers 15). Die Große Lüge ist genau deswegen so persistent, weil zu viele der Wissenschaftler, die das aussprechen, nicht mehr in Übereinstimmung mit dem moralischen Maßstab leben, den die Christenheit einst angeboten hat, oder irgendeinem moralischen Maßstab, so dass sie nicht bemerken, dass sie irgendeine moralische Verpflichtung haben, die Wahrheit zu sagen.

Weil das so ist, sollten wir uns selbst nicht länger als unter irgendeiner Verpflichtung stehend betrachten, moralisch oder sonstwie, Wissenschaftlern, die danach trachten, in der Politik herumzufuchteln,  irgendeine besondere Beachtung zukommen lassen, solange sie nicht selbst an den Tag legen, dass sie wieder das sind, was sie den Worten von Al-Haytham zufolge sein sollten: Suchende nach Wahrheit.

246 Fuß Anstieg des Meeresspiegels, Dr. Hansen? Ach, lassen Sie das!

Link: http://wattsupwiththat.com/2013/12/24/monckton-of-meteorology-and-morality/

Übersetzt von Chris Frey EIKE




Warum die Energiewende gescheitert ist! Von Anfang an!

Die Energiewende

Im November 2010 wurde unter großem medialen Getöse von der schwarz-gelben Regierung Merkel die „Energiewende“ als nationales Ziel bis 2050 ausgerufen. Alle Parteien im Deutschen Bundestag stimmten, bis auf wenige (7!) Abweichler in der Koalition  und die Fraktion der Linkspartei (obwohl übereinstimmend mit dem Ziel, wollte sie es noch radikaler angehen) begeistert dafür. Die veröffentlichte Meinung in gut wie allen Medien hatten schon Monate zuvor für die Akzeptanz dieser „Energiewende“ auf allen Kanälen und ohne Unterlass getrommelt.

Sie fußte auf dem „Energiekonzept“, das wenige Monate zuvor unter der Regie des damaligen Umweltministers Norbert Röttgen, die vielen Einzel-Elemente der gesetzgeberischen  Aktivitäten zum „Klimaschutz“ zusammenfasste, unter Einfügung neuer Elemente ergänzte und deutlich erweiterte. Nicht nur der „Klimaschutz“ wurde nunmehr als Begründung für die Notwendigkeit der „Energiewende“ angeführt, sondern auch die verkündete baldige Endlichkeit der fossilen Ressourcen.

Die Tsunami-Katastrophe in Japan vom März 2011, die mehr als 18.000 Todesopfer und unzählige Verletzte forderte und zusätzlich dann zur Havarie des Kernkraftwerkes in Fukushima führte, wurde zum Anlass genommen, den „Atomausstieg“ zu beschließen und spontan 8 Kernkraftwerke dauerhaft abzuschalten, und die restlichen 17 bis zum Jahre 2022 stillzulegen. Und dies, obwohl bei der Havarie in Fukushima kein einziger Mensch durch Strahlung ums Leben gekommen war, wohl aber rd. 1000 Menschen durch den Stress der panikartig durchgeführten Evakuierung weiter Landstriche.

Mit diesen einfach gestrickten Begründungen, die weiten Teilen der Wählerschaft auch unmittelbar einleuchteten, wurde die größte gesellschaftliche Transformation in Gang gesetzt, die ein Industrieland jemals außerhalb von Kriegen zu bewältigen hatte. Und mit vergleichbaren Kosten und identischen Folgen. Denn am Ende wird zwangsläufig ein völlig verarmtes, weil deindustrialisiertes,  Deutschland stehen, dass nur noch bitterste Not und Zerstörung kennt, obwohl die Befürworter der „Energiewende“ das genaue Gegenteil versprechen. Nur, auch dem fähigsten Ideologen, Politiker, Wirtschaftsboss, Gewerkschaftler, Kirchenoberen, Erfinder oder sonst wem, wird es nicht gelingen geltende Naturgesetze außer Kraft zu setzen, und wenn man sie umgehen will, sorgen ebenso starke ökonomische Gesetze dafür, dass die Kosten für eventuelle Ersatzmöglichkeiten explodieren.

Doch genau das – nämlich das Umgehen geltender Naturgesetze- ist  mit der Energiewende beabsichtigt! Um zu verstehen, warum das so ist, müssen wir uns ein wenig mit den physikalischen Eigenschaften von Energie im Allgemeinen und von elektrischer Energie im Besonderen beschäftigen. Denn das „Erneuerbare Energien Gesetz“, das die Erzeugung elektrischer Energie (vulgo: Strom) aus alternativen Energiequellen regelt bzw. erzwingen soll, ist das Kernstück der Energiewende.

Was ist Energie?

Energie, ist im wesentlichen die universale Fähigkeit im physikalischen Sinne Arbeit zu leisten. Sie ist weder erzeugbar noch vernichtbar. Das fundamentale Naturgesetz dazu heißt Energieerhaltungssatz. Sie kann aber von einer Form in eine andere umgewandelt werden. Doch jede Umwandlung ist zwangsläufig (Naturgesetz) mit Verlusten verbunden, die als Wärme, als der niedrigsten Stufe der Energie, entsteht. Deshalb ist der Begriff „Erneuerbare Energien Gesetz“ bereits eine bewusste Irreführung der Wähler, denn Energie kann selbstverständlich auch nicht „erneuert“ werden, auch dann nicht, wenn nachwachsende Rohstoffe zu ihrer Gewinnung eingesetzt werden. Energie kann eben nur unter unvermeidlichen Verlusten gewandelt werden!  Das gilt selbstverständlich auch für die Stromgewinnung aus fossilen oder Kernbrennstoffen.

Sonderfall elektrische Energie

Elektrische Energie, wird allgemein als die höchst veredelte Form von Energie angesehen. Wärme dagegen, als die niedrigste. Letztendlich wird daher unvermeidlich – ein weiteres Naturgesetz von der stetig zunehmenden Entropie- die gesamte Energie unseres Universums in Wärme gewandelt sein. Aber bis dahin ist noch viel, sehr sehr viel Zeit. Und in dieser Zeit können wir das Gut „elektrische Energie“, also Strom, aus diversen Quellen durch Umwandlung erzeugen.  Und der hat gegenüber den anderen Energieformen viele starke Vorteile. Aber auch einige Nachteile. Die Vorteile sind schnell aufgezählt: Schnellste und verlustarme Übertragungsmöglichkeit über weite Strecken, punktgenauer Einsatz auch in großen Mengen, zu jedem beliebigen Zeitpunkt, gut einsetzbar in Antriebe, Speicher und Heizungen in Investitions- und Konsumgütern, bei Beachtung gewisser Regeln sicher und sauber verfüg- und handhabbar, und sehr billig in der Erzeugung (Wandlung von thermischer Energie in elektrische Energie).

Die Nachteile reduzieren sich in diesem Zusammenhang auf eines, es lautet: Strom ist nicht – von Minimengen abgesehen- direkt speicherbar.  Und, als Folge daraus: Strom muss immer dann auf Bruchteile von Sekunden verfügbar sein, wann immer er gebraucht wird. Manche Stromanbieterfirmen u.a. von Greenpeace, propagieren den Begriff des „Stromsees“, der durch das Netz geschaffen würde, aber das ist nichts weiter als irreführender Unsinn. Ins Verteilnetz muss zu jeder Zeit sekundengenau so viel Strom eingespeist werden, wie irgendwo entnommen wird. Einen Stromsee gibt es nicht.

Eine weitere Folge daraus ist, dass Speicher nur gewandelte elektrische Energie speichern können. Entweder in Form von Bewegungsenergie (Pumpspeicherwerke, Schwungradspeicher, Druckluftspeicher), chemischer Energie (Batterien, Akkus) oder thermischer Energie (durch Elektrolyse erzeugter Wasserstoff, der mit CO2 zu Methan umgewandelt wird).

Strom aus „Erneuerbaren“

Allein dieser naturgesetzlich bedingte Nachteil reicht aus, um die Erzeugung von Strom aus Windkraft und Sonneneinstrahlung  gegenüber den bisherigen Methoden als völlig unzureichend auszusondern. Sie sind einfach qualitativ schlechter und als Folge daraus viel teurer. Denn keine dieser Quellen kann diesen schweren Nachteil von sich aus ausgleichen. Deswegen ist es korrekter diese Quellen nicht als „Erneuerbare“ zu bezeichnen, sondern als „Neue Instabile Energien“ (NIE). Nicht umsonst haben unsere Vorfahren vor über hundert Jahren die Nutzung der Windenergie mit Freuden verlassen und sich auf Energie aus fossilen Quellen gestürzt. Der Aufstieg der Nationen zu beispiellosem Wohlstand war die Folge. Denn sie vermeidet von Anfang an die oben genannten Nachteile, weil die notwendige Speicherung bereits von Mutter Natur in den fossilen oder Kernbrennstoffen vorgenommen wurde. Und damit kommen wir zu einer besonderen Eigenschaft, die die NIE´s insbesondere benachteiligen. Es ist deren Energiedichte!

Die Energiedichte natürlicher Speicher

Aufbereitetes Uran enthält pro kg ca. 350.000 kWh[1], Gas ca. 12 kWh/kg, Diesel/Öl ca. 11 kWh/kg, Steinkohle ca. 8 kWh/kg. Im Vergleich dazu sollte man die Energiedichte von chemischen Batterien/Akkumulatoren kennen. Sie liegt bei Bleiakkus, wie wir sie im Auto haben, bei  0,033 kWh/kg, bzw. bei den sehr teuren Lithium Akkus bei 0,166 kWh/kg. Also 333 bis 66 x schlechter. Die letzten beiden Zahlenwerte zeigen auch auf, warum die „Elektromobilität“ unter normalen kaufmännischen aber auch Umwelt-Gesichtspunkten, an echten Märkten keine Chance hätte.

Nun kann man schlecht den Energieinhalt von bewegter Luft (Wind) oder Sonnenstrahlen in kWh/kg ausdrücken, nur Schildbürger könnten das. Aber man kann den Flächenbedarf vergleichen, den Anlagen zur Erzeugung gleicher Energiemenge auf konventionelle Art bzw. alternative Art beanspruchen.

Sicher ist Ihnen lieber Leser/Leserin auch schon aufgefallen, das Wind- und Solarkraftwerke immer in Rudeln, beschönigend „Parks“ genannt, auftreten. Der Grund dafür ist die mangelhafte aber naturgegebene sehr geringe Energiedichte. Deswegen müssen Riesenflächen mit diesen Anlagen vollgestellt werden, die bei der Windenergie auch noch als riesige Türme in den Himmel ragen, um die Energie der Energieträger Wind und Sonne in brauchbaren Mengen „abzuernten“. Wie aberwitzig das ist, zeigt ein Vergleich mit einem konventionellen oder Kernkraftwerk, mit einer Leistung (das ist die „Kraft“ um Arbeit zu „leisten“)  von 1 GW. 1 Gigawatt sind 1.000 Megawatt, und das sind 1.000.000 Kilowatt. Die Einheit, die wir bereits kennen gelernt haben. Da die Energiedichte konventioneller Energieträger sehr hoch ist, kann man die Kraftwerke sehr kompakt bauen. Ein derartiges Kraftwerk mit 1 GW Leistung bedeckt incl. Gleisanschluss und Brennstofflager ca. 1,5 bis max. 2 km2. Da es ganzjährig und rund um die Uhr betrieben werden kann, liefert es bei Bedarf eine Energiemenge von ca. 7.900 GWh.

Windkraftanlagen

Um – auch nur rechnerisch- dieselbe Menge an Energie mit NIE, z.B mit der neuesten 2,3 MW[2] Anlage von Siemens, aus Wind zu erzeugen, bräuchte man einen „Windpark“ auf dem Lande mit ca. 2.300 Windkraftanlagen dieses Typs. Weil man die nicht dicht an dicht bauen kann, denn der Wind weicht aus, braucht man dafür einen Korridor mit der Länge von 920 km, und einer Breite von ca. 0,25 km. Also insgesamt 230 km2 . Das ist rd. das 130 fache des Flächenbedarfes eine konventionellen Kraftwerkes.

Solaranlagen

Bei den Solaranlagen ist das Ergebnis ähnlich schockierend. Als Beispiel soll hier der Solarpark bei Finowfurt/Brandenburg dienen, bis vor kurzem der größte „Solarpark“ Europas. Der hat eine Nennleistung von 84 MW. Dank der geringen Sonneneinstrahlung in Brandenburg und der Tatsache, dass die Sonne des Nachts und vor allem in den dunklen Herbst und Wintermonaten  nirgendwo so richtig scheint, kann dieser „Solarpark“, solange er neu ist, rd. 59 GWh ins Netz -sofern die Leitungen gebaut wurden- einspeisen. Dann aber mit Vorrang gem. EEG. Seine Fläche wird von den Betreibern mit 1,82 km2 angegeben. Um wiederum nur rechnerisch dieselbe Energiemenge wie das konventionelle Vergleichskraftwerk, wie oben benannt, zu erzeugen, benötigte man  rd. 134 „Parks“ dieser Art, die eine Fläche von 244 km2 bedecken müssten.

Biomasse

Den Vogel schießt übrigens die Biomasse ab. Zur Erzeugung von z.B. Mais für entsprechend viel Biogas-Kraftwerken w.o. benötigte man mindestens (ohne Lager, Wege und Fläche für die eigentlichen Kraftwerke) eine Fläche von ca. 1.600 km2. Da ist rund 2 x die Fläche der freien und Hansestadt Hamburg.

Einschub über Leistung und Arbeit (Energie):

An dieser Stelle scheint es angebracht auf den Unterschied zwischen Energie (hier z.B. in Gigawattstunden (GWh) angegeben) und Leistung (hier in z.B. Gigawatt angegeben) einzugehen, der in den Medien und der Politik fast immer durcheinander gebracht, oft auch gleich gesetzt wird. In Deutschland sind inzwischen Ende 2013 ca. 32 GW an Windenergieanlagen installiert. Oft lesen wir, das sei so viel wie die von 32 Kernkraftwerken.

Auch lesen wir fast immer, diese oder jener Park aus „Erneuerbaren“ Quellen könne so und so viele Haushalte mit Strom versorgen. Glauben  Sie kein Wort davon. Tatsache ist dass kein Wind- oder Solarpark jemals ein konventionelles Kraftwerk egal ob Kern- Gas oder Kohle betrieben, ersetzen kann, denn wie zuvor schon erwähnt, liefern diese Quellen nicht dann wenn Strom gebraucht wird, sondern nur an den wenigen Stunden im Jahr, wenn die Sonne scheint, oder der Wind weht. Und dazu noch nur vom Willen Götter bestimmt. Man verwechselt also, bewusst oder unbewusst, die Nennleistung, welche die jeweilige Anlage unter Laborbedingungen gemessen, bereitstellen kann, mit der Energie, die ein Kraftwerk gleicher Nenn-Leistung ganzjährig und auf Abruf jederzeit liefert. Ein ganz erheblicher Unterschied! Mit gleicher „Wahrheit“ könnte man behaupten, ein einziger Blitz würde die Leistung sämtlicher deutscher Kraftwerke übertreffen. Man vergisst dabei nur, dass niemand etwas davon hat, weil der Blitz zufällig auftritt und seine Leistung nur wenige Mikro- bis Millisekunden abgeben kann.

Mangelnde Speicher

Diese Zufälligkeit der Energieerzeugung ist ein weiterer nicht behebbarer naturgesetzlicher Mangel der NIE. Es gibt einfach keine Speicher, um die so aufwendig (Die Investition dafür ist jeweils 6  x teurer bei Offshore Wind bis 17 x teurer bei Solar, als konventionell) erzeugte Energie zu speichern und bei Bedarf zur richtigen Zeit am richtigen Ort in der richtigen Menge wieder einzuspeisen. Weder heute noch in Zukunft. Die einzigen Großmengen-Speicher für elektrische Energie sind Pumpspeicherwerke (PSW). Sie werden seit ca. hundert Jahren gebaut, und haben nur einen Wirkungsgradverlust von 20 bis 25 %.  Alle anderen Speicherverfahren sind darin wesentlich schlechter und großtechnisch nicht verfügbar. Das Prinzip der PSW ist einfach. Aus einem Untersee wird bei Nacht, wenn der Strom billig ist, viel Wasser in einen manchmal hundert oder mehr Meter höher gelegenen Obersee gepumpt. Zur Mittagszeit, oder bei anderen Lastspitzen, werden die Schleusen des Obersees dann geöffnet, das Wasser rauscht nach unten und treibt Turbinen zur Stromerzeugung an.

Das größte deutsche Pumpspeicherwerk und eines der größten in Europa, ist Goldisthal im schönen Thüringen. Es hat eine Leistung von 1 GW  und kann diese Leistung 8  Stunden lang abgeben. Das sind 1 GW x 8 Stunden also 8 GWh. Dann ist es leer und muss wieder gefüllt werden. Das geht nur langsam, und auch nur dann, wenn genügend billiger Strom zur Verfügung steht. Deutschland hat jährlich einen Stromverbrauch von rd. 600 TeraWatt-Stunden. Das sind 600.000 GWh. Pro Stunde sind das im Mittel 68,5 GWh. Goldisthal könnte also den Energiebedarf Deutschlands rechnerisch gerade mal für gut 8,5 Minuten decken. In ganz Deutschland stehen PSW  mit insgesamt 7 GW. Sie könnten -aber auch nur theoretisch[3]– für rd. 35 Minuten Deutschlands Energiebedarf decken. Mehr können aus Gründen der Topologie, des Umweltschutzes aber vor allem der riesigen Kosten wegen nicht gebaut werden. Allein Goldisthal benötigte eine Bauzeit von 11 Jahren und kostete 600 Mio €.

Aus diesen Gründen kann der zwingend erforderliche Lastausgleich nur über konventionelle Kraftwerke erfolgen. Man spricht dann von Pufferkraftwerken. Das geht und wird auch so gemacht. Allein diesen -oft übelst beschimpften- Kraftwerken, die „schmutzigen“ Strom erzeugen, und ihren fähigen Betreibern, ist es zu verdanken, dass bisher in Deutschland die Lichter nicht ausgingen. Das Problem aber, was diese nun sehr intermittierende und zeitlich  immer geringere Einspeisung aus konventionellen Kraftwerken erzeugt, ist zunächst mal ein ökonomisches.  Wegen der geringen abgegebenen Energiemenge und des geringen Börsenpreises, welcher der zuvor hoch subventionierte Überproduktion an NIE Strom zu verdanken ist (Strom lässt sich nicht speichern, zusammen sind jetzt bereits rd 70 GW NIE Kapazität installiert), rechnen sich die konventionellen Kraftwerke häufig nicht mehr. Zudem werden sie durch den ständigen Lastwechsel völlig auf Verschleiß gefahren. Die Kosten steigen rasant. Die Konsequenz ist, dass immer mehr dieser Kraftwerke stillgelegt werden.  Ein Umstand, der den Befürworten der NIE überhaupt nicht passt.

Auch deshalb, aber insbesondere durch die ungebremste Vorrang-Einspeisung (so will es das EEG) von zappelndem Solar und Windstrom mehren sich die Störungen, die einen geordnete Stromversorgung bei stabiler Spannung (230 V) und Frequenz (50 Hertz) immer schwieriger machen. Bald werden sie so weit zunehmen, dass Experten der Netzbetreiber, die für diese stabile Stromversorgung sorgen müssen, in Kürze von flächendeckenden und langandauernden Ausfällen (Blackouts) ausgehen. Denn aus Gründen der Betriebssicherheit sind alle Anlagen mit automatischen Überlastabschaltungen ausgerüstet, die in Sekundenbruchteilen gefährdete Anlagen bei gefährlichen Störungen vom Netz nehmen. Lag die Zahl der Störungen vor einigen Jahren noch bei 3 bis 4 pro Jahr, so sind es heute ca. 1.000. Und ein deutschlandweiter nur einstündiger Blackout[4] würde heute mit ca. 600 Mio € an Schaden zu Buche schlagen.

Fazit

Wir können also mit Fug und Recht feststellen, dass die Energiewende von Anfang an gescheitert ist, weil sie scheitern musste. Kein Naturgesetz lässt sich von einem noch so schlauen Politiker brechen oder beugen. Gute Ingenieure können die eine oder andere natürliche Begrenzung umgehen. Doch das kostet! Und wie. Zahlten wir doch bis jetzt schon Ende 2013 seit Bestehen des EEG ca. 120 Mrd € in die Taschen der NIE Erzeuger, ihrer Finanziers und Projektierer ein. Gleichzeitig ist dieser Geldsegen für die kommenden 20 Jahre garantiert . Kein Wunder dass die EEG Gewinnler dieses mit Klauen und Zähnen verteidigen. Denn allein diese Garantie kostet uns Verbraucher in den nächsten Jahren nochmals 330 Mrd €. Und so geht es ungebremst weiter, denn auch im neuen Koalitionsvertrag steht, dass man die „Erneuerbaren“ bis 2035 auf 55 % bis 60 % Anteil hochfahren will.

Wofür zahlen wir das? Für ein Produkt, welches aus Preis und Qualitätsgründen in echten Märkten nicht die Spur einer Chance hätte. Denn es ist in jeder Hinsicht miserabel.

Klima und Ressourcen

Lassen Sie mich zum Schluss liebe Leserin und lieber Leser noch auf die beiden Hauptargumente eingehen, die zur Begründung der Energiewende herhalten müssen. Um es vorweg zu sagen: Sie sind beide falsch.

Klimaschutz

Im neuen Koalitionsvertrag steht unter Punkt 1.4 wirklich, dass die Energiewende Umwelt und Klima schützt, ferner Importe – also fossile Resourcen- mindert. Kein Wort davon ist wahr. Selbst wenn man mit geschlossenen Augen durch diese Welt geht, wie es viele Entscheidungsträger und Mitbürger offensichtlich tun, und ohne Mitdenken oder Reflexion den öffentlichen Verlautbarungen des zum Weltklimarates hochgejubelten staatlichen IPCC (Intergovernmental Panel on Climate Change) über den Einfluss des (insbesondere anthropogen erzeugten) CO2 auf die Weltmitteltemperatur Glauben schenkt, dann muss man zwangsläufig konstatieren, dass sämtliche deutsche Absenkungsbemühungen durch den EU Emissionshandel völlig konterkariert werden. Selbst wenn NIE Anlagen CO2 vermeiden würden, was sie – wenn man ihren gesamten Lebenszyklus betrachtet- nicht tun, dann wird diese Absenkung durch eine automatische Erhöhung des CO2 Ausstoßes der am Emissionshandel beteiligten EU-Länder mehr als ausgeglichen. Das ist so gewollt und geschieht auch so.

Darüber hinaus blasen andere große Länder wie Indien, China oder Brasilien in einer Woche das zusätzlich an CO2 aus, was wir dummen Deutschen in einem Jahr einsparen wollen. Doch nicht nur das. Auf keiner der vielen tausenden von Seiten aller fünf bisherigen IPCC Berichte findet sich auch nur der Hauch eines Hinweises auf Beobachtungen oder andere Belege, die beweisen, dass CO2 die Temperatur steuert, in diesem Falle gefährlich anhebt. Stattdessen ist es bestätigt, dass die Mitteltemperatur der Erdatmosphäre seit nunmehr 17 Jahren nicht mehr angestiegen ist, obwohl es die CO2 Konzentration stetig, auf jetzt knapp 0,04 %, tat. Die Klimamodelle haben schmählich versagt. Sie sind durch die Wirklichkeit eindeutig widerlegt.

Ressourcenknappheit

Auch die vermutete oder erhoffte Ressourcenknappheit gehört ins Reich der Fabel, wie sie besonders der grün-rote Club of Rome zu erzählen beliebt. Derzeit krempeln neuartige Prospektions-, Bohr- und Gewinnungsverfahren, also technologischer Fortschritt (Stichwort „Fracking“),  die energetische und damit politische Weltkarte komplett um. Die USA sind bereits jetzt weltgrößter Erdgasproduzent der Welt und werden in Kürze auch zum weltgrößten Exporteur aufsteigen. Deren Gaspreis liegt um 75 bis 80 % unter dem unseren. Dasselbe passiert am Ölmarkt, von der Kernenergie nicht zu reden. Beinah im 2 Monatsrythmus werden riesige Erdgas und Erdölfelder entdeckt, welche die Reichweite  dieser Ressourcen um viele hundert bis tausend Jahre in die Zukunft verschieben.

Schlussbemerkung

Ich bin sicher, ich konnte Ihnen verdeutlichen, dass die Energiewende keine der verkündeten Ziele erreichen kann, aber sehr unerwünschte, zwangsläufige Nebenwirkungen hat, die wir bereits heute in großem Umfang spüren. Der Trend wird sich beschleunigen und nicht nur die Energie sehr, sehr teuer machen, sondern auch die Zahl der wertschöpfenden Arbeitsplätze in diesem Lande dramatisch reduzieren. D.h. die Zange kneift von zwei Seiten, wesentlich höhere Kosten für jeden von, bei gleichzeitigem Verlust oder Drohung des Verlustes von Millionen von Arbeitsplätzen.

In der Verwaltungsgesetzgebung gibt es ein Gesetz, was bestimmt, dass Verwaltungsakte, deren Ziele eindeutig nicht erreichbar sind, nichtig sind. Die Energiewende ist so ein Verwaltungsakt. Sie muss ersatzlos um 180 ° gewendet werden, alle Durchführungs-Gesetze sind ersatz-und entschädigungslos zu streichen. Lassen Sie uns gemeinsam dafür kämpfen

Michael Limburg; Dezember 2013

Der Beitrag erschien Ende Dezember im Extrablatt der „Vertraulichen Mitteilungen“ des Verlages für Arbeit und Wirtschaft Büsingen.

Sie können ihn auch als pdf im Anhang herunterladen


[1] Anmerkung: Energie wird heute in Joule oder Watt-Sekunden (Ws) bzw. vielfachem davon gemessen. Hier kWh d.h. Tausend (kilo) Watt in einer Stunde. Nach der Definition von Energie als Arbeit = Leistung x Zeit. Das bedeutet auch, dass 1 Kraftwerk bei einer Leistung von 1 Kilowatt über 1 Stunde 1 kWh abgibt, bzw ein Herd bei einer Leistung von 1 kW eine Stunde lange 1 kWh „verbraucht“ bzw. wieder in Wärme umwandelt.

[2] Gem. Daten von Siemens hier http://www.siemens.com/sustainability/de/umweltportfolio/produkte-loesungen/erneuerbare-energien/wind-onshore.htm

[3] Kein Kraftwerk kann mehr Leistung abgeben, als die wofür es ausgelegt wurde. Im Falle der PSW sind das max. 7 GW. Zudem kann diese Leistung nur über die per Auslegung festgelegte Zeit abgegeben werden. Wegen der Rohrquerschnitte und der Auslegung der Turbinen kann man min. 5 bis 6 h lang diese Energiemenge abrufen. D.h. dass die deutschen PSW nur d. 1/10 der notwendigen deutschen Leistung decken können, dies dann für rd. 5-6 h.

[4] Quelle Die Welt http://www.welt.de/wirtschaft/article121265359/Jede-Stunde-Blackout-kostet-600-Millionen-Euro.html

Related Files




Sind 100 % NIE (Neue Instabile Energien) zur Stromversorgung eines Industrielandes sinnvoll machbar?

Wir stehen bei der Energiewende  vor folgenden Problemen:

1. Grundsätzliches

2. Absolut notwendig  Sicherheitsreserve von ca. 28.000MW durch konventionelle Kraftwerke

3. Abhängigkeit des Stromes aus Wind und PV vom Freiheitsgrad  10^30 des Wetters. (1)

4. Phasenschieber in Polen und Tschechien – kein Strom mehr in Richtung Süddeutschland.

1. Grundsätzliches

Der Wunschtraum von 100 % NIE (Neue Instabile Energien) wird uns nun seit mehr als 10 Jahren jeden Tag von den Politikern und den Medien, vertreten durch die sogenannten Experten von der grünen Heilsfront, in den tollsten Versionen eingehämmert. Über diese ideologischen Umspülungen des „BETREUTEN DENKENS“, soll der Umbau der Gesellschaft  zur "GROSSEN TRANSFORMATION"  erreicht werden.

Ob in der Süddeutschen Zeitung, in der Hannoverschen Allgemeinen Zeitung oder in unserem gleichgeschalteten Kreisblättchen der Schaumburger Zeitung, überall werden von uns Bürgern Opfer abverlangt: Es gehe ja um die Vermeidung einer Klimakatastrophe, sonst steht  der Weltuntergang bevor.

Mit dieser medial erzeugten Angst wird an unser gutes Gewissen appeliert,  auf die sogenannten erneuerbaren Energien (EE) wie  Wasser, Geothermie, Wind, Sonne und Biomassen in vollem Umfang umzusteigen. Kosten dürfen hierbei  keine Rolle spielen. Hauptsache der Planet wird gerettet und einige wenige Schmarotzer unseres korrupten politischen und wissenschaftlichen  Systems machen mehr als nur Kasse.

Natürlich bezahlen wir freudestrahlend auch noch die EEG-Steuern und, wenn gewünscht, auch die mehr als wichtigen CO2-„Verschmutzungsrechte“ oder „-Zertifikate“. 

Wenn in einer Zeit, wie zB. vom 19.Okt. bis 07.Dez..2013 von allen 92 Windenergieanlagen (WEA) -Offshore nur noch 10 Strom produzieren, sind wir natürlich gern bereit, für die ausgefallenen Erträge der armen WEA-Besitzer unser weiteres Scherflein auch dort noch zu entrichten. Auch wenn wir über die Weihnachtstage 2012 mehr als 100 Mill.€ von allen Haushalten für PV- und Windstrom an unsere Nachbarn in den Niederlanden verschenkt haben, sind wir nun weihnachtlich glücklich gestimmt und zahlen immer weiter, immer mehr !!!

Die direkten Kosten für unsere deutsche Volkswirtschaft liegen entsprechend dem EEG-Gesetz von 2000 bei ca. 123 Mrd. € bis Ende 2013. Das wird natürlich durch die Medien nicht verbreitet, aber es sind die Kosten, die wir alle privat und in den Betrieben zusätzlich für Waren und Dienstleistungen noch darüber hinaus zu bezahlen haben. Hier sind nach vorsichtigen Schätzungen Summen von ca. 450 – 500Mrd.€ im Gespräch.

Dann hören wir wieder vom Club of Rome, wie damals 1972, dass die Reserven von Öl und Gas und auch der anderen Ressourcen nun bis 2052 endgültig verbraucht seien. Leider haben die „Wissenschaftlern“ des  Club of Rome die Kreativität  des Menschen in ihrer Analyse außen vor gelassen. Auch haben diese selbst ernannten Vordenker noch nie was von physischer Ökonomie gehört. Durch technische Weiterentwicklungen zB. im Bereich der neuen Bohrtechniken konnten neue, sehr große Lagerstätten fossiler Energieträger bereits heute erschlossen werden.

Lt.  eines Berichtes der internationalen Energieagentur vom Juni 2013 haben die zur Zeit produzierenden Ölquellen eine Reichweite von ca. 53 Jahre plus ca. 120 Jahre aus den seit 2009 gefundenen neuen Vorräten. Erdgas und Methanhydrat reichen einige 1.000 Jahre (Japan fördert bereits als erstes Land seit Jan. 2013 Methanhydrat = Reserven vor der Küste ca. für  > 400Jahre ), Braunkohle hat eine Reichweite von ca. 3.000 Jahren, Steinkohle ca. 2000 Jahre etc..

Kernkraftwerke (KKWs) der 4. Generation bringen dank Thoriumnutzung eine Reichweite von > 1.000Jahren ( deren Vorteil: Sie sind –intrinsic- eigensicher , d.h. kein GAU mehr möglich, der radioaktive Abfall ist sehr gering !

Und ab Ende 2014 oder Anfang 2015 beginnt vermutlich in Deutschland das Fusionszeitalter – mit dem Fusionsreaktor Wendelstein 7X. Ich hoffe, wir können die NI-Energie-Anlagen NEUEN INSTABILEN ENERGIEN dann nach 2035-40 endlich verschrotten  ( viele Schwermetalle und Chemie dürfen wir dann beseitigen. ) Wasserstoff-Energiereserven nun ca. 40Mill. Jahre = Abfall sehr sehr sehr gering.

2. Absolute Sicherheitsreserve von ca. 28.000MW durch die Strom-Dinosaurier

In der deutschen Stromerzeugung wird eine absolute nicht unterschreitbare Sicherheitsreserve von ca. 28.000MW benötigt, die für einen möglichen schlagartigen Ausfall immer innerhalb einer SEKUNDE bereitgestellt werden muss, da sonst die Netz-Frequenz zusammenbricht. Dieses wird über die riesigen Schwungmassen aller Großgeneratoren gewährleistet, die technisch dafür sorgen, dass innerhalb der ersten Sekunde die Sicherheitsventile aller über das automatische IT-Netzwerk gesteuerten Großkraftwerke sich öffnen, um dann die Kraftwerke über die zweite Frequenz-Verteidigungsstufe mit mehr komprimiertem Dampf zu versorgen!

Die NIE sind dazu nicht in der Lage , denn sie halten weder nennenswerte Rotationsenergie vor, noch lassen sich Sonne und Wind gezielt und schlagartig herauf- oder herunter regeln. Vor diesem Hintergrund sind Behauptungen, eine 60-80-100 prozentige Stromversorgung aus erneuerbaren Energien sei ohne  konventionelle Kraftwerke machbar, barer Unsinn!!!

Diese  unmstößlichen Fakten wurden mir am 23.11.2013 von Hern Peter Franke, Vizepräsident der BUNDESNETZAGENTUR, eindeutig, klar und persönlich bestätigt, sowie auch von Herrn Prof. Dr.-Ing. Alt ( für Netze und Kraftwerke ) FH-Aachen und durch Herrn Dipl.-Ing. F. Müller Schweiz, technischer Energie-Redakteur!

3. Abhängigkeit des Stromes aus Wind und PV vom  10 32 Freiheitsgrade des Wetters.

Zum besseren allgemeineren Verständnis  hier einen Überblick über die verwendeten technischen Begriffe in Bezug auf Stromherstellung, Lieferung und Verbrauch:

Nicht, dass es uns so geht wie manchen Politikern, die über die Energiewende Kompetenz vortäuschend und schwadronierend, die Begriffe  kW und kWh nicht unterscheiden können.

1.Elektrische Leistung wird in W(Watt) bzw. kW (Kilowatt) oder Megawatt (MW)

   angegeben,  

   Hat ein Kohlekraftwerk eine Leistung von 980 MW, so sind das 980.000kW. Produziert 

   diese Anlage 1Stunde lang Strom, so ergibt das 980.000 kWh Energie bzw. Arbeit..

2. Diese Kilowattstunden (kWh) sind  die elektrische Energie oder die geleistete Arbeit, die

    wir alle jeden Monat in Cent/kWh beziehen und bezahlen müssen.

3. PV Strom = Bezeichnung für Strom aus Photovoltaik-Anlagen.

4. Wind Onshore ( Windenergieanlagen an Land ) und Offshore ( Windenergieanlagen auf  

See ).

5. Laststrom:  Strom, den wir zB. in Deutschland pro Stunde beziehen („verbrauchen“).

6. Strom-Jahresbemessungszeitraum 8.760 Std./a = max. Arbeitszeit pro Jahr für ein konv. Kraftwerk. Im Normalfall, ohne Revisionszeit ca. 7.800 bis 8.000Std/a.

 

Abb. 1. Hier wird die gerechnete Leistungsabgabe der NIE in 33 Monaten um das Jahr 2050 gezeigt. Sie wurde berechnet unter Verwendung der realen Daten von 33 Monaten zwischen 2009 und 2013. Großformatig herunter ladbar als Datei im Anhang

Das Bundesumweltamt, bei dem sich EIKE seit ca. zwei Jahren bemüht bisher ohne Erfolg, einen klaren eindeutigen technischen und physikalischen Beweis zu erhalten, dass wir – verursacht durch das CO2-  schon jetzt in einer die Vorboten einer künftigen angeblichen Klimakatastrophe erleben, behauptete im Jahre 2010, dass unsere gesamte Volkswirtschaft bis " 2040-50 zu 100% ausschließlich mit sogenannten erneuerbaren „Energien " versorgt werden kann. Als notwendige Stromerzeugungsleistung wurde für eine 100% Versorgung überwiegend aus die PV- und Wind- installierte Leistungen von 380.000 MW angegeben. Diese Leistungen sind, bezogen auf das Jahr 2012 im Jahre 2040-50 ca. 6x grösser als heute!

Diesem Hinweis sind wir nun nachgegangen. Im Prinzip ist die Aussage, wie in der Technik immer, leicht zu beweisen oder zu widerlegen. Dazu müssen wir di Daten einige Jahre, ( zur Zeit ca. 4 1/2 Jahre ) NI-Energien im Stundentakt erfassen. Die offiziellen Stellen haben es leider und vielleicht bewusst versäumt, dese Stundendaten den interessierten Bürgern zur Verfügung zu stellen. Also haben wir für jeden Tag über 24 Stunden die Strommengen für PV- und Windstrom ermittelt. Das sind heute mehr als 300.000 Datenreihen für nun ca. 5 Jahre.

Nach diesem Erfassungszeitraum wurde aus den 41/2 Jahren für 33 Monaten die PV- und Windmengen für jede einzelne Stunde zusammengerechnet. Danach konnten wir für jede Stunde der 33 Monate die verhältnismäßige Mehrstrommenge für PV und Wind bezogen auf die 380.000MW mit dem Sicherheitsfaktor von 0,9 bestimmen  ( Faktor ca. 6 x 0,9 ). Somit haben wir nun für jede Stunde des Jahres ( 8.760Std./a ) die hochgerechnete Strommenge aus PV und Wind für die Jahre 2050 – 51 – 52 also bei dieser unserer Betrachtung von ca. 33 Monaten vorliegen.

Für die gesamten Berechnungen und für die Erstellung der Grafiken wurde eine optimierte Datenbank erstellt. Nun konnten wir auf die für Deutschland festgestellten 8.760 Strom-Laststunden die PV und Wind-Stunden projizieren. Man kann sehr klar erkennen, es gibt keine einheitlichen flächenmäßigen Überdeckungen. Aus diesem Grunde sind wir auf den Gedanken gekommen von den Strom-Laststunden die Strom PV-und Wind-Stunden abzuziehen und eine neue +/- Grafik dafür zu erzeugen.Nun erkennt man sehr einfach und schnell, es gibt einen Strom PV- und Wind-Überschuß und eine über das ganz Jahr verteilte Strom-Unterdeckung. Die Stundenunterdeckung liegt bei ca. 6.500 Std./a. Sie kann zB. bei nur -5% liegen oder aber auch bei -100% Unterdeckung. 

Ein sehr großes Problem ist im Bereich des Strom-Überschusses zu erkennen. Hier erreichen die Stunden-Spitzenwerten die gigantische Größe von ca. 160.000 MWh.

Lt. Aussage von Netzwerkern in den Ringvorlesungen der UNI-Hannover vom Sommer 2013, sind diese Strommengen auch nicht mit den noch zu bauenden neuen Stromleitungen zu transportieren.

Daraus folgt zwangsweise, dass eine Energieversorgung durch die "sogenannten erneuerbaren Energien" von mehr als max. 40-50% technisch und physikalisch nicht möglich ist, wenn man den Strom-Supergau von 6-14 Tage keinen Strom für Deutschland vermeiden möchte. 

( lt. Herrn Unger, Präsident des Bundesamts für Katastrophenhilfe )!

Eine Energiewende von 2030 – 50 ohne Kohle , Gas, Atom mit erneuerbaren Energien von 60 – 80 – oder 100 % ist nicht möglich!

Sehen Sie unten die Grafik: Szenario Umweltbundesamt mit 380.000MW.

Hierbei sollten wir bedenken, dass sich in ca. 26 bis 36 Jahren der technische und physikalische Fortschritt erheblich weiter entwickeln wird. Strom-Speicher aber in diesen riesigen Dimensionen sind auch dann nur schwer vorstellbar. Die Industrie wird über die 4. industrielle Revolution den IT und Automationsgrad in diesem Zeitraum gewaltig ausweiten. Sie rechnen mit einem Mehrbedarf in der Stromleistung von ca. 20.000MW im Jahr lt. Hannovermesse von 2011-13.

4. Phasenschieber in Polen und Tschechien – kein Strom mehr in Richtung Süddeutschland

Die Firmen Tennet und auch 50hertz haben für das Jahr 2012 zusammen mehr als ca. 1250 Frequenzgefährdungen gemeldet, füher lagen diese Werte bei ca.3-5 Fällen in Deutschland pro Jahr. Eine Verschärfung des Problems liegt bezogen auf die neuen Phasenschieber auf der Hand, zumal die beteiligten Staaten bis heute keine Klärung anstreben. Die Phasenschieber sollen Anfang 2014 einsatzbereit sein, was dann?

Ein großes Dankeschön geht an Herrn Rolf Schuster, der in einem nicht zu beschreibenden Zeitaufwand diese Strom-PV- und Windmengen erfasst hat und die dafür notwendig Datenbank mit Grafik entwickelte. Auch einen herzlichen Dank an Herrn Dr. Theo Eichten und Herrn Limburg.

Hartmuth Huene EIKE

Hinweis. Das Bild ist eine sehr fein aufgelöste pdf Datei. Sie finden sie im Anhang. Der Autor empfiehlt diese so groß wie möglich auszudrucken.

Weiter Ausführungen dazu:

1. Vortrag von Herrn Prof. Dr. Werner Kirstein, 3. Internationale Energie- und Klimakonferenz 2010: Klimawandel zwischen Modellen, Statistik und Ersatzreligion ( DVD3 – 1.07.58 )

2. Auf grundlegende Beschreibungen zu diesen Ausführung möchte ich auf die Arbeit von Herrn DIpl-Physiker Karl Linnenfelser verweisen: http://www.eike-klima-energie.eu/climategate-anzeige/lastganglinien-als-erfolgskontrolle-der-energiewende-mit-windenergie-und-fotovoltaik-anlagen/

3. Auch weitere Arbeiten zu diesen Themenfeld wurden von Herrn Prof. Dr.-Ing. Alt FH-Aachen schon seit Jahren mehrfach veröffentlich: http://www.alt.fh-aachen.de/downloads//Allgemeines/Merkel%20EEG%20Frequenz-Leistungsregelung.pdf

4. Das gleiche gilt für Herrn Dipl.-Ing. Fred. F. Mueller-Schweiz zum Thema Strom-Sicherheitsreserven: http://www.eike-klima-energie.eu/climategate-anzeige/stromnetze-am-limit-das-risiko-waechst-mit-jedem-windrad-nehmen-die-probleme-zu/

5. Informationen von Herrn Dipl-Ing. Limburg zur Sicherheitsreserve und den sogenannten erneuerbaren Energien unter: http://www.eike-klima-energie.eu/news-cache/kombikraftwerke-fuer-100-erneuerbare-teil-1-ein-projekt-von-tagtraeumern-oder-huetchenspielern/

Weiter Szenarien wurden gerechnet zB. Bundesland Niedersachsen – Laststrom zum PV-Wind von gesamt Deutschland – 461.000MW Bruttoleistung Frauenhofer-ISE-Studie usw.

Related Files




Neue Studie: Wolken durch Sonnenwind getrieben

 

Vom Sonnenwind getriebene Wolken

M Voiculescu et al 2013 Environ. Res. Lett. 8 045032 bei: doi:10.1088/1748-9326/8/4/045032

Abstract

In diesem Brief untersuchen wir mögliche Beziehungen zwischen der Wolkenbedeckung (CC) und dem interplanetarischen elektrischen Feld IEF. Dieses wird moduliert durch die Geschwindigkeit des Sonnenwindes und dem IEF. Wir zeigen, dass die CC in mittleren und hohen Breiten systematisch mit einem positiven IEF korreliert, was einen eindeutigen energetischen Input in die Atmosphäre zur Folge hat; jedoch nicht mit einem negativen IEF, was ganz allgemein übereinstimmt mit den Vorhersagen des mit dem GEC zusammen hängenden Mechanismus‘. Folglich zeigen unsere Ergebnisse, dass die Wolken in mittleren und hohen Breiten über das GEC durch den Sonnenwind beeinflusst sein könnten. Da das IEF unterschiedlich auf die Sonnenaktivität reagiert als beispielsweise der kosmische Strahlenfluss oder die Solar-Gesamtstrahlung zeigen wir auch, dass es eine solche Studie erlaubt, einen solar getriebenen Mechanismus der Wolkenentwicklung via GEC von anderen [Mechanismen] zu unterscheiden.

Introduction

Heute besteht hohes Interesse daran, den solaren Beitrag zur Klimaänderung zu quantifizieren. Trotz der Fortschritte hinsichtlich des Verständnisses der Prozesse, die das Erdklima steuern, bleibt die Quantifizierung der natürlichen Quellen der Klimavariabilität besonders hinsichtlich solarer Effekte schwer fassbar (Solomon et al 2007, Gray et al 2010).

Obwohl die Klimamodelle sehr weit entwickelt sind und viele Auswirkungen einschließen, sind sie nicht perfekt, und beobachtete Beweise sind bescheiden und unklar. Empirische Beweise zeigen eine kausale Beziehung zwischen der solaren Variabilität und dem Klima, vor allem im vorindustriellen Zeitalter (Bond et al 2011), aber mögliche Mechanismen sind unklar und qualitativ. Das Gleichgewicht zwischen der aus dem All kommenden und von der Erde mit unterschiedlichen Wellenlängen reflektierten Strahlung trägt signifikant zu Temperaturänderungen bei (Hartmann et al 1992). Folglich spielt die Wolkenbedeckung eine tragende Rolle im terrestrischen Strahlungshaushalt. Das Modellieren des Beitrages der Wolken zum Klima in verschiedenen räumlichen und zeitlichen Scales ist möglicherweise die größte Herausforderung im Bereich von Klimastudien (Vieira und Da Silva 2006). Trotz der zunehmenden Zahl von Studien bzgl. der Beziehung zwischen Sonne und Wolken versteht man noch nicht eindeutig solare Effekte auf die Wolkenbedeckung. Indirekte Mechanismen werden hier vorgeschlagen, die den relativ kleinen solaren Input verstärken und die die solarbezogene, in unterschiedlichen Zeiträumen von Tagen bis zu Jahrzehnten) beobachtete Variabilität verschiedener Wolkenparameter erklären können (Udelhofen und Cess 2001, Marsh und Svensmark 2000, Voiculescu und Usoskin 2012) oder Höhe der Wolkenuntergrenze (Harrison et al 2011, Harrison und Ambaum 2013).

Ein indirekter Mechanismus hängt mit der Tatsache zusammen, dass spektrale Einstrahlung der Sonne im UV-Band signifikant variiert, dessen Auswirkungen auf die Stratosphäre beschränkt sind. Daher muss es ein Zusammenspiel Stratosphäre – Troposphäre – Ozean geben, einen ‚top-down-Effekt‘ (Gray et al 2010, Meehl et al 2009, Haigh et al 2010). Ein anderer Mechanismus basiert auf möglichen Variationen der atmosphärischen Aerosol-/Wolken-Verhältnisse, was die Durchlässigkeit/Absorption der Atmosphäre beeinflusst und als Konsequenz die Menge der absorbierten Solarstrahlung. Zwei mögliche physikalische Zusammenhänge werden präsentiert: einer über die Ionen-induzierte/gesteuerte Bildung von Aerosolen durch von kosmischen Strahlen ausgelöste Ionisation (CRII) (Dickinson 1975, Svensmark und Friis-Christensen 1997, Carslaw et al 2002, Kazil und Lovejoy 2004, Yu und Turco 2001), der andere via GEC-Auswirkungen auf die Aerosol-/Wolkenverhältnisse (Tinsley 2000, Harrison und Usoskin 2010). Ersterer könnte nur sehr schwierig im allgemeinen Rauschen erkennbar sein, besonders in kurzfristigen Zeiträumen, wie in-situ-Laborexperimente (e.g., Carslaw 2009, Kulmala et al 2010, Enghoff et al 2011, Kirkby et al 2011) sowie statistische Studien (Calogovic et al 2010, Dunne et al 2012) gezeigt haben. Im Gegensatz dazu haben Studien von Svensmark et al (2009), Enghoff et al (2011), Svensmark et al (2013), Yu et al (2008) gezeigt, dass es einen Einfluss der Ionisierung auf die Bildung neuer Partikel gibt und dass Wolken-Kondensationskerne (CCN) existieren. Folglich kann es sein, dass der CRII-Partikelbildungs-Prozess nur längerfristig wirksam wird. Außerdem könnte er räumlich auf die polare Stratosphäre begrenzt sein (Mironova et al 2012). Andererseits kann auch der mit dem GEC zusammen hängende Mechanismus wichtig sein (Tinsley 2000, Harrison und Usoskin 2010, Rycroft et al 2012), besonders für tiefe Wolken. Und es wurden einige Verbindungen aufgezeigt zwischen den atmosphärischen elektrischen Eigenschaften und der Wolkenbildung und –entwicklung (Harrison et al 2013).

Da alle solaren Treiber bis zu einem gewissen Grad korrelieren, ist es möglicherweise schwierig zu evaluieren, welcher Treiber oder welche Kombination derselben am meisten zur Modulation der Wolken beiträgt. Ein Versuch, zwischen Solarstrahlung (gesamt oder UV) und CRII-Effekten auf die Wolkenbedeckung zu unterscheiden, wurden von Kristjánsson et al (2004), Voiculescu et al (20062007), Erlykin et al (2010) durchgeführt, die zeigten, dass zahlreiche Mechanismen in verschiedenen Höhen und verschiedenen geographischen Gebieten unterschiedliche Auswirkungen zeitigen können. Allerdings wird der GEC durch die Sonnenaktivität in anderer Weise beeinflusst, nämlich via das IEF, so dass nur das positive IEF eine Rolle spielt, das negative IEF aber nicht. Ein positives IEF korrespondiert mit einem interplanetarischen magnetischen Feld (interplanetary magnetic field IMF) mit einer südwärts gerichteten oder negativen z-Komponente, welche einen direkten Energietransfer vom Sonnenwind zur Magnetosphäre und der Ionosphäre begünstigt. Für das negative IEF (postive z-Komponente des IMF) ist der Transfer viel weniger effizient, und nur ein sehr kleiner Prozentsatz der Sonnenwind-Energie wird in die Magnetosphäre transferiert (e.g. Dungey 1961, Papitashvili und Rich 2002, Singh et al 2005). Folglich wird vom IEF im Gegensatz zu anderen potentiellen solaren Treibern, von denen man erwartet, dass sie einen monotonischen Einfluss ausüben, erwartet, dass die Wolkenverhältnisse nur dann beeinflusst werden, wenn das IEF positiv ist. Dieses Feature hat das Potential, die Auswirkungen des IEF von denen anderer Treiber zu unterscheiden. Hier präsentieren wir die Ergebnisse von Korrelations-Studien zwischen dem IEF und der Wolkenbedeckung, welche den höchst möglichen Mechanismus zeigt, der die Wolkenbedeckung beeinflussen könnte. Wir diskutieren hier hauptsächlich die Ergebnisse für die Bedeckung mit tiefen Wolken (LCC), beziehen uns aber auch auf mittelhohe und hohe Wolken.

Abbildung: Variation der mittleren Bedeckung mit tiefen Wolken in mittleren und hohen Breiten (30° bis 75° N und S) (grüne durchgezogene Linie), dem interplanetarischen elektrischen Feld (schwarze Punkte) und die durch kosmische Strahlen ausgelöste Ionisierung (CRII) im 700-hPa-Niveau (rot gestrichelt). CRII wird berechnet mittels des atmosphärischen Ionisations-Modells von Usoskin et al 2010.

Schlussfolgerung:

Wir zeigen hier ein Ergebnis einer empirischen Studie, der zufolge es eine schwache, aber statistisch signifikante Beziehung gibt zwischen der Bedeckung mit tiefen Wolken in mittleren und hohen Breiten in beiden Hemisphären der Erde und dem interplanetarischen elektrischen Feld, das einen bestimmten Mechanismus des Einflusses der indirekten Sonnenaktivität auf das Klima begünstigt: der globale elektrische Kreislauf beeinflusst die Wolkenbildung. Wir zeigen, dass alle Charakteristiken dieser Beziehung auf einer Linie mit der Erwartung liegen, falls das interplanetarische elektrische Feld via den globalen elektrischen Kreislauf beeinflusst:

(1) Die Bedeckung mit tiefen Wolken zeigt eine systematische Korrelation im jährlichen Zeitmaßstab mit einem positiven interplanetarischen elektrischen Feld in mittleren und hohen Breiten in beiden Hemisphären.

(2) Es gibt keine Korrelation zwischen der Bedeckung mit tiefen Wolken und dem interplanetarischen elektrischen Feld in tropischen Regionen.

(3) Es gibt keine Korrelation zwischen der Bedeckung mit tiefen Wolken und einem negativen interplanetarischen elektrischen Feld auf dem ganzen Globus.

Als zusätzlicher Faktor kann der kosmische Strahlenfluss beim Vorhandensein eines positiven IEF die Wolkenbildung beeinflussen. Dagegen wurde kein eindeutiger Effekt des Flusses kosmischer Strahlen während Perioden eines negativen IEF gefunden.

Ähnliche, aber statistisch weniger signifikante Ergebnisse fanden sich auch für mittelhohe und hohe Wolken, was zeigt, dass sich die primären Auswirkungen bei tiefen Wolken zeigen. Die Tatsache, dass die gefundene statistische Relation nur für Zeiten eines positiven IEF existiert und nicht bei einem negativen IEF stellt andere potentielle Mechanismen der Beziehung zwischen Sonne und Wolken in mittleren und hohen Breiten in den Schatten, wie der Aerosolbildung durch Ionen oder ein UVI-Einfluss. Allerdings könnte letzterer in tiefen und mittleren Breiten wirksam sein. Obwohl diese statistische Studie keinen Hinweis auf einen genauen physikalischen, die Wolken beeinflussenden Mechanismus vermittelt wie oben beschrieben, begünstigt sie einen bestimmten solaren Treiber, nämlich den Sonnenwind mit einem eingefrorenen IEF, der das globale elektrische Stromsystem auf der Erde beeinflusst. Das Ergebnis zeigt, dass sich weitere Forschungen des solar-terrestrischen Einflusses ebenfalls in diese Richtung orientieren sollten.

Die Studie ist offen verfügbar, und zwar hier:

http://iopscience.iop.org/1748-9326/8/4/045032/article

Related: No increase of the interplanetary electric field since 1926  (Sager and Svalgaard 2004)

Link: http://wattsupwiththat.com/2013/12/26/new-paper-clouds-blown-by-the-solar-wind/

Übersetzt von Chris Frey EIKE, der diesen Artikel inhaltlich nicht verstanden hat.




Die Leute nehmen Abstand von den Klimakosten*

[*Die Überschrift im Original: Crowds go cold on climate cost. Ich bin nicht sicher, wie man das richtig übersetzt. A. d. Übers.]

Seit seinem ersten Zustandsbericht im Jahre 1990 hat das IPCC eine Massenpsychologie losgetreten mittels willfähriger Medien, um die Falschmeldung zu verbreiten, dass böse westliche Industriekapitäne dem Klima irreparablen Schaden zufügen. Es regte eine Kompensation für nicht näher benannte Schäden in Entwicklungsländern an. Das mit dem IPCC verbandelte UNFCCC gab im November 2013 in Warschau eine Presserklärung aus, der zufolge 48 der ärmsten Länder der Welt Pläne erarbeitet haben, um mit den unvermeidlichen Auswirkungen der Klimaänderung fertig werden zu können (welche unvermeidlichen Auswirkungen?). Viele der reichsten Länder haben zugesagt, 100 Millionen Dollar in den Hilfefonds einzuzahlen.

Dieser Fonds in Höhe von 100 Millionen kommt zusätzlich zu den Milliarden Dollar, die jedes Jahr zur Reduktion von Treibhausgas-Emissionen ausgegeben werden. Deutschland marschierte dabei voran und hat durch substantielle Investitionen in Windturbinen, Solarpaneele, Wasserkraft und Biomasse gezeigt, wie es gemacht wird. Und doch hat dieses Land die CO2-Emissionen in Europa nicht um ein einziges Gramm reduzieren können. Das ist kaum ein Trostpflaster für die 800.000 Deutschen, denen im vorigen Jahr der Strom abgedreht worden ist, weil sie ihre Stromrechnungen nicht bezahlen konnten. Es ist auch kaum ein Trostpflaster für die deutsche Industrie, die zweimal so viel für Strom bezahlen muss wie die Mit-Wettbewerber in Amerika.

Deutsche Stromversorger, die gesetzlich gezwungen sind, Backup-Strom für die Erneuerbaren zur Verfügung zu stellen, stehen vor einer sehr angespannten finanziellen Zukunft durch rückläufige Profite, zunehmende Schulden und zurückgehende Aktienkurse. Das ist eine ernste ökonomische und politische Herausforderung für Deutschland.

Aus UK, Gegenstand von Emissions-Direktiven der EU, gibt es Berichte, wonach man hunderten Unternehmen Geld zahlen will, wenn sie zwischen 16 und 20 Uhr an Winterwochentagen schließen, um Blackouts zu verhindern. Ist dies die entwickelte Wirtschaft der Zukunft?

Auch Australien ist zur Geisel der Klimaänderungs-Verrücktheit geworden. Das war ein wesentlicher Faktor bei der Dezimierung unserer produzierenden Industrie. Zwar wurden dafür der australische Dollar und Kungeleien zwischen Industrie und Politik verantwortlich gemacht. Aber für einige Hersteller war der starke Dollar von Vorteil, während relativ hohe Löhne lange Zeit Bestandteil der australischen Industrielandschaft gewesen sind. Es sind die beispiellos hohen Energiekosten, verursacht durch die Ziele der Erneuerbaren und der Kohlenstoffsteuer, die als Nebeneffekt unsere Wettbewerbsfähigkeit zerstört haben. Und trotz der ganzen Propaganda hinsichtlich „grüner Arbeitsplätze“ scheint Australien dem europäischen Beispiel zu folgen, wo jeder neu geschaffene grüne Arbeitsplatz zum Verlust von zwei oder drei anderen Arbeitsplätzen in der übrigen Wirtschaft geführt hat.

Die wissenschaftliche Täuschung, die Religion hinter dem Klimakreuzzug, bröckelt. Die globale Temperatur ist seit 17 Jahren gleich geblieben. Die Forschungen des Klimatologen Roy Spencer zeigen: „Seit der Messung mittels Satelliten, 1979 bis 2012, zeigten sowohl die Messungen am Boden als auch die des Satelliten lineare Temperaturtrends, die unterhalb der Projektionen von 87 aus 90 Klimamodellen liegen – das heißt, 97 Prozent waren falsch“.

Wäre das IPCC Ihr Finanzratgeber, hätten Sie es schon vor langer Zeit hinausgeworfen. Und doch haben die Verwaltungen einiger Landkreise in NSW [= New South Wales] ihre Entwicklung an Stränden auf IPCC-Vorhersagen gegründet, welche 80 Jahre lange Beobachtungen zehnmal auf den Kopf stellen [Original: which are 10 times the 80 years observed record]. Inzwischen behaupten glaubwürdige deutsche Wissenschaftler, dass „die globale Temperatur fallen wird bis zum Jahr 2100, und zwar auf einen Wert, wie er der Kleinen Eiszeit‘ um 1870 entspricht“.

Genau wie Mackay es beobachtet hat, kommen Individuen und Wissenschaftler allmählich zur Vernunft. Globale Umfragen bestätigen, dass die Politik bzgl. der Klimaänderung an Unterstützung verliert. Die wissenschaftliche Gemeinschaft einschließlich einiger ehemaliger IPCC-Begutachter denkt noch einmal nach.

Aber das Establishment der Klimaänderung beharrt darauf, weiter die Massen auszunehmen und mehr Geld zu extrahieren. Falls nötig greift das IPCC zu Unehrlichkeit und Betrug. Himalaya-Gate und Amazonas-Gate sind Beispiele dafür, ebenso wie auch NGO-Aktivisten und junge Studienabgänger, die als Top-Wissenschaftler präsentiert werden. Die IPCC-Autoren haben die Daten so manipuliert, dass sie mit seinem Narrativ konform gehen. IPCC-Wissenschaflter waren involviert in Klimagate 1 und 2. Dessen notorisches Sprachrohr, die BBC, hat eine Konferenz der „besten britischen Wissenschaftler“ ausgerichtet, um die verzerrte Berichterstattung zu rechtfertigen. Nach Jahren der Ablehnung, die Namen der Teilnehmer bekannt zu machen, wurden diese schließlich doch enthüllt. Dabei zeigte sich, dass es sich durchweg um Vertreter von NGOs und BBC-Mitarbeitern gehandelt hatte.

Australien leistet seine eigene geschickte Hilfe. Zehner-Millionen Dollar werden jährlich an nicht willfährige Betreiber von Windturbinen durch willfährige Politiker und Bürokraten gezahlt. In einer Rede vor dem Senat am 1. Dezember hat Senator John Madigan die „enge Verflechtung“ zwischen Windgeneratoren und der Regierung von Victoria bloßgestellt. Er sagte: „Die Windindustrie in Victoria stößt Zertifikate erneuerbarer Energie im Wert von vielen Millionen Dollar aus, wozu sie gar nicht berechtigt ist, und man erlaubt ihr, die RET und LRET-Systeme [?] auszumerzen. Sagt die Windindustrie ihren Geldgebern, dass sie Windparks fördern, die Vorschriften hinsichtlich ihrer Planungshoheit brechen?

Aber wo bleibt die Sorgfalt der Medien?

Die Gesundheits-Verwaltungen in NSW und Victoria sind ebenfalls der Täuschung anheim gefallen. Zusammen mit den Abteilungen für Planung und Noise Pollution Regulation haben sie ihre Verantwortlichkeit abgeschafft, die Gesundheit der Menschen zu schützen. Sie sind zahlreicher Beispiele falscher und irreführender Statements schuldig und verschleiern, was in ländlichen Gemeinden in ihren Staaten vor sich geht. Wo bleibt die Entrüstung? Das NSW-Büro für Environment und Heritage vergab eine Zuwendung in Höhe von 60.000 Dollar für die „Überwindung von Barrieren und Gelegenheiten für die Windkraft in NSW“.

Warum befürworten die Steuerzahler Unternehmen, die für Profite arbeiten?

Von den UN abwärts ist der Betrug der Klimaänderung ein gigantischer Geldbrunnen. Es handelt sich dabei um eine Tyrannei, die trotz ihrer Ansprüche die reichen und politisch Mächtigen begünstigt auf Kosten der Armen und Machtlosen. Aber die Verrücktheit der Massen schwindet allmählich, und wie Mackay von den Tätern schreibt: „Früher oder später werden sie ihrer gerechten Strafe anheim fallen“. Wir können nur hoffen, dass dies der Fall ist, bevor die meisten von uns in die Leibeigenschaft rutschen.

Maurice Newman ist Vorsitzender des Business Advisory Council [etwa: Wirtschaftsberatungs-Gremium] des Premierministers.

[Zu diesem Artikel gibt es in der gleichen Zeitung am nächsten Tag einen Zusatzartikel]:

Maurice Newman: Die Klimapolitik hilft, das produzierende Gewerbe zu zerschlagen

GRAHAM LLOYD

Die beispiellosen Energiekosten, getrieben durch die Ziele bzgl. der Erneuerbaren und der Kohlenstoffsteuer haben die Wettbewerbsfähigkeit unseres Landes zerstört, sagt der oberste Wirtschaftsberater von Tony Abbott.

Maurice Newman sagt auch, dass die durch einen „wissenschaftlichen Betrug“ getriebene  Politik bzgl. der Klimaänderung ein wesentlicher Faktor beim Kollaps des produzierenden Bereiches von Australien gewesen ist. „Zwar wurden dafür der australische Dollar und Kungeleien zwischen Industrie und Politik verantwortlich gemacht“, sagte Mr. Newman.  „Aber für einige Hersteller war der starke Dollar von Vorteil, während relativ hohe Löhne lange Zeit Bestandteil der australischen Industrielandschaft gewesen sind“.

In einem Interview sagte Mr. Newman, dass die Rückendeckung der Politik zur Klimaänderung und die Industrie der Erneuerbaren durch mehrere Staatsregierungen auch die Untersuchung von Behauptungen im Parlament enthalten muss, dass Millionen Dollar für Projekte erneuerbarer Energie gezahlt worden sind, die offensichtlich nicht den Planungs-Leitlinien gefolgt sind. Mr. Newmans Äußerungen folgen denen des Vorsitzenden und geschäftsführenden Direktors von Dow Chemical Andrew Liveris, der sagte, dass Australien seinen natürlichen Vorteil reichlich verfügbarer und billiger Energie verliert.

Soweit es neue Investitionen betrifft, werden unsere primären Energiequellen von Erdgas und Strom jetzt oder demnächst zu Negativa für jede Wettbewerbs-Kalkulation“, sagte Mr. Liveris. „Die mittleren Strompreise haben sich während der letzten Jahre in den meisten Staaten* verdoppelt, und der beispiellose Rückgang des Konsums droht zu einer ‚Todesspirale‘ zu werden, indem rückläufiger Verbrauch zu sogar noch höheren Preisen führt, was wiederum einen weiteren Rückgang des Verbrauchs zur Folge hat“.

[*Gemeint sind hier natürlich immer die australischen Bundesstaaten. A. d. Übers.]

… [Es folgen einige Abschnitte, in denen Newman mit dem zitiert wird, was im ersten Artikel steht. Ich verzichte hier auf eine Wiederholung. A. d. Übers.]

Newman zufolge hat Senator John Madigan dem Parlament gesagt, wie Politiker und Bürokraten Zehner-Millionen Dollar jährlich an Betreiber von Windturbinen zahlen, die noch nicht die endgültige Genehmigung für die Planungen erhalten haben.

„Es können Hunderte Millionen Dollar sein, und wir haben eine Regierung, die danach strebt, das Budgetdefizit zu verringern“, sagte er. „Wenn man eine Million Dollar sparen kann, die niemals hätten ausgegeben werden dürfen, sollten wir das tun“.

Senator Madigan sagte, dass die Ausgabe von Zertifikaten für erneuerbare Energie an einen der nicht willfährigen Windparks, nämlich Waubra in Virginia, „eine Kultur der Nichteinhaltung von Vorschriften reflektiert, die sich aus systematischen regulatorischen Fehlern speist, die jeden Windpark in Victoria betreffen“.

Weiter sagte er, dass zu diesem Thema auch „die Schmerzen und das Leiden armer Menschen gehören, die im ländlichen Australien leben, ebenso wie Umweltschäden, Betrug in größtmöglichem Maßstab, Täuschung, Lügen und Verschleierungen“.

Der Regulator bzgl. sauberer Energie hat seine Entscheidung verteidigt, dem Waubra Windpark Zertifikate erneuerbarer Energie zukommen zu lassen.

Mr. Newmans Bemerkungen kamen, als die australische Competition & Consumer Commission enthüllt hatte, dass in den 18 Monaten seit Beginn der Kohlenstoffsteuer 3132 Klagen und juristische Untersuchungen in Beziehung zu den Kohlenstoffpreisen eingegangen seien.

Die Koalition hat sich verpflichtet, die Vollmachten der Überwachung auszubauen mit zusätzlichen Geldern und neuen Strafen, um sicherzustellen, dass die Unternehmen ihre Energiekosten nach Wegfall der Kohlenstoffsteuer senken.

Link: The Australian, beide Artikel paywalled

Übersetzt von Chris Frey EIKE




Jetzt, da die Passagiere des ‚Narrenschiffes‘ in der Antarktis sicher sind, müssen harte Fragen gestellt werden

Update 11:20 Uhr:

Weitere interessante Hinweise auf den Verlauf dieser Expedition zum "Nachweis der Erwärmung" in der Antarktis finden Sie hier (in Englisch). Mit Dank an Pierre Gosselin

Bolt:

1. Wer hat diese Expedition finanziert?

2. Wie kommt es, dass zu den Teilnehmern der Expedition auch Turneys Ehefrau [Chris Turney war Leiter der Expedition] und zwei kleine Kinder gehören?

3. Wie ernst war dieses wissenschaftliche Unternehmen?

4. War die Wahl des Schiffes klug, wenn es doch kein Eisbrecher war?

5. Wie kommt es, dass dieses Schiff in der heutigen Zeit mit Satellitenbeobachtungen, sehr genauen Wettervorhersagen und Radar im Eis stecken geblieben ist?

6. Wie viel hat die Rettung gekostet?

7. Wer zahlt für diese Rettung?

8. Warum waren ABC und Fairfax-Medien so erpicht darauf, zuerst zu verkünden, dass diese Expedition Ausmaß und Auswirkungen der globalen Erwärmung erforschen soll, während diese Tatsache in ihren Berichten keine Erwähnung mehr findet, seit das Schiff im Eis stecken geblieben ist?

9. Warum hat man in allen diesen Berichten – und der Expeditionsleiter selbst – es abgelehnt zu erwähnen, dass das Meereis um die Antarktis während der letzten drei Jahrzehnte stetig zugenommen hat – und dass die Eisbedeckung derzeit viel größer ist als zu Zeiten von Douglas Mawson vor einem Jahrhundert?

Ich selbst habe folgende Fragen:

1. Wer zahlt für die Rückreise nach Australien, wenn sie Casey Station verlassen?

2. Wie groß ist der Schaden durch dieses Fiasko für wirklich wissenschaftliche Expeditionen in der Antarktis, nicht nur vom Standpunkt falscher Logistik, sondern auch vom PR-Standpunkt?

3. Warum hat das gestrandete Schiff nach Wettervorhersagen und Daten gerufen, wenn es die Ausrüstung hierfür doch eigentlich an Bord haben sollte?

4. Wer wird verantwortlich gemacht, wenn dieses Schiff gar nicht mehr freikommt oder der Schiffsrumpf durch den Eisdruck eingedrückt wird und das Schiff sinkt?

5. Vor welchen Pflichten und welchem Schicksal steht die zurück gelassene Schiffsbesatzung?

6. Wer finanzierte die ARGO ATVs, nachdem Turneys Indiegogo crowdsourcing campaign [?] so kläglich gescheitert ist? Bekommen diese Leute eine Entschädigung?

7. Warum sollte Turney dieses Schiff chartern, wenn es für  Fahrten im Eis überhaupt nicht ausgelegt ist?

Akademik Shokalskiy: UL
Xue Long: B1
Aurora Australis: A1

UL = Widerstandsfähigkeit des Schiffes gegen Eis (erlaubt unabhängige Navigation in der Arktis im Sommer und Herbst bei geringer Vereisung sowie in überfrierenden nicht arktischen Gewässern das ganze Jahr über). Mehr zu den Ratings hier: http://www.globalsecurity.org/military/world/icebreakers-class.htm

8. Ist Turney in die Irre geführt worden hinsichtlich der Intensität der Vereisung, weil er selbst geglaubt hat, dass das antarktische Meereis schmilzt?

9. Hat die Rundfahrt zu Mawson’s Huts am 19. Und noch einmal am 23. Dezember (offenbar zum Mertz-Gletscher, obwohl ihr Blog und „tracker“ [track = Spur, Kurs] zu diesem Punkt unklar bleibt) zu Verzögerungen geführt, so dass das Schiff in sich rasch ändernden, das Meereis um sie herum schließenden Wetterbedingungen gefangen war?

10. Offenbar hat die Schiffsbesatzung der Akademik Shokalskiy fast kein Englisch gesprochen. Hat diese Sprachbarriere zur Situation beigetragen? Wurde Turney gewarnt, dass sich Wetter und Wind ändern würden, während die zweite Besichtigung von Mawsons Huts im Gange war, und falls ja, hat er diese Warnungen verstanden und beachtet?

11. Warum hat das Schiff eine Mischung aus Touristen und Medienvertretern an Bord gehabt, wenn es doch eine „wissenschaftliche Expedition“ durchführen sollte?

ABC-Spätnachrichten vom 5. November: Professor Chris Turney von der University of NSW hat 1,5 Millionen Dollar erhalten, um die größte australische Antarktis-Expedition mit einem Team von 85 Personen durchzuführen. Damit soll die Frage beantwortet werden, wie die Klimaänderung auf dem gefrorenen Kontinent schon jetzt die Wetterlagen in Australien verändert hat. http://www.abc.net.au/lateline/content/2013/s3898858.htm

Link: http://wattsupwiththat.com/2014/01/02/now-that-the-ship-of-fools-is-safe-in-antarctica-tough-questions-need-to-be-asked/

Übersetzt von Chris Frey EIKE




Energie für Jahrhunderte: Sind Methanhydrate die Energiequelle der Zukunft?

Zwar steht derzeit Schiefergas im Scheinwerferlicht. Aber es gibt eine andere, weniger bekannte Substanz mit dem Potential, sogar noch größere Mengen Erdgas zu enthalten: Methanhydrate.

Hydrate bestehen aus einer gitterartigen Struktur gefrorener Wassermoleküle und Methan. An der Oberfläche sehen sie wie ein ganz normaler Eisklumpen aus. Aber wenn man ein Streichholz daran hält, brennen sie – ein sichtbares Zeichen der Freisetzung von Methan.

„Viele Geowissenschaftler sind von den Hydraten fasziniert, weil es zu merkwürdig ist, dass man Methan nehmen kann, Wasser hinzufügt und als Ergebnis etwas erhält, das ein so konzentrierter Energiespeicher ist“, sagte Peter Flemings, Mitglied des Methane Hydrate Advisory Committee im Energieministerium und Professor der Geowissenschaften an der University of Austin (Texas).

Hydrate bilden sich, wenn sich Methan und Wasser bei niedrigen Temperaturen in einer Umgebung mit relativ hohem Druck verbinden. Allgemein findet man sie in arktischen Gebieten oder in den Sedimenten in tiefem Wasser entlang der Kontinentalschelfe.

Die EIA schätzt, dass Hydrate mehr Kohlenstoff enthalten als alle auf der Erde verfügbaren fossilen Treibstoffe zusammen. Sie könnten 10.000 bis 100.000 Billionen (trillions) Kubikfuß Erdgas enthalten. Zum Vergleich, die Administration, die als der unabhängige statistische Arm des Energieministeriums [DOE = Department of Energy] fungiert, hat im Jahr 2013 gesagt, dass es etwas über 7000 Billionen (trillions) Kubikfuß technisch abbaubaren Schiefergases weltweit gibt.

All dieses Potential geht bei der Administration nicht verloren. DOE hat seit den achtziger Jahren Forschungen bzgl. der Methanhydrate durchgeführt. Im November hat es verkündet, dass es 5 Millionen Dollar in Forschungsprojekte bzgl. der Hydrate zu stecken gedenke. Damit soll das Potential dieser Energiequelle erforscht werden und wie man sie ausbeuten kann.

„Wir wissen, dass Methanhydrate als zukünftige Energiequelle ein gewaltiges Potential haben”, sagte Ray Boswell, der Programmdirektor für Methanhydrate am National Energy Technology Lab des Ministeriums. „Wir sind über die Frage, ob es diese Substanz wirklich gibt und auch verfügbar ist, längst hinaus. Jetzt arbeiten wir wirklich hart daran herauszufinden, wie viel man davon in einen Zustand bringen kann, den wir realistisch als Teil unserer zukünftigen Energiereserven ansehen können. Da wollen wir hin“.

Gefragt, ob Methanhydrate eine Rolle spielen werden bei der Planung der Energiestrategie seitens des Präsidenten, erwiderte Boswell: „Ja, absolut…“

Man erwarte jetzt aber nicht, dass die Gaserzeugung aus Methanhydraten in den USA schon in nächster Zukunft beginnt. Solange Schiefergas so billig und reichlich verfügbar ist, gibt es keine wirklichen Anreize, die Methan-Technologie zu kommerzialisieren.

„Unter dem Strich ist derzeit die Gewinnung von Erdgas aus den Hydraten noch viel teurer als Schiefergas oder andere, konventionelle Methoden”, sagte Flemings.

Aber die Kosten der Extrahierung von Schiefergas sind während des letzten Jahrzehnts dramatisch gefallen, und das könnte auch hinsichtlich der Technologie der Fall sein, die nötig ist, Gas aus den Hydraten zu extrahieren. Falls dieser Tag kommt, wird eine Flutwelle fossiler Treibstoffe über die amerikanische Energielandschaft hereinbrechen.

Link: http://www.thegwpf.org/energy-centuries-methane-hydrate-energy-source-future/

Übersetzt von Chris Frey EIKE




Die thermostatische Kontrolle

Ähnlich dazu ist die Kontrolle in der globalen Klima-Maschine die tropische Albedo (Reflektivität). Die tropische Albedo kontrolliert, wie viel einfallende Sonnenstrahlung am warmen Ende der Wärmemaschine zurück in den Weltraum reflektiert wird. Mit anderen Worten, die Albedo steuert die einfallende Energie und damit das gesamte System.

Außerdem habe ich gesagt, dass die tropische Albedo eine extrem nichtlineare Funktion der Temperatur ist. Daher habe ich mir gedacht, die CERES-Satellitendaten heranzuziehen, um mal nachzuschauen, wie stark diese Drosselung in Watt pro Quadratmeter (W/m²) ist und wo genau sich diese Drossel befindet. Wenn es eine solche Drossel gibt, würde einer der charakteristischen Features dabei sein, dass die reflektierte Menge der Sonnenenergie mit zunehmender Temperatur zunehmen muss. Abbildung 1 zeigt das Ergebnis dieser Analyse:

Abbildung 1: Mittlere Änderung der reflektierten Solarenergie durch eine Temperaturzunahme um 1°C. Rote Flächen zeigen eine größere Reflektion mit steigender Temperatur. Die Änderung der reflektierten Energie wird berechnet auf Basis einer Gitterbox. Dabei berechnet sich die Änderung der Albedo pro 1°C Temperaturzunahme in dieser Gitterbox multipliziert mit der mittleren Solarstrahlung für diese Gitterbox. Die graue Linie zeigt, wo sich die Albedo mit der Temperatur nicht ändert. Gepunktete Linien zeigen die Tropen (von 23,45°N bis 23,45°S) und die Kreise um die Pole (jeweils nördlich von 66,55°).

Daraus erkennt man eindeutig, dass ein solcher Steuerungsmechanismus existiert. Man erkennt auch, wo wir ihn zu finden erwarten können, nämlich nahe dem Äquator, wo maximal Energie in das System eintritt. Im Mittel agiert die Drossel in den von der grauen Linie umschlossenen Gebieten. Allerdings war ich überrascht von der Stärke des Mechanismus‘. Es gibt weite Gebiete (rot), in denen 1°C Erwärmung zu einer Zunahme der Reflektion der Solarstrahlung um 10 W/m² oder mehr führt. Offensichtlich würde diese Kontrolle ein Faktor sein bei der Erklärung der Beobachtungen einer Wassertemperatur im offenen Ozean von etwa 30°C.

Der Drosselmechanismus agiert über den meisten Gebieten der tropischen Ozeane und selbst in manchen tropischen Landgebieten. Er ist am stärksten im Bereich der ITC, die unter dem Äquator in den indischen Ozean und über Afrika hinweg verläuft, und über dem Äquator im Pazifik und Atlantik.

Als Nächstes ist es der Erwähnung wert, dass die Gesamtauswirkung der Temperatur auf die Reflektion von Sonnenstrahlen etwa Null ist (der globale, nach Gebiet gemittelte Wert beträgt -1,5 W/m² pro Grad. Das ist geringer als die Fehlerbandbreite in den Daten). Außerdem ähneln sich weite außertropische Land- und Seegebiete darin, dass sie alle leicht negativ sind (hell orange). Dies ist ein weiterer Hinweis auf die Arbeit eines die Temperatur regelnden Systems. Da die Albedo in vielen Gebieten der Erdoberfläche relativ unempfindlich gegenüber Temperaturänderungen reagiert, können geringe Temperaturänderungen in den Tropen bereits große Auswirkungen auf die Energiemenge haben, die in das System eintritt. Abbildung 2 zeigt die Beziehung (nur Festland) zwischen der absoluten Temperatur in °C und die Änderung der reflektierten Energie pro Grad Erwärmung.

Abbildung 2: Änderung der reflektierten Sonnenenergie (W/m² pro °C) im Vergleich zur absoluten Temperatur in °C über dem Festland. Man beachte, dass sich in Gebieten mit einem Temperatur-Jahresmittel unter 0°C nur geringe Variationen der Reflektion von der Oberfläche mit einer sich ändernden Temperatur zeigt. Vom Gefrierpunkt bis etwa 20°C ist die reflektierte Menge allgemein rückläufig, wenn die Temperatur zunimmt. Über 20°C gibt es zwei Arten der Reaktion – nennenswerte Zunahme oder nennenswerte Abnahme der reflektierten Solarstrahlung mit der Temperatur.

Weiter! Die polnahen Ozeangebiete zeigen ein umgekehrtes Verhalten wie in den Tropen. Während tropische Albedo-Änderungen die Tropen kühlen, nehmen die Albedo und das reflektierte Sonnenlicht mit steigender Temperatur ab.

Abbildung 3: Änderung der reflektierten Solarenergie (W/m² pro °C) gegen die absolute Temperatur (°C) über den Ozeanen, jährliche Mittelwerte. Wo das jährliche Temperaturmittel nahe Null Grad liegt, gibt es eine starke negative Variation der Reflektion an der Oberfläche mit der Temperatur. Vom Gefrierpunkt bis etwa 20°C ist die Variation stabil und leicht negativ. Bei einer Mitteltemperatur über 20°C gibt es zwei Arten der Reaktion – nennenswerte Zunahme oder nennenswerte Abnahme der reflektierten Solarstrahlung mit der Temperatur – bis zur Obergrenze bei 30°C.

Das bedeutet, dass zusätzlich zur Begrenzung des Gesamt-Energie-Inputs in das ganze System die temperaturabhängige Albedo auch Änderungen des reflektierten Sonnenlichtes moderiert. Trendmäßig werden die Tropen dabei kühler und die Pole wärmer, als es sonst der Fall wäre. Dies würde eindeutig dafür sorgen, die Gesamt-Temperaturschwingungen des Planeten zu limitieren.

Und schließlich, die Verwendung monatlicher Mittelwerte verschleiert einen wesentlichen Punkt, nämlich dass sich Änderungen im Zeitscale von Minuten ändern, nicht von Monaten. Und auf täglicher Basis gibt es keine Gesamterhöhung um 10 W/m² pro Grad Temperaturänderung. Stattdessen gibt es bis zu einem bestimmten Zeitpunkt tagsüber keine Wolken, und die volle Intensität der Sonnenenergie kann in das System einfallen. Während dieser Zeit gibt es praktisch keine Änderung der tropischen Albedo mit steigender Temperatur.

Dann plötzlich, im Mittel um 11 Uhr, vollführt die Albedo einen gewaltigen Sprung, sobald sich Cumulusbewölkung bildet bis hin zu einem voll entwickelten Cumulus-Regime. Das führt zu einem Sprung in der Albedo und kann die Temperaturen sogar sinken lassen trotz des zunehmenden solaren Antriebs, wie ich hierhier,  hier, hier und hier gezeigt habe.

Daraus erkennt man, dass die thermische Regelung der tropischen Albedo erfolgt durch Änderungen der Zeit des Beginns der täglichen Cumulusbildung und der Intensität des täglichen Cumulus/Cumulonimbus-Regimes. Je wärmer es an jenem Tag ist, umso eher setzt die Bildung von Cumulus-Wolken ein, und umso mehr davon wird es geben. Dies reduziert die in das System eintretende Energiemenge um Hunderte Watt pro Quadratmeter. Und andererseits bilden sich Cumuli an kühleren Tagen später am Tag und erreichen womöglich gar nicht das Cumulonimbus-Stadium, und es gibt weniger Wolken. Dies lässt die in das System einfallende Energiemenge um Hunderte Watt pro Quadratmeter zunehmen.

Ich erwähne das um zu zeigen dass das System nicht einen mittleren Kontrollwert von beispielsweise 10 W/m² erreicht über einem mittleren Gebiet, in dem die Kontrolle aktiv ist.

Stattdessen erreicht es einen viel größeren Kontrollwert von einigen hundert Watt pro Quadratmeter, aber nur dann, wann und wo dieser gebraucht wird, um lokale Hitzeinseln zu kühlen oder um lokale kühle Gebiete zu erwärmen. Folge: die Mittelwerte führen in die Irre.

Der wichtigste Grund zu verstehen, dass die Albedo-Änderungen STÜNDLICHE und nicht monatliche Änderungen sind, besteht darin, dass das, was das System reguliert, augenblickliche Bedingungen der Kontrolle von Wolkenbildung sind und nicht mittlere Bedingungen. Wolken bilden sich nicht in Abhängigkeit von der Stärke der Antriebe, egal ob von der Sonne oder CO2 oder Vulkane. Sie bilden sich ausschließlich nur, wenn es warm genug ist.

Und das wiederum bedeutet, dass sich nicht viel ändern wird, wenn sich der Antrieb ändert … weil die Wolkenbildung temperaturabhängig und nicht antriebsabhängig ist.

Ich denke, dass diese augenblickliche Reaktion der Hauptgrund dafür ist, dass es so schwierig ist, zum Beispiel ein solares Signal in den Temperaturaufzeichnungen zu finden – weil die Thermoregulation auf der Temperatur basiert, nicht auf dem Antrieb. Daher agiert sie unabhängig von Änderungen des Antriebs.

Das ist auch der Grund dafür, dass Vulkane nur einen so geringen Unterschied in der globalen Temperatur ausmachen – weil das System augenblicklich auf kühlere Temperaturen reagiert in Gestalt einer verringerten Albedo. Damit erlaubt es den zusätzlichen Eintritt von hunderten W/m², um den Temperaturabfall zu kompensieren.

Es gibt noch viel mehr im CERES-Datensatz zu entdecken, und obwohl ich schon Einiges zutage gefördert habe, kann man immer noch sehr viel damit machen – eine Analyse der Klima-Wärmemaschine zum Beispiel. Allerdings denke ich, dass das klare Vorhandensein der Existenz eines durch die Temperatur geregelten Mechanismus, der die in das System eintretende Energiemenge kontrolliert, eines Extrabeitrages würdig ist.

Link: http://wattsupwiththat.com/2013/12/28/the-thermostatic-throttle/

Übersetzt von Chris Frey EIKE




China stellt 75% aller Hersteller von Solarzellen das „Todesurteil“ aus

Bild rechts: JA Solar’s factory in Shanghai.

Das Ministerium für Industrie- und Informations-Technologie hat 134 Herstellern von Silikon-Materialien, Solarpaneelen und anderen Komponenten eines photovoltaischen Systems eine Liste zugestellt, auf der bestimmte Bedingungen festgelegt worden sind. Mit Basis des Jahres 2012 sind das die Produktion, die Auslastung und technische Standards.

In einem Bereich, in dem es dem Vernehmen nach über 500 Unternehmen gibt, bedeutet die Aktivität des Ministeriums, dass drei Viertel diesen Bedingungen nicht genügen – einschließlich des Hauptwerkes von Suntech Power, das im März bankrott gegangen war, und Jiangsu Shungfeng Photovoltaic Technology, dem Retter von Suntech.

Industrie-Insidern zufolge wird es diesen Firmen nicht gelingen, Kredite von Finanzinstituten zu bekommen, und sie werden es folglich schwer haben, sich irgendwo Geld zu leihen. Sie werden auch keinen Anspruch mehr haben auf Vergütungen von Exporttarifen. Das ist ein massiver Schlag gegen Unternehmen, die von Geschäften in Übersee abhängig sind. Zu Hause wird es für sie schwierig werden, an staatliche Aufträge zu kommen.

„Dies wird helfen, die Kapazitäts-Exzesse der Industrie zu eliminieren”, sagt Jian Xie, ein leitender Funktionär des führenden Herstellers JA Solar (siehe Bild oben rechts!). „Die Liste wird alle 6 bis 12 Monate hinsichtlich Geschäftsentwicklung und Technologie-Standards überarbeitet“.

Der chinesischen Photovoltaik-Industrie weht ein heftiger Wind ins Gesicht, seit im Jahre 2012 die Nachfrage aus Europa eingebrochen ist, dem weltgrößten Markt. Die Handelshemmnisse mit den USA und Europa sind da auch nicht hilfreich. Selbst Suntech, der zum größten Solarzellen-Hersteller der Welt aufgestiegen war, musste hinnehmen, dass sein Mutterwerk untergeht. Mittelständische Unternehmen sinken nur deshalb noch nicht, weil sie von lokalen Regierungen unterstützt werden.

Lichtstrahlen dringen durch

Aber der Markt zeigt jüngst Anzeichen von Leben. Yingli Green Energy, der größte Händler der Welt, berichtete von einem Sprung von 60% von Jahr zu Jahr hinsichtlich von Verkäufen von Juli bis September, während Trina Solar in die schwarzen Zahlen zurückgekehrt ist.

Dem US-Marktforschungsunternehmen NPD Solarbuzz zufolge kam der mittlere Modulpreis von April bis September 2012 ins Taumeln, aber der Rückgang während der gleichen Periode in diesem Jahr hatte nur weniger als 1% betragen. Marktbereinigungen in den USA und Europa, einschließlich der deutschen Firma Q-Cells, nahmen Fahrt auf, was das Problem der Überversorgung etwas linderte.

Die globale Nachfrage stieg von Juli bis September auf die Rekordhöhe von 9 Millionen Kilowatt in mitten Wachstums in China, Japan und den USA. Ein Analyst bei Solarbuzz sieht sogar einen Nachfragesprung um 30%, verglichen mit dem projizierten Niveau in diesem Jahr, auf 45 Kilowatt im Jahre 2014.

In China tendieren Märkte, die hohe Umsätze bieten, dazu, Neueinsteiger anzuziehen, was oftmals zu einer Situation der Überversorgung führt. Die Regierung hat in vielen anderen Industriebereichen Überkapazitäten festgestellt, einschließlich Stahl, Zement und Schiffsbau, und ruft nach Konsolidierung.

Aber es ist ungewöhnlich, wenn die Regierung schwächelnde Marktteilnehmer aussortiert und sie am Weitermachen hindert. Die Aufmerksamkeit richtet sich jetzt darauf, ob das gleiche Schema in der Stahl- und anderen Industrien angewendet wird, die derzeit noch von lokalen Regierungen vor Ort unterstützt werden.

Link: http://asia.nikkei.com/Business/Trends/China-hands-death-sentence-to-75-of-solar-cell-makers

Übersetzt von Chris Frey EIKE




2013- das zweitkälteste Jahr des 21. Jahrhunderts in Deutschlands – Seit 17 Jahren fallen die Temperaturen in Deutschland –

Auch wenn der Dezember 2013 gar nicht winterlich war, hatte dies auf den Gesamtwert von 2013 keinen erheblichen Einfluss. Mit einem Deutschland-Mittel von 8,7°C war 2013 nur geringfügig wärmer, als es dem Mittelwert der „alten“, meist noch verwendeten Klimanormalperiode von 1961 bis 1990 entspricht (Deutschland 8,3°C). Diese „alte“ Klimanormalperiode umfasst die relativ kühle Phase der 1960er bis 1980er Jahre und ist deshalb als Vergleichszeitraum nur bedingt geeignet. Betrachtet man nämlich die dem Jahr 2013 unmittelbar vorangegangenen 30 Jahre von 1983 bis 2012 (Deutschlandschnitt 9,0°C), so war es etwas zu kalt. Die folgenden 3 Abbildungen zeigen, wie unterschiedlich sich der Temperaturverlauf darstellt, wenn man verschieden lange Zeiträume betrachtet. Um den Vergleich mit einer anderen europäischen Region zu ermöglichen, haben wir die Werte der CET (Central England Temperature Records)  mit abgebildet, wobei zu beachten ist, dass es im Herzen Englands insgesamt etwas wärmer ist, was hauptsächlich auf die dort milderen Spätherbst- und Wintermonate zurückzuführen ist.

Abb. 1: Hier ist die AMO, eine mehrzehnjährige Schwankung der Wassertemperaturen im Nordatlantik (grün), schematisch mit abgebildet. Man erkennt ein Wellenmuster, wobei England- (blau) und Deutschlandtemperaturen (grau)  dem Verlauf der AMO um einige Jahre vorauseilen, so dass man vermuten kann, dass dem Temperaturrückgang des frühen 21. Jahrhunderts auch bald ein Rückgang der Wassertemperaturen im Nordatlantik folgen wird (Ende der aktuellen AMO- Positivphase). Bei genauerer Betrachtung fällt auf, dass sich die Deutschlandkurve der Englandkurve zu nähern scheint. Ob das auf systematische Messfehler oder eine stärkere Erwärmungswirkung von Großwetterlagen, Sonnenscheindauer und WI- Effekten in Deutschland zurückzuführen ist, bedarf noch einer weiteren Untersuchung.

  

Abb. 2: Hier ist der Temperaturverlauf der letzten 50 Jahre, schon mit 2013, dargestellt. Einer relativ kühlen Phase bis Mitte der 1980er Jahre folgte der deutliche Temperaturanstieg bis zur Jahrtausendwende mit nachfolgender Abkühlung. Allerdings sind die Temperaturen nicht WI-bereinigt, und in den letzten 50 Jahren war die Bebauung und Umgestaltung der einstigen Landschaften enorm. So gefriert u.a. der Kocher im Ostalbkreis aufgrund des hohen Wärmeeintrages der Umgebung nicht mehr zu, obwohl die Winter kälter geworden sind.

     Abb. 3: Die letzten 30 Jahre (mit 2013) zeigen einen Anstieg bis etwa zur Jahrtausendwende und die nachfolgende Abkühlung. Das tiefe Temperaturniveau der mittleren 1980er Jahre ist aber noch nicht erreicht; hierzu müsste die Abkühlung noch einige Jahre andauern.

Nun muss noch geklärt werden, warum das Jahr 2013 trotz des schönen, heißen Sommers relativ kühl ausfiel. Eine mögliche Ursache ist die Häufung von Großwetterlagen mit nördlichem Strömungsanteil, welche zwischen Januar und Juli, aber auch im relativ kühlen September, gehäuft aufgetreten sind. Im Langjährigen Mittel 1881 bis 2012 treten Großwetterlagen mit Nordanteil (Großwettertypen NW, N sowie die Großwetterlagen NEA und NEZ)  an 28% aller Tage auf; 2013 waren es etwa 45%. Nur Im Hochsommer (Ende Juni bis Ende August) wirken diese nördlichen Lagen dann nicht kühlend, wenn eine überdurchschnittliche Sonnenscheindauer die kühle Nordluft stark erwärmt (Juli 2013). Und damit sind wir gleich bei einer weiteren Ursache für die insgesamt kühle Jahreswitterung 2013- die Jahressumme der Sonnenscheindauer war nämlich in den meisten Regionen Deutschlands unterdurchschnittlich; in Erfurt „fehlten“ fast 250 Sonnenstunden. Die folgende Abbildung 4 zeigt am Beispiel Potsdams, dass ein gewisser Zusammenhang zwischen Sonnenscheindauer und Jahresmitteltemperatur besteht (sonnenscheinreiche Jahre sind meist etwas wärmer, als sonnenscheinarme): 

 

Abb. 4: Sonnenscheinreiche Jahre sind meist wärmer als sonnenscheinarme, wobei der Einfluss der Sonnenscheindauer auf die Lufttemperaturen zwischen April und September sogar dominant ist, während im Winterhalbjahr ein nur geringer Zusammenhang besteht.

Am Beispiel Potsdams sehen wir in der Abbildung 5, wie sich Sonnenscheindauer, Jahresmitteltemperatur, die AMO und die Häufigkeit der im Jahresmittel am stärksten erwärmend wirkenden Südwestlagen zwischen 1893 und 2012 entwickelt haben:

Abb. 5: Die Häufigkeit der sehr warmen Südwestlagen (orange) nahm deutlich zu- eine mögliche Ursache hierfür sind die heute etwas höheren Wassertemperaturen im Nordatlantik (AMO). Auch die Sonnenscheindauer (gelb) ist heuer etwas höher, als zu Beginn des 20. Jahrhunderts, während die Jahresmitteltemperaturen den AMO- Werten etwas vorauseilen.

Der jüngste Klimawandel in Deutschland heißt Abkühlung. Seit 17 Jahren haben wir eine fallende Trendlinie.

Am Ende des Jahres 2013 hat der Deutsche Wetterdienst (DWD) in Offenbach die Jahrestemperatur veröffentlicht. Sie betrug diesmal 8,7 C. Es gab zwar in den Medien keine Warnungen vor einer unmittelbar bevorstehenden Wärmekatastrophe, aber auch keine realistische Darstellung. Alles wurde so erklärt, dass leichtgläubige Menschen darunter eine Fortsetzung der Erwärmung, die ab etwa 1975 einsetzte, verstehen konnten. Mit keinem Wort wurde vom DWD erwähnt, dass wir seit 1997 einen fallenden Temperaturtrend haben. Das bedeutet: Es wird allmählich wieder kälter in Deutschland und nicht wärmer. Mit dem neuen Jahreswert für 2013 von 8,7C sieht die Temperaturkurve Deutschlands in den letzten 17 Jahren so aus:

 Abb. 6: Die Grafik, gezeichnet nach den Daten des Deutschen Wetterdienstes zeigt  eine leichte Abkühlung in den letzten 17 Jahren und keine Erwärmung. 1997 betrug die Jahrestemperatur 8,9 C und 2013 8,7C, also geringfügig weniger. 1998, dem weltweit wärmsten Jahr hatten wir 9,1C in Deutschland. Am wärmsten war in Deutschland das Jahr 2000 mit 9,9 Grad.

Insbesondere in Deutschland werden wir seit über 20 Jahren über die drohenden Gefahren eines sich immer weiter verstärkenden Klimawandels geängstigt. Vor allem die Kinder und Jugendlichen in den Schulen werden in nahezu allen Fächern inzwischen über die bedrohende Erwärmung eingenebelt. Hiobsbotschaften von selbst ernannten „Klimaexperten“ und teuer bezahlten Klimawissenschaftlern überschlagen sich von Jahr zu Jahr. Städte und Gemeinden werden aufgefordert, gegen die bereits begonnene und sich angeblich unaufhaltsam verstärkende Erderwärmung anzukämpfen. Anderenfalls würde in naher Zukunft der Klimakollaps drohen und Holland sieben Meter unter Wasser liegen.  „Kampf dem Klimawandel“ heißt die Parole, unter der dann gegen den vermeintlichen Feind, das vom Menschen erzeugte Kohlendioxid, schon kriegsmäßig vorgegangen wird.

Die Realität ist aber eine andere. In der Natur und bei den Temperaturen lässt sich der  gebetsmühlenartig wiederholte, angeblich stark erwärmende Treibhauseffekt infolge des vom Menschen erzeugten CO2 nicht erkennen. Das Klima geht seine eigenen Wege, wie schon immer. Interessant ist, dass die Kinder in den Schulen nur die Abkühlung mit einigen schneereichen, teilweise sehr langen Wintern (2005/2006, 2008/2009, 2009/2010, 2010/2011 und 2012/2013) erlebt haben – obwohl es doch nach den Kassandrarufen der meisten Klimapropheten gar keine richtigen Winter mehr geben sollte.

Die realistische Temperaturgrafik ohne jede Erwärmungskosmetik zeigt deutlich: Die Temperaturen sind in Deutschland in den letzten 17 Jahren gesunken und dies sogar noch stärker als gezeigt, wenn man sie auch noch um den Wärmeinseleffekt bereinigen würde, denn die freie Fläche Deutschlands wird täglich weiterhin mit 110 ha überbaut, trockengelegt und wärmewirksam verändert. Vor durch die Ausuferung der Städte in den letzten 25 Jahren wurden die Frischluftschneisen abgeriegelt, weshalb die Innenstädte vor allem im Sommer nicht mehr gekühlt werden können und die DWD-Messstationen neue Temperaturrekorde für die Städte messen. Das ist natürlich keine globale Erwärmung aufgrund der CO2-Zunahme, sondern eine Kleinklimaänderung aufgrund von lokalen menschlichen Einflüssen, in der Literatur ist diese Tatsache als eine Vergrößerung der Wärmeinseln beschrieben. Allein in Deutschland werden täglich etwa 110 ha überbaut.

Dass vom Menschen erzeugtes Kohlendioxid keinen oder kaum einen Einfluss auf die Temperaturen erkennen lässt, zeigt noch deutlicher die folgende Grafik über die letzten 25 Jahreswerte in Deutschland. Fast alle Lehrer unserer Schulen, aber insbesondere die Medienvertreter machen sich nicht die Mühe, die Temperaturen der letzten Jahre zu vergleichen. Schickt man Ihnen diese Grafiken zu, dann äußern sie sich meist gar nicht dazu oder sie zweifeln den Temperaturverlauf an mit den Worten,  aber die Ozeane werden doch wärmer, der Nordpol und die Gletscher schmelzen doch. Und bei nächster Gelegenheit behaupten sie wieder, die Klimaerwärmung sei in den letzten Jahren besonders heftig gewesen.

Abb7.  Die Grafik zeigt, dass die Zunahme von Kohlendioxid keinen oder kaum einen Einfluss auf die Temperaturen hat. Die CO2-Werte (kleine eingeblendete Grafik) steigen seit 25 Jahren, die Temperaturen sind gleich geblieben, allerdings mit der fallenden Tendenz am Schluss.

Es wird endlich Zeit, dass wieder Natur- und Umweltschutz in den Mittelpunkt menschlichen Handelns gestellt werden und nicht das Geschäftsmodell Klimaschutz. Schließlich sind die Schmetterlinge in Deutschland nicht wegen einer nicht existierenden Erwärmung vom Aussterben bedroht, sondern wegen der Umgestaltung ihrer natürlichen Lebensräume.

Wir kommen somit zum Ergebnis:

1)    Seit 17 Jahren fallen die Temperaturen in Deutschland

2)    Seit 25 Jahren haben wir einen ausgeglichenen Temperaturverlauf

3)    In dem ganzen Zeitraum ist der CO2-gehalt der Luft weiter gestiegen.

Der steigende Kohlendioxidgehalt in der Atmosphäre hat auf den Temperaturverlauf keinen oder kaum einen Einfluss. Für die Vegetation ist er sogar begrüßenswert, da CO2 ein notwendiger Dünger für die Nahrungspflanzen ist, womit man dem Hunger in der Welt entgegenwirken kann.

Stefan Kämpfe, Weimar                                                                                                                         Josef Kowatsch, Hüttlingen