1

Wärmstes Jahr jemals? Riesenmuschel enthüllt: im Mittelalter war es wärmer als heute

Aus der Chinese Academy of Sciences:

Zwei Studien aus jüngerer Zeit, eine veröffentlicht in den Earth-Science Reviews und die andere im Chinese Science Bulletin, haben die chemischen Hauptbestandteile in gigantischen Schalen von Riesenmuscheln (siehe Bild rechts) und Korallen untersucht um zu zeigen, dass es im Südchinesischen Meer zur Zeit der Mittelalterlichen Warmzeit wärmer war als heute.

Die Wissenschaftler untersuchten das Verhältnis zwischen Strontium- und Kalzium-Gehalt sowie Isotope schweren Sauerstoffs. Beide sind sensitiv hinsichtlich der Wassertemperatur in Vergangenheit und Gegenwart. Das Aragonit-Bikarbonat der Muschelschale von Tridacna gigas ist so fein strukturiert, dass tägliche Wachstumslinien hervortreten, wenn man Mikrobohrungen mit einem außerordentlich feinen Bohrer durchführt. Man erhält damit eine außerordentlich detaillierte Zeitreihe von Änderungen der Meerestemperatur – eine Entdeckungsleistung, die Sherlock Holmes selbst würdig ist.

Mittels Überlappungen zwischen aufeinanderfolgenden Generationen von Riesenmuscheln und Korallen haben die drei Wissenschaftler eine Aufzeichnung von Änderungen der Wassertemperatur rekonstruiert, die 2500 Jahre zurück reicht. Die drei Wissenschaftler sind: Hong Yan of the Institute of Earth Environment, Chinese Academy of Sciences, Willie Soon of the Harvard-Smithsonian Center for Astrophysics and Yuhong Wang of Fudan University, Shanghai.

Die Römische und die Mittelalterliche Warmzeit zeigten sich beide prominent im westlichen Pazifik und Ostasien. Die Wassertemperaturen haben während des 2500-Jahre-Zeitraumes deutlich variiert.

Sich ändernde Verläufe von Temperaturvariationen im Winter und Sommer wurden ebenfalls entdeckt, was die Behauptung widerlegt, dass es bis zur Erwärmung im 20. Jahrhundert kaum Änderungen der globalen Temperatur innerhalb von fast 1000 Jahren gegeben hat. Es bestätigt, dass – zumindest im Südchinesischen Meer – nichts Ungewöhnliches an den heutigen Temperaturen zu finden ist.

Dr. Yan sagte: „Die neue Studie fügt den substantiellen Proxy-Beweisen der realen Welt weiteres Material zu. Es zeigt sich einmal mehr, dass die heutige globale Temperatur innerhalb der Bandbreite von Änderungen in der Vergangenheit liegt“. Dr. Soon fügt hinzu: „Das IPCC der UN hätte niemals der Behauptung vertrauen sollen, dass die Mittelalterliche Warmzeit hauptsächlich ein europäisches Phänomen gewesen sei. Es war eindeutig auch im Südchinesischen Meer warm“.

Link: http://wattsupwiththat.com/2015/01/05/hottest-year-ever-giant-clam-reveals-middle-ages-were-warmer-than-today/

Übersetzt von Chris Frey EIKE

Hinweis des Übersetzers: Ich erinnere mich, bereits vor längerer Zeit für das EIKE zwei Beiträge übersetzt zu haben, die die MWP auch jeweils in Südamerika bzw. der Antarktis nachweisen.




Reaktortypen in Europa — Teil3, AP1000

Geschichte

Der AP1000 entwickelt sich zum "Golf" der Kernkraftwerke. Inzwischen sind acht Reaktoren in Bau: Je zwei in Sanmen und Haiyang in China und in Vogtle (Georgia) und Summer (South Carolina) in USA. Zahlreiche andere befinden sich weltweit im Vergabeverfahren. So sind drei Reaktoren in Moorside (West Cumbria, nordwestlich von Sellafield, UK) in Vorbereitung. Sie sollen durch NuGen, ein Joint Venture aus Toshiba (Westinghouse gehört zu Toshiba) und GDF SUEZ errichtet und betrieben werden.

Ständig steigende Investitionskosten und steigende Sicherheitsanforderungen zwangen Westinghouse das Konzept grundlegend zu überarbeiten. Über 50 Jahre Betriebserfahrung gipfelten in einer völlig neuen Konstruktion mit vier zentralen Anforderungen:

·        Vereinfachte Konstruktion: Was man nicht hat, kostet auch nichts und kann nicht versagen,

·       Übergang von aktiven auf passive Sicherheitssysteme,

·       modularer Aufbau und

·       parallele Errichtung von Bau und Anlagentechnik.

Der AP1000 ist ein schönes Beispiel dafür, was man erreichen kann, wenn man den Mut hat, eine Konstruktion noch einmal mit einem weißen Blatt Papier von Anfang an zu beginnen. Vorgabe war ein Druckwasserreaktor mit einer mittleren Leistung von rund 1000 MWel. Schon damit setzte man sich ab. Man versuchte gar nicht erst eine Kostensenkung über eine Leistungssteigerung zu erzielen, sondern setze lieber auf die Nachfrage des Weltmarktes. Die Größe entsprach nur etwa 2/3 der letzten Typen der zweiten Generation. Dieser Rückschritt sollte dafür die Märkte der Schwellenländer mit noch kleinen Netzen einschließen.

Durch die "geringe" Leistung kommt man mit nur zwei modernen Dampferzeugern gegenüber üblicherweise vier aus. Dies spart schon mal beträchtlich umbauten Raum, der bei Kernkraftwerken besonders teuer ist (Sicherheitsbehälter, Betonbunker etc.). Durch weiteres, konsequentes "weglassen" ergibt sich der Druckwasserreaktor, mit dem geringsten Beton- und Stahleinsatz pro MWel.

Ein weiterer Ansatz zur Senkung der Stromerzeugungskosten ist die Verlängerung der Nutzungsdauer: Die Ausdehnung auf genehmigte 60 Jahre, verteilt die Kapitalkosten auf wesentlich mehr produzierte KWh. Weniger sicherheitsrelevante Teile (z. B. Noteinspeisepumpen mit zugehörigen Ventilen und Rohrleitungen) oder robustere Konstruktionen (z. B. dichtungslose Hauptkühlmittelpumpen) verringern die Wartungskosten und die notwendigen Wiederholungsprüfungen. Eine nicht zu vernachlässigende Einsparung über die Lebensdauer eines Kraftwerks.

Pumpen

Üblicherweise stehen die Hauptkühlmittelpumpen zwischen den Dampferzeugern. Sie sind mit diesen und dem Reaktordruckgefäß über Rohrleitungen verbunden. Die Pumpen saugen das abgekühlte Wasser aus den Dampferzeugern an und drücken es zurück durch den Kern. Beim AP1000 haben sie die gleiche Aufgabe. Sie sind aber paarweise direkt an den Dampferzeugern angeflanscht. Dies erspart nicht nur Rohrleitungen, sondern vereinfacht diese erheblich. Es sind weniger Formstücke und Schweißnähte erforderlich und der Schutz gegen Erdbeben gestaltet sich wesentlich einfacher.

Die Pumpen selbst, sind für zivile Druckwasserreaktoren ungewöhnlich. Sie verfügen über mit Wasser geschmierte Gleitlager und sind voll gekapselt. Der Läufer und der Stator sind in wasserdichte Hüllen eingeschweißt. Das Pumpenrad sitzt direkt auf der Welle des Antriebsmotors. Sie benötigen damit keine Wellendichtungen und sind somit extrem wartungsarm. Sie sind für eine Betriebsdauer von 60 Jahren ausgelegt und zugelassen. Dieser Pumpentyp ist sehr anspruchsvoll in der Fertigung. Die USA verfügen jedoch über eine jahrzehntelange Erfahrung mit diesem Pumpentyp in ihrer Marine.

Passive Sicherheit

Unter "Passiver Sicherheit" versteht man, daß bei keinem Störfall Pumpen, Diesel etc. benötigt werden, um den Reaktor in einen sicheren Zustand zu überführen und zu halten. Alle Armaturen müssen nur einmal ausgelöst werden (voll offen oder voll geschlossen) und nach Auslösung ohne Hilfsenergie auskommen. Es sollten keine Eingriffe durch das Personal nötig sein.

Hinter dieser Definition verbirgt sich noch ein weiterer Ansatz zur Kostensenkung: Man kann "Sicherheit" oder "Verteidigung" in mehreren Stufen definieren. Bevor ein Ereignis zu einem Störfall wird, kann man durch automatische Stellglieder die Folgen abwenden. So kann man z. B. bei einem Generatorschaden den Dampf direkt in den Kondensator leiten und dadurch eine Notkühlung verhindern. Alle für diese Umleitung notwendigen Komponenten bräuchten nur den bei konventionellen Kraftwerken üblichen Qualitätsstandard besitzen, da sie das eigentliche Sicherheitssystem (gemeint ist damit das passive Notkühlsystem) nicht berühren. Nur die Komponenten des passiven Sicherheitssystems müssten den Stempel "nuclear grade" tragen. Oft sind solche Teile völlig identisch mit dem "Industriestandard" — unterscheiden sich lediglich im bürokratischen Aufwand und im Preis.

Man kann die Sicherheit — bezogen auf eine eventuelle Freisetzung von radioaktiven Stoffen in die Umwelt — noch steigern, indem man eine konsequente Diversifizierung betreibt. Ferner sieht man für wahrscheinlichere Ereignisse eine höhere Anzahl von Verteidigungsstufen vor.

Der Station Blackout

Vor Fukushima war der größte anzunehmende Unfall (GAU) der entscheidende Sicherheitsmaßstab. Man ging von einem plötzlichen Verlust der Reaktorkühlung infolge einer abgerissenen Hauptkühlmittelleitung aus. Um ein solches Ereignis zu beherrschen — ohne Freisetzung nennenswerter Radioaktivität in die Umwelt — muß bei Reaktoren mit aktivem Sicherheitskonzept auf jeden Fall ausreichend elektrische Energie vorhanden sein. Mindestens ein Notstromdiesel muß starten und die entsprechenden Schaltanlagen müssen funktionstüchtig sein. In Fukushima hat beides ein Tsunami außer Gefecht gesetzt.

Seit Fukushima ist der "station blackout" ins öffentliche Interesse geraten. Gemeint ist damit der völlige Verlust von Wechselstrom (Kraftstrom) im Kraftwerk. Es ist nur noch Gleichstrom aus Batterien für Steuerung und Notbeleuchtung vorhanden. Es ist daher interessant, wie der AP1000 auf solch eine Situation reagieren würde:

Durch den Stromausfall fallen die Regelstäbe durch ihr Eigengewicht in den Reaktorkern ein und unterbrechen jede Kettenreaktion. Allerdings beträgt in diesem Moment die Nachzerfallswärme noch rund 6% der thermischen Leistung (ungefähr 200 MW), die sicher abgeführt werden müssen. Durch den Stromausfall, fallen alle Pumpen aus. Durch die in den Schwungrädern der Hauptkühlmittelpumpen gespeicherte Energie, laufen diese noch geraume Zeit nach und halten den Primärkreislauf aufrecht. Allerdings ist nach etwa zwei Minuten der Wasserstand auf der Sekundärseite der Dampferzeuger auf sein zulässiges Minimum gefallen, da die Speisepumpen auch nicht mehr laufen können. Dieser Zustand öffnet automatisch die beiden Ventile zur Notkühlung (die Ventile sind im Betrieb elektromagnetisch geschlossen, d. h. Strom weg = Ventil offen). Nur ein Ventil müßte öffnen (Redundanz), um die volle Wärmeleistung abzuführen. Das Wasser strömt nun vom Reaktorkern zu einem Wärmetauscher (PRHR HX) in dem Wassertank innerhalb der Sicherheitshülle (PRHR). Dieser Tank liegt deutlich oberhalb des Reaktordruckgefässes, wodurch sich ein Naturumlauf ergibt. Nach rund zwei Stunden ist die Nachzerfallswärme auf rund ein Prozent (immerhin noch rund 34 MW) abgefallen. Nach ungefähr fünf Stunden wäre der Tank soweit aufgeheizt, daß das Wasser zu sieden beginnt. Der Sicherheitsbehälter ist ein Zylinder aus 45 mm dickem Stahlblech (bessere Wärmeleitung als Beton). Der Dampf würde an den Wänden kondensieren und über ein Auffangsystem zurück in den Tank laufen. Der Sicherheitsbehälter wiederum, würde seine Wärme an die Umgebungsluft abgeben. Die Umgebungsluft steigt wie in einem Kamin im Zwischenraum zwischen Sicherheitshülle und Betonwand der Schutzhülle (gegen Flugzeugabsturz usw.) auf. Steigt der Druck im Sicherheitsbehälter über einen Grenzwert an, werden zur Steigerung der Kühlung die pneumatisch betätigten Ventile der Beregnungsanlage geöffnet. Ganz oben, auf dem Dach des Reaktors, befindet sich ein charakteristischer, ringförmiger Wassertank. Aus ihm würde nun Wasser durch Schwerkraft auf die äußere Seite des Sicherheitsbehälters "regnen" und diesen stärker kühlen. Der Inhalt des Tanks reicht für 72 Stunden Regen.

Durch die (gewollte) Abkühlung des Reaktors zieht sich das gesamte Wasser des Primärkreislaufes wieder zusammen. Der Wasserstand im Druckhalter sinkt. Genauso würde er sinken, wenn der klassische GAU — irgendein Leck im Primärkreis — eingetreten wäre. Damit ein zeitweiliges "trocken fallen" der Brennelemente (Harrisburg und Fukushima) sicher verhindert werden kann, wird rechtzeitig Wasser nachgespeist. Hierfür gibt es sog. Akkumulatoren. Das sind Behälter, die teilweise mit Wasser gefüllt sind und durch ein Stickstoffpolster unter Druck gehalten werden. Aus diesen strömt automatisch (Rückschlagventile, die durch den Druck im Primärkreis geschlossen gehalten werden, Druck zu klein = Ventil offen) Wasser in den Reaktordruckbehälter nach.

Ist der Druck — egal ob durch ein Leck oder Abkühlung — bis auf Umgebungsdruck abgebaut, kann die Kühlung direkt über die Verdampfung des Wassers im Druckbehälter endlos weiter erfolgen. Dieser Zustand kann auch gewollt oder automatisch angestrebt werden. Würde die Kühlung — aus welchen Gründen auch immer — versagen, würde der Druck im Reaktorbehälter immer weiter ansteigen. Um dies zu verhindern, kann man den Druck über ein Abblasen des Druckhalters abbauen. Dies ist ein Beispiel, wie man durch den geschickten Aufbau einer Sicherheitskette das eventuelle Versagen einzelner Glieder überbrücken kann: Würden tatsächlich beide Ventile (2×100%) des Notkühlkreislaufes versagen (siehe weiter oben) müßte trotzdem nicht die Kühlung ausfallen, sondern es würde lediglich ein anderer Weg beschritten.

Die 72 h Regel

Beim AP1000 bezieht sich die passive Sicherheit nicht nur auf die Anlagentechnik, sondern auch auf das Personal. Seit den Störfällen von Harrisburg und Tschernobyl weiß man um die Bedeutung von Bedienungsfehlern. Gerade in der Zeit unmittelbar nach der Störung ist die Wahrscheinlichkeit dafür besonders hoch: Das Schichtpersonal muß erst seinen Schock überwinden, eine wahre Informationsflut muß erst einmal verarbeitet werden, damit man sich überhaupt einen Überblick verschaffen kann und dann müssen die richtigen Maßnahmen auch noch erkannt und eingeleitet werden. Andererseits sind drei volle Tage eine recht lange Zeit, um etwas zu reparieren, Fachleute außerhalb des Kraftwerks hinzu zu ziehen oder sogar Ersatzgerät herbeizuschaffen. Dies gilt selbst bei schwersten Naturkatastrophen, wie in Fukushima.

Dabei sind die 72 Stunden als Mindestwert bei ungünstigsten Bedingungen zu verstehen. Nach Ablauf dieser Zeitspanne sind weitere Auffanglinien vorgesehen. So können z. B. die Kühlwasserbehälter auch von außen über die Feuerlöschtanks auf dem Gelände nachgefüllt werden. Hierfür ist allerdings wenigstens ein kleiner Hilfsdiesel, der zusätzlich zu den eigentlichen Notstromdieseln vorhanden ist, nötig. Der Treibstoffvorrat beträgt vier Tage.  Inzwischen dürften längst Hilfskräfte und Material aus den Notfallcentern eingetroffen sein.

Die Strategie zur Kostensenkung

So makaber es klingen mag, aber die Unglücke von Tschernobyl (vollkommen explodierter Reaktor) und Fukushima (in drei Reaktoren gleichzeitige Kernschmelze) haben den "Atomkraftgegnern" ihr stärkstes Argument von dem "unkalkulierbaren Restrisiko" bei Kernkraftwerken entzogen. Nur noch sehr schlichte Gemüter glauben das Märchen "Millionen-Tote-für-10000-Jahre-unbewohnbar". Es ist also kein Zufall, daß sich die "Bewegung" nun auf angeblich "zu teuer", konzentriert. Für die Investitionskosten sind folgende Faktoren ausschlaggebend:

·       Unnötig kompliziert: Doppelte Betonbunker, Core catcher, weitere Notstromdiesel, Pumpen etc.

·       Bürokratismus: "Nuclear grade" erfordert einen — teilweise absurden — bürokratischen Aufwand. Oft kostet das gleiche Bauteil als "nuclear grade" geadelt, den vier bis fünffachen Preis. Um eine Diskussion über Sinn und Zweck zu vermeiden, sollte dieser Standard nur noch für echte Sicherheitstechnik verlangt sein. So könnte man beispielsweise bei einem Reaktor mit passiver Sicherheit, die Notstromdiesel aus diesem Verfahren entlassen — als wenn es in anderen Bereichen (IT, Luftfahrt, Seefahrt etc.) keine Sicherheitsnormen gäbe.

·       Bauzeit: Je länger die Bauzeit dauert, desto höher sind automatisch die Baukosten (Verzinsung), das Risiko (z. B. Inflation) und der ausgefallene Gewinn (z. B. Zukauf von Strom). Eine Verkürzung läßt sich grundsätzlich nur durch parallele Abläufe erzielen.

·       Baustelle: Arbeiten auf Baustellen sind grundsätzlich teurer, als eine Fertigung in einer Fabrik. Hinzu kommt meist noch ein schwer zu kalkulierendes Witterungsrisiko.

·       Serien: Jeder "first of a kind" ist teurer als die Nachfolgemodelle. Hat man erst einmal die "Konstruktionsfehler" behoben und das Personal seine Erfahrungen gesammelt, geht die Arbeit wesentlich flotter. Dies hat sich auch jetzt beim Bau der ersten AP1000 in China und USA wieder gezeigt.

Westinghouse hat konsequent auf eine Modularisierung bei paralleler Fertigung gesetzt. Im Schiffbau nennt man das "Sektionsbauweise". Ziel ist die Errichtung eines Kernkraftwerks in 36 Monaten. Diesen sind noch der Vorlauf für die Baustelleneinrichtung und die Inbetriebnahme hinzu zu rechnen, sodaß ein Zeitraum von rund fünf Jahren zwischen Auftragserteilung und Übergabe an den Kunden liegt.

Der Rohbau

Üblich ist es schon immer, alle großen Bauteile: Reaktordruckgefäß, Dampferzeuger, Druckhalter, Turbine und Generator, Kühlmittelpumpen etc. möglichst schnell zu vergeben. Diese Aggregate werden von Spezialfirmen gefertigt und getestet und kommen möglichst komplett auf die Baustelle.

Gänzlich anders verhielt es sich bisher mit dem baulichen Teil: Der Hochbau wurde ganz konventionell in Ortbeton hergestellt. Dabei arbeitete man sich, wie bei jedem anderen Gebäude auch, vom Keller bis zum Dach stückweise voran. Wie auf jeder anderen Baustelle auch, konnte man mit dem Innenausbau erst beginnen, wenn der Rohbau fertig war.

Beim AP1000 hat man konsequent mit dieser Tradition gebrochen. Hier gilt: Möglichst wenig Arbeiten auf der unmittelbaren Baustelle und weitgehendste Fertigung in den Fabriken der Zulieferer. Um möglichst parallel arbeiten zu können, werden die Sektionen auf dem Baustellengelände aus den gelieferten Modulen zusammengebaut und die Sektionen termingerecht mit einem Schwerlastkran (3200 to) zu dem eigentlichen Reaktor zusammengefügt.

Konventionell (Schalung aus Holz, Eisengeflecht vor Ort und mit Beton ausgegossen) gebaut, wird nur noch die Grundplatte, auf der die gesamte "nukleare Insel" steht. Schon die sich anschließende "Reaktorgrube" ist eine komplette Sektion in Sandwich-Bauweise. So geht es Sektion für Sektion nach oben. Der Schwerlastkran stapelt alle wie auf einer Werft über- und nebeneinander. Dazu gehören auch ganze Baugruppen aus Rohrleitung, Pumpen, Ventilen usw., fertig lackiert, in Stahlgestellen. Die eigentliche Montage vollzieht sich in der erdbebenfesten Verbindung der Gestelle mit dem Baukörper und dem Anschluß an die Versorgungsleitungen etc. Da diese Module schon bei ihren Herstellern vollständig getestet und abgenommen worden sind, verkürzt sich auch die spätere Inbetriebnahme erheblich.

Das Sandwich

Für eine konventionelle Betonwand muß der Zimmermann eine Schalung aus Holz bauen und die Eisenflechter die Moniereisen einbringen. Nach dem Aushärten des Beton muß alles noch mühselig ausgeschalt und meist auch noch nachgearbeitet werden. Eine kosten- und vor allem zeitaufwendige Arbeit. Außerdem sind Zimmerleute keine Feinmechaniker.

Ein Sandwich besteht aus zwei Stahlplatten, die später mit Beton ausgegossen werden. Die Stahlplatten-Konstruktion übernimmt die Funktion einer verlorenen Schalung und enthält auch noch das "notwendige Eisen", was die Festigkeit eines Stahlbeton ausmacht. Auf den ersten Blick keine revolutionäre Erfindung. Nur sind die Wände und Decken in einem Kraftwerk meist nicht massiv, sondern haben unzählige Durchbrüche und Einbauten. Wenn man die Anlagentechnik auch in Modulen vorfertigen will, müssen diese in der Toleranz von Maschinenbauern und nicht von Zimmerleuten ausgeführt werden. Wenige Millimeter Versatz, enden in einer teuren Katastrophe. Die einzelnen Platten werden nun — wie auf einer Werft — vollautomatisch aus- und zugeschnitten. Die Verstärkungen (die das Eisengeflecht bei konventionellem Beton ersetzen) werden auf Schweißmaschinen angebracht und die Platten zu Modulen zusammengeschweißt. Die Größe der Module ist dabei maßgeblich durch den Transportweg begrenzt. Die größte Sektion besteht z. B. in Vogtle aus 72 Modulen, die auf der Baustelle zusammengeschweißt wurden und mittels eines Schwerlasttransporters und des Schwerlastkranes in den Sicherheitsbehälter eingesetzt wurde. Diese Sektion wiegt ohne Betonfüllung rund 1000 to.

Neue Herausforderungen

Die Aufteilung in drei Bauphasen: Fertigung von Modulen bei den Herstellern, zusammenfügen der Module zu Sektionen auf separaten Vormontageplätzen und der Zusammenbau der Sektionen zum eigentlichen Reaktor, erfordert eine besonders ausgefeilte Planung und Logistik.

Ein solches Vorhaben kann nur gelingen, wenn man von Anfang an, wirklich alle Elemente auf einem entsprechenden Rechner in vierdimensionaler (drei Orts- und eine Zeitachse) Abbildung zur Verfügung hat. Solche Werkzeuge gibt es noch nicht sehr lange. Zum Werkzeug gehören aber noch die entsprechend qualifizierten Konstrukteure mit praktischer Erfahrung und eine Lernkurve. So waren z. B. bei den ersten Reaktoren in China einige Abstände zwischen den Kabelbahnen und den Decken des nächsten Moduls zu knapp bemessen. Es ergaben sich tote Ecken bezüglich der Lackierung, usw. Alles Dinge, die zu Zeitverzug und ungeplanter Nacharbeit geführt haben.

Es ist eine ungeheure Disziplin und straffe Organisation über die gesamte Laufzeit eines Projekts erforderlich: Jede Änderung bei einem Zulieferer — irgendwo auf der Welt — kann dutzende Änderungen, zusätzliche Prüfungen usw. bei anderen Zulieferern auslösen. Gerade Dokumentation und Prüfungen sind in der kerntechnischen Industrie eine besondere Herausforderung. In den USA hat letzteres zu erheblichen Verzögerungen beim Bau des Kraftwerks Vogtle geführt. Ein Hersteller aus Louisiana — der seit Jahrzehnten erfolgreich im Bau von Ölförderanlagen etc. tätig war — war mit diesen "Gepflogenheiten der Kerntechnik" nicht hinreichend vertraut. Im Endergebnis mußten etliche Module aus China nachbestellt werden.

Die Sektionsbauweise ist auch nicht ohne Tücken und erfordert entsprechendes Fachpersonal auf der Baustelle. Es müssen komplizierte und stabile Leergerüste gebaut werden, um die Sektionen aus Modulen passgerecht zusammen zu bauen. Der Verzug beim Schweißen und die Temperaturschwankungen sind bei so großen Bauteilen eine weitere Herausforderung. Der Schwerpunkt ist ebenfalls nicht immer genau festgelegt, was das Anheben ohne zusätzliche Belastungen nicht einfacher macht. Für Sektionen bis zu 1000 to müssen entsprechende Kräne und Transporter bereitgehalten werden. Für diese selbst, muß die Infrastruktur (Schwerlaststraßen, Bewegungsräume, Energieversorgung etc.) geschaffen werden.

Ausblick

Der AP1000 setzt die Maßstäbe für den Bau moderner Druckwasserreaktoren. Seine Weichen werden z. Zt. in China gestellt. Er kann seine wirtschaftlichen Vorteile erst in einer größeren Serie voll ausspielen. Die Lernkurve zeichnet sich bereits in USA und China deutlich ab. Es ist nur eine Frage der Stückzahl, wann die Investitionskosten für ein solches Kernkraftwerk unter das Niveau eines Kohlekraftwerks nach deutschen Standards (Wirkungsgrad 46%, mit Entstickung und Rauchgasentschwefelung, zugehörige Entsorgungsanlagen etc.) gesunken sind. Genau diese Frage, stellt sich aber bereits heute — wie schon in den 1970er Jahren in Deutschland –, wenn man die Luftverschmutzung in Peking betrachtet. Anschließend steht für China ein gigantischer Weltmarkt offen. Wir sprechen bereits in Europa nicht nur über Moorside, sondern auch über Polen, Tschechien und Bulgarien.

Im nächsten Teil4 geht es um die Siedewasserreaktoren, wie sie z. B. für den Standort Wylfa Newydd (Insel Anglesey in Nord Wales, GB) vorgesehen sind.

Zuerst erschienen bei NukeKlaus hier




E – Mobilität und Energiewende, zwei Seiten einer Falschgeld-Medaille

Leserbrief E-Auto AZ vom 8.1.2015: „Wo sind all die Elektroautos?

E – Mobilität und Energiewende, zwei Seiten einer Falschgeld-Medaille

Der AZ-Bericht bietet eine gute Gelegenheit, das Dilemma der fehlenden Speicher für eine erfolgreiche E – Automobilität, ebenso wie für eine erfolgreiche Energiewende objektiv zu betrachten und zu erörtern. Die Thematik wird für alle, die um wirkliche und kostenmäßig realisierbare Fortschritte auf dem Energiesektor oder dem Fahrzeugsektor bemüht sind, von Interesse sein und leider wohl einige Träume zerstören:  Entgegen vieler medialer Bekundungen, hat sich auf dem E-Mobilitätsgebiet, abgesehen von hervorragenden Entwicklungen in der elektrischen Traktion, bis zum Hybrid AUTO z.B. dem BMW i8, in der Stromspeichertechnik zur Bereitstellung ausreichender elektrischer Traktionsenergie, bis auf durchaus erfreuliche Verbesserungen der Speicherfähigkeit und Lebensdauer im zweistelligen Prozentbereich und moderate Kostensenkungen in Relation zur Energiespeicherfähigkeit, den Kosten und der „Aufladezeit“ eines üblichen Benzintanks, nichts Wesentliches getan.  

Es ist offenbar sehr schwer, in Demut vor den physikalischen Gesetzmäßigkeiten zu bekennen, dass die Ursache des Problems einfach verdrängt wird: Tatsache ist nämlich, dass wir nach dem derzeiti-gen Stand der Wissenschaft und Technik kein physikalisches Prinzip zur Stromspeicherung größerer Energiemengen zu bezahlbaren Kosten, jenseits zu der in diesem Sinne untauglichen elektrischen oder magnetischen Feldenergie sowie der chemischen Energie, die allesamt im eV-Niveau (nicht MeV) agieren, kennen. Vergleichbar mit dem Energieinhalt eines 70 l Tanks mit rd. 650 kWh Energieinhalt, der fast nichts kostet, in 2 Minuten geladen ist und länger hält als das Fahrzeug, zu einer Lithium-Ionenbatterie mit 20 kWh Speichervermögen, die 10.000 € kostet, 6 h zur Aufladung benötigt und nach 7 Jahren ersetzt werden muss.  

Dieser realistische Vergleich harten Fakten verkennt nicht die um den Faktor drei höhere Effizienz des Elektromotors gegenüber dem Verbrennungsmotor, sowie dessen höhere wartungsfreie Betriebszeit, obschon die Verlustwärme zumindest im Winter ohne weiteren Primärenergieeinsatz ge-nutzt wird. Beim Übergang der Stromerzeugung von der Primärenergie Kohle zur Energiegewinnung mit 8,14 kWh je kg C hin zur Kernenergie mit 20 Millionen kWh je kg U235, beide Rohsoffe findet man in Natur-Lagerstätten unserer Erde, war eine ganz andere Welt aufgemacht, nicht nur prozentuale Verbesserungen realisiert.  Solange Vergleichbares nicht in der Energie-Speichertechnik gelingt, hat das E-Auto ohne massive staatliche Förderung oder administrativer Bevorzugung nur Nischenchancen, ebenso wie sie die Stromerzeugung aus Wind- und Sonnenanlagen ohne staatliche Förderung auch nur hätte.  Wenn man den 80 kW Elektromotor eines reinen E-Autos mit Nennleistung, d.h. etwa bei 130 km/h und leichter Steigung belastet, ist die Batterie in 15 Minuten leer gefahren, man hat dann 32,5 km zurück gelegt und eine E-Tankstelle ist außer jeder Sichtweite. Wenn man nur 60 km/h schnell fährt und dann auf ebener Strecke mit 10 kW auskommt, könnte man das Spiel 2 Stunden lang betreiben und hat sich dann 120 km weit fortbewegt. Wenn man dann wie-der zu Haus angelangt ist, kann man über Nacht aufladen und die Welt ist in Ordnung für den Einsatz am nächsten Tag.   Auf jegliche Heizung und 20 W Power-Lautsprecher hat der E-Autofahrer selbstverständlich verzichtet, für solchen "artfremden Komfort" ist die nur spärlich verfügbare Energie zu kostbar, da diese voll zu Lasten der Traktion geht.  

An diesem extremen, aber doch sehr realistischen Beispiel, kann man erkennen, wo die Grenzen der E-Mobilität derzeit und sicher auch noch in heute überschaubarer Zukunft von mindestens 20 Jahren liegen!  Genial ist die Problematik beim BMW i8 gelöst: Die 5,2 kWh Batterie (energetisch vergleichbar mit 0,6 Liter Benzin), bringt das Fahrzeug nach (NEFZ-Standard) mit dem 75 kW E-Motor und moderatem Tempo, 37 km weit. Der dazu verfügbare 170 kW Benzin-Motor bringt das Fahrzeug mit dem 42 l Tank rd. 600 km weit! 

  

Fazit: Also ein hervorragendes Hybrid Fahrzeug BMW i8: 6 % E-Betrieb und 94 % Benzin-Betrieb für 126.000 bzw. 145.000 € in komfortabler Ausstattung zu haben. Einen Massenmarkt werden solche Entwicklungen wohl nicht sehen oder begründen können.  Wenn man auf die 6 % E-Betrieb verzichtet und ansonsten das gleiche Komfortfahrzeug für 100 % Benzinbetrieb nimmt, hat man locker 50.000 € gespart. Zu hoffen ist, dass die Kosten solcher Ent-wicklungen nicht auf die erfolgreichen Allgebrauchssegmente „mit 100 % Benzinbetrieb“ umgelegt werden, sondern dort verbleiben, wo sich die Marktnische im Exklusivsegment auftut.  Nach dem Zusammenbruch des planwirtschaftlich basierten Kommunismus geht unsere Koalitionsre-gierung mit dem Wegfall der Wettbewerbsvergleiche  immer mehr zu unsinnigen planwirtschaftlichen politischen Strategien über, wo doch die Ineffizienz solcher Strategien von ein Viertel der Deutschen über 40 Jahre schmerzlich ertragen werden musste. Beim Auto zeigen die mündigen Bürger – als direkt Betroffene -, dass es so nicht geht, bei der extrem teuren „Energiewende“ haben die meisten die noch viel tiefer gehende persönliche Betroffenheit noch nicht erkannt.

Prof. Dr.-Ing. Helmut Alt                                                                

Aus ADAC Zeitschrift Bericht auf Seite 18 des Augustheftes 2014. 




Eine neutrale Betrachtung von ozeanischem pH

Zunächst folgt hier die Ansicht eines Profils des Nordpazifik von Alaska nach Hawaii, wobei Hawaii oben links liegt, Alaska oben rechts. Tiefen werden vertikal gezeigt. Ozeanisches pH entlang des Profils:

Abbildung 1 (rechts): Variation des pH über geogr. Breite und Tiefe. Die Graphik stammt aus einem früheren Beitrag von mir zum ozeanischen pH.

Man erkennt, dass der Oberflächen-pH in Hawaii über 8,05 liegt und in Alaska unter 7,7 … und trotzdem ist die maritime Umgebung in Alaska viel, viel artenreicher als die maritime Umgebung von Hawaii. Dies unterstreicht eine einfache Tatsache: Alkalinität ist für Lebewesen problematisch, viel mehr als der Säuregrad. Beispiel: Falls man das Opfer der letzten Mordorgie sich zersetzen lassen will, würde man Lauge (ein starkes Salz) und nicht Schwefelsäure (eine starke Säure) verwenden.

Nun beträgt der Neutralwert auf der pH-Skala 7. Der geringen Alkalinität-Toleranz unserer Körper folgend nehmen wir oft Dinge wie Zitronensaft zu uns, welcher einen pH-Wert von etwa zwei hat, was neutral minus 5 pH-Einheiten ist … während die salzhaltigste Nahrung, die wir noch tolerieren können, einen pH von rund acht hat, was nur einen pH-Wert über neutral liegt.

Darum ist der Körper von Fischen oftmals vollständig mit einer Art Schleim umhüllt … einfach um zu verhindern, dass sie sich im leicht alkalinen Ozean einfach auflösen. Und darum auch ist ein Trend hin zu mehr Neutralität auch nicht im Mindesten besorglich.

Nachdem wir die räumlichen Änderungen des pH-Wertes von Hawaii bis Alaska gesehen haben, zeigt Abbildung 2 die zeitlichen Änderungen des ozeanischen pH in einer Vielfalt anderer maritimer Umgebungen:

Abbildung 2: pH in verschiedenen maritimen Umgebungen. Datenquelle: PLOS

Abbildung 2 zeigt nicht nur den mittleren pH-Wert in diesen Umgebungen, sondern auch die Variation in jeder Umgebung mit der Zeit. Man beachte: während der offene Ozean eine kleine pH-Bandbreite zeigt, zeigt sich in einer Anzahl maritimer Umgebungen eine große Bandbreite mit der Zeit. Korallenriffe und Seetangwälder beispielsweise zeigen eine große Variation der pH-Werte, und zwar bis hin zu einer vollen pH-Einheit innerhalb eines einzigen Monats. Zitat aus der zugrunde liegenden Quelle für Abbildung 2:

Diese Beobachtungen zeigen ein Kontinuum monatelanger pH-Variabilität mit Standardabweichungen zwischen 0,004 und 0,277 sowie Bandbreiten, die von 0,024 bis 1,430 pH-Einheiten reichen. Die Natur der beobachteten Variabilität war auch stark abhängig von der Messstelle, mit charakteristischen täglichen, halbjährlichen und stochastischen Verteilungen variierender Amplituden. Diese Biom-spezifischen pH-Signaturen offenbaren gegenwärtige Niveaus zu sowohl hoch als auch gering gelöstem CO2, was oftmals zeigt, dass örtliche Organismen jetzt schon pH-Regimes ausgesetzt sind, deren Eintreten man nicht vor dem Jahr 2100 vorhergesagt hat.

Also findet bereits jetzt statt, was uns angeblich erschrecken soll, nämlich die so genannte „Versauerung“ der Ozeane, die man für das Jahr 2100 vorhergesagt hatte.

Eine Ansicht aus der realen Welt, was unterschiedliche Variationen mit der Zeit bedeuten, zeigt Abbildung 3 mit den Daten des Hawaii Ocean Timeseries (HOT)-Projektes sowie die Daten von der Küstenlinie der Monterey Bay:

Abbildung 3: Oberflächen-pH-Messungen von HOT open ocean und Monterey Bay upwelling coastline. Die Hawaii-Daten zeigen sowohl gemessene pH (schwarz) als auch aus anderen Messungen berechnete pH-Werte, z. B. gelöster anorganischer Kohlenstoff (DIC), Gesamt-Alkalinität und Salzgehalt.

Wie man sieht, ist es für keine der tausenden unterschiedlichen Spezies im Ozean auch nur ansatzweise ein Problem, eine große und rapide pH-Änderung zu durchlaufen. Es scheint sie nicht im Mindesten zu stören, haben sie das doch seit Millionen Jahren erlebt. Nicht nur das, sondern wie man aus den Hawaii-Daten erkennt, bringt der langsame Rückgang der Alkalinität die Ozeane allmählich zu neutraleren Bedingungen, was den lebenden Organismen egal ist.

Aus all diesen Gründen sage ich, dass die graduelle Neutralisierung der Ozeane durch den zunehmenden CO2-Gehalt bedeutungslos ist. Genau deswegen sage ich auch, dass der „Versauerung“ genannte Prozess lediglich ein Versuch ist, noch mehr Alarmismus zu schüren. Was vor sich geht, ist eine graduelle Neutralisierung mit einer Rate von etwa 0,018 ± 0,001 pH-Einheiten pro Jahrzehnt (Mittel aus sieben multidekadischen Datensätzen) … man betrachte mich als unbeeindruckt.

Damit als Prolog wollen wir jetzt auf die ozeanographischen pH-Daten schauen, die ich in meinem letzten Beitrag mit dem Titel pH Sampling Density angesprochen habe. In jenem Beitrag schrieb ich, dass sowohl aus dem Seegebiet um Japan als auch aus dem Nordatlantik genug Daten vorliegen sollten, um sich Gedanken über die Brauchbarkeit des Datensatzes zu machen. Zu Beginn folgen hier die Daten aus dem Atlantik zusammen mit den HOT-Daten um Hawaii und die Daten aus der Monterrey Bay.

Abbildung 4: Atlantische pH-Messungen aus ozeanischen Profilen (blaue Kreise), Einzel-HOT-Messungen um Hawaii (rot = berechnet, schwarz = beobachtet) und die Messungen der pH-Werte aus der Monterrey Bay (blaugrün mit Standardabweichung). Die schwarze Linie markiert die erwartete Abnahme des ozeanischen pH-Wertes infolge der CO2-Zunahme. „Trend 1970 onwards“ ist der Trend der atlantischen ozeanographischen pH-Daten.

Hier gibt es viele interessante Aspekte. Erstens, die Abnahme in den HOT-Messungen liegt nahe der berechneten Abnahme infolge CO2. Jetzt habe ich diese Abnahme geschätzt unter Verwendung der gemessenen Änderungen der Mittelwerte in gelöstem anorganischen Kohlenstoff DIC infolge steigenden atmosphärischen CO2-Gehaltes. Um das zu tun, habe ich den R-Code lokalisiert (hier).

Und weil das nur eine Schätzung ist, stellt sich heraus, dass es ziemlich nahe sowohl der Abnahme der o. g. HOT- und anderer multidekadischer Messungen an einzelnen Stellen kommt als auch gut zum Trend im Nordatlantik nach 1970 passt mit ozeanographischen Messungen von -0,019. Es ist auch erwähnenswert, dass vor etwa dem Jahr 1960 die berechnete pH-Abnahme so gering ist, dass sie fast unsichtbar daherkommt.

Als nächstes: Japan. Aus diesem Gebiet gibt es deutlich mehr Daten, aber wie im Atlantik gibt es nur wenige Daten aus dem Zeitraum 1940 bis 1960. Abbildung 5 zeigt die Daten um Japan im gleichen Format wie Abbildung 4:

Abbildung 5: pH-Messungen aus ozeanographischen Profilen vor Japan (blaue Kreise), Einzel-HOT-Messungen um Hawaii (rot = berechnet, schwarz = beobachtet) und die Messungen der pH-Werte aus der Monterrey Bay (blaugrün mit Standardabweichung). Die schwarze Linie markiert die erwartete Abnahme des ozeanischen pH-Wertes infolge der CO2-Zunahme. „Trend 1970 onwards“ ist der Trend der atlantischen ozeanographischen pH-Daten.

Wieder erkennen wir die gleiche Verteilung wie in den Daten aus dem Atlantik mit einem zunehmenden Trend in den Jahren nach den Daten, und ein Trend vor 1970 in der gleichen Größenordnung wie das Mittel der o. g. sieben multidekadischen Studien.

Das also ist es. Der ozeanographische Datensatz bestätigt die graduelle pH-Abnahme, bietet aber vor 1960 nicht genug Daten, um uns viel über irgendetwas zu sagen. Wie gewöhnlich liegt das Problem darin, dass Änderungen infolge CO2 so gering sind, dass es schwierig ist, sie aus irgendetwas herauszulesen außer aus dem genauesten aller Datensätze. Das heißt nicht, dass wir die vorhandenen ozeanographischen Messungen nicht nutzen können … es heißt nur, dass wir hinsichtlich deren Verwendung sehr vorsichtig sein müssen.

Link: http://wattsupwiththat.com/2015/01/02/a-neutral-view-of-oceanic-ph/

Übersetzt von Chris Frey EIKE




Rekordwärmejahr 2014 – Haben IPCC und CO. doch Recht?

Hatten doch die Naturforscher die stichhaltigsten Belege für Ihre These, da sie die Realität für sich in Anspruch nehmen konnten und das IPCC und Ihre Anhänger sich vor allem auf Modellberechnungen, mit frei wählbaren Parametern in ihren Klimamodellen (Programmen) stützen und seit Jahren Modell und Wirklichkeit Zusehens auseinander drifteten, weil es nicht wärmer, sondern stetig kälter wurde. Abb.1 zeigt die Temperaturentwicklung in Deutschland seit dem Jahr 1998.

Abb.1, Quelle: EIKE, "2014- nur nach den offiziellen Messwerten ein neues Rekordjahr – Kein Beweis für eine sich fortsetzende Klimaerwärmung"

Unschwer zu erkennen, dass seit ca. 15 Jahren die Deutschlandtemperaturen fallen, aber auch, dass der Deutsche Wetterdienst (DWD) mit seine Aussage 2014 "Wärmstes Jahr seit dem Beginn regelmäßiger Temperaturmessungen" ebenfalls richtig liegt.

Der DWD zeigt in seiner Pressemitteilung vom 30.12.2014, detailliert, welche Monate eine besondere Temperaturabweichung gegenüber dem sog. meteorologischen Temperaturvergleichszeitraum (Referenzzeitraum) von 1961-1990 aufweisen (Abb.2).

Abb.2, Quelle: DWD, zeigt die monatlichen Temperaturabweichungen im Jahr 2014 gegenüber dem meteorologischen Referenzzeitraum. Der meteorologische Referenzzeitraum wurde von der Vorgängerorganisation der WMO vor 85 Jahren ins Leben gerufen. Seinerzeit wurde eine Klimaperiode (statistischer Mittelwert des Wetters) mit 30 Jahren festgelegt und der Beginn auf das Jahr 1931. Der erste Referenzzeitraum reichte demnach von 1931-1960 und der zweite, auf den sich derzeit bezogen wird, auf den Zeitraum von 1961-1990. Der dritte wird dann den Zeitraum von 1991-2020 abdecken.

Abb.2 zeigt, dass weniger die Sommermonate, sondern vielmehr die ersten 4 Monate und die letzten 3 Monate, also Herbst-Winter und die ersten beiden Frühjahrsmonate "rekordverdächtig" ausfielen. Bis auf den Juli waren die Sommermonate (und der Wonnemonat Mai) eher bescheiden.

Wie sieht es nun auf der ganzen Erde aus? Hat nur Deutschland (und seine Nachbarländer) Rekordtemperaturen in 2014 zu verzeichnen oder auch die ganze Erde?

Abb.3, zeigt die von Satelliten gemessene globale Temperaturentwicklung von 1979 bis Ende 2014. Deutlich zu sehen, dass 2014 weit davon entfernt ist, global ein Temperaturrekordjahr zu sein. Quelle: http://climate4you.com/

1. Zwischenergebnis:

seit ca. 15 Jahren fallen in Deutschland die Jahrestemperaturen, aber

2014 ist für Deutschland ein Rekordwärmejahr, was die Jahrestemperaturen betrifft

Global ist 2014 kein Rekordwärmejahr der Temperaturen

Wie ist diese Diskrepanz zu erklären? Wir Naturforscher unter den Klimaforschern machen allein die Sonne für den Klimawandel auf der Erde verantwortlich. Entweder die direkten Auswirkungen, der in ihrer Intensität variablen Sonne oder die indirekten, die in den Weltmeeren gespeicherte Energie der Sonne. Daher soll in Abb. 4 die solare Aktivität betrachtet werden. Anzuführen ist, dass die Sonne mehrere Aktivitätszyklen hat. Auf kurzen Zeitskalen sind dies:

– 11-jährige Schwabezyklus (der bekannteste)

– 22-jährige Hale-Zyklus

– 36-jährige Brückner-Zyklus

– 90-jährige Gleißberg-Zyklus

– 207-jährige de Vries/Suess-Zyklus (Hauptsonnenzyklus*)

*Hauptsonnenzyklus deshalb, weil die Fourieranalyse der Wolfzahl (Sonnenflecken im Schwabezyklus) hier die stärkste Beziehung hat.

Abb.4a (Quelle: http://www.solarham.net/) zeigt die solare Aktivität im Schwabe-Zyklus. 2014 war zwar im jetzigen, 24. Zyklus ein besonders aktives Sonnenjahr, aber nur gering im Vergleich zur solaren Aktivität zu BeginnSolarcycle24.com des Jahrhunderts (2002).

Abb.4b zeigt die Änderung der magnetischen Stürme auf der Sonne von 1867 bis 2007 und ist ein Indikator für den im Mittel 207-jährigen de Vries/Suess-Zyklus (Hauptsonnenzyklus).

Der Hauptsonnenzyklus hatte sein Aktivitätsmaximum in 2003. Seitdem fällt die magnetische Aktivität der Sonne. Der Brückner-Zyklus hatte sein Aktivitätsmaximum in 2005. Seitdem fällt auch er. Scheint also, dass die Sonne nicht die Ursache für die Rekordtemperaturen in 2014 in Deutschland ist. Zumindest nicht die direkten Auswirkungen der Sonne. Wir erinnern uns: In 2003 lag für weite Teile Europas ein Hitzesommer vor (Abb.5).

 

Abb.5, Quelle Hadley Center, zeigt den Hitzesommer 2003. Unter dem Maximum des Hauptsonnenzyklus erlebte Europa einen Hitzesommer.

Wissenschaftler gehen seit längerem der Frage nach, wie sich die solare Aktivität auf die Jahrestemperaturen auswirkt und ob es dabei einen Zeitverzug gibt. So hat der Direktor des Max Planck Institutes für Sonnenforschung, Prof. Solanki, in seiner Arbeit "Solar Activity Over The Last 1150 Years: Does It Correlate With Climate" herausgefunden, dass es einen Zeitverzug zwischen der solaren Aktivität und den Erdjahrestemperaturen gibt (Abb.6)

 

Abb.6, Solanki et al ("Solar Activity Over The Last 1150 Years: Does It Correlate With Climate"), zeigt den zeitlichen Versatz zwischen Sonnenaktivität und Jahrestemperatur. Die Forscher geben an: "The best correlation between sunspot number and the temperature data are consistently obtained for a time lag of 10 years in the sense that solar data lead temperature data." Schaut man sich das time lag genauer an, so beträgt die zeitliche Differenz exakt 11 Jahre!

Solanki et al, die einen Korrelationszusammenhang (Koeffizient) zwischen solarer Aktivität und Jahrestemperatur von 94%-98% fanden, haben in ihrer Arbeit somit auch die Jahreswärmerekordtemperatur in Deutschland erklärt. In Abb. 6 sind die unmittelbaren Auswirkungen der solaren Aktivität beim Jahrhundertsommer, der mit dem Maximum des Hauptsonnenzyklus zusammenfällt und die unmittelbare Auswirkung dessen ist, auf Europa zu sehen. Dies war in 2003. Damals hatte die Sonne ihre maximale Aktivität. 11 Jahre später sind diese Auswirkungen bei den Jahrestemperaturen "angekommen" und führten zu dem Rekordwärmejahr in Deutschland.

Zur weiteren Analyse sollen die Jahresmonatstemperaturen 2003 und 2014 miteinander verglichen werden (Abb.7).

Abb.7 zeigt nach Daten des DWD blau, die Abweichungen der Monatstemperaturen von 2003 und von 2014 in rot, jeweils zum Temperatur-Referenzzeitraum 1961-1990

2003 waren insbesondere die Sommermonate deutlich über "Normal". Wegen des in unseren Breiten hohen Sonnenstandes im Sommer waren die solaren Auswirkungen auf die Tages-/Monatstemperaturen unmittelbar. In 2014 waren insbesondere die Herbst-/Wintertemperaturen über "Normal". Wird zwischen beide Zeitreihen eine "Spiegelachse" gelegt, fällt auf, das die Monatstemperaturen 2003/2014 zueinander gegensätzlich sind.

Der Grund sind die direkten und indirekten Auswirkungen der solaren Aktivität, die sich unterschiedlich auf die Monats- und damit Jahrestemperaturen auswirken. 2014 sorgten die in den Weltmeeren gespeicherten Sonnenenergien, die, wie Kowatsch/Kämpfe in Ihrer unter Abb.1 genannten Arbeit erkannten, für milde Herbst-und Wintertemperaturen, aufgrund entsprechender Luftströmungen (Abb.8).

Abb.8: Die Autoren Kämpfe/Kowatsch schreiben in Ihrer Arbeit "2014- nur nach den offiziellen Messwerten ein neues Rekordjahr – Kein Beweis für eine sich fortsetzende Klimaerwärmung": "Im Rekordjahr 2014 gab es neben einer überdurchschnittlichen Sonnenscheindauer mit mindestens 126 Tagen (Stand: 30.11.) doppelt so viele Großwetterlagen mit südlichem Strömungsanteil, wie im Langjährigen Mittel! Das ist ebenfalls neuer Rekord. Hinzu kam eine leicht übernormale Anzahl von Westlagen in den Monaten Januar, Februar und Dezember, während Ostwetterlagen, welche besonders in den Wintermonaten stark kühlend wirken, in diesen zu selten auftraten. Weiterhin war im Frühling eine etwas überdurchschnittliche Anzahl der erwärmend wirkenden Zentralhochlagen zu verzeichnen.

Und der Großwettertyp Südwest, welcher im Oktober am stärksten erwärmend wirkt, wurde just in diesem Monat an 16 (!) Tagen beobachtet- fast sechsmal so häufig, wie im langjährigen Oktobermittel! Damit ist klar erwiesen, dass wir das Rekordjahr 2014 einer glücklichen, äußerst seltenen Kombination aus relativ hoher Sonnenscheindauer und einer äußerst günstigen zeitlichen und quantitativen Häufung bestimmter Wetterlagen verdanken- das Richtige stets zur richtigen Zeit!"

Auch die Wissenschaftler des DWD, der Dipl.-Met. Christoph Hartmann, untermauern den o.g. meteorologischen Grund, warum 2014 in Deutschland ein Rekordwärmejahr wurde: "Und genau so ist es mit dem wärmsten Jahr in Deutschland seit Beginn der Wetteraufzeichnung. Wir lagen 2014 ungewöhnlich häufig im Bereich der Ausgleichsströmung von Süd nach Nord und haben dadurch den Rekord erreicht."

Während die DWD-Führung einmal mehr schwadroniert und von einem "klimatologischen Paukenschlag“ redet (DWD-Präsident). Anmerkung: Angesichts solchen Unsinns braucht man den Namen nicht zu kennen und auch nicht zu merken. Klima ist per v.g. Definition (unter Abb.2) das statistische Wettergeschehen im Zeitraum von 30 Jahren. 1 Jahr Wettergeschehen kann daher niemals Klima oder gar ein „klimatologischer Paukenschlag“ sein. Schon traurig, wenn der Präsident des DWD nicht einmal weiß, was Klima ist, also nicht einmal weiß, wovon er spricht. Die DWD-Mitarbeiter können einem leidtun.

2. Zwischenergebnis:

– Die Sonnenaktivität wirkt sich zeitlich versetzt auf die Jahrestemperaturen aus, mit einem time-lag von exakt 11 Jahren.

– 2003 war das Jahr der (bisher) stärksten solaren Aktivität – 11 Jahre später ist diese in den Jahrestemperaturen sichtbar, wobei sich die Erwärmungsmonate 2003 und 2014 (direkte/indirekte solare Auswirkungen) spiegelbildlich zueinander verhalten

– Die indirekten solaren Auswirkungen bewirken entsprechende Großwetterlagen, die für unser Wetter und damit die Temperaturen, insbesondere im Herbst/Winter dominant sind.

Sieht also bisher nicht gut aus, für die Fraktion von IPCC und CO. und ihre Modellszenarien. Sieht ganz so aus, als ob die Fraktion der Naturforscher unter den Klimaforschern auch das Wärmejahr 2014 hinlänglich erklären können. Zur Bestätigung soll nach einem finalen praktischen Beweis gesucht werden. Wie verhielten sich die Temperaturen in Deutschland nach dem vorletzten Maximum im Hauptsonnenzyklus? Wie sie sich nach dem letzten, in 2003 entwickelten, haben unsere Leser gesehen. Da die Länge des Hauptsonnenzyklus im Mittel 207 Jahre beträgt, soll zuerst nach dem exakten Datum gesucht werden, wann dies war (Abb.9 und 10).

Abb.9 zeigt die nach einem Analyseverfahren von Prof. Solanki rekonstruierte Sonnenaktivität, Quelle: (https://tallbloke.wordpress.com/2013/10/05/reconstructed-solar-activity-from-14c-reference-data/). Demnach war das vorletzte Maximum im Hauptsonnenzyklus kurz vor der Jahrhundertwende zum 19. Jahrhundert.

Abb.10, Quelle: United States Geological Survey, zeigt die solare Aktivität der vergangenen 1100 Jahre. Danach war das Maximum im Hauptsonnenzyklus ebenfalls um 1795. Wegen der eingeschränkten Ablesegenauigkeit lässt sich nicht exakt sagen, ob 1795, 1796 oder 1797.

Jetzt gibt es leider keine verlässlichen Deutschlandtemperaturen, die so weit zurückreichen. Nach DWD reichen diese lediglich bis 1881 zurück. Es gibt aber eine Temperaturmessstation, die selbst der DWD als Temperaturreferenzstation ansieht: Es ist sein wissenschaftliches Observatorium auf dem Hohen Peißenberg (HPB), Abb.11.

Abb.11 zeigt nach Daten des DWD den Temperaturgang auf dem Hohenpeißenberg in den Jahren vor und nach dem vorletzten Maximum im Hauptsonnenzyklus. Anhand der Temperaturdaten ist 1797 das exakte Jahr, in dem der Hauptsonnenzyklus sein Maximum hatte. Gehen wir 11 Jahre weiter, so sehen wir, dass die Jahrestemperatur einen Allzeithöchstwert erreichte.

Nun soll der heutige Temperaturgang der Deutschlandtemperaturen, also der, nach dem letzten Maximum im Hauptsonnenzyklus in 2003, mit dem Temperaturgang der Referenzstation HPB und dem vorletzten Maximum im Hauptsonnenzyklus verglichen werden (Abb.12).

Abb.12 nach Daten des DWD zeigt den Temperaturgang der Temperaturreferenzstation HPB und die Deutschlandtemperaturen, jeweils im Zeitraum des Maximums im Hauptsonnenzyklus. Der Gleichklang beider Temperaturreihen, nicht nur in ihrem jeweiligen Höchstständen, sondern auch Tiefstständen und im Verlauf ist frappierend und selbst redend!

Ergebnis:

Dass 2014 in Deutschland ein "Rekordwärmejahr" wird, war zu erwarten und konnte nach den gezeigten Untersuchungen gar nicht anders eintreten! Es ist einzig auf die Sonne zurückzuführen – ihrer direkten und indirekten Auswirkungen auf unser Wetter und damit des Klimas.

Bleibt noch die Frage zu beantworten, warum global kein Spitzenwärmejahr eintreten konnte und eingetreten ist. Auch zu dieser Frage gibt die o.g. Arbeit von Solanki et al.  einen entscheidenden Hinweis. Die Wissenschaftler schreiben von einer Korrelation für die nördliche Hemisphäre von 96% bis 99% und weiter "There is no significant correlation with the southern hemisphere temperatures of MJ03, which is not surprising in view of the fact that the northern and southern temperatures of MJ03 are not correlated either."

MJ03 = NH temperatures from multiproxy data for AD 200 to AD 1980, Mann and Jones, 2003,

Dieses time lag zwischen Sonnenaktivität und Temperatur ist bei den Temperaturrekonstruktionen der Südhalbkugel nicht hinreichend zu finden – gibt es dort nicht und da in 2014 die solare Aktivität vergleichsweise moderat war, kann/konnte es global auch nicht zu einem Wärmejahr 2014 kommen!

Die Untersuchungen anhand der gezeigten Temperaturzeitreihen bestätigen nicht nur die Arbeit von Solanki et al., sie zeigen auch, dass unter Kenntnis der natürlichen Wetterbeobachtungen und deren natürlichen Ursachen, kein Spielraum für Panikmache jeglicher Art ist. Die Wetterfröschin des ZDF, Inge Niedek eröffnete ihren Wetterbericht am 03.01.2015 zur besten Sendezeit vom Brandenburger Tor mit den Worten: "Mit Start 2015 haben wir in Deutschland ein Rekordwärmejahr verabschiedet, und dabei war Berlin übrigens deutschlandweit Spitzenreiter und lag mit 2,2°C über dem langjährigen Mittelwert." Der DWD gibt den Jahresmittelwert von Berlin mit 11,3°C an (Klimareferenzzeitraum = "langjähriger Mittelwert" = 9,1°C)

Nun, was es mit dem "Rekordwärmejahr" in Deutschland auf sich hat, wurde detailliert erläutert und bewiesen, auf was es zurück zu führen ist. Was es mit dem vermeintlichen "Spitzenreiter" Berlin bei den Jahrestemperaturen 2014 auf sich hat, soll noch kurz gezeigt werden.

Das Autorenteam Leistenschneider, Kowatsch, Kämpfe zeigte, dass die Berliner Temperaturaufzeichnungen mit einem Wärmeinseleffekt von +1,2°C behaftet sind (http://www.eike-klima-energie.eu/climategate-anzeige/deutscher-wetterdienst-dwd-im-fantasia-land-wie-die-dwd-fuehrung-die-bevoelkerung-in-die-irre-fuehrt/). Wird die Temperatur von den WI-Einflüssen bereinigt, so liegt die Jahrestemperatur 2014 in Berlin bei 10,1°C. Aber selbst, wenn der WI unberücksichtigt bleibt, ist die in Berlin 2014 gemessene Mitteltemperatur keine Rekordtemperatur, wie Abb.13 beweist.

Abb.13: Als Haupt- und Großstadt verfügt Berlin über eine lange, durchgängige Datenreihe gemessener Temperaturen (Quelle: http://www.wetterzentrale.de/klima/ tberlintem.html). Wird die Jahrestemperatur WI-bereinigt, so war es im 18- und 19 Jahrhundert gleich mehrfach in Berlin wärmer als 2014. Aber selbst ohne WI-Bereinigung wurden in Berlin im 18.Jahrhundert höhere Temperaturen gemessen.

Nach der Lehre der IPCC und CO. können die in Berlin im 18.Jahrhundert gemessenen Rekordtemperaturen nur darauf zurück zu führen sein, dass zu Zeiten des Alten Fritz die Berliner zu viel CO2 in die Atmosphäre verfrachteten. Pulverdampf soll ja kein Treibhausgas sein.

"Mit Start 2015 haben wir in Deutschland ein Rekordwärmejahr verabschiedet" Wann verabschiedet sich das ZDF von solchen "Propheten", die Physik/Meteorologie offenbar mit Science Fiction verwechseln, ohne, wie es für wissenschaftlich ausgebildete Menschen selbstverständlich ist, Dinge zu hinterfragen und nach Begründungen zu suchen und zwar nach Begründungen, die ergebnisoffen gesucht werden – der Maxime wissenschaftlicher Forschung.

Das IPCC wurde 1988 mit dem Auftrag gegründet (1), den Beweis für die menschengemachte Klimaerwärmung herzuleiten. Von Ergebnisoffenheit also keine Spur. Insofern kann daher alles, was aus dem IPCC an die Öffentlichkeit preisgegeben wird, nur den Inhalt von Pseudowissenschaft für sich in Anspruch nehmen, da das Grundmaxim wissenschaftlichen Handelns, die ergebnisoffene Forschung, von Beginn an ausgeschlossen wurde.

Raimund Leistenschneider – EIKE

(1) Quelle http://www.ipcc.ch/about/index.htm

unter Mandate: "The IPCC was established to provide the decision-makers and others interested in climate change with an objective source of information about climate change. The IPCC does not conduct any research nor does it monitor climate related data or parameters. Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change, its observed and projected impacts and options for adaptation and mitigation. IPCC reports should be neutral with respect to policy, although they need to deal objectively with policy relevant scientific, technical and socio economic factors. They should be of high scientific and technical standards, and aim to reflect a range of views, expertise and wide geographical coverage."




Die deutsche Energiewende steckt in der Sackgasse

Heute wird in Deutschland rund ein Viertel des Stroms regenerativ erzeugt. Aber dies ist nur vordergründig eine Erfolgsmeldung. Der Haushaltsstrom ist 46 Prozent teurer als der EU-Durchschnitt. Industriestrom liegt um 18 Prozent darüber und ist etwa doppelt so teuer wie in den USA. Die CO2-Senkungs-Ziele für 2020 werden nicht erreicht. Die Energiewende ist nur eine Stromwende, denn der 25-Prozent-Anteil des regenerativ erzeugten Stroms macht am deutschen Gesamtenergiebedarf nur 8 Prozent aus. Die Energiewende befindet sich wegen hoher Kosten und geringer Wirkungsbreite in einer Sackgasse.

Auch die Bilanz der Klimaschutzanstrengungen fällt negativ aus: Während Deutschland seit 1990 die CO2-Emissionen um 0,2 Milliarden Tonnen gesenkt hat, verzeichnete China eine Steigerung um das Dreissigfache. Weltweit sind die CO2-Emissionen sogar um 11 Milliarden Tonnen, also um das Fünfzigfache, gestiegen. Zahlreiche EU-Länder haben ihre Emissionen gesteigert, die deutschen Anstrengungen finden keine Nachahmung: Die deutsche «Vorreiterrolle» ist eine politisch bedingte Wahrnehmungsstörung.

… Kosten ausser Rand und Band

Strom aus Windkraft, Sonnenlicht und Biomasse (EE-Strom) verursachte 2014 Kosten von 24 Milliarden Euro. Der Marktwert dieses Stroms beträgt aber nur 2 bis 3 Milliarden Euro. Legt man die Kosten von EE-Strom auf 24 Millionen deutsche «Normalerwerbstätige» um, so ergibt sich eine Nettobelastung von 1000 Euro pro Kopf und Jahr. Die Kosten werden per Umlage auf den Stromverbrauch entrichtet. Grundlage hierfür sind feste Einspeisevergütungen über 20 Jahre und Abnahmeverpflichtungen für die Versorgungsunternehmen. Durch dieses System sind bisher Kosten von 150 Milliarden Euro entstanden, und weitere 300 Milliarden Euro an Subventionen sind fest zugesagt. Das entspricht dem deutschen Bundeshaushalt eines ganzen Jahres. Die über 20 Jahre aufzubringenden Finanzmittel werden 1 Billion Euro betragen; das entspricht etwa der Hälfte aller deutschen Schulden.

Vollständigen Text in der NZZ hier lesen

Dietrich Böcker und Dietrich Welte waren Jahrzehnte in leitenden Funktionen in der Energiewirtschaft/Wissenschaft tätig.

Mit Dank an Leser Arne Hecker für den Hinweis




Klima und Wahrheit: Eine Geschichte der Unmoral?

In diesem Fall sind es die schädlichen Auswirkungen menschlicher Zugabe von CO2 in die Atmosphäre, die nicht nur Erwärmung verursacht, aber, so behaupten sie, auch die Änderung des Säuregrad der Ozeane (Versauerung der Ozeane). All dies fördert die Behauptung, dass Menschen unverwechselbar seien wie die „moralischen Affen“, eine Auffassung die vor über 2000 Jahren in Aesops Fabel “The Apes and Two Travellers” verfolgt wurde.

[Anmerkung des Übersetzers:

„Rosinenpickerei“ – in diesem Zusammenhang, die Nutzung von passenden Argumenten und Fakten zur Unterstützung der eigenen Absichten, gleichzeitiges Verschweigen, vertuschen dagegen sprechender Argumente und Fakten.

“The Apes and Two Travellers“ – Die Fabel von zwei Männern, Einer der immer lügt und der Andere der immer die Wahrheit spricht. Der Lügner redete dem fragenden Affen nach dem Mund und wurde belohnt, der die Wahrheit sagte wurde hingerichtet.]

Großer Respekt geht an Marita Noon die diese Geschichte zu unserer Kenntnis bringt. Verstörend, abseits dessen was sie getan haben, ist, dass sie nichts Falsches in ihren Aktionen sehen. Schlimmer noch, sie weisen Erklärungen zurück. Dieses Verhalten der Klimawissenschaft scheint die Mentalität zu reflektieren, die in der westlichen Gesellschaft entwickelt ist und ist in der Karikatur wunderschön zusammengefasst.

Cartoon siehe am Ende

Diese Fehlentwicklungen sind Teil eines größeren Trends, ironischerweise durch Osama Bin Laden identifiziert, als er sagte, dass der Westen seine moralische Richtung verloren hat. Die Tatsache, dass wir seine moralische Ausrichtung nicht wollen, macht es nicht weniger wahr.

Das Problem ist vielfältig in seinen Ausprägungen, aber einfach in seiner Tendenz und im Wesentlichen durch zwei moderne Sprüche zusammengefasst:

Falls Du erwischt wirst, hast du nur das Gesetz oder die Regeln gebrochen. Selbst wenn Du erwischt wirst, so hilft Dir ein dreister Anwalt und / oder ein PR-Mensch.

Wenn du nicht für mich bist, musst Du gegen mich sein. Nur Gleichgesinnten zuhören oder der Umgang mit ihnen verstärkt dies. Ein kürzlich erschienener Artikel in WUWT unterstrich in welchem Maße dies geschieht, als der Autor mit den Worten begann, er hätte etwas Ungewöhnliches getan, er las die „Alarmisten“ web-Site RealClimate.

Wie üblich, war die Antwort von Sabine eher eine versuchte Vertuschung. Dieses und der Original-Artikel, zeigt ein weiteres Beispiel für die Kunst der Klimaforscher zur Rosinenpickerei und ihren Glauben, dass der Zweck die Mittel heiligt. Roseanne D’Arrigo war die erste die diesen Schwindel öffentlich versuchte, wie Steve McIntyre berichtet.

„D ‚ Arrigo, zeigte eine Folie über „Cherry Picking“ und dann erklärte sie dem Gremium, das ist, was Sie zu tun haben, wenn Sie Kirschkuchen haben möchten.“

D’Arrigo vorrausgegangen war die erste große Darstellung von Rosinenpickerei in der IPCC-Klimawissenschaft durch Benjamin Santer im Bericht 1995. Nur wenige, darunter Fred Singer, Fredrick Seitz und John Daly, wussten, was geschehen war. Die Vertuschung war relativ einfach, vor allem, da die schweren Geschütze durch die New York Times und den Guardian abgefeuert wurden.

Santer Veränderungen wurden frühzeitig entdeckt, aber NATURE, ein Magazin das wohlwollend gegenüber der Climatic Research Unit (CRU) Bande ist, veröffentlichte die Widerlegungen erst 5 Monate später (12. Dezember 1996). Eine identifiziert die Rosinenpickerei, die andere eine natürliche Erklärung für dieses Vorgehen. Bis dahin war die öffentliche Vertuschung im Gange. Am 25. Juli 1996 sandte die American Meteorological Society (AMS) ein Verteidigungsschreiben zu Santer. Der Brief ist ein Beweis für den CRU Einfluss und ein Meisterwerk der Öffentlichkeitsarbeit. Es verengt den Fokus auf zwei Fragen, die Wissenschaft und die Reaktion der Gesellschaft. Sie sagten, die einzige relevante Wissenschaft findet man in „peer-reviewed“ wissenschaftlichen Veröffentlichungen – nicht in den Medien. Dies stellt die Frage, wer die Informationen kontrolliert? Das Internet ist die letzte Stufe der Demokratie, weil es Information aus den Händen von wenigen und in die Hände aller gibt. Das AMS argumentierte für ihre Beibehaltung der Kontrolle von Informationen und damit deren Diskussion.

„Was wichtige wissenschaftliche Informationen sind und wie sie in den politischen Debatten interpretiert werden ist ein wichtiger Teil unserer Arbeit.“ „Das sind immerhin sehr starke Gründe für die Mischung aus Wissenschaft und Politik in der IPCC.“

John Daly bezeichnete dieses korrekt mit „Scientismus“.

Die Entlarvung von Santer Rosinenpickerei durch Singer und Seitz, führte zu der durch die Öffentlichkeitsarbeit inspirierten Verbindung mit Tabak. Singer hatte eine ausführlich dokumentierte Analyse eines Artikels über Passivrauchen veröffentlicht. Es war, wie er bekannte, ein schreckliches Stück wissenschaftlicher Forschung. Eine Tatsache, da von anderen bestätigt und ihm durch einen auf Lungenkrebs spezialisierten Arzt erklärt, als der Beitrag erstmalig veröffentlich wurde. Dieses Papier wurde verwendet, um sagen, dass die Tabaklobby Singer bezahlt und dann, durch Folgerung, dass alle „Leugner“ sind, ähnlich derjenigen, die den Zusammenhang zwischen Rauchen und Krebs leugnen. In der Tat hat Singer lang und aktiv gegen das Rauchen opponiert. Er wies schlicht darauf hin, dass schlechte Forschung, falls verfügbar gemacht, der Tabaklobby wahrscheinlich mehr Glaubwürdigkeit verleihen würde.

Ich verstehe das Dilemma, das falsche Wissenschaft schafft, weil ich jahrelang als „lässlicher Umweltverschmutzer“ angeklagt wurde. Ich war davon nicht abgeschreckt, denn ich erkannte, dass es das größere Problem ist, Leute mit gefälschter Wissenschaft zu täuschen. Ist die Täuschung aufgeflogen, sind die Verursacher nicht entmutigt, weil sie sagen können, dass sie dich angelogen haben. Aesop identifiziert dieses als „Cry Wolf“-Problem. Meine größere Sorge in den letzten Jahren ist der verlorene Schwung und die Irreführung in Umweltfragen und die sinkende wissenschaftliche Glaubwürdigkeit.

[Anmerkung Übersetzer: Bezug auf die Fabel: Der Wolf greift die Schafherde an, jedoch man glaubt dem Hirten nicht mehr, da er vorher falschen Alarm „Der Wolf greift an“ gerufen hatte.]

Ein klassisches Beispiel für die Mentalität der Klima-Wissenschaft bei der CRU war in einer durchgesickerten E-Mail vom 2. Februar 2005 öffentlich geworden.

Mike(Mann), ich nehme an, dass Glückwünsche angebracht sind – daher herzlichen Glückwunsch usw.!

Habe gerade eine Menge an Stationsdaten an Scott geschickt. Stellen Sie sicher, dass er diesmal alles besser dokumentiert! Und lassen Sie keine Sachen auf FTP-Sites herumliegen – man kann nie wissen, wer alles im Netz fischt. Die beiden MMs sind seit Jahren hinter den Stationsdaten her. Wenn sie jemals erfahren, dass es ein in Großbritannien jetzt Informationsfreiheitsgesetz gibt, werde ich die Dateien eher löschen als sie an Dritte zu senden. Zwingt Ihr ähnliches Gesetz in den USA Sie dazu, auf Anfragen innerhalb von 20 Tagen zu reagieren? – Unseres tut es! Das Vereinigte Königreich beruht auf Präzedenzfällen, so dass die erste Anforderung es testen wird. Aber haben wir ein Datenschutzgesetz, hinter dem ich mich verstecken werde. Tom Wigley hat mir eine besorgte Email geschickt, als er davon hörte – er dachte, man könnte ihn nach seinem Modellcode fragen. Er wurde offiziell vom UEA in den Ruhestand geschickt, so dass er dahinter verbergen kann. IPR sollte hier von Bedeutung sein, aber ich sehe mich in eine Diskussion kommen mit jemandem bei UEA, der sagt, wir müssen uns daran halten!

(Anmerkung: Die Mail stammt von Phil Jones, damals Direktor der CRU)

Dies ist wichtig, weil Menschen bei der CRU sehr effektiv im IPCC waren, beginnend mit Direktor Tom Wigley, der Jones voraus gegangen war. Sie überwachen die kritischen Kapitel. Letztlich war es Wigley gewesen zu dem sie gingen, um Anweisungen zu erhalten, wie diese E-Mail enthüllt. Wigley ist in der 1990‘er Dokumentation aufgedeckt “The Greenhouse Conspiracy”, [Anmerkung: Treibhaus -Verschwörung] die heute noch bemerkenswert relevant ist. Die E-Mail scheint eine Person zu manifestieren, die ihre moralische Richtung verloren hat.

Die andere „Gehe zu dieser Person“ war von Anfang an der verstorbene Stephen Schneider. Er gab den Ton an und beeinflusste aktiv die Richtung der Klimaforschung und des IPCC‘s mit seinem berüchtigten Zitat von 1989 im Discovery-Magazin.

„Auf der einen Seite sind wir ethisch an die wissenschaftliche Methode gebunden, in der Tat verpflichtet, die Wahrheit, die ganze Wahrheit und nichts anderes zu sagen, aber – was bedeutet, dass wir alle Zweifel, Vorbehalte, und jedes Wenn und Aber erwähnen müssen. Auf der anderen Seite sind wir nicht nur Wissenschaftler, sondern auch Menschen. Und wie die meisten Menschen, möchten wir die Welt als einen besseren Ort sehen. Dieser Zusammenhang schlägt sich in unserer Arbeit nieder, um das Risiko eines möglicherweise katastrophalen Klimawandels zu verringern. Um dies zu erreichen, müssen wir breite Unterstützung erhalten die Phantasie der Öffentlichkeit zu erobern. Das bringt natürlich immer jede Menge Berichterstattung in den Medien. Also wir müssen beängstigende Szenarien bieten, vereinfachte, dramatische Aussagen machen und nur wenig von Zweifeln erwähnen, die wir haben könnten. Dieser doppelte ethische Zwang, in dem wir selbst uns häufig befinden kann durch keine Formel gelöst werden. Jeder von uns muss sich entscheiden, was die richtige Balance zwischen wirksam und ehrlich ist. Ich hoffe, das bedeutet, dass beides sein kann.“

Viele Menschen zitieren nur den fett gedruckten Teil, aber die ganze Passage ist aufschlussreich, vor allem der vorletzte Satz. Schneider war nicht klar, es gibt kein Gleichgewicht zwischen wirksam und ehrlich. Alles andere ist eine Täuschung. Man kann Dinge weglassen, aber Sie müssen erklären, warum. Schneider ist anscheinend versucht, zu rationalisieren und somit unmoralische Handlungen zu rechtfertigen. Es ist ein schwacher Versuch zu sagen, dass der Zweck die Mittel heiligt. Als sie nach dem CRU-E-Mail-Leck in Schwierigkeiten waren, fragten sie Schneider Ihnen bei der Zusammenfassung für politische Entscheidungsträger (SPM) zu helfen.

Die aktive Handhabung der Daten und Anwendung von Methoden zum Kreieren der gewünschten Wissenschaft und damit des politischen Ergebnisses war moralisch und wissenschaftlich falsch. Dies wurde verstärkt durch das, was ausgelassen wurde, die Rosinenpickerei. Dieses schließt unterschiedlich ein,

♦ das Auslassen von Daten, wie bei Sabine und Feely,

♦ die Auswahl von Anfangs- und Endpunkten auf Grafiken, um einen gewünschten Trend darzustellen, wie bei Santer,

♦ das Weglassen ganzer Bereiche zu den Ursachen des Klimawandels, wie die Auslassung des Milankovitch Effect oder der kosmischen Theorie [Anmerkung: Svensmark]

→ Die Auswahl begann mit der bewusst eng gefassten Definition des Klimawandels, die der IPCC nur auf menschliche Ursachen einschränkt.

→ Das Weglassen all der starken Einschränkungen der Wissenschaft und der Computermodelle die im Bericht der Arbeitsgruppe I identifiziert sind, The Physical Science Basis aus dem SPM.

Es gibt Lügen und Unterlassungen und beide passen in die politischen und PR Praktiken der IPCC Klimawissenschaft. Menschen lernen beide Arten von Lügen als Kinder. In der Tat ist die Fähigkeit zu lügen eine der Klassifikationen die von Anthropologen gewählt ist, um den Menschen von Tieren zu unterscheiden.

Die Bezeichnung, Homo sapiens, trennt uns angeblich, weil wir konzeptionell denken. Das heißt, wir können unterschiedliche Informationen aufnehmen und sie verknüpfen. Dann entdeckten wir andere Tiere, die ähnliche konzeptionelle Verbindungen vornehmen, so dass sie beschlossen, wir sind anders, weil wir lügen können. Dies erfordert ein doppeltes konzeptionelles Verständnis. Sie müssen die Wahrheit wissen und dann herausfinden, wie man damit umgehen kann, daher die aktuelle Bezeichnung des Menschen als Homo Sapiens sapiens. Wie kann man auf einen moralischen Unterschied stolz sein? Natürlich, die jüngste moralische Unterstützung der IPCC Klimawissenschaft durch Papst Francis „puts the cat amongst the … pigeons“ [Wortspiel: macht den Bock zum Gärtner]“.

Unterlassungssünden sind ein wichtiger Bestandteil der Werbung und Öffentlichkeitsarbeit. Sie rechtfertigen die Sünde als Betonung des Positiven, aber es ist hauptsächlich die Vermeidung des Negativen. Identifizieren nur von Vorteilen wurde verwendet, um alternative Energien zu fördern, anstatt einer ausgewogenen und realistischen Kosten / Nutzen-Studie,

Befürworter der (AGW) Hypothese von der menschlichen Produktion von CO2 untersuchen nur, was sie als negative Auswirkungen behaupten. Das IPCC schaut nicht auf die Vorteile der globalen Erwärmung. Ebenso wirksam in ihrer Täuschung war die Vermeidung positiver Auswirkungen von CO2, nicht zuletzt den Unterhalt des ganzen Lebens durch die Produktion von Sauerstoff. Ein Maß für den Unverstand, der sich aus den IPCC-Täuschungen ergibt, ist der Vorstoß, von Aktivisten wie Al Gore und Bill McKibben, atmosphärisches CO2 zu reduzieren. Dies trotz wissenschaftlicher Forschung und empirischer Belege, dass Pflanzen am besten zwischen 1000 -1200 Teile pro Million (ppm) funktionieren, sie werden bei dem derzeitigen Niveau von 400 ppm unterernährt. All dies ist eine Folge der Fehlentwicklungen durch die IPCC und manifestiert in Sabine und Feely‘s jüngstem Beispiel. Es ist Zeit, die Vollmacht für die Pflanzen zu etablieren und in ihrem Namen gegen eine unmoralische Maßnahme zur Verringerung des CO2-Gehaltes zu stimmen.

Climate And Truth: A Tale Of Immorality?

http://tinyurl.com/lo7ct27

Übersetzt von Andreas Demmig EIKE




Der Große Stillstand verlängert sich erneut

Abbildung 1 (rechts): Der lineare Regressionstrend kleinster Quadrate im Datensatz der mittleren globalen Temperaturanomalie des RSS zeigt keine globale Erwärmung seit Oktober 1996, also seit 18 Jahren und drei Monaten.

Angesichts dessen, dass sich der Papst unklugerweise darauf vorbereitet, für immer die politische Neutralität aufzugeben, die ihm seine Stellung auferlegt und seine Unterschrift unter eine klima-kommunistische Enzyklika zu setzen, entworfen vom radikalen Präfekten der Academy of Sciences im Vatikan, Monsignore Marcelo Sanchez Sorondo, zeigt der Allmächtige weiterhin einen Sinn für Humor.

Die Welt-Konferenz in Paris ist zeitlich nicht einmal mehr ein Jahr entfernt. Und dennoch hat die globale Erwärmung, die das IPCC so vertrauensvoll aber irreführend vor 25 Jahren vorhergesagt hatte, vollständig aufgehört.

Abbildung 2: Kurzzeit-Projektionen von Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, ausgegeben mit „substantiellem Vertrauen“ vom IPCC (1990) von Januar 1990 bis November 2014 (orangefarbene Region und rote Trendlinie) im Vergleich zu den beobachteten Anomalien (dunkelblau) und Trend (hellblau) mit einem Äquivalent von weniger als 1,4 K pro Jahrhundert als Mittelwert der monatlichen mittleren Temperaturanomalien der unteren Troposphäre von RSS- und UAH-Satellitenmessungen.

Ein Vierteljahrhundert nach 1990 ist das Ergebnis der globalen Erwärmung bis heute – ausgedrückt als der lineare Regressionstrend kleinster Quadrate im Mittel der RSS- (1) und UAH (2)-Daten – 0,34°C, äquivalent zu lediglich 1,4°C pro Jahrhundert oder mehr als halb so gering wie die zentrale Schätzung des IPCC (1990) und noch deutlich unter der geringsten Schätzung (Abbildung 2).

Der Große Stillstand ist ein wachsendes Ärgernis für all jene, die uns mit „substantiellem Vertrauen“ weisgemacht haben, dass die Wissenschaft ,settled‘ und die Debatte vorüber sei. Die Natur hatte Anderes im Sinn. Trotz inzwischen fast 70 Entschuldigungs-Gründen, die untereinander nicht kompatibel und mehr oder weniger implausibel sind und die in nervös gewordenen begutachteten Journalen und unter missionierenden Wissenschaftlern erscheinen, kann die Möglichkeit nicht länger ausgeschlossen werden, dass der Stillstand stattfindet, weil die Computermodelle schlicht und ergreifend falsch sind hinsichtlich der Sensitivität der Temperatur in Bezug auf menschliche Treibhausgase. Dies wird in einer großen begutachteten Studie deutlich, die im Dezember 2014 im führenden Wissenschaftsjournal des Orients veröffentlicht worden ist.

Bemerkenswerterweise liegen sogar noch die jüngsten und deutlich reduzierten Projektionen des IPCC bzgl. der globalen Erwärmung ebenfalls viel zu hoch (Abbildung 3):

Abbildung 3: Vorhergesagte Temperaturänderung von Januar 2005 bis November 2014 mit einer Rate von 1,7 (1,0; 2,3)°C pro Jahrhundert (orangefarbene Region mit dicker roter Best-Estimate-Trendlinie) im Vergleich zu beobachteten Anomalien (dunkelblau) und Nulltrend in der realen Welt (hellblau) als Mittelwert der monatlichen mittleren Temperaturanomalien der unteren Troposphäre von RSS- und UAH-Satellitenmessungen.

Im Jahre 1990 lag die zentrale Schätzung des IPCC der Erwärmung im Kurzfristzeitraum um zwei Drittel über der heutigen Schätzung. Damals war es ein Äquivalent von 2,8°C pro Jahrhundert. Jetzt ist es ein Äquivalent von 1,7°C – und wie Abbildung 3 zeigt, erweist sich selbst das noch als substantielle Übertreibung.

In den RSS-Satellitendaten gab es seit über 26 Jahren keine statistisch von Null unterscheidbare globale Erwärmung. Keines der Modelle hat vorhergesagt, dass im Endeffekt ein Vierteljahrhundert lang keine globale Erwärmung auftreten würde.

Schlüsselfakten zur globalen Temperatur:

● Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung seit 219 Monaten von Oktober 1996 bis Dezember 2014 – ein Zeitraum, der mehr als die Hälfte der 432-monatigen Satellitenaufzeichnung umfasst.

● Der Trend der globalen Erwärmung seit 1990 ist äquivalent zu 0,8°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und hat vermutlich nicht viel mit uns zu tun.

● Seit 1950, als ein menschlicher Einfluss auf die globale Temperatur erstmals theoretisch möglich war, lag der Trend der globalen Erwärmung unter einem Äquivalent zu 1,2°C pro Jahrhundert.

● Die größte Erwärmungsrate über 10 Jahre oder mehr seit 1950 war in den 33 Jahren von 1974 bis 2006 aufgetreten. Der Wert war äquivalent zu 2,0°C pro Jahrhundert.

● Im Jahre 1990 lag die mittlere Vorhersage des IPCC im Kurzfristzeitraum bei einem Äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel höher als dessen gegenwärtige Vorhersage von 1,7°C pro Jahrhundert.

●Der Trend der globalen Erwärmung seit 1990, als das IPCC seinen ersten Bericht geschrieben hat, ist äquivalent zu weniger als 1,4°C pro Jahrhundert – also die Hälfte dessen, was das IPCC damals vorhergesagt hatte.

● Obwohl das IPCC seine Erwärmungsvorhersage im Kurzfristzeitraum reduziert hat, hat es seine Erwärmungsvorhersage für dieses Jahrhundert bei ,Business as Usual‘ um 4,8°C bis zum Jahre 2100 nicht reduziert.

● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 ist deutlich mehr als doppelt so hoch wie die höchste Erwärmungsrate über mehr als zehn Jahre, die seit 1950 gemessen worden ist.

● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 ist fast vier mal so hoch wie der in der realen Welt gemessene Erwärmungstrend, seit wir theoretisch in der Lage waren, das Klima zu beeinflussen (1950).

● Von September 2001 bis November 2014 ist der Erwärmungstrend im Mittel der 5 globalen Temperaturdatensätze Null. Keine Erwärmung seit 13 Jahren und drei Monaten.

● Jüngste Extremwetterereignisse können nicht der globalen Erwärmung geschuldet sein, weil es keinerlei globale Erwärmung gegeben hat. So einfach ist das.

Technische Anmerkung

Unsere letzte thematische Graphik zeigt den linearen Regressionstrend kleinster Quadrate im Datensatz der monatlichen globalen mittleren Verhältnisse in der unteren Troposphäre, indem man so weit wie möglich zurückgehen kann und immer noch einen Null-Trend findet. Der Startzeitpunkt ist keine „Rosinenpickerei“ dergestalt, dass der Beginn mit der Temperaturspitze des Super-El Nino 1998 zusammenfällt. Stattdessen ist der so berechnet, dass man den längsten Zeitraum mit einem Null-Trend findet.

Aber ist der RSS-Satelliten-Datensatz „Rosinenpickerei“? Nein. Es gibt gute Gründe, diesen als den besten der fünf primären globalen Temperatur-Datensätze anzusehen. Der unermüdliche „Steven Goddard“ zeigte im Herbst 2014, dass der RSS-Datensatz – zumindest soweit er das Historical Climate Network HCN betrifft – eine geringere Warmverzerrung zeigt als die Aufzeichnungen von GISS (3) oder UAH (2). Der UAH-Datensatz soll demnächst überarbeitet werden, um dessen Warmverzerrung zu reduzieren und ihn konformer mit dem RSS-Datensatz zu machen.

Abbildung 4: Warmverzerrungen der Temperatur. RSS zeigt einen geringeren Bias als die UAH- und GISS-Aufzeichnungen. UAH wird in seiner demnächst erscheinenden Version 6.0 Schritte unternehmen, um den Warm-Bias in seiner Erfassung der globalen Temperatur zu reduzieren.

Steven Goddard schreibt:

„Die Graphik vergleicht die US-Temperaturen nach UAH, RSS und GISS mit den tatsächlichen Messungen der HCN-Stationen in den USA. UAH und GISS zeigen beide eine große Warmverzerrung, während RSS nahe bei den gemessenen täglichen Temperaturdaten liegt. Der geringe Unterschied zwischen RSS und HCN ist möglicherweise dem Umstand geschuldet, dass meine HCN-Berechnungen nicht flächengemittelt [gridded] sind. Meine Schlussfolgerung lautet, dass RSS der einzige glaubwürdige Datensatz ist und alle anderen einen falschen Warm-Bias aufweisen“.

Auch zeigt sich in den RSS-Daten der Große El Nino von 1998 deutlicher als in allen anderen Datensätzen. Der Große El Nino verursachte wie seine beiden Vorgänger während der letzten 300 Jahre eine verbreitete Korallenbleiche. Dies ist eine unabhängige Verifikation, dass RSS viel besser in der Lage ist, derartige Fluktuationen abzudecken ohne künstliches Herausfiltern derselben wie in anderen Datensätzen.

Terrestrische Temperaturen werden mit Thermometern gemessen. Korrekt in ländlichen Gebieten aufgestellte Thermometer, ausreichend weit entfernt von menschlichen Wärmequellen zeigen Erwärmungsraten, die merklich unter denen liegen, die veröffentlicht werden. Die Satelliten-Datensätze basieren auf Messungen der genauesten derzeit verfügbaren Thermometer – Platin-Widerstandsthermometer, die eine unabhängige Verifikation der Temperaturmessungen erlauben, indem man mittels Richtung Weltraum ausgerichteter Spiegel die bekannte Temperatur der kosmischen Hintergrundstrahlung misst, welche 1% des Gefrierpunktes von Wasser ausmacht bzw. um 2,73 Grad über dem Absoluten Nullpunkt liegt. Es war die Messung infinitesimaler Variationen der kosmischen Hintergrundstrahlung, die es der NASA erlaubte, das Alter des Universums zu berechnen: 13,82 Milliarden Jahre.

Die RSS-Graphik ist genau (Abbildung 1 oben rechts). Die monatlichen Daten stammen direkt von der RSS-Website. Ein Computer-Algorithmus liest sie aus dem Textfile heraus, mittelt sie und plottet sie automatisch mittels einer fortschrittlichen Routine, die automatisch das richtige Format des Datenfensters auf beiden Achsen adjustiert, um die Daten der Klarheit halber im maximalen Maßstab zu zeigen.

Der letzte monatliche Datenpunkt wird visuell untersucht um sicherzustellen, dass er korrekt positioniert worden ist. Die hellblaue, über die die tatsächlichen Daten zeigende dunkelblaue Profilkurve gelegte Trendlinie wird errechnet durch die Methode der linearen Regression kleinster Quadrate, welche den Schnittpunkt mit der y-Achse berechnet sowie die Neigung der Linie mittels zweier etablierter und funktional identischer Gleichungen, die miteinander verglichen werden, um sicherzustellen, dass es zwischen ihnen keine Diskrepanzen gibt. Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu berechnen. Prof. Phil Jones von der University of East Anglia verlangt dies in einer der Klimagate-E-Mails. Die Methode ist geeignet, weil globale Temperaturaufzeichnungen nur wenig Autoregression zeigen.

Dr. Stephen Farish, Professor für epidemiologische Statistik an der University of Melbourne hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend in der Graphik und der Korrelations-Koeffizient berechnet werden, der sehr niedrig ist, weil der Trend trotz der hoch variablen Daten flach verläuft.

RSS selbst ist inzwischen ernsthaft an der Länge des Großen Stillstands interessiert. Dr. Carl Mears, der leitende Forschungswissenschaftler beim RSS, diskutiert dies hier.

Seine Ergebnisse werden in Abbildung 5 zusammengefasst:

Abbildung 5: Output der 33 IPCC-Modelle (türkis) verglichen mit der gemessenen globalen Temperaturänderung nach RSS (schwarz), 1979 bis 2014. Die vorübergehenden Abkühlungsphasen durch die Ausbrüche des Chichon (1983) und des Pinatubo (1991) werden gezeigt, ebenso wie die Wärmespitze durch den Großen El Nino von 1998.

Dr. Mears schreibt:

„Die Leugner mögen die Hypothese, dass die Ursache für die Diskrepanz zwischen Modellen und Beobachtungen irgendeinem Problem mit der fundamentalen Modellphysik geschuldet ist, und sie gehen mit Geringschätzung über jede andere Art der Erklärung hinweg. Dies führt sie zu der sehr wahrscheinlich irrigen Schlussfolgerung, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.

Dr. Mears räumt die zunehmende Diskrepanz zwischen den RSS-Daten und den Modellen ein, aber er vermutet „Rosinenpickerei“ hinsichtlich des Startdatums des Graphen der globalen Temperatur:

„Vor Kurzem hat eine Anzahl von Artikeln in den Main-Stream-Medien darauf hingewiesen, dass es so aussieht, als ob es während der letzten zwei Dekaden kaum oder gar keine Änderungen der Temperatur gegeben habe. Deswegen stellt man uns eine Menge Fragen nach dem Motto ,ich habe diesen Plot auf einer Leugner-Website gesehen. Sind das wirklich Ihre Daten?‘ Während in einigen dieser Berichte die Endpunkte tatsächlich ,cherry-picked‘ sind, um deren Beweise stärker erscheinen zu lassen, gibt es kaum Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als vom IPCC im AR 5 vorhergesagt. Die Leugner mögen es wirklich, Trends im Jahre 1997 beginnen zu lassen, so dass das gewaltige El Nino-Ereignis von 1997/1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der kleinstmöglichen Neigung führt“.

In Wirklichkeit wird die Temperaturspitze des Großen El Nino von 1998 großenteils durch zwei Faktoren in der linearen Trendberechnung kompensiert: die nicht unähnliche Spitze des El Nino 2010 und die schiere Länge des Großen Stillstands selbst.

Ersetzt man alle monatlichen RSS-Anomalien für das Jahr 1998 mit dem mittleren Anomaliewert von 0,55 K, erhalten während des El Nino 2010 und berechnet dann erneut den Trend seit September 1996 (nicht Dr. Mears‘ „1997“) bis September 2014 zeigt sich, dass die Trendwerte „-0,00°C (-0,00°C pro Jahrhundert)“ in den unveränderten Daten (Abbildung 1) zu „+0,00°C (+0,00°C pro Jahrhundert)“ geworden sind. Fazit:

keine Rosinenpickerei.

Die Länge des Großen Stillstands bzgl. der globalen Erwärmung, so signifikant sie auch ist, ist indessen von geringerer Bedeutung als die immer größer werdende Diskrepanz zwischen den von den Modellen vorhergesagten Temperaturtrends und den weit weniger aufregenden Temperaturänderungen in der realen Welt, die gemessen worden sind.

Im Ersten Zustandsbericht hat das IPCC vorhergesagt, dass die globale Temperatur um 1,0°C (0,7; 1,5) bis zum Jahre 2025 steigen würde, äquivalent zu 2,8 (1,9; 4,2)°C pro Jahrhundert. In der ,executive Summary‘ wird gefragt: „wie viel Vertrauen haben wir in unsere Vorhersagen?“ Das IPCC verwies zwar auf einige Unsicherheiten (Wolken, Ozeane usw.), kam aber zu der Schlussfolgerung:

„Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle zumindest die groben Umrisse des Klimawandels vorhersagen können … Es gibt Ähnlichkeiten zwischen den Ergebnissen der gekoppelten Modelle unter Verwendung simpler Repräsentationen der Ozeane und jenen, die kompliziertere Verfahren verwenden, und unser Verständnis solcher Unterschiede, wie sie auftreten, verleiht uns einiges Vertrauen in unsere Ergebnisse“.

Jenes „substantielle Vertrauen“ war substantielles Über-Vertrauen. Weil die Rate der globalen Erwärmung seit 1990 nur etwa halb so groß ist wie vom IPCC damals vorhergesagt.

Erwärmt sich der Ozean?

Eine oft diskutierte Erklärung für den Großen Stillstand lautet, dass das gekoppelte Ozean-Atmosphäre-System weiterhin Wärme akkumuliert hat mit etwa der von den Modellen vorhergesagten Rate, dass aber während der letzten Jahrzehnte die Wärme aus der Atmosphäre durch die Ozeane entfernt worden ist, und – da global die oberflächennahen Schichten weit weniger Erwärmung zeigen als von den Modellen vorhergesagt – es wird hypothetisch angenommen, dass das, was man die „fehlende Wärme“ nennt, in die Tiefsee unter 2000 m abgesunken ist, wo man praktisch nichts messen kann. Von dort wird die Wärme irgendwann in der Zukunft wieder auftauchen.

Die „Fehlende-Wärme-Theorie bzgl. der Ozeane“ wird federführend von einer einzigen Gruppe in den USA befürwortet. Meehl, Arblaster, Fasullo, Hu und Trenberth (7) sagen:

„Acht Jahrzehnte mit einem leicht negativen globalen Oberflächen-Temperaturtrend zeigen, dass die Ozeane oberhalb 300 m signifikant weniger Wärme aufnehmen, während die Ozeane tiefer als 300 m signifikant mehr Wärme aufnehmen, verglichen mit den Dekaden ohne Stillstand. Das Modell bietet eine plausible Beschreibung der Prozesse im Klimasystem, die die Stillstands-Perioden verursachen, und sie zeigen, dass eine Stillstands-Periode ein relativ normales Klimaphänomen ist und mit La Nina-Bedingungen zusammenhängen kann“. Balmaseda, Trenberth und Källen (8) sagen dagegen: „Im vergangenen Jahrzehnt ereignete sich etwa 30% der Erwärmung unter 700 m, was signifikant zu einer Beschleunigung des Erwärmungstrends beitrug. Die Erwärmung unterhalb 700 m bleibt bestehen, selbst wenn das ARGO-Beobachtungssystem zurückgezogen wird, obwohl die Trends reduziert sind“. Und Trenberth & Fasullo (2013), wiederholt in Trenberth, Fasullo & Balmaseda (9) sagen: „Eine Inventur der Änderungen der Energiespeicherung zeigt, dass sich über 90% des Ungleichgewichtes als ein Anstieg des ozeanischen Wärmegehaltes OHC manifestieren. … Die globale Erwärmung ist nicht zum Stillstand gekommen: sie hat sich lediglich auf unterschiedliche Weise manifestiert“.

Diese US-Gruppe wird unterstützt durch eine Gruppe an der Chinese Academy of Sciences (10):

„eine schwankende globale Wärmesenke in mittleren Ozeantiefen geht einher mit unterschiedlichen Klimaregimes der Erwärmung an der Oberfläche infolge anthropogenen Antriebs. Während der zweiten Hälfte des 20. Jahrhunderts zeigte sich eine rapide globale Erwärmung, da mehr Wärme an der Oberfläche verblieben war. Im 21. Jahrhundert hat sich die Erwärmung verlangsamt, da mehr Wärme in tiefere Ozeanschichten abgesunken ist … Abkühlungsperioden im Zusammenhang mit der späteren Wärmeabscheidung in größeren Tiefen dauerten historisch gesehen 20 bis 35 Jahre“.

In (11) spekulieren die Akademiker, dass zu irgendeinem Zeitpunkt in der Zukunft der Stillstand sein Vorzeichen ändern könnte, was zu einer weiteren Episode einer möglicherweise beschleunigten globalen Erwärmung führt.

Und doch gibt es bis auf den heutigen Tag kein empirisches, theoretisches oder numerisches Verfahren, das erfolgreich mechanistisch spezifiziert hat, wie einmal die durch anthropogene Treibhausgase erzeugte Wärme aus der Atmosphäre kommend die tiefen Ozeanschichten erreicht haben könnte ohne den Wärmegehalt der durchlaufenen oberflächennahen Schichten wesentlich zu verändern, oder wie zum Anderen die Wärme vom Grund der Ozeane eventuell zurück an die Oberfläche kommen kann, um die oberflächennahen Klimabedingungen zu verändern, die für das landbasierte Leben auf der Erde relevant sind.

Die meisten Ozeanmodelle, die für Sensitivitäts-Läufe gekoppelter allgemeiner Zirkulationsmodelle verwendet werden, können einfach nicht den größten Teil der physikalischen Prozesse auflösen, die für das Einfangen der Wärme durch die Tiefsee relevant sind. Ultimativ verlangt der Zweite Hauptsatz der Thermodynamik, dass jedwede Wärme, die sich in der Tiefsee akkumuliert haben könnte, mittels verschiedener Diffusionsprozesse aufgelöst wird. Es ist nicht plausibel, dass irgendwelche von der Tiefsee aufgenommene Wärme plötzlich die oberen Ozeanschichten erwärmen wird und über diesen Zwischenschritt die Atmosphäre.

Selbst falls Wärme die benthischen Schichten erreicht, ohne die oberflächennahen Schichten auf ihrem Weg zu erwärmen, ist die kurzfristige oberflächennahe Reaktion ziemlich unempfindlich gegenüber einem steigenden atmosphärischen CO2-Gehalt. Aus diesem Grunde ist die Lösung der ozeanischen Thermodynamik keine Vorbedingung für das empirische Studium der Klimasensitivität mittels unseres einfachen Modells. Falls die „Tiefsee“-Erklärung für den Stillstand der globalen Erwärmung korrekt ist (und das ist lediglich eine unter Dutzenden anderen), dann sind die komplexen Modelle daran gescheitert, dies korrekt in Betracht zu ziehen: anderenfalls wäre die wachsende Diskrepanz zwischen den vorhergesagten und den beobachteten atmosphärischen Erwärmungsraten nicht so signifikant geworden, wie es der Fall gewesen ist.

Da die komplexen Modelle in dieser Hinsicht versagt haben, es ungenügende Beobachtungen aus der Tiefsee gibt, um zuverlässige quantitative Beweise einer vermeintlichen Wärmeakkumulation unter 2000 m zu erbringen, es noch weniger möglich ist, den Mechanismus des imaginären Wärmetransfers zu berechnen, es wiederum weniger möglich ist, die rechtzeitige Dosierung der jeweiligen Verteilung anthropogener, solarer oder untermeerischer Vulkanaktivitäten zu bestimmen, ist es sicher unvernünftig, von unserem einfachen Modell das zu erwarten, woran die komplexen Modelle aus sich selbst heraus gescheitert sind – und was kann man mit einem Modell nicht alles machen, einfach oder komplex, solange und bis Messungen mit weit höherer Auflösung als jetzt zur Verfügung stehen an allen Punkten der ozeanischen Säule.

Beispiel:

die 3500 automatisierten ARGO-Bathythermograph-Bojen haben eine Auflösung äquivalent zur Messung eines einzigen Temperatur- und Salzgehaltes im Oberen See weniger als einmal pro Jahr: und bevor ARGO Mitte Mitte des vorigen Jahrzehnts in Berieb ging wurde, war die Auflösung ozeanischer Temperaturmessungen sogar noch deutlich schlechter als das, vor allem in Tiefsee-Schichten.

Die mittlere Tiefe des globalen Ozeans beträgt 3700 m. Wie jüngst in (11) beobachtet, was implizit die Infragestellung der Behauptungen der USA-Gruppe (7 – 9) enthält, sind sowohl die Auflösung von Stichproben in verschiedenen Tiefen als auch die Länge der Aufzeichnung beide unzureichend, um entweder verlässliche Messungen des ozeanischen Wärmegehaltes oder das Monitoring der ozeanischen Strahlungsflüsse zu erlauben:

Einige grundlegende Elemente des Stichprobe-Problems sind in Tabelle 2 gelistet. Etwa 52% des Ozeans ist tiefer als 2000 m und etwa 18% tiefer als 3600 m. Definiert man eine bestimmte Wassermenge als „getestet“, falls mindestens eine CTD-Station innerhalb eines Gitterquadrats von 60 X 60 km² im Zeitintervall 1992 bis 2011 existiert, wurde etwa ein Drittel (11% der Gesamtmenge) Wasser unter 2000 m betrachtet … In Tiefen unter 3600 m waren etwa 17% vermessen … Viele Studien gehen davon aus, dass es in der Tiefsee während des historischen Zeitraumes keine signifikanten Änderungen gegeben hat … Die Historie der Erforschung zeigt jedoch, dass weiße Flächen auf der Karte entweder als uninteressant angesehen und damit aus der weiteren Diskussion ausgeklammert worden sind, oder das andere Extrem war der Fall, die Flächen seien gefüllt mit ,Drachen‘, die herbeigefleht werden, um seltsame Berichte von dort zu erklären (in G. De Jode 1578, Speculum Orbis Terrarum, Antwerpen). …

Jüngst wurden in (60) Schätzungen von Änderungen in der Tiefsee mit einer behaupteten Genauigkeit in der Größenordnung von 0,01 W/m² in den Raum gestellt (äquivalent zu einer Temperaturänderung von 0,0004°C innerhalb von 20 Jahren) unter 700 m. Falls diese Genauigkeit wirklich erreicht worden wäre, wäre die geringe Abdeckung ausreichend, vielleicht erweitert auf die WOCE hydrographische Überwachung und alle paar Jahrzehnte wiederholt“.

Außerdem mangelt es in fast allen Analysen des ozeanischen Wärmegehaltes und -haushaltes an genauer Berücksichtigung der räumlichen, zeitlichen und anderer systematischer Fehler und Unsicherheiten, wie z. B. jene, die in einer Arbeit durch eine Gruppe an der chinesischen Academy of Sciences (12) identifiziert worden sind:

„In dieser Studie wurde eine neue Quelle von Unsicherheiten bei der Berechnung des OHC diagnostiziert, und zwar infolge der ungenügenden vertikalen Auflösung der historischen Ozeantemperaturprofile unter der Oberfläche. Dieser Fehler wurde untersucht mittels einer Stichprobe einer hohen vertikalen Auflösung in einem klimatologischen Ozeanmodell, dem Messungen in Tiefenintervallen von der Oberfläche aus gegenüber gestellt wurden. Dann wurde der Fehler definiert als der Unterschied zwischen dem OHC berechnet aus Stichproben-Profilen und dem OHC des klimatologischen Ozeans. Der so erhaltene auflösungsbezogene Fehler scheint in den oberen 100 m kalt zu sein (mit einem Spitzenwert von etwa -0,1°C), warm in Tiefen zwischen 100 und 700 m (mit einem Spitzenwert um 0,1°C bei 180 m) und warm bei einer Mittelung zwischen 0 und 700 m (mit einem globalen Mittel von ~0,01°C bis -0,025°C sowie ~1 bis 2,5 X 10²² J). Geographisch zeigte sich eine Warmverzerrung innerhalb von 30°S bis 30°N und eine Kaltverzerrung in höheren Breiten beider Hemisphären. Das Vorzeichen hing von der konkaven oder konvexen Krümmung des vertikalen Temperaturprofils ab. Schließlich fordern die Autoren, ein biasfreies Beobachtungssystem in Zukunft zu installieren: Eine minimale vertikale Tiefe von 5% wird gebraucht, um die der vertikalen Auflösung geschuldete Verzerrung auf weniger als 0,005°C des globalen Mittels zu bringen (gleiche Genauigkeit wie bei ARGO).

Und weiter (13):

„…ein neues Korrekturschema für historische XBT-Daten wird vorgestellt für neun verschiedene Stichproben-Typen. Das Schema enthält auch Korrekturen sowohl für die Temperatur als auch für Aufzeichnungen in der Tiefe, die alle mit dem Kalenderjahr variabel sind, außerdem für die Wassertemperatur und den Typ der Stichprobe. Die Ergebnisse bestätigen die in vorhergehenden Studien gefundenen: eine Verlangsamung der Fallrate während der siebziger Jahre und des ersten Jahrzehnts dieses Jahrhunderts sowie der große, rein thermische Bias von 1970 bis 1985. Das Verhalten von neun unterschiedlichen Korrekturschemata wird verglichen. Nachdem die vorgestellten Korrekturen an die XBT-Daten im WOD09-Datensatz angebracht worden waren, wird der globale ozeanische Wärmegehalt von 1967 bis 2010 neu abgeschätzt“.

Eine demnächst erscheinende Studie (14) beschreibt ein vertikales Profil der Temperaturänderung im Ozean von 2004 bis 2013 mit einem Erwärmungs-Stillstand über 100 m und in Tiefen zwischen 300 und 700 m, nachdem einige der Stichproben-Verzerrungen und Instrumentenfehler und Unsicherheiten in den Daten des ozeanischen Wärmegehaltes berücksichtigt worden waren (d. h. der neue globale Ozean-Temperatur-Datensatz vom Institute for Atmospheric Physics wurde angebracht). Die beiden Erwärmung zeigenden Schichten liegen zwischen 100 und 300 sowie 700 und 1500 Metern. Diese Schichten mit Erwärmung zeigen ihre eigenen charakteristischen horizontalen räumlichen Verteilungen, wenn man sie mit den sich nicht erwärmenden Schichten zwischen 300 und 700 Metern vergleicht. Diese beobachtete Tatsache führt zu folgender Schlussfolgerung:

Es ist immer noch unklar, wie die Wärme in die Tiefsee transferiert worden sein soll“.

Außerdem ist der Vorschlag, dass die Wärmeakkumulation in der Tiefsee erklärt, warum es seit 18 Jahren keinerlei globale Erwärmung mehr gegeben hat, in der wissenschaftlichen Literatur alles andere als allgemein akzeptiert. Eine bemerkenswerte Vielfalt von miteinander konkurrierenden und mit oftmals sich widersprechenden Erklärungen für den Stillstand der globalen Erwärmung, hauptsächlich unter Betrachtung der Phänomene nahe der Oberfläche, werden in Studien aus jüngerer Zeit in den begutachteten Journalen der Klimawissenschaft vorgestellt.

[Die folgende Auflistung steht im Original ohne jeden Absatz in einem langen, unübersichtlichen Abschnitt, zum Glück aber mit Ordnungszahlen. Zum besseren Verständnis auch für mich selbst habe ich diesen Abschnitt den Ordnungszahlen folgend unterteilt. Anm. d. Übers.]

In der Literatur wird der Grund für den Stillstand der globalen Erwärmung auf sehr vielfältige Weise erklärt:

1. eine eingeführte Kaltverzerrung durch mangelnde Abdeckung während der letzten Jahre (15), widerlegt von (16) und hinsichtlich der Abdeckung der Arktis von (17);

2. anthropogene Aerosole aus der Kohleverbrennung (18), widerlegt von (19, 20);

3. Abnahme der Erwärmung infolge Absorption durch Ruß (20);

4. Emission von Aerosol-Partikeln durch Vulkanausbrüche (21), widerlegt von (22);

5. reduzierte Sonnenaktivität (23);

6. Effektivität des Montreal-Protokolls bei der Kontrolle der Emissionen von Chlor-Fluor-Kohlenwasserstoffen (24);

7. eine geringere Zunahme der Methan-Konzetration als erwartet (24);

8. eine Abnahme der stratosphärischen Wasserdampf-Konzentration (25);

9. verstärkte Passatwinde im Pazifik (26), (zuvor waren in (27) schwächere Passatwinde im Pazifik der anthropogenen globalen Erwärmung zugeordnet worden);

10. Stadium Waves [?] in der Zirkulation im tropischen Pazifik (28);

11. Zufall (29):

12. Aerosolpartikel von Kiefern (30),

13. Natürliche Variabilität (31, 32);

14. kältere Nachttemperaturen in der Nordhemisphäre (33);

15. Vorhersagen von jenen Modellen, die die Möglichkeit eines Stillstands der globalen Erwärmung zulassen;

16. die negative Phase der Pazifischen Dekadischen Oszillation (36 – 38);

17. die Atlantische meridionale overturning [?] Zirkulation (39);

18. Globale Verdunkelung (dimming), die globalen Aufhellung (brightening) von 1983 bis 2001 folgte (40);

19. relative Häufigkeit bestimmter Arten von El Nino (41);

20. oberflächennahe Abkühlung im äquatorialen Pazifik (42);

21. Abkühlung im Pazifik, verstärkt durch Erwärmung im Atlantik (43);

22. eine Kombination von Faktoren einschließlich der ENSO-Variabilität, Abnahme der Sonnenaktivität und stratosphärische Aerosole (44);

23. unterschätzer Antrieb anthropogener Aerosole (45);

24. eine neue Form multidekadischer Variabilität, die sich von den Ozeanoszillationen unterscheidet, aber mit diesen in Beziehung steht (46) und

25. Scheitern bei der Initialisierung der meisten Modelle, um sie mit Beobachtungen konform zu machen, besonders bei ozeanischen Bedingungen (47).

Und schließlich, obwohl die ARGO-Bojen die Änderung der Ozeantemperatur direkt messen, wird die Temperaturänderung vor der Veröffentlichung in Zetajoule der Änderung des ozeanischen Wärmegehaltes konvertiert, was die Änderung größer aussehen lässt. Die Konversion der OHC-Änderung zurück zu Temperaturänderungen ist sehr erhellend. Sie zeigt, wie gering die tatsächlich gemessene Änderung ist. Die Zunahme des ozeanischen Wärmegehaltes während der 94 ARGO-Monate September 2005 bis Juni 2013 betrug 10 X 10²² J = 100 ZJ (Abbildung 6).

Abbildung 6: Änderung des ozeanischen Wärmegehaltes 1957 bis 2013 aus dem NODC Ocean Climate Laboratory: http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT.

Konversion: 650 million km³ x 4 MJ per tonne per Kelvin: each cubic meter is 1,033 tonnes. Then:

100 ZJ increase in ohc 100.000.000.000.000.000.000.000 J

To raise 650.000.000.000.000.000 m³

x 1,033 te m–3 671.450.000.000.000.000 te

x 4,000,000 J te 2.685.800.000.000.000.000.000.000 J per Kelvin

Dann 100.000 / 2.685.800 = 0,037233 K über 94 Monate ist äquivalent zu 0,0457 K pro Jahrzehnt. Dem zufolge beträgt die Änderung der mittleren Ozeantemperatur in den oberen 2000 m während der letzten Jahrzehnte weniger als 0,5 K pro Jahrhundert, selbst nach den ziemlich extremen NODC-Aufzeichnungen des OHC.

References

1. RSS (2014) Satellite-derived monthly global mean lower-troposphere temperature anomaly dataset: http://www.remss.com/data/msu/monthly_time_series/RSS_Monthly_MSU_AMSU_Channel_TLT_Anomalies_Land_and_Ocean_v03_3.txt. Accessed 1 July 2014

2. UAH (University of Alabama at Huntsville) (2014) Satellite MSU monthly global mean lower-troposphere temperature anomalies. http://vortex.nsstc.uah.edu/data/msu/t2lt/uahncdc_lt_5.6.txt. Accessed 1 July 2014

3. NCDC, 2014, National Climatic Data Center monthly global mean land and ocean surface temperature anomalies, 1880-2013, ftp://ftp.ncdc.noaa.gov/pub/data/anomalies/monthly.land_ocean.90S.90N.df_1901-2000mean.dat. Accessed 1 July 2014

4. Morice, CP, Kennedy JJ, Rayner N, Jones PD (2012) Quantifying uncertainties in global and regional temperature change using an ensemble of observational estimates: The HadCRUT4 data set. J. Geophys Res 117:D08101. doi:10.1029/2011JD017187

5. GISS, 2014, Goddard Institute for Space Studies monthly global mean land and sea surface temperature anomalies, 1880-2014, http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt. Accessed 1 July 2014

6. McKitrick RR (2014) HAC-robust measurement of the duration of a trendless subsample in a global climate time series. Open J Stat 4:527-535

7. Meehl GA, Arblaster JM, Fasullo JT et al (2011) Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus periods. Nat Clim Change 1: 360–364

8. Balmaseda MA, Trenberth KE, Källen E (2013) Distinctive climate signals in reanalysis of global ocean heat content. Geophys Res Lett 40:175401759

9. Trenberth KE, Fasullo JT, Balmaseda MA (2014) Earth’s energy imbalance. J Clim 27:3129-3144

10. Chen X, Tung KK (2014) Varying planetary heat sink led to global-warming slowdown and acceleration. Science 345: 897–903

11. Wunsch C, Heimbach P (2014) Bidecadal thermal changes in the abyssal ocean. J Phys Oceanol 44: 2013–2030

12. Cheng L, Zhu J (2014) Uncertainties of the ocean heat content estimation induced by insufficient vertical resolution of historical ocean subsurface observations. J Atm Oceanic Tech 31: 1383–1396

13. Cheng L, Zhu J, Cowley R et al (2014a) Time, probe type, and temperature variable bias corrections to historical expendable bathythermograph observations. J Atm Oceanic Tech 31: 1793–1825

14. Cheng L, Zheng F, Zhu J (2014b) Distinctive ocean interior changes during the recent climate hiatus. Geophys Res Lett submitted

15. Cowtan K, Way RG (2014) Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends. Quart J R Meteot Soc 140: 1934-1944

16. Fyfe JC, Gillet NP, Zwiers FW (2013) Overestimated global warming over the past 20 years. Nat Clim Change 3: 767-769

17. Chung CE, Cha H, Vilma T et al (2013) On the possibilities to use atmospheric reanalyses to evaluate the warming structure of the Arctic. Atmos Chem Phys 13: 11209-11219

18. Kaufmann RK, Kauppi H, Stock JH (2011) Reconciling anthropogenic climate change with observed temperature 1998-2008. Proc Natl Acad Sci USA 108: 11790-11793

19. Kühn T, Partanen A-I, Laakso A et al(2014) Climate impacts of changing aerosol emissions since 1996. Geophys ResLett 41: 4711-4718

20. Neely RR, Toon OB, Solomon S et al (2013) Recent anthropogenic increases in SO2 from Asia have minimal impact on stratospheric aerosol. Geophys Res Lett 40. doi: 10.1002/grl.50263

21. Santer BD, Bonfils C, Painter JF et al (2014) Volcanic contribution to decadal changes in tropospheric temperature. Nat Geosci 7:185-189

22. Haywood J, Jones A, Jones GS (2014) The impact of volcanic eruptions in the period 2000-2013 on global mean temperature trends evaluated in the HadGEM2-ES climate model. Atmos Sci Lett 15: 92-96

23. Stauning P (2014) Reduced solar activity disguises global temperature rise, Atmos Clim Sci 4: 60-63

24. Estrada F, Perron P, Martinez-Lopez B (2013) Statistically derived contributions of diverse human influences to twentieth-century temperature changes. Nat Geosci 6: 1050–1055

25. Solomon S, Rosenlof KH, Portmann RW et al(2010) Contributions of stratospheric water vapor to decadal changes of global warming. Science 327: 1219-1223

26. England MH, McGregor S, Spence P et al (2014) Recent intensification of wind-driven circulation in the Pacific and the ongoing warming hiatus. Nat Clim Change 4: 222-227

27. Vecchi ga, Soden BJ, Wittenberg AT, et al (2006) Weakening of tropical Pacific atmospheric circulation due to anthropogenic forcing. Nature 441: 73-76.

28. Glaze Wyatt M, Curry JA (2013) Role for Eurasian Arctic shelf sea ice in a secularly varying hemispheric climate signal during the 20th century. Clim Dyn 42: 2763-2782

29. Schmidt GA, Shindell DT, Tsigaridis K (2014) Reconciling warming trends. Nat Geosci 7(158-160). doi: 10.1038/ngeo2105

30. Ehn M, Thornton JA, Kleist E, et al (2014) A large source of low-volatility secondary organic aerosol. Nature 506:476-479

31. Watanabe M, Shiogama H, Tatebe H et al (2014) Contribution of natural decadal variability to global warming acceleration and hiatus. Nat Clim Change 4: 893–897

32. Lovejoy S (2014) Return periods of global climate fluctuations and the pause. Geophys Res Lett 41:4704-47

33. Sillmann, J, Donat MG, Fyfe JC et al (2014) Observed and simulated temperature extremes during the recent warming. Environ Res Lett 9. doi: 10.1088/1748-9326/9/6/064023

34. Risbey J, Lewandowsky S, Langlais C,et al (2014) Nat Clim Change 4:835-840

35. Guemas V, Doblas-Reyes FJ, Andreu-Burillo I et al (2013) Retrospective prediction of the global warming slowdown in the past decade. Nat Clim Change 3:649-653

36. Maher N, Sen Gupta A, England MH (2014) Drivers of decadal hiatus periods in the 20th and 21st centuries. Geophys Res Lett 41:5978-5986

37. Trenberth KE, Fasullo JT, Branstator G et al (2014) Seasonal aspects of the recent pause in surface warming. Nat Clim Change 4: 911–916

38. Dong L, Zhou T (2014) The formation of the recent cooling in the eastern tropical Pacific Ocean and the associated climate impacts: a competition of global warming, IPO and AMO. J Geophys Res doi: 10.1002/2013JD021395

39. Schleussner CF, Runge J, Lehmann J, et al (2014) The role of the North Atlantic overturning and deep ocean for multi-decadal global-mean-temperature variability. Earth Sys Dyn 5:103-115

40. Rahimzadeh F, Sanchez-Lorenzo A, Hamedi M, et al (2014) New evidence on the dimming/brightening phenomenon and decreasing diurnal temperature range in Iran (1961-2009). Int J Climatol doi: 10.1002/joc.4107

41. Banholzer S, Donner S (2014) The influence of different El Nino types on global average temperature. Geophys Res Lett 41:2093–2099

42. Kosaka Y, Xie SP (2013) Recent global-warming hiatus tied to equatorial Pacific surface cooling. Nature 501: 403–407

43. McGregor S, Timmermann A, Stuecker MF, England MH, Merrifield M, Jin FF, Chikamoto Y (2014) Recent Walker circulation strengthening and Pacific cooling amplified by Atlantic warming. Nature Clim. Change 4:888-892. doi: 10.1039/nclimate2330

44. Huber M, Knutti R (2014) Natural variability, radiative forcing and climate response in the recent hiatus reconciled. Nat Geosci 7: 651–656

45. Hansen J, Sato M, Kharecha PK, et al(2011) Earth’s energy imbalance and implications. Atmos. Chem Phys 11:13421-13449.

46. Maclas D, Stips A, Garcia-Gorriz E (2014) Application of the Singular Spectrum Analysis Technique to Study the Hiatus on the Global Surface Temperature Record. Plos One. doi: 10.1371/journal.pone.0107222

47. Meehl, GA, Teng H (2014) CMIP5 multi-model hindcasts for the mid-1970s shift and early 200s hiatus and predictions for 2016-2035. Geophys. Res. Lett. 41(5):17y11-1716

Link: http://wattsupwiththat.com/2015/01/03/the-great-pause-lengthens-again/

Übersetzt von Chris Frey EIKE




„Versauern“ die Ozeane? Die pHälschung!

Anmerkung: Der aktuelle Anlass für diesen Artikel ist eine Veröffentlichung auf einem US-Blog, die auf WUWT auszugsweise wiedergegeben, und dann von EIKE als Übersetzung publiziert wurde. Im Zentrum stehen Betrügereien mit pH-Werten von Meerwasser. Was zunächst mit dem englischen Wortspiel „pHraud“ bezeichnet wurde, lässt sich gut ins deutsche Wortspiel „pHälschung“ übertragen. Hier gehen wir auf die physikalischen, chemischen und biologischen Fakten ein, schauen uns diese pHälschung nochmal genauer an, und suchen (vergeblich) nach Belegen für die Gefahren von CO2 im Meerwasser. Dabei fällt die Wechselwirkung zwischen pH, Temperatur und CO2 auf.

Kohlendioxid (CO2) ist in der globalen Atmosphäre einigermaßen gleichmäßig verteilt (s. auch  Abbildung) und bleibt es, ganz anders als Wasserdampf, der sich gelegentlich zu einer Wolke wandelt, oder gar als Regen wieder auf die Erde zurück kommt.

An Land nutzen die Pflanzen das CO2 als Gas direkt aus der Luft und stellen per Photosynthese daraus die Kohlenhydrate Zucker, Stärke und Zellulose her. Es ist essentiell für alles Leben auf Erden. Das Pflanzenwachstum, und damit die weltweite landwirtschaftliche Produktion von Nahrungsmitteln, würde sogar von einem Mehrfachen der heutigen CO2 Konzentrationen profitieren. Allerdings sei das CO2 in der Atmosphäre für die per Computermodell vorhergesagte „katastrophale Erwärmung“ der Erde verantwortlich (was jedoch in realen Messdaten nicht sichtbar wird).

Im Wasser wird es komplizierter. Zunächst einmal wird das CO2 im Wasser physikalisch gelöst, so wie man Salz oder Zucker in Wasser auflösen kann und wie auch andere Gase gelöst werden. Bekanntermaßen ist auch Sauerstoff (O2) im Wasser physikalisch gelöst und die Fische können über ihre Kiemen diesen Sauerstoff „einatmen“. Auch Wasserpflanzen, wozu auch Mikroalgen gehören, können mit dem gelösten CO2 Photosynthese betreiben.

Anders als bei O2 reagiert jedoch eine kleine Menge (~1%) des zunächst physikalisch gelösten CO2 mit dem Wasser chemisch unter Bildung von „Kohlensäure“, wodurch das Wasser saurer wird.

In noch einem weiteren chemischen Schritt geschieht die Karbonatbildung; überwiegend in der Form von Calciumcarbonat (CaCO3, Kalkstein). Dies kann als chemischer Prozess ablaufen, der nichts mehr als die Gegenwart von Calcium-Ionen und Kohlensäure benötigt, wobei das gebildete, schwer lösliche Calciumcarbonat ausfällt und auf den Meeresboden absinkt. Oder es kann ein biologischer Prozess sein, bei dem Korallen, Muscheln und andere Organismen ihre harten Schalen bilden, und nach ihrem Absterben Teil der Kalksteinschicht werden. Über lange Zeiträume und nachfolgende geologische Verwerfungen führt dies zur Bildung von Kalksteingebirgen.

Allerdings ist dieser Schritt, chemisch wie auch biologisch, nur bis zu einem bestimmten Säuregrad möglich; ist das Meerwasser wesentlich saurer könnte er sogar rückwärts laufen, und eine Auflösung des Kalks zur Folge haben. Entsprechend fatal wären die Konsequenzen für die davon abhängigen Organismen.

Den Säuregrad misst  man als pH-Wert, was relativ einfach zu machen ist.

Was eigentlich ist pH-Wert? Und was ist Säure?

 

Wasser ist bekanntlich H2O und ein energetisch stabiles Molekül, das man nur unter Energiezufuhr (z.B. Elektrolyse mit elektrischem Strom) zerlegen kann. Aber etwa jedes 100 Millionste Wassermolekül dissoziiert (zerfällt) auf natürliche Weise in die elektrisch positiv bzw. negativ geladenen Ionen H+ und OH- [1]). Diese Ionen haben dann beide eine Konzentration von 10-7 mol pro liter Wasser. Der pH-Wert [2]) ist somit 7 ( = der negative Wert des Exponenten der H+ Ionen Konzentration). An diesem Punkt ist Wasser neutral. Gibt es mehr H+ Ionen, dann ist die Flüssigkeit eine Säure, der pH-Wert ist kleiner als 7. Im anderen Fall von weniger H+ Ionen Konzentration ist die Flüssigkeit eine Lauge, der pH-Wert ist größer als 7.

Sprachlich ist zu beachten, dass eine Säure „sauer“ ist, aber eine Lauge „alkalisch“ [3]).

Beispiele für pH-Werte

 

Um ein Gefühl für pH-Werte aus unserem täglichen Leben zu bekommen, sind in  Abbildung ein paar pH-Werte gezeigt. Leitungswasser ist meist (aber nicht unbedingt) nahe dem Neutralpunkt. Auf der sauren Seite folgen Regen, Bier, Cola, Magensäure und Batteriesäure. Letztere kann auch negative pH-Werte haben. Auf der alkalischen Seite folgen Blut, Bauchspeicheldrüsensekret, Naturseife, und ganz extrem Ätznatron oder darauf basierende „Abflussreiniger“, die Fette und Proteine (Haare bestehen aus Proteinen) auflösen können.

Auch wenn unser Körper von Verdauungstrakt bis Hautoberfläche einen Bereich von pH=1 bis pH=10 verträgt – das ist immerhin ein 1 Milliarden-facher Unterschied bezogen auf die H+ Ionen Konzentration – toleriert unser Blut dagegen nur äußerst enge Grenzen von pH=7.37-7.45 [4]), also im leicht alkalischen Bereich. Werte außerhalb dieses sehr schmalen Bereiches sind bereits krankhaft!

Abbildung SEQ Abbildung * ARABIC1: pH-Wert Skala

Zellkulturen, die gerne als Wundertechnologie zum Ersatz von Tierversuchen zur Prüfung von Medikamenten gepriesen werden, oder die zur biotechnologischen Herstellung von Medikamenten wie Immunglobulinen eingesetzt werden, wollen in ihrer Nährlösung einen pH-Wert innerhalb des immer noch engen Bereiches von 7.0-7.4 haben, also neutral bis ebenfalls leicht alkalisch. Andere Mikroorganismen können bei anderen pH-Werten existieren – Backhefe z.B. um pH=5 (also sauer). Für optimales Wachstum werden eher enge pH Bereiche benötigt, wenngleich tendenziell die Organismen um so toleranter sind, je primitiver sie sind.

Es ist daher zunächst einmal durchaus denkbar, dass die heutzutage im Wasser lebenden Tiere sich evolutionär so an ihre Umgebung angepasst haben, dass sie nunmehr sehr empfindlich auf pH Veränderungen reagieren!

Wie beeinflusst CO2 den pH-Wert von Wasser?

 

Ist (Mineral-)Wasser mit CO2 versetzt (umgangssprachlich: „mit Kohlensäure“), ist es erwartungsgemäß saurer als Leitungswasser. Überraschenderweise ist aber Meerwasser alkalisch, obwohl es doch angeblich durch das CO2 der Atmosphäre versauert.

Der Grund liegt in dem chemischen Verhalten von CO2 im Wasser. Die folgende chemische Gleichung zeigt das Gleichgewicht von im Wasser gelöstem CO2 (links) zur Kohlensäure (H2CO3), die sofort in das Hydrogencarbonat- und Wasserstoff-Ion dissoziiert, und schließlich zum Carbonat-Ion und weiteren Wasserstoff-Ionen. Die Verteilung der Komponenten auf die einzelnen Stufen zwischen links und rechts hängt sehr stark von pH-Wert, Temperatur und den Konzentrationen der einzelnen Komponenten ab.

Damit besteht ein Puffersystem. Im Zusammenwirken mit weiteren, zum Teil ebenfalls puffernden, Bestandteilen des Meerwassers (eine Vielzahl verschiedener Salze in deutlich höherer Konzentration als im Leitungswasser, sowie diverse organische Komponenten) kann die Pufferwirkung verstärkt, und der pH Wert verschoben werden.

Im Fall von Meerwasser ist der pH in den leicht alkalischen Bereich verschoben. Die Pufferung bedeutet weiter, dass die den pH verschiebenden Substanzen – wie CO2 – nicht zur vollen Wirkung gelangen können. Nehmen wir an, dass eine bestimmte Menge CO2 den pH von Leitungswasser um 1 Einheit saurer macht, dann könnte die gleiche Menge CO2 den pH von Meerwasser, dank dessen Pufferung, möglicherweise nur um Werte verschieben, die wesentlich geringer oder gar unmessbar klein sind. Diese Pufferwirkung ist auch der Grund, weswegen der pH Wert im Blut überhaupt in seinem sehr engen Bereich gehalten werden kann.

Da Meerwasser aber sehr komplex ist, weltweit in seiner Zusammensetzung variieren kann, und das ganze System dann auch noch von Temperatur und Druck (durch die Meerestiefe) abhängig ist, ist es höchst schwierig, die Auswirkungen einer CO2 Erhöhung theoretisch vorherzusagen.

Klimaforscher haben es dennoch getan, und wie wir sehen werden, scheitern sie auch mit diesen Ozean pH Modellen so eklatant, wie sie es mit der Vorhersage der Globalen Erwärmung tun.

Was sagen die „Klimaforscher“ zur „Versauerung“ der Ozeane?

 

Der Amerikaner Richard A. Feely und seine Mitarbeiter haben sich insbesondere mit Arbeiten zur angeblichen Ozeanversauerung hervorgetan. In der Publikation „CO2 und unser Ozean Vermächtnis“ (2006), die von der amerikanischen Ozean und Atmosphären Behörde (NOAA, National Oceanic and Atmospheric Administration)

Abbildung SEQ Abbildung * ARABIC2: Historischer und vorhergesagter Trend von pH und gelöstem CO2 des Meerwassers

Demnach ist der pH seit dem Beginn der industriellen Revolution um 1850 bis heute gleichmäßig von 8.16 auf 8.05 gesunken, und wird bis 2100 auf pH=7.85 sinken. Weiter führen sie aus, wie verheerend sich dies auf die Meereslebewesen auswirken wird, und wie verheerend dies dann für die Menschen sein wird.

Diese verheerenden Wirkungen kämen daher, dass Meeresorganismen bei zu niedrigem pH keine Schalen und/oder Skelette aus Calciumcarbonat mehr bilden könnten, und dann nicht mehr als Nahrung für höhere Organismen zur Verfügung stünden. So könnten substantielle Änderungen in der Biodiversität der Ozeane resultieren, die letztlich den Fischfang bedrohen und damit die menschliche Nahrungsversorgung und die gesamte damit zusammenhängende Wirtschaft, und ebenso den milliardenschweren Tourismus, und alle an diesen Industrien hängenden Arbeitsplätze. Weiter werden verschwindende Korallenriffe die Küsten stärker den Stürmen aussetzen, mit wiederum gravierenden Folgeschäden. Bereits in der Mitte dieses Jahrhunderts wird es beginnen.

Gegenwärtig, so die Autoren, verändere sich die Meeres Chemie „100mal schneller als in den vergangenen 650 000 Jahren“ und „Computer Modelle (!) zeigen, dass der Ozean mit seiner Versauerung fortfahren wird und zwar in einem Ausmaß und in Geschwindigkeiten, wie sie seit mehreren 10 Millionen Jahren nicht stattfanden“.

Man beachte, dass selbst in der Vorhersage für das Jahr 2100 ein pH von 7.85 oder gar 7.65 [5]) nicht sauer ist, sondern immer noch alkalisch! Das Wort Meeres-Versauerung (engl.: Ocean Acidification) suggeriert ätzende Säuregrade von Essig oder gar Batteriesäure – dem ist beileibe nicht so.

Aber es bleibt immerhin denkbar, dass Meeresorganismen bereits mit diesen leichten Veränderungen der pH Werte Probleme bekommen, selbst wenn diese noch nicht einmal im sauren, sondern noch immer im alkalischen Bereich liegen.

Abbildung SEQ Abbildung * ARABIC3: CO2 in Atmosphäre und Meerwasser und pH des Meerwassers

Die Messdaten, die Feely’s Klimamodell-Kurven bestätigen sollen, finden sich ebenfalls auf den NOAA Servern, und sind in  Abbildung gezeigt. Die wellige, braune Kurve stellt die bekannten atmosphärischen CO2 Werte dar, wie sie von der Messstation auf dem Vulkan Mauna Loa auf Hawaii gemessen werden. Die dunkelblaue Kurve zeigt den Partialdruck des Meerwasser CO2, also der im Meerwasser gelösten Menge an CO2. Die hellblaue Kurve zeigt den daraus angeblich resultierenden pH im Meerwasser. Der hätte danach von pH=8.112 im Jahre 1989 auf pH=8.081 in 2007, also um 0.03 pH Einheiten abgenommen (Werte von mir aus der Grafik abgelesen. Die durch die Skala suggerierte Messung von hundertstel pH Einheiten im Meer ist gewiss als „sehr sportlich“ zu bezeichnen; nicht einmal im Labor ist das einfach!)

Es fällt auf, dass die NOAA Daten erst 1989 beginnen. Moderne pH Messungen werden mit Glaselektroden durchgeführt, und da diese bereits seit etwa 100 Jahren bekannt sind, ist das Fehlen früherer Messungen besonders merkwürdig. Das fiel auch dem Amerikaner Mike Wallace auf, der Feely und Kollegen um die fehlenden Daten bat. Die dann folgende Odyssee von ignorieren, bedrohen, verweigern und belügen können Sie in dem bereits eingangs erwähnten Artikel nachlesen.

Auch hier beim Meeres-pH wurde die Herausgabe der Daten verweigert, am Ende gar mit der Behauptung, dass sie nicht existierten. Letztlich tauchten sie aber – wohl eher unbeabsichtigt – durch die Freigabe einer Datenbank durch NOAA auf. Aus diesen mehr als 1.5 Mio (!) Messdaten entwickelte Wallace die in  Abbildung gezeigte Kurve.

Abbildung SEQ Abbildung * ARABIC4: Meeres pH seit 2010 basierend auf NOAA Daten

Die Sternchen stellen die jährlichem pH Mittelwerte der letzten 100 Jahre für Meerestiefen bis 200m dar. Die dünne, hellblaue Kurve ist der gleitende Mittelwert über 10 Jahre. Die dicke, dunkelblaue Kurve gibt den 100 Jahre Trend. Die blass-rote Kurve ist die rote pH Kurve aus der Feely Grafik in  Abbildung. Die kurze, dicke, rote Kurve ist von mir eingezeichnet, und stellt die Regressionsgerade der hellblauen pH Daten aus  Abbildung dar.

Daraus können folgende Schlussfolgerungen gezogen werden:

  • Die pH Veränderungen, die nach Feely die größten seit 650 000 Jahren seien, sind kleiner als die in gerade einmal den letzten 100 Jahren mehrfach beobachteten.
  • Die Schnelligkeit der Veränderungen der Feely Daten ist nicht etwa 100mal schneller als seit 650 000 Jahren beobachtet, sondern beträchtlich langsamer als Veränderungen mit ca. 10 Jahren Zeitkonstante in den letzten 100 Jahren.
  • Über den 100 Jahre Zeitraum nimmt der pH nicht etwa ab, sondern im Mittel nimmt er zu. Mithin also keine „Versauerung“, sondern das Gegenteil!
  • Da der CO2 Gehalt der Atmosphäre erst seit 1950 kräftig gestiegen ist, müsste die Kurve vor und nach diesem Zeitpunkt ein anderes Verhalten zeigen. Das tut sie aber nicht. Der pH Wert ist heute so niedrig, wie um 1920 oder auch 1960, und dazwischen jeweils deutlich höher.
  • Die pH Veränderungen, die NOAA auf ihrer Webseite zeigt ( Abbildung) sind lächerlich klein und bedeutungslos angesichts der Schwankungen, die tatsächlich über 100 Jahre gemessen wurden.
  • Die Computermodelle liegen wieder einmal kräftig daneben.

Der Vorgang erinnert in nahezu jedem Detail ungemein an die Climategate Ereignisse, wie die Behauptung, dass die Erde für Jahrtausende konstante Temperaturen – jetzt eben pH Werte – hatte, und diese erst in der Neuzeit verrückt spielen, und die Verweigerung der Preisgabe von Daten, die Rosinen Pickerei in den Daten, die Geheimhaltung von ausgewählten Teilen der Daten, die nicht passten, die Behauptung der Nicht-Existenz der Daten, die Verleihung von gut dotierten „Wissenschaftspreisen“ – dort der Nobelpreis, hier der Ketchup-Preis [6]) – , das Ignorieren von Freedom-of-Information-Act Anfragen, der Vehemenz, mit der die Herausgabe von Daten verweigert wurde, die Bedrohungen der danach fragenden Wissenschaftler, die Nutzung von Computermodellen, die die Vorhersagen selbstverständlich mit „einem hohen Maß von Zuverlässigkeit“ vorhergesagt haben, und mehr.

Feely et al. und/oder NOAA haben sehr klar durch die Selektion der Daten für den kurzen Zeitraum von nur knapp 20 Jahren, dabei nicht einmal zu erwähnen, dass längerfristige Daten vorliegen, in Verbindung mit der nahezu maßlosen quantitativen Übertreibung angeblicher Folgeeffekte, was Ihnen durch Kenntnis der weggelassenen Daten klar sein musste, eine mehrfache wissenschaftliche Fälschung begangen, eben eine pHälschung!

Der Climategate Skandal wird nun also ergänzt mit dem Acidificationgate Skandal. Interessant könnte es noch werden, da Feely auch als Zeuge vor dem US-Kongress ausgesagt, und dabei die gleichen Falschaussagen gemacht hat. Belogen zu werden hat der Kongress nicht gerne, obwohl politische Korrektheit auch dort für viel Weißwascherei sorgt. Nun aber werden die Republikaner demnächst die Majorität stellen und sind zum „Klimawandel“ wesentlich skeptischer eingestellt, als die Demokraten. Schaun mer mal.

Wie reagieren denn nun die Meerestiere auf pH Änderungen?

 

Vor lauter Klimaaktivismus sind Feely et al. doch wenig substantiell geblieben, wenn es darum geht, diese angeblich verheerenden Auswirkungen mit Daten zu belegen. Es wäre aber doch schön, könnte man feststellen, ob überhaupt und wenn ja, wie, Meerestiere auf pH Veränderungen reagieren und wo die Grenzen liegen.

Angesichts der bereits beobachteten pH Schwankungen, die so groß oder größer sind, als die aus Klimamodellen erwarteten und dem bisherigen Überleben der Meeresfauna und -flora kann man zunächst wohl nur sagen, dass trotz pH Schwankungen der letzten 100 Jahre innerhalb des ganzen, als verheerend behaupteten Bereichs, verheerende Auswirkungen nicht beobachtet wurden. Prüfen wir aber ein paar weitere Daten.

Dazu schauen wir uns eine Karte der Meeres pH Werte ( Abbildung) an, gemessen im Februar 2005. Gemäß Farbskala wird der Bereich von 7.74 bis 8.40 abgedeckt, also wiederum der gesamten „verheerenden“ Bereich. Folglich gilt nicht nur, dass der pH zeitlich über Jahre in diesem Bereich schwankt, auch zu jedem Zeitpunkt scheint es Unterschiede der gleichen Größe je nach Meeresregion zu geben.

Abbildung SEQ Abbildung * ARABIC5: Karte der Meeres pH Werte (Februar 2005)

Quelle: Columbia’s Lamont-Doherty Earth Observatory


Dabei sind regionale Unterschiede auffällig: In Äquatornähe sieht man ein pH Band von etwa 8.03-8.05. Nördlich und südlich Bänder um 8.08-8.14, homogener im Norden als im Süden. Ganz im Norden dann die niedrigsten Werte bis herunter zu 7.74, und ganz im Süden die höchsten bis 8.40. Aus dem Text kann man entnehmen, dass dies typisch für Winter auf der Nord-Halbkugel ist, und die in dieser Messung extremen pH Werte im Norden bzw. Süden sich durch die jeweiligen Temperaturen einstellen. Mithin schwanken die pH Werte um so mehr, je näher man den Polen kommt.

Macht es angesichts dieser globalen Unterschiede überhaupt Sinn, einen mittleren globalen pH-Wert zu bestimmen?

Dass die pH Werte in der Wärme höher sind als in der Kälte finden auch Ajioka et al. [7]) bei Messungen an einem Süßwasser See. Ein Auszug der Daten ist in  Abbildung gezeigt. Im Winter wird an der Oberfläche bei ~8°C ein pH von 7.6 erreicht, im Sommer bei ~26°C ein pH von 8.8. Mit zunehmender Wassertiefe zeigen Temperaturen und pH geringer werdende Schwankungen, und nehmen in etwa die Winterverhältnisse an.

Abbildung SEQ Abbildung * ARABIC6: Sommer, Winter pH und T Messungen an einem See

Das heißt dann aber auch, dass die Wasserorganismen, im Meer oder im Süßwasser, aber am Ort ihres Aufenthalts, im jahreszeitlichen Wechsel pH Schwankungen von sogar mehr als dem „verheerenden“ Bereich erfahren.

Das Monterey Bay Meerwasser Aquarium (Kalifornien, USA) misst seit Jahren den pH Wert des aus dem Meer in das Aquarium eingeleiteten Wassers (Quelle von Daten, Abbildung). Den Verlauf zeigt  Abbildung. Auch hier müssen die Organismen im Meer und im Aquarium mit pH Schwankungen von 7.75 bis 8.15 leben, wiederum so groß wie der „verheerende“ Bereich!

Offenkundig zeigen die Beobachtungen, dass die Organismen pH Schwankungen im „verheerenden“ im Bereich gut verkraften, ob diese sich nun über Jahre hinweg ändern, über die Jahreszeiten, oder durch lokale, regionale, oder globale Besonderheiten bedingt sind.

Labortests

Abbildung SEQ Abbildung * ARABIC7: pH Werte Monterey Bay Aquarium 1996-2008

Um die Reaktion von Korallen auf erhöhte CO2 Werte zu messen, sind verschiedene Labor Studien gemacht worden. Es wurden z.B.  Coccolithophore untersucht, die für ein drittel der marinen Kalksteinproduktion verantwortlich seien, und man fand, dass Kalkbildung und Produktivität bei höherer CO2 Konzentration signifikant höher war. In einer weiteren Studie fand man, dass die Koralle Lophelia pertusa sich in einigen Monaten an saurere Bedingungen anpassten und dann ebenfalls erhöhte Kalkbildung zeigte. Beide Male also das Gegenteil der Katastrophen-Behauptungen. Eine weitere Studie zeigte gemischte Ergebnisse, war allerdings so kurzfristig angelegt, dass möglicherweise noch keine Adaption der Meeres Organismen stattgefunden hatte. Es gibt noch viele weitere Studien [8]). Welche davon negative Effekte zeigte, trotz Berücksichtigung von Adaption, ist nicht einfach zu klären.

Historisch

 

In den letzten 300 Mio Jahren betrug die CO2 Konzentrationen in der Atmosphäre bis zum 15fachen der heutigen Werte (s.  Abbildung). Wenn erhöhtes CO2 durch Versauerung der Ozeane den kalkbildenden Organismen das Leben unmöglich gemacht hat, warum gibt es dann heute noch Kalksteingebirge und Fossilien mit Kalkschalen ?

Abbildung SEQ Abbildung * ARABIC8: CO2 in den letzten 300 Mio Jahren (kaltesonne.de)

Riffe sind Klimasünder

 

Und noch ein weiterer Effekt macht Vorhersagen komplizierter: In einem Riff findet Photosynthese durch die Algen statt, wodurch CO2 verbraucht wird. Gleichzeitig findet aber auch die Kalkbildung statt, wodurch CO2 erzeugt wird!

Die Calcifizierungs Gleichung zeigt es:           

Da Calcium carbonat (CaCO3, Kalkstein) in Wasser schwer löslich ist, fällt es aus. Dabei wird CO2 freigesetzt! Tatsächlich sind vitale Riffe insgesamt Quellen von CO2 [9]), tragen also zum CO2 Anstieg in der Atmosphäre bei!

Ein gut wachsendes Riff ist ein Klimasünder. Was tun wir dagegen?

Temperaturen

Wie beobachtet sind niedrige pH Werte mit niedrigen Temperaturen und hohe pH Werte mit hohen Temperaturen assoziiert sind und wenn eine „Globale Erwärmung“ auch die Meere erwärmt, müsste man doch folglich eine pH Erhöhung erwarten, also eine Alkalisierung und eben nicht eine Versauerung! Das passt zu der Tatsache, dass sich CO2 in kaltem Wasser besser löst als in warmen – öffnen Sie spaßeshalber mal eine gut vorgewärmte Flasche Mineralwasser!

Nur ist es nicht einfach zu sagen, was der Netto Effekt ist zwischen einer CO2 Erhöhung in der Atmosphäre, die den pH-Wert des Meerwassers tendenziell absenkt, und einer CO2-Ausgasung des Meeres, weil durch Erwärmung die Löslichkeit von CO2 sinkt. Und wie das Puffersystem auf das gleichzeitige Verändern von CO2 und Temperatur regiert.

Im Originalartikel wird darauf hingewiesen, dass Wallace in einem noch kommenden Artikel eine Korrelation der pH Werte mit der PDO (Pazifisch Dekadischen Oszillation) zeigen wird (kann ich aus den Daten bisher nicht erkennen [10])). Das gäbe einen starken Hinweis darauf, dass die pH Werte tatsächlich primär temperaturabhängig schwanken.

Für diese Vermutung sprechen auch die ersten Daten der amerikanischen OCO2 Satelliten Mission zur Messung der globalen CO2 Verteilung, gezeigt in  Abbildung. Die mittlere CO2 Konzentration schwankt nur um ±2%, ist also tatsächlich global ziemlich konstant. Auffällig sind niedrige Konzentrationen über Europa, insbesondere UK und Irland, und hohe in der Südhalbkugel, einschließlich der Meere. Könnte es sein, dass die Emissionen von Industrie, Verkehr und Privathaushalten unbedeutend ist im Vergleich zu natürlichen Schwankungen? Und das die CO2 Ausgasungen auf den Meeren der Südhalbkugel – dort ist Frühling zur Zeit dieses Messungen – auf Erwärmung zurückzuführen sind?

Überhaupt könnte der CO2-Anstieg der letzten 160 Jahre durch Entgasung aus dem Ozean dank stärkerer Sonnenaktivität erklärt werden, wobei CO2 nicht die Ursache sondern die Folge einer Temperaturerhöhung ist (weiteres hier, hier, hier, und hier).

Abbildung SEQ Abbildung * ARABIC9: Globale CO2 Konzentration per Satellit (Okt/Nov 2014)

Konklusion

  • Feely et al. haben durch das selektive Verwenden von Daten – was ihnen offenkundig bekannt war – eine pHälschung begangen, und darauf aufbauend wilde Behauptungen über die Folgen eines CO2 Anstiegs für die Meeresbiologie angestellt
  • Tatsächlich zeigen die Daten, dass Schwankungen um angeblich verheerenden Bereich normal, und in den letzten 100 Jahren mehrfach vorgekommen sind.
  • Außerdem treten diese Schwankungen in Gewässern im jahreszeitlichen Rhythmus auf, wodurch sich auch zumindest ein Teil der globalen Schwankungen erklären lässt.
  • Zumindest einige der potentiell betroffenen Organismen können sich adaptieren, und haben dann sogar Vorteile von einer solchen angeblich verheerenden Entwicklung.
  • Es gibt begründete Zweifel, dass die steigenden CO2 Emissionen durch Aktivitäten des Menschen bedingt sind. Auch zunehmende biologische Aktivität im Meer (und an Land) trägt zu den CO2 Emissionen bei.
  • Womöglich ist der ganze CO2 Anstieg nur eine Folge einer natürlichen Erwärmung,  und nicht etwa seine Ursache.

[1]   genauer: H3O+ statt H+. Auch müssten in der Folge Aktivitäten statt Konzentrationen genommen werden – aber diese Feinheiten übergehen wir hier. Für schwache Säuren und Laugen ist letzteres ohnehin bedeutungslos.

[2]   Das kleine „p“ in pH ist historisch bedingt, aber das H bezieht sich auf Wasserstoff. Entsprechend gibt es auch pOH für die OH–Ionen. Am Neutralpunkt ist pOH = pH = 7.

[3]   alternativ kann für Lauge auch das Wort „Base“ genommen werden, und statt alkalisch findet auch „basisch“ Verwendung. Das Wort Lauge kommt daher, dass eine klassische Seifenlauge einen alkalischen pH-Wert hat. Auch nimmt man Natronlauge, also Ätznatron (=NaOH) gelöst in Wasser, zum „Ablaugen“ von alten Möbelstücken. Das Wort „alkalisch“ rührt daher, dass Natrium (Na) zur Gruppe der Alkalimetalle (Li, Na, K, Rb, Cs) gehört, die alle mit Wasser starke Laugen bilden.

[4]   Pschyrembel Wörterbuch Pflege (2003), S. 517

[5]   im Text wird, anders als in der Grafik gezeigt, sogar ein Absinken auf pH=7.65 genannt

[6]   Feely erhielt in 2010 einen $100,000 Preis von der Heinz Family Foundation („Heinz-Ketchup“) der von Teresa Heinz, Ehefrau des US-Außenministers John Kerry), gegründet wurde,  für seine „maßgebenden Arbeiten zur Meeresversauerung“.

[7]   Water pH and temperature in Lake Biwa from MBT /CBT indices during the last 280 000 years, T. Ajioka et al., Clim. Past, 10, 1843–1855, 2014

[8]   Auf der Webseite http://www.co2science.org/data/acidification/background.php wird eine Datenbank mit Artikeln zur Wirkung einer Meeresversauerung geführt. Nach den Betreibern der Webseite spräche etwa die eine Hälfte der Artikel für eine Schädigung, die andere Hälfte dagegen. Gewissheit sieht anders aus.

[9]   Reef Water CO2 System and Carbon Production of Coral Reefs: Topographic Control of System-Level Performance, Atsushi SUZUKI and Hodaka K AWAHATA, Global Environmental Change in the Ocean and on Land, Eds., M. Shiyomi et al., pp. 229–248. (Download)

[10] Da aber der gegenwärtige Datensatz global ist, und PDO und das atlantische Gegenstück AMO (Atlantische Multidekadische Oszillation) um etwa 20 Jahre phasenverschoben sind, muss man wohl zumindest erst die pH Daten nach den Ozeanen aufschlüsseln. (Daten zu AMO, PDO, Korrelation mit Temperatur)

      




Kommentar zur Machbarkeitsstudie zu Wirkungen von Infraschall des Bundesumweltamtes

Vorgeschichte und maßgebende Versäumnisse der MSWI Studie

Die Gutachter haben es sich mit der Sichtung von über 1200  Veröffentlichungen nicht leicht gemacht. Davon wurden 166 kurz im Text zitiert, aber nur die drei des US-amerikanischen Neurobiologen Alec Salt /2/ ausführlich besprochen. Es handelt sich um den experimentellen Nachweis, dass die äußeren Haarzellen im Innenohr Druckwellen im IS-Bereich in elektrische Signale wandeln können. Damit bewies Salt die  Wahrnehmbarkeit des IS unterhalb der Hörschwelle. Man muss den Autoren der MSWI danken, dass sie dieser Arbeit so viel Raum einräumten, obwohl sie wissen mussten, dass  damit das Standardargument, IS sei unschädlich, da unhörbar, falsifiziert worden war.

Nur einer einzigen weiteren Beobachtung gaben die Gutachter vergleichbares Gewicht. Sie betonten immer wieder, dass als besonders belästigend  Tonhaltigkeit im IS-Bereich und Pegelschwankungen im tieffrequenten Hörbereich empfunden würden. Dabei lägen die Modulationsfrequenzen dieser Schwankungen (nicht die Frequenzen der Seitenbänder!) im Bereich um 1Hz, also ebenfalls im IS-Bereich. Nicht unwichtig sind auch die Hinweise, dass Personen, die in ländlichen Gegenden wohnen, die älter sind oder die langzeitlich von IS belastet wurden, von diesen Beschwerden besonders betroffen seien.

Eine systematische Dokumentation der Häufigkeit der im Zusammenhang mit IS berichteten Beschwerden wird man in der MSWI nicht finden. Erwähnt  werden Schlafstörungen als Leitsymptom, Kopfschmerzen, Angstgefühle, Schwindel- und Unbehaglichkeitsempfindungen, Auswirkungen auf Konzentration und Reaktionszeit, auf  Nervensystem und Gleichgewichtsorgane und insbesondere Depressionen, als nichtmentale Beeinträchtigungen auch Herz- und Kreislaufprobleme.  Die viel beachtete Arbeit der amerikanischen Kinderärztin N. Pearpont /3/ wird ignoriert. Diese zeigte in zehn Fallstudien, dass  ursprünglich gesunde Personen, die im Umkreis von Windrädern wohnten, nach deren Inbetriebnahme so stark  unter psychischen Störungen gelitten hätten, dass sie zusammen mit ihren Familien den Wohnsitz wechseln mussten. Danach wären die betreffenden Krankheitsbilder verschwunden. Es mag sein, dass die Beweiskraft der von Pearpont angewandten Methode nicht allzu hoch ist, aber eine ähnliche schlagen auch die Autoren der MSWI für weiterführende Studien vor.

Alle psychischen Dysfunktionen, die in der MSWI als auch in Pearponts Arbeit  aufgelistet wurden, sind seit jeher bei  Föhn beobachtet worden (s. Tab. 1). Aber erst vor 10 Jahren konnte die Münchner Meteorologin E. Wanka /4/ praktisch unwiderlegbar nachweisen, dass schmalbandiger IS das Vehikel ist, mit dem Föhn auf den menschlichen Organismus einwirkt. Diese Übereinstimmung mit den in der

Autor

MWSI /1/

Pearpont /3/

Faust /6/

Wanka /5/

Jahr

2014

2009

1976

2003

IS-Quelle

Beliebig

Windrad

(Wetter)

Föhn/Wetter

Frequenz (Hz)

0.1 – 10

0.1 – 10

0.001 – 0.1

0.001 – 0.1

Symptome

Schlafstörungen,

Tinnitus

Schlafstörungen,

Tinnitus

Schlafstörungen

Kopfschmerzen,

Unbehaglichkeit

Kopfschmerzen,

Übelkeit

Kopfschmerzen

Kopfschmerzen,

Migräne, Phantom-

Schmerzen

Konzentrations-

Schwächen

Konzentrations-,

Gedächtnis- und

Lernschwächen

Konzentrations- und

Gedächtnis-

Schwächen

Angst, Depression

Angst, Panik,

Depression

Nervosität, Angst,

depressive

Stimmung, Suizid

Psychiatrische Störung,

Suizidversuch, Suizid

Reizbarkeit, Zorn

Aggression

Herz- und Kreis-

Laufprobleme

Herzrasen

Herz- und Kreislauf-

Probleme

Herz- und Kreislauf-

Probleme

Tab. 1: Vergleichende Auflistung der Symptome, die in der MSWI /1/ und in den Veröffentlichungen von Pearpont /3/, Faust /5/ und Wanka /6/ mit Infraschall in Verbindung gebracht werden.

MSWI zitierten Ergebnissen ist sehr bemerkenswert. Weiterhin ist Wankas Arbeit zu entnehmen, dass sehr breitbandiger IS, also Rauschen, keine solche Wirkung hat. Man kann daraus folgern – soweit ging Wanka allerdings nicht – dass das Signal-Rausch-Verhältnis der eigentliche, bisher verborgene Parameter ist, zu dem die beobachteten Beschwerden korreliert sind. Mit dieser Hypothese kann auch die in der MSWI erwähnte besondere Sensibilität der ländlichen Bevölkerung erklärt werden: dort ist der Pegel des von (verkehrs-)technischen Einrichtungen emittierten IS-Rauschens niedrig, daher wird  bei vorgegebener Signalamplitude das Signal-Rausch-Verhältnis entsprechend größer. Bekannt ist auch, dass nach Oberbayern Zugezogene erst nach etwa 10 Jahren föhnempfindlich werden – ebenfalls eine Analogie zu der in der MSWI erwähnten  Sensibilisierung mit der Dauer der IS-Belastung.

Das experimentum crucis von Wanka

Insgesamt gleichen die Wirkungen und Wirkmechanismen des föhngenerierten IS denen des windradgenerierten so sehr, dass es nicht einsichtig ist, warum in der MSWI die statistisch gut abgesicherten Ergebnisse der Föhnstdien nicht berücksichtigt wurden. Formal erklärt dies die  Beschränkung der MSWI auf den Frequenzbereich 0,1 – 20 Hz. Wetterbedingte IS-Resonanzen werden aber eher im Bereich 0,001 – 0,1 Hz beobachtet. In diesen beiden Teilbereichen des IS werden die von den Haarzellen in elektrische Wellen transformierten Druckwellen dem Zentralhirn durch das Nervensystem zugeleitet .  Die Frequenzanalyse  im Hörbereich ist komplizierter und  stellt so ein charakteristisches  Merkmal bereit, das den IS-Bereich vom Hörbereich bei menschlichen Organismen  abgrenzt. Trotzdem wird in der MSWI immer wieder versucht, Vorstellungen, die sich im Hörbereich bewährt haben, auf das Problem der Gesundheitsgefährdung durch IS zu übertragen. So geht man dort  davon aus, dass höhere Frequenzanteile zu den bekannten Belästigungen führen und  dass der Beitrag des IS auf eine Herabsetzung  der Hörschwelle bei einigen Personen beschränkt ist. Damit jedoch bleibt unverständlich, warum breitbandiger IS  (Rauschen) unschädlich, schmalbandiger aber schädlich ist.

Wesentlich plausibler scheint eine Hypothese zu sein, deren Bruchstücke vor allem im Internet zu finden sind und die die Bedeutung des IS für die Evolution unterstreicht. Sie lässt sich mit folgender Wirkungskette skizzieren: Erzeugung von IS durch die Schrittfolge eines Feindes – Wahrnehmung durch die äußeren Haarzellen oder das Gleichgewichtsorgan –  Interpretation durch das Zentralnervensystem als Bedrohung –  Schlaflosigkeit (besser erhöhte Wachsamkeit und Aufmerksamkeit) – Fight orflight bzw. Aggression oder Depression. Im Laufe der Evolution hat erst diese Art der Wahrnehmung den Fluchttieren das Überleben ermöglicht. Allgemein gilt, dass einfach strukturierte Signale, die sich mit großem aber konstantem  Zeitabstand wiederholen, vom Zentralnervensystem als Bedrohung interpretiert werden. So haben vom IS um den Schlaf Gebrachte den Eindruck, Einbrecher seien im Hause /3/. Im weiteren Sinne fällt unter dieser Kategorie die Unüberhörbarkeit der akustischen Warnsignale von Polizei-, Feuerwehr- und Rettungsdienstfahrzeugen, die Unübersehbarkeit der optischen Blinksignale bei Baustellen, Bahnübergängen und Leuchttürmen sowie die Unerträglichkeit eines tropfenden Wasserhahnes.   

Der MSWI sind quantitative Zusammenhänge zwischen IS-Pegel und Häufigkeit bestimmter Beschwerden nicht zu entnehmen. Trotzdem haben die Gutachter für die Dimensionierung von Experimenten, die diese Kenntnisse liefern sollen, präzise Vorstellungen. Die vorgeschlagene Zahl von Probanden ist jedoch viel zu klein, um Beschwerden außer Schlaflosigkeit und vielleicht noch Tinnitus nachzuweisen. Ein Blick in Wankas Diplomarbeit /5/ hätte geholfen. Auch ihr gelang es  nicht, durch Befragungen von  30 Probanden Korrelationen zwischen föhngeneriertem IS und Kopfschmerzen signifikant nachzuweisen. Erst mit ca. 1,5 Millionen Probanden, den Einwohnern von München und Umgebung, gelang ihr in einem natürlichen Experiment der Beweis, dass mit Föhn verknüpfter IS in München maximal eine Verdreifachung der durch Suizid, Suizidversuch oder psychische Störungen bedingten täglichen Rettungsdiensteinsätze bewirkt. Danach wären solche Folgen schwerster Depressionen bei ca. 0,1% des Bevölkerungsanteils, der windradgeneriertem IS ausgesetzt würde, zu erwarten. Da zumindest Suizid nicht als zumutbare Belästigung eingestuft werden kann, sollte dieser  Zahlenwert den Umfang der in der MSWI geplanten Stichproben bestimmen.

Obwohl alles darauf hinweist, dass das Phänomen der Gesundheitsgefährdung durch IS mit herkömmliche Theorien nicht erklärbar ist, wird im letzten Abschnitt der MSWI empfohlen, die Vorstellungen, die der TA Lärm und der DIN 45680 zugrunde liegen, mit minimalen Änderungen in die Neufassung dieser DIN-Vorschrift zu übernehmen. Etwas salopp ausgedrückt besagen diese Vorstellungen, solange IS nicht die Ohren betäubt und das Trommelfell zerreißt, sei er gesundheitlich unbedenklich. Darauf weist insbesondere die vorgesehene Streichung der Berücksichtigung einer Tonhaltigkeit hin sowie die Versuche, die Belästigungspotentiale von tieffrequentem Hörschall und von IS  gemeinsam durch eine Ein-Zahl-Bewertung zu charakterisieren.

Abschließende Bewertung der MSWI Studie

Die MSWI hinterlässt einen zwiespältigen Eindruck. Mit der Betonung der Wahrnehmbarkeit des IS weit unterhalb der Hörschwelle und der besonderen Wirksamkeit schmalbandiger IS-Signale stellt sie den Stand der Wissenschaft angemessen dar, soweit es sich um Wirkungsmechanismen handelt. Ebenfalls zeigt sie, dass die Ausbreitung des IS nicht prognostizierbar sei. Dagegen werden wesentliche  Veröffentlichungen über die gesundheitsschädigenden Wirkungen des IS ignoriert. Als machbar  wird  eine Befragung vorgeschlagen, die mit Sicherheit schwere Gesundheitsstörungen nicht erfassen wird. Abschließend wird dem Gesetzgeber ohne hinreichende Begründung bescheinigt, dass  geringfügige Anpassungen der geltenden Schallschutzverordnungen genügen würden, IS-Immissionen angemessen zu bewerten. Die sich zwingend ergebenden Konsequenzen werden verschwiegen: der bisherigen Genehmigungspraxis für WEA-Standorte sind nachträglich  die Grundlagen entzogen worden und  Planungen für geeignete Standorte sind nicht mehr möglich.               

Es  wäre naiv, dem Bundesumweltamt zu unterstellen, es wäre sich der Brisanz, aber auch der Mängel der MSWI nicht bewusst gewesen. Man erkennt dies am Fazit, das offensichtlich nicht die sachliche Handschrift der Gutachter trägt. Es lautet:

 Eine nachhaltige Konfliktbewältigung erfordert eine ganzheitliche Beurteilung, die Festlegung von Grenzwerten sowie standardisierte und genormte Prognoseverfahren. Pauschale Ansätze, die eine Prognosesituation mit dem Ziel einer Konfliktbewältigung einseitig überschätzen wie beispielsweise die Festlegung von Mindestabständen, erscheinen ohne fundierte wissenschaftliche Kenntnisse über die Wirkmechanismen als nicht sachgerecht.

Dieses Fazit wird der Bedeutung der MSWI in keiner Weise gerecht.  Die Behauptung, es gäbe keine fundierten Kenntnisse über dieWirkmechanismen ist grob irreführend und steht im Widerspruch zum Inhalt der MSWI. Die Festlegung von Mindestabständen steht sowieso nicht mehr auf der  Agenda, da, wie auch in der MSWI festgestellt wurde, die Ausbreitung von Infraschall nicht prognostizierbar ist. Die Verwendung des Begriffes  nachhaltige Konfliktbewältigung soll wohl suggerieren, dass die Bewertung der Ergebnisse der Studie im gesellschaftlichen Konsens erfolgen müsse, was hieße, das Grundrecht auf Leben und körperliche Unversehrtheit könne Gegenstand eines Interessenaus-gleiches sein. Sachgerecht  wäre der Nachweis der gesundheitlichen Unschädlichkeit von windradgeneriertem IS, den der Verursacher zu erbringen hätte. 

Die Umweltämter des Bundes und der Länder haben jahrelang die Öffentlichkeit und die aufsichtsführenden Ministerien mit der These, windradgenerierter Infraschall sei gesundheitlich unbedenklich, da unhörbar, in die Irre geführt. Von dieser These hat es sich das BUA jetzt  klammheimlich verabschiedet. Trotzdem sieht es keinen Anlass, den forcierten Ausbau der Energiegewinnung aus Windkraft in Frage zu stellen. Dabei wird nach meiner Ansicht eine stetig zunehmende Gesundheitsgefährdung vieler Bürger in Kauf genommen. Die vorgeschlagenen Feldstudien besitzen allenfalls eine Alibifunktion. Sie werden bestätigen, dass windradgenerierter Infraschall Schlafstörungen bewirkt, wobei man wahrscheinlich versuchen wird, diese als zumutbare Belästigungen einzustufen – in Guantanamo zählte Schlafentzug als hochwirksame Foltermethode. Die Auslegung jedoch wurde so bemessen, dass die wesentlich schwerwiegenderen Folgereaktionen  vermutlich unterhalb der Nachweisschwelle verbleiben werden.

Literatur:

/1/ Krahe, D., Schreckenberg, D., Ebner, F., Eulitz, C., Möhler, U.,  Machbarkeitsstudie zu Wirkungen des Infraschalls , (2014), www.umweltbundesamt.de (PDF) 
/2/ Salt, A.N. andHullar, T.E., Responses oftheeartolowfrequencysounds, infrasoundand windturbines, Hearing Research, (268) 12- 21 (2010) 
/3/ Pearpont, N., Wind turbinesyndrome, K-selected Books (2009)
/4/ Wanka, R. and P. Höppe, Human biometeorologicalrelevanceoflowfrequencyair
pressureoscillations,
Meteorologische Zeitschrift, 14, 279 -284 (2005)
/5/ Wanka, R., Messung und Analyse niederfrequenter Luftdruckschwankungen in München, Diplomarbeit LMU München (2003)
/6/ Faust, V. Biometeorologie, Hippokrates Verlag, Stuttgart (1976)

*Anschrift: Dr. Joachim Schlüter, Hohlenweg 8, 79410 Badenweiler, e-mail: schlueter-j@gmx.de




Das Rätsel der Eiszeiten XIV: Konzepte und Daten

January 30, 2014 by scienceofdoom

In früheren Beiträgen haben wir uns die Ideen über die Gründe für die Auslösung und Beendigung von Eiszeiten angesehen – und sie kritisiert. Als Ursache wurde die Einstrahlung in den hohen nördlichen Breiten ausgemacht. Diese Ideen sind bekannt unter dem Label „Milankovitch-Antriebe“. In der Regel habe ich dieses Konzept veranschaulicht, indem ich die Einstrahlungsdaten in bestimmten Breiten und in der einen oder anderen Form geplottet habe.

Die Einstrahlung auf verschiedenen Breiten hängt ab von Schiefe und Präzession (ebenso wie von der Exzentrizität). Schiefe ist die Neigung der Erdachse – die in Zyklen über etwa 40.000 Jahre variiert. Präzession ist die Verlagerung des Punktes der größten Annäherung (Perihel) und wie diese mit dem Sommer auf der Nordhemisphäre zusammenfällt – dies variiert mit einem Zyklus über etwa 20.000 Jahre. Der Effekt der Präzession wird modifiziert durch die Exzentrizität der Erdachse – die in einem Zyklus über etwa 100.000 Jahre variiert. Falls der Erdorbit ein perfekter Kreis wäre (Exzentrizität = 0), dann hätte die „Präzession“ keinerlei Auswirkungen, weil die Entfernung der Erde von der Sonne konstant wäre. Mit zunehmender Exzentrizität wird die Auswirkung der Präzession größer.

Wie kann man dies noch deutlicher machen? Peter Huybers gibt in seiner Studie 2007 eine gute Erklärung für Schiefe und Präzession zusammen mit einigen sehr interessanten Gedanken, die später in einem weiteren Artikel aufgegriffen werden. Die obere Graphik zeigt die mittleren Werte der Einstrahlung pro Breite und Tag des Jahres (über 2 Millionen Jahre). Die zweite Graphik zeigt die Anomalie im Vergleich mit dem Mittelwert zu Zeiten maximaler Schiefe. Die dritte Graphik zeigt die Anomalie im Vergleich zum Mittel zu Zeiten maximaler Präzession. Die Graphen rechts zeigen das jährliche Mittel dieser Werte:

 

Abbildung 1

Wir erkennen sofort, dass Zeiten maximaler Präzession (untere Graphik) kaum Auswirkungen auf die jährlichen Mittelwerte haben (rechte Seite der Graphik). Dies ist so, weil die Zunahme im Sommer und Herbst durch die korrespondierende Abnahme im Frühjahr kompensiert wird. Wir können aber auch sehen, dass Zeiten maximaler Schiefe (mittlere Graphik) TATSÄCHLICH Auswirkungen auf die jährlichen Mittelwerte haben (rechte Seite der Graphik). Die Gesamtenergie verschiebt sich von den Tropen zu den Polen. Ich habe versucht, jedoch nicht sehr effektiv, einiges hiervon (mit zu vielen Graphiken) im Teil V zu erklären:  Part Five – Obliquity & Precession Changes.

Hier folgt nun eine andere Art und Weise, dieses Konzept zu betrachten. Für die letzten 500.000 Jahre habe ich die Schiefe (blau) und Präzession modifiziert durch Exzentrizität (e sin w) (hellgrün) in der oberen Graphik geplottet und zusätzlich in der unteren Graphik die jährliche Anomalie in Abhängigkeit von Breite und Zeit. WordPress zwingt alles in 500 Pixel weite Graphiken, die nicht allzu hilfreich sind. Also klicke man darauf, um die HD-Version zu bekommen:

Abbildung 2 – click to expand

Man kann leicht erkennen, dass die Schiefe-Zyklen über 40.000 Jahre mit Anomalien in hohen Breiten (Nord und Süd) korrespondieren, was über ziemlich viele Perioden hinweg gutgeht. Wenn die Schiefe (blau) hoch ist, gibt es in den hohen Breiten der Nord- und Südhemisphäre eine Zunahme der jährlichen mittleren Einstrahlung. Falls wir die Präzession (grün) betrachten, sehen wir keine korrespondierende Änderung des jährlichen Mittels (weil die Zunahme in einer Jahreszeit zumeist durch die Abnahme in der anderen Jahreszeit kompensiert wird). Huybers Studie enthält noch viel mehr als das, und ich empfehle ihre Lektüre. Er verfügt über eine globale Proxy-Datenbasis über 2 Millionen Jahre, die nicht abhängig ist von „orbitalem Tuning“ (Anmerkung 1) und eine interessante Erklärung und Demonstration der Schiefe als dem dominanten Faktor bei der „Steuerung“ der Eiszeiten. Wir werden auf seine Darlegungen zurückkommen.

In der Zwischenzeit habe ich verschiedene Datenquellen gesammelt. Eine große Herausforderung bzgl. des Verständnisses von Eiszeiten ist, dass die Graphiken es in den verschiedenen Studien nicht zulassen in die interessierende Zeitperiode hineinzuzoomen. Ich gedachte, dem abzuhelfen, indem ich die Daten zur Verfügung stelle – und die Daten in High Definition vergleiche anstatt in Schnappschüssen von 800.000 Jahren auf einer halben Breite eines Standard-pdf. Es ist ein laufender Prozess. Die obere Graphik (unten) enthält zwei Versionen von Temperatur-Proxys. Eine ist Huybers globale Proxy aus dem Eisvolumen (δ18O) aus Tiefsee-Bohrkernen (olivgrün), während die andere eine lokale Proxy für die Temperatur (δD) aus dem antarktischen Eisbohrkern Dome C (75°S, blau) ist. Diese Örtlichkeit ist allgemein bekannt als EDC, d. h. EPICA Dome C. Die beiden Datensätze werden in den ihnen eigenen Zeitmaßstäben gezeigt (mehr zu Zeitmaßstäben weiter unten):

 

 Abbildung 3 – click to expand

Die mittlere Graphik zeigt CO2 (blau) und CH4 (grün) aus Dome C. Es ist erstaunlich, wie eng CO2 und CH4 mit den Temperatur-Proxys und untereinander zusammenhängen. (Die CO2-Daten stammen von Lüthi et al. 2008 und die CH4-Daten von Loulerge et al. 2008). Die untere Graphik zeigt die Schiefe (rot) und die jährliche Einstrahlungs-Anomalie (blau) im Breitenmittel zwischen 70°S und 90°S. Weil wir hier die jährliche Einstrahlungs-Anomalie betrachten, ist dieser Wert vollständig in Phase mit der Schiefe. Warum sind die beiden Datensätze in der oberen Graphik außer Phase? Noch weiß ich darauf keine vollständige Antwort. Offensichtlich ist die Verzögerung von der Atmosphäre in die Tiefsee ein Teil der Erklärung.

Hier folgt nun ein 500.000 Jahre-Vergleich von LR04 (Lisiecki & Raymo 2005) und Huybers Datensatz – beides Tiefsee-Bohrkerne – aber LR04 verwendet „orbitales Tuning“. Die zweite Graphik enthält Schiefe & Präzession (modifiziert durch Exzentrizität). Die dritte Graphik zeigt EDC aus der Antarktis:

 

  Abbildung 4 – click to expand

Jetzt zoomen wir auf die letzten 150.000 Jahre mit zwei antarktischen Eisbohrkernen in der oberen Graphik und NGRIP (Nordgrönland) in der unteren Graphik:

   Abbildung 5 – click to expand

Und hier nun sehen wir EDML (hochaufgelöster Antarktis-Bohrkern) im Vergleich zu NGRIP (Grönland) während der letzten 150.000 Jahre (NGRIP reicht nur 123.000 Jahre zurück) plus CO2 & CH4 aus EDC – erneut zeigt sich die enge Korrespondenz von CO2 und CH4 mit den Temperaturaufzeichnungen in beiden Polargebieten:

 Abbildung 6 – click to expand

Der Vergleich und der Bezug zu „abrupter Klimaänderung“ in Grönland und der Antarktis wurde von EPICA 2006 thematisiert (man beachte, dass die Zeitskala in entgegen gesetzter Richtung zu den Graphiken oben verläuft).

Bildinschrift: Aufzeichnungen stabiler Isotope in der Antarktis zeigen synchrone tausendjährige Variationen während der letzten Eiszeit, während rapide Variationen in Grönland auftraten. a) EDML  δ18O-Aufzeichnung (violett, Auflösung 0,5 m; Grau: 15 m gleitendes Mittel) nach der Korrektur von Meeresspiegel und stromaufwärts (siehe ergänzende Information) während der letzten 150.000 Jahre. Die Isotopen-Aufzeichnung zeigt Eigenarten ähnlich denen von EDC12 (blau) und Dome F13 (rosa), aber mit feinerer Struktur während MIS3 und MIS4. Wir bemerken, dass EDML und EDC geplottet sind im neuen allgemeinen EDC3-Zeitmaßstab (siehe ergänzende Information) während Dome F geplottet ist in seinem individuellen Zeitmaßstab. Die Temperaturachse auf der rechten Seite zeigt angenäherte Bodentemperaturen bei EDML, wie abgeleitet aus dem räumlichen Gradienten zwischen  δ18O und Temperatur. b) δ18O-Aufzeichnung des NGRIP-Eisbohrkerns (grau). c) Staubaufzeichnung en der Eisbohrkerne EDML (rot) und EDC12 (rosa) in einer Auflösung von 1000 Jahren; diese Staub-Aufzeichnungen wurden benutzt für die zeitliche Synchronisation der Bohrkerne.

aus EPICA 2006

Abbildung 7 – click to expand

Zeitmaßstäbe

Wie die meisten Studien einräumen, ist der Zugang zu Daten der genauesten „hypothesenfreien“ Zeitmaßstäbe der Heilige Gral der Eiszeit-Analyse. Allerdings gibt es keine hypothesefreien Zeitmaßstäbe. Aber es gab inzwischen viele Fortschritte. Huybers Zeitmaßstab basiert primär auf a) Sedimentierungs-Modellen, b) dem Zusammenbinden der verschiedenen identifizierten Zeitpunkte der Anfänge und Beendigungen für jede einzelne Proxy und c) der unabhängig datierten Brunhes-Matuyama-Umkehrung vor 780.000 Jahren. Der Zeitmaßstab von EDC (EPICA Dome C) basiert auf einer Vielfalt von Altersmarkierungen:

●Für die ersten 50.000 Jahre mit der Verbindung der Daten mit Grönland (via hoher Auflösung von CH4 in beiden Aufzeichnungen), die nach Schichten gezählt werden können, infolge viel höheren Niederschlags.

●Vulkanausbrüche

●10Be-Ereignisse (Be10 ist ein kosmisches Isotop, red. Anmerkung), die unabhängig datiert werden können

●Eisfluss-Modelle – wie Eis unter Druck fließt und komprimiert wird

●und schließlich „orbitales Tuning“

EDC2 war der Zeitmaßstab, mit dem die Daten im bahnbrechenden 2004 EPICA-Paper präsentiert worden sind. Diese 2004 Studie zeigte den EDC-Bohrkern zurück bis 800.000 Jahre (davor war der Vostok-Bohrkern am längsten, der 400.000 Jahre zurückreichte). Die EPICA 2006-Studie war dann der Dronning Maud Land Core (EDML), der einen kürzeren Zeitraum abdeckte (150.000 Jahre), jedoch mit höherer Auflösung, was eine bessere Abstimmung zwischen der Antarktis und Grönland ermöglichte. Dies führte schließlich zu dem verbesserten EDC3-Zeitmaßstab.

In einer technischen Studie zur Datierung zeigen Parannin et al. 2007 die Unterschiede zwischen EDC3 und EDC2 und auch zwischen EDC3 und LR04.

 

 Abbildung 8 – Click to Expand

Falls man also Daten hat, muss man den Zeitmaßstab kennen, in dem sie geplottet sind. Ich verfüge über den EDC3-Zeitmaßstab hinsichtlich Eisbohrkern-Tiefe, so dass ich als Nächstes die EDC-Temperatur-Proxy (δD) von EDC2 auf EDC3 bringen werde. Ich habe auch Staubwerte bzw. Eisbohrkern-Tiefen für den EDC-Bohrkern – Staub als eine weitere faszinierende Variable, die zum Höhepunkt von Eiszeiten etwa 25 mal stärker ist im Vergleich zu Zwischeneiszeiten – all dies erfordert die Konversion zum EDC3-Zeitmaßstab. Andere Daten enthalten u. A. noch weitere atmosphärische Komponenten. Dann verfüge ich über die NGRIP-Daten (Nordgrönland), die 123.000 Jahre zurückreichen, allerdings im ursprünglichen Zeitmaßstab von 2004, der dann in den GICC5-Zeitmaßstab übergeführt wurde. Mitte 2013 wurde schließlich ein neuer antarktischer Zeitmaßstab vorgeschlagen – AICC2012 – der alle antarktischen Bohrkerne in einen gemeinsamen Zeitmaßstab zusammenführt. Siehe Referenzen unten.

Conclusion

Dieser Artikel sollte Schiefe und Präzession in einer anderen und hoffentlich nützlicheren Weise beleuchten und am Anfang einige Daten in hoher Auflösung zeigen.

References

Glacial variability over the last two million years: an extended depth-derived agemodel, continuous obliquity pacing, and the Pleistocene progression, Peter Huybers, Quaternary Science Reviews (2007) – free paper

Eight glacial cycles from an Antarctic ice core, EPICA community members, Nature (2004) – free paper

One-to-one coupling of glacial climate variability in Greenland and Antarctica,  EPICA Community Members, Nature (2006) – free paper

High-resolution carbon dioxide concentration record 650,000–800,000 years before present, Lüthi et al, Nature (2008)

Orbital and millennial-scale features of atmospheric CH4 over the past 800,000 years, Loulergue et al, Nature (2008)

A Pliocene-Pleistocene stack of 57 globally distributed benthic D18O records, Lorraine Lisiecki & Maureen E. Raymo, Paleoceanography (2005) – free paper

The EDC3 chronology for the EPICA Dome C ice core, Parennin et al, Climate of the Past (2007) – free paper

An optimized multi-proxy, multi-site Antarctic ice and gas orbital chronology (AICC2012): 120–800 ka, L. Bazin et al, Climate of the Past (2013) – free paper

The Antarctic ice core chronology (AICC2012): an optimized multi-parameter and multi-site dating approach for the last 120 thousand years, D. Veres et al, Climate of the Past (2013) – free paper

Anmerkungen

Anmerkung 1 – See for example Thirteen – Terminator II, under the heading What is the basis for the SPECMAP dating? 

It is important to understand the assumptions built into every ice age database.

Huybers 2007 continues the work of HW04 (Huybers & Wunsch 2004) which attempts to produce a global proxy datbase (a proxy for global ice volume) without any assumptions relating to the “Milankovitch theory”.

Link: http://scienceofdoom.com/2014/01/30/ghosts-of-climates-past-fourteen-concepts-hd-data/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/

Teil XII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xii-gcm-v-wie-enden-eiszeiten/

Teil XIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-xiii-terminator-ii/




Offshoretechnik im Vergleich

In diversen Gutachten sind geplante Erzeugungskapazitäten und Jahresenergieproduktion zu finden.

Hier wird beispielhaft auf das SRU-Gutachten von 2011 Bezug genommen.

SRU Sondergutachten Wege zur 100% erneuerbaren Energieversorgung

Sondergutachten Januar 2011

Tabelle 0:  Auszug aus dem SRU Gutachten 2011

Auf den nächsten Seiten, will ich überprüfen, ob dieses angestrebte Ziel auch erreicht wird oder erreicht werden kann.

Seit dem Jahr 2013 werden auch die Ganglinien der in der Ostsee installierten Anlagen veröffentlicht.

(http://www.netztransparenz.de/de/Online_Hochrechnung_Wind_Offshore.htm)

Seit 2011 ist der Windpark Baltic 1 mit 21 Anlagen Siemens SWT-2.3-93  a 2,3MW in Betrieb.  Dieser Windpark ist mittels einer 160kV Drehstromleitung, über das Umspannwerk Pasewalk,  mit dem  Netz von 50Hertz verbunden.

Tabelle 1 zeigt die Einspeisung der Windenergieanlagen in der Ostsee. Die Einspeisung aus Ganglinien ergibt sich aus der Summierung der Stundenwerte aus der Grafik in Bild 01

Jahr

Einspeisung aus Ganglinien

Einspeisung Jahresmeldung §52 EEG

Volllast-stunden

Volllast-stunden-äquivalent

2010

 

 

 

 

2011

 

124.950 MWh

3.529 h/a

40,3%

2012

 

206.492 MWh

4.275 h/a

48,8%

2013

193.091 MWh

192.513 MWh

3.986 h/a

45,5%

2014

193.830 MWh

 

4.137 h/a

47,23%

Tabelle 1:  Jahreszahlen der Windenergie Offshore in der Ostsee

Die Differenzen zwischen Ganglinie und Jahresmeldung sind von mir bewusst eingestellt. 

Das zur Tabelle 1 gehörende Bild 1 zeigt den Verlauf der Einspeisung in der Ostsee. Man erkennt ein sehr starke Fluktuation zwischen voller Einspeiseleistung und einer Einspeisung nahe Null. In Anlehnung an eine Sägezahnspannung nenne ich diese Anlagen Stromlückengeneratoren.

 

Bild 1 Einspeisung Windenergie Offshore in der Ostsee (50Hertz)

Betrachtet man die Situation der Offshoreanlagen in der Nordsee, so zeigt sich ein wesentlicher Unterschied zu der Situation in der Ostsee. Die Windparks in der Nordsee sind über sogenannte HGÜ-Kabel mit dem Festland verbunden. (HGÜ = Hochspannungs-Gleichstrom-Übertragung) Wie man aus der Presse entnehmen konnte, hatte TenneT  Probleme mit HGÜ-Technik eingeräumt. Dies schlägt sich auch in den veröffentlichten Zahlen nieder.

Abweichung Jahresmeldung zu Ganglinie

Jahr

Einspeisung aus Ganglinien

Einspeisung Jahresmeldung §52 EEG

Volllast-stunden

Volllast-stunden-äquivalent Jahresmeldung

Volllast-stunden-äquivalent Ganglinie

3,6%

2010

167.753,08

173.738 MWh

3.173 h/a

36,2%

 

1,4%

2011

437.277,00

443.190 MWh

3.608 h/a

41,2%

 

10,7%

2012

465.224,75

515.158 MWh

2.837 h/a

32,4%

 

0,01%

2013

712.205,25

712.305 MWh

2.007 h/a

22,9%

 

 

2014

1.019.938,75

 

1.761 h/a

 

20,1%

Tabelle 2a:  Jahreszahlen der Windenergie Offshore in der Nordsee

Die Differenzen zwischen Ganglinie und Jahresmeldung sind von mir bewusst eingestellt.

Tabelle 2b  Anzahl und Leistung der Windenergieanlagen in der Nordsee

Bild 2 Einspeisung und Leistung Windenergie Offshore in der Nordsee (TenneT)

Die errechnete Leistungsäquivalent zeigt zur Zeit einen negativen Trend für die Offshoretechnik in der Nordsee.

 

Bild 3 Leistungsäquivalent  Windenergie Offshore in der Nordsee (TenneT)

Hier zeigt sich, dass die Nordseeanlagen (rote Flächen) bei weitem nicht die von ihnen erwartete Energielieferung erbringen, wie die Anlagen in der OStseee ( blaue Flächen). Woran dies liegt, kann ich nicht beurteilen, da mir die entsprechenden Informationen fehlen. Gleichzeitig erkennt man die Charakteristik der Lücken zwischen den Einspeisungen, die  einer Grundlastfähigkeit nicht entsprechen. ( Stromlückengenerator)

Bild 4:  Leistungsäquivalent Offshoreanlagen Ostsee und Nordsee

Schaut man sich die letzten beiden Monate im Jahr 2014 der Nordseeanlagen näher an, so zeigt sich, dass es Probleme mit einzelnen Anlagen, als auch mit den Gleichrichterstationen zu geben scheint.

Die rote Linie 1 deutet daruf hin dass sich anscheinend komplette Windparks aus der Stromproduktion verabschiedet haben. 

Die rote Linie 2 zeigt, dass einzelne Windmühlen auf Störung gegangen sind. Da diese aber in der stürmischen Nordsee stehen, wird es mehr Zeit in Anspruch nehmen, bis die Störungen von  Wartungspersonal behoben werden können.

Bild 5:  Leistungsäquivalent Offshoreanlagen Nordsee

Legt man zusätzlich die Ganglinie der Onshoreanlagen auf die Offshoranlagen, zeigt sich, daß man Frau Höhn empfehlen sollte, ihre Mathematikkenntnisse aufzufrischen. (Irgendwo weht immer Wind)

Bild 6:  Leistungsäquivalent Offshoreanlagen Ostsee und Nordsee sowie Onshore von TenneT

Zum Schluß mache ich einen Faktencheck der  SRU-Prognose, die wiederum als sehr ambitioniert bezeichnen werden kann.

Tabelle 3:  Auszug aus dem SRU Gutachten 2011

Tabelle 4  Nachrechnungen auf die Tabelle 3 mit Zahlen des Jahres 2014

Fazit:

Man sollte über ein eigenes Stromaggregat nachdenken.




Heiße Eisen, kalte Logik

Unter der Annahme, es wird weniger schlimm als die Vier apokalyptischen Reiter, wie ernst wird sich der Klimawandel wirklich auswirken? Wie viel wissen wir über diese Auswirkungen? Welche Implikationen für die Politik ergeben sich daraus?

Es ist an dieser Stelle angebracht, sich daran zu erinnern, dass Klimawandel viel mehr ist als nur unterschiedliche Temperaturen. Er bedeutet auch mehr oder weniger Regen, Schnee, Wind und Wolken an verschiedenen Orten. Er bedeutet unterschiedliche Auswirkungen auf Pflanzen, entweder direkt – weil Pflanzen um Nährstoffe kämpfen – oder indirekt. Er bedeutet Änderungen für Tiere, die diese Pflanzen fressen. Und dies wiederum schließt Änderungen von allem ein, was von diesen Pflanzen und Tieren lebt. Natur, Land- und Forstwirtschaft sowie Gesundheit werden in Zukunft anders sein. Der Meeresspiegel wird steigen, wenn sich das Wasser ausdehnt und Gletschereis schmilzt, was Küstenlinien betrifft sowie alles und jedes, das dort lebt. Die Wasserversorgung wird betroffen durch sich ändernde Verteilungen von Niederschlag, aber der Wasserbedarf wird sich auch verändern infolge sich ändernder Temperaturen. Der Energiebedarf wird sich ebenfalls verändern; möglicherweise braucht man weniger, um im Winter die Häuser zu heizen und vielleicht mehr, um sie im Sommer zu kühlen. Verkehr, das Transportwesen, Gebäude, Freizeit und Tourismus werden ebenfalls alle die Auswirkung eines sich ändernden Klimas verspüren.

Für Einige ist die bloße Existenz dieser Auswirkungen Grund genug für Regierungen, Industrien und Individuen, sich selbst zu verpflichten, Treibhausgas-Emissionen zu reduzieren, um die Änderung zu minimieren. Das ist allerdings eine merkwürdige Logik. Schließlich kann sich Änderung zum Besseren oder zum Schlechteren auswirken, und in jedem Falle ist Änderung unvermeidlich: Es gab noch nie eine längere Periode mit einem statischen Klima.

Genauso wie es keine logische oder wissenschaftliche Grundlage für das Denken gibt, dass Klimawandel etwas Neues ist, gibt es keinen Grund für die Annahme, dass das Klima der Vergangenheit „besser“ war als das Klima der Zukunft. Mit genau der gleichen Unlogik können wir annehmen, dass die Rechte von Frauen, Gesundheitsfürsorge oder Bildung in der Vergangenheit besser waren. Jede derartige Beurteilung widerspricht auch dem Hume’schen Gesetz [hier bei Wikipedia steht, was das ist] und, schlimmer noch vielleicht, basiert auf einem trügerischen Verständnis von Natur in einer sehr verzerrten Sichtweise.

Es gibt keinen Grund für die Annahme, dass irgendein Klima der Vergangenheit besser war als das voraussichtliche zukünftige Klima. Das Klima des 21. Jahrhunderts kann gut und gerne ohne Beispiel in der Historie der menschlichen Zivilisation sein; aber auch die Anzahl der Menschen, die in Ländern mit freien und fairen Wahlen leben, ist ohne Beispiel. Na und? „Beispiellos“ ist doch kein Synonym für „schlecht“!

Andere argumentieren, dass die Auswirkungen des Klimawandels großenteils unbekannt sind, aber katastrophal sein können. Das Vorsorgeprinzip schreibt uns deshalb vor, dass wir hart arbeiten sollten, um nicht zu sagen, wir sollten unser Möglichstes tun, um selbst die geringe Wahrscheinlichkeit einer Katastrophe zu vermeiden. Diese Logik ist für einseitige Risiken sehr angebracht: Wir verbannen Krebs erzeugende Materialien aus Spielzeug, weil wir nicht wollen, dass unsere Kinder Krebs bekommen. Sichere Materialien sind nur wenig teurer, und es ist unwahrscheinlich oder schlicht nicht vorstellbar, dass es „Vorteile“ gibt, wenn Kinder Krebs haben. Bei der Klimapolitik andererseits geht es um das Ausbalancieren von Risiken, und hier gibt es Risiken hinsichtlich der Klimapolitik genauso wie hinsichtlich des Klimawandels. Ein scharfer Anstieg der Energiepreise hat beispielsweise in der Vergangenheit verheerende wirtschaftliche Rezessionen ausgelöst. Billige Energie war Lebenssaft für die industrielle Revolution, und fehlender Zugang zu zuverlässiger Energie ist einer der Faktoren, der wirtschaftliches Wachstum in den meisten Entwicklungsländern behindert. Kurzfristig sind wir von fossilen Treibstoffen abhängig, um uns warm zu halten und unsere Lichter nicht verlöschen zu lassen oder unsere Nahrungsmittel anzubauen und unser Trinkwasser zu klären. Es geht also massiv auf die menschliche Gesundheit, wenn man den Verbrauch fossiler Treibstoffe behindert.

Was bedeutet das? Es bedeutet, dass wir, anstatt das Schlimmste anzunehmen, die Auswirkungen des Klimawandels sorgfältig untersuchen und danach trachten sollten, diese gegen die negativen Auswirkungen der Klimapolitik abzuwägen. Klimatologen und Ökonomen haben dies auch jahrelang getan, aber ihre Bemühungen sind überschattet durch die Hysterie der Grünen und der Linken sowie der subtileren Lobbyarbeit von Unternehmen, die nach den Subventionen für Erneuerbare und andere Darreichungen der Regierung gieren. Besonders wichtig ist eine Objektive für den Ausgleich zwischen möglichen Gefahren und den Kosten der Politik, weil sich die Abschätzung der Klimawandel-Auswirkungen als bemerkenswert schwierig erwiesen hat. Klimawandel der Vergangenheit sind kein guter Maßstab. Das Klima hat sich wahrscheinlich während des vorigen Jahrhunderts viel weniger geändert als es für dieses Jahrhundert projiziert wird, aber die globale mittlere Temperatur hat sich während der letzten zwei Jahrzehnte kaum verändert – und dies ist der Zeitraum mit den besten Daten, in der fast alle Studien zu Auswirkungen des Klimawandels durchgeführt worden waren.

Full post

Link: http://www.thegwpf.com/richard-tol-hot-stuff-cold-logic/

Übersetzt von Chris Frey EIKE




Katholizismus und Umweltaktivismus

Bild rechts: Solarpaneele auf dem Dach der Audienzhalle von Papst Paul VI. Photo vom Dezember 2010. Quelle: CNS photo/Paul Haring

Christlichem Glauben zufolge ist es notwendig, „Respekt für die Integrität der Schöpfung“ zu zeigen (CCC 2415) und die Ressourcen der Erde mit Bedacht zu nutzen, aber dieser Glaube sagt uns nicht, ob spezifische Umweltinitiativen moralisch überzeugend sind.

Umweltaktivismus ist häufig eine Sache von Wissenschaft und Ideologie. Nicht selten, wenn jemand einer von Umweltaktivisten inbrünstig verfochtenen These nicht folgt, wird man als „Wissenschaftsleugner“ gebrandmarkt. Ironischerweise verstehen viele von denen, die ihre Gegner unbekümmert als „Wissenschaftsleugner“ verunglimpfen, selbst nicht die zugrunde liegende Wissenschaft.

Als Ingenieur und Wissenschaftler mit über 30 Jahren Berufserfahrung, der Umweltingenieur-Themen gelehrt hat und der es liebt, Geschichte zu erklären, habe ich meinen Anteil an schlechter Wissenschaft und schlechten Daten gesehen (traurigerweise bin ich selbst hier gelegentlich schuldig geworden). Ich habe verinnerlicht, dass während wir uns auf Daten verlassen müssen, ein ehrlicher Skeptizismus hinsichtlich der Daten ein wichtiger Aspekt der wissenschaftlichen Methode ist. Bei vielen Gelegenheiten haben Wissenschaftler und Experten einen Konsens zu etwas erreicht, das sich im Nachhinein als falsch erwiesen hat. Wie Matt Ridley in einem Artikel im Wall Street Journal im Jahre 2013 geschrieben hat: „In der Wissenschaft geht es um Beweise, nicht um Konsens“. Ich stimme Mr. Ridley zu, mich interessiert kein Konsens, egal wie leidenschaftlich oder moralisch entrüstet. Ich will Daten und Beweise sehen.

Objektive Kriterien, saubere Daten

Hier folgt ein Beispiel. Es gibt Hunderte, wenn nicht Tausende Artikel und Anweisungen, die uns davor warnen, dass unsere Umwelt Angriffen ausgesetzt ist und sich deren Zustand verschlechtert – wie kann da noch irgendjemand behaupten, dass Amerikas Umwelt sauberer ist als seit über 100 Jahren? Ich kann und tue das auch, und zwar mit folgenden Beweisen auf der Grundlage dieser Kriterien: Krankheiten durch Wasserverunreinigungen, Niveau der Verschmutzung von Wasser und Luft, Habitaten, technologischer Innovation und sensorischer Beweise.

Ende des 19. und Anfang des 20. Jahrhunderts sowie noch bis in die zwanziger Jahre desselben sind Tausende in amerikanischen Städten an Typhus erkrankt. Krankheiten infolge verunreinigtem Trinkwasser sind in den USA praktisch ausgerottet, und zwar so sehr, dass die meisten Amerikaner die Unbedenklichkeit ihres Trinkwassers voraussetzen. In einer Zeit, in der wir jetzt Verschmutzer in parts per Billion oder sogar in parts per trillion entdecken und messen können, denken viele, dass wir immer mehr Verschmutzer freisetzen. Im Gegenteil, die Qualität geklärter Abwässer und das Wasser von Flüssen, Seen und Strömen hat sich stetig verbessert, belegt durch Messungen eines signifikant niedrigeren Niveaus von Verschmutzern. Einige Klärwerke lassen Wasser in die Flüsse fließen, das sogar eine noch bessere Qualität hat als der Fluss selbst.

Thema Luftqualität: es gibt effizientere Verbrennungsprozesse, weniger verschmutzende Reste von Verbrennung und eine bessere Technologie zur Luftreinhaltung. Dann gibt es da Habitate für Fische und Wildtiere. In einem Artikel in den Detroit News aus dem Jahr 2010 heißt es: „Von Weißkopfadlern bis zu See-Stören verzeichnen natürliche Flora und Fauna eine dramatische Rückkehr an Stellen, die man für höchst unwahrscheinlich hält: Die Wasser und Ufer des Detroit Rivers… Nach Jahrzehnte langen Bemühungen, die schmutzige Vergangenheit des Detroit River zu bekämpfen, sind inzwischen viele Fisch- und Vogelspezies in das Flussbett zurückgekehrt. Die aufstrebende Fischadler-Population wird begleitet von einer zunehmenden Zahl von Zandern, See-Stören und Renken ebenso wie von Vogelarten wie dem Weißkopf-Seeadler und dem Wanderfalken. Wir reden über Detroit, einst die produzierende Hauptstadt der Welt und immer noch ein bedeutendes Produktionszentrum. All dies geschieht überall in der gesamten Nation.

In einem Artikel im Wall Street Journal aus dem Jahr 2014 mit dem Titel [übersetzt] „Der Verknappungs-Trugschluss“ identifiziert Matt Ridley viele Beispiele, in denen Ökologen das Ende der natürlichen Ressourcen der Welt propagierten, obwohl technologische Innovationen diese Grenzen wieder und immer wieder durchbrochen haben. Gegen die beweise aus der Historie glauben Viele, dass ein Problem, wenn wir es heute nicht lösen können, auch im nächsten Jahr und im nächsten Jahrzehnt noch ein Problem ist. Düstere Vorhersagen basieren oftmals auf diesem Irrglauben [gilt das nicht auch z. B. für den deutschen Atom-„Müll“? Anm. d. Übers.]

Faktum: Wir verfügen über die Technologie, von der Toilette zum Wasserhahn zu gehen, falls die psychologische Barriere bewältigt werden kann*. Von Öl- und Gasreserven, die bereits zur Neige gegangen sein sollten, sagt man jetzt voraus, dass sie noch weit in die Zukunft ausreichen werden infolge von Innovationen hinsichtlich Fracking und Schieferöl. Moderne Technologien erlauben es uns, Infrastruktur zu reparieren oder zu ersetzen mit nur minimalen Störungen der Umwelt. Es gibt auch vielfältig sensorische Beweise, dass sich die Umwelt ständig verbessert hat. Einige können sich noch an jene Tage erinnern, als Flüsse und Seen von Ölfilmen bedeckt waren; als mit Kohle betriebene Heizöfen schwarze Wolken über unseren Städten erzeugt haben; als industrielle Abfälle einfach auf freien Plätzen oder in ungesicherten Deponien abgelagert wurden. Diese Umweltbedrohungen wurden in Amerika nahezu eliminiert. Zu vielen dieser Verbesserungen war es aufgrund der Bemühungen überzeugter Umweltaktivisten gekommen.

[*Redewendung: „go from toilet to tap“. Der ganze Satz lautet im Original: „we have the technology to go from toilet to tap, if the psychological barrier can be surmounted“. Ich habe keine vernünftige Übersetzung gefunden. Anm. d. Übers.]

Der Grund, dass diese auf Wissenschaft beruhenden Einschätzungen wichtig sind lautet, dass eine gute Behandlung der Umwelt nicht moralisch überzeugend sein muss, wenn es in Relation zu anderen – hiermit in Konflikt stehenden – Behandlungen evaluiert wird: Tausende Arbeitsplätze; Produkte, die uns gut ernährt, gesund und sicher halten; Eigentumsrechte oder sogar andere gute, aber sich widersprechende Umweltbehandlungen wie Null-Wasserverbrauch oder der niedrigste Kohlenstoff-Fußabdruck.

Ideologie zurückweisen, Ausgleich finden

Die Ideologie Vieler in der Umweltbewegung gehört auch untersucht. Es gibt ein quasi religöses und besonders bösartiges Element in der Umweltbewegung, für das, wie es das Journal beschreibt, „der Klimawandel zu einer fetischartigen kulturellen Angelegenheit geworden ist wie Abtreibung und Hochzeiten zwischen Gleichgeschlechtlichen… Was zählt ist, dass sie auf der richtigen Seite des kulturellen und politischen Symbolismus‘ stehen“.

Ohne auf das komplexe Thema Klimawandel einzugehen zeige ich, dass der Umweltaktivismus für Viele zu einem moralischen Magneten geworden ist, in dem Fakten, Daten und Beweise von sekundärer Bedeutung sind. Unter diesen lautstarken Aktivisten findet man die Leitmotive dafür, dass die Menschheit – einen nicht nachhaltigen Kohlenstoff-Fußabdruck hinterlassend – eher eine Bedrohung ist als ein transzendentes Geschöpf; dass der Mensch keine größere legale oder ethische Statur als irgendein anderes Tier hat; dass chaotische freie Märkte Umweltbedrohungen sind; dass Staaten oder Regierungsorganisationen mit Leuten, die es besser wissen, eine ökonomische Umwelt- und Energiepolitik etablieren sollten; kurz gesagt, eine materialistische Interpretation der Beziehung zwischen Mensch und Planet. Und damit wir nicht glauben, dass diese Motive auf den radikalen Flügel begrenzt sind, finden einige dieser Grundthesen Eingang in den Mainstream-Umweltaktivismus.

Gäbe man diesen Bewegungs-Aktivisten freie Hand, würde deren Energie- und Industriepolitik uns zurück zu Frieren im Winter und Rösten im Sommer bringen, und Verhungern durch Mangel von Nahrungsmitteln und pharmazeutischen Produkten zur Bekämpfung von Krankheiten wären an der Tagesordnung. Noch wichtiger, das katholische Konzept der Menschheit verursacht mit dieser Ideologie oder Quasi-Religion eine gewalttätige Zerstörung. Die Arbeit des Menschen und seine Würde sollten sich nicht der natürlichen Welt unterordnen, was alles andere heißt als zu sagen, dass der Mensch in der Lage sein sollte, die Natur zu vergewaltigen, um seine Bedürfnisse zu befriedigen. Die richtige Balance wird erreicht, wenn der Mensch an Werte glaubt, so dass er sich verantwortungsbewusst verhält in Beziehung zur Umwelt. Traurigerweise betrachtet das materialistische Dogma, das viele dieser Aktivisten an den Tag legen, Werte und sogar Vernunft als bloße menschliche oder gesellschaftliche Konstrukte.

Es ist wichtig in Erinnerung zu rufen, dass die Katholiken bahnbrechende Arbeiten in den Wissenschaften durchgeführt haben. In einem vor kurzem erschienenen Artikel im Magnificat mit dem Titel „The Church and the Beginning of It All” schreibt Anthony Esolen über den Jesuitenpriester George Lemaitre, der zum ersten Mal die Big Bang-Theorie angesprochen hatte (und damit Einstein überzeugte) und den Mönch Gregor Mendel, der als der Vater der Genetik betrachtet wird. Ich habe mit einem gewissenhaften katholischen Ingenieur mit einer ausgeglichenen Umweltperspektive zusammengearbeitet, der mehr als jeder andere in der Welt weiß zum Thema selbständige Wasser/Abwasserbehandlung. Viele Katholiken scheinen sich der Anzahl hoch geschätzter katholischer Wissenschaftler nicht bewusst zu sein. Ernste und überzeugte Katholiken begrüßen fern von jeder Anti-Wissenschaft ehrliche und ethische wissenschaftliche Untersuchungen, während sie gleichzeitig erkennen, dass die Kompetenz der Wissenschaft sich nicht auf ultimative philosophische Fragen erstreckt.

Mit Sicherheit gibt es heutzutage Umweltthemen, die besorgt machen, selbst in einem saubereren Amerika: invasive Spezies, gelegentliche Ausbrüche von Pathogenen und giftigen Algen in Speichern zur Wasserversorgung, Schäden an Infrastruktur. Aber betrachtet man den von uns zurückgelegten Weg im vorigen Jahrhundert, sind diese Bedrohungen lösbar oder zumindest handhabbar.

Katholiken mit Interesse an der Umwelt sollten versuchen, legitime Wissenschaft von ideologischem Lärm und organisatorischen Selbstinteressen zu trennen; heutzutage keine leichte Aufgabe. Und sie sollten erkennen, dass die Umweltangst des Monats moralisch nicht überzeugend zu sein braucht, aber dieses rationale Vorgehen in Bezug zur Umwelt sollte immer unter dem Vorbehalt stehen, dass dem Menschen die Herrschaft über die Erde gegeben worden ist – Frauen und Männer sind mehr als nur intelligente Tiere – aber man erwartet von uns auch, dass wir gute Verwalter dieser Welt und seiner Ressourcen sind.

Über den Autor:

Thomas M. Doran ist professioneller Ingenieur, außerordentlicher Professor für das Bauingenieurswesen an der Lawrence Technological University und ein Mitglied des College of Fellows der Engineering Society von Detroit. Er ist auch Autor der Beiträge Toward the Gleam, Terrapin und Iota (October 2014), alle veröffentlicht von Ignatius Press.

Link: http://www.catholicworldreport.com/Item/3600/catholicism_and_environmentalism.aspx

Übersetzt von Chris Frey EIKE

Bemerkungen des Übersetzers hierzu: Zwar geht es in diesem Beitrag nicht um Klima oder Energie, sondern um Umwelt. Aber vieles hier Gesagte ist natürlich auch in der Diskussion zu beiden Themen gültig, weshalb ich diesen Beitrag übersetzt habe.

Erst vor Kurzem hat Herr Puls beim EIKE hier zur Haltung der evangelischen Kirche einen ausführlichen und verstörenden Beitrag geschrieben. Hier folgt nun ein Beitrag aus katholischer Sicht. Es war allerdings nicht feststellbar, ob hier eine Einzelmeinung beschrieben wird (wahrscheinlich), oder ob die katholische Kirche etwas bewusster an das Thema Umwelt herangeht.

Nicht einverstanden bin ich jedoch mit der Passage des Autors über die „großen katholischen Wissenschaftler“. Hier hat die katholische Kirche im Mittelalter allergrößte Schuld auf sich geladen, von der sie sich bis heute nicht wirklich distanziert hat. Vor diesem Hintergrund klingen derartige Äußerungen etwas heuchlerisch.

C. F.




Stromautarkie: Schlangenölverkäufer verführt Versuchskaninchen – Die Mär von der Energie- Unabhängigkeit

Erst wenn man in den Artikel hineinliest stellt man fest, dass es hier nicht etwa um die reine Kombination einer Solaranlage und einer billige gewordenen Pufferbatterie geht, sondern um eine sehr komplexe Installation aus Blockheizkraftwerk, Fotovoltaikanlage, Wechselrichter, Warmwasserspeicher, einer zusätzliche Spitzenlast-Gastherme und jeder Menge komplexer Regeltechnik. Kostenpunkt rund 31.000 €, davon 20.000 für das Blockheizkraftwerk und 6.000 für die Pufferbatterie mit einem Speichervolumen von 4,5 kWh. Dass die Solaranlage nur winzig sein kann, lässt sich aus obigen Zahlen sofort erkennen, denn für die restlichen 5.000 € bekommt man laut Solarrechner.de höchstens ca. 25 qm Kollektorfläche, was für den Ort Kelberg selbst unter optimalen Aufstellbedingungen lediglich einer Leistung von rund 3kWp und einem Jahresertrag von 2.600 kWh entspricht. Es sei denn, an der Story entsprechen neben der Einleitung auch die Preisangaben nicht so ganz hundertprozentig der Wahrheit….

Als Weg zur Energieautarkie mithilfe einer Solaranlage nebst Pufferbatterie – wie das im Artikel auch im weiteren Verlauf als möglich suggeriert wird – ist die Installation der Familie Schmitt völlig ungeeignet. Dies ist in Deutschland wegen der miserablen Nutzungsgrade von Solaranlagen in den Wintermonaten schon allein aus technischen Gründen nicht machbar, wie bereits vor rund einem Jahr in einem Artikel bei EIKE nachgewiesen wurde, siehe Bild 1 [EIKE]. Und trotz des Preissturzes bei Pufferbatterien liegt die hier beschriebene Batterie immer noch bei 1.300 €/kWh und damit um rund 30 % über dem damaligen Rechenansatz. Der ganze Aufsatz ist darauf angelegt, erstmal die Leser mit Schlagworten wie Solar, Batterie und Unabhängigkeit von Stromkonzernen zu locken, aber verkauft wird ihnen dann eine ganz andere Story. Nicht besonders seriös.

Bild 1. Monatliche Nutzungsgrade der in Deutschland installierten Fotovoltaikanlagen im Zeitraum April 2012 bis März 2013 (Daten: [EEX])

In Wirklichkeit geht es um ein Blockheizkraftwerk

Wie schon die Beschreibung der Ausstattung und die Angaben zu den wichtigsten Kostenblöcken erkennen lassen, hat Familie Schmitt als Hauptenergielieferanten für Heizwärme und Strom ein mit Gas betriebenes sogenanntes Blockheizkraftwerk (BHKW) Typ Vaillant EcoPower 1.0 gekauft. Dies ist im Prinzip ein System zur Kraft-Wärme-Kopplung, bei dem die Abwärme des Stromerzeugers für Heizung und Warmwasser genutzt wird. Die nicht sofort benötigte Wärme wird in einem Heißwasser-Pufferwärmespeicher vorgehalten, für kalte Tage sowie bei Systemausfall steht eine zusätzliche Spitzenlast-Gastherme bereit. Der erzeugte Strom wird teils selbst verbraucht, teils dank KWKG Vergütung ins Netz eingespeist. Unter optimalen Bedingungen erzielt ein solches System Wirkungsgrade von um die 90 %.

Prinzipieller Nachteil von Blockheizkraftwerken

Der wichtigste Nachteil von Blockheizkraftwerken ist zunächst der, dass ihr optimaler Wirkungsgrad nur dann zur Geltung kommt, wenn die erzeugte Wärme auch wirklich in vollem Umfang benötigt wird. Die Aggregate haben bei der eigentlichen Stromerzeugung nämlich nur einen vergleichsweise bescheidenen Wirkungsgrad. Optimaler Betrieb ist daher in der Regel nur möglich, wenn das Blockheizkraftwerk so gesteuert wird, dass möglichst die gesamte erzeugte Wärme auch genutzt wird. Der Strom ist daher ein zufallsgesteuertes Nebenprodukt, für dass sich dank KWKG erfreulicherweise ein zwangsbeglückter Abnehmer in Form der Allgemeinheit findet, die diesen Strom zusammen mit dem sonstigen Zappelstrom aus Wind- und Solarkraftwerken abnehmen muss, sie mag ihn brauchen oder nicht. Sobald dieser Zwang durch Änderung des EEG bzw. KWKG entfallen sollte, hat man das Problem, den erzeugten Strom auch loszuwerden. Gelingt dies nicht, ist das BHKW als Wärmeerzeuger gegenüber einer modernen Brennwert-Gastherme sogar im Nachteil, denn diese erreicht rund 90 %, während das BHKW ein weitgehend festes Verhältnis von Wärme- zu Stromleistung aufweist. Eine Untersuchung des Lehrstuhls für Energiewirtschaft und Anwendungstechnik der TU München zeigt, dass ein BHKW etwa 65 % der im Gas enthaltenen Energie als Wärme und 25 % in Form von elektrischem Strom liefert [VDE]. Gegenüber einem modernen Gas-und-Dampf-Kraftwerk mit 60 % Wirkungsgrad also ein eher bescheidenes Ergebnis.

Für Laien weniger geeignet

Entscheidender Nachteil einer BHKW-Installation ist die technische Komplexität und die damit verbundene Störanfälligkeit. Das beginnt schon mit der Auslegung, für die ein Qualifikationsniveau erforderlich ist, das den normalen Architekten bzw. Heizungsplaner in erheblichem Maße überfordert. Fehlberatungen sind daher vorprogrammiert. Hinzu kommt, dass diese Systeme Motoren sowie weitere drehende Komponenten wie den Stromgenerator enthalten, die zwangsläufig verschleißen und daher Wartung benötigen. Auch dieser Aufgabe ist der übliche Heizungsmonteur vor Ort nicht immer gewachsen, man benötigt eher Spezialisten, die das System genau kennen. Wenn man sich entsprechende Foren im Internet anschaut [DAER, ERF1, ERF2, ERF3], so findet man darin nicht wenige Beispiele für Anwender, die mit ihren Kleinst-BHKW krachend gescheitert sind oder zumindest teures Lehrgeld bezahlen mussten. Manche Einträge sind recht drastisch: „wer vom neuen markt noch ein paar mücken übrig hat sollte sich mit dem kauf eines (PIEP) entgültig in den ruin treiben würde gerne 2 (PIEP) verschenken neuwertig aber nur an sado maso anhänger finger weg von den scheiß dingern“.

Auf der anderen Seite gibt es jedoch auch etliche positive Stellungnahmen. Allerdings fällt hierbei auf, dass diese überwiegend von Profis kommen, darunter viele ausgesprochene Technikfreaks mit entsprechendem Hintergrund: Handwerker, Techniker, Ingenieure oder auch mal ein Hausmeister mit handwerklicher Begabung. Diese Nutzer sind imstande, ihre Anlagen selbst zu überwachen, verstopfte Filter zu erkennen und zu reinigen, Dichtungen auszutauschen oder die Einstellungen an den Steuerungen bedarfsgerecht zu verändern. Bei vielen dieser Leute hat man den Eindruck, dass sie die Zuneigung zur elektrischen Eisenbahn ihrer Jugend jetzt auf ihr BHKW übertragen haben.

Noch schwieriger wird es, wenn man das BHKW wie im Beispiel von Familie Schmitt mit weiteren „artfremden“ Anlagen kombiniert. Für solche maßgeschneiderten Kombinationen findet man dann im Prinzip niemanden mehr, der das Gesamtsystem in seinem Zusammenspiel und seinen Wechselwirkungen überblickt und die richtigen Reparatur- oder Einstellungsentscheidungen treffen kann. Für normale Zeitgenossen, die kein gesteigertes Interesse an Technik haben, kann sich ein solches System schnell zum Alptraum entwickeln.

Die Autarkie bleibt Utopie

Zu den besonders fiesen Maschen bei solchen Artikeln gehört es, dass der Eindruck erweckt wird, als könne man sich irgendwann vollständig von der Bindung an einen Stromversorger lösen. Nach dem Motto, wenn wir bereits 87 % geschafft haben, werden wir den Rest irgendwann auch noch hinkriegen. Dabei ist gerade das unmöglich, weil man das öffentliche Netz ja braucht, um Subventionen für den überschüssigen Strom zu erhalten. Ohne diese Nabelschnur zu den Versorgern, denen man die eigene Überproduktion jederzeit ungefragt auf’s Auge drücken kann, würden die Finanzierungsmodelle zusammenklappen. Das Ganze funktioniert nur, indem man die Vorteile eines jederzeit verfügbaren öffentlichen Netzes wahrnimmt, die damit verknüpften Kosten jedoch anderen überlässt. Für die Aufrechterhaltung des Netzes und der ständig zuverlässig abrufbaren Vollversorgung lässt man die „dummen anderen“ zahlen. Wer glaubt, dass dies auf Dauer so weitergehen könnte, muss recht blauäugig sein. In Spanien geht das schon nicht mehr: Wer eine Solaranlage betreibt und selbst nutzt, muss dafür die üblichen Tarife bezahlen, es sei denn, er trennt sich völlig vom Netz. Und genau das geht eben nicht bzw. nur in den allerseltensten Fällen, wenn man auf die ständige Verfügbarkeit der Annehmlichkeiten elektrischen Stroms weiterhin Wert legt. Auch in Deutschland hat der Gesetzgeber schon ähnliche Absichten erkennen lassen.

Im Hintergrund lauert der EE-Kannibalismus

Ein grundsätzliches Problem für Betreiber von BHKW ist der sich abzeichnende „Kannibalismus“ der verschiedenen „erneuerbaren“ Technologien untereinander. An warmen Sommerwochenenden liegt die gesamte Netzlast in Deutschland manchmal bei lediglich 35.000 bis 45.000 MW. Zum Jahresende 2014 waren in Deutschland jedoch bereits folgende „erneuerbare“ Erzeugungskapazitäten am Netz: 35.400 MW Windleistung, 37.200 MW Solarleistung, 6.300 MW Biomasseleistung, 4.500 MW Wasserkraftwerksleistung sowie 1.500 MW Kraftwerksleistung aus Müllverbrennung, zusammen also rund 87.400 MW. Das entspricht in etwa der zu erwartenden Jahreshöchstlast. Da zudem mindestens 28.000 MW an Grundlastkapazität zur Stabilisierung des Netzes ständig mitlaufen müssen, kommt es inzwischen immer häufiger vor, dass das Gesamtaufkommen aus EE-Strom – der ja zwangsläufig abgenommen werden muss – und Grundlaststrom die aktuelle Netzlast übersteigt. Das sind die immer häufigeren Tage, an denen der nicht benötigte deutsche Zufallsstrom ins Ausland verschenkt werden muss und den dortigen Stromerzeugern den Markt ruiniert. Da der Zubau der sogenannten „erneuerbaren“ Energien weiterhin mit mehr als 5.000 MW/ Jahr vorangetrieben wird, wird sich diese Engpasssituation in den nächsten Jahren immer drastischer zuspitzen. Da die „Entsorgung“ überschüssiger Produktion ins Ausland über kurz oder lang auf verstärkten Widerstand stoßen wird, wird der Gesetzgeber innerhalb weniger Jahre genötigt sein, Produktionsbeschränkungen auch für EE-Strom zu dekretieren. Vermutlich werden darunter vor allem solche Branchen zu leiden haben, die nicht so hoch auf der Prioritätenliste der „Energiewende“ stehen. Da Wind und Solarstrom erklärte Schwerpunkte des weiterhin gewünschten massiven EE-Ausbaus sind und Müllverbrennung alternativlos durchgeführt werden muss, dürften kleinere und weniger wichtige Bereiche mit weniger schlagkräftigen Lobbys wie die Wasserkraft und die Kraft-Wärme-Kopplung zu den Verlierern dieses Wettstreits gehören. Selbst auf einen Bestandsschutz für Altanlagen sollte man sich dabei nicht verlassen, denn mit weiter wachsendem Notstand in den Netzen wird der Gesetzgeber auf kleinere Randgruppen vermutlich ebensowenig Rücksicht nehmen wie 2011 auf den Bestandsschutz der Betreiber von Kernkraftwerken.

Bild 2. Entwicklung der installierten Solar- und Windkapazitäten in Deutschland seit 2010 (Daten: [EEX])

Fragwürdiger Journalismus

Der Spiegelonline-Artikel ist symptomatisch für die Art von modernem „Qualitäts“-Journalismus, mit der selbst renommierte Publikationen wie der Spiegel oder das Manager-Magazin heute den Leser fehlinfomieren. In der Online-Ausgabe des Manager-Magazins erschien der Beitrag sogar unter einem noch reißerischerem Titel: „Selbstversorger-Trend Wie Familie Schmitt Deutschlands größten Stromversorger zerschlug“ [MAMA]. Selbst Bildzeitungsjournalisten könnten ob solcher Dreistigkeit vor Neid erblassen. Dabei ist der Reporter in der Redaktion des manager magazin online schwerpunktmäßig für Unternehmen zuständig, besonders für Energiewirtschaft und Mobilität. Schaut man sich seinen Werdegang daraufhin an, was ihn dafür qualifiziert haben mag, so wundert man sich über fast gar nichts mehr. Im Kurzporträt ist zu lesen: „Studium der Politischen Wissenschaft, Geschichte und des Öffentlichen Rechts. Absolvent der Berliner Journalistenschule. Stationen und Mitarbeit unter anderem beim Pinneberger Tageblatt, ZDF-Studio London, RBB Inforadio Wirtschaft und dpa Berlin. Koordination Tagesspiegel-Handelsblatt. Seit April 2008 bei manager magazin online, seit Oktober 2012 Reporter“.

Leider ist zu befürchten, dass solche Schlangenölverkäufer-Artikel den einen oder anderen unbedarften Leser dazu veranlassen werden, sich als Versuchskaninchen für diese Technologie zur Verfügung zu stellen. In diesem Falle würd man sich manchmal wünschen, dass die Geschädigten nach dem Reinfall amerikanisches Recht anwenden könnten, um den unseriösen Journalisten nebst Verlag in die Insolvenz zu klagen.

Fred F. Mueller

Quellen

[DAER] http://www.niedrigenergieforum.de/dachs-heizung-t280.html

[EEX] http://www.transparency.eex.com/de

[EIKE] http://www.eike-klima-energie.eu/climategate-anzeige/energieautarkie-am-beispiel-sonne-wie-ideal-ist-dezentral-nur-wenn-geld-keine-rolle-spielt/

[ERF1] http://www.tga-warmup.de/bhkw.html

[ERF2] http://www.energieportal24.de/forum/topic,809,-erfahrung-bhkw.html

[ERF3] www.heizkosten-online.de

[MAMA] http://ml.managermagazin.de/article.do?id=1010095

[SPIE] http://www.spiegel.de/wirtschaft/service/strom-selber-erzeugen-selbstversorgung-liegt-im-trend-a-1010782.html

[VDE] Praxiserfahrungen mit Mini und Mikro BHKW, Dr.-Ing. Peter Tzscheutschler, Dipl.-Ing. Josef Lipp, IFE Lehrstuhl für Energiewirtschaft und Anwendungstechnik, TU München