1

Eisbohrkern-Daten: der ach so gefürchtete 2°C-„Tipping Point“ ist bereits überschritten…

Zusammenfassung

Betrachtet man die Größenordnung der Temperaturänderungen, die die Alarmisten aufgrund der vom Menschen verursachten globalen Erwärmung erwarten sowie ihre Ansichten über die desaströsen Auswirkungen der menschlichen CO2-Emissionen, ist es besonders aufschlussreich, einen Klimawandel mal in einem größeren Zeitmaßstab zu betrachten, Jahrhundert für Jahrhundert oder aus einer Jahrtausend-Perspektive.

Hier folgt eine Graphik, in der das Profil unserer gegenwärtigen Holozän-Epoche mit Temperatur-Mittelwerten Jahrhundert für Jahrhundert verglichen wird mit dem Maximum der vergangenen Eemian-Epoche und den alarmistischen Vorhersagen einer katastrophalen globalen Erwärmung in diesem Jahrhundert:

Der viel gerühmte und viel gefürchtete „fatale“ Tipping Point von +2°C würde lediglich die globalen Temperaturen auf das Niveau des sehr angenehmen Klimas der „Römischen Warmzeit“ heben.

Falls es möglich wäre, dass „potentiell schreckliche“ Niveau von +6°C zu erreichen, welches von den Warmisten postuliert wird, durch die Berücksichtigung wesentlicher positiver Rückkopplungen durch zusätzlichen Wasserdampf in der Atmosphäre, würde uns dieses extreme Niveau hinsichtlich der Temperatur immer noch lediglich auf das Niveau des Eemian-Maximums zuvor heben.

Der Zusammenhang

Die Eisbohrkerne Wostok und EPICA aus der Antarktis zeigen, dass es 5 Zwischeneiszeit-Epochen während der letzten 450.000 Jahre gegeben hatte. Sie variierten sowohl hinsichtlich der Temperaturintensität als auch der Dauer. Einige frühere Interglazial-Epochen waren wesentlich kürzer als die Norm von 10.000 Jahren. Diese Klimaänderungen sind durch Überlagerung der beiden Eisbohrkerne aus der Antarktis erkennbar.

Die Perioden von Vereisung und Zwischeneiszeiten zeigen eine ziemlich regelmäßige Verteilung. Die beiden Eisbohrkerne aus der Antarktis zeigen zumeist eine gute Übereinstimmung während der letzten 200.000 Jahre. Davor scheint es eine ähnliche Verteilung gegeben zu haben, jedoch mit einigen wesentlichen Zeitunterschieden zwischen vor 200.000 und 450.000 Jahren. Jene beiden antarktischen Aufzeichnungen sind während der jüngsten Holozän-Epoche nicht so gut koordiniert.

Warme Zwischeneiszeiten scheinen grob geschätzt etwa 10.000 Jahre lang zu dauern, und die dazwischen liegenden Perioden voller Vereisung etwa 100.000 Jahre.

Vor der Holozän-Epoche dauerte eine Periode umfassender Vereisung über 100.000 Jahre. Eine solche Vereisung bedeutete, dass Kilometer dicke Eisschilde New York und große Gebiete der derzeit bewohnten Nordhemisphäre überdeckt haben. Jener Vereisung war die Zwischeneiszeit der Eemian-Epoche vorausgegangen. Diese erreichte vor 120.000 Jahren ihr Wärme-Maximum. Es war etwa +3°C wärmer als das „Klimaoptimum“ des Holozäns vor nur etwa 8000 Jahren.

Auf der Grundlage dieser Abfolge radikaler Klimaänderungen könnte unser gegenwärtiges angenehmes Holozän-Interglazial sehr gut seinem Ende entgegen gehen.

Den nordhemisphärischen Grönland-Eisbohrkernen zufolge war das letzte Millenium der Jahre von 1000 bis 2000 das kälteste Jahrtausend der gegenwärtigen Holozän-Epoche mit einer Milleniums-Mitteltemperatur, die um etwa 1,8°C niedriger lag als das frühe „Holozän-Klimaoptimum“ etwa im Jahre 6000 vor Christus.

Seitdem war es zu einer vergleichsweise geringen Temperatur-Erholung gekommen seit der Kleinen Eiszeit vor etwa 300 Jahren.

Allerdings ist es nur diese geringe Erholung der Temperatur, die kürzlich zur Anzettelung der „Großen Globale-Erwärmungs-Angst“ geführt hat.

Die Holozän-Epoche

Der Temperaturverlauf des gegenwärtigen Holozän-Interglazials der letzten 10.000 Jahre ist interessant als ein Pegel für alle der jüngsten Warmisten- und Alarmisten-Vorhersagen, die sich während der letzten 40 bis 50 Jahre entwickelt haben.

Das Holozän-Interglazial lässt sich in zwei Phasen unterteilen:

● Das frühe Holozän mitsamt seinem höchsten „Klimaoptimum“ war im Maßstab von Jahrtausenden ziemlich stabil und zeigte lediglich eine moderate Abkühlung von etwa 0,05°C pro Millenium von 8000 vor Christus bis 1000 vor Christus.

● Während der darauf folgenden 3000 Jahre von 1000 vor Christus bis zum Jahr 2000 zeigt sich eine viel schnellere Abkühlung mit einer Rate von etwa 0,5°C pro Jahrtausend (d. h. zehnmal die frühere Rate).

Urteilt man nach der Länge vergangener Zwischeneiszeiten, sollte das Holozän nach 10.000 bis 11.000 Jahren seinem Ende entgegen gehen. Eine Klimaumkehr zu einer vollen, weit reichenden Vereisung ist daher vorhersehbar, wenn nicht schon überfällig; in diesem Jahrhundert, im nächsten Jahrhundert oder in diesem Jahrtausend.

Vom Standpunkt der jüngsten 3 Jahrtausende aus, während derer es zu einer beschleunigten Abkühlung gekommen war, ist ein fortgesetzter Trend hin zu einem kälteren Klima noch mehr und nicht weniger wahrscheinlich geworden.

Abkühlung würde zu intensiveren und widrigen Wetterereignissen führen: es gibt gute Gründe für diese Einschätzung, einfach weil der allgemeine Wärmeunterschied zwischen den Polen und den Tropen bei einer Abkühlung nur größer werden kann, und dies allein würde schon zu instabileren atmosphärischen Bedingungen führen.

Zusätzlich zu mehr widrigem Wetter wird jede kommende Abkühlung auch zu sehr ernsten Entbehrungen für die Menschheit und die Biosphäre allgemein führen. Wachstumsperioden werden sich verkürzen, und die zur Landwirtschaft erforderlichen Flächen werden sich verkleinern.

Aber die gesamte Klimawandel-Diskussion und -propaganda konzentriert sich ausschließlich auf kurzfristige Temperaturvariationen, oftmals mit der Betonung auf geringfügige kurzfristige Erwärmungen. Damit wird versucht zu betonen, dass die globalen Temperaturen immer und ewig weiter steigen. Aber sie werden oftmals gemessen in nahezu unauffindbaren Hundertstel Grad Celsius.

Die Prophezeiungen der Alarmisten hinsichtlich einer katastrophalen Erwärmung sollten in den Zusammenhang gesetzt werden mit dem Temperaturverlauf des gegenwärtigen Holozän-Interglazials.

Der viel gerühmte und viel gefürchtete „fatale“ Tipping Point von +2°C würde lediglich die globalen Temperaturen auf das Niveau des sehr angenehmen und produktiven Klimas der „Römischen Warmzeit“ heben. Ein weiterer Anstieg von +2°C würde nur positive ökonomische Vorteile bringen für den größten Teil der Nordhemisphäre.

Die Alarmisten einer katastrophalen globalen Erwärmung postulieren, dass der Temperaturanstieg das „potentiell schreckliche“ Niveau von +6°C erreicht durch die Berücksichtigung wesentlicher positiver Rückkopplungen durch zusätzlichen Wasserdampf in der Atmosphäre, doch würde uns dieses extreme Niveau hinsichtlich der Temperatur immer noch lediglich auf das Niveau des Eemian-Maximums zuvor heben.

Die Eemian-Zwischeneiszeit vor etwa 120.000 Jahren war eine warme und sehr fruchtbare Periode in der jüngeren Weltgeschichte: Flusspferde tummelten sich im Rheindelta. Infolge des Rückzugs der Eisschilde während der Eemian-Epoche lag der Meeresspiegel etwa 3 Meter höher als derzeit. Aber jener Prozess des Rückzugs der Eisschilde würde Jahrtausende in Anspruch nehmen.

Aber den Alarmisten zufolge ist diese gesamte radikale und destruktive Temperaturzunahme in einem Zeitraum von weniger als 100 Jahren zu erwarten, nämlich in diesem Jahrhundert von 2000 bis 2100. Und er ist ausschließlich dem Verbrennen fossiler Treibstoffe seitens der Menschheit geschuldet mit der zusätzlichen Freisetzung von Kohlendioxid in der Atmosphäre.

Während der letzten 20 Jahre:

sind die anthropogenen CO2-Emissionen um etwa 14% gestiegen,

hat die CO2-Konzentration in der Atmosphäre um etwa 8% zugenommen,

aber es gab keine wahrnehmbare Zunahme der globalen Temperatur.

Die Alarmisten der globalen Erwärmung, darunter

● das IPCC

● die Vereinten Nationen

● viele westliche Regierungen

● und grüne NGOs usw.,

bestehen aggressiv auf einer Katastrophe mit exzessiven Anstiegen der Temperatur. Aber es ist eine extreme Hybris zu erwarten, dass die Menschheit eine komplette Umkehr des weltweiten Klimaprozesses der letzten 3000 Jahre erreichen kann, geschweige denn einen Temperaturanstieg von +6°C während dieses Jahrhunderts.

Setzt man die postulierte Erwärmung in diesem Jahrhundert, wie sie vom IPCC und anderen Alarmisten der globalen Erwärmung propagiert wird, in den Zusammenhang mit dem tatsächlichen Temperaturverlauf im Holozän, wird die absolute Implausibilität der Hypothese von der anthropogenen globalen Erwärmung nur zu offensichtlich.

Link: http://wattsupwiththat.com/2015/06/01/ice-core-data-shows-the-much-feared-2c-climate-tipping-point-has-already-occurred/

Übersetzt von Chris Frey EIKE




Ein erster Blick auf eine Studie von Karl et al. in Science, 4. Juni 2015

Bild rechts: Ozeanriesen vor der Kugelbake in Cuxhaven. Bild: © Chris Frey 2015

Hintergrund

Der Gedanke, dass es seit Ende der neunziger Jahre einen Stillstand der globalen Erwärmung gegeben hatte, stammt aus Analysen vieler verschiedener Datensätze:

HadCRUT(land surface + ocean)

NCDC(land surface + ocean)

GISS(land surface + ocean)

RSS(lower troposphere)

UAH(lower troposphere)

Ocean Heat Content (0-2000m)Argo floats (black line)

NOAA SST est’s (red solid and dashed lines)

Quellen: Alle Daten von http://www.climate4you.com/GlobalTemperatures.htm außer der letzten Graphik, die von hier stammt: http://www.nature.com/nclimate/journal/v5/n3/full/nclimate2513.html.

Der jüngste Bericht des IPCC hat diesen Stillstand festgestellt und wie folgt kommentiert (Working Group I, Chapter 9, Box 9.2):

Die gemessene globale mittlere Temperatur GMST) hat einen viel geringeren zunehmenden linearen Trend an den Tag gelegt während der letzten 15 Jahre als während der letzten 30 bis 60 Jahre … Abhängig vom beobachteten Datensatz wird geschätzt, dass der GMST-Trend von 1998 bis 2012 nur etwa ein Drittel bis halb so groß ist wie der Trend von 1951 bis 2010.

Neue Schätzungen von K15

Karl et al. (2015, was ich hiernach nur noch K15 nennen möchte) haben eine ganz andere Meldung ausgestreut und sagen, dass der Trend nach 1998 viel höher ist als ursprünglich gedacht. Er ist tatsächlich genauso hoch wie im Intervall nach 1951. Sie begründen ihre Schätzungen wie folgt:

Die große Quelle der Änderung ist eine Korrektur nach oben (+0,06°C/ Dekade) des globalen Trends der Wassertemperatur (SST) nach 1998. Der Festlands-Trend wurde nur geringfügig geändert:


Was also hat sich in den SST-Aufzeichnungen verändert? Man behalte im Hinterkopf, dass es nur sehr wenige Aufzeichnungen der Lufttemperatur über den Ozeanen gibt, vor allem vor dem Jahr 1950. Um also langfristige Klimaschätzungen zu erhalten, nutzen Wissenschaftler die SST-Daten, die seit dem 19. Jahrhundert von Schiffen gemessen worden sind. Die langfristigen SST-Aufzeichnungen wurden niemals zum Zwecke einer Klima-Analyse gesammelt, und es ist notorisch schwierig, mit ihnen zu arbeiten. Viele Beurteilungen müssen vorgenommen werden, um eine finale Aufzeichnung zu erhalten, und wie der K15-Beitrag zeigt, verursachen Änderungen bei einigen dieser Beurteilungen erhebliche Änderungen bei den finalen Ergebnissen.

Grundlegendes zu den SST-Daten

Es gibt umfangreiche Literatur zu den Verfahren, eine konsistente Klimaaufzeichnung aus den SST-Archiven abzuleiten. Bei K15 wird eine dieser Aufzeichnungen herangezogen, genannt die Extended Reconstructed Sea Surface Temperature Version 4 (ERSSTv4). Damit wird eine neue globale Klimaaufzeichnung berechnet. Die Differenz ihrer Trends ist Änderungen zwischen den Versionen ERSST 3b und 4 geschuldet.

Fast alle historischen SST-Produkte sind abgeleitet aus dem International Comprehensive Ocean-Atmosphere Data Set (ICOADS, http://icoads.noaa.gov/) [comprehensive = umfassend] oder einem der Vorläufer desselben. ICOADS kombiniert etwa 125 Millionen SST-Aufzeichnungen von Schiffsbeobachtungen und weitere 60 Millionen Messungen von Bojen und anderen Quellen [1]. Ein großer Beitragender zum ICOADS-Archiv ist die UK Marine Data Bank. Unter anderen historischen Quellen finden sich u. A. die Marine, Handelsflotten, Containerschiffe, Bojen-Netzwerke usw.

Die SST-Daten wurden historisch mit verschiedenen Verfahren zusammengestellt:

● Hölzerne Eimer wurden über Bord geworfen, mit Meerwasser gefüllt und wieder an Deck gehievt; danach wurde die Wassertemperatur im Eimer mit einem Thermometer gemessen.

● Gleiches Verfahren, nur mit Segelplanen

● Gleiches Verfahren, nur mit isolierten Eimern

● Automatische Temperaturmessungen im Kühlwasser für die Schiffsmotoren

● Sensoren an der Außenwand der Schiffe

● Treibende und feste Bojen

Zusätzlich gibt es Archive von Marine Air Temperature (MAT), gemessen von Schiffen mit meteorologischer Ausrüstung an Deck.

Hier folgt eine Liste mit einigen der Probleme, mit denen es die Wissenschaftler zu tun haben, wenn sie auf der Grundlage dieser Zusammenstellungen konsistente Temperaturverläufe konstruieren wollen:

● Schiffe befahren zumeist bestimmte Routen, und riesige Gebiete der Ozeane (vor allem auf der Südhemisphäre) haben niemals ein Schiff gesehen [3]

● Seeleute sind nicht gezwungen, Eimer-Messungen vorzunehmen während Stürmen und anderen gefährlichen Bedingungen.

● Messungen wurden nicht notwendigerweise immer zur gleichen Tageszeit durchgeführt

● Während des Prozesses, den Wassereimer an Deck zu hieven, kann sich die Temperatur der Wasserprobe ändern

● Die Änderungen sind unterschiedlich, je nachdem, wie groß das Schiff ist, ob der Eimer aus Holz oder Planen besteht, ob er isoliert ist und wie schnell die Messung durchgeführt wird

● Das Einströmen von Kühlwasser (ERI) kann bei kleinen Schiffen direkt unter der Wasseroberfläche, bei großen Schiffen aber bis zu 15 Meter unter der Oberfläche erfolgen

● Genauso können die Sensoren in der Außenwand in ganz unterschiedlichen Tiefen liegen und außerdem Gegenstand von Temperatureffekten mit der Zeit sein, da die Schiffsmotoren die Außenwand aufheizen

● MAT-Messungen werden in Höhe des Decks gewonnen, und moderne Schiffe sind viel höher als ältere Modelle. Die Instrumente befinden sich also nicht in der gleichen Höhe über dem Meeresspiegel

● Bojen tendieren dazu, näher an der Wasseroberfläche zu messen als die ERI-Daten

● Es gab nicht viele Messbojen in den Ozeanen der Welt vor den siebziger Jahren, aber jetzt gibt es viel mehr, deren Werte jetzt in die Mittelung Eingang finden

Jetzt füge man zu diesen Problemen noch hinzu, dass bei Dateneingang in dieses Archiv in etwa der Hälfte aller Fälle gar nicht bekannt ist, welche Methode zur Datengewinnung verwendet worden ist (Hirahari et al. 2014). In einigen Fällen wurde angemerkt, dass beispielsweise ERI-Messungen durchgeführt worden waren, jedoch ohne die Angabe, in welcher Tiefe. Oder die Höhe des Schiffes bleibt unbekannt, wenn eine MAT-Messung durchgeführt wird. Und so weiter.

Schiffe und Bojen werden als in situ-Messungen betrachtet. Da in situ-Daten niemals den ganzen Ozean abgedeckt haben, verwenden die meisten Forscher Satellitenaufzeichnungen, die jedoch erst seit dem Jahr 1978 zur Verfügung stehen, um über nicht erfasste Gebiete zu interpolieren. Infrarot-Daten vom Advanced Very High Resolution Radiometer (AVHRR)-System können die Wassertemperatur akkurat messen, müssen jedoch mit bestehenden SST-Aufzeichnungen kalibriert werden. Außerdem können diese Messungen beim Vorhandensein tiefer Wolken oder dichter Aerosole unzuverlässig sein. Während der letzten paar Jahre haben neue Satelliten-Verfahren (Tropical Rainfall Measuring Mission oder TRMM sowie der Advanced Microwave Scanning Radiometer oder AMSR-E) eine genauere Datensammlung ermöglicht, auch bei Wolken- und Aerosol-Bedingungen.

Hadley, GISS und Hirahara et al. 2014 [4] verwenden allesamt Satellitendaten, um Interpolations-Schätzungen in datenarmen Gebieten zu verbessern. Das ERSST-Team (d. h. K15) haben das vor der Version 3b gemacht, dann aber nicht mehr wegen ihrer Bedenken hinsichtlich der Genauigkeit.

Die drei wesentlichen ERSSTv4-Adjustierungen

Die oben genannten Messprobleme sind gut bekannt. Viel Arbeit wurde während der letzten Jahrzehnte dafür geleistet zu versuchen, einige der Metadaten für in situ-Temperaturmessungen zu gewinnen und auch Korrekturen abzuschätzen, um Verzerrungen auszumerzen, die den Rohdaten innewohnen. K15 haben einige vergleichsweise geringe Änderungen der Bias-Korrektur-Verfahren vorgenommen, und das Ergebnis ist eine große Zunahme des Trends nach 1998.

A. Sie addierten 0,12°C zu den Bojen-Messwerten, angeblich um sie vergleichbar zu machen mit Schiffsmessungen. Wie die Autoren anmerken, repräsentieren Bojen-Messwerte einen steigenden Anteil an den Beobachtungen der letzten Jahrzehnte, was den vermeintlichen Erwärmungstrend verstärkt.

B. Sie haben den Bojen-Messwerten bei den Berechnungen zusätzliches Gewicht verliehen.

C. Sie haben auch Adjustierungen an die nach 1941 von Schiffen gewonnenen Daten angebracht, vor allem eine große Abkühlungs-Adjustierung bei Messungen von 1998 bis 2000.

Nimmt man all diese Veränderungen zusammen, lässt sich der verstärkte Trend der letzten 15 Jahre zum größten Teil erklären. So muss nun jeder für sich selbst darüber befinden, ob diese Adjustierungen angemessen sind oder nicht.

Vielleicht sind sie es. Das Hauptproblem für uns Beobachter ist, dass andere Teams die gleichen Dinge bearbeitet haben und zu ganz anderen Ergebnissen gekommen sind. Und die K15-Daten nach 1998 passen nicht zu den Ergebnissen anderer unabhängiger Quellen einschließlich Wettersatelliten.

A.Betrachtet man die erste Adjustierung, nehmen K15 die Bojen-Daten und addieren 0,12°C zu jedem Messwert. Sie errechneten diese Zahl, indem sie Stellen betrachteten, an denen Bojen- und Schiffsdaten an den gleichen Stellen gesammelt worden sind. Dabei stellten sie fest, dass die Schiffsdaten im Mittel um 0,12°C wärmer waren als die Bojendaten. Also wurden die Bojendaten entsprechend korrigiert. Dies entspricht in etwa der Größenordnung, die auch von anderen Teams gefunden worden ist, obwohl der Bias normalerweise den Schiffen und nicht den Bojen zugeordnet wird:

Jüngere SST-Beobachtungen werden hauptsächlich durch treibende Bojen durchgeführt, die in den globalen Ozeanen ausgesetzt worden sind (Abbildungen 1 und 2). Die Bojen messen die Wassertemperatur direkt ohne Meerwasser an Deck oder in das Innere eines Schiffes zu expedieren. Daher geht man davon aus, dass Bojenmessungen genauer sind als Eimer- oder ERI-Daten… In dieser Studie betrachten wir diese Differenz als einen Bias in den ERI-Messungen, und bei den Treibbojen werden keine Verzerrungen angenommen. Der mittlere ERI-Bias von +0,13°C wurde erhalten und liegt innerhalb der Bandbreite des globalen Gebietes, das in Tabelle 5 bei Kennedy et al. 2011 gelistet ist (Zitat aus Hirahari et al. 2014, S. 61)

Jenes Zitat bezieht sich auf eine Studie von Kennedy et al. (2011, Tabelle 5) [5], in der von einem mittleren Bias von +0,12°C die Rede ist. Allerdings merken Kennedy et al. auch an, dass die Schätzung sehr unsicher ist: sie beträgt 0,12°C ± 1,7°C! Außerdem variiert der Bias in verschiedenen Gebieten. Dies ist der grundlegende Unterschied zwischen dem Verfahren von K15 und den Verfahren Anderer. K15 addierten 0,12°C zu allen Bojendaten, aber die Hadley-Gruppe und die Hirahari-Gruppe verwendeten gebietsspezifische Adjustierungen.

B. Es gibt hinsichtlich dieses Schrittes keine detaillierten Angaben. K15 sagen einfach: Weil die Bojendaten als zuverlässiger angesehen werden, erhielten sie mehr Gewicht in der statistischen Prozedur, und dies „führte zu mehr Erwärmung“. Die Schritte A und B waren für fast die Hälfte der zusätzlichen Erwärmung verantwortlich.

C. Zuvor wurde von Anderen angemerkt, dass die SST-Daten von Schiffen einen rapideren Erwärmungstrend zeigen als in der Nähe gemessene Lufttemperaturen von Bojen (Christy et al. 2001) [6]. K15 berechnen eine Adjustierung an die SST-Daten auf der Grundlage von Vergleichen mit nächtlichen MAT-Daten aus einem Datensatz mit der Bezeichnung HadNMAT2. K15 sagen, dass dies für etwa die Hälfte der neuen Erwärmung in ihrem Datensatz verantwortlich ist. Sie verteidigen dies mit der Aussage, dass dies die Schiffsaufzeichnungen auf eine Linie mit den NMAT-Daten gebracht hat. Allerdings ist dieser spezielle Schritt schon zuvor von Kennedy et al. sowie Hirahara et al. in Erwägung gezogen worden. Diese sprachen sich für alternative Methoden aus, weil die NMAT-Daten ihre eigenen „überall vorhandenen systematischen Fehler“ haben [7], von denen einige bereits oben erwähnt worden sind. Statt also mechanische Formeln auf der Grundlage der NMAT-Daten zu verwenden, haben andere Teams sehr detailliert auf verbleibende Metadaten geschaut für jeden Messtyp. Dann haben diese Teams Korrekturen auf der Grundlage der involvierten Systeme und Örtlichkeiten vorgenommen.

Numerisches Beispiel

Hier folgt ein einfaches numerisches Beispiel, um zu zeigen, wie diese Hypothesen wichtige Änderungen der Ergebnisse verursachen können. Nehmen wir an, wir haben SST-Daten von zwei Quellen: Schiffe und Bojen. Nehmen wir weiter an, dass Schiffe die Temperatur immer um genau 1°C überschätzen und Bojen um genau 1°C unterschätzen. Wir verfügen über einen Satz von Messungen alle 10 Jahre, und wir sind uns nicht sicher, welcher Anteil von Schiffen und welcher von Bojen stammt. Sowohl Schiffe als auch Bojen messen den zugrunde liegenden Trend, der eine Erwärmung von 0,1°C von 1900 bis 1990 zeigt; danach gibt es keinen Trend mehr.

Die folgende Tabelle zeigt die simulierten Zahlen. Nehmen wir an, der wirkliche Anteil der Schiffe im Datenkollektiv beginnt bei 95% im Jahre 1900 und nimmt in jedem Jahrzehnt um 8% ab, bis zu einem Anteil von 7% im Jahre 2010.

Das wirkliche Mittel wird berechnet unter Verwendung des Gewichtes in der Spalte True Ship %, wobei 1°C zu den Bojendaten addiert werden und 1°C von den Schiffsdaten subtrahiert werden. Das Ergebnis zeigt die folgende Graphik:

Die dünnen schwarzen und grauen Linien sind die Schiffs- (oben) und die Bojendaten (unten), während die dicke schwarze Linie in der Mitte das Wahre Mittel ist.

Aber jetzt nehmen wir einmal an, dass wir nicht wissen, welche korrekte Adjustierung an die Bojen- oder die Schiffsdaten anzubringen ist, und wir kennen auch nicht die True Ship-Prozentzahlen. Wir schätzen das globale Mittel folgendermaßen:

● Man adjustiere die Bojendaten um +2°C jedes Jahr (etwas zu viel)

● Man adjustiere die Schiffsdaten um -1°C jedes Jahr (die richtige Größenordnung)

● Nach 1940 fügen wir auch eine Abkühlungs-Adjustierung den Schiffsdaten hinzu. Sie beginnt bei -0,25°C und steigt um diesen Betrag in jedem Jahrzehnt.

● Außerdem kühlen wir die Schiffsdaten um 1°C nur in den Jahren 1990 und 2000

● Wir schätzen die Schiffs-Prozentzahlen. Sie beginnen bei 99% im Jahre 1900 (etwas hoch) und reduzieren dies um 7% in jedem Jahrzehnt (etwas zu wenig) bis zum Jahr 1990. An diesem Punkt beobachten wir die True Ship-Prozente und folgen ihnen nachfolgend genau.

Bevor wir die Ergebnisse betrachten, frage man sich selbst, ob man glaubt, dass diese Adjustierungen einen großen Unterschied machen.

Das neue geschätzte Mittel ist die rote gestrichelte Linie.

Bis zum Jahr 1990 passt es ganz gut, aber der akkumulierte Effekt all der kleinen Fehler ist der künstliche Trend, der zum Ende der Reihe auftaucht. An dieser Stelle würden wir hoffen, einige unabhängige Daten des Trends nach 1990 zu haben, um das Ergebnis zu vergleichen, um festzustellen, ob unsere Verfahren und Hypothesen vernünftig waren.

Dieses Beispiel beweist natürlich nichts über K15, außer dass kleine Änderungen bei den Hypothesen, wie die Unsicherheiten in den Daten große Auswirkungen auf die Endergebnisse haben können. Aber das war vorher schon klar, weil K15 selbst erklären, dass ihre neuen Hypothesen – keine neuen Beobachtungen – das sind, was den Erwärmungstrend zum Ende ihres Datensatzes zum Vorschein brachte.

Schlussfolgerung

Sind die neuen K15-Adjustierungen korrekt? Offensichtlich ist es nicht an mir, dies zu sagen – es ist etwas, das von Spezialisten auf diesem Gebiet debattiert werden muss. Aber ich habe Folgendes beobachtet:

● Alle zugrunde liegenden Daten (NMAT, Schiffe, Bojen usw.) haben inhärente Probleme, und viele Teams haben sich viele Jahre lang bemüht herauszufinden, wie man mit diesen Fehlern umgeht.

● Die HadNMAT2-Daten sind weit gestreut und unvollständig. K15 vertreten die Position, dass das In-Linie-Bringen der Schiffsdaten mit diesem Datensatz die Schiffsdaten zuverlässiger macht. Diese Position haben andere Teams nicht übernommen, einschließlich des Teams selbst, dass die HadNMAT2-Daten entwickelt hatte.

● Es ist sehr seltsam, dass eine Abkühlungs-Adjustierung an die SST-Aufzeichnungen von 1998 bis 2000 einen so großen Effekt auf den globalen Trend haben soll, nämlich die Beseitigung des Stillstands, der in so vielen anderen Datensätzen hervortritt, besonders angesichts dessen, dass andere Teams keine Gründe gefunden hatten, solche Adjustierungen vorzunehmen.

● Das Ausreißer-Ergebnis in den K15-Daten könnte bedeuten, dass alle anderen etwas übersehen, oder es könnte einfach bedeuten, dass die neuen K15-Adjustierungen ungültig sind.

Es wird interessant sein, die Spezialisten auf diesem Gebiet während der kommenden Monaten über diese Frage reden zu hören.

Ross McKitrick

[1] Woodruff, S.D., H. F. Diaz, S. J. Worley, R. W. Reynolds, and S. J. Lubker, (2005). “Early ship observational data and ICOADS.” Climatic Change, 73, 169–194.

[2] See http://www.metoffice.gov.uk/hadobs/hadsst3/Kennedy_2013_submitted.pdf for a review.

[3] Rayner, N. A., D. E. Parker, E. B. Horton, C. K. Folland, L. V. Alexander, D. P. Rowell, E. C. Kent, and A. Kaplan, (2003): Global analyses of sea surface temperature, sea ice, and night marine air temperature since the late nineteenth century. Journal of Geophysical Research, 108(D14), 4407, doi:10.1029/2002JD002670.

[4] Hirahara, S. et al. Centennial-Scale Sea Surface Temperature Analysis and Its Uncertainty, Journal of Climate Vol 27 DOI: 10.1175/JCLI-D-12-00837.1

[5] http://www.metoffice.gov.uk/hadobs/hadsst3/part_2_figinline.pdf

[6] Christy, John R., David E. Parker, Simon J. Brown, et al. 2001 Differential trends in tropical sea surface and atmospheric temperatures since 1979. Geophysical Research Letters 28, no. 1

[7] http://www.metoffice.gov.uk/hadobs/hadsst3/Kennedy_2013_submitted.pdf page 28.

Link: http://wattsupwiththat.com/2015/06/04/a-first-look-at-possible-artifacts-of-data-biases-in-the-recent-global-surface-warming-hiatus-by-karl-et-al-science-4-june-2015/

Übersetzt von Chris Frey EIKE




Schlaraffenland im EEG-Paradies – Wie man die Verbraucher gegeneinander ausspielen und dann austricksen kann

von Helmut Kunz

Schlaraffenland im EEG-Paradies

Dank dem EEG ist Deutschland ein Land neuer Erfindungen – und eine schaffte nicht nur den  Durchbruch, nein den Quantensprung – Ökostrom ist kostenlos geworden!

Am 2.6.15 kam in vielen Infoquellen(5) die Information:

Zu Bild rechts: Logo des Internetportals zur Sonnenenergie mit folgendem Hinweis:

Schwarmspeicher-Verbund lässt kostenlosen Strom fließen; Leipziger Unternehmen meldet Quantensprung im Energiemarkt

In der Nacht vom 31.05. zum 01.06.2015 wurde erstmals in der Geschichte der modernen Elektrizität kostenloser Strom in Energiespeicher-Systeme geladen, berichtet die Deutsche Energieversorgung GmbH (Leipzig), Hersteller von Speichersystemen der Marke SENEC.IES.

Diese Erstbeladung sei der Auftakt für den Schwarmspeicher-Verbund Econamic Grid dar, mit dem Endverbraucher in Deutschland Gratis-Strom beziehen können. Nach zweijähriger Entwicklungsphase habe SENEC.IES damit einen Meilenstein im Energiemarkt erreicht.

Wie funktioniert der kostenlose Strom? Wir lesen dazu im Firmenprospekt(1)

(Anm.: Hervorhebungen durch den Verfasser)

Warum stehen Windräder still?

Haben Sie sich schon gefragt, warum manchmal in einem  Windpark einige Windräder still stehen?

Hier greift die EEG-Abregelung, wenn zu viel Energie im öffentlichen Stromnetz zur Verfügung steht und die Übertragungsnetze überlastet sind. Kraftwerke müssen dann abgeschaltet oder gedrosselt werden. Da die abgeregelte Leistung trotzdem vergütet wird, entstehen doppelte Kosten.

Da wir mit Econamic Grid© das Netz entlasten, was von den Netzbetreibern vergütet wird, können wir Ihnen diesen überschüssigen Strom kostenlos in Ihrem SENEC.Home Stromspeicher zur Verfügung stellen.

Wieso kostet Sie Überschuss-Strom über Econamic Grid© nichts?

Diesen Strom können wir Ihnen kostenlos zur Verfügung stellen, da er zum Zeitpunkt des Überschusses in Deutschland nicht anderweitig verwendet werden kann. Mit Econamic Grid© übernehmen wir eine Netzdienstleistung, die von den Netzbetreibern vergütet wird. Diese Vergütung nutzen wir zur Deckung der anfallenden Kosten. Die Energie stellen wir Ihnen daher kostenlos zur Verfügung –  als erster Hersteller von Stromspeichern in Deutschland.

Kann ich auch Energie zur Verfügung stellen?

Ja, das können Sie. Die Energie, die Sie zum Beispiel aus Ihrer Photovoltaik-Anlage in das öffentliche Netz einspeisen, wird mit bis zu 0,35 €/kWh vergütet – abhängig vom aktuellen Strompreis für Regelenergie. Diese Stromvergütung ist unabhängig von der  EEG-Einspeisevergütung. 

Solch neue Erfindungen braucht das Land. Um zu weiteren anzuregen, erklären wir sie noch einmal mit anderen Worten

Der kostenlose Strom löst – wie beim EEG üblich  – ein Problem, welches es ohne Ökostrom so nicht gab.

Das Problem:

Prospekt: … wenn zu viel Energie im öffentlichen Stromnetz zur Verfügung steht und die Übertragungsnetze überlastet sind. Kraftwerke müssen dann abgeschaltet oder gedrosselt werden. Da die abgeregelte Leistung trotzdem vergütet wird, entstehen doppelte Kosten.

Klartext: Bei zu viel Ökostromeinspeisung muss die Einspeisung  gekappt werden. Um sich die Mengen klar zu machen, die Info aus den FAQ(3):2013 waren das 33,4 Mrd. kWh!“.

Wegen des Einspeise-Vorrangs ist der dadurch nicht eingespeiste Strom aber zu bezahlen, als wäre er geliefert worden. Zusätzlich entsteht bei der dann bestehenden Maximaleinspeisung  der Effekt, dass parallel auch die Grundlastkraftwerke zurückgeregelt werden müssen (denn die sind ja notgedrungen für 100 % ausgelegt), was auch bezahlt werden muss. 

Wenn also z.B. 130 % Ökostrom verfügbar sind, bestehen die folgenden Kostenpositionen:

·       100 % Ökostrom: wird mit Einspeisevergütung bezahlt

·       30 % Ökostrom-Überschuss: wird voll mit der Einspeisevergütung bezahlt , aber nicht eingespeist.

·       100 % Abregelung der Grundlastkraftwerke: wird bezahlt.

Und so funktioniert der Quantensprung zum Schlaraffenland

Prospekt: Da wir mit Econamic Grid© das Netz entlasten, was von den Netzbetreibern vergütet wird, können wir Ihnen diesen überschüssigen Strom kostenlos in Ihrem SENEC.Home Stromspeicher zur Verfügung stellen.

Klartext: Bei zu viel Ökostromeinspeisung wird der überschüssige Ökostrom nun ebenfalls ins Netzt eingespeist. Damit das möglich ist, muss der überschüssige Strom aber sofort von Stromsenken aufgenommen und gespeichert werden, in diesem Fall den Batterieen des Econamic Grid©. Die Stromsenken-Anbieter müssen sich verpflichten, den über 100 % liegenden Überstrom aufnehmen zu können. Diese Bereitstellung wird bezahlt und der jeweils aufgenommene Strom wird vergütet.

Wenn also z.B. 130 % Ökostrom das Netz überlasten, bestehen die folgenden Kostenpositionen:

·       100 % Ökostrom: wird mit Einspeisevergütung bezahlt.

·       30 % Ökostrom-Überschuss: wird wie schon vorher, mit EEG-              Einspeisevergütung bezahlt, aber nun ebenfalls eingespeist .

·       30 % Ökostrom (die zu viel im Netzt sind) müssen sofort aus dem Netz            verschwinden. Deshalb wird er in Senken – hier Batteriesystemen –  eingespeist und gespeichert.

o   Bezahlt wird für den Strom eine „Entsorgungsvergütung“

o   Zusätzlich wird eine Bereitstellungsvergütung für die Stromsenken bezahlt.

·       Weiter notwendige Abregelungen der Grundlastkraftwerke: wird bezahlt

Die 30 % Überschußstrom in den Stromsenken kann der Inhaber der jeweiligen Senken verbrauchen, oder auch als positiven Regelstrom bei Anforderung zurückspeisen. Macht er das, bekommt er je nach Ausschreibungspreis eventuell eine höhere Vergütung als der ursprüngliche Stromlieferant.

Das Schlaraffenland geht weiter

Prospekt: Die Energie, die Sie zum Beispiel aus Ihrer Photovoltaik-Anlage in das öffentliche Netz einspeisen, wird mit bis zu 0,35 €/kWh vergütet – abhängig vom aktuellen Strompreis für Regelenergie. Diese Stromvergütung ist unabhängig von der  EEG-Einspeisevergütung.

Klartext: Beim Einspeisen von EEG-Strom wird inzwischen ja nur noch eine öfters nicht mehr wirklich lukrative EEG-Vergütung bezahlt. Ist der eingespeiste Strom aber positiver Regelenergie-Strom, dann kann die Vergütung – abhängig vom Ausschreibungspreis – sogar deutlich höher sein als der, den der vorherige Einpeiser nach EEG bekommen hat. Denn der Regelstrom wird nicht nach EEG bezahlt.

Das gilt auch für den Strom, den man von einer Photovoltaik-Anlage dazu vorher in die Batterie selbst eingespeist hat. Und zusätzlich wird die Investition selbst auch gefördert(2).

Bietet diese Ökoenergie-Innovation Vorteile für den Bürger?

Selbstverständlich, und nicht wenige!

Vorher bekam häufig das Ausland den überflüssigen, deutschen  Ökostrom geschenkt oder sogar etwas für die „Entsorgung“ bezahlt. Nun bleibt diese moderne Wertschöpfung endlich im eigenen Land. – eben gelebte  „Best Practices“(4). Die Teilhaber tun auch das, was man heute von jedem Bürger erwarten kann (1), … sie leisten einen aktiven Beitrag zur Umwelt: überschüssiger Strom wird sinnvoll genutzt.

Und endlich ist bewiesen, dass Wind und Sonne wirklich keine Rechnungen, sondern im Gegenteil, sogar Vergütungen liefern. Damit ist das Arbeiterparadies – an welchem der (ehemalige) Osten mangels Geld noch scheiterte –  (dank unserem Geld) wirklich ganz nah.

Wenn alle „schmutzigen“ Kraftwerke abgeschaltet sind und nur noch begnadeter Ökostrom fließt, haben wir gesicherte 500 – 900 % Stromüberschuss. Jeder kann mit einfachem Dreisatz leicht ausrechnen, dass dessen Vergütung bei Weitem die Kosten der ersten 100 % (Grundlastbedarf) überkompensiert. Einfacher und plausibler kann man nicht belegen,  dass dann „erstmals in der Geschichte der modernen Elektrizität“ (5) alle kostenlosen Strom haben werden.  

Und wer ist der Dumme in diesem System?

Alle Strombezieher, die nicht daran teilnehmen.

Doch auch die brauchen nur noch etwas zu warten. Für sie kommt der kostenlose Strom ebenfalls  noch ganz bestimmt – die Ökoenergieexperten sind sich da ganz sicher -.

Nachtrag

Nach bisher noch unbestätigten Gerüchten soll den Schildbürgern posthum der Nobelpreis  (man sucht nur noch den EEG-Nobel dazu)  für besondere Verdienste um die Ökoenergie verliehen werden. Begründet wird dies damit, dass sie erstmals aufzeigten, wie man Probleme selbst erzeugt, sie dann auch mit viel Eifer nicht löst; dabei aber vorbildlich motiviert und innovativ ist – und als überall zitierte Vorbilder in die Weltgeschichte eingeht.

Helmut Kuntz

Quellen

(1)

Firmenprospekt Publikation: Econamic Grid©  Wir schenken Ihnen Strom!

http://www.photon.info/newsletter/document/84340.pdf

(2)

Solarförderung Fotovoltaik 2015 – was ist noch drin?

Seit Mai 2013 ist das anders: Seitdem bezuschusst der Staat den Kauf neuer Batteriespeicher für Solarstromanlagen mit bis zu 660 Euro pro Kilowatt Solarstromleistung.

http://www.energie-tipp.de/neue-energie/sonne/3923650

(3)

ECONAMIC GRID Fragen & Fakten

http://www.senec-ies.com/faq-zu-econamic-grid.html

(4)

NEXT Kraftwerke Publikation „Next-Pool“ Virtuelles Kraftwerk aus Erneuerbaren Energien

1. Fachdialog Intelligente Netze „Aktuelle Entwicklungen und Best Practices“

http://www.bmwi.de/BMWi/Redaktion/PDF/M-O/next-pool-virtuelles-kraftwerk-aus-erneuerbaren-energien,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf

(5)

Artikelfundstellen (beispielhaft):

www.solarserver.de

http://www.energie-und-technik.de/energiespeicher/artikel/120089/?cid=NL

Publizierungen des Pressetextes: Schwarmspeicher-Verbund lässt kostenlosen Strom fließen; Leipziger Unternehmen meldet Quantensprung im Energiemarkt

In der Nacht vom 31.05. zum 01.06.2015 wurde erstmals in der Geschichte der modernen Elektrizität kostenloser Strom in Energiespeicher-Systeme geladen.




(II) Neue Bücher zur Energiewende, dem „Klimaschutz“ und dem Atomausstieg hier: „Energiewende 2014 – ein Debakel““

„Energiewende 2014 – ein Debakel“  

Der schmale Band von 70 Seiten ist das zweite Buch des Autors Dr. Erhard Beppler nachdem bereits 2013 sein Buch „Energiewende – zweite industrielle Revolution oder Fiasko?“ noch als Fragestellung im Titel erschienen war. Inzwischen haben sich die Dinge weiter geklärt, das Fragezeichen fiel weg, und die Aussage dafür wurde ganz klar. Die Energiewende ist ein Debakel.

Die Veröffentlichung dieses Buches mit dieser Aussage, die im Text reich belegt wird, fällt in eine Zeit, in der die Vorbereitungen für den Klimagipfel im Dezember 2015 in Paris auf vollen Touren laufen und in der unsere Bundeskanzlerin, die vorgibt sich um die Folgen der menschengemachten Erderwärmung große Sorgen zu machen, sich um den Ausstieg aus einer auf dem Verbrennen von Kohle, Öl und Gas basierenden Energieversorgung bemüht.

Hauptziel ist die Absenkung des CO2-Ausstoßes bis 2020 gemessen an 1990 um 40% – als Beitrag Deutschlands und Vorbild für die Weltgemeinschaft zugleich – ,um die Erdtemperatur nicht um mehr als zwei Grad Celsius über das vorindustrielle Niveau ansteigen zu lassen.

Ein wenig Beschäftigung mit der Erdgeschichte lehrt, dass die mittelalterliche, die römische und die davor liegenden Warmzeiten alle wärmer waren als die jetzige, auch ohne anthropogenen CO2-Ausstoß. Und wenn zudem berücksichtigt wird, dass die gegenwärtige Warmzeit ihren Zenit längst überschritten hat ( die Erdtemperatur steigt seit 18 Jahren nicht mehr an trotz ständig steigender CO2-Gehalte in der Atmosphäre), stellt sich die Frage nach der Sinnhaftigkeit der Forderung nach einem „Zwei-Grad-Ziel“ durch eine CO2-Absenkung mit all den damit verknüpften Konsequenzen für Deutschland und damit auch die Frage nach der Sinnhaftigkeit der „Deutschen Energiewende“ überhaupt.

Zu den bisherigen Konsequenzen dieser Energiewende für Deutschland zählen bereits jetzt die hohen Kosten von 25 Milliarden € pro Jahr, der Niedergang der großen Stromerzeuger Eon, RWE und ENBW mit dem Verlust von Tausenden von Arbeitsplätzen. Andere Unternehmen werden folgen, wie das jüngste Beispiel Siemens zeigt, ganz zu schweigen von den geplanten Stilllegungen von neuesten Gaskraftwerken.

Der Autor stellt uns ganz klar die (eher rethorische) Frage, wie lange wir uns diese Energiewende noch leisten können.

Vor diesem Hintergrund analysiert das Buch die im Jahre 2014 definierte „Energiewende 2014“ und zeigt mit erschreckender Deutlichkeit das Versagen dieser Energiewende auf mit in technischer und finanzieller Hinsicht zukünftig noch weiter reichenden Konsequenzen, die Deutschland am Ende nicht verkraften kann.

Das Buch ist über den Fachhandel sowohl als Taschenbuch zu beziehen und kostet dann 9,90 €, oder als Kindle Edition für 7,49 €

ISBN 978-3-7386-9418-5

Über den Autor

DR. ERHARD BEPPLER ist Diplom-Ingenieur der Fachrichtung Metal­lurgie. Seine Tätigkeit in leitender Funktion bei der ThyssenKrupp AG! in Forschung und Entwicklung im Wesentlichen im Bereich der Optimierung von Einsatzstoffen, der Prozesstechnik sowie der Modellierung ‚ von Prozessabläufen verschaffte ihm ein breites Wissen in physikalisch-chemischer und metallurgischer Verfahrenstechnik. Seine Forschungsarbeiten fanden Niederschlag in zahlreichen Publikationen im In- und Ausland. Durch sein breit aufgestelltes Wissen wurde er zur Leitung von nationalen und internationalen Ausschüssen/Veranstaltungen berufen.

Im Jahr 2000 schied er bei der ThyssenKrupp AG aus und beschäf­tigt sich seit dieser Zeit mit Klimafragen und den »Energiewenden« in Deutschland.

2013 erschien sein Buch: »Energiewende – Zweite industrielle Revolu­tion oder Fiasko«, ISBN 978-3-7322-0034-4.




Der Stillstand der Klimaerwärmung verschwindet im US-Bürokraten-Dschungel

Mann! Das Magazin Science veröffentlicht heute, am 4. Juni, eine Blockbuster-Studie. Das berühmte National Climate Data Center (NCDC), eine Abteilung der NOAA in Asheville, North Carolina, behauptet, dass der Temperatur-Stillstand, über den so viele (und akzeptierte) Berichte im Umlauf sind, eine Illusion ist – lediglich ein Artefakt der Datenanalyse – und dass das globale Klima niemals aufgehört hat, sich zu erwärmen. Falls das stimmen würde, welcher Segen wäre das für das IPCC – und für Klimaalarmisten allgemein, die schwer unter Druck stehen, den Grund für den Stillstand zu erklären [unübersetzbares Wortspiel: to explain the cause of the pause].

Natürlich könnte dem NCDC der NOAA am Ende Eier ins Gesicht fliegen. Es ist tatsächlich etwas verdächtig, dass das NCDC zu dieser erderschütternden „Entdeckung“ gekommen war, nachdem es seine eigenen Wetterstationsdaten „frisiert“ hatte, und zwar genau zur richtigen Zeit, unmittelbar vor der großen Politik-Konferenz im Dezember in Paris, welches den CO2-Anstieg durch Verbrennen von fossilen Treibstoffen stoppen soll.

Und jetzt beobachte man, wie die Fetzen fliegen, gibt es doch zwei wesentliche Gruppen, die ein erhebliches Eigeninteresse am Stillstand haben:

Es gibt nämlich mindestens zwei rivalisierende Datenzentren, die sich der NCDC-Analyse annehmen könnten: Das Hadley Centre in England und das GISS. Der Partner von Hadley, also die Climate Research Unit an der University of East Anglia war der erste, der die Existenz eines Stillstands der globalen Erwärmung verkündet hatte.

Dann gibt es da die Dutzende Wissenschaftler, die Forschungsstudien veröffentlicht haben mit dem Vorsatz, eine Erklärung für den berichteten Stillstand anzubieten. Sie werden alle mächtig enttäuscht sein, falls sich ihre intellektuellen Bemühungen als völlig umsonst herausstellen.

Aber einen Moment! Es könnte sich zeigen, dass das NCDC völlig falsch liegt. Nicht rein zufällig hat man dort die Aufzeichnungen der Oberflächen-Temperatur verwendet, samt aller sattsam bekannten Probleme. Nicht nur das, sondern ein Blick auf die detaillierten NCDC-Beweise zeigt, dass viel von den Temperaturen in den Polargebieten abhängt – welche mangels guter Beobachtungen meist geschätzt werden. Falls man die wirklich wahren Satellitendaten verwendet, entweder UAH oder RSS, ist der Stillstand immer noch vorhanden mit Beginn etwa im Jahre 2003 (siehe folgende Abbildung):

Nicht nur das, aber die gleichen Satellitendaten zeigen keinen Erwärmungstrend von 1979 bis 2000 – was natürlich bedeutet, dass der außerordentliche El Nino des Jahres 1998 ignoriert ist. Dieses Ergebnis wird von anderen, unabhängigen instrumentellen Daten bestätigt – und auch durch (nicht instrumentelle) Proxy-Aufzeichnungen. Dies führt zu wichtigen und weit reichenden Konsequenzen.

IPCC-Behauptungen bzgl. AGW unterminiert

Die IPCC-Zustandsberichte 4 (2007) und 5(2013) enthalten beide Behauptungen für AGW, die hauptsächlich auf der berichteten Erwärmung von 1979 bis 2000 basieren. Da ein solcher Erwärmungstrend jedoch fehlt, werden die IPCC-Behauptungen ungültig; es gibt keine vom Menschen verursachte Erwärmung im 20. Jahrhundert – und mit Sicherheit auch nicht davor.

Daher ist es jetzt notwendig, sorgfältig noch einmal das Fehlen von Erwärmung während der letzten beiden Jahrzehnte des 20. Jahrhunderts zu untersuchen.

Die Satellitenergebnisse eines Nahe-Null-Erwärmungstrends werden in vollem Umfang gestützt durch Daten von Radiosonden – unbeschadet falscher Behauptungen von Santer et al. (Int’l J of Climatology 2008). Das Fehlen eines tropischen „Hot Spots“ (ein einst kontroverser Erwärmungstrend in der oberen Troposphäre) macht das alles noch klarer.

Die Wassertemperaturen (SST) zeigen nur eine leichte Erwärmung – ebenso wie nächtliche maritime Lufttemperaturen (NMAT), zusammengestellt von der Hadley-Gruppe. Daten zum ozeanischen Wärmegehaltes vor dem Jahr 2000 sind sporadisch und nicht sehr brauchbar. In jedem Falle erfordert die Interpretation vertikaler Temperaturprofile die Berücksichtigung der ozeanischen Zirkulation.

Proxydaten verschiedener Arten, zusammengestellt von Fredrik Ljungqvist in Schweden und unabhängig davon von dem NOAA-Wissenschaftler David Anderson zeigen allgemein keine Erwärmung; Michael Mann hat seine Proxydaten vor 1979 nie veröffentlicht und hat sogar deren Existenz geleugnet (in einer persönlichen E-Mail aus dem Jahr 1990); dies nährt den Verdacht, dass der Grund ist, dass sie keine Erwärmung zeigen.

Ein kurzes Wort noch zur beobachteten (und authentischen) Erwärmung von 1910 bis 1940. Diese zeigt sich nicht nur bei Thermometermessungen an Wetterstationen, sondern in allen veröffentlichten Proxy-Datenreihen. Dummerweise konnte ich keinerlei atmosphärische Temperaturdaten für jene Periode finden. Allerdings besteht allgemein Übereinstimmung – einschließlich des IPCC – dass diese Erwärmung natürlichen Ursprungs und nicht Treibhausgasen geschuldet ist.

Folglich gibt es keinerlei Beweise für eine Erwärmung durch vom Menschen freigesetzte Treibhausgase wie CO2 – weder im gesamten 20. Jahrhundert noch davor.

Unter dem Strich

Man kann sicher darüber streiten, ob die NCDC-Ergebnisse korrekt sind – und ich erwarte ein viele Monate langes Hin und Her. Es wird mit Sicherheit auch viele Diskussionen geben über meine Erkenntnis, dass für AGW überhaupt keine Beweise vorliegen. Wir werden eine überzeugende Antwort für diese Frage brauchen: Warum zeigen Thermometer auf dem Festland vor dem Jahr 2000 eine Erwärmung, aber nicht mehr danach? Ich glaube, ich habe eine Antwort, aber ich muss erst noch versuchen, meine Kollegen zu überzeugen.

Eines ist jedoch sicher: Die derzeitigen IPCC-Klimamodelle können nicht das erklären, was die Beobachtungen zeigen. Das macht die Modelle ungeeignet für die Klimavorhersage – und für politische Zwecke allgemein.

———————————————

S. Fred Singer is professor emeritus at the University of Virginia and a founding director of the Science & Environmental Policy Project; in 2014, after 25 years, he stepped down as president of SEPP. His specialty is atmospheric and space physics. An expert in remote sensing and satellites, he served as the founding director of the US Weather Satellite Service and, more recently, as vice chair of the US National Advisory Committee on Oceans & Atmosphere. He is a Senior Fellow of the Heartland Institute and the Independent Institute. He co-authored the NY Times best-seller Unstoppable Global Warming: Every 1500 years. In 2007, he founded and has chaired the NIPCC (Nongovernmental International Panel on Climate Change), which has released several scientific reports [See NIPCCreport.org]. For recent writings see http://www.americanthinker.com/s_fred_singer/ and also Google Scholar.
Übersetzt von Chris Frey EIKE




Wonnemonat Mai: Neuerdings leicht unterkühlt?

Bild rechts: Erfrorener Blütentrieb der Weinrebe im Mai. Bildquelle: rebeundwein.de .

Abb 1: (Quelle der Maitemperaturen DWD, CO2 Mauna- Loa- Werte). Bis in die 1990er Jahre erwärmte sich der Mai, danach kühlte er sich wieder ab, während die Kohlendioxidkonzentration beschleunigt weiter gestiegen ist. Ein deutlicher Zusammenhang besteht hingegen zur im Mai stark erwärmend wirkenden Sonnenscheindauer, die ebenfalls seit etwa 15 Jahren rückläufig ist.

Besonders der Mai gilt als Monat der Freude und des seelischen Wohlbefindens, die Natur ist erwacht. Dieser Monat stimmt uns mit immer bunter werdendem Blütenflor auf den Frühsommer ein. Doch seit dem Höhepunkt der „Kleinen Warmzeit“, der von 1988 bis 1994 dauerte, deutet sich ein Temperaturrückgang im „Wonnemonat“ an (Abb. 2):

Abb. 2: Gegenläufige Entwicklung von CO2- Konzentration und Maitemperaturen seit 1988.

Betrachtet man noch kürzere Zeiträume, so sind leider die Mai- Temperaturen im Vergleich zu den deutschen Jahrestemperaturen besonders stark gesunken. Der Mai wurde in der Gegenwart eindeutig kälter (Abb. 3):

Abb. 3: (Quelle der Maitemperaturen, DWD) Die Maitemperaturen in Deutschland sind seit 1998 viel stärker gefallen als die Jahrestemperaturen. Der Frühling kommt 2015 deutlich später als im Jahre 2000 und die Eisheiligen in der Monatsmitte sind wieder deutlich wahrnehmbar mit Nachtfrösten. (siehe letzte Abb.) Auch der Mai 2015 hat diesen Trend zur Abkühlung fortgesetzt.

Die Tatsache des späteren Frühlings hat jeder gute Naturbeobachter, der seit Jahrzehnten am gleichen Ort lebt, längst wahrgenommen. In der Stadt und in unseren großflächigen Wärmeinseln wie dem Oberrheingraben, dem Rhein-Main-Gebiet oder im Mittleren Neckarraum werden zwar immer noch Ende April die Bäume grün, aber nicht mehr in der freien Fläche, abseits der vom Menschen in den letzten 150 Jahren geschaffenen großflächigen Wärmezonen. Im Mai scheint die erwärmende C02-Wirkung überall ausgesetzt zu haben, siehe Abb.2. Auch manche Tierarten scheinen bereits auf den leichten Abkühlungstrend zu reagieren. Die Mauersegler kehrten in den 1990er und 2000er Jahren nicht selten schon am 30. April nach Weimar zurück; in den vergangenen Jahren aber immer erst um oder kurz nach dem 5. Mai. Auch Ornithologen bestätigen dieses Jahr, Schreiadler und Kurzfangsperber kommen immer später.

In einem früheren Artikel hatten wir beschrieben, dass die Monate Dezember, Januar, Februar und März schon seit fast drei Jahrzehnten kälter werden, nur der April macht eine angenehme Ausnahme. http://www.eike-klima-energie.eu/news-cache/der-april-zeigt-eine-erfreuliche-erwaermung-auswirkungen-auf-die-vegetation/

Dieser (bislang) noch wärmer werdende April erklärt auch, warum sich die Holunderblüte, welche den Beginn des Frühsommers anzeigt, im Gegensatz zum Erst- und Vollfrühling leicht verfrüht hat (Abb. 4):

Abb. 4: Seit 1990 hat sich in Weimar der Erstfrühling (Stachelbeeraustrieb) verspätet, der Vollfrühling (Apfelblüte) zeigt fast keinen Trend, die ersten Holunderblüten zeigten sich hingegen eher, weil sich nur der April stark erwärmt hat. Die etwas kühleren Maitemperaturen konnten den Beginn der Holunderblüte, die meist so um den 10. Mai (nur in der Innenstadt so früh!) einsetzt, bislang nicht verzögern.

Der Mai indes reiht sich in die fallenden Temperaturtrends der Wintermonate ein. Wie lange die fallende Mai-Trendlinie (Siehe Abb.3) anhält, wissen wir allerdings nicht.

Zum Vergleich sollen nochmals die Gesamtjahrestemperaturen eingeblendet werden:

Abb. 5: Im Jahresmittel stagnieren die Deutschland- Temperaturen seit Ende der 1990er Jahre, im Mai (Abb. 3) gingen sie stark zurück.

Der Mai zeigt sogar schon seit fast drei Jahrzehnten eine leicht fallende Trendlinie:

Abb.6: Der Wonnemonat Mai zeigt schon seit fast drei Jahrzehnten eine leichte Abkühlung. Die Daten sind die Originaldaten des Deutschen Wetterdienstes und damit nicht wärmeinselbereinigt. Vor allem beim Mai wäre wegen der bereits sehr starken Sonneneinstrahlung eine WI-Bereinigung über einen 20jährigen Betrachtungszeitraum hinaus notwendig. Wir haben darauf verzichtet, weil die Ergebnisse eh eindeutig sind.

Wie warm oder kalt ist der Mai 2015 nach der Abkühlung seit 1988 tatsächlich?

Der DWD gibt den Mai 2015 mit 12,3 C an. Doch die Stationen des DWD stehen fast alle in den Hotspots der Wärmezonen. In der freien Fläche Deutschlands, dort wo die Wärme aus den Wärmeinseln weniger wirkt, ist in den letzten Jahren der eigentliche Wonnemonat Mai wieder fast so kalt wie zu Mozarts Zeiten, und der lebte bekanntlich in der kleinen Eiszeit. Alle Lieder und Naturbeschreibungen von damals, die den Mai besingen, passen genau in unser Jahrzehnt und geben den Vegetationsstand in der freien Fläche Deutschlands, weitab aller flächenhaften Wärmeregionen, exakt wieder. Als Beispiel sei genannt: „Komm lieber Mai und mache, die Bäume wieder grün“. http://www.youtube.com/watch?v=M_j1il65RY0

Ein noch älteres Lied aus dem 16. Jahrhundert, noch vor dem Tiefpunkt der kleinen Eiszeit in Europa, beschreibt den Mai ähnlich: „Grüß Gott du schöner Maien, da bist du wiederum hier.“ http://www.youtube.com/watch?v=GZG0gqbIG7w

Vergleichen wir die Inhalte und Beschreibungen der Lieder und Maigedichte der kleinen Eiszeit mit heute, dann erhalten wir ein erstaunliches Ergebnis für den heutigen Vegetationszustand in der freien Fläche:

Für die freie Fläche Deutschlands, weitab aller vom Menschen geschaffenen Wärmeinseln gilt eine Abkühlungstrendlinie, die fallender ist als die blaue Temperaturkurve der Abb. 2. Es wurde deutlich kälter. Das zeigen auch die Vegetationszustände in der freien Fläche im Monat Mai. Unsere Aufnahmen entstanden im Frankenbachtal, zwischen den Wärmeinselstädten Aalen und Ellwangen, und in Hüttlingen. Beide Standorte liegen gut 400 Meter hoch. Jedem aufmerksamen Naturbeobachter unter den Lesern ist aufgefallen, dass der Monat Mai fast wieder so kalt wurde wie in dem Zeitraum der kleinen Eiszeit. Der Maikäfer braucht nicht in Aprilkäfer umbenannt zu werden, denn im April haben die Bäume in der freien Fläche Deutschlands noch keine Blätter, fast genauso wie zur kleinen Eiszeit.

Bild 7a (oben): Diese Aufnahme im Frankenbachtal in Süddeutschland stammt vom 6. Mai 2015.

Das Tal liegt weitab von städtischen Wärmeinseln. Deutlich ist der fast noch kahle Baumbestand erkennbar. Abb. 7b (unten): Die Situation am gleichen Tag in Hüttlingen, nur wenige Kilometer entfernt bei fast gleicher Höhenlage. Die meisten Gehölze sind grün, weil der WI- Effekt auch in kleinen Ortschaften die Vegetationsentwicklung deutlich sichtbar beschleunigt. Fotos: Kowatsch

Die Temperaturen Deutschlands in den letzten 1100 Jahren waren keinesfalls immer gleich, nicht einmal annähernd. Es gab ausgesprochene, über Jahrhunderte dauernde Warmzeiten, in denen das Leben und die Kultur in Deutschland sich entwickelte, und daneben ausgesprochene Kaltzeiten mit großen Hungersnöten und Revolutionen, in diese sind dann wiederum kältere oder wärmere Jahrzehnte eingebettet. Über diesen langen Zeitraum gesehen bewegen wir uns momentan wieder auf den Durchschnitt zu, der abseits der vom Menschen geschaffenen Wärmeregionen auch bereits wieder erreicht ist.

Abb. 8: Die Welt war schon wärmer. Vor 800 Jahren hatten wir eine angenehme warme Periode mit einem Weinanbau bis nach Schleswig-Holstein und Südschottland. Die Gletscher in den Alpen waren größtenteils abgeschmolzen. Um 1450 begann dann die kleine Eiszeit, die um 1850 ihr Ende fand. Danach erfolgte ein Temperaturanstieg bis knapp vor der Jahrtausendwende, der jedoch größtenteils auf die sich ausbreitenden Wärmeinseln, längere Besonnung und häufigere Südströmungen zurückzuführen ist. Die Messstationen stehen in oder nahe den Siedlungen und Städten. In der freien Fläche Deutschlands, außerhalb der Wärmeinseln, ist es bereits wieder kälter, als die blaue Kurve der Abb.8 zeigt.

Manche Monate wie der Mai haben in der freien Fläche Deutschlands die Durchschnittslinie wieder unterschritten, d.h. kälter als um 1900.

Kehren wir in die freie Fläche, ins Jahr 2013 zurück, in welcher der menschliche Wärmeinseleffekt weniger Wirkung hat.

Bild 9: Das Frühjahr 2013 war noch kälter als 2012. Auch diese Aufnahme zeigt das WI-freie Frankenbachtal am 1.Mai 2013. Die Bäume sind fast kahl. Die Krötenwanderung setzte erst Ende April ein und nicht Mitte März wie noch vor 30 Jahren. Mitte März ist der Weiher noch mit Eisplatten bedeckt, das war 2013, aber auch 2015 so. Die Vegetationsbeschreibungen am Ende der kleinen Eiszeit vor über 150 Jahren geben die derzeitigen Zustände in der freien Fläche realistisch wieder. Besonders in diesem fast 200 Jahre alten Lied: https://www.youtube.com/watch?v=9dwfF3WS9pU . Der Betrachter möge neben der Melodie auch die Bildeinblendungen aus der heutigen Zeit wahrnehmen und mit dem Text aus der kleinen Eiszeit vergleichen.

Wir stellen fest: Neben kleinen Temperaturschwankungen im letzten Jahrhunderte hat sich im Grunde nicht viel in Deutschland verändert. Die jüngste kürze Wärmeperiode („Kleine Warmzeit“), die der Auslöser Klimadiskussion war, endete schon kurz vor der Jahrtausendwende. Seitdem wird es wieder kälter. Neben den Wintermonaten, insbesondere der Februar, ist bei den Frühlingsmonaten vor allem der Wonnemonat Mai kälter geworden.

Das erkennt man selbst an den nicht WI-bereinigten DWD-Temperaturen, was nichts anderes heißt, als dass es auch in den flächigen Wärmeinseln um die Messstationen kälter wurde. Trotzdem wird in den deutschen Medien immer wieder das erste Jahrzehnt im neuen Jahrtausend als das wärmste seit den Temperaturaufzeichnungen (seit 1881) vermeldet. Das stimmt natürlich auch, aber nur für die großflächigen Wärmezonen, in denen heute nahezu alle Messstationen stehen.

Deshalb sollen an dieser Stelle nochmals die gemessenen Temperaturen und die WI-bereinigte Temperaturkurve Deutschlands auf den Betrachter wirken:

Abb. 10. Seit 1891 hat sich Deutschland vollkommen verändert, vor allem um die Klimastationen wurde es wärmer. Die DWD-Messstationen messen diese schleichende menschengemachte Zusatzwärme mit. Eine Wärmeinselbereinigung nimmt der DWD nicht vor. Die grüne, nach einem Verfahren von R. Leistenschneider WI-bereinigte Deutschlandkurve zeigt wie die Temperaturen Deutschlands aussehen würden, wenn sich unser Land seit 1891 überhaupt nicht verändert hätte und alle Stationen noch an denselben unveränderten kalten Orten wie damals stehen würden.

Die grüne Kurve gibt den Temperaturverlauf Deutschlands realistischer wieder und nicht die rote. Die rote Kurve gilt aber in den Städten und in den inzwischen großflächigen Wärme-, Ballungs- und Touristenzonen.

Mit einem weiteren Beispiel will ich die Richtigkeit der grünen Temperaturkurve unterstreichen:

Am 1. Juni betrugen die Wassertemperaturen des unbeheizten Naturerlebnisbades meines Heimatortes in Süddeutschland 11 bis 12 Grad. Aufgrund eines technischen Defektes einer Pumpe konnte man nicht Mitte Mai öffnen, was keinerlei Kritik auslöste, denn an Pfingsten waren die Wassertemperaturen aber auch erst 10 Grad. So verschob man die Eröffnung auf den 4. Juni, anstatt wie seit 70 Jahren bereits Mitte Mai. Bei diesem kalten Mai 2015 waren auch die Badeseen und Weiher der Umgebung zu kalt fürs Badevergnügen.

Überraschend ist nur, dass der Deutsche Wetterdienst den Monat Mai für BaWü mit 1,3 Grad über dem Schnitt als zu warm eingestuft hat. Da fragt man sich wie hätte der Mai wohl ausgesehen, wenn er als durchschnittlich oder gar mit leicht unter dem Schnitt vom DWD ermittelt worden wäre. Die veröffentlichten 1,3 Grad zu warm zeigen dem kritischen Leser erneut wie unglaubwürdig diese Temperaturangaben des DWD inzwischen sind und wie unglaubwürdig die behauptete Klimaerwärmung ist. Welche Erwärmung soll bekämpft werden? Etwa die 12 Grad Wassertemperaturen Anfang Juni?  Es wird Zeit, dass diesem Erwärmungsstuss endlich von vernünftigen Menschen ein Ende bereitet wird.

Wir fragen zurecht: Warum merkt das Freibadwasser und die Natur Anfang Juni 2015 nichts von der behaupteten Klimaerwärmung? Manche Bäume wie die Schwarzerlen haben in der freien Fläche außerhalb unserer kleinen Wärmeinsel Hüttlingen erst am 2. Juni ihr volles Blattwerk entwickelt, bis auf die paar, die über die Eisheiligen oder danach erfroren sind und nun neu austreiben müssen.

Der Mai 2015 war in Wirklichkeit so kalt wie zu Mozarts Zeiten in der kleinen Eiszeit und nicht 1,3 Grad zu warm in BaWü. Die grüne WI-bereinigte Deutschlandkurve der Abb. 10, mit einem WI-Korrekturfaktor von 1,2 Grad seit 1891, dürfte eher zu gering angesetzt sein.

Zusammenfassung und Ergebnisse:

1) Wir haben nach 30 jährigen Abkühlung fast wieder die gleichen Mai-Temperaturen wie zur kleinen Eiszeit. Das zeigen die Vegetationsbeobachtungen in freier Natur.

Die Klimaerwärmung war eine kurze Episode und dauerte nur bis kurz vor der Jahrtausendwende.

2) Klimaänderungen auf der Erde sind normale Erscheinungen. Die neutrale Klimaforschung bietet dafür viele Erklärungen und Theorien an. Also viele Ursachen, die gleichzeitig und in Wechselwirkung das Klima beeinflussen.

3) Aber eine Theorie hat sich nun als falsch erwiesen:

Aufgrund der geschilderten Tatsachen muss der Schluss gezogen werden, dass sog. Treibhausgase wie Kohlendioxid entweder gar nicht treibhauswirksam sind oder eine nur sehr unbedeutende Wirkung auf die irdischen Temperaturen haben. Bei der angeblichen Klimaerwärmung mit den dazugehörigen Panikvorhersagen aufgrund des angeblichen Klimakillers CO2 handelt es sich schlichtweg um ein neues deutsches Märchen. Seit 16 Jahren sinken die Jahrestemperaturen in Deutschland, während die CO2-Konzentrationen weiter gestiegen sind. Daraus könnte man allenfalls einen gegenteiligen Zusammenhang ableiten: Mehr CO2 kühlt. Tatsächlich findet diese „negative Treibhaustheorie“ in Russland bereits viele Anhänger.

Die zentrale deutsche Anlaufstelle der Klima- und Panikmärchen befindet sich in Potsdam mit den selbst ernannten Klimakralshütern Schellnhuber und Rahmstorf, die von uns teuer bezahlt werden. PIK Potsdam = Potsdamer Institut für Klimafolgenforschung. Es wäre schön, wenn diese Leute uns wenigstens den Trend der Eisheiligen an ihrer eigenen Station in Potsdam erklären könnten. Zukünftig werden wir Klimarealisten auch noch von den „Eisheiligen“ aus Potsdam Unterstützung bekommen.

Abb. 11. Die Eisheiligen sind die Tage vom 11. Bis 15. Mai. In der Grafik ist der Schnitt dieser fünf Tage über die letzten 18 Jahre gezeichnet. Der Trend geht eindeutig zu kälter. Quelle der Daten: Station PIK Potsdam, das Zentrum der deutschen Erwärmungsmärchenerzähler.

Und wie warm war der Mai nun 2015, wo ist er tatsächlich einzuordnen? Aufgrund der vielen von uns aufgezählten Fakten gehen wir davon aus, dass dieser Mai in der freien Fläche einer der kältesten in den letzten 120 Jahren war.

Es wird höchste Zeit, den Umwelt- und Naturschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes, der sich auf getürkte Messdaten, (Google-Suche: „Climategate“) auf falsche Interpretation der Datenauswertung oder unzuverlässige Computererwärmungsmodelle stützt, wieder weltweit in den Mittelpunkt des Handelns zu stellen.

Saubere Luft, sauberes Wasser, ein intaktes Ökosystem und freie, nicht überbaute Naturlandschaften kommen den Menschen heute und zukünftig zugute. Umwelt- und Naturschutz ist notwendig, Klimaschutz ist ein erfundenes Geschäftsmodell. Es wird auch Zeit, dass sich die Naturschutzverbände und politischen Parteien endlich von diesem Geschäftsmodell Klimaschutz distanzieren und wieder aktiven Naturschutz betreiben.

Die Schmetterlinge und Bienen sterben in Deutschland nicht wegen des Klimawandels, sondern wegen des Pestizideinsatzes und der Zerstörung der Landschaftsvielfalt. Viele Pflanzenarten sind vom Aussterben bedroht, weil die Böden überdüngt sind und die meisten Landschaftsräume zu intensiv oder falsch bewirtschaftet werden. Die Zerstörung ihrer Lebensräume sind der Grund des Artenrückgangs.

Die angebliche Erwärmung Deutschlands seit 130 Jahren ist ein statistischer Auswertungsfehler der DWD-Messdaten. Wir müssen uns auf die Fortsetzung der Abkühlung einstellen.

Josef Kowatsch, unabhängiger Naturbeobachter und Klimaforscher

Stefan Kämpfe, unabhängiger Naturbeobachter und Klimaforscher




Schlaglöcher in ihren Argumenten

Abbildung rechts: Eine der ältesten, den Historikern bekannten Kosten-Nutzen-Analysen

Nun, das ist ein merkwürdiger Standpunkt, stehen doch der Guardian und seine Freunde zu 1000% [eintausend Prozent] hinter der Subventionierung "Erneuerbarer", vor allem solcher "Erneuerbarer", die nicht funktionieren … schauen Sie selbst. Aber angesichts dessen, dass die "Erneuerbaren" infinitesimal kleine Mitspieler sind im globalen Energiespiel, geht es in diesem Report um die Subventionierung derjenigen Energie-Mitspieler, die eigentlich … Energie in bedeutender Menge erzeugen. Das wären die bösen Öl- und Kohle- und Erdgasunternehmen. In der Welt des Guardian sind solche Subventionen per definitionem schlecht.

Also habe ich mich entschlossen, ihr Arbeitspapier wie ein Idiot zu erkunden. Zwar bin ich ein Fan von Erkundungen in unbekanntem Terrain, in den Karten als „Terra Incognita“ gekennzeichnet – aber in diesem Falle war es kein Vergnügen.

Ich bin sicher, dass viele Menschen wissen, was eine „Kosten-Nutzen-Analyse“ ist – man zieht eine vertikale Linie in der Mitte eines Blattes Papier. Auf der einen Hälfte, sagen wir mal rechts, listet man alle Kosten des fraglichen Vorhabens. Und auf der linken Seite listet man alle Vorteile des geplanten Vorhabens. Die Abbildung oben rechts zeigt eines der frühesten bekannten Beispiele einer Kosten-Nutzen-Analyse.

Der IMF hat das Blatt Papier entlang der vertikalen Mittellinie zerrissen und uns die Hälfte mit den Kosten der angeblichen „Subventionen“ übergeben, zusammen mit der Behauptung, dass es sich um eine saubere Analyse handelt. Das stimmt aber nicht. Es ist eine Liste mit wild übertriebenen Kosten, und nur Kosten.

Jetzt möchte ich etwas klarstellen. Ich habe kein inhärentes Problem mit Subventionen. Wir subventionieren alle möglichen Aktivitäten, wir müssen lediglich die richtigen auswählen. Und ich habe kein Problem mit einer Kosten-Nutzen-Analyse. Das ist eine sehr nützliche Methode.

Aber die Betrachtung nur der Kosten unter Ignorieren der Vorteile? Das ist keine Analyse irgendeiner Art.

Aber Moment, es wird noch viel schlimmer. Man erlaube mir, die Kurzversion des IMF-Arbeitspapiers zu zitieren. Erstens, um alles ins rechte Licht zu setzen, folgt hier ihr Abstract (Hervorhebung von mir):

Diese Studie bietet ein umfassendes, aktualisiertes Bild der Energiesubventionen im globalen und regionalen Maßstab. Sie konzentriert sich auf die breit gefächerte Auffassung von Energiesubventionen nach Steuern [post-tax energy subsidies]. Sie treten auf, wenn die Verbraucherpreise unter den Lieferkosten liegen plus eine Steuer, um Umweltschäden Rechnung zu tragen und einer zusätzlichen Steuer auf alle Verbrauchsgüter, um das Einkommen der Regierung zu vergrößern. Energiesubventionen nach Steuern sind dramatisch höher als zuvor geschätzt und dürften auch zukünftig sehr hoch bleiben. Diese Subventionen reflektieren hauptsächlich den unter Wert angesetzten Preis aus heimischer (und nicht globaler) Perspektive. Eine einseitige Preisreform liegt also im ureigenen Interesse des Landes. Die potentiellen fiskalischen, umweltlichen und Wohlstands-Auswirkungen einer Reform der Energiesubventionen sind substantiell.

Wie man sieht, befinden wir uns bereits im Spezialisten-Jargon. Das ist noch kein Problem, haben doch alle Fachgebiete einen Jargon. In ihrer Welt bedeutet „Energiesubventionen vor Steuern“ Geld, das zu dem Unternehmen oder der Industrie oder der Aktivität fließt, das subventioniert wird. Allgemeiner: Vor-Steuern-Subventionen sind Subventionen, die tatsächlich die Grundlinie der Bilanzen einiger begrenzter Untergruppen von ökonomischen Akteuren beeinflusst. Mit anderen Worten, „Vor-Steuern-Subventionen“ sind das, an das die meisten von uns sofort denken, wenn sie das Wort „Subventionen“ hören.

Was diese braven Menschen als „Energiesubventionen nach Steuern“ ansehen, sind andererseits keine Subventionen im normalen Sinne. Kein Cent davon fließt überhaupt an die Energieunternehmen.

Um den Unterschied hervorzuheben, möchte ich ein kristallklares Beispiel dafür nennen, was der IMF als „Energiesubvention nach Steuern“ an die böse Ölindustrie ansieht … aber zuvor halte ich es für meine Pflicht, davor zu warnen, dass das Folgende nichts für Blumenkinder oder andere Weichherzige ist. Also für alle Übrigen – eine der vielen, vielen „Energiesubventionen nach Steuern“ des IMF ist…

Die Kosten der Auffüllung von Schlaglöchern auf der Straße zu meinem bescheidenen Heim.

Wirklich. Ich bausche das nicht auf. Die Reparatur von Schlaglöchern ist Bestandteil ihrer „Energiesubvention nach Steuern“, von dem sie behaupten, dass er an die Energieunternehmen geht. Es ist gelistet unter der Rubrik „Nicht-Kohlenstoff-Effekte von außen“ [non-carbon externalities].

Und was sind „Nicht-Kohlenstoff-Effekte von außen“, wenn sie zu Hause sind? Glücklicherweise geben sie ein paar Beispiele:

Verstopfung, Unfälle, Luftverschmutzung und Straßenschäden“.

In dem seltsamen Paralleluniversum des IMF wird jedes einzelne Beispiel davon (einschließlich „Straßenschäden“) als eine SUBVENTION AN EXXON UND SHELL betrachtet! Die Reparatur von Schlaglöchern als Subvention an Energieunternehmen! Hat man schon jemals von einem solchen beknackten Ding gehört?

Also möchte ich hier selbst ein wenig technischen Jargon einführen. Ich werde mich auf jene Subventionen beziehen, die nur an Energieerzeuger und -verteiler fließen, die die Basis jener subventionierten Erzeuger und Verteiler als „wirkliche Energiesubventionen“ betreffen. Das ist eine eingängige Bezeichnung und trifft ins Herz der ganzen Sache.

Und was ist mit der Behauptung, dass das Ausbessern von Schlaglöchern eine Subvention für die Energieindustrie ist? Nun, dafür werde ich die Bezeichnung „imaginäre Energiesubventionen“ benutzen. Das ist kurz und bringt es auf den Punkt.

Was die relative Größenordnung der wirklichen und der imaginären Subventionen betrifft: unter den großen Schlagzeilen, die ihren Weg durch das Web gefunden haben, ist „Energiesubventionen betragen 5,3 Billionen Dollar pro Jahr!“. Nun, ich möchte darauf hinweisen, dass diese Zahl zu 94 Prozent imaginäre Energiesubventionen sind, und nur sechs Prozent davon sind reale Energiesubventionen. Seltsam aber wahr. Wie ich sagte, ich bausche das nicht auf. Zum Kuckuck, ich konnte mir dieses Niveau absurder Käuflichkeit gar nicht vorstellen. Ich bin lediglich ein furchtloser Erkunder, der seinen Weg durch endlos langes unausgegorenes Geschwätz sucht, um die Wahrheit zu ergründen … und wenn ich sie erreiche, kommt heraus, dass die Wahrheit sechs Prozent beträgt und das Blabla 94 Prozent. Abbildung 2 zeigt die hässlichen Behauptungen:

Abbildung 2: Aus dem IMF-Arbeitspapier. Man beachte, während die wirklichen Energiesubventionen stetig abnehmen, nehmen die imaginären Energiesubventionen stetig zu. Alarmismus?

Nun, endlich verstehe ich, warum es in den Straßen um meinen Wohnort so viele Schlaglöcher gibt. Bislang habe ich immer geglaubt, der Grund sei – wie von einem unserer Landkreis-Verwalter angemerkt – dass man die Schlaglöcher nicht ausbessern könne, weil man die obszön hohen Pensionen einer Generation von Menschen nicht aufbringen könnte, die gelernt hatten, sich an den Futtertrog des Landkreises zu lehnen.

Aber jetzt erkenne ich, dass dies keineswegs der Fall ist. Jetzt habe ich Durchblick. Das Belassen der Schlaglöcher ohne sie auszubessern ist kein Zeichen einer ökonomischen Schwäche, sondern stattdessen ein politisches Statement durch den Kreistag! Die Schlaglöcher nicht auszubessern ist ein cleveres Mittel, die heimtückischen „Energiesubventionen nach Steuern“ zu reduzieren, welche die Landkreisbewohner dümmlich an Exxon und Shell gezahlt haben! Es ist ein tollkühner Schlag gegen die außer Kontrolle tobenden Imperialisten der globalen Energieversorgung … muss ich wirklich dieses Aushängeschild versorgen? Ich fürchte, ja …

Ehrlicherweise muss man aber sagen, wenn man das Ausbessern von Schlaglöchern als eine Subvention für die Ölunternehmen zählt, bedeuten 5,3 Billionen Dollar gar nichts. Sie können die Summe so hoch schrauben wie sie wollen, darin liegt der Reiz imaginärer Energiesubventionen. Es gibt keine obere Grenze.

Aber Moment, da ist noch mehr. Obwohl die realen Energiesubventionen nicht einmal annähernd nahe der 5-Billionen-Marke liegen, sind es immer noch etwa 340 Milliarden Dollar pro Jahr. Das ist ein Drittel einer Billion, reales Geld in jedweder Welt. Aber natürlich gilt auch hier, dass nichts so ist, wie es zu sein scheint.

Das Erste, was man hinsichtlich dieser 340 Milliarden Dollar reale Energiesubventionen verstehen muss ist, dass global gesehen die höchsten Energiesubventionen diejenigen sind, die Öl produzierende Länder wie Venezuela und Nigeria ihren eigenen Bürgern zukommen lassen, indem man sie Preise zahlen lässt, die unter dem Marktpreis für Benzin und Diesel liegen. Das Zweite, was man wissen muss ist, dass der größte Teil der realen Energiesubvention in den Entwicklungsländern liegt. In einem Arbeitspapier über Subventionen, dass ich früher schon einmal hier analysiert habe, kam ich zu dem Ergebnis:

Schätzungen des IMF und der IEA zufolge belaufen sich globale Subventionen „vor Steuern“ (oder direkt) an fossiler Energie und fossil erzeugtem Strom im Jahre 2011 auf 480 bis 523 Milliarden Dollar pro Jahr (IEA 2012b; IMF 2013). Dies bedeutet eine Zunahme von fast 30% gegenüber dem Jahr 2010 und war sechsmal höher als die Gesamtsumme der Subventionen für Erneuerbare zu jener Zeit. Öl exportierende Länder waren für etwa zwei Drittel der Gesamtsubventionen für fossile Subventionen verantwortlich, während über 95% aller direkten Subventionen in den Entwicklungsländern anfielen.

Falls wir davon sprechen, dass die meisten Leute dies lesen: diejenigen von uns, die in der entwickelten Welt leben, sind nur mit lumpigen fünf Prozent an den realen Energiesubventionen beteiligt … was wiederum nur sechs Prozent ihrer fiktiven 5,3 Billionen Dollar schweren Subventionen ausmacht. Diese fünf Prozent der 340 Milliarden Dollar sind etwa 17 Milliarden Dollar. Aber das ist immer noch nicht alles. Man erinnere sich, die Summe ist aufgeteilt auf alle entwickelten Länder, Australien, die USA, UK, Deutschland, Israel, Neuseeland – die Liste ist lang.

Falls man also irgendwo in der entwickelten Welt lebt, betragen die wirklichen Subventionen für Energie etwa eine halbe Milliarde Dollar pro Staat. Übrigens, wenn man das in technischem Jargon ausdrückt, nenne ich eine Subvention von einer halben Milliarde Dollar „einmal Solyndra“ (An. der Redaktion: das ist die trotz Riesensubventionen pleite gegangene große Solarfirma in den USA) … aber ich schweife ab.

Wenn also Ihr Land ein- oder zweimal Solyndra pro Jahr an Subventionen zahlt, ist es das wert? Nun, das hängt davon ab, für was die Solyndras zahlen. Falls sie für Erneuerbare zahlen, ist es das höchstwahrscheinlich nicht wert. Falls sie für wirkliche Energie zahlen, könnte es das wert sein.

Schließen möchte ich mit dem Hinweis auf die Auswirkungen der Kappung von Energiesubventionen. Da die meisten davon in Entwicklungsländern sind und in Gestalt von reduzierten Energiepreisen für die Armen vorliegen … würde deren Kappung nicht die verwundbarsten Bürger treffen?

Nun, keine Angst, die IMFs haben dem Rechnung getragen. Hier folgt deren Aussage über die Auswirkungen der Beschneidung von Treibstoff-Subventionen für die Armen … ein lumpiger Satz ist alles, was sie für die Verarmten übrig haben, vielleicht ist es eine Elektronen-Knappheit oder so, aber hier folgt in jedem Falle dieser einsame Satz in seiner ganzen Glorie:

Außerdem sollte eine Reform der Energiesubventionen die Armen und Verwundbaren schützen, indem sichergestellt ist, dass ihr Wohlergehen nicht negativ beeinflusst wird.

Das ist es! Das ist alles hinsichtlich deren Gedanken um die Armen. Nun, das ist gut zu wissen … aber falls man 1 Dollar pro Gallone [ca. 4 Liter] an Subvention unter den Armen von Nigeria verteilt, WIE genau wollen sie sicherstellen, dass deren „Wohlergehen nicht negativ beeinflusst wird“? Das ist es, was ich bei diesen Lehnstuhl-Experten am meisten verachte, die vorschlagen, die Weltwirtschaft umzukrempeln, um ihren Ängsten und Phantasien Rechnung zu tragen. Sie ignorieren einfach alles, was sie als unerheblich beurteilen, und die Armen stehen oftmals an oberster Stelle jener Liste. An zweiter Stelle der Dinge, die sie ignorieren, steht, WIE sie umsetzen, was sie so leichthin vorschlagen.

Wie auch immer, das ist die jüngste wilde Übertreibung beim Vorlauf von Paris. Mein Rat? Man glaube nichts davon, was man liest … und man erinnere sich immer, dass man dies hier zuerst gelesen hatte…

——————————————–

Externalitäten: Dinge wie das Ausbessern von Schlaglöchern oder die Freisetzung von CO2 in die Atmosphäre werden „Externalitäten“ oder „externe Kosten“ genannt von Leuten, die an einer Kosten-Nutzen-Analyse arbeiten. Dies sind im Grunde Dinge, die der Schreiber entweder nicht mag oder die der Schreiber besteuern möchte, jedoch noch nicht herausgefunden hat, wie man es besteuern könnte. Noch nicht.

Während solche Externalitäten gelegentlich relevant sind, habe ich Einiges gegen den Einschluss von Externalitäten in die meisten Kosten-Nutzen-Analysen.

Erstens, wie legt man sie preislich fest? Welchen Preis würde man für – sagen wir – eine Tonne emittierten CO2 ansetzen? Ich habe Zahlen gesehen im Bereich von Null bis hunderte Dollar pro Tonne. Ohne Übereinstimmung eines bestimmten Wertes ist es den Analysten freigestellt, jede Zahl zu wählen, die sie wollen.

Weiter. Welche Externalitäten sollen eingehen? Falls wir das Ausbessern von Straßen als eine „Subvention“ an die Ölbarone eingehen lassen, sollte man dann nicht auch den Straßenbau einschließen? Und falls wir die Kosten für Straßenbau einschließen, was ist mit den Kosten für die Entwürfe des Straßenbaus? Und was ist mit den Pensionskosten für die Beamten (niemals billig), die den Straßenbau autorisiert haben? Wo führt das alles hin? Der IMF glaubt eindeutig, dass es hinter den Schlaglöchern endet, nicht davor…

Und schließlich, wenn man externe Kosten einfließen lässt, MUSS MAN ABSOLUT AUCH EXTERNE VORTEILE EINFLIESSEN LASSEN! Wie ich hier erläutert habe, beläuft sich der Vorteil des besseren Pflanzenwachstums wegen des gesteigerten atmosphärischen CO2-Gehaltes auf etwa 300 Milliarden Dollar pro Jahr, weil der Landwirt fossile Treibstoffe verbrennt … aber die aufgeblasenen Wichtigtuer beim IMF ignorieren dies vollständig, wie sie alle Vorteile ignorieren, die ihnen nicht in den Kram passen.

Link: http://wattsupwiththat.com/2015/05/29/potholes-in-their-arguments/

Übersetzt von Chris Frey EIKE




Wen interessiert das Geschwätz (des IPCC) von gestern? IPCC im Jahr 2007: “Es bleiben vielleicht nur noch acht Jahre bis zur Klimakatastrophe”

Den Regierungen läuft die Zeit davon um den Klimawandel anzugehen und die schlimmsten Auswirkungen der steigenden Temperaturen zu vermeiden, warnte gestern ein einflussreiches UN Panel. Mit mehr Energieeffizienz, erneuerbaren Energie Quellen und neuen Technologien um Kohlendioxid unterirdisch zu deponieren können alle dazu beitragen, zur Verringerung der Treibhausgasemissionen beizutragen, so die Experten. Aber es könnte wenig mehr als acht Jahre bleiben, um einen gefährlichen Anstieg der globalen Durchschnittstemperatur um 2°Ç oder mehr zu vermeiden.

Rechnen wir kurz nach: 2007 plus 8 ergibt 2015, unser heutiges Jahr. Von der Klimakatastrophe ist allerdings immer noch nichts zu sehen. Die Temperatur liegt heute auf dem gleichen Niveau wie 2007 – und wie 1998. Auch Wetterextreme haben nicht zugenommen. Ganz offensichtlich hat man 2007 wohl etwas übertrieben. Erinnern will sich daran heute niemand mehr. Man blickt lieber in die Zukunft. Was geht mich mein Geschätz von gestern an? Gelernt hat man aus der Pleite trotzdem: Kurzerhand verdoppelte Mojib Latif jetzt die Zeitspanne auf 15 Jahre und startet die Uhr 2015 einfach wieder neu bei Null. Genial. Die Welt berichtete am 5. April 2015:

Es bleibt nicht mehr viel Zeit. Das ist die Botschaft, die Klimaforscher den Politikern auf der ganzen Welt auf den Weg geben. Nur noch 15 Jahre bleiben nach ihrer Ansicht, um den Klimawandel in den Griff zu bekommen. “Wenn der weltweite Kohlendioxidausstoß 2030 immer noch steigt, wird es zu spät sein”, sagt der Klimaforscher Mojib Latif vom Kieler Helmholtz-Zentrum für Ozeanforschung. Es ist das erste Mal, dass Latif sich öffentlich so konkret festlegt.

Im Jahr 2030 ist Latif dann in Rente und es kann ihm dann herzlich egal sein, ob er richtig oder falsch lag. Ihm muss dabei bewusst sein, dass die Temperaturen auch in 15 Jahren noch auf dem heutigen Niveau liegen könnten, da die Ozeanzyklen bis dahin kühlend wirken werden. Siehe “2</sub>">Judith Curry prognostiziert Erwärmungspause bis in die 2030er Jahre: Hans von Storch fordert in einem solchen Fall Misstrauensvotum gegen CO2“.

Übernommen von die kalte Sonne hier




Neue Bücher zur Energiewende, dem „Klimaschutz“ und dem Atomausstieghier : Energiewende und Atomausstieg – Chance oder Irrweg (I)

Energiewende und Atomausstieg – Chance oder Irrweg

von Dr. Willy Marth

In seinem neuesten Buch beschreibt der Autor die politischen Entscheidungen, die nach Fukushima zum Ausstieg aus der Atomenergie sowie zum Übergang auf die Erneuerbaren Energien folgten.  Ebenso werden die Risiken der Strominfrastruktur – fehlende Stromleitungen, fehlende Grundlast, fehlende Speicher, sowie die mangelhafte Netzstabilität – ausführlich dargestellt. Auch die hohen Umlagekosten bei der Nutzung von Wind- und Sonnenenergie, sowie die Umweltzerstörung durch monströse Gleichstromtrassen und riesige, lärmende Windräder werden anhand von Beispielen analysiert. Trotz des sehr technischen, für viele spröden Themas schreibt der Autor flüssig und leicht und lockert die trockene Materie mit kleinen Anekdoten und „Dönekes“ auf.  Hübsche Illustrationen von Frau Brigitte Marth lockern den Text weiter auf.

Ein großes Problem, sieht er Im Gefolge von Atomausstieg und Energiewende im Zerfall des bisherigen Geschäftsmodells der großen Energieversorger, dass deren wirtschaftliche Basis zerstört. Dies vernichtet tausende von wertschöpfenden Jobs, führt daher zu Massenentlassungen und vermindert gleichzeitig die nationale Versorgungssicherheit und zwingt -welch Ironie in den Zeiten der „Klimaschutzanstrengungen“ – zum vermehrten Einsatz  von Kohle zur Stabilisierung der deutschen Stromversorgung.

Eine kleine Kriitk sei trotzdem erlaubt. In seinem, den Ursachen des Klimawandels gewidmetem Kapitel, folgt der Autor im Wesentlichen der IPCC Linie, obwohl er auch manche Argumente der Klimarealisten aufführt. Bei deren Bewertung jedoch merkt man schnell, dass auch Intelligenz und Sachverstand – die der Autor in großem Umfang besitzt- jemanden nicht davor schützen, scheinbar gefestigten Mainstream-Behauptungen zu folgen, schlicht deshalb weil ihm die Kenntnisse fehlen deren Fehlerhaftigkeit zu erkennen. So behauptet er z.B. dass die Existenz des THE leicht im Experiment nachzuweisen sei, auch der Hinweis auf die Venus fehlt nicht. Beides ist völlig falsch, was ihm aber entgeht. Trotz dieser Entgleisungen, ist es ein Vergnügen das Buch zu lesen, denn von den anderen angeschnittenen Themen hat er umso mehr Ahnung.

Der Autor  Dr. Willy Marth ist promovierter Physiker sowie Diplomkaufmann. Er war vier Jahrzehnte im Umfeld der Stromwirtschaft tätig und Projektleiter für mehrere Kernkraftwerke. Als Executive Director leitete er große internationale Vorhaben auf dem Gebiet der Forschung und Entwicklung. Er betreibt den Rentnerblog zu aktuellen Energiethemen

Energiewende und Atomausstieg – Chance oder Irrweg, ISBN 978-3-7386-6090-6 Preis über den Autor 10,- €, Procedere- Breifkuvert mit 10 € und Empfängeradresse an Dr. Willy Marth, Im Eichbäumle 19; 76139 Karlsruhe. Und bitte vermerken ob mit Signatur gewünscht.




Energiewende und Klimaschutz als Kostentreiber für Mieter und Eigentümer

Unter dem Leitthema:

Bezahlbares und gesundes Wohnen – Was kann und muss getan werden?

organisiert die Schutzgemeinschaft für Wohnungseigentümer und Mieter e.V eine halbtägige Veranstaltung die sich den folgenden Einzelthemen widmet:

– Unzumutbare Mieten und Kosten durch energetische Modernisierung –

– Preisexplosion für Eigentumswohnungen und Eigenheime –

– Steigende Wohnnebenkosten und schlechte Immobilienverwaltung –

–  Gesundheitsrisiko durch luftdichte Wohnungen –

– Energiewende und Klimaschutz als Kostentreiber –

– Verkürzter Rechtsweg trotz Willkür-Entscheidungen der Landgerichte –

Das Programm sieht die folgenden Vorträge und Diskussionen vor

13.00 – 18.00 Uhr:  Individuelle Beratungsmöglichkeit an den Infoständen der

                   Verbraucherschutzvereine, Aktionsgruppen u. Sachverständigen

Referate und Diskussionen:

14.00 – 14.15 Uhr:  Begrüßung ein Einführung in die Themen

Norbert Deul – Vorstand Schutzgemeinschaft für Wohnungseigentümer

und Mieter e.V.

14.15 – 14.45 Uhr:  Fälle aus der Praxis und was wir fordern –

vorgetragen vom Vorstand Maximilian Heisler  vom Münchner “Bündnis Bezahlbares Wohnen e.V.” 

14.45 – 15.15 Uhr:  Stellungnahme der Politik

von Kerstin Celina MdL – Mitglied der GRÜNEN im Bayer. Landtag

15.15 – 15.30 Uhr:  Ein sensationelles Urteil für Mieter und Vermieter

mit Preisverleihung an die Rechtsanwältin Carola Handwerg

15.30 – 16.00 Uhr:  Rechtsbehelfe gegen ein rechtskräftiges Zivilurteil

Horst Trieflinger – Vorsitzender des Vereins gegen Rechtsmißbrauch

16.00 – 16.30 Uhr:  Wirtschaftlichkeit von Gebäudesanierungen“

Dipl.-Ing. Hans-Jürgen Werner – Vorstandsmitglied BAYERNenergie e.V.

  

16.30 – 17.00 Uhr:  Wärmedämmung – lohnt sich das für Mieter, Wohnungseigentümer und Hausbesitzer?

 Dipl.-Ing. Architekt Konrad Fischer – der bekannteste Dämmkritiker                               

17.00 – 17.30 Uhr:  Die Energiewende – Geisterfahrt mit ausufernden Kosten?

 Dr. Heinrich Lindner – Physiker und Ingenieur,

 Sprecher der Stromverbraucher-Schutzorganisation NAEB e.V.

17.30 – 18.00 Uhr:  Windkrafträder – unzumutbare Belastung für Mensch und Tier?

Dr. Friedrich Buer, Biologe mit dem großen Herz für Mensch und Tier

18.00 Uhr:         Verabschiedung

Die Einladung dazu kann als pdf im Anhang heruntergeladen werden.

Related Files




Wann werden Klimawissenschaftler einräumen, dass sie sich geirrt haben?

Der gesamte Sachverhalt kann in einer einfachen Graphik dargestellt werden (siehe Bild rechts!). Es ist die gleiche Graphik, die John Christy von der University of Alabama dem Committee of Natural Resources des Weißen Hauses am 15. Mai präsentiert hatte.

Die Graphik zeigt das bemerkenswerte Auseinanderlaufen zwischen der vorhergesagten globalen Erwärmung und der tatsächlichen Entwicklung in der realen Welt.

Die rote Linie kennzeichnet das 5-jährige gleitende Mittel der vorhergesagten Temperaturänderung mit Beginn im Jahre 1979, wie sie von der jüngsten Klimamodell-Familie der UN prophezeit wird. Viele Mitglieder dieser Familie sind das Ergebnis der Handarbeit unseres eigenen politischen Wissenschafts-Establishments. Die Vorhersagen beziehen sich auf die mittlere Temperaturänderung in der unteren Atmosphäre, unabhängig von Begleiteffekten wie Städte, Wälder und Landwirtschaft.

Die blauen Kreise kennzeichnen die mittlere Temperaturänderung der unteren Troposphäre aus vier unterschiedlichen Analysen der globalen Daten von Wetterballonen. Die grünen Quadrate zeigen das Mittel der beiden weithin akzeptierten Analysen der via Satelliten gemessenen Temperatur der mittleren Tropospgäre. Man geht davon aus, dass beide sehr aussagekräftig sind, stammen sie doch von kalibrierten Instrumenten.

Betrachtet man die Daten bis zum Jahr 1995, scheint die Vorhersage recht gut zu sein. Dies liegt daran, dass die Computermodelle zumindest im Ansatz zwei Perioden mit geringer Abkühlung erfasst haben.

Das Schlüsselwort lautet „scheint“. Die Computermodelle sind so frisiert, dass sie großen Vulkanausbrüchen Rechnung tragen, von denen bekannt ist, dass sie in der unteren Atmosphäre eine vorübergehende leichte Abkühlung bringen. Dies wären hier die Eruption des El Chichon in Mexiko im Jahre 1982 sowie der spektakuläre Ausbruch des Pinatubo im Jahre 1992, der größten Vulkaneruption auf der Erde nach dem Ausbruch das Katmai in Alaska im Jahre 1912.

Seit dem Ausbruch des Pinatubo war es auf der Erde vergleichsweise ruhig, so dass die Erwärmung durch Kohlendioxid ungestört zu Buche schlagen kann. Offensichtlich wächst die Diskrepanz zwischen Vorhersage und beobachteten Temperaturen mit jedem Jahr immer mehr. Inzwischen ist dies zu einem gähnenden Abgrund geworden.

Für einen echten Wissenschaftler ist es unmöglich, diese Graphik zu betrachten und nicht wegen der Zerschlagung der Wissenschaft in Rage zu geraten. Diese erfolgt durch die Unfähigkeit der Klimatologen, uns in die Augen zu schauen und uns die vielleicht wichtigsten vier Wörter im Leben zu nennen: Wir haben uns geirrt.

——————————————

This article appeared in TownHall.com on May 29, 2015.  Patrick J. Michaels is the director of the Center for the Study of Science at the Cato Institute.

Link: http://wattsupwiththat.com/2015/05/29/when-will-climate-scientists-say-they-were-wrong/

Übersetzt von Chris Frey EIKE




„Eisheilige“ und andere Singularitäten – Betrachtungen aus synoptischer Sicht

Bild rechts: Eisheiligen-Wetterlage vom 12. Mai 1978. Links: Temperatur im 850-hPa-Niveau, rechts: Geopotential 500 hPa (bunt) und Bodendruck (Linien). Nähere Erläuterung weiter unten im Beitrag. Quelle: Wetterzentrale.de

Für das Temperaturniveau in unseren Breiten ist es nicht nur zu den „Eisheiligen“, sondern immer von zentraler Bedeutung, welche Luftmasse bei uns gerade vorherrschend ist. Es ist eine Binsenweisheit, dass es bei uns kalte und warme Luftmassen gibt. Ist es bei uns „zu warm“ oder „zu kalt“, in welchem Zeitraum auch immer, heißt das nichts weiter, als dass überwiegend warme bzw. kalte Luftmassen während dieses Zeitraumes wetterbestimmend waren. Es gab Mai-Monate, die insgesamt zu kalt ausgefallen waren, obwohl gerade zu den kalendarischen Eisheiligen warme oder sehr warme Luftmassen bestimmend waren, und umgekehrt. Tritt eine solche Temperaturanomalie sogar in vieljährigen Mittelwerten hervor, spricht man von einer Singularität. Übrigens ist das sog. „Weihnachtstauwetter“ ebenfalls eine solche Singularität, noch dazu viel ausgeprägter als die Eisheiligen weil häufig viel „pünktlicher“. Die Mitteltemperatur am 24. Dezember gemittelt über den Zeitraum 1908 bis 2013 liegt 1 bis 2 K höher als die Mitteltemperatur am 15. Dezember.

Wenn ein Vorgang zu bestimmten Zeiten in 10 von zehn Fällen auftritt (Streuung Null), heißt das nicht, dass dieser gleiche Vorgang auch beim 11. Mal wieder auftritt, sondern nur, dass es eine sehr hohe Wahrscheinlichkeit dafür gibt. Ein solches häufiges Auftreten zu einem bestimmten Zeitpunkt liegt deutlich jenseits der statistischen Streuung, so dass es einen Zusammenhang geben muss. Für die (statistische) Vorhersage spielt jedoch die Natur dieses Zusammenhangs keine Rolle! Es ist eine rein akademische Frage.

(Nebenbemerkung: Jeder erfahrene Synoptiker greift teils unbewusst auf solche Zusammenhänge bei der Vorhersage zurück, und Erfahrung ist ja auch nichts weiter als reine Statistik).

Aber ich schweife ab. Zurück zu den Eisheiligen. Anknüpfend an die obige Aussage bzgl. Luftmassen kann man also präzisieren, dass gerade zu den Eisheiligen besonders häufig kalte Luftmassen wetterbestimmend sind, warum auch immer. Natürlich gibt es Kaltlufteinbrüche zu jeder Zeit des Jahres, auch wenn mir irgendwelche ideologischen Betonköpfe weismachen wollen, dass es diese wegen der Nordverschiebung des Subtropenhochs im Sommer gar nicht gibt. (Komisch! Warum hat dann ein Höhentief über Sizilien [!] im Juli vorigen Jahres dort ein Regenüberschuss von 3000% gebracht, mitten im Subtropenhoch?).

Bekannt in diesem Zusammenhang ist die sog. „Schafskälte“, also Kaltlufteinbrüche Anfang Juni, nachdem die Schafe das erste Mal geschoren worden waren. Außer an extrem ungünstigen Lagen (wie z. B. dem Tegeler Fließ im Norden Berlins oder auch an der Station Hof, wo es selbst im Juli schon mal geringen Frost gegeben hatte) gibt es dabei jedoch keinen Frost mehr. Im Übrigen müssen gerade zu den Eisheiligen mehrere Dinge zusammentreffen; ein einfacher Vorstoß von Meereskaltluft arktischen Ursprungs reicht nicht aus, wenn dieser mit vielen Wolken einher geht.

Interessant ist die Eisheiligen-Wetterlage im Jahr 1978 (siehe Bild oben rechts). Im Zuge der Kaltzeit der siebziger Jahre gab es in Nordeuropa einen sehr kalten und außerordentlich langen Winter. Aus dem dort Anfang Mai immer noch vorhandenen Kaltluftpool löste sich ein Höhentief und zog direkt nach Süden. In der Nacht vom 11. auf den 12. Mai wurde von der Radiosondenstation Lindenberg bei Berlin im 850-hPa-Niveau eine Temperatur von -13°C ermittelt. Zu dieser Zeit war jedoch der Bereich mit einer Temperatur unter -10°C in diesem Niveau bereits so klein, dass er im synoptischen Scale der Darstellung nicht mehr zu erkennen ist.

Es gab tagsüber heftige Schneeschauer, nachts klarte es auf, stellenweise bildete sich sogar Nebel. Am Morgen des 13. Mai wurde im Norden Berlins dadurch Rauhreif beobachtet – im Mai sicher keine alltägliche Erscheinung. Über Schäden in der Landwirtschaft ist mir leider nichts bekannt, bei Temperaturwerten bis -8°C (Station Gardelegen) müssen diese aber erheblich gewesen sein.

Da dieser extreme Kaltlufteinbruch nun wirklich pünktlich zu den Eisheiligen erfolgte, müsste er in den Graphiken von Kämpfe & Kowatsch eigentlich hervortreten. Und siehe da, tatsächlich ist das der Fall. Die folgende Graphik stammt aus dem Beitrag von Kämpfe & Kowatsch:

Man erkennt, dass es nur zu Beginn der vierziger Jahre eine ähnliche Kaltspitze wie 1978 gegeben hatte. Man erkennt aber auch, dass die Kaltspitzen unabhängig dieser Einzeljahre etwa nach 1980 insgesamt niedriger lagen als davor, was natürlich die Aussage der beiden Autoren bestätigt.

Fazit: Die Wahrscheinlichkeit des Auftretens extremer Kaltlufteinbrüche im Mai dürfte während der nächsten Jahre also zunehmen – egal ob diese nun gerade pünktlich zu den kalendarischen Eisheiligen auftreten oder etwas früher bzw. später.

© Dipl.-Met. Hans-Dieter Schmidt, Anfang Juni 2015




ERNTEFAKTOR

In der Energietechnik gelten ähnliche Überlegungen. Um ein Kraftwerk zu bauen, gleich welcher Art, braucht es Energie. Diese Energie ist wie eine Geld-Investition, von der man hofft, dass sie einen Ertrag abwerfen wird. In der (angelsächsisch dominierten) Betriebswirtschaft spricht man von „Return On Investment“ (ROI), also von dem durch die Investition generierten Ertrag. Wie bei den Kartoffeln hofft man, dass der insgesamt zurückfliessende Ertrag grösser ist als die Investition, dass der ROI grösser sei als 1. Bei der Investition von Energie spricht man logischerweise von „Energy Returned on Energy Invested“ (EROEI), meistens kurz EROI.

Bild rechts: Wie man sieht, sind die Unterschiede frappant! Was heisst “Ökonomische Schwelle“? Damit ist der EROI gemeint unterhalb dem kein lohnender Betrieb der Anlage möglich ist. Gemäss dieser Grafik beträgt diese Grenze 7. Warum? Erinnern Sie sich an den Bauern mit den Kartoffeln? Eben! Der ist mit einem Erntefaktor von 3 auch nicht zufrieden.
 

Den EROI einer bestimmten Energie-Erzeugungsanlage zu berechnen ist keine einfache Aufgabe. Jeder Fall ist anders und man kann sich oft darüber streiten, welche aufgewendete Energie berücksichtigt werden muss, wo die Abgrenzung liegt. Wie viel Energie ein Kraftwerk schliesslich liefert, hängt von seiner Lebensdauer ab, ebenfalls eine Grösse, die nicht zum Vornherein genau bekannt ist. Das PSI (Paul Scherrer Institut) verfügt mit der Gruppe von Stefan Hirschberg über weltweit anerkannte Fachkompetenz. Grundlage für die Berechnung des EROI ist eine „Life Cycle Analysis“, also die Untersuchung des ganzen Lebenszyklus’ einer Anlage von ihrem Bau – einschliesslich der Herstellung der Bestandteile und der Transporte – den Betrieb, die Stilllegung und Entsorgung. Eine andere Gruppe, die ähnliche Arbeiten publiziert hat, ist die von Daniel Weissbach in Berlin. Wir verwenden hier beide Quellen.

Eine methodische Schwierigkeit bei der Berechnung des EROI einer Anlage ergibt sich daraus, dass verschiedene Arten von Energie unterschiedlich wertvoll sind. Es ist wie beim Bauern, der sowohl grosse wie auch kleine Kartoffeln erntet; man kann sie nicht einfach nur zählen. Man muss sie wägen. Bei der Umwandlung von Wärmeenergie in mechanische oder elektrische Energie findet man meist einen Wirkungsgrad von 30 bis 35%. Deshalb setzt man bei der Berechnung der Energieinvestition die Wärmeenergie zu 1/3 ein.

Es gibt Kraftwerke, die ihre Produktion zu jeder Zeit dem Bedarf anpassen können, zum Beispiel unsere Speicherkraftwerke. Andere können das nicht und benötigen eine Zwischenspeicherung, eine Pufferung. Beispiele sind Photovoltaikanlagen und Windturbinen. Bei der Berechnung des EROI muss der Energieaufwand für die Herstellung der Puffer mit einbezogen werden. In der oben stehenden Grafik sind beide Varianten dargestellt, mit und ohne Pufferung.

Allerdings ist die Sache hier ein wenig komplizierter. Keine Angst! Wir machen es einfach:

·       Alles Geld, das in der Schweiz in einem Jahr verdient wird, nennt man das Brutto-Inland-Produkt (BIP). Es beträgt zur Zeit grob 600 Milliarden Franken.

·       Für die Herstellung all der Güter und die Erbringung der Dienstleistungen, welche diese 600 Milliarden wert sind, braucht man Energie. Das ist der Endenergieverbrauch. Er beträgt gegenwärtig etwa 240 Terawattstunden pro Jahr – das sind 240 Milliarden kWh.

·       Wenn man den Wert der geschaffenen Güter und Dienstleistungen durch die aufgewendete Energie dividiert, erhält man eine Zahl, welche die Energieeffizienz unserer Volkswirtschaft beschreibt. Sie beträgt Fr. 2.50 pro kWh.

Der Endenergieverbrauch setzt sich zu 1/4 aus elektrischer und zu 3/4 aus thermischer Energie (in Form von Brenn- und Treibstoffen) zusammen. Elektrische Energie ist 3 mal wertvoller als thermische Energie, sie erbringt darum etwa die Hälfte der Wertschöpfung, also Fr. 1.25 pro kWh. Für eine kWh bezahlen die Stromkonsumenten im Mittel 15 bis 18 Rappen. Mit anderen Worten: mit einer Investition von 15 bis 18 Rappen schafft man einen Wert von 1 Fr. 25 – das 7-fache. Wenn man dieses Geld in etwas investiert, das weniger als das 7-fache zurückgibt, dann ist das tendentiell eine Fehlinvestition.
So gesehen ist jede Investition in Photovoltaik und Strom aus Biomassse eine Fehlinvestition, aber auch Windstrom ist nur dann sinnvoll, wenn er ohne Zwischenspeicherung direkt genutzt wird. Die ganzen „Energy-to-Gas“-Konzepte sind damit reine Energieverschwendung.

Warum hat man das nicht längst erkannt? Schliesslich ist diese Erkenntnis so etwas wie ein Todesurteil für die Energiewende! Drei mögliche Gründe:

·       Die meisten Energiepolitiker sind keine Kartoffelbauern. Wir streiten uns darüber, ob PV-Panels einen EROI von mehr als 1 haben oder nicht, aber wir sind uns nicht bewusst, dass „besser als 1“ bei weitem nicht genügt.

·       Dass es bei weitem nicht genügt wird durch Subventionen versteckt. Zwischen Energie und Geld besteht gemäss Energieeffizienz ein enger Zusammenhang. Was energetisch nicht rentiert, rentiert auch monetär nicht. Wenn man das, was nicht rentiert, durch Subventionen künstlich rentabel macht, bleibt die Tatsache bestehen, dass es energetisch nicht rentiert.

·       Der durch die Fehlinvestition angerichtete Schaden trifft weder den Produzenten der Anlagen, noch den Käufer derselben. Den Schaden trägt die Volkswirtschaft als Ganzes, also die Allgemeinheit und da ist er weder leicht zu sehen noch genau zuzuordnen. Aber angerichtet ist er!

Ja, das Todesurteil für die Energiewende ist gesprochen, aber es ist noch nicht vollstreckt. Das Stimmvolk wird’s richten.

Ergänzung

·       Für einmal haben wir selbst einen Kommentar: Ein renommierter Ökonom macht uns mit Recht darauf aufmerksam, dass das Gleichnis mit dem Kartoffelbauern nur stimmt, wenn der Preis für Kartoffeln gleich bleibt. Wenn Kartoffeln im Herbst 10 mal teurer sind, genügt auch ein kleinerer Erntefaktor.
Das gilt sinngemäss auch für Strom. Darum können Pumpspeicherwerke rentieren, obwohl ihr EROI kleiner ist als 1. Das sind aber Speicher und nicht Produktionsanlagen.

Simon Aegerter

––––––––––––––––––––––––––––––––––––––––

D. Weißbach et al. „Energy“ April 6, 2013, 
 http://festkoerper-kernphysik.de/Weissbach_EROI_preprint.pdf
Peter Lang: Solar Power Realities 
 https://bravenewclimate.files.wordpress.com/2009/08/peter-lang-solar-realities.pdf
Hirschberg, S. Externalities in the Global Energy System. In: Energy for Development: Resources, Technologies, Environment, Environment & Policy., Springer Science+Business Media, Dordrecht, Netherlands
John Morgan: „The Catch-22 in Energy Storage“  
http://bravenewclimate.com/2014/08/22/catch-22-of-energy-storage/
Schweizerische Gesamtenergiestatistik 2013, BfE

Übernommen vom Blog "Kalt Duschen mit Doris" hier

  •  

  •  Über die Autoren
  • Irene und Simon Aegerter haben vor 50 Jahren haben Physik studiert. Dabei haben sie auch gelernt, einen Leichtwasserreaktor zu „fahren“.

    Simon studierte bei Hans Oeschger, einem der Klimaforscher der ersten Stunde. Im Militär war er Chefphysiker; als solcher weiss man, was Radioaktivität ist und wie sie wirkt. Während einiger Jahre arbeitete er in einem Energie Think-Tank und hat an der Weltenergiekonferenz referiert.

    Irene doktorierte im damaligen Eidgenössischen Institut für Reaktorforschung über radioaktiven Bombenfallout. Später arbeitete sie u.a. beim Verband Schweizerischer Elektrizitätswerke, war Mitglied der Eidgenössischen Kommission für die Sicherheit der Atomanlagen und sie gründete das weltweite Netzwerk „Women in Nuclear“ (WiN).

    Sie verfügen über Faktenwissen rund um die komplexen Zusammenhänge in der Stromversorgung. Und wir vertreten niemanden, ausser unsere Nachkommen. Wir sind finanziell völlig unabhängig und gehören keiner Lobby an. Uns bezahlt niemand.




Haben Klimaprojektionen irgendeine physikalische Bedeutung?

Geeignet für Vorhersagen, weil eine eindeutige Lösung eine abgeleitete und hochspezifische Aussage darüber ist, wie sich die physische Realität verhält. Es erlaubt, dass nur eine Möglichkeit unter einer unendlichen Anzahl von Möglichkeiten auftreten wird. Eine eindeutige Lösung behauptet eine extreme Unwahrscheinlichkeit, so dass sie anfällig ist für Widerlegung durch Beobachtung.

Falsifizierbar, weil, wenn die Vorhersage falsch ist, die physikalische Theorie widerlegt wird.

Grafik 1 im früheren Beitrag ergab, dass die großen Unsicherheitsbereiche in den Projektionen der zukünftigen globalen Lufttemperaturen sie prädiktiv nutzlos machen. Mit anderen Worten, sie haben keine physikalische Bedeutung. Siehe auch hier (528 kB pdf) und Grafik 1 hier, eine Abhandlung jetzt gerade in Energy & Environment erschienen, mit der allgegenwärtigen Nachlässigkeit, die Konsens-Klimatologie infiziert. [1]

Dieser Beitrag zeigt, dass Nachberechnungen historisch jüngster globaler Lufttemperaturtrends ebenfalls keine physikalische Bedeutung haben.

Die folgende Grafik zeigt Daten aus Grafik SPM.5 [Link eingefügt, d.Übersetzer] des IPCC 4AR. [2] Die dunkelrote Linie im oberen Bereich zeigt die Multi-Modell-Simulation der durchschnittlichen globalen Oberflächen-Lufttemperatur des 20. Jahrhunderts. Die blauen Punkte sind die Version von 1999 der GISS-Aufzeichnungen von Land + Meer der globalen Durchschnittstemperatur. [3] Die Übereinstimmung zwischen den simulierten und beobachteten Temperaturen ist gut (Korrelation R = 0,85; p <0,0001). Der Einschub an der Spitze der Tafel zeigt den SPM.5 Multi-Modell-Durchschnitt wie im 4AR veröffentlicht. Der graue IPCC Unsicherheitsbereich über der Simulation des 20. Jahrhunderts ist eine ± Standardabweichung über die Durchschnittswerte der Multi-Modelle.

Der relativ enge Unsicherheitsbereich des IPCC impliziert, dass die Nach-Simulation erhebliches Vertrauen verdient. Die gute Übereinstimmung zwischen den beobachteten und simulierten Temperaturen des 20. Jahrhunderts liegt innerhalb der Korrelation = grundlegende Norm der Konsensklimatologie.

Der untere Teil von Grafik 1 zeigt auch die Unsicherheitsbereiche der Multi-Modell Nachberechnungen des 20. Jahrhunderts. Diese stellen den durchschnittlichen CMIP5 ± 4 Wm-2 Fortpflanzungsfehler des systematischen Cloud Forcings [theoretischer Wärmeantrieb der Wolken] dar, der sich durch die gesamte Simulation zieht. Die Fortpflanzung erfolgt durch Einsetzen des Wolkenfehlers in die bisher veröffentlichte lineare Gleichung, die die Projektionen der GCM Lufttemperatur genau emuliert; auch hier zu sehen (2,9 MB pdf). Systematische Fehlerfortpflanzung als die Summe der Quadratwurzeln.

Grafik 1. Oberes Feld (rote Linie), der Multi-Modell-Simulation der globalen Lufttemperatur des 20. Jahrhunderts (IPCC AR4 Grafik SPM.5). Kleiner Einschub: SPM.5 Multi-Modell-Nachberechnungen, Durchschnitt des 20. Jahrhunderts, wie veröffentlicht. Blaue Punkte: die GISS-Aufzeichnungen der 1999 Land + Meer globalen bodennahen Lufttemperaturaufzeichnungen. Unteres Feld: die SPM.5 Multi-Modell-Simulation des 20. Jahrhunderts mit dem Unsicherheitsbereich der Fehlerfortpflanzung, Summe der Quadratwurzel des CMIP5 durchschnittlichen ± 4 W/m² Cloud Forcing.

Die Konsens-Sensibilität wird nun fragen: Wie ist es möglich, dass im unteren Feld die Unsicherheitsbereiche so groß sind, wenn die simulierten Temperaturen offensichtlich in der Nähe der beobachteten Temperaturen sind?

Darum: Die Multi-Modell Simulationen der durchschnittlichen Nachberechnungen des 20. Jahrhunderts sind physikalisch bedeutungslos. Unsicherheitsbereiche sind die Breite der Ignoranz [Unwissenheit]. Systematische Fehler bewirken, dass je weiter das Klima in der Zeit projiziert wird, umso weniger ist über die Übereinstimmung zwischen Simulation und dem wahren physikalischen Zustand des zukünftigen Klimas bekannt. Der nächste Teil dieses Beitrags zeigt die Wahrheit dieser Diagnose.

Bild 1 von Rowlands [4] unten zeigt “perturbed physics” „gestörte Physik" [siehe unten: Nachgeschlagen] Projektionen aus dem HadCM3L Klimamodell [Hadley Centre climate model Vers. 3L]. In gestörten Physik Projektionen," wird eine einzige Modellstruktur verwendet, und Störungen werden auf unsichere physikalische Parameter innerhalb dieser Struktur angewandt …" [5] Das heißt, ein gestörtes Physikexperiment zeigt die Veränderung der Klimaprojektionen, wenn Modellparameter schrittweise variiert werden über ihre physikalische Unsicherheit.

Grafik 2. Originale Legende: ". Entwicklung der Unsicherheiten in rekonstruierten globalen Mitteltemperatur-Projektionen unter SRES A1B im HadCM3L Ensemble" Die eingebettete schwarze Linie ist die Aufzeichnung der beobachteten Oberflächen-Lufttemperatur. Die horizontalen schwarzen Linien in 1 C und 3 C, und die vertikale rote Linie zum Jahresende 2055 sind vom Autor hinzugefügt.

Das HADCML Modell ist repräsentativ für das Verhalten aller Klimamodelle, darunter die erweiterten CMIP3 und CMIP5 Versionen. Verändernde Parameter erzeugen eine Spreizung der Projektionen mit zunehmenden Abweichungen mit der Simulationszeit.

Beim SRES A1B-Szenario erhöht sich das atmosphärische CO2 jährlich. Dies bedeutet, der Energiezustand des simulierten Klimas erhöht sich systematisch über die Jahre.

Die horizontalen schwarzen Linien zeigen, dass die HADCM3L die gleichen Temperaturänderungen für mehrere (tausend) Klima Energiezustände erzeugen. Das heißt, unterschiedliche Parametersätze projizieren eine konstante 1 C Temperaturerhöhung für jeden einzelnen Jahresklima Energiezustand zwischen 1995-2050. Die wissenschaftliche Frage ist, welche der Tausende von 1 C Projektionen ist die physikalisch richtige?

Ebenfalls, abhängig von Parametersätzen, kann eine konstante 3 C Temperaturerhöhung zu jedem einzelnen Jahresklima Energiezustand zwischen 2030-2080 führen. Welcher davon ist korrekt?

Keiner der verschiedenen Parametersätze ist als physikalisch korrekter bekannt als irgendein anderer. Es gibt also keine Möglichkeit, die Temperatur Projektion auszuwählen, die physikalisch unter allen Alternativen zu bevorzugen ist.

Welche ist korrekt? Keiner weiß es.

Die gleiche Logik gilt für die vertikale rote Linie. Diese Zeile zeigt, dass die HADCM3L mehrere (tausend) Temperaturänderungen für einen einzigen Klima Energiezustand (den 2055er Status) produziert. Jeder einzelne Rowlands, et al., Jahresklima-Energiezustand zwischen 1976-2080 hat Dutzende von simulierten damit verbundenen Lufttemperaturen.

Nochmals, keiner der verschiedenen Parametersätze, der diese simulierten Temperaturen produziert, ist als physikalisch korrekter bekannt als irgendein anderer. Es gibt wieder keine Möglichkeit zu entscheiden, welche unter all den verschiedenen Möglichkeiten der projektierten Jahreslufttemperatur physikalisch korrekt ist.

Diese Beispiele zeigen, dass die HADCM3L keine eindeutige Lösung für das Problem des Klimaenergiezustands produzieren können. Kein Satz von Modellparametern ist bekannt, der besser als jeder andere Satz von Modellparametern gültig ist. Keine Projektion ist bekannt, die physikalisch korrekter (oder inkorrekter) ist als jede andere Projektion.

Das bedeutet: für jede gegebene Projektion ist vom internen Zustand des Modells nicht bekannt, dass es den zugrunde liegenden physikalischen Zustand des wahren terrestrischen Klima enthüllt. Einfacher gesagt: Das Modell kann uns auf der Ebene der Auflösung des Treibhausgas-Antriebs einfach nichts über das physikalisch reale Klima sagen.

Das gleiche gilt notwendigerweise für jeden modellierten Klima-Energiezustand, einschließlich der modellierten Energiezustände der Klimavergangenheit.

Lassen Sie uns jetzt zurückblicken auf die Multi-Modell-Nachberechnung des durchschnittlichen 20. Jahrhunderts im oberen Bereich der Grafik 1. Analog der multiplen Temperaturprojektionen in Rowlands, et al., Grafik 1, die die Ignoranz Breite der Parametersätze darstellen, auf der Einzel Nachberechnungslinie SPM.5. Das bringt die Erkenntnis, dass es eine ebenso große Anzahl von gleichberechtigten, aber divergenten Nachberechnungen geben muss.

Jedes der multiplen Modelle, das eine Nachberechnung erzeugt, hat eine große Anzahl von alternativen Parametersätzen. Keiner dieser alternativen Sätze ist als physikalisch weniger gültig bekannt als jedweder andere Satz auch immer, der eine individuelle Modell-Nachberechnung erzeugt.

Es muss eine gestörte Physik-Aufspreizung existieren, sinngemäß zu Rowlands Grafik 1, für die Projektion der 20. Jahrhundert (Nachberechnung). Die alternativen Parametersätze, alle gleichermaßen gültig, würde eine Reihe von Nachberechnungen erzeugen, die mit der Zeit auseinanderlaufen würden. Beginnend ab 1900 würden die die einzelnen gestörte Physik-Nachberechnungen immer weiter von der bekannten Aufzeichnung der Lufttemperatur bis zum Jahr 2000 auseinander laufen. Aber sie wurden alle ausgespart aus Grafik SPM.5.

Die Modelle, die die SPM.5 Nachberechnungen des 20. Jahrhunderts ausführen, enthüllen überhaupt nichts über den wahren physikalischen Zustand des terrestrischen Klima des 20. Jahrhunderts, innerhalb der Auflösung des Antriebs im 20. Jahrhundert.

Das heißt, dass die Durchschnittswerte der Multi-Modell Nachberechnung in SPM.5 keine offensichtliche physikalische Bedeutung haben. Es ist der Durchschnitt der Nachberechnungsprojektionen, die keine physikalische Bedeutung haben. Dies ist der Grund für die großen Unsicherheitsbalken, trotz der Tatsache, dass der durchschnittliche Nachberechnungs-Temperaturtrend in der Nähe des beobachteten Temperaturtrends liegt. Die Modellzustände sagen uns nichts über die Ursache der beobachteten Temperaturen. Deshalb haben die Nachberechnungen der Lufttemperaturen keine physikalische Verbindung zu den beobachteten Lufttemperaturen. Die Divergenz der gestörten Physik-Nachberechnungen erhöht sich mit der Simulationszeit, in seiner Art und Weise genau durch die immer größeren Unsicherheitsbalken abgebildet.

Diese Schlussfolgerung gilt auch dann, wenn ein gegebenes Klimamodell zufälligerweise eine Projektierung erzeugt, die dem Verhalten der beobachteten Lufttemperaturen nachläuft. Solche Korrespondenzen sind zufällig, indem der für dieses Modell gewählte Parametersatz Offset Fehler haben muss. Diesem wurden versehentlich vorteilhafte Werte innerhalb ihrer Unsicherheitsgrenzen zugewiesen. Was auch immer diese vorteilhaften Werte sind, sie sind nicht bekannt, physikalisch korrekt zu sein. Ebenso wenig kann man die zufällige Korrelation mit Beobachtungen implizieren, dass der zugrunde liegende Modell Zustand dem wahren physikalischen Zustand des Klimas entspricht.

Die physikalische Bedeutung der kürzlich veröffentlichten Studie von M. England et al., [6] in Grafik 3 veranschaulicht, ist jetzt offensichtlich. England et al. berichten, dass einige CMIP5-Projektionen sich dem „Hiatus" der Lufttemperatur seit dem Jahr 2000 annähern. [lat. hiatus „Öffnung“, „Spalt“, „Kluft“ steht für die scheinbare Pause bei der globalen Erwärmung] Sie behaupteten dann, dass diese Übereinstimmung die „Robustheit der Erwärmungsprojektionen im 21. Jahrhundert" belegt und dass es „das Vertrauen in die letzten synthetisierten Projektionen im IPCC 5AR verstärkt."

Vergleichen Sie Grafik 1 von England et al., 2015 unten, mit der Grafik 1 Rowlands et al., 2012, oben. Die horizontalen schwarzen Linien und die senkrechte grüne Linie übermitteln die gleiche Diagnose wie die sinngemäßen Linien in Rowlands, et al., Grafik 1.

Der England et al.-Satz der CMIP5 Modelle produziert konstante Lufttemperaturen für mehrere Energiezustände und mehrere Lufttemperaturen für jeden einzelnen Jahresklima-Energiezustand. Dies trotz der Tatsache, dass "alle Simulationen identischen historischen Antrieben folgen ([6], Hintergrundinformationen)." Die Abweichung der Projektionen, trotz identischer Antriebe, zeigt deutlich eine Spreizung der Modellparameterwerte.

Grafik 3. Grafik 1 von England, et al. 2015 [6] Originale Legende: Globale durchschnittliche SAT-Anomalien in Bezug auf 1880-1900 in individuellen und Multi-Modell Durchschnitts CMIP5 Simulationen. Blaue Kurven: RCP4.5 Szenario; rote Kurven: RCP8.5 Szenario. Die horizontalen schwarzen Linien bei 2 C und 3 C und die vertikale grüne Linie auf 2060 sind vom Autor hinzugefügt.

Die Diagnose ergibt sich unmittelbar aus Grafik 3: CMIP5 Klimamodelle sind unfähig, eine eindeutige Lösung für das Problem des Klima-Energiezustandes zu liefern. Sie leiden alle unter internen Parametersätzen mit breiten Unsicherheitsbereichen. Die internen Zustände der Modelle verraten nichts über die zugrunde liegenden wahren physikalischen Zustände des Klimas in Vergangenheit oder Zukunft. Keine der CMIP5-Projektionen durch England et al. aufgeführt, hat eine erkennbare physikalische Bedeutung, egal ob sie über die "Erwärmungspause" führen oder nicht.

Das bringt uns zurück zur Bedeutung der großen Unsicherheitsbalken in dem unteren Feld der Nachberechnung des 20. Jahrhunderts in obiger Grafik 1. Diese ergeben sich aus dem Fortpflanzungsfehler der CMIP5-Modell ± 4 W/m² Durchschnitts Cloud Forcing. [7, 8] Wie Parameterunsicherheit, zeigen Cloud Forcings Fehler auch an, dass Klimamodelle keine eindeutige Lösung für das Problem des Klima- Energiezustandes bieten.

Unsicherheitsbalken sind eine Unwissenheitsbreite. Sie zeigen an, wie viel Vertrauen eine Vorhersage verdient. Parameter-Unsicherheit bedeutet, die richtigen Parameterwerte sind nicht bekannt. Cloud Forcing-Fehler bedeutet, der thermische Energiefluss der durch Wolken Feedback in die Troposphäre eingeführt wird, ist nicht bekannt. Modelle mit internen systematischen Fehlern präsentieren diesen Fehler in jedem einzelnen Schritt einer Klimasimulation. Je mehr Simulationsschritte, desto weniger ist über die Übereinstimmung zwischen dem simulierten Zustand und dem physikalisch wahren Zustand bekannt.

Je mehr Simulationsschritte, desto weniger Wissen, desto größer ist die Unwissenheit über die Modell Abweichungen vom physikalischen wahren Zustand. Das ist die Botschaft der zunehmenden Breite des Unsicherheitsbereichs des propagierten Fehlers.

Jede einzelne Projektion in Englands et al. Grafik 1 unterliegt dem ± 4 W/m² CMIP5 durchschnittliche Cloud Forcing Fehler. Zu einer korrekten Anzeige der physikalischen Bedeutung sollte ein Unsicherheitsbereich wie in obiger Grafik 1 unten gehören. Außerdem, der systematische Fehler in den Projektionen der einzelnen Modelle läuft in den Multi-Modell-Durchschnitt als quadratischer Mittelwert ein.[9]. Englands et al. Multi-Modell-Durchschnittsprojektionen – die dunklen roten und blauen Linien – haben sogar eine größere Unsicherheit als jede der einzelnen Projektionen. Dies ist eine Ironie, die regelmäßig Konsens-Klimatologen unterläuft.

Also, wenn Sie eine Grafik wie in Abbildung 4 oben sehen (unten), geliefert von der US National Academy of Sciences [10], erkennen Sie, dass eine Präsentation, die vollständig wissenschaftlichen Standards entsprechen würde, wie Abbildung 4 unten aussehen würde.

Abbildung 4. Oben: Grafik 4 aus [10]; Original Legende: Modellsimulationen der Klimaänderungen des 20. Jahrhunderts entsprechen besser der beobachteten Temperatur, wenn sowohl natürliche als auch menschliche Einflüsse enthalten sind. Die schwarze Linie zeigt die beobachteten Temperaturen. Unten, das linke obere US NAS Feld, die globale 20. Jahrhundert Lufttemperatur Nachberechnung, aber jetzt mit Unsicherheits Balken von propagiert ± 4 W/m² CMIP5 durchschnittlichen Cloud Forcing Fehler.

Es macht überhaupt keinen Sinn zu behaupten, dass eine Erklärung der späteren Erwärmung des 20. Jahrhunderts, ohne Einschluss "menschlicher Einflüsse" nicht möglich ist, wenn in der Tat eine Erklärung der späteren Erwärmung des 20. Jahrhunderts in diesem Zeitraum nicht möglich ist.

Klima-Modellierer wählen Parametersätze mit Offset Fehlern, um die Lufttemperatur des 20. Jahrhunderts erfolgreich nachzuberechnen. [11] Das bedeutet, jedwede Übereinstimmung zwischen nachberechneten Temperaturen und beobachteten Temperaturen ist tendenziös – Die Korrespondenz ist absichtlich eingebaut.

Der frühere Beitrag wies nach, dass ihre eigenen Aussagen zeigen, dass Klima-Modellierer nicht als Physiker ausgebildet sind. Es zeigte sich, dass das Modellieren von Klimamodellen selbst eine freie Kunst in der Art der Kulturwissenschaft ist, jedoch mit Mathematik erarbeitet. In den Kulturwissenschaften intellektualisiert Theorie nur die Vorurteile der Theoretiker. Dieser Beitrag stellt die andere Seite der Medaille dar: der Mangel an Verständnis, der aus der mangelnden Berufsausbildung folgt.

Die Tatsache, dass England, et al., behaupten können, die "Robustheit der einundzwanzigsten Jahrhunderts Erwärmung Projektionen" und "mehr Vertrauen" in IPCC Projektionen zu erreichen, wenn ihre Modelle offensichtlich nicht in der Lage sind, den Energiezustand des Klimas zu lösen, zeigt lediglich, dass sie keinerlei Verständnis haben von der Quelle der physikalische Bedeutung. Darum erkennen sie nicht, dass ihre Modell Projektionen keine physikalische Bedeutung aufweisen. Ebenso die Redakteure und Rezensenten von Nature Climate Change, die Verwaltung der US National Academy of Sciences, und das gesamte IPCC von oben nach unten.

Die Beweise zeigen, dass diese Menschen nicht wissen, wie sich die physikalische Bedeutung aus der physikalischen Theorie ergibt. Sie wissen nicht, wie man die physikalische Bedeutung erkennt, wie man physikalische Bedeutung präsentiert, noch wie man physikalische Bedeutung zu bewerten hat.

Kurz gesagt, sie verstehen weder Vorhersage noch Widerlegung; beides ist gemeinsam die Grundlage der Wissenschaft.

Klima-Modellierer sind keine Wissenschaftler. Sie arbeiten nicht wissenschaftlich. Ihre Klimamodellprojektionen haben keine physikalische Bedeutung. Ihre Klimamodellprojektionen haben niemals irgendeine physikalische Bedeutung.

Bis auf den heutigen Tag gab es keine einzige THG-Emissionen-Klimaprojektion überhaupt, die physikalische Bedeutung hatte. Daher sind all diese strittige Debatten darüber, ob irgendein Modell, einige aus der Menge von Modellen oder ein Multi-Modell Durchschnitt, die globale Lufttemperatur nachvollziehen oder nicht, völlig sinnlos. Es spielt keine Rolle, ob eine physikalisch bedeutungslose Projektion einige Beobachtungen trifft oder nicht. Die Projektion ist ohne physikalische Bedeutung. Es hat keinen wissenschaftlichen Inhalt. Die Debatte hat keinen materiellen Inhalt. Die Diskutanten können genauso gut die Anfechter der Theologie sein.

Wenn also jemand über AGW sagt: “The science is settled!", kann man wahrheitsgemäß antworten, dass es tatsächlich „abgeschlossen“ ist, es gibt keine Wissenschaft in AGW.

Erschienen am 20. Mai 2015 auf WUWT hier

References:

1. Frank, P., Negligence, Non-Science, and Consensus Climatology. Energy & Environment, 2015. 26(3): p. 391-416.

2. IPCC, Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, S. Solomon, et al., Editors. 2007, Cambridge University: Cambridge.

3. Hansen, J., et al., GISS analysis of surface temperature change. J. Geophys. Res., 1999. 104(D24): p. 30997–31022.

4. Rowlands, D.J., et al., Broad range of 2050 warming from an observationally constrained large climate model ensemble. Nature Geosci, 2012. 5(4): p. 256-260.

5. Collins, M., et al., Climate model errors, feedbacks and forcings: a comparison of perturbed physics and multi-model ensembles. Climate Dynamics, 2011. 36(9-10): p. 1737-1766.

6. England, M.H., J.B. Kajtar, and N. Maher, Robust warming projections despite the recent hiatus. Nature Clim. Change, 2015. 5(5): p. 394-396.

7. Lauer, A. and K. Hamilton, Simulating Clouds with Global Climate Models: A Comparison of CMIP5 Results with CMIP3 and Satellite Data. J. Climate, 2013. 8. Frank, P., Propagation of Error and the Reliability of Global Air Temperature Projections; Invited Poster, in American Geophysical Union Fall Meeting. 2013: San Francisco, CA; Available from: http://meteo.lcd.lu/globalwarming/Frank/propagation_of_error_poster_AGU2013.pdf (2.9 MB pdf).

9. Taylor, B.N. and C.E. Kuyatt., Guidelines for Evaluating and Expressing the Uncertainty of NIST Measurement Results. 1994, National Institute of Standards and Technology: Washington, DC. p. 20.

10. Staudt, A., N. Huddleston, and I. Kraucunas, Understanding and Responding to Climate Change 2008, The National Academy of Sciences USA: Washington, D.C.

11. Kiehl, J.T., Twentieth century climate model response and climate sensitivity. Geophys. Res. Lett., 2007. 34(22): p. L22710. 26(11): p. 3823-3845.

Übersetzt von Andreas Demmig EIKE




Ich bin stolz darauf, von der „Cambridge“ Universität als Klimawandel „Leugner“ geehrt zu sein.

Christopher Booker

Die 2,2m hohe Gedenktafel kennzeichnet die Namen der Journalisten, die als Klimawandel-Leugner bezeichnet werden.

Es gab kürzlich viel Aufregung bei den letzten Enthüllung an der Anglia Ruskin University über den diesjährigen Siegerbeitrag für den "nachhaltige Kunst" Preis: Eine stattliche 2 Meter hohe Nachahmung einer Steinsäule, feierlich eingraviert: "Damit wir nicht diejenigen vergessen, die leugneten". Unter diesen Worten sind die Namen der sechs berüchtigten "Klimaleugner", von mir und James Delingpole, zusammen mit Nigel Lawson, der Gründer des Global Warming Policy Foundation und unseren viel beklagten ehemaligen Umweltminister Owen Paterson geführt.

Der Autor dieses Werkes, ein Student der "fine art", wurde mit den Worten zitiert, er freue sich auf den Tag, wenn Leute wie wir als Kriminelle angesehen werden würden, für unsere Versuche, den Vormarsch in eine "kohlenstoffarme Zukunft zu behindern".

Der Leiter des Globalen Nachhaltigkeits Institut der Universität hofft, dass dieses Denkmal – "in Jahrzehnten als Denkmal für einen Zeitraum der Geschichte, in der im Kampf um wissenschaftliche Erkenntnisse diese zu hören waren anstatt politischer Ideologien." – angesehen werden würde. Ein Gefühl, dem uns alle "Leugner" von Herzen zustimmen. Es war sicherlich eine Ehre, auf diese Weise bedacht werden.

Aber ich muss zugeben, als in den letzten Jahren meine alte Universitätsstadt mit dem Zug nochmals besuchte, war ich ziemlich überrascht zu sehen, das auf dem Stationsschild , unter dem Namen "Cambridge", der Slogan "Heim der Anglia Ruskin University" stand.

Einige von uns denken, dass Cambridge etwas besser als die Heimat einer anderen Universität bekannt war, derzeit die Nummer fünf in der Weltrangliste, und Top 1 auf der kompletten Liste der Universitäten in Großbritannien.

Anglia Ruskin, früher Anglia Polytechnic, folgt nur auf Platz 115 in dieser Liste, von 126. Aber es hat Auszeichnungen für "Abfallverwertung" und für "Exzellenz" bei der Verringerung der CO2-Emissionen gewonnen. Gut gemacht! Es verdient eine Gedenktafel.

Erschienen auf The Telegraph am 03. Mai 2015

Übersetzt durch Andreas Demmig

Anmerkung:

Zum Zeitpunkt meiner Übersetzung waren schon 2.626 Kommentare vorhanden.