1

IPCC immer noch von Kohlendioxid besessen

Das IPCC hat sich die am meisten in die Irre führende Graphik in der Endversion der Summary for Policymakers bis zum Schluss aufgehoben. Es handelt sich um ihre Abbildung SPM 10, in diesem Beitrag als Abbildung 1 gelistet [Bild rechts!] Sie zeigt die Anomalien der globalen  Temperatur als Funktion von anthropogenen Kohlendioxid-Emissionen.

Abbildung 1 rechts

Der Begleittext beginnt mit den Worten:

Die globale mittlere Temperatur nimmt zu als Funktion der Akkumulation der Gesamt-CO2-Emissionen, belegt durch verschiedene Beweisketten. Die Ergebnisse von Multi-Modellen aus einer Hierarchie von Klima-Kohlenstoffzyklus-Modellen…

Weiter braucht man nicht zu lesen. Die Illustration basiert ausschließlich auf Klimamodellen.

Klimamodelle haben sich so weit von der Realität entfernt, dass man sie keinesfalls heranziehen kann zu unterscheiden, ob die globale Erwärmung natürlichen Prozessen oder vom Menschen verursachten Faktoren geschuldet ist. Auch kann man sie nicht für die Vorhersage der zukünftigen Klimaentwicklung nutzen, die auf Projektionen anthropogener Treibhausgase basieren.

Die Klimawissenschaftler und –modellierer haben bisher nur bewiesen, dass sie in der Lage sind, komplexe numerische Modelle zu erzeugen und dass sie in der Lage sind, diese Modelle so zu frisieren, dass sie in etwa die Erwärmungsrate während der jüngsten Erwärmungsperiode abschätzen können, die Mitte der siebziger Jahre begonnen und etwa zur Jahrtausendwende geendet hatte, aber nur während dieses Zeitraumes. Aber unabhängig davon sind selbst die Raten der modellintern erzeugten numerischen Erwärmung während jener letzten Erwärmungsperiode falsch.

Bemerkung: Vieles in diesem Beitrag ist Hintergrundinformation. Er zeigt, wie schlecht die Klimamodelle die globalen Wassertemperaturen seit 1880 simuliert haben. Wenn man nicht daran interessiert ist, wie, wo und warum die Klimamodelle nicht in der Lage sind, die Temperaturen über etwa 70% der Fläche des Planeten zu simulieren, dann scrolle man bitte vorwärts zu dem Abschnitt mit der Überschrift Die Klimamodelle unterstützen die Hypothese einer anthropogen induzierten Erwärmung nicht nach Abbildung 15.

Einführung

Wir verglichen Daten und die Ergebnisse von Klimamodellen bzgl. der globalen Temperatur (Festland und Ozeane) seit 1880 in dem Beitrag Model-Data Comparison with Trend Maps: CMIP5 (IPCC AR5) Models vs New GISS Land-Ocean Temperature Index. Für mein Buch Climate Models Fail habe ich die Werte in den Vergleichen mit 1914, 1945 und 1975 überarbeitet (an Stelle von 1917, 1944 und 1976). Die Werte von 1914 und 1975 wurden von Dr. Leif Svalgaard berechnet. Siehe seine Kommentare hier und hier zu diesem Beitrag auf WattsUpWithThat. Und für das Jahr 1975 habe ich mich auf den Statistiker Tamino bezogen. Der Gebrauch dieser Werte wird hoffentlich Behauptungen der Rosinenpickerei vermeiden.

In diesem Beitrag betrachten wir die Anomalien der globalen Wassertemperatur, beginnend im Jahre 1880 und endend in diesem Jahr 2013. Der Datensatz ist ERSST.v3b – der auch vom GISS in seinem Festland-Ozean-Index verwendet wird – um die Konsistenz mit dem vorigen Beitrag und mit Climate Models Fail zu wahren. Die Modelle sind das Mittel des Multi-Model-Ensembles der Simulation der Wassertemperaturen für die CMIP5-Modelle (IPCC AR 5) unter Betrachtung der historischen und der RCP6.0-Szenarien [?]. Siehe auch den Beitrag On the Use of the Multi-Model Mean. Wir unterteilen die Daten und Modelle in zwei Erwärmungsperioden und zwei Perioden mit Abkühlung bzw. verlangsamter Erwärmung während der gleichen Werte 1914, 1945 und 1975. Weil die Temperaturdaten Festland plus Ozean nicht die gleichen Werte haben, scheinen die Punkte 1914, 1945 und 1975 etwas seltsam. Man betrachte Abbildung 2:

Abbildung 2

Ja, die Modelle agieren so schlecht.

Es ist ziemlich bemerkenswert, dass Klimamodellierer seit mehreren Jahrzehnten versucht haben, den globalen Temperaturverlauf abzubilden und vom CO2 als Treiber der globalen Erwärmung schwadronieren – wenn Klimamodelle die Temperaturen auf 70% der Erdoberfläche seit 1880 nicht simulieren können. Der einzige Grund, warum die Modellierer dem während der jüngsten Erwärmungsperiode näher kamen, besteht darin, dass sie ihre Modelle auf diesen Zeitraum abgestimmt haben. (Siehe Mauritsen et al. „Tuning the Climate of a Global Model”, paywalled. Vorabdruck hier.)

Die linearen Trends wurden berechnet durch EXCEL.

Für die Diskussion jedes Zeitraumes werden die Modelle verglichen mit auf Beobachtungen und Messungen basierenden Daten unter Verwendung von:

● Zeitreihen-Graphen

● Trendverteilungen, die Erwärmungs- und Abkühlungsraten in °C pro Jahr zeigen und

● Trends auf Basis zonaler Mittelung.

Beginnen wir mit der Periode, in der die Modelle noch die besten Ergebnisse zeigen, und bewegen uns dann in der Zeit rückwärts.

Die jüngste Erwärmungsperiode (von 1975 bis 2013)

Die globalen Temperaturen (Festland + Ozeane) haben im Jahre 2001 aufgehört zu steigen [hier und der Beitrag hier]. Selbst dann noch zeigen die Modelle bis zur Gegenwart eine Fortsetzung der Erwärmung. Also betrachten wir dieses Jahr 2013 als Endpunkt der jüngsten Erwärmungsperiode.

Abbildung 3 zeigt die modellierte Erwärmungsrate der globalen Wassertemperatur, die etwa 40% größer ist als der beobachtete Trend der Periode 1975 bis 2013. Man behalte im Hinterkopf, dass die Modelle auf die beobachteten Temperaturen während des größten Teils dieses Zeitraumes abgestimmt worden sind.

Abbildung 3

Die Modelle überschätzen nicht nur die Erwärmung insgesamt in dieser Periode, sie erfassten auch nicht die Zeiten, in denen sich die Wassertemperatur erwärmt (und abgekühlt) hat sowie das Ausmaß der Erwärmung (oder Abkühlung). Siehe Abbildung 4:

Abbildung 4

Die zeitliche und räumliche Verteilung der Erwärmung (oder Abkühlung) der Wassertemperatur trägt dazu bei, wann und wo die Temperaturen auf dem Festland variieren. Aufgrund des Versagens der Modelle hinsichtlich der angemessenen Simulation der Wassertemperatur ist es daher unwahrscheinlich, dass sie angemessen die Temperaturanomalien des Festlandes simulieren können.

Die im 5. Zustandsbericht des IPCC verwendeten Modelle haben bei der Erfassung von Folgendem versagt:

● Die extreme Erwärmung des Nordatlantik, verursacht durch die Atlantische Multidekadische Oszillation (siehe Ruiz-Barradas et al. (2013). Damit lässt sich erklären, warum die Modelle die Rate des polaren Verstärkungsfaktors [?] in der Nordhemisphäre nicht simulieren können und auch nicht die Rate des Eisverlustes in der Arktis (siehe Stroeve et al. 2012 „Trends in Arctic sea ice extent from CMIP5, CMIP3 and Observations”, paywalled).

● Die Abkühlung des Südlichen Ozeans, welche erklärt, warum die Klimamodelle die Meereisausdehnung in den Meeresgebieten um die Antarktis nicht simulieren können.

● Die Verteilung von Erwärmung und Abkühlung im Pazifik. Ursache hierfür ist das Versagen der Modelle bei der angemessenen Simulation der gekoppelten Ozean-Atmosphäre-Prozesse in Zusammenhang mit El Niño und La Niña-Ereignissen. Siehe hier und hier.

Anmerkung: Weitere Informationen über die Atlantische Multidekadische Oszillation AMO gibt es hier sowie in meinem Beitrag hier. Eine Einführung zu AMO von mir gibt es hier.

In Abbildung 5 sind die Erwärmungs- und Abkühlungsraten auf Basis eines zonalen Mittels dargestellt. Die Variablen für die Kurven des zonalen Mittels in diesem Beitrag sind die Trends in °C pro Dekade und sind auf der vertikalen y-Achse aufgetragen. Die horizontale x-Achse ist die Breite mit dem Südpol (bei -90) links und dem Nordpol (90) rechts sowie dem Äquator bei der Null-Breite. Die Graphen des zonalen Mittels in diesem Beitrag zeigen die Erwärmungs- und Abkühlungsraten der Wassertemperatur in den verschiedenen Breiten.

Abbildung 5

Wie Abbildung 5 zeigt, haben die Modelle für den Zeitraum 1975 bis 2013:

● die Erwärmung der Wassertemperatur in den Tropen um etwa 50% überschätzt,

● die Erwärmung der mittleren Breiten der Nordhemisphäre unterschätzt und

● keine Ähnlichkeit der Erwärmungs- und Abkühlungsraten der Wassertemperatur der Ozeane südlich etwa 35° südlicher Breite gezeigt.

Diese schlechte Leistung wirft die Frage auf, wie die Modellierer jemals hoffen konnten, jemals die Temperaturen auf dem Festland simulieren zu können.

Die Abbildungen 3, 4 und 5 zeigen, wie schlecht die letzte Generation von Klimamodellen (CMIP5) die Erwärmung (und Abkühlung) der globalen Wassertemperatur während der jüngsten Erwärmungsperiode von 1975 bis 2013 simuliert hat – ein Zeitraum, an den sie „angepasst“ wurden. Die Modelle weisen keine Verbesserungen im Vergleich mit früheren Perioden auf.

Die Periode mit geringerer Erwärmung Mitte des 20. Jahrhunderts (1945 bis 1975)

Den ERSST.v3b-Daten zufolge (Abbildung 6) haben sich die Wassertemperaturen von 1945 bis 1975 deutlich langsamer erwärmt. (Siehe dazu auch die Diskussion der HADSST3-Daten im Anschluss an Abbildung 8). Die Modelle schätzten, dass die Abkühlung während dieser Zeit im Wesentlichen eine Reaktion auf den Ausbruch des Mount Agung in den Jahren 1963/1964 ist.

Abbildung 6

Die Unterschiede treten sogar noch deutlicher hervor, wenn wir die Karten der Erwärmungs- und Abkühlungstrends während dieses Zeitraumes betrachten (Abbildung 7)

Abbildung 7

Während der Periode von 1945 bis 1975 konnten die IPCC-Modelle des AR 5 nicht simulieren:

● die Abkühlung der Wassertemperatur im Nordatlantik in Verbindung mit der AMO und

● die Erwärmung der Wassertemperatur in der gesamten Südhemisphäre.

Deutlicher zeigen dies die Erwärmungs- und Abkühlungsraten, wenn die Daten und die Modellergebnisse auf Basis zonaler Mittel dargestellt werden (Abbildung 8)

Abbildung 8

Bemerkung: Das UKMO überarbeitete ihren Datensatz der Wassertemperatur als Folge der Ergebnisse von Thompson et al 2009 Identifying signatures of natural climate variability in time series of global-mean surface temperature: Methodology and Insights. Siehe auch Kennedy et al. 2013 Part 1 und Part 2.

Zu den größten Änderungen an den HADSST-Daten kam es von den vierziger bis zu den sechziger Jahren. Die angepassten HADSST3-Daten der Wassertemperatur des UKMO zeigen jetzt Abkühlung im Zeitraum 1945 bis 1975 – eine Abkühlung, die auf magische Weise auf einer Linie mit den Modellen liegt (Abbildung 9).

Abbildung 9

Erwärmungsperiode Anfang des 20. Jahrhunderts (1914 bis 1945)

Am offensichtlichsten wird das Scheitern der Modelle bei der Abbildung der Erwärmungsperiode zu Beginn des 20. Jahrhunderts (1914 bis 1945). Diese stach in Abbildung 2 hervor wie ein erhobener Daumen und sieht in Abbildung 10 nicht besser aus. Die Anomalien der globalen Wassertemperatur zeigten eine Rate von 0,125°C pro Dekade, aber die Modelle zeigten eine Rate von lediglich 0,036°C pro Dekade, FALLS sich das Wasser durch anthropogene Treibhausgase einschließlich Kohlendioxid erwärmt hätte. Die beobachtete Erwärmung war etwa 3,5 mal größer als die modellierte Erwärmung. Diese zusätzliche beobachtete Erwärmung muss daher durch die natürliche Variabilität verursacht sein – sie kann nicht erklärt werden durch die vermuteten Einwirkungen einer von den Modellen gezeigten anthropogenen Erwärmung. Und das ist ein gigantisches Problem für die Hypothese einer anthropogen induzierten Erwärmung, das wir weiter unten in diesem Beitrag noch ansprechen werden.

Abbildung 10

Schaut man auf die Trendkarten (Abbildung 11), muss man nicht groß ins Detail gehen, wo die Modelle gescheitert sind. Sie haben die Erwärmung nahezu nirgendwo abbilden können. Wie erbärmlich ist das denn!?

Abbildung 11

Und wie Abbildung 12 zeigt, wird das Scheitern auch durch die Trends der zonalen Mittel gestützt.

Abbildung 12

Die frühe Abkühlungsperiode (1880 bis 1914)

Den im AR 5 verwendeten Modellen zufolge hätte sich die Wassertemperatur von 1880 bis 1914 mit einer Rate von etwa 0,03°C pro Dekade erwärmen sollen (Abbildung 13), aber den ERSST.v3b-Daten der NOAA zufolge hat sich das Wasser mit einer starken Rate von über -0,1°C pro Dekade abgekühlt. Die Modelle haben die Wirklichkeit um etwa 0,13°C pro Dekade verfehlt.

Abbildung 13

Die Trendkarten in Abbildung 14 und die beobachteten Trends auf Basis zonaler Mittelwerte (Abbildung 15) zeigen, wie schlecht die Modelle die Wassertemperatur während dieses Zeitraumes simuliert haben!

Abbildung 14

Abbildung 15

Die Klimamodelle unterstützen die Hypothese einer anthropogen induzierten Erwärmung nicht

Vieles in diesem Beitrag bis hier war Hintergrundinformation.

Man erinnere sich, dass das IPCC seine klimamodellbasierten Hypothesen in Abbildung 1 [oben rechts] präsentiert hat: 1. die globalen Temperaturen haben sich aufgrund akkumulierter CO2-Emissionen von 1850 bis zur Gegenwart erwärmt, und 2. die globalen Temperaturen werden auch in Zukunft steigen aufgrund der Klimamodell-Projektionen.

Die virtuellen Wassertemperaturen in den Klimamodellen werden zum Steigen gezwungen hauptsächlich durch die vermuteten Auswirkungen gut durchmischter anthropogener Treibhausgase, wobei Kohlendioxid die dominante Rolle spielt (siehe Abbildung 16). Beispiel: Den von GISS in ihren Klimamodellen zugrunde gelegten Antrieben zufolge [hier] haben die Klima-Antriebe in Verbindung mit gut durchmischten Treibhausgasen mit einer Rate zugenommen, die  in der jüngsten Erwärmungsperiode von 1975 bis 2011 3,8 mal höher lag als in der Erwärmungsperiode zuvor von 1914 bis 1945.

Abbildung 16

Die Klimamodellierer haben dann die hypothetische Erwärmung in den Klimamodellen mit anderen fabrizierten Klimatreiber-Datensätzen unterdrückt (siehe Abbildung 17). Verwendet man jedoch noch einmal die Antriebe nach GISS, kann man erkennen, dass die Gesamtantriebe während der späteren Erwärmungsperiode immer noch eine höhere Rate der Zunahme zeigen und dass diese immer noch in der früheren Erwärmungsperiode 3,8 mal höher lag als in der späteren von 1975 bis 2011.

Abbildung 17

Dann sind die Modelle auf der Grundlage all der Unmengen von Vermutungen bei der Programmierung seitens der Modellierer durch ihre programmierten Routinen gelaufen und haben einen Salat von virtuellen Wassertemperaturen hervor gewürgt (Abbildung 18). Durch keinen großen Zufall haben sich die modellierten Wassertemperaturen während der späteren Erwärmungsperiode mit einer Rate erwärmt, die 3,9 mal höher lag als während der früheren Erwärmungsperiode von 1914 bis 1945. (Man beachte, dass es in Abbildung 18 2 weitere Jahre von Modellergebnissen der späteren Erwärmungsperiode gibt als in den Antriebsgraphiken der Abbildungen 16 und 17. GISS hat ihre Antriebe bis 2013 nicht aktualisiert).

Abbildung 18

Quintessenz der Modelle: Den als Input verwendeten Antrieben und den Multi-Modell-Ensembles der jüngsten und größten Generation von Klimamodellen (CMIP%) zufolge hätten sich die Wassertemperaturen während der späteren Periode (1975 bis 2013) fast 4 mal schneller erwärmen sollen als sie es während der ersten Erwärmungsperiode (1914 bis 1945) getan haben.

Abbildung 19

Aber zum Unglück für die Modelle zeigt Abbildung 19, dass die tatsächlich beobachtete Erwärmungsrate während der späteren Periode geringer war als während der früheren Periode. Das heißt, die Wassertemperaturen erwärmten sich während der ersten Periode um 25% schneller als während der späteren Periode.

Geschenkt, während der letzten 12 Jahre der späteren Erwärmungsperiode hat sich die globale Wassertemperatur überhaupt nicht erwärmt. Wir könnten die Daten der gegenwärtigen Stillstandsperiode eliminieren (2002 bis 2013 zum Beispiel) und zeigen, dass die Erwärmung während der verkürzten späteren Erwärmungsperiode (1975 bis 2001) vergleichbar war mit dem Trend der früheren Periode. Aber das hilft den Modellen immer noch nicht.

Anmerkung: Das Folgende ist die Zusammenfassung von Kapitel 4.4 aus Climate Models Fail. Obwohl in diesem Kapitel die globalen Temperaturen (Festland + Ozeane) präsentiert worden sind, wird die Schlussfolgerung dieses Kapitels hier beigefügt.

Die Tatsache, dass die Modelle die Erwärmung in der jüngeren Erwärmungsperiode besser simuliert haben, bedeutet nicht, dass die anthropogenen Treibhausgase Ursache dieser Erwärmung waren – es enthüllt einfach, dass es den Modellierern gelungen ist, ihre Modelle noch besser zu frisieren, um sie an die jüngere Erwärmungsperiode anzupassen.

Die Klimamodelle können die beobachtete Erwärmungsrate während der früheren Periode (1914 bis 1945) nicht simulieren, die etwa genauso hoch lag wie in der Periode 1975 bis 2012). Dies zeigt, dass die globalen Temperaturen auch ohne Antriebe steigen können – anders als den Klimamodellen zufolge, die mit natürlichen und anthropogenen Antrieben gefüttert werden müssen. Und die Ähnlichkeiten zwischen den beobachteten Erwärmungsraten damals und jetzt zeigen, dass die viel höheren anthropogenen Antriebe während der späteren Erwärmungsperiode nur einen geringen Einfluss auf die Rate hatten, mit der sich die gemessene Temperatur erwärmt hat.

Mit anderen Worten, die Klimamodelle und die Daten stützen die Hypothese einer anthropogen getriebenen globalen Erwärmung nicht; sie widersprechen dem.

Die Welt, so wie sie in all den die Zahlen vergewaltigenden Klimamodellen porträtiert wird, ist eine Phantasie-Welt – mit nur einem geringen oder gar keinem Bezug zur realen Welt.

Fügen wir dem Schaden noch den Spott hinzu [Original: LET’S ADD INSULT TO INJURY]

Seit mehr als 4 Jahren habe ich gezeigt, dass die Daten bzgl. des ozeanischen Wärmegehaltes und der Daten der Wassertemperatur während der Satelliten-Ära die Hypothese einer anthropogen induzierten Erwärmung nicht stützen, wenn man diese Daten erst einmal in logische Untersequenzen unterteilt hat. Das heißt, die NODC-Daten des ozeanischen Wärmegehaltes in einer Tiefe von 0 bis 700 m und die Reynolds OIv2-Daten der Wassertemperatur zeigen, dass sich die Ozeane als Folge natürlich auftretender, vom Sonnenlicht gespeister Kopplungsprozesse zwischen Ozean und Atmosphäre erwärmen – und nicht durch anthropogene Treibhausgase. Wenn das für Sie neu ist, schauen Sie meinen bebilderten Essay „The Global Warming Challenge” (42MB pdf).

Die natürliche Erwärmung der globalen Ozeane war auch Thema von zwei YouTube-Videos – für diejenigen unter Ihnen, die sehen und hören wollen, wie ich das erkläre. Teil 1 und Teil 2.

Ich habe mein letztes Buch Climate Models Fail einige Male in diesem Beitrag erwähnt. Es ist eine Sammlung von vergleichen zwischen Modellen und Daten einschließlich eines Kapitels über Studien, die sehr kritisch hinsichtlich des Verhaltens der Klimamodelle sind. Außerdem zeige ich die natürliche Erwärmung der Ozeane in Abschnitt 9. Siehe das Inhaltsverzeichnis in einer Vorschau dieses Buches (nicht paywalled). Auf etwa 60 Seiten der 350 Seiten starken PDF-Ausgabe einschließlich 40 Abbildungen wird dieses Thema behandelt. …

Und natürlich gibt es noch viel mehr Einzelheiten in meinem Buch Who Turned on the Heat? — The Unsuspected Global Warming Culprit: El Niño-Southern Oscillation.

Unterschiede zwischen Daten und Modellen

Abbildung 20 zeigt die gemessenen Anomalien der globalen Wassertemperatur von 1880 bis 2013. Abgebildet ist auch die Differenz zwischen den modellierten und den gemessenen Anomalien der globalen Wassertemperatur, wobei die Daten vom Mittel der Modellergebnisse subtrahiert worden sind. Ich habe die Basisjahre der Anomalien auf die gesamte Periode (1880 bis 2012) ausgedehnt, damit die Basisjahre die Differenz nicht beeinflussen.

Abbildung 20

Aus irgendwelchen Gründen will die Gemeinschaft der Klimawissenschaftler unter Federführung des IPCC die Öffentlichkeit und die Politiker glauben machen, dass seine Klimamodelle realistische Repräsentationen des Klimas sind.

Zum Schluss

Die globale Wassertemperatur hat sich während der Erwärmung zu Beginn des 20. Jahrhunderts von 1914 bis 1945 schneller erwärmt als während der jüngsten Erwärmungsperiode von 1975 bis 2013. Andererseits haben die im AR 5 des IPCC verwendeten Klimamodelle etwas gänzlich anderes gezeigt. Den Modellen zufolge hätte sich das Wasser während der jüngsten Periode von 1975 bis heute etwa 4 mal schneller erwärmen sollen als im Zeitraum 1914 bis 1945. Das zeigt eindeutig, dass die vom IPCC benutzten Klimamodelle nicht herangezogen werden können, um die globale Erwärmung menschlichen Treibhausgasen wie Kohlendioxid zuzuordnen, und sie können definitiv nicht dazu verwendet werden, das Klima für irgendeinen Zeitraum auf der Basis zukünftiger anthropogener Treibhausgasemissionen vorherzusagen.

Und doch erzeugen die Klimawissenschaftler, die den AR 5 für das IPCC vorbereitet haben, Bilder wie ihr SPM 10 (meine Abbildung 1 oben rechts), die amüsanterweise Klimamodelle als „Beweis“ anführen, dass die vergangene globale Erwärmung durch Kohlendioxid-Emissionen ausgelöst worden war und dass die globalen Temperaturen weiter steigen werden als Folge zukünftiger CO2-Emissionen. Der unerschütterliche Glaube der Klimawissenschaftler [und einiger Kommentatoren hier, A. d. Übers.], dass das Kohlendioxid die globale Erwärmung treibt, obwohl die Klimamodelle etwas anderes zeigen, ist Beweis für ihre Besessenheit bzgl. CO2 oder der Notwendigkeit, ihre Modelle falsch zu interpretieren (aus irgendwelchen Gründen). Ich persönlich glaube, dass es eine Kombination aus beidem ist.

Quelle

Die Modellergebnisse und die Daten einschließlich der Trendkarten sind verfügbar über KNMI Climate Explorer.

Link: http://wattsupwiththat.com/2013/10/07/ipcc-still-delusional-about-carbon-dioxide/

Übersetzt von Chris Frey EIKE




Ohio verklagt Solarfirma auf Rückzahlung von 11 Millionen Dollar in Anleihen

Die versprochenen Arbeitsplätze sind nie geschaffen worden

In der Klage von DeWine heißt es, dass Willard & Kelsey mit der Rückzahlung von Anleihen in Höhe von 5 Millionen Dollar im Verzug sind, die das Unternehmen in den Jahren 2009 und 2010 erhalten hatte. Die Anleihen stammen von der Ohio Development Services Agency und der Ohio Air Quality Development Authority.

Vor der Gewährung der Anleihen hat Willard & Kelsey damit geprahlt, 450 Arbeitsplätze zu schaffen, und auf der Website der Firma wurde behauptet, dass sie „die feinsten“ Dünnzellen-Solarpaneele der Welt herstellen würde. Beamte des Staates Ohio erklärten Ende 2011, dass das Unternehmen bzgl. dieser Anleihen in Verzug ist, und es hat Operationen auf seiner Einrichtung im Nordwesten von Ohio im Juni dieses Jahres vertrödelt.

Vielfältige Klagen über Fehlverhalten

Insgesamt hat das Büro der Ohio AG 17 Anklagepunkte gegen das Unternehmen vorgebracht, einschließlich zweier Punkte bzgl. betrügerischer und ungesetzlicher Transfers, zwei Punkte bzgl. bürgerlicher Verschwörung und weiterer Punkte. Mit dem Verzug bei der Rückzahlung und der Schließung zweier Arbeitsstellen im Sommer könnten Willard & Kelsey nicht das Geld haben, das der Staat zurückholen möchte. Als Folge nehmen die Behörden in Ohio die Aktionäre der Firma individuell in Haftung für die Mittel, die dem Staat gehören.

In der Klageschrift heißt es weiter, dass das Unternehmen nicht die Zertifikate vorgelegt hat, ihre Produkte zu verkaufen, und der Präsident des Unternehmens James Appold gab Willard & Kelsey einen persönlichen Kredit „zu einer unverantwortlichen Zinsrate“.

Mächtige politische Akteure im Hintergrund

Noch verstörender ist die Art und Weise, mit der Willard & Kelsey diese Anleihen zu Beginn entgegen genommen hat, wiesen doch die finanziellen Zahlen des Unternehmens eine viel zu dünne Kapitaldecke auf. Vizepräsident Joe Biden und der damalige Gouverneur Ted Strickland verliehen dem Unternehmen in höchsten Tönen Unterstützung, trotz der offensichtlichen finanziellen Probleme. Zu jener Zeit haben sowohl das Unternehmen als auch seine politischen Förderer aufdringlich auf die Hunderte Arbeitsplätze hingewiesen, die der Hersteller von Solarpaneelen schaffen würde.

„Der gesamte Vorgang ist mehr als ein kalter Abglanz von ‚Solyndra’“, sagte Greg Lawson, ein politischer Analyst am in Ohio ansässigen Buckeye Institute. „Die größere öffentliche Frage lautet jedoch, warum der Staat diese Art von Anleihen überhaupt angeboten und im Wesentlichen Gewinner und Verlierer ausgewählt hat. Das ist etwas, dass Regierungen nicht machen sollten, weil diese Situationen unvermeidlich irgendwann ein hässliches Gesicht zeigen“.

„Skandale nach Art von Solyndra sind nicht auf die [US-]Bundesregierung beschränkt”, sagte Jay Lehr, wissenschaftlicher Direktor des Heartland Institute, das Environment & Climate News veröffentlicht. „Die Steuerzahler in vielen Staaten werden derzeit von ihren staatlichen Repräsentanten geschädigt, wenn diese die gleichen Vorlieben für erneuerbare Energien an den Tag legen wie bei Solyndra“.

„Staatliche Subventionen für Erneuerbare sind nicht besser als im Falle Solyndra. Erneuerbare Energien sind bei der Erzeugung viel teurer als konventionelle Energie, und selbst mit substantiellen Subventionen ist es für die Erneuerbaren schwierig, im Wettbewerb zu bestehen. Ultimativ wird die Rechnung für gescheiterte Unternehmen hier den Steuerzahlern aufgebürdet“, sagte Lehr.

Bonner R. Cohen

Bonner R. Cohen is a senior fellow with the National Center for Public Policy Research, a position… (read full bio) E-Mail: bcohen@nationalcenter.org

Link: http://news.heartland.org/newspaper-article/2013/10/07/ohio-sues-solar-firm-recover-11-million-loans

Übersetzt von Chris Frey EIKE




Klimapolitik: Teurer nutzloser Klimaschutz! EU zahlt 7,2 Milliarden Euro an Entwicklungsländer

"Wir verteilen durch die Klimapolitik defacto das Weltvermögen um"

teilte der Vizechef des Potsdam Instituts für Klimaforschungsfolgen (PIK) und Vizechef des IPCC Ottmar Edenhofer dem verblüfften Interviewer der Neuen Zürcher Zeitung (NZZ) Bernd Pötter im Vorfeld des IPCC Klimakongresses in Cancun am 14.11.2010 mit.  Und er stellte im selben Interview auch klar, dass die internationale Klimapolitik nichts mit Umweltpolitik zu tun hat. Das war und ist allen Teilnehmern am Billionenspiel -"Klimaschutz" genannt- von Anfang an ebenso klar gewesen wie Edenhofer. Nur hat der das erstmal öffentlich ausgesprochen. 

Auch den EU Politikern, Ministern und Ministerialbeamten, die sich jährlich zum IPCC Klimazirkus treffen incl. deren deutscher Antreibern, war und ist dies klar. Trotzdem wird weiterhin kräftig das Lied von der Notwendigkeit des "Klimaschutzes" gesungen und tatkräftig unterstützt von starken Kräften im Lande wie Schulen, Kirchen, Gewerkschaften, Greenpeace, BUND, WWF und viele andere zu deren Vorteil dieser Geldsegen allemal gereicht. 

Zum Verteilen gehören mindestens drei

Nun gehören zum Verteilen mindestens drei, einer der verteilt, einer der gibt, besser, dem genommen wird und einer der bekommt. 

Die ebenso einträgliche wie einflussreiche Verteilerstelle hat sich die UN gesichert. Über den Trick mit dem Klimaschutz hat sie sich inzwischen viele Behörden mit hoch dotierten einflussreichen Posten geschaffen, die beim Umverteilungsprozess maßgeblich mitwirken. Ist doch in Cancun 2010 die Errichtung von ca. 90 UN Behörden verabredet worden, die die dort vereinbarten 100 Milliarden Dollar jährlich (bis 2020) für diese Zwecke einnehmen und verteilen sollen. Die sind von den westlichen Ländern – vorrangig EU und USA- aufzubringen und sollen von den "armen" Ländern und Inselstaaten empfangen werden.

Die EU ist der größte Geldgeber

An vorderster Stelle der Geber steht – wie anders- die EU. Kann sie doch mit dem Geld Ihrer Bürger machen was sie will. Insbesondere verschwendungsfreudig zeigt sie sich beim Klimaschutz, denn da geht es zumindest vordergründig um hehre Zwecke. In solch einem Fall kennt die Ausgabefreudigkeit der EU keine Grenzen. 

Einem kürzlich vorgestellten  Bericht der ClimateAction -einer Unterabteilung der EU-Kommission-  ist zu entnehmen, dass die EU der weltweit größte Geber für die Entwicklungsländer ist, um die Konsequenzen des Klimawandels zu bekämpfen. 

Dafür wurden soeben mal auf die Schnelle von der EU und einigen willigen Ländern in Kopenhagen und Cancun vereinbart  30 Mrd $US aufzubringen, um nur die ärgsten Klima-Nöte zu lindern. Und Climate Action meldet auch noch stolz, dass die EU, über die dazu extra gegründete Global Climate Change Alliance (GCCA) das "fast start finance" Programm bereits 2012 erfüllt hatte.

7,2 Milliarden € waren ausgereicht. 

Und ebenso stolz wird versprochen, dass dieses Füllhorn auch nach 2012 weiter an die Empfänger ausgeschüttet wird, bis 2020 die vereinbarte Zahl von 100 Milliarden $ jährlich erreicht worden sind. Dann wird es nicht etwa weniger, sondern noch mehr, denn das steht schon fest. 

Die UNO sichert sich die Verteilpfründe

Und damit auch alles seine Ordnung hat muss der Geldsegen von höchster Stelle begutachtet werden. Dazu wurde von der UN der Green Climate Fund (GCF) etabliert, dessen ehrenwerte Board Mitglieder sich zur Gründungsversammlung im August 2012 in Südkorea trafen.

Deutschland zahlte zusätzlich 500 Millionen € allein für die Klimaforschung 

Gegen diese Riesensummen nimmt sich der deutsche Beitrag zu Klimaforschung geradezu bescheiden aus. Deutschland hat, so die frisch gekürte evtl wieder zu ernennende Forschungsministerin Frau Wanka , seit 2007 knapp 500 Millionen € in die Klimaforschung investiert. 

Deshalb ist es auch kein Wunder, dass die deutschen Forschungsinstitute und Universitäten sich sehr danach sehnen und alles dafür tun, dass dieser Geldsegen auch weiterhin und möglichst noch stärker fließt. Da sind Forschungsarbeiten, wie die bei der Universität Leipzig vom Verfasser eingereichte Dissertation, welche sich kritisch mit existentiellen Themen der Klimaforschung auseinandersetzt, sehr unerwünscht.

Sie wurde daher 2010 unter Verwendung bestellter, aber sachlich katastrophal falscher Gutachten, schlankweg abgelehnt. Denn sie hätte ja gefährlich werden können. Vor Gericht aber hatte die Ablehnung keinen Bestand und musste im September d.J. kleinlaut zurück genommen werden. Zudem musste sich die Fakultät entschuldigen. 

An der grundsätzlichen Gier nach dem vielen Geld und der damit verbundenen staatstragenden "Klimaforschung" hat sich jedoch nichts geändert. Die Freiheit der Wissenschaft endet da, wo der Geldtopf steht.

Michael Limburg 




Klimaänderung: Keine Wissenschaft, sondern Hokuspokus

Bild rechts: Eisig: Der Eisbär könnte stranden, wenn das IPCC bzgl. schmelzender Eiskappen recht hätte. Photo: ALAMY

Das IPCC ist eine zutiefst diskreditierte Organisation. Zwar geriert es sich selbst als die Stimme der Wissenschaft zu diesem wichtigen Thema, doch ist es in Wirklichkeit eine politisch motivierte Interessengruppe, die den guten Namen der Wissenschaft in Misskredit bringt.

Der zuvor erschienene Bericht aus dem Jahr 2007 war so grotesk falsch, dass sich die führende wissenschaftliche Institution der USA, das Inter Academy Council IAC dazu entschlossen hat, eine Untersuchung durchzuführen. Das IAC berichtete rechtzeitig im Jahr 2010 und kam zu dem Ergebnis, dass es „in jedem wesentlichen Schritt der IPCC-Prozesse zu massiven Fehlern“ gekommen war. Dem IAC zufolge hat sich das IPCC außerdem mit der Behauptung schuldig gemacht, „hohes Vertrauen in einige Statements zu haben, für die es praktisch keine Beweise gibt“.

Seitdem scheint sich nicht viel geändert zu haben, und der jüngste Bericht ist genauso betrügerisch wie sein Vorgänger.

Aber vielleicht ist das gar nicht so überraschend. Eine detaillierte Untersuchung des Berichtes 2007 hat ergeben, dass unter den Autoren von zwei Drittel der Kapitel solche mit Verbindungen zum World Wildlife Fund WWF waren, außerdem viele andere mit Verbindungen zu anderen ‚grünen’ Aktivisten-Gruppen wie Greenpeace.

Übrigens, es ist einer Bemerkung wert, dass das, was diese so genannten grünen Gruppen und viel zu viele der ihnen folgenden Kommentatoren fälschlich als ‚Verschmutzer’ beschreiben, in Wirklichkeit ultimativ grün ist: nämlich das Kohlendioxid – ein farb- und geruchloses Gas, dass sich vorteilhaft auf das Pflanzenleben und alle Arten von Vegetation auswirkt; tatsächlich könnten sie ohne dieses Gas gar nicht überleben. Es ist eine bewiesene wissenschaftliche Tatsache, dass die Erde während der letzten 20 Jahre grüner geworden ist, hauptsächlich dank des gestiegenen Kohlendioxidgehaltes in der Atmosphäre.

Wie auch immer dem sei, bereits im Jahre 2009 hat der IPCC-Vorsitzende Rajendra Pachauri – der Eisenbahn-Ingenieur und von der Ausbildung her Wirtschaftsfachmann ist und kein Wissenschaftler, geschweige denn ein Klimawissenschaftler – vorhergesagt: „Bei Erscheinen des 5. Zustandsberichtes 2013 oder 2014 wird es eine massive Wiederauferstehung des Interesses an erforderlichen Maßnahmen geben. Die Leute werden sagen ‚Oh mein Gott, wir müssen viel schneller handeln als geplant’“. Dies sagte er, noch bevor die wissenschaftlichen Untersuchungen, auf denen der jetzige Bericht vermeintlich beruht, überhaupt begonnen hatten. So viel zum Thema wissenschaftliche Methode.

Es gibt da jedoch eine unbequeme Tatsache, die zu erwähnen der neue Bericht – sehr zögerlich – verpflichtet war. Nämlich die Tatsache, dass die globale Erwärmung augenscheinlich zum Stillstand gekommen ist: Es gab während der letzten 15 Jahre bei der offiziell aufgezeichneten Temperatur keine Zunahme. Dies wurde als ein zeitweiliger Wimpernschlag vom Tisch gewischt, und sie haben gesagt, dass die Erwärmung sehr wohl weitergegangen sein könnte, aber anstatt an der Erdoberfläche in den (sehr kalten) Tiefen der Ozeane – wofür es zufälligerweise jedoch keine ernsthaften empirischen Beweise gibt.

Eine wachsende Zahl von Klimawissenschaftlern kommt inzwischen zu dem Ergebnis, dass zumindest ein Teil der Antwort in der so genannten Klimasensitivität des Kohlenstoffs liegt – die Erwärmung, die man bei einer gegebenen Zunahme von Kohlendioxid in der Atmosphäre erwarten kann (verursacht durch die Verbrennung fossiler Treibstoffe: Kohle, Öl und Gas). Diese Klimasensitivität könnte signifikant geringer sein als bislang angenommen.

Zweifellos ist es die widerwillige Akzeptanz hiervon, dass die Bemerkung Eingang in den Bericht gefunden hat, dass die Erwärmung bis zum Ende dieses Jahrhunderts möglicherweise viel geringer ist als ursprünglich vom IPCC vorhergesagt: vielleicht nur um 1,5°C. Jedoch haben sie es unterlassen zu akzeptieren, dass sich die Computermodelle, auf deren Grundlage sie all ihre Prognosen gestellt haben, als irreführend herausgestellt haben. Diese Modelle haben allesamt eine Beschleunigung der Erwärmung während des ganzen 21. Jahrhunderts angenommen, waren doch die Kohlendioxidemissionen rasant gestiegen. Aber in Wirklichkeit gab es einen Stillstand.

Die echte wissenschaftliche Methode basiert auf empirischer Beobachtung. Wenn eine Theorie – egal ob in einem Computerprogramm eingebettet oder nicht – Prognosen erzeugt, die dann durch nachfolgende Beobachtungen falsifiziert werden, dann müssen die Theorie und die sie umgebenden Computermodelle zurückgezogen werden.

Das gilt jedoch nicht für das IPCC, das versucht hat, diese fundamentale Sache zu verschleiern mit der Behauptung, dass man sich jetzt zu 95% sicher ist, dass der größte Teil der (sehr leichten) Erwärmung seit den fünfziger Jahren seine Ursache in den anthropogenen CO2-Emissionen hat. 2007 hatte es diese Wahrscheinlichkeit noch mit 90% angegeben.

Das ist nicht Wissenschaft, sondern Hokuspokus. Weder die 90 noch die 95 Prozent haben irgendeine objektive wissenschaftliche Basis: Es sind aus der Luft gegriffene Zahlen zum Vorteil für gutgläubige Politiker und Journalisten.

Auch in anderer Hinsicht hat man Staub in die Augen der Medien gestreut. Darunter ist der Ersatz des Begriffes globale Erwärmung als Folge des allgemein akzeptierten Treibhaus-Effektes durch die Begriffe ‚Klimaänderung’ oder ‚Klimastörung’. Leichtgläubige Journalisten (die vor allem bei der BBC die große Mehrheit stellen) waren zum Beispiel beeindruckt, als man ihnen sagte, dass es in weiten Gebieten Europas und vor allem in UK nicht wärmer, sondern kälter werden würde, und zwar als Folge einer Verschiebung des Golfstromes infolge zunehmender CO2-Emissionen.

Diese Ente ist nichts Neues, wurde sie doch schon während der vergangenen 10 Jahre oder so in die Welt posaunt. Tatsächlich gehe ich schon explizit in meinem Buch zur globalen Erwärmung An Appeal to Reason [etwa: Ein Appell an die Vernunft] darauf ein. Das Buch war vor fünf Jahren erschienen. Tatsächlich gab es keinerlei wie auch immer geartete Störung des Golfstromes, und es ist auch unwahrscheinlich, dass es demnächst dazu kommt. Wie der bedeutende Ozeanograph Prof. Karl Wunsch beobachtet hat, ist der Golfstrom ein zum großen Teil durch Wind getriebenes Phänomen. Folge: „Solange die Sonne die Erde erwärmt und die Erde sich dreht, wird es Winde geben und damit auch einen Golfstrom“.

Wie also ist es wirklich, und was müssen wir diesbezüglich tun?

Die Wahrheit ist, dass der Kohlendioxidgehalt der Atmosphäre tatsächlich stetig zunimmt, und zwar als Folge der Verbrennung fossiler Treibstoffe vor allem in rasch wachsenden Ökonomien der Entwicklungsländer wie China. Wissenschaftliche Tatsache ist auch, dass dies ebenso wie andere Dinge die Welt wärmer macht. Aber es gibt zwei wesentliche ungelöste wissenschaftliche Fragen: Erstens, sind andere Dinge gleich? Zweitens, selbst wenn das so ist, wie stark wird sich unser Planet noch erwärmen? Es gibt keinerlei wissenschaftliche Basis für das Gerede von einer ‚katastrophalen Klimaänderung – und es herrscht allgemein Übereinstimmung, dass – wenn der gegenwärtige Stillstand erst einmal vorbei ist – sich die Welt in der Tat bis zum Ende des Jahrhunderts um 1,5°C erwärmt, dies allgemein eine sehr gute Sache wäre: vorteilhaft sowohl für die globale Produktion von Nahrungsmitteln als auch für das globale Wohlergehen.

Was wir also in dieser Hinsicht tun sollten – falls überhaupt die Notwendigkeit irgendwelcher Aktivitäten besteht – ist uns darauf einzustellen, uns an irgendwelche Änderungen anzupassen, zu denen es in ferner Zukunft kommen könnte. Das bedeutet, dass wir alle technologischen Ressourcen für die Menschheit erschließen müssen – die definitiv Ende dieses Jahrhunderts viel größer sein werden als heute – um irgendwelche Schäden, die durch die Erwärmung hervorgerufen werden könnten, zu begrenzen, während wir alle Vorteile nutzen, die die Erwärmung mit sich bringen wird.

Was wir definitiv nicht tun sollten ist das, was Dr. Pachauri, Lord Stern und die restliche Bande fordern, nämlich die globale Wirtschaft durch die Verbannung fossiler Treibstoffe zu dekarbonisieren.

Vor der industriellen Revolution musste sich die Menschheit für ihre Energieversorgung auf große Lasten und Windkraft verlassen. Die industrielle Revolution und der mit ihr einher gegangene enorm wachsende Wohlstand waren nur möglich, weil der Westen der Windkraft abgeschworen und sich den fossilen Treibstoffen zugewandt hat. Jetzt wird uns – unglaublicherweise – gesagt, dass wir den relativ billigen und hoch zuverlässigen fossilen Treibstoffen abschwören und uns wieder der Windkraft zuwenden müssen, die sowohl unzuverlässig als auch extrem teuer ist.

Das ist eindeutig ökonomischer Irrsinn, der uns völlig unnötigerweise einen drastischen Rückgang unseres Lebensstandards bringen würde.

Aber was mich am meisten bewegt ist, was das alles für die Entwicklungsländer bedeutet. Wenn sie die billigste verfügbare Energiequelle aufgeben und nachfolgend ernsthaft den Pfad ökonomischen Wachstums und steigenden Wohlstands verlassen würden, auf dem sich die meisten Entwicklungsländer jetzt befinden, würde es für sie bedeuten, Hunderte Millionen ihrer Einwohner völlig unnötig zu Armut, Entbehrungen, vermeidbaren Krankheiten und vorzeitigem Tod zu verdammen.

All das im Namen ferner zukünftiger Generationen, die in späteren Jahrhunderten vielleicht etwas besser dran sind (da gibt es keine Gewissheit), als es sonst der Fall wäre.

Das ist kein Klopfen auf den Busch, das ist moralisch höchst empörend. Die Welt wäre schlecht beraten, auch nur einen winzigen Augenblick auf den neuen IPCC-Bericht zu verschwenden.

Link: http://www.telegraph.co.uk/earth/environment/climatechange/10340408/Climate-change-this-is-not-science-its-mumbo-jumbo.html

Übersetzt von Chris Frey EIKE




Leitende Direktoren (CEOs): Europa riskiert eine Energiekrise durch grüne Subventionen

Die Unternehmen, darunter die deutschen Unternehmen E.ON SE, RWE AG (RWE) sowie GDF Suez (GSZ) aus Frankreich, repräsentieren die Hälfte der Erzeugungskapazität in Europa. Sie warnten, dass die derzeitige Politik Investoren entmutigt und Europa in eine Energiekrise steuert.

„In Europa zahlen die Unternehmen dreimal so viel für Gas wie in Amerika und zweimal so viel für Strom”, sagte der leitende Direktor von Eni SpA (ENI) Paolo Scaroni auf einer Pressekonferenz in Brüssel. „Wie können wir bei einem solchen Unterschied von einer industriellen Erholung träumen?“

Der leitende Direktor von Enel SpA (ENEL)  Fulvio Conti rief nach einem Ende der „Robin Hood“-Steuern. „Ich sehe eigentlich überall den Sheriff von Nottingham hinter dem größten Teil der Gesetzgebung. Lasst uns zurück zur Normalität gehen und staatliche Eingriffe und Subventionen eliminieren!“

Im März begann in der EU eine Debatte über einen neuen Satz von Vorschriften zu Klima und Energie, strebt doch der Block aus 28 Ländern nach Versorgungssicherheit und zugleich nach Beschneidung der Treibhausgas-Emissionen. Ein Rahmen für die Dekade und bis zum Jahr 2030 wird gebraucht, um Investoren Rechtssicherheit und Innovationsanreize zu vermitteln und sie auf ein globales Klimaabkommen vorzubereiten. Dies verlautete von der Europäischen Kommission in einem Beratungspapier.

Gleichzeitig überlegt sich die EU Optionen, den 53 Milliarden Euro teuren Kohlenstoffmarkt gründlich zu überarbeiten, nachdem die Emissionszertifikate auf einen Tiefstpreis von 2,46 Euro im April gefallen waren, und zwar inmitten einer Rekordflut von Zertifikaten.

Zusätzlich zu kommenden Reformen während der nächsten Jahre benötigt das Handelssystem von Emissions-Zertifikaten kurzfristig eine Stabilisierung, sagte der CEO von GDF Gerard Mestrallet. „Ohne ein Kohlenstoff-Signal haben wir keinen Durchblick und sind nicht in der Lage zu investieren“.

Kohlenstoff-Kollaps

Der Kollaps der Kohlenstoff-Preises hat die schmutzigste [?] Energiequelle, also Kohle, gleichzeitig auch zu einer der billigsten gemacht. Der Schwenk zur Kohle und die Notwendigkeit, erneuerbare Energie zu kaufen, haben die Wirtschaftlichkeit von Erdgas-Kraftwerken geschwächt, was zu einer weit verbreiteten Stilllegung kombinierter Gaskraftwerke führte, obwohl diese zu den saubersten gehören.

Den Unternehmen zufolge sind 51 Gigawatt der Stromkapazität der EU stillgelegt worden, das ist äquivalent mit der Kapazität von Belgien, der Tschechischen Republik und Portugal zusammen.

Energieverbraucher sollten nur für Energie zur Kasse gebeten werden, sagte der CEO Johannes Teyssen von E.ON, der auch Präsident der Industrie-Lobbygruppe Eurelectric ist. Gegenwärtig zahlen die europäischen Verbraucher am meisten für Subventionen für die Erzeugung mit Erneuerbaren in Gestalt immer höherer Stromrechnungen.

Höhere Rechnungen

„Über 50% dessen, was die europäischen Verbraucher derzeit zahlen, hat nichts zu tun mit der Energieerzeugung und den Netzwerken, sondern sie zahlen wegen politischer Entscheidungen“, sagt Ignacio Galan von Iberdrola. „Das hat schon jetzt zu vielen Verzerrungen geführt“.

Innerhalb von vier Jahren waren die Stromrechnungen für private Verbraucher um 17% und für industrielle Verbraucher um 21% gestiegen, teilten die Unternehmen mit.

Die Führer der Europäischen Union drängten im Mai auf eine schnellere Integration der Energie- und Gasmärkte der EU als ein Weg, die Kosten zu senken, und zwar angestachelt durch die sich rasch vergrößernde Kostenlücke zwischen dem größten Handelspartner, also den USA nach der dortigen Schiefergas-Revolution und der EU.

Falls die EU zu einem voll integrierten Markt wird, könnten bis zum Jahr 2015 im Vergleich zu 2012 Kosten bis zu 35 Milliarden Euro pro Jahr eingespart werden.

„Die EU sollte bei der Integration einen Zahn zulegen und die Vorschriften verbessern, die die Energiepreise betreffen“, sagte Teyssen von E.ON. „Die Zugangskosten zum Stromsystem sollten nur Kosten reflektieren, die direkt zusammenhängen mit dem Transport und der Verteilung der Energie – und nicht als ein gutes Versteck für andere Kosten fungieren“.

Link: http://www.bloomberg.com/news/2013-10-11/europe-risks-energy-crisis-from-green-subsidies-ceos-say.html

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Offenbar stellt der Autor das CO2 als Schadstoff nicht in Frage. Umso bemerkenswerter ist es m. E., wenn jetzt selbst die Befürworter eines „Weg-vom-Kohlenstoff“ nach der Notbremse rufen.

C. F.




Vom Unsinn der Klimasensivität CS im IPCC Bericht AR5

Dr. Kiehl’s Paradoxon

Von Willis Eschenbach

Im Jahre 2007 wies Jeffrey Kiehl in einem im GRL veröffentlichten Papier mit dem Titel Twentieth century climate Modell response and Climate Sensitivity auf ein sonderbares Paradoxon hin. Alle von den verschiedenen Forschergruppen betriebenen Klimamodellle konnten die historischen Temperaturen an der Erdoberfläche ganz vernünftig nachbilden. Aus dieser Übereinstimmung wurde von Leuten wie z. B. im IPCC viel Aufhebens gemacht. Nach deren Ansicht ist das der Beleg, dass die Modellle stimmen, dass sie die natürlich gegebene Wirklichkeit abbilden.

Fig. 1. Kiehls Ergebnis beim Vergleich der Klimasensitivität (ECS) mit allen Antrieben. 

Das Paradoxon besteht darin, dass alle Modellle eine stark unterschiedliche Klimasensitivität zeigen, aber dass sie alle in etwa zum gleichen Ergebnis kommen … was stimmt da nicht? Und so schrieb Kiehl in seinem Papier:

[4] Ein sonderbarer Aspekt dieses Ergebnisses ist, dass es allgemein bekannt ist [Houghton et al., 2001], dass die gleichen Modellle, die bei der Simulation der Anomalien bei den Temperaturen an der Erdoberfläche übereinstimmen, signifikant bei der vorhergesagten Klimasensitivität voneinander abweichen. Die angegebene Spannweite bei der Klimasensitivität aus einer großen Anzahl von Modellen reicht normalerweise bei einer Verdoppelung des CO2 von 1.5 bis 4.5C, wobei die meisten der für die Klimawandel-Studien benutzten globalen Klimamodelle wenigstens um den Faktor Zwei beim Gleichgewicht der Klimsensitivität voneinander abweichen.

[5] Die Frage ist: wenn die KlimaModellle sich um einen Faktor von 2 bis 3 in der Klimasensitivität unterscheiden, wieso können sie alle die globalen Temperatur-Aufzeichnungen in einem vernünftigen Genauigkeitsgrad nachbilden?

Kann es so etwas geben? Die Modellle haben stark unterschiedliche Sensitivitäten … aber sie können alle die historischenTemperaturgänge wiedergeben? Wie ist das möglich?

Die Antwort schieben wir zunächst auf, zuerst hier die Antwort von Kiehl (Hervorhebung vom Verfasser):

Man hat herausgefunden, dass der anthropogene Gesamtantrieb bei sehr vielen Klimamodellen sich um den Faktor Zwei unterscheidet und dass der Gesamtantrieb umgekehrt zur Klimasensitivität korreliert ist.

Irgendwie macht das Sinn, weil, wenn der Gesamtantrieb größer ist, man ihn stärker vermindern (geringere Sensitivität) muss, um beim Temperaturgang zu einer Darstellung zu gelangen, die zur historischen Aufzeichnung passt. Kiehl hat aber trotzdem nicht recht.

Meine eigene Forschung im Beitrag Climate Sensitivity Deconstructed  vom Juni dieses Jahre hat gezeigt, dass der entscheidende Faktor nicht der Gesamtantrieb ist, wie Kiehl vermutete. Ich habe herausgefunden, dass die Klimasensitivität der Modellle sehr genau durch ein einfaches Trendverhältnis emuliert wird – Trend des Antriebs geteilt durch den Trend des Modell-Outputs


Fig. 2. Lambda verglichen mit dem Trend-Verhältnis. Rot zeigt die transiente Klimasensitivität (TCR) von vier Modellen plus einen 19-Modelle-Durchschnitt. Dunkelblau zeigt das Gleichgewicht der Klimasensitivität (ECS) der gleichen Modelle. Hellblau ist das Ergebnis aus den Antriebs-Datensätzen, wie sie sich aus tatsächlichen historischen Temperatur-Datensätzen ergeben.

Man sieht, dass Kiehls Fehler bei der Erkennung der Ursache der Veränderungen naheliegend ist. Erstens sind die Outputs der Modelle alle ziemlich ähnlich dem historischen Temperaturverlauf. Deswegen konnte Kiehl den Modell-Output vernachlässigen, was die Frage vereinfacht, aber die Ungenauigkeit vergrößert. Zweitens ist der Gesamtantrieb eine Anomalie, die bei Null anfängt am Beginn der historischen Rekonstruktion. Im Ergebnis ist der Gesamtantrieb irgendwie proportional zum Trend des Antriebs. Und das vergrößert auch noch die Ungenauigkeit. Aber bevor ich das Paradoxon löse und zugleich als Erster, der darüber schreibt, möchte ich Dr. Kiehl meine hohe Anerkennung zollen.

Ich hätte eigentlich nicht davon überrascht sein sollen, dass die Sensitivität wie von den Modellen errechnet, nichts anderes als das Trend-Verhältnis ist. Schließlich ist die kanonische Gleichung des herrschenden Klima-Paradigmas, dass der Antrieb direkt mittels der Klimasensitivität (lambda) auf die Temperatur bezogen ist. So ausgedrückt:

Temperaturänderung (∆T) = Klimasensitivität (lambda) mal Veränderung im Antrieb (∆F), oder kürzer,

∆T = lambda ∆F

Das impliziert natürlich

lambda = ∆T / ∆F

Und der Ausdruck auf der rechten Seite ist nichts anderes als das Verhältnis der Trends. 

Wir sehen also, dass, wenn wir uns für einen speziellen Antriebs-Datensatz für das Modell entschieden und dazu einen historischen Datensatz festgelegt haben, der Output passen wird, und damit haben wir die Klimasensitivität hineingepackt. Jetzt brauchen wir nicht einmal mehr das Modell, um sie zu berechnen. Es ist das Trend-Verhältnis – der Trend des historischen Temperatur-Datensatzes geteilt durch den Trend des Antriebs-Datensatzes. Das ergibt sich zwangsläufig aus der Definition.

Damit haben wir die vollständige Erklärung, warum nach jahrelang und immer wieder verbesserten Computer-Modelllen diese Modellle in immer besserer Genauigkeit und Komplexität die Vergangenheit rückwärts gerichtet voraussagen können … aber bei der Klimasensitivität immer noch nicht übereinstimmen.

Der Grund liegt darin, dass die Klimasensitivität überhaupt nichts mit den Modelllen zu tun hat, aber alles mit den Trends bei den Inputs für die Modellle (Antriebe) und den Outputs (Nach-Berechnungen historischer Temperaturverläufe).

Um es zusammenzufassen, wie Dr. Kiehl vermutete, sind die Variationen in der Klimasensitivität, so wie sie die Modelle ausgeben, nur auf die Unterschiede in den Trend-Differenzen zwischen den von den unterschiedlichen Modellen benutzten Antriebe und den Trends der Outputs zurückzuführen.

Angesichts dessen habe ich laut lachen müssen, als ich den jüngsten UNO-IPCC- Mischmasch von Wissenschaft, Glauben und Pseudo-Wissenschaft durchstudierte, der auch Fünfter Zustandsbericht heißt (AR5). Man halte sich vor Augen, dass das Folgende, wie der Name sagt, von einem Ausschuss von Regierungen kommt, nicht von Wissenschaftlern:

Die Spannweite der Modelle reicht beim Gleichgewicht der Klimasensitivität von 2.1°C bis 4.7°C, und das ist sehr ähnlich wie schon beim AR4. Es besteht sehr hohes Vertrauen, dass der zur Spreizung des Gleichgewichts der Klimasensitivität beitragende Primärfaktor das Feedback der Wolken ist. Das gilt sowohl für das moderne Klima wie für das Maximum der vergangenen Eiszeit.

Ich musste lachen, obschon mir zum Weinen war.  … Die IPCC-ler verstehen wirklich überhaupt nicht, was sie machen. Wie können sie “sehr hohes Vertrauen” (95%) haben, dass die Ursache der “Wolken-Feedback” ist, wenn sie an anderer Stelle zugeben, dass sie die Wirkung der Wolken überhaupt nicht verstehen? So schreiben sie über die Beobachtungen von Wolken und deren Wirkungen und viel weniger darüber, was sie in den Modellen damit machen:

• Beträchtliche Ungewissheit und daher niedriges Vertrauen betrifft die Beobachtungen der Wolkenveränderlichkeit im globalen Ausmaß und den Trends. {2.5.7} 

• Es besteht geringes Vertrauen, dass ein globaler Trend bei Trockenperioden oder Niederschlagsarmut beobachtet wurde, weil es keine direkte Beobachtungen gibt und methodische Unsicherheiten bei der Auswahl und geographische Inkonsistenzen bei den Trends. {2.6.2} 

• Es besteht geringes Vertrauen, dass berichtete Langzeit-Veränderungen (über Jahrhunderte) bei den Eigenschaften der Tropischen Zyklonen robust sind, wenn man die jüngeren Veränderungen der Beobachtungsmöglichkeiten in Betracht zieht. {2.6.3}

Ich muss schon sagen, ich für meinen Teil habe “sehr geringes” Vertrauen in die Beurteilungen der Grade des Vertrauens durch das IPCC in allen Dokumenten … 

Wie dem auch sei, liebe IPCC-ler, die Spannweite der Modell-Sensitivität kann nicht auf die zugegebenermaßen schwächlich modellierten Wirkungen der Wolken zurückgeführt werden. Sie hat auch rein garnichts damit zu tun, wie die Modelle im Inneren ablaufen. Die Klimasensitivität ist eine Funktion der Auswahl der Antriebe und dem gewünschten Output (dem historischen Temperaturgang), und sonst nichts.

Unter Berücksichtigung des Mangels an Verständnis auf seiten der Regierungen kann das noch ein langer Kampf bergauf werden. … Aber ich weiß ja nichts Besseres zu tun.

w.

Nachsatz vom Verfasser: Ich halte die ganze Vorstellung von einer “Klimasensitivität” für bedeutungslos im Kontext von natürlichen thermoregulierten Systemen, wie das Klima eins ist. In derartigen Systemen wird eine Zunahme in einem Teilbereich von einer Abnahme in einem anderen Teilbereich oder über einen längeren Zeitraum konterkariert. Hierzu verweise ich auf meine Beiträge It’s Not About Feedback und Emergent Climate Phenomena als Diskussionsbeiträge.

Original hier 

Übersetzung: Helmut Jäger, EIKE




Energiewende wirkt: EEG-Umlage steigt 2014 auf 6,24 Cent

Pressemitteilung der Übertragungsnetzbetreiber 50Hertz, Amprion, TenneT und TransnetBW (Link)

(…) Die EEG-Umlage ist von allen Letztverbrauchern für jede bezogene Kilowattstunde zu entrichten. Dies bedeutet, dass die Verbraucher zur Förderung der erneuerbaren Energien im Stromsektor im Jahr 2014 mit 6,240 Cent pro Kilowattstunde beitragen. Damit liegt die EEG-Umlage im Jahr 2014 knapp 20 Prozent über Vorjahresniveau (5,277 Cent pro Kilowattstunde).

Für das Jahr 2014 wird eine weiter deutlich ansteigende Erzeugung an elektrischer Energie aus rege-nerativen Anlagen prognostiziert. Der Anstieg um ca. 15 Terawattstunden (TWh) (von rund 135 TWh in 2013 auf knapp 150 TWh in 2014) spiegelt sich hauptsächlich in den Energieträgern Wind onshore, Wind offshore und Photovoltaik wider.

Die Entwicklung der EEG-Umlage von 2003 bis 2014

Strompreisentwicklung in Deutschland (Quelle: Statista)

Die Entwicklung der Prognosen zur EEG-Umlage und deren tatsächlichen Werte im Wandel der Zeit

2004
Greenpeace

….Danach bleiben die von den Stromkunden aufzubringenden Kosten für das Erneuerbare-Energien-Gesetz (EEG-Umlage) auch bei weiterem Ausbau der Erneuerbaren Energien (EEG) gegenüber dem jetzigen Stand praktisch konstant.

Bundesumweltminister Jürgen Trittin

Es bleibt dabei, dass die Förderung erneuerbarer Energien einen durchschnittlichen Haushalt nur rund 1 Euro im Monat kostet – so viel wie eine Kugel Eis.

Die EEG-Umlage betrug 2004 0,58 Ct/kWh.

2005
Bundesumweltministerium

Der Anstieg der EEG-Umlage nimmt in Zukunft ab und wird einen Durchschnittshaushalt selbst bei sehr dynamischem Ausbau nicht mehr als 3 Euro pro Monat kosten. Ab Mitte des nächsten Jahrzehnts geht die EEG-Umlage wieder zurück.

Die EEG-Umlage betrug 2005 0,68 Ct/kWh

2006
Ingenieurbüro für neue Energien

Insgesamt ist zu erwarten, dass die monatliche EEG-Umlage von heute etwa 0,54 Ct/kWh bis zum Jahr 2017 auf maximal 0,93 Ct/kWh ansteigt.

Die EEG-Umlage betrug 2006 0,88 Ct/kWh

2007
Solarportal 24

Schon heute sparen die Verbraucherinnen und Verbraucher mit dem Erneuerbare-Energien-Gesetz deutlich mehr Geld ein, als sie für das Förderinstrument zahlen. Das größere Stromangebot aus Wind, Wasser, Sonne Bioenergie und Erdwärme führt zu einem dämpfenden Effekt auf die Strompreise, so der Bundesverband Erneuerbare Energie BEE.

Bundesumweltministerium

Durch die EEG-Novelle erhöht sich die EEG-Umlage auf den Strompreis etwas. Nach geltendem Recht wäre sie bis Jahr 2015 auf ein Maximum von etwa 1,4 ct/kWh angestiegen, danach sinkt sie wieder. Durch die jetzt beschlossene Novelle, die den Offshore-Windstrom besser vergütet, erwarten wir einen Wert von ca. 1,5 ct/kWh im Jahr 2015.

Die EEG-Umlage betrug 2007 1,02 Ct/kWh

2008
Bundesumweltministerium

Trotz eines anhaltend kräftigen Anstiegs der Stromerzeugung aus erneuerbaren Energien von derzeit etwa 15 Prozent auf rund 30 Prozent im Jahr 2020 und rund 50 Prozent im Jahr 2030 steigen die von den Stromkunden aufzubringenden Mehrkosten (die so genannten Differenzkosten) nur noch bis etwa Mitte des kommenden Jahrzehnts leicht an. Mit einer EEG-Umlage von maximal 1,5 Cent/kWh liegt diese dann nur geringfügig über ihrem aktuellen Wert von etwa 1,2 Cent/kWh.

Die EEG-Umlage betrug 2008 1,12 Ct/kWh

2009
Bundesverband Erneurbare Energien

Die EEG-Umlage …wird im Preispfad EE-Branche ihr Maximum bei rund 1,4 Ct/kWSh etwa 2013/2014 erreichen.

Die EEG-Umlage betrug 2009 1,13 Ct/kWh

2010
Bundesumweltministerium

Nachdem auch 2010 in den Medien immer wieder behauptet wurde, die Erneuerbaren Energien seien seit Jahren die wichtigsten Preistreiber der Strompreise, belegt jetzt eine Studie des BMU das Gegenteil. An der Untersuchung, waren unter anderen das Frauenhofer IWES und das Deutsche Zentrum für Luft- und Raumfahrt beteiligt.
Die EEG-Umlage für 2011 wird sich nach einer aktuellen Studie des Bundesministeriums für Umwelt (BMU) rund 2,8 Cent betragen. Die Untersuchung beschäftigte sich mit “Langfristszenarien und Strategien für den Ausbau der Erneuerbaren Energien in Deutschland bei Berücksichtigung der Entwicklung in Europa und global“ und sieht auch für die kommenden Jahre keine explodierende EEG-Umlage.

Die EEG-Umlage betrug 2010 2,05 Ct/kWh und stieg 2011 auf 3,53 Ct/kWh

2011

Bundeskanzlerin Angela Merkel am 09.06 in einer Regierungserklärung

Unsere Devise heißt: Die Unternehmen genauso wie die Bürgerinnen und Bürger in Deutschland müssen auch in Zukunft mit bezahlbarem Strom versorgt werden. Deshalb wollen wir die erneuerbaren Energien schneller zur Marktreife führen und effizienter gestalten. Die EEG-Umlage soll nicht über ihre heutige Größenordnung hinaus steigen; heute liegt sie bei etwa 3,5 Cent pro Kilowattstunde. Langfristig wollen wir die Kosten für die Vergütung des Stroms aus erneuerbaren Energien deutlich senken.

2012

Eicke R. Weber, Direktor des Fraunhofer-Instituts für Solare Energiesysteme

Der beherzte Zubau der erneuerbaren Energien wird die Umlage dafür auf den Strompreis nur wenig, für den Verbraucher unmerklich steigen lassen.

(…) Nach 2020 aber können wir erwarten, dass der Anteil der festpreisigen erneuerbaren Energien im Strommix hilft, die Preise zu stabilisieren, so dass wir eine Strompreisdämpfung erleben werden.

Die EEG Umlage wurde 2013 auf 5,27 Cent angehoben.

2013

Bundesumweltminister Peter Altmaier

Die Energiewende zahlen wir nicht aus der Portokasse

2014 steigt die EEG-Umlage weiter auf 6,24 Cent pro Kilowattstunde.

Zuerst erschienen bei ScienceSceptical




Erdgas oder Kernenergie? – Investitionskosten gegen Betriebskosten

In den letzten Monaten verschärft sich immer mehr die Diskussion um die zukünftige Gestaltung des Kraftwerkparks. Grundsätzlich ist die Fragestellung welcher Brennstoff zukünftig eingesetzt werden soll, so alt wie die Stromerzeugung und unterliegt immer noch dem gleichen Kräftedreieck unterschiedlicher Interessen:

1.      Welche Brennstoffe oder sonstige "Rohstoffe" (Wasserkraft, Wind etc.) sind am Standort zu welchen Preisen vorhanden?

2.      Wie hoch sind die erforderlichen Investitionskosten für die in Frage kommenden Kraftwerkstypen?

3.      Wie lauten die gesellschaftlichen Randbedingungen?

Den letzten Punkt könnte man auch als Politik bezeichnen. Er liegt zumeist weit außerhalb des Einflussbereichs von Investoren und kann sehr irrationale Gründe haben, wie die "Energiewende" eindrucksvoll zeigt. Er soll hier nicht weiter betrachtet werden. Allerdings kann er in seinen Auswirkungen die beiden ersten beiden Gesichtspunkte bei weitem übertreffen und kann äußerst kurzfristig wirken (z. B. Abschaltung der Kernkraftwerke nach Fukushima) und zerstörerisch sein. Oder anders ausgedrückt: Sachverstand ist gegen politischen Glauben völlig machtlos!

Stromerzeugung und -verteilung erfordert am Anfang sehr hohe Investitionen. Man muß über sehr lange Zeiträume Investitionsentscheidungen betrachten. Je weiter man aber in die Zukunft schauen muß, um so ungewisser sind die Randbedingungen. Will man akzeptable Preise für eine Energieeinheit erzielen, muß man sehr langsame Kapitalrückflüsse ansetzen. Dabei bewegt man sich auch noch in einem etablierten Markt: Anders, als z. B. bei der Erfindung von Computern oder Mobiltelefonen, hat man nicht die Nischen, für die auch ein extrem teures Produkt noch nutzen hat. Diese "Erstanwender" finanzieren dann die weitere Entwicklung. Elektrische Energie ist demgegenüber ein streng genormtes Produkt. Es macht für den Nutzer überhaupt keinen Unterschied, wie es erzeugt wurde. Technologische Fortschritte interessieren deshalb nur einseitig den Erzeuger.

Aus dem bereits etablierten Marktpreis ergibt sich folgendes Dilemma: Man muß den Anteil der Kapitalkosten möglichst gering halten, da ja die Brennstoffpreise ebenfalls festliegen. Je länger man jedoch den Amortisationszeitraum ansetzt, um so größer wird auch das Risiko steigender Brennstoffpreise. Dieses Risiko ist um so schlechter kalkulierbar, je breiter die Anwendung des Brennstoffs ist. Erdgas z. B. konkurriert auch mit Industrie und Gebäuden. Uran andererseits, ist praktisch nur in Kernkraftwerken nutzbar.

Betrachtet man die Investitionskosten für ein Kraftwerk, so bildet eine Gasturbine die untere Schranke und ein Kernkraftwerk die obere Schranke. Bei den Brennstoffpreisen verhält es sich genau umgekehrt. Eine Optimierung ist notwendig. Einfache Antworten können nur Laien liefern.

Preisschwankungen beim Brennstoff

Kraftwerke sind langlebige Investitionsgüter. Ihre technische Lebensdauer ist praktisch unendlich. Üblicherweise wird jedoch der Instandhaltungsaufwand und der technische Fortschritt nach vier bis sechs Jahrzehnten so groß, daß eine Verschrottung sinnvoll wird. Man muß also den Verlauf der Brennstoffpreise über so lange Zeiträume abschätzen. Bei den Kohlepreisen aus der nahen Grube ist dies noch einfach, bei frei handelbaren und auch anderweitig nutzbaren Brennstoffen, wie Öl und Gas, ist das weitaus schwieriger. So mußten beispielsweise Öl- und Gaskraftwerke vorzeitig (gemeint ist vor dem erreichen ihrer technischen Lebensdauer) ausscheiden.

Ein wichtiges Maß für das Investitionsrisiko ist die Volatilität der Brennstoffpreise (Schwankungen in der Höhe und zeitlichen Frequenz) in der Vergangenheit. Erdgas unterlag immer großen Schwankungen. In der Vergangenheit versuchte man diese, durch die sog. "Ölpreisbindung" im Griff zu behalten. Im letzten Jahrzehnt setzte sich immer mehr eine freie Preisbildung durch. Sinkende Preise waren sowohl für Anbieter (Marktanteil) als auch Nachfrager, einfach zu verlockend. Es lohnt sich daher, sich etwas näher mit den Einflussfaktoren zu beschäftigen.

Die Shale-Gas Revolution

Die typische Erdgaslagerstätte ist eine "Gasblase", die sich unterhalb einer undurchlässigen Schicht gebildet hat. Bohrt man diese an, strömt es meist unter hohem Druck aus. Bei entsprechend großen Vorkommen — wie z. B. in Rußland und dem Iran — kann das Jahrzehnte andauern, ohne daß die Fördermenge merklich absinkt. Weitaus größer sind jedoch die Vorkommen von sog. "unkonventionellem Gas". Darunter versteht man Erdgas, das in den feinen Poren von Schiefer (shale gas) oder tiefliegenden Kohlenflözen (coal seam gas) eingeschlossen ist. Ein nur senkrechtes Anbohren hilft da nicht weiter. Man muß waagerecht innerhalb dieser meist dünnen Schichten entlang bohren. Anschließend müssen die unzähligen Gasporen noch hydraulisch aufgebrochen werden. Eine sehr kostspielige Angelegenheit. Im Durchschnitt kostet eine einzelne Bohrung inclusive Fracking etwa 6 Millionen Dollar.

Führt man sich das Grundprinzip vor Augen: Eine zwar poröse, aber ziemlich undurchlässige Schicht wird durch künstliche Risse erschlossen, so wird eine charakteristische Eigenheit dieser Fördermethode erkennbar. Etwa 80 % der gesamten Ausbeute fallen in den ersten zwei Jahren nach dem Aufschluß an. Mit anderen Worten, will man aus einem Gasfeld eine langfristig konstante Ausbeute erzielen, muß man kontinuierlich immer neue Löcher bohren. Die älteren Bohrungen geben für Jahrzehnte nur noch einen kläglichen Gasstrom her, da das Gas aus den Poren nur sehr langsam zu den Rissen wandern kann.

Aus dieser technisch/geologischen Randbedingung wird klar, welche Investoren hier tätig werden. Es sind weniger die großen Mineralölkonzerne, als hochspekulative Kapitalanleger. In einer außergewöhnlichen Niedrigzinsphase kann man mit relativ wenig Eigenkapital große Geldmengen flüssig machen. Geht die Wette auf, fließt in kurzer Zeit das eingesetzte Kapital zurück. Man kann weitermachen oder sich der nächsten Geschäftsidee zuwenden. Parallelen zur Häuser-Spekulationsblase in USA sind auffällig. Auch der "Shale Gas Revolution" wohnt ein bischen Schneeballsystem inne. Die Sache läuft so lange weiter, wie die Gaspreise steigen (sollen). Welche Größenordnung das Ganze allein in USA angenommen hat, machen ein paar Zahlen deutlich: Um die derzeitige Gasförderung aufrecht zu erhalten, sind nach allgemeinen Schätzungen rund 42 Milliarden Dollar pro Jahr nötig. Bei den heute niedrigen Gaspreisen wird aber lediglich ein Umsatz von etwa 32 Milliarden Dollar jährlich erzielt. Die einschlägigen Gasproduzenten erzielen sogar nur einen cash flow von etwa 8 Milliarden Dollar. Die Reaktionen erfolgen prompt: So sind im Haynesville Shale nur noch 40 Bohrtürme im Einsatz. Man geht davon aus, daß unterhalb eines Gaspreises von 7 $/Mcf (1 Mcf entspricht rund 28,32 Kubikmeter) keine Bohrung mehr rentabel sein wird. Bereits 3500 Bohrungen sind im Süden der USA fast fertiggestellt, aber noch nicht in Betrieb gesetzt worden. Eine kurzfristige Steigerung ist noch möglich.

Die Transportfrage

Wenn man irgendwo Erdgas findet, ist es praktisch völlig wertlos, solange man keinen Anschluß an ein Rohrleitungsnetz hat. Dies ist ein ausschlaggebender Unterschied zu Kohle und Erdöl, die man notfalls mit dem LKW oder der Bahn bis zum nächsten Einspeisepunkt transportieren kann. Die schlechte Transportierbarkeit führt auch zu den regionalen Preisunterschieden. Ein einfaches umleiten eines Tankers oder Frachters ist nicht möglich. Derzeit ist Erdgas in Europa etwa 2,5 bis 3 mal teurer und in Asien sogar 4 bis 5 mal so teuer, als in den USA. Preisunterschiede — sofern sie hoch genug sind und längerfristig erscheinen — werden aber immer durch den Ausbau neuer Transportwege ausgeglichen. Ein typischer Ablauf findet derzeit in den USA statt. Ursprünglich wurden die großen Verbraucher an der Ostküste durch Ferngasleitungen vom Golf, aus Kanada und den Rockies versorgt. Seit die Förderung aus dem Marcellus und Utica Shale auf über 10 Bcf/d hochgeschossen ist, wird nun lokal mehr produziert als (zumindest im Sommer) verbraucht werden kann. Der Ausgleich geht über den Preis: Das "neue Gas" unterbietet lokal jeden Ferngaslieferanten, da es ohne Absatz ein wirtschaftlicher Totalverlust wäre. Der geringere Absatz in der Ferne, koppelt durch ein plötzlich entstandenes Überangebot in den Feldern des mittleren Westens, Kanadas und am Golf bis in weit entfernte Regionen zurück. Die Preise fallen weiträumig. Dies funktioniert aber nur, weil die USA über die erforderliche Infrastruktur verfügen und eine politische Einheit bilden.

In weiten Teilen der Welt sieht es gänzlich anders aus. Man könnte den Syrienkonflikt z. B. als den ersten Erdgaskrieg bezeichnen. Vordergründig handelt es sich um einen Bürgerkrieg zwischen Sunniten (unterstützt durch Qatar), Schiiten (unterstützt durch Iran) und dem Rest des Assad-Regimes (unterstützt durch Rußland). Was hat aber ein winziges Scheichtum am Persischen Golf mit Moskau und Teheran gemeinsam? Die Antwort ist simpel: Erdgas, in riesigen Mengen, zu extrem unterschiedlichen Preisen. Iran besitzt nach Rußland die zweitgrößten (konventionellen) Erdgasvorkommen der Welt. Anders als Rußland, ist es geografisch und politisch gefangen. Sein Erdgas ist wertlos. Es muß allein 1,4 Bcf/d Begleitgas aus der Erdölproduktion unter gewaltigen Umweltproblemen einfach abfackeln. Die einzigen potentiellen Märkte liegen in Pakistan (nur eingeschränkt möglich), der Türkei und Rußland und neuerdings im Irak mit Jordanien und Syrien im Anschluß. Über Syrien gelänge auch ein Anschluß an den lukrativen Markt Europa. Ein Albtraum für den roten Zaren aus Moskau. Der Kreis schließt sich mit Qatar. Qatar hat riesige Gasfelder gemeinsam mit Iran unter dem persischen Golf. Qatar kann diese solange allein nutzen, wie Iran — aus den vorgenannten Gründen — nichts damit anzufangen weis. Anders als Iran, konnte Qatar in gigantische Verflüssigungsanlagen (LNG) mit einer Transportkette nach Asien und die größten zwei Anlagen zur Erzeugung synthetischer Kraftstoffe (GTL) investieren. Es wäre doch wirklich schade, wenn diese Investitionen durch eine Pipeline nach Syrien entwertet würden.

Nachfrage erzeugen

Letztendlich entscheidend für die Nachfrage ist die Preisdifferenz zu Öl und Kohle. Sinkt der Erdgaspreis unter den Kohlepreis — wie in Teilen der USA — wird mehr Erdgas zur Stromerzeugung verfeuert. Steigt der Erdgaspreis über den (Braun)kohlepreis — wie in Deutschland und den Niederlanden — werden Erdgaskraftwerke stillgelegt. Ganz entscheidend, aber erst längerfristig wirksam, ist der Preisunterschied zu Erdöl. Das Energieäquivalent für Rohöl liegt aktuell bei etwa 17 $/Mcf. Es ist daher nicht verwunderlich, daß Sasol in Calcasieu Parish in Louisiana nach dem Muster von Qatar eine GTL-Anlage für 10 Milliarden Dollar baut. Diese Anlage soll 4 Millionen to Dieselkraftstoff und verwandte Produkte aus 305 Bcf/a herstellen. Das Erdgas soll aus dem Haynesville Shale stammen und etwa 1,3 bis 1,5 Milliarden Dollar kosten. Baubeginn war 2013, Fertigstellung soll 2018 sein. Ebenso plant Shell in Ascension Parish in Louisiana für 12,5 Milliarden Dollar eine weitere GTL-Anlage. Shell setzt damit seinen 1993 in Malaysia begonnen und in Qatar (Perl) weiter geführten Weg, der Erzeugung synthetischer Kraftstoffe aus Erdgas fort.

Kurzfristig läuft noch eine weitere Schiene, um die Erdgasproduktion in Nordamerika zu stabilisieren. Allein in den USA sind 12 LNG-Anlagen (Verflüssigung von Erdgas durch Abkühlung auf etwa – 170 °C) im Bau oder Betrieb. Vier weitere sind genehmigt (Dominion Resource in Cave Point Maryland, Lake Charles Export Houston, Cheniere Energy und Freeport LNG Expansion). Der Weltmarkt ruft. Toshiba hat allein mit Freeport einen 20 Jahresvertrag über jährlich 2,2 Millionen to LNG abgeschlossen. Hinzu kommen noch Anlagen in Kanada und Alaska. Als ein Abfallprodukt der Verflüssigungsanlagen, entsteht gerade ein weiterer Absatzmarkt. Der Einsatz von LNG als Treibstoff für Schwerlast LKW und Schiffe. Man baut gerade ein Tankstellennetz in den USA auf. LNG besitzt immerhin 60% des Energiegehaltes von Dieselkraftstoff. Somit eine echte Alternative zu irgendwelchen "Träumen vom Elektromobil".

Zusammenfassung

Erdgas unterliegt weit aus größeren Preisschwankungen als Öl und Kohle. Immer, wenn das Angebot die Nachfrage (in einer Region) übersteigt, sinkt der Preis. Die "Verwerter" kommen auf den Plan. Typische "Verwerter" sind Großverbraucher mit Gasanschluss aus Industrie und Kraftwirtschaft. Sie ersetzen (zeitweilig) Schweröl und Kohle. Steigt der Preis wieder, steigen sie ebenso schnell wieder aus. Darüber hinaus gibt es einen immer breiter werdenden Markt der ständigen Verbraucher, wie z. B. Gebäudeheizungen. Auch die chemische Industrie ersetzt immer mehr Öl durch Erdgas. Neu hinzu kommt der Verkehrssektor, sei es durch synthetische Kraftstoffe (GTL) oder verflüssigtes Erdgas (LNG). Teilweise flankiert durch Umweltschutzbestimmungen, wie z. B. in der Schifffahrt. Die Preise werden sich auf höherem Niveau wieder stabilisieren. Einerseits sind unkonventionelle Lagerstätten wesentlich teuerer zu erschließen, andererseits steigt die Nachfrage — insbesondere nach sauberen Energieträgern — weltweit weiter an. Wind- und Sonnenenergie sind ohnehin nur zur Stromerzeugung brauchbar und wegen ihrer Zufälligkeit auch dort nur zu höchstens 20% einsetzbar. Sollte sich der aus den USA kommende Trend verstärken, faktisch den Neubau konventioneller Kohlekraftwerke zu verbieten (EPA-Regel der Begrenzung auf 1000 lbs CO2 pro MWh) bleibt nur der Ausbau der Kernenergie. Energieversorger, die jetzt Investitionen in neue Kernkraftwerke versäumen, können schon in einem Jahrzehnt an explodierenden Kosten untergehen. Die Geschichten von Enron, Calpine und träumenden Politikern (wie einst in Kalifornien), können sich jederzeit wiederholen.

Dr. Klaus Dieter Humpich siehe auch unter Nuke-Klaus




Die Pleite des UN-Klimaberichts AR5: Was unabhängige Experten dazu sagen

Der preisgekrönte israelische Astrophysiker Dr. Nir Shaviv [siehe Bild rechts] verdammt ‚die Absurdität des neuen UN-Klimaberichtes‘ – ‚die IPCC-Autoren stellen unverblümt weitere lächerliche Behauptungen auf‘ – ‚Nachdem man vielleicht Milliarden Dollar über drei Jahrzehnte hinweg in die Klimaforschung gesteckt hat, sind wir hinsichtlich der wichtigsten Frage zum Klima immer noch nicht auch nur ansatzweise weitergekommen!‘

Dr. Richard Lindzen vom Massachusetts Institute of Technology MIT: Der IPCC-Bericht ist ein politisches Dokument: Jeder IPCC-Bericht sieht so aus, als ob die Dringlichkeit eines internationalen Abkommens hinsichtlich der Beschneidung von Kohlendioxid-Emissionen zugenommen hat‘

IPCC-Begutachter Dr. Don Easterbrook zum IPCC: ‚Es ist absolut keine Wissenschaft – es ist dogmatische, politische Propaganda‘.

Vorhersage-Experten stellen die IPCC-Modelle bloß: ‚Wir haben entdeckt, dass die IPCC-Szenarien 72 von 89 relevanten wissenschaftlichen Vorhersage-Prinzipien verletzt haben‘.

Monckton: ‚Einstein hat die Welt auf 30 Seiten verändert – das IPCC langweilt die Welt auf 10.000 Seiten!‘

Der preisgekrönte israelische Astrophysiker Dr. Nir Shaviv verdammt den UN-Klimabericht. Er unterstreicht ‚die Absurdität des neuen Berichtes‘ und sagt, dass die IPCC-Autoren unverblümt weitere lächerliche Behauptungen aufstellen, um die riesige Lücke zwischen ihren Modellen und der Wirklichkeit zu füllen [hier]. Und weiter: ‚Die wahrscheinliche Bandbreite der Klimasensitivität hat sich seit dem Charney-Bericht aus dem Jahr 1979 nicht verändert. Mit anderen Worten, nachdem man vielleicht Milliarden Dollar über drei Jahrzehnte hinweg in die Klimaforschung gesteckt hat, sind wir hinsichtlich der wichtigsten Frage zum Klima immer noch nicht auch nur ansatzweise weitergekommen!‘ Shaviv weiter: Das IPCC und seinesgleichen sind Gefangene eines falschen Konzeptes – das IPCC tut immer noch sein Bestes, um Beweise zu umgehen, dass die Sonne in großem Umfang das Klima beeinflusst [hier].

Ein Grund für das Fehlen eines besseren Verständnisses kann die Inkompetenz der beteiligten Personen auf diesem Gebiet sein [hier]. Falls die Grundpfeiler einer Theorie falsch sind, gibt es keine zunehmende Übereinstimmung, wenn immer mehr Daten gewonnen werden. Tatsächlich passiert normalerweise das Gegenteil, die Unstimmigkeit nimmt zu. Mit anderen Worten, das oben beschriebene Verhalten reflektiert die Tatsache, dass das IPCC und seinesgleichen Gefangene eines falschen Konzeptes sind. Das Auseinanderdriften von Theorie und Daten beschreibt exakt die Lage der vergangenen Jahre hinsichtlich des Fehlens eines Temperaturanstiegs … würde man ein legitimes wissenschaftliches Verhalten an den Tag legen, hätte man die Obergrenze parallel dazu erniedrigt, aber in diesem Fall war das nicht so. Und zwar deshalb, weil dies die Aufgabe der zugrunde liegenden großen Klimasensitivität erfordert hätte. Da die Daten eine geringe Klimasensitivität zeigen und der Alarmismus eine große Sensitivität fordert, wird die ‚wahrscheinliche Bandbreite‘ der Klimasensitivität groß bleiben, bis die Angst vor der globalen Erwärmung [the global warming scare] verschwindet. Ein zweiter wichtiger Aspekt des jetzigen Berichtes ist, dass das IPCC mit allen Kräften den Beweis verschleiern will, dass die Sonne in großem Umfang das Klima beeinflusst. Sie werden natürlich niemals diesen quantifizierbaren Effekt zugeben, weil dies die Argumentationslinie einer zumeist vom Menschen verursachten globalen Erwärmung eines sehr sensitiven Klimas zerschlagen würde‘.

Al Gore: Die Medien müssen sich bei der Verwendung des Wortes ‚Klima‘ zu Tode ängstigen – Er verdammt die Berichterstattung zur globalen Erwärmung als ‚lächerlich‘ [hier].

Klimawissenschaftler Dr. Richard Lindzen am MIT: ‚Der IPCC-Bericht ist ein politisches Dokument: Jeder IPCC-Bericht sieht so aus, als ob die Dringlichkeit eines internationalen Abkommens hinsichtlich der Beschneidung von Kohlendioxid-Emissionen zugenommen hat [hier]. Trotz der zunehmenden Diskrepanzen zwischen den Modellen und den Beobachtungen besteht das IPCC darauf, dass sein Vertrauen in die Modellvorhersagen größer denn je ist. Die Unterstützung des Alarms zur globalen Erwärmung zeigt kaum einen intelligenten Respekt vor der Wissenschaft‘.

UN IPCC-Begutachter Dr. Don Easterbrook: Es ist überhaupt keine Wissenschaft – es ist dogmatische, politische Propaganda! Man muss den IPCC-Bericht als die größte Fehlinterpretation von Daten aller Zeiten ansehen. Nach all den Jahren hat das IPCC es immer noch nicht verstanden: Wir sind seit mehreren hundert Jahren aus der Kleinen Eiszeit gekommen, haben aber immer noch nicht das Temperaturniveau vor dieser Kleinen Eiszeit erreicht. Dieses Niveau war während 90% der vergangenen 10000 Jahre vorherrschend. Seit Millionen Jahren hat es Erwärmungen und Abkühlungen gegeben, lange bevor das CO2 irgendetwas damit zu tun gehabt haben kann. Daher beweist die Erwärmung selbst in keiner Weise, dass sie durch CO2 verursacht worden ist‘.

Vorhersage-Experten stellen die IPCC-Klimamodelle bloß: Unser Audit der Prozesse, die zur Erstellung der IPCC-Szenarien geführt hatten, kam zu dem Ergebnis, dass 72 von 89 relevanten wissenschaftlichen Vorhersage-Prinzipien verletzt worden sind. Kesten C. Green (University of South Australia, Direktor von forecastingprinciples.com) und J. Scott Armstrong (University of Pennsylvania, Herausgeber der Prinzipien zur Vorhersage):  ‚Das IPCC und seine Unterstützer tun bei diesen Szenarien so, als seien es Vorhersagen. Szenarien sind jedoch nicht das Ergebnis von auf Beweisen fußenden Vorhersage-Verfahren.

Spitzenwissenschaftler stellen die UN-Studie zur globalen Erwärmung in Frage – Die Ergebnisse sind politisiert worden! Der Spiegel schreibt außerdem, dass nur 3 der 114 Klimamodelle in der Lage waren, den nunmehr 15 Jahre langen Stillstand abzubilden. Diese Tatsache wurde vollständig weggelassen in dem, was die UN den Politikern und der Öffentlichkeit mitgeteilt hatte‘.

‚Vorsätzlich geplante Ermordung der Wissenschaft:’ Klimatologe Dr. Tim Ball: Die von den UN proklamierte Gewissheit von 95% ist genau das ist, was passiert, wenn man die Wissenschaft ‚vorsätzlich ermorden‘ will. – Wir gehen derzeit auf Zeiten zu, wie sie um das Jahr 1800 geherrscht hatten. Man nannte es das Dalton-Minimum geringer Sonnenflecken-Aktivität. Wir haben diese geringe Anzahl von Sonnenflecken in diesem Jahr wieder erreicht. Das bedeutet, dass die Abkühlung noch mindestens bis zum Jahr 2030 dauern wird. Und doch bereitet sich die Regierung auf Erwärmung vor. Das ist empörend!‘

UK Express: ‚Das IPCC hat nicht eine einzige Person eingeladen, die dem zuvor festgelegten Ergebnis nicht zustimmt … das ist keine Wissenschaft! Vor dem IPCC-Treffen in Stockholm wurde ein Kommuniqué veröffentlicht, in dem genau die Schlussfolgerung stand, die zuvor festgelegt worden war. Das ist auch keine Wissenschaft. Wirkliche Wissenschaft probiert, zweifelt, testet, untersucht ununterbrochen und heißt Abweichungen willkommen. Hässliche Fakten (wie z. B. dass es derzeit auf der Welt überhaupt nicht wärmer wird) wurden in die Tonne getreten‘.

Das Schweizer Nachrichtenmagazin ‘Weltwoche’: Skeptiker auf dem Vormarsch … Keine Spur von Konsens in der Klimawissenschaft! Seit Jahren behauptet Al Gore, dass die Wissenschaft ‚settled‘ ist. Und doch gibt es absolut keine Anzeichen für irgendeinen Konsens in der Klimawissenschaft‘.

Rückschau: SPECIAL REPORT: Über 1000 internationale Wissenschaftler stimmen den Behauptungen über die vom Menschen verursachte globale Erwärmung nicht zu. Sie fordern das IPCC und Al Gore heraus.

Ein wöchentlich erscheinendes Schweizer Nachrichtenmagazin greift das IPCC massiv an: ‚Schicksals-Propheten, keine Wissenschaftler!‘ Skeptiker auf dem Vormarsch: Der Konsens unter den Klimawissenschaftlern, der seit Jahrzehnten zementiert worden ist, zerbricht – oder bricht sogar völlig in sich zusammen. Seit einem Vierteljahrhundert haben führende Klimawissenschaftler vor einer gefährlichen globalen Erwärmung infolge von CO2-Emissionen gewarnt. Jetzt veröffentlichen sie unter Schweizerischer Leitung (Thomas Stocker) einen neuen Bericht. Dieser zeigt: Die Wissenschaftler lagen falsch! Nach 25 Jahren können viele der Vorhersagen jetzt evaluiert werden – und das Ergebnis für das IPCC ist verheerend‘.

‘Politische Manipulation eines wissenschaftlichen’ Dokumentes?! 10 Seiten wissenschaftlicher Fehler des IPCC? Allein schon in Kapitel 2 sind die Autoren kollektiv verantwortlich für 18 Beispiele wissenschaftlicher Fehler, die jetzt der Korrektur bedürfen. Vor einigen Tagen hat das IPCC seine neue, verbesserte Summary veröffentlicht. Zwei Tage danach machte es die Versionen der 14 Kapitel öffentlich. Einer der Gründe, warum sich diese Kapitel immer noch im Entwurfsstadium befinden ist, dass jetzt Änderungen an ihnen vorgenommen werden müssen. Offensichtlich war es nicht nur die Summary, die während des viertägigen Treffens verfälscht worden ist. In vielen Fällen waren die Veränderungen so substantiell, dass das IPCC jetzt sagt, der Text von 9 der 14 Kapitel muss geändert werden … Ganze Absätze werden eingefügt, Daten und Zahlen werden verändert, Kursivsetzungen hinzugefügt, und Manches wird einfach verschwinden … Die Autoren von Kapitel 5 machten genauso 11 wissenschaftliche Fehler. Und die Autoren von Kapitel 11 machten 21 wissenschaftliche Fehler‘.

Analyse: Die vielleicht lächerlichste Graphik im 5. Zustandsbericht des IPCC ist diejenige, die eine ‚dekadische Mitteltemperatur‘ zeigt. Warum ist diese Graphik so schlecht? Weil nicht einzusehen ist, warum darauf hingewiesen wird. Erstens bedarf es einer Kurve mit 160 Datenpunkten darauf und reduziert diese auf 16, d. h. die meisten Daten werden effektiv weggeworfen. Die Einführung dieser Graphik in den AR 5, die in den vorigen Berichten nicht vorhanden ist, macht das IPCC offen für Anklagen, den ‚Rückgang zu verstecken [to hide the decline] hinsichtlich der Erwärmung in diesem Jahrzehnt, obwohl natürlich der begradigte Verlauf aus der obigen Graphik klar hervorgeht. Also scheint die Graphik ziemlich sinnlos.

Monckton: Einstein hat die Welt auf 30 Seiten verändert. Das IPCC hat die Welt auf 10.000 Seiten gelangweilt!

Judith Curry: ‚Trotz hysterischer Behauptungen sind die IPCC-Modelle nicht in der Lage, abrupte Klimawechsel zu simulieren‘. Und weiter: ‚Das IPCC hat hohes Vertrauen darin, dass wir uns über die wirklich gefährlichen Szenarien keine Sorgen machen müssen (z. B. Zusammenbruch der Eisschilde, Kollaps der AMOC), und zwar im Zeitrahmen eines Jahrhunderts. Diese Zusammenbrüche gab es schon in der Vergangenheit ohne AGW, und sie werden sich auch unvermeidlich irgendwann in der Zukunft wieder ereignen, mit oder ohne AGW. Ist das IPCC hinsichtlich seiner Schlussfolgerungen da genauso sicher?

Bob Tisdale: IPCC immer noch dem Wahn über Kohlendioxid verfallen – die Klimamodelle haben sich so weit von der Realität entfernt, dass sie nicht dazu verwendet werden können, um die globale Erwärmung natürlichen Prozessen oder anthropogenen Faktoren zuzuordnen, und auch nicht dazu, Vorhersagen des zukünftigen Klimas auf der Grundlage von Projektionen anthropogener Treibhausgase zu machen. Amüsanterweise benutzt das IPCC die Klimamodelle als „Beweis“, dass die letzte globale Erwärmung durch Kohlendioxidemissionen verursacht worden ist und dass die globalen Temperaturen weiterhin steigen werden aufgrund des weiter zunehmenden CO2-Gehaltes. Der unverrückbare Glauben der Klimawissenschaftler, dass Kohlendioxid die globale Erwärmung treibt, obwohl die Klimamodelle ganz klar das Gegenteil zeigen, ist Beweis für ihre Wahnvorstellungen über CO2 oder ihr dringendes Bedürfnis, ihre Modelle falsch zu interpretieren (aus welchen Gründen auch immer). Die Wassertemperatur war global in der Erwärmungsperiode von 1914 bis 1945 stärker gestiegen als während der jüngsten Erwärmungsperiode von 1975 bis heute‘.

Analyse: Klima wegen des Wasserkreislaufes, nicht wegen Kohlendioxids

Einer Studie zufolge hat sich die globale Erwärmung der Ozeane während der letzten 50 Jahre halbiert. Die Studie wurde 2012 in Nature Climate Change veröffentlicht.

Gute Nachrichten: Das IPCC verwirft den planetarischen Notfall: Es glaubt jetzt, dass ein Zusammenbruch der atlantischen Ozeanzirkulation im 21. Jahrhundert ‚sehr unwahrscheinlich‘ ist, dass der Kollaps der Eisschilde ‚extrem unwahrscheinlich‘ ist und dass eine katastrophale Freisetzung von Methan aus Methanhydraten ‚sehr unwahrscheinlich‘ ist.

Die Klimatologen PATRICK J. MICHAELS und CHIP KNAPPENBERGER: Wäre das IPCC stärker daran interessiert gewesen, die aktuelle Wissenschaft zu reflektieren anstatt sich der Rettung eines rasch zerfallenden Konsens‘ zu widmen, wäre der 5. Zustandsbericht ein viel freundlicheres und netteres Dokument gewesen. Damit die IPCC-Projektionen der Evolution der mittleren Temperatur der Erde die jüngsten wissenschaftlichen Schätzungen der Klimasensitivität besser reflektieren können, ist es notwendig, diese um 30% nach unten zu korrigieren in Richtung der Untergrenze der Bandbreite, etwa 50% weg von der Obergrenze und 40% tiefer als die Mitte.

Jetzt hören: Ein eine ganze Stunde dauerndes Interview mit Morano von Climate Depot in der Mike Rosen-Show: ‚Ein neues Klimagate! Das IPCC wird angeklagt, die Führer der Welt und die Öffentlichkeit in die Irre geführt zu haben! Hat das IPCC ‚die Fakten festgeschrieben‘? – Gesendet am 2. Oktober 2013 auf KOA Radio. –  Moderator Mike Rosen zu Marc Morano: ‚Sie bekommen mehr Redezeit in Gestalt von Wörtern pro Minute als jeder andere, den ich bisher in dieser Show zu Gast hatte!‘

Erwärmung mit einem Signal auf eine Rauschen-Rate von 0,00 lässt das Vertrauen der Wissenschaftler in die Erwärmung zunehmen [hier]

Nicola Scafetta: Die vom IPCC verwendeten Klimamodelle scheitern bei der Reproduktion dekadischer und multidekadischer Phänomene seit 1850.

Christopher Booker: Klimawissenschaftler sind lediglich eine weitere Interessengruppe.

Professor in der NYTimes: Das Scheitern der Klimamodelle an der Realität ist unwichtig, da wir sie zur Vorhersage der Zukunft nutzen

Klimatologe Dr. Tim Ball: Das IPCC: Ein Erzeugnis von Lügen, verdammten Lügen und auf ungeeigneten Daten beruhenden Statistiken [auf Deutsch beim EIKE hier]

Ein Schweizer Journalist sagt voraus: ‚Die Klimakatastrophe wird bald vergessen sein‘ – genau wie alle anderen Angst erzeugenden Umweltstorys‘.

Analyse: IPCC: Wenn die Daten nicht zur Theorie passen, ändere man die Daten – Das IPCC hat in Zusammenarbeit mit der NASA und der NOAA die Erdgeschichte völlig umgeschrieben. Im Jahre 1975 hat die National Academy of Sciences diese Graphik veröffentlicht und vor einer dramatischen globalen Abkühlung gewarnt.

Der politisch neutrale SPM-Autor des IPCC Rowan Sutton: ‚Alle Beweise zeigen eindeutig, dass das Hinterlassen des Themas Klimaänderung für zukünftige Generationen, sich damit zu befassen, eine phänomenal risikobehaftete Option ist‘.

Außenminister John Kerry: ‚Das Fehlen eines gemeinsamen globalen Vorgehens gegen die Klimaänderung ist wie die Einladung einer Katastrophe‘.

Die Warmisten machen für den Stillstand die Ozeane verantwortlich: Der Wärmegehalt der Ozeane ist das Wort des Tages. Die Graphik zeigt die Anzahl der bei einer Google-Suche auftauchenden Links zu ‚Ocean Heat‘ auf der (alarmistischen) Website Skeptical Science für jedes Jahr seit 2006. Im Jahr 2007 wurde es 7 mal angeklickt, in diesem Jahr (projiziert auf das gesamte Jahr 2013) 166 mal (125 mal bis heute).

Hauptschlagzeile in Der Spiegel: Widersprüchliche Prognosen: Forscher entdecken Unstimmigkeiten im Uno-Klimabericht. Renommierte Forscher kritisieren nun diverse Ungereimtheiten im Report. Sie erheben fünf Vorwürfe gegen den Welt-Klimarat.*

*Originalzitat, keine Rückübersetzung!

Nuttercelli: ‚Die katastrophal gescheiterten Klimamodelle waren auf den Punkt genau – offensichtlich hat das IPCC tatsächlich keine Erwärmung während der letzten 17 Jahre und auch die Rekord-Schneefälle vorhergesagt. Aber sie haben sich so ausgedrückt, dass es so klingt, als hätten sie genau das Gegenteil gesagt‘.

Analyse: Das IPCC hat vergessen, den spektakulären Eiszuwachs in der Arktis zu erwähnen. Man würde denken, dass zumindest einer unter den Tausenden Spitzen-Klimaexperten der Welt die Tatsache bemerkt hätte, dass das arktische Meereis inzwischen wieder das Niveau des Jahres 2006 erreicht hat. Vor allem, weil das Wort ‚Arktis‘ viele tausend Male in dem Bericht erwähnt wird.

Der vergangene Sommer war der kälteste jemals gemessene in der Arktis und war gekennzeichnet durch den größten Eiszuwachs von einem Jahr zum nächsten seit Beginn von Beobachtungen.

Ein 3 Minuten langes Nachrichten-Video auf der ABC-Radiostation KSTP stellt den IPCC-Bericht dem Bericht des NIPCC mit dem Titel ‚Climate Change Reconsidered II‘ gegenüber [Auszüge demnächst beim EIKE auf Deutsch] und lässt Joseph Bast vom Heartland Institute zu Wort kommen.

Reuters zum IPCC-Bericht aus dem Jahr 1995: ‚Nachrichten-Rückblick von 1995: ein früherer IPCC-Bericht war ausgelassen [hilariously] falsch‘.

Jüngster IPCC-Trick: Ausweitung der Bandbreite der Modelle, um diese richtig aussehen zu lassen.

‚Die Beobachtungen würden gut innerhalb der extrem breiten grauen Bereiche liegen, die im AR 4 nicht erschienen sind und die das ziemlich interessante Phänomen aufweisen, im Jahre 1990 eine Ungewissheit von Null zu zeigen. Daher lautet die Frage: Was sind diese Bereiche?‘ [hier]

AR 5 des UN IPCC: Die Behauptung einer ‚beispiellosen‘ dekadischen globalen Erwärmung ist durch jüngste empirische Beweise widerlegt. Nach 7 Jahren Forschung und Milliarden Dollar für den AR 5 ist das beste, mit dem das IPCC aufwarten kann, die dünne Schleimsuppe einer ‚beispiellosen‘ dekadischen Erwärmung, die sich bei näherem Hinsehen als falsche Repräsentation der jüngsten Erwärmung hinsichtlich Manipulation, Dauer und Größenordnung erweist. Haben doch die letzten 15 Jahre bewiesen, dass natürliche Klimaantriebe den CO2-Einfluss einfach überkompensieren. Die Wahrscheinlichkeit, dass die moderne dekadische Erwärmung mehr eine Folge natürlicher (nicht anthropogener) Klimakräfte ist, beträgt mehr als 95%.

Jetzt ansehen: Prof. Roger Pielke Jr. Zum, Thema Extremwetter – er verwirft die Proklamation einer ‚neuen Normalität‘ bzgl. des Wetters. Das Interview führte Dr. David Whitehouse für die Fernsehstation GWPF TV.

Auch ansehen: Das Interview mit der Alarmistin Jennifer Francis, in dem sie von zunehmenden AGW-Trends beim Wetter faselt.

Alarmisten: Die Schließung [wegen des US-Haushaltstreites] hindert die NOAA-Bediensteten daran, den IPCC-Bericht für Medien und Politiker zu interpretieren.

Analyse: Was könnte die Zunahme des Vertrauensniveaus von 90 auf 95% rechtfertigen, und in welcher Hinsicht sind zusätzliche Beweise für den menschlichen Einfluss seit dem AR 4 2007 aufgetaucht? Hier folgen ein paar Ereignisse seit 2007, die das Vertrauensniveau verändert haben könnten: Es gab weitere sechs Jahre ohne jede Erwärmung; die Klimawissenschaftler waren nicht in der Lage, dies vorherzusagen (tatsächlich haben sie vorhergesagt, dass die Erwärmung wieder einsetzen werde). Klimagate enthüllte die privaten Sorgen der Klimawissenschaftler in dieser Hinsicht und auch die Beeinflussung von Journalen und das Zurückhalten von Daten. In vielen  neuen  Studien  von Mainstream-Klimawissenschaftlern wurde eingeräumt, dass es eine zunehmende Inkonsistenz zwischen Modellen und Beobachtungen gibt. Und doch hat das Vertrauen zugenommen, und die Beweise haben sich vermehrt?

Analyse: Die IPCC-Behauptung, man hätte ein sehr hohes Vertrauen in die Abnahme der Schneebedeckung, ist nicht wahr – das ist wie ‚Rosinen picken im Schnee‘.

U.S. TV Networks: Bericht über den IPCC-Bericht: CBS News sendet eine ‚unverantwortliche‘ Behauptung über einen Temperaturanstieg um 212 Grad.

Rückblende: In dem Hollywood-Film ‚The 11th Hour‘ aus dem Jahr 2007, in dem es um die globale Erwärmung ging, wird der Physiker Stephen Hawking mit der unwidersprochenen Hypothese zitiert, dass es das ‚worst-case-Szenario wäre, wenn die Erde wie ihr Schwesterplanet Venus werden würde mit einer Temperatur von 250°C‘.

Die Medien tun alles, um den Hype um die globale Erwärmung wiederzubeleben – es gibt Ärger darüber, dass man skeptischen Stimmen Raum gibt: Ein Gremium wird zusammengerufen, um zu diskutieren, ob man das zulassen sollte oder nicht.

Der Meteorologe Art Horn: Das IPCC hat hohes Vertrauen darin, nicht sicher zu sein

Eine Begutachter-Studie kommt zu dem Ergebnis, dass es während der Mittelalterlichen Warmzeit signifikant wärmer war als heute, als der CO2-Gehalt im ‚grünen Bereich‘ lag.

Die Warmisten erzeugen buchstäblich ein Klima der Verrücktheit: Ein Wettermann drückt es so aus: ‚Wir leben derzeit in einer Welt, in der es für einen erwachsenen Menschen völlig normal ist, über ein modernes Märchen zu heulen wie ein Kind über ein Schauermärchen mit Hexen und Geistern‘.

‚Wenn Klimadaten Aktien wären, wäre es jetzt an der Zeit, sie zu verkaufen‘.

Und nochmal der Wettermann Eric Holthaus: Was das IPCC so wichtig macht, ist einfach: Sie sind dazu aufgefordert übereinzustimmen. Das IPCC hat ‚vertrauensvoll‘ düsterste Konsequenzen projiziert, sollten die Regierungen der Welt nicht agieren.

Link: http://tinyurl.com/mmztr4u

Übersetzt von Chris Frey EIKE




Unbequeme Wahrheiten über den Kanzlerinnen-Berater Schellnhuber! Teil 7: Globale Mitteltemperatur?

In dieser Zeit (1992) wurde nämlich in mehreren offiziellen Publikationen eine (absolute !) “globale Mitteltemperatur” von 15,5°C ausgewiesen. Und bekanntlich soll heutzutage die absolute globale Mitteltemperatur nur bei lediglich 14,5°C liegen, also 1°C niedriger als damals im Jahr 1992 bzw. 1990. Also, so fragt sich nicht nur der Laie, wo ist seit über 20 Jahren die angebliche “globale Erwärmung”, vor der alle diese “Schellnhubers” doch so warnen?? Ist dieser Widerspruch der heimliche Grund, warum die absolute globale Mitteltemperatur aus dem am 27.09.2013 veröffentlichten 5. Weltklimabericht entfernt worden ist ??

Der Inhalt und die Recherchen der Kapitel 6 und 7 der “Unbequemen Wahrheiten”  lassen sich schriftlich auch auf zwei DIN-A4-Seiten wie folgt zusammenfassen:

Die beiden Seiten können auch als pdf unten abgerufen werden

Das nächste Kapitel 8 am 21.10.2013 beleuchtet den angeblichen “Meeresspiegelanstieg” und die offiziellen und “weniger offiziellen” Ursachen für diesen Meeresspiegelanstieg. Kapitel 8 (Link zu Trailer zu Kapitel 8) ist mit knapp 60 Minuten das längste aller 11 Kapitel der “Unbequemen Wahrheiten” und das persönliche “Favorit”-Kapitel des Autors. Der 6-minütige Videotrailer (mit integrierter Playlist) über das gesamte 11-teilige Filmprojekt ist seit dem 27.08.2013 online

Related Files




IPCC vs Realität: Tatsachenfeststellungen 2 zu verschleierten Unterschieden zu früheren IPCC Projektionen

Man kann auch nicht geltend machen, dass das IPCC die Projektionen in Abbildung 1.5 irrtümlich gezeigt hat, wie bei SkepticalScience hier hinsichtlich Abbildung 1.4 im SOD behauptet. Die einhüllende [grau schattierte] Bandbreite in Abbildung 1.5 stammt aus Abbildung 10.26 im AR 4. Als cross-check habe ich die relevanten Einhüllenden der Unsicherheit aus Abbildung 10.26 (AR 4; werde ich weiter unten in diesem Beitrag zeigen) digitalisiert und in die Abbildung hinein geplottet (A1B – red + signs; A1T orange). Sie stimmen fast perfekt überein. Richard Betts hat diese Übereinstimmung hier eingeräumt.

Rechts: Abbildung 1 = Abbildung 1.5 im SOD des AR 5 mit Notierungen von HadCRUT4 (gelb) und Unsicherheits-Bandbreite aus Abbildung 10.26 im AR 4 in 5-Jahres-Schritten (rot + Zeichen).

Abbildung 1.4 im AR 5

Nach der Eliminierung der informativen (vielleicht zu informativen) Abbildung 1.5 aus dem SOD besteht der einzige Vergleich des IPCC zwischen AR 4-Projektionen und den aktuellen Zahlen in der überarbeiteten Abbildung 1.4, eine Abbildung, die offenbar mehr dazu gedacht ist zu verschleiern als zu beleuchten.

In der erläuternden Version unten habe ich die Unsicherheits-Bandbreite aus Abbildung 10.20 A1B aus dem AR 4 in gelb dargestellt. Leider zeigt Abbildung 1.4 nicht mehr eine einhüllende Unsicherheit für AR 4-Projektionen. Hier muss man sorgfältig nach der Nadel im Heuhaufen suchen. Unsicherheits-Bandbreiten werden in den ersten drei Zustandsberichten noch gezeigt, nicht aber im AR 4, obwohl es der letzte ist. Alles, was im AR 4 noch gezeigt wird, sind 2035 Unsicherheits-Bandbreiten [?] bei drei AR 4-Szenarien (einschließlich A1B) im rechten Teil, plus eine Spaghetti-Graphik mit individuellen Modellläufen (ein Spaghetti korrespondiert nicht mit irgendeiner AR 4-Graphik). Aus der Unsicherheits-Bandbreite A1B im rechten Teil kann die fehlende A1B-Unsicherheits-Bandbreite mehr oder weniger interpoliert werden, wie ich es hier mit der roten Einhüllenden getan habe. Ich habe die 2035 Unsicherheiten an den rechten Teil angepasst und bis zum Jahr 2000 zurück interpoliert, basierend auf der Form der anderen Einhüllenden. Diese so gewonnene Einhüllende ist etwa zweimal so breit wie in der Abbildung 10.26 im AR 4 dargestellt, die in Abbildung 1.5 im SOD verwendet worden ist. Selbst mit dieser erheblich erweiterten Einhüllenden liegen die HadCRUT4-Messungen hart am Rand der ausgeweiteten Bandbreite – und deutlich außerhalb der in Abbildung 10.26 (AR 4) gezeigten Bandbreite.


Abbildung 2: Abbildung 1.4 aus dem AR 5 mit Anmerkungen. Der gelbe Keil zeigt die Unsicherheits-Bandbreite der Abbildung 10.26 aus dem AR 4 (A1B). Der rote Keil interpoliert die implizierte Unsicherheits-Bandbreite basierend auf der Unsicherheits-Bandbreite von A1B im rechten Teil.

Abbildung 10.26 aus dem AR 4

Richard Betts erkannte, dass es keinen Zuordnungsfehler in Verbindung mit den AR 4-Projektionen gab, argumentierte aber hier, dass der Vergleich in Abbildung 1.4 im AR 5 „wissenschaftlich besser“ war als der Vergleich in der SOD-Abbildung, welche, wie Betts einräumte, auf einer tatsächlichen AR 4-Graphik „basierte“ (Abbildung 10.26 im AR 4).

Wenn man jedoch AR 4-Projektionen mit Beobachtungen vergleicht, ist das IPCC zum Vergleich mit tatsächlichen AR 4-Graphiken verpflichtet. Abbildung 10.26 wurde im SOD ordnungsgemäß als ein relevanter Vergleich angeführt. Sie wurde auch in der zeitweiligen Diskussion der AR 4-Projektionen (Anfang 2008) erwähnt, durch Pielke Jr (z. B. hier) und durch Lucia (hier und hier).

Die Abbildung 10.26 im AR 4 war ein Diagramm mit Paneelen, dessen untere Reihe Projektionen für globale Mitteltemperaturen zeigte (siehe unten) einschließlich A1B, zusammen mit dem Kommentar, dass die Modelle „positiv“ mit den Beobachtungen vergleichbar sind.


Abbildung 3: Untere Reihe der Abbildung 10.26 im AR 4, die Unsicherheits-Bandbreiten zeigt für globale Mitteltemperaturen bei sechs SRES-Szenarien. Die Originalbeschriftung lautet: CO2-, CH4- und SO2-Emissionen aus der Verbrennung fossiler Treibstoffe in sechs illustrativen SRES-Szenarien ohne Abschwächung der Emissionen … und Projektionen der globalen Mitteltemperatur basierend auf einem SCM angepasst an 10 AOGCMs. Die dunkel schattierten Bereiche im unteren Temperatur-Paneel repräsentieren die ± 1 Standardabweichung für die 19 Modellanpassungen. Die heller schattierten Bereiche zeigen die Änderungen dieser Unsicherheits-Bandbreite, wenn Rückkopplungen des Kohlenstoff-Kreislaufes angenommen höher oder niedriger als im mittleren Bereich liegen … Die globale Mitteltemperatur resultiert aus der SCM für anthropogene und natürliche Antriebe und passt ganz gut zu den Messungen im 20. Jahrhundert (schwarze Linie) wie im unteren linken Paneel gezeigt (Folland et al. 2001; Jones et al. 2001; Jones und Moberg 2003).

Die nächste Graphik zeigt die Auswirkung der „neu gefassten“ [„re-stated“]Unsicherheits-Bandbreite aus der Abbildung 10.26. Die Unsicherheits-Bandbreiten im rechten Teil der Abbildung 1.4 sind an der richtigen Stelle eingefügt worden, wobei die Enden der Bandbreite mit 2035 Werten der roten Einhüllenden korrespondieren, die die neu gefasste Unsicherheits-Bandbreite zeigt. Trotz der Verdoppelung der Unsicherheits-Bandbreite in der Neufassung im AR 5 liegen die jüngsten HadCRUT4-Werte hart am Rand der erweiterten Einhüllenden.


Abbildung 4: Ausschnitt aus Abbildung 10.26 im AR 4 mit Anmerkungen. HadCRUT 4 ist überplottet worden: gelb bis zum Jahr 2005, danach orange. Der Original-Bezugszeitraum ist 1981 bis 2000; die im AR 5 zugrunde gelegte Bezugsperiode 1961 bis 1990 ist auf der rechten Achse gezeigt.

Schlussfolgerung

In der an externe Begutachter gesandten Abschlussversion verglich die Abbildung 1.5 im SOD direkt Projektionen aus der Abbildung 10.26 im AR 4 mit Beobachtungen. Dieser Vergleich zeigte, dass die gegenwärtigen Messungen unterhalb der Unsicherheits-Bandbreite liegen. Die Bezugsperiode der Unsicherheits-Bandbreite im AR 4 war gut spezifiziert (1981 bis 2000), und das IPCC hat die Einhüllende zur Referenzperiode 1961 bis 1990 korrekt transponiert in die Abbildung 1.5 im SOD.

Verteidiger des IPCC haben versucht, Änderungen der Zuordnung von Unsicherheits-Bandbreiten aus den drei ersten Zustandsberichten auf der Grundlage zu rechtfertigen, dass das IPCC diese irrtümlich in die Abbildung 1.4 im SOD platziert habe. Tausende Institutionen auf der ganzen Welt vergleichen Projektionen mit aktuellen Daten, ohne Fehler darüber zu machen, was ihre Projektionen aus der Vergangenheit waren. Solche Vergleiche mehren die Wissenschaft einfach und beschneiden sie nicht. Es ist beunruhigend, dass solche Fehler auch beim dritten Durchlauf dieser Dokumente wieder auftauchten, ebenso wie in der an externe Begutachter gesandten Version.

Aber wie auch immer dem sei, es gab keinen Fehler hinsichtlich der Referenzperiode bzgl. AR 4-Projektionen oder in der Abbildung 1.5 im SOD. Daher ist ein Fehler der Referenzperiode nicht der Grund für die Entfernung dieser Abbildung.

Richard Betts hat die Genauigkeit der Vergleichs in Abbildung 1.5 im SOD nicht in Frage gestellt, aber argumentiert, dass die neue Abbildung 1.4 „wissenschaftlich besser“ war. Aber wie kann der Vergleich „wissenschaftlich besser“ sein, wenn die Unsicherheits-Bandbreite für drei frühere Zustandsberichte gezeigt wird, aber nicht für den AR 4. Auch kann ein Vergleich zwischen Beobachtungen und AR 4-Projektionen nicht „wissenschaftlich besser“ sein, indem man aktuelle AR 4-Dokumente und Graphiken durch eine Spaghetti-Graphik ersetzt, die im AR 4 nicht vorhanden war.

Der neuen Graphik liegt auch kein einziger Artikel in der begutachteten Literatur zugrunde.

Auch hat kein einziger externer Begutachter des SOD die Entfernung der Abbildung 1.5 angeregt, obwohl manch einer (z. B. Ross McKitrick) auf die Inkonsistenz zwischen dem beruhigenden Text und der in den Abbildungen dargestellten Diskrepanz hingewiesen hatte.

Da also kein Irrtum vorliegt, gibt es auch keinerlei Rechtfertigung für solche grundlegenden Veränderungen und Eliminierungen, nachdem die dritte und letzte Ausgabe an externe Begutachter gegangen ist.

In der Vergangenheit haben IPCC-Autoren bekanntermaßen Daten gelöscht, um „den Rückgang zu verstecken“, und zwar in Briffas Temperatur-Rekonstruktion mit dem Ziel, „den Skeptikern kein Futter zu geben“. Ohne diese Vergangenheit hätte man dem IPCC etwas mehr Breite verleihen sollen. Allerdings haben weder das IPCC noch die es unterstützenden Institutionen einem solchen Verhalten abgeschworen oder Schritte unternommen, Ähnliches in Zukunft zu vermeiden. Folglich ist das IPCC anfällig für Verdächtigungen, dass die Entfernung von Abbildung 1.5 ausschließlich der Vermeidung geschuldet war, den „Skeptikern Futter zu reichen“.

Vielleicht gibt es aber einen triftigen Grund, nur ist der bisher nicht präsentiert worden.

Link: http://climateaudit.org/2013/10/08/fixing-the-facts-2/

Übersetzt von Chris Frey EIKE




NIE-Strom aus „Erneuerbaren“– den Deutschen nicht nur lieb, sondern auch immer teurer

Größter Preistreiber ist hierbei der Staat, weil der von diesem zu verantwortende Anteil am Strompreis – Steuern, Abgaben und Umlagen – von lediglich 25 % im Jahre 1998 auf rund 50 % im Jahre 2013 angestiegen ist. Allein von 2012 auf 2013 wuchsen diese Kosten von 11,7 ct/ kWh auf 14,4 ct/ kWh, das ist ein Anstieg von 23 %, Bild 1. Aufgrund dieser überproportionalen Steigerungen muss der typische 4-Personen-Arbeitnehmerhaushalt mit einem durchschnittlichen Jahresverbrauch von 5009 kWh im Jahr 2013 rund 1.439,- € für seinen Strom hinblättern.

Bild 1 (rechts). Im Jahre 2013 lag die vom Staat verursachte Kostenbelastung pro kWh bei insgesamt 14,4 ct/ kWh – gegenüber 2012 eine Steigerung um satte 23 % (Grafik: BDEW) 

Und auch für 2014 ist sind weitere Steigerungen bereits vorprogrammiert. Dabei markiert die Bekanntgabe des Anstiegs der EEG-Umlage um rund 20 % auf 6,3 ct/ kWh nur den Auftakt, denn auch die übrigen staatlichen Abgaben werden weiter zulegen. Damit dürfte nahezu sicher sein, dass der Haushaltsstrompreis 2014 die Marke von 30 ct/ kWh knacken wird. Und auch für die Folgejahre ist mit weiterem rasantem Anstieg zu rechnen: Schließlich soll der EE-Anteil an der Stromproduktion, der im Jahre 2013 erst 21,9 % betrug, bis 2050 auf 80 % gesteigert werden. Der Blick auf die Zubauzahlen für Fotovoltaik zeigt beispielsweise, dass schon allein die Fotovoltaik-Kapazitäten im Jahre 2013 um weitere rund 3,5 GW angewachsen sind.

Dabei kommen neben den Aufwendungen für Solar- und Windanlagen laufend zusätzliche neue Ausgaben hinzu: War es im Jahre 2013 die sogenannte Offshore-Haftungsumlage, mit der die Risiken der Betreiber von Offshore-Windenergieanlagen bezüglich Netzanbindung auf die Allgemeinheit überwälzt wurden, so dürften in den nächsten Jahren auch die Verluste der Betreiber konventioneller Kraftwerke dem Bürger zugeschoben werden. Das Paradoxe daran ist, dass man mit dem EE-Strom den Betrieb konventioneller Kraftwerke unrentabel macht, den Betreibern aber verbietet, diese abzuschalten, weil sonst das Netz zusammenbrechen würde.

Bild 2. Die Betreiber von EE-Anlagen erhalten im Jahr 2013 von den Stromverbrauchern 23,44 Mrd. € für Strom, der nur 2,58 Mrd. € wert war (Grafik: BDEW)

Zweitgrößter Kostentreiber beim Strompreis sind nach dem Staat die Betreiber von EE-Anlagen, Bild 2. Im Jahr 2013 erhalten sie laut Prognose des Bundesverbands der Energie- und Wasserwirtschaft (BDEW) Zahlungen von insgesamt 23,44 Mrd. € für ein Produkt, das nach üblichen Markgesetzen lediglich 2,58 Mrd. wert war – ein tolles Geschäft zu Lasten aller anderen Bürger.

Fred F. Mueller




So sieht der wahre Zustand des Klimas aus: NIPCC – Summary for Policymakers

Außerdem ist festzustellen, dass keiner der Autoren im NIPCC auch nur einen Cent an staatlicher Zuwendung erhalten hat! Intensive und ergebnisoffene Forschung wurde hier strikt ehrenamtlich betrieben.

Das ganze Dokument kann mit dem Link unten aufgerufen werden. Dort stehen alle Belege und Nachweise für die hier übersetzten Fakten. Aus Zeitgründen kann das gesamte Dokument aber nicht komplett übersetzt werden.

Chris Frey

Aufbau: Die NIPCC-SPM enthält eine Einführung (Introduction) sowie 5 Kapitel und ‚Conclusions’. Die 5 Kapitel tragen die Titel:

1.Methodology (Methodik)

2.Global Climate Models

3.Postulates (Forderungen)

4.Circumstancial Evidence

5.Policy Recommendations (Empfehlungen an die Politik)

Conclusions

In den Kapiteln werden jeweils zentrale Aussagen des IPCC Punkt für Punkt widerlegt. Am Ende eines jeden Kapitels findet sich eine Zusammenfassung von wenigen Zeilen. Diese Zusammenfassungen werden hier übersetzt. Außerdem gibt es 10 Kästen, in denen die zentralen Aussagen des NIPCC-Berichtes nach Themen sortiert  rekapituliert werden. Die Kästen 1 und 3 sowie 5 bis 10 werden übersetzt, ebenso wie die ‚Conclusions’. Sie ergänzen sich natürlich mit den Zusammenfassungen am Ende der einzelnen Kapitel. Ich gehe davon aus, dass jede einzelne Aussage kreuzweise belegt ist, im Gegensatz zu den frisierten IPCC-Unterlagen, so dass ich auf die Übersetzung dieser Erläuterungen hier verzichte. Der Link zum Dokument ist unten angegeben.

Und noch eine Anmerkung: Im gesamten Text wird die korrekte Schreibweise CO2 beibehalten. Im Editor der EIKE-Website lässt sich diese Tiefstellung jedoch nicht darstellen.

Hier also zunächst der Inhalt der Kästen.

Kasten 1: Zusammenfassung der Ergebnisse vom NIPCC

● Das atmosphärische Kohlendioxid (CO2) ist ein mildes Treibhausgas, dessen Wärmewirkung mit steigender Konzentration immer weiter abnimmt.

● Eine Verdoppelung der atmosphärischen CO2-Konzentration verglichen mit dem vorindustriellen Niveau würde unter Ausblendung anderer Antriebe und Rückkopplungen wahrscheinlich eine Erwärmung zwischen 0,3°C und 1,1°C verursachen, wovon fast 50% bereits eingetreten sind.

● Wenige Zehntelgrad zusätzlicher Erwärmung würden, so sie wirklich eintritt, nicht zu einer Klimakrise führen.

● Die Modellergebnisse in den seit 1990 veröffentlichten IPCC-Berichten projizieren bei einer Verdoppelung des CO2-Gehaltes eine Erwärmung bis zu 6°C bis zum Jahr 2100. Stattdessen hat sich die Erwärmung zum Ende des 20. Jahrhunderts abgeschwächt, gefolgt (ab 1997) von 16 Jahren mit stabilem Temperaturverlauf.

● In letzter geologischer Zeit hat die Temperatur der Erde aus natürlichen Gründen zwischen +4°C und -6°C Abweichung variiert, verglichen mit der Temperatur im 20. Jahrhundert. Eine Erwärmung um 2°C über die heutigen Werte, so sie wirklich eintritt, würde noch deutlich innerhalb der natürlichen Bandbreite liegen.

● Obwohl eine zukünftige Erwärmung von 2°C abhängig von der geographischen Breite ökologische Auswirkungen hätte, gibt es keine Beweise, dass diese Änderungen im Ganzen schädlich für die globale Umwelt oder das menschliche Wohlergehen sind.

● Mit dem gegenwärtigen Gehalt von rund 400 ppm leben wir immer noch in einer nach CO2 hungernden Welt. Während des Kambriums vor etwa 550 Millionen Jahren) war der Gehalt etwa 15 mal höher, ohne dass nachteilige Auswirkungen bekannt sind.

● Alles in allem korrespondiert die Erwärmung seit 1860 mit der Erholung aus der Kleinen Eiszeit. Sie wurde verursacht von natürlichen multidekadischen Zyklen, angetrieben durch Oszillationen zwischen Ozean und Atmosphäre oder auch durch solare Variationen wie dem de Vries-Zyklus (ca. 208 Jahre) und dem Gleissberg-Zyklus (ca. 80 Jahre) sowie kürzeren Periodizitäten.

● Die Erde hat sich während der letzten 60 Jahre nicht signifikant erwärmt trotz einer Zunahme des atmosphärischen CO2 um 8%, was 34% allen zusätzlichen CO2 repräsentiert, die seit dem Beginn der industriellen Revolution in die Atmosphäre gelangt sind.

● CO2 ist ein unabdingbar notwendiger Nährstoff für die Photosynthese der Pflanzen. Eine zunehmende CO2-Konzentration in der Atmosphäre lässt den Planeten „ergrünen“ und hilft, die wachsende menschliche Bevölkerung zu ernähren.

● Es gibt keine enge Korrelation zwischen der Temperatur-Variation der letzten 150 Jahre und mit dem Menschen in Verbindung stehenden CO2-Emissionen. Der parallele Verlauf von Temperatur und CO2 zwischen etwa 1980 und 2000 könnte Zufall sein und enthält nicht unbedingt Kausalität.

● Die Gründe für historische globale Erwärmungen bleiben ungewiss, aber es gibt signifikante Korrelationen zwischen Verhaltensmustern des Klimas und multidekadischen Variationen sowie der Sonnenaktivität während der letzten paar hundert Jahre.

● Projektionen der künftigen Entwicklung der Sonnenaktivität lassen während der kommenden Jahrzehnte eher eine globale Abkühlung als eine Erwärmung erwarten, trotz weiterer CO2-Emissionen.

Quelle: „Executive Summary“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 3: Schlüsselfakten über Temperatur-Antriebe und Rückkopplungen

● Eine Verdoppelung des CO2-Gehaltes seit dem vorindustriellen Niveau (von 280 auf 560 ppm) würde wahrscheinlich einen Temperatur-Antrieb von 3,7 W/m² in der unteren Atmosphäre bringen, was etwa 1°C Erwärmung bedeutet.

● Die IPCC-Modelle betonen die Bedeutung der positiven Rückkopplung des zunehmenden Wasserdampfes und projizieren deshalb eine Erwärmung von etwa 3°C bis 6°C, während empirische Daten eine Größenordnung weniger zeigen, nämlich etwa 0,3°C bis 1,0°C.

● In Eisbohrkernen zeigt sich, dass Temperaturänderungen parallelen Änderungen des CO2-Gehaltes viele hundert Jahre voraus laufen. Sie zeigen auch, dass Temperatur und CO2 in langen Zeiträumen historischer und geologischer Aufzeichnungen nicht miteinander gekoppelt sind. Daher kann das CO2 nicht der Haupttreiber für die meisten Temperaturänderungen sein.

● Der atmosphärische Methan-Gehalt (CH4) fällt während der letzten beiden Jahrzehnte deutlich unter die in den IPCC-Berichten projizierten Werte. Diese viel zu hohen Schätzungen des Methangehaltes fließen in die IPCC-Temperaturprojektionen ein und müssen daher nach unten korrigiert werden.

● Der auftauende Permafrost oder untermeerische Gashydrate werden wahrscheinlich keine gefährlichen Mengen von Methan freisetzen, jedenfalls nicht bei der gegenwärtigen Erwärmungsrate.

● Es wird erwartet, dass die Stickstoffoxid-Emissionen (N2O) fallen, wenn der CO2-Gehalt und die Temperatur steigen, was bedeutet, dass sie als negative Rückkopplung fungieren.

● Andere negative Rückkopplungen der Klimasensitivität werden durch das IPCC entweder außen vor gelassen oder unterschätzt. Darunter ist die Zunahme tiefer Bewölkung als Folge des gestiegenen Wasserdampfgehaltes, eine steigende Aufnahme von Dimethylsulfid (DMS) seitens der Ozeane und das Vorhandensein und der Gesamt-Abkühlungseffekt durch sowohl natürliche als auch industrielle Aerosole.

Quelle: „Cahpter 2. Forcings and Feedbacks“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 5: Schlüsselfakten im Vergleich zu globalen Klimamodellen

● Klimamodelle haben während der letzten 15 Jahre eine atmosphärische Erwärmung um 0,3°C simuliert. Tatsächlich war die Temperatur gleich geblieben, oder es hat sich sogar etwas abgekühlt.

● Klimamodelle haben eine Erwärmung der Ozeane um 0,2°C simuliert, tatsächlich wurde keinerlei Erwärmung beobachtet.

● Klimamodelle haben das Auftauchen eines hochtroposphärischen Hot Spots über den Tropen simuliert; ein solcher ist bis heute nicht gefunden worden.

● Klimamodelle haben projiziert, dass die Erwärmung zum Ende des vorigen Jahrhunderts an beiden Polen stattgefunden haben sollte, in Wirklichkeit konzentrierte sich die Erwärmung nur auf arktische Gebiete.

● Klimamodelle berechnen allgemein eine Klimasensitivität von 3°C bei einer Verdoppelung des CO2-Gehaltes verglichen mit dem vorindustriellen Niveau. Meteorologischen Beobachtungen zufolge beträgt diese Sensitivität aber nur 1°C oder weniger.

● Die Klimamodelle unterschätzen die Verdunstung an der Erdoberfläche infolge der gestiegenen Temperatur um den Faktor 3, was in der Konsequenz zu einer Unterschätzung des globalen Niederschlags führt.

● Die Klimamodelle repräsentieren durch Aerosole veränderte Infrarotstrahlung nicht angemessen, obwohl Studien zeigen, dass verschiedene Mineral-Aerosole (bei gleicher Konzentration) Unterschiede im bodennahen IR-Fluss zwischen 7 und 25 W/m² zeitigen können.

● Deterministische Klimamodelle haben inhärente Eigenschaften, die eine dynamische Vorhersagbarkeit unmöglich machen. Die Einführung von Methoden, um dem zu begegnen (vor allem Parameterisierung) bringt einen Bias in die Modellprojektionen.

● Grenzen der Rechenmöglichkeiten von Computern verhindern, dass die Klimamodelle wichtige Klimaprozesse auflösen; Modelle mit geringer Auflösung können viele wichtige regionale und niedriger skalige Phänomene wie beispielsweise Wolken nicht erfassen.

● Die Kalibrierung der Modelle ist fehlerhaft, nehmen sie doch an, dass der gesamte Temperaturanstieg seit Beginn der industriellen Revolution ausschließlich durch menschliche CO2-Emissionen verursacht wurde. In Wirklichkeit begannen menschliche Emissionen erst Mitte des 20. Jahrhunderts.

● Nichtlineare Klimamodelle zeigen ein chaotisches Verhalten. Als Folge zeigen verschiedene Modellläufe unterschiedliche Trendwerte.

● Interne Klima-Oszillationen (AMO, PDO usw.) sind wesentliche Faktoren in historischen Temperaturreihen. Die Klimamodelle versuchen nicht einmal, diese zu simulieren.

● Genauso gehen in die Klimamodelle nicht die Auswirkungen ein durch Veränderungen des solaren Magnetfeldes oder kosmischer Strahlen. Von beiden weiß man, dass sie das Klima signifikant beeinflussen.

Quelle: „Chapter 1. Global Climate Models and Their Limitations“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 6: Schlüsselfakten zur Temperatur an der Erdoberfläche

● Ob die heutige Temperatur als Teil eines Erwärmungstrends gesehen werden kann, hängt von der betrachteten Zeitperiode ab.

● Im (Klima-)Zeitscale von mehreren tausend Jahren zeigt die Temperatur Abkühlung; im historischen (meteorologischen) Zeitscale im vorigen Jahrhundert Erwärmung. Während der letzten 16 Jahre gab es keine Erwärmung trotz einer Zunahme des atmosphärischen CO2-Gehaltes um 8% – das repräsentiert 34% der mit dem Menschen in Verbindung stehenden CO2-Emissionen seit der industriellen Revolution.

● Setzt man eine atmosphärische Durchmischung von etwa einem Jahr an, kann man mit den soeben erwähnten Fakten die Hypothese einer gefährlichen Erwärmung testen. Diesen Test hat sie nicht bestanden.

● Den vom IPCC bevorzugten HadCRUT-Daten zufolge war es im 20. Jahrhundert zu zwei Phasen mit Erwärmung gekommen, nämlich zwischen 1910 und 1940 sowie zwischen 1979 bis 2000, und zwar mit etwa den gleichen Raten von jeweils 1,5°C pro Jahrhundert. Die Erwärmung Anfang des 20. Jahrhunderts ging wesentlichen industriellen CO2-Emissionen voraus und muss natürlichen Ursprungs sein. Die Erwärmung in der zweiten Periode könnte eine kleine Auswirkung menschlicher CO2-Emissionen sein, aber die Erwärmung kann auch auf den Wärmeinseleffekt zurückgehen.

● Andere Temperatur-Datensätze zeigen die Erwärmung im HadCRUT-Datensatz zum Ende des vorigen Jahrhunderts nicht.

● Es war nichts Ungewöhnliches an der nur im HadCRUT-Datensatz erkennbaren Erwärmung zum Ende des vorigen Jahrhunderts, weder hinsichtlich der Größenordnung noch der Rate. Beides liegt deutlich innerhalb bekannter, natürlicher Variationen, die auch zuvor schon aufgetreten waren.

● Es gibt keine empirischen Beweise, die die Hypothese stützen, dass eine planetarische Erwärmung um 2°C insgesamt ökologisch oder ökonomisch schädlich wäre.

Quelle: Chapter 4. „Observations: Temperatures“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 7: Schlüsselfakten über den solaren Antrieb

● Es gibt immer mehr Beweise dafür, dass Änderungen der Temperatur auf der Erde zum allergrößten Teil durch Variationen der Sonnenaktivität angetrieben werden. Beispiele von durch die Sonnenaktivität bestimmte Klimaepochen sind u. A. die Mittelalterliche Warmzeit, die Kleine Eiszeit und die Warmzeit des frühen 20. Jahrhunderts (1910 bis 1940).

● Die Sonne kann bis zu 66% zur Erwärmung im 20. Jahrhundert beigetragen haben, vielleicht sogar noch mehr.

● Berichte über starke empirische Korrelationen zwischen der solaren Variabilität und Klimaindizes einschließlich Temperatur, Niederschlag, Dürren, Überschwemmungen, Sturmfluten und Monsune kamen aus der ganzen Welt.

● Die IPCC-Modelle enthalten nicht wichtige solare Faktoren wie Fluktuationen der magnetischen Feldstärke, und sie überschätzen den Antrieb durch anthropogenes CO2.

● Das IPCC berücksichtigt nicht die Bedeutung der gezeigten empirischen Beziehungen zwischen Sonnenaktivität, dem Einfall galaktischer kosmischer Strahlen und der Bildung tiefer Wolken.

● Die jeweilige Bedeutung der Sonne und von CO2 als Antriebe des globalen Klimas bleiben ungelöst; die jetzigen Klimamodelle lassen eine Fülle von bekannten Verbindungen zwischen Sonne und Klima außen vor.

● Die seit einiger Zeit sehr ruhige Sonne und die Extrapolation solarer Zyklen in die Zukunft zeigen, dass es während der nächsten Jahrzehnte zu einer planetarischen Abkühlung kommen könnte.

Quelle: Chapter 3. Solar Forcing of Climate”, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 8: Schlüsselfaktoren zur Cryosphäre

● Mittels Satelliten und durch Luftüberwachung gewonnene Datensätze zur Quantifizierung des globalen Eishaushaltes sind kurz, und die Methoden stecken noch in den Kinderschuhen. Die Ergebnisse bis heute zeigen aber, dass sich die Eisverhältnisse sowohl in Grönland als auch in der Antarktis im Gleichgewicht befinden.

● Eisbohrkerne aus Grönland und der Antarktis zeigen, dass es zu Klimaänderungen sowohl in grundlegenden Eiszeiten/Zwischeneiszeiten gekommen war als auch zu kürzeren Ereignissen im Zeitraum von Jahrzehnten und Jahrhunderten mit starken Raten von Erwärmung und Abkühlung einschließlich abrupter Temperaturänderungen.

● Beobachtete Änderungen hinsichtlich Temperatur, Schneefall, Geschwindigkeit des Eisflusses sowie Kalben von Gletschern sowohl in Grönland als auch in der Antarktis scheinen innerhalb der Grenzen natürlicher Klimavariationen zu liegen.

● Die globale Eisbedeckung bleibt in der Fläche in etwa gleich seit Beginn von Satellitenbeobachtungen im Jahre 1979, wobei die Eisabnahme im Arktischen Ozean durch Eiswachstum um die Antarktis kompensiert wird.

● Während der letzten 25 000 Jahre (spätes Pleistozän und Holozän) zeigten die Gletscher in der ganzen Welt starke Fluktuationen, weitgehend in Übereinstimmung mit dem sich ändernden Klima. Dabei hatten sie sich zeitweise auf Positionen hinter ihrer heutigen Ausdehnung zurück gezogen.

● Trotz dieser Tatsache zeigen die Gebirgsgletscher der Welt eine große Vielfalt von Reaktionen auf lokale Klimavariationen. Sie reagieren auf die Temperaturänderung nicht in einfacher, gleichförmiger Weise.

● Tropische Gebirgsgletscher sowohl in Afrika als auch in Südamerika haben sich während der letzten 100 Jahre zurückgezogen, und zwar infolge geringerer Niederschläge und gesteigerter Sonnenstrahlung; aber auch anderswo haben sich die Gletscher seit dem Ende der Kleinen Eiszeit zurückgezogen.

● Die Daten zur globalen Geschichte der Eisverhältnisse und die Eismassenbilanz stützen nicht die IPCC-Behauptungen, denen zufolge CO2-Emissionen die Hauptursache für Gletscherrückzüge der heutigen Zeit sind.

Quelle: Chapter 5. „Observations: The Cryosphere“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 9: Schlüsselfaktoren zur Hydrosphäre

Ozeane

● Die Kenntnis lokaler Änderungen des Meeresspiegels ist unabdingbar für das küstennahe Management; derartige Änderungen ereignen sich mit sehr stark variierenden Raten in der ganzen Welt, typischerweise zwischen +5 und -5 mm pro Jahr.

● Der globale Meeresspiegel, dessen Kenntnis nur begrenzt für das küstennahe Management genutzt werden kann, ist während des vorigen Jahrhunderts zwischen 1 und 2 mm pro Jahr gestiegen.

● Satelliten-Fernerkundungen der Änderungen des Meeresspiegels zeigen seit 1993 eine globale Anstiegsrate über 3 mm pro Jahr, aber wegen des komplizierten Prozesses und des Anfangsstadiums der verwendeten Methoden ist dieses Ergebnis als nicht sicher anzusehen.

● Raten der globalen Änderung des Meeresspiegels variieren in dekadischem und multidekadischem Maßstab und zeigen in jüngster Zeit weder eine Beschleunigung noch irgendeine andere simple Verbindung mit zunehmenden CO2-Emissionen.

● Die Korallenatolle im Pazifik versinken nicht im Meer; vielmehr sind die Küstenlinien der Atolle direkten Wetter- und seltenen Hochwasserereignissen ausgesetzt. Außerdem durch Änderungen des Meeresspiegels infolge von ENSO und Auswirkungen der zunehmenden menschlichen Besiedlung.

● Ein zusätzlicher Anstieg infolge Wärmeausdehnung ist ebenfalls unwahrscheinlich, zeigt doch das Netzwerk von ARGO-Bojen keine signifikante Erwärmung des Ozeans während der letzten 9 Jahre (Knox und Douglass 2010).

● Obwohl die ganze Bandbreite natürlicher Variationen noch nicht vollständig bekannt ist, fehlt jeder Beweis für Änderungen der globalen Ozeanzirkulation in letzter Zeit, die außerhalb der natürlichen Variation liegen oder durch menschliche CO2-Emissionen ausgelöst worden sind.

Monsun, Dürren und Überschwemmungen

● Es gibt kaum Beweise für eine Zunahme der globalen Niederschlagsmenge insgesamt während des 20. Jahrhunderts, unabhängig von multidekadischen natürlichen Klimarhythmen.

● Monsunregenfälle sind zum Ende des 20. Jahrhunderts nicht variabler oder intensiver geworden; stattdessen reagiert die Niederschlagsmenge hauptsächlich auf Änderungen der Sonnenaktivität.

● Der südamerikanische und der indische Monsun waren während der kalten Kleinen Eiszeit stärker ausgeprägt und schwächer während der Mittelalterlichen Warmperiode. Weder globale noch lokale Änderungen zeigen einen Zusammenhang mit CO2-Emissionen.

● Die Beziehung zwischen Dürre und globaler Erwärmung ist schwach, da es sowohl in der Mittelalterlichen Warmzeit als auch in der Kleinen Eiszeit zu ausgeprägten Dürren gekommen war.

Quelle: Chapter 6 „Observations: The Hydrosphere“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 10: Schlüsselfakten zu Extremwetterereignissen

● In allen Zeitmaßstäben nimmt die Variabilität der Temperatur ab, wenn die mittlere Lufttemperatur steigt.

● Daher ist die Behauptung, dass die globale Erwärmung vermehrt zu Extremen hinsichtlich Wetter und Klima einschließlich der Temperatur selbst führen werde, theoretisch ohne Grundlage und wird auch durch empirische Beweise nicht gestützt.

● Obwohl es in einigen Gebieten zu signifikanten Änderungen der Intensität oder der Anzahl von Extremwetterereignissen im 20. Jahrhundert gekommen war, existiert für den Globus als Ganzes während der letzten 100 Jahre keine Relation zwischen derartigen Ereignissen und der globalen Erwärmung.

● Beobachtungen aus der ganzen Welt zeigen, dass Dürren nicht extremer oder erratischer als Folge der globalen Erwärmung geworden sind. In den meisten Fällen waren die schlimmsten Dürren in der durch Aufzeichnungen belegten meteorologischen Geschichte viel milder verlaufen als Dürren, zu denen es periodisch in Kaltzeiten gekommen war.

● Es gibt wenige oder gar keine Beweise dafür, dass Niederschläge in einer sich erwärmenden Welt variabler und intensiver werden; tatsächlich zeigen einige Beobachtungen das genaue Gegenteil.

● Es gab während der modernen Zeit keine Zunahme von Stürmen, weder nach Häufigkeit noch nach Intensität.

● Trotz der vermeintlich „beispiellosen“ Erwärmung des 20. Jahrhunderts gab es keine Zunahme tropischer Zyklone, weder hinsichtlich Intensität noch Häufigkeit, weder global noch konzentriert auf einzelne Ozeangebiete.

● Die allgemein verbreitete Auffassung, dass die Erwärmung des 20. Jahrhunderts begleitet war von einer Zunahme von Extremwetterereignissen ist eine Folge exzessiver Berichterstattung in den Medien und hat hinsichtlich der Fakten keine Grundlage (Khandekar 2013).

Quelle: Chapter 7 Obersavtions: Extreme Weather“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Und hier die Zusammenfassungen:

Kapitel 2: Global Climate Models:

Wir kommen zu dem Ergebnis, dass die gegenwärtige Generation der globalen Klimamodelle (GCMs) nicht in der Lage ist, genaue Projektionen des Klimas auch nur für 10 Jahre im Voraus zu erstellen, geschweige denn für einen Zeitraum von 100 Jahren in der Zukunft, der von den politischen Planern übernommen worden ist. Das Output derartiger Modelle sollte daher nicht verwendet werden, um die Politik anzuleiten, bis sie validiert worden sind und gezeigt haben, dass sie prognostisch von praktischem Nutzen sind.

Kapitel 3: Postulates (Forderungen):

Wir kommen zu dem Ergebnis, dass weder die Rate noch die Größenordnung der Erwärmung zum Ende des 20. Jahrhunderts (1979 bis 2000) außerhalb der natürlichen Variabilität liegt. Auch war sie in keiner Weise ungewöhnlich im Vergleich zu früheren Epochen der Klimahistorie der Erde. Außerdem sind die solaren Antriebe wahrscheinlich viel wichtiger als gegenwärtig erkannt, und es fehlt jeder Beweis, dass eine Temperaturzunahme um 2°C (aus welchen Gründen auch immer) schädlich für den Planeten wäre.

Kapitel 4: Circumstantial Evidence (Detaillierte Beweise):

Wir kommen zu dem Ergebnis, dass es keinen eindeutigen Beweis gibt, dass es in der Umwelt zu nachteiligen Entwicklungen kommt durch die anthropogenen CO2-Emissionen. Insbesondere die Cryosphäre schmilzt nicht beschleunigt; der Anstieg des Meeresspiegels beschleunigt sich nicht. Es sind keine systematischen Änderungen hinsichtlich Verdunstung oder Regenmenge dokumentiert worden, auch nicht hinsichtlich der Größenordnung und der Intensität extremer meteorologischer Ereignisse. Die zunehmende Freisetzung von Methan in die Atmosphäre aus dem Permafrost oder untermeerischen Gashydraten ist unwahrscheinlich.

Kapitel 5: Policy Recommendations (Empfehlungen für die Politik):

Hier wird allgemein wiederholt, dass Klimawandel schon immer stattgefunden hat, dass nichts an der gegenwärtigen Lage ungewöhnlich oder noch nie da gewesen ist, und vor allem, dass sich die Politiker endlich aus unabhängigen Quellen informieren sollen, bevor sie Maßnahmen von einer Tragweite beschließen und einführen, wie es derzeit der Fall ist. Auf die Übersetzung im Einzelnen wird hier verzichtet.

Das letzte Kapitel in diesem Bericht mit dem Titel Conclusions wird hier wieder vollständig übersetzt:

Conclusions

Nur sehr wenige Wissenschaftler bestreiten, dass menschliche Aktivitäten einen  Einfluss auf das lokale Klima haben können oder dass die Summe solcher lokalen Auswirkungen hypothetisch zu einem beobachtbaren globalen Signal werden kann. Die Schlüsselfragen jedoch, die beantwortet werden müssen, lauten, ob das menschliche globale Signal groß genug ist, um gemessen werden zu können, und falls ja, stellt dieses Signal eine gefährliche Änderung außerhalb der bandbreite der natürlichen Variabilität dar, oder wird es dies in Zukunft tun?

Die Antwort des NIPCC, abgeleitet aus der umfassenden Begutachtung der wissenschaftlichen Beweise, lautet, dass jedwedes menschliches Klimasignal so klein ist, dass es innerhalb der Bandbreite der natürlichen Variabilität liegt und nicht gefährlich ist. Gleichzeitig ändert sich die globale Temperatur, wie sie es aus natürlichen Gründen schon immer getan hat. Eine Phase des Temperaturstillstands oder einer leichten Abkühlung hat die moderate Erwärmung des 20. Jahrhunderts abgelöst. Mit Sicherheit wird es weiterhin zu derartigen natürlichen Klimaänderungen kommen.

Angesichts dieser Tatsachen wäre die umsichtigste Klimapolitik, sich auf extreme Klimaereignisse vorzubereiten oder sich an diese anzupassen, unabhängig von den Gründen. Angemessene Planungen für gefährliche Klimaereignisse und –änderungen in der Zukunft sollten sofort stattfinden, um Antworten auf die [Auswirkungen] bekannten Raten, Größenordnungen und Risiken natürlicher Änderungen zu finden. Gibt es solche Pläne erst einmal, stellen sie auch eine Grundlage für jedwede anthropogene Klimaänderung dar, ob diese nun eintritt oder nicht.

Politische Entscheidungsträger sollten dem Druck von Lobbygruppen widerstehen, die Wissenschaftler zum Schweigen bringen, die die Autorität des IPCC in Frage stellen sowie dessen Behauptung, für die „Klimawissenschaft“ zu sprechen. Climate Change Reconsidered II: Physical Science enthüllt eine wissenschaftliche Gemeinschaft, die zutiefst verunsichert ist hinsichtlich der Zuverlässigkeit der IPCC-Computermodelle, dessen Forderungen und seiner Interpretation der Beweise. Diese Kritik stammt nicht von einer „Randgruppe“ der Gemeinschaft der Klimawissenschaftler: Sie wird direkt und wiederholt in tausenden Artikeln der begutachteten Literatur geübt.

Der berühmte britische Biologe Conrad Waddington schrieb im Jahre 1941:

Es ist … wichtig, dass Wissenschaftler darauf vorbereitet sind, dass sich ihre Lieblingstheorien als falsch herausstellen. Wissenschaft als Ganzes kann niemals zulassen, dass die Beurteilungen der Fakten durch Ideologie verzerrt werden können, die festlegt, was zu stimmen hat und was nicht; oder was man hofft, das zutreffend ist.

Dieses zukunftweisende Statement verdient eine genaue Betrachtung jener, die weiterhin den Mode-Glauben verbreiten, dass menschliche CO2-Emissionen zu einer gefährlichen globalen Erwärmung führen – trotz starker empirischer Beweise des Gegenteils.

Es folgt eine ausführliche Liste mit Literaturhinweisen, gefolgt von einer Auflistung aller am Bericht beteiligten Autoren.

Link zum gesamten Werk: http://heartland.org/media-library/pdfs/CCR-II/Summary-for-Policymakers.pdf

Zusammengefasst und in Auszügen übersetzt von Chris Frey EIKE




IPCC Bericht von 2013 vs. Klimafakten

IPCC-Behauptung 1: Die Erwärmung unseres Klimasystems sei eindeutig. Seit den 1950-er Jahren seien viele Erscheinungen über Tausende von vergangenen Jahren noch nie vorgekommen. Insbesondere die Erwärmung der Nordhemisphäre von 1983 bis 2012 sei wahrscheinlich die wärmste 30-Jahresperiode der letzten 1400 Jahre.

Die Fakten zu 1: Das Klima in jeder Klimazone unserer Erde (von polar bis tropisch) war niemals konstant und hat sich seit jeher stets geändert. Konstantes Klima gibt es nicht. Regelmäßig kamen in allen Vergangenheitszeiten Klimaänderungen vor, die die des 20. Jahrhunderts an Stärke und Geschwindigkeit weit in den Schatten stellten. Bild 1 zeigt die globalen Mitteltemperaturen bis 11.000 Jahre vor heute.

 

Bild 1: Globale Mitteltemperaturen der letzten 11.000 Jahre [hier]

Man erkennt in Bild 1 die warme Römerzeit, ein warmes Mittelalter und davor ein noch wärmeres Holozän. Der Glaziologe Prof. Gernot Patzelt von der Universität Innsbruck weist an Hand von Gletscherfunden wie z.B. Baum- und Pflanzenresten nach, dass in 65 Prozent der letzten 10.000 Jahre die Alpengletscher kleiner und die Temperaturen höher waren als heute. Wald ist in Höhen gewachsen, die heute noch vergletschert sind – dies ohne alles menschliches Zutun [hier]. Alle Warmzeiten (Römerzeit, Hochmittelalter) waren übrigens kulturelle Blütezeiten.

Eine der qualitativ besten Temperaturkurven der letzten 2000 Jahre zeigt dann mehr Details (Bild 2):

Bild 2: Temperaturreihe von Christiansen/Ljungqvist [Chr], vom Verfasser aus den numerischen Originaldaten erstellt.

Man erkennt in Bild 2 den langfristigen Temperaturabfall vom sehr warmen Mittelalter bis herunter zur „kleinen Eiszeit“ im 17. Jahrhundert. Danach setzte die Wiedererholung der Temperaturen bis heute ein. Seit etwa 1995 stagnieren die Temperaturen wieder, bzw. es kühlt sich sogar leicht ab. Jeder von uns bemerkt dies an den zunehmend härteren Wintern (s. dazu Bild 3 weiter unten).

Man findet bei einer Analyse der in Bild 2 gezeigten Temperaturreihe zahlreiche Zeitspannen mit weit schnelleren und stärkeren Temperaturanstiegen (aber auch Temperaturabstiegen) als dem Anstieg in den letzten 30 Jahren des 20. Jahrhunderts, der vom IPCC so vehement als „Beweis“ für einen menschgemachten Einfluss angeführt wird. Die Aussage des IPCC von einer „noch nie seit tausenden Jahren vorgekommenen“ Temperaturentwicklung der letzten Jahrzehnte ist daher falsch.
 
Das ungewöhnlich warme Klima im Mittelalter ist nicht nur durch Messungen [hier] sondern auch durch historische Überlieferung bestens belegt. In dieser Warmperiode führten die großen deutschen Flüsse in den heißen Sommern kaum noch Wasser. Die Fundamente der berühmten Regensburger Steinbrücke konnten daher in der trockenen Donau gebaut werden, und zu Köln am Rhein überquerten die Leute den großen Fluss trockenen Fußes [Rei]. Der jüngste Rückgang der Gletscher in den Alpen wurde übrigens schon im Jahre 1885 im Alpinen Jahrbuch dokumentiert. Damals gab es praktisch noch kein menschgemachtes CO2. Die Beobachtungen begannen in 1881, berichtet wurde von Prof. Eduard Richter aus Salzburg, sie betrafen verschiedene Gletscher in den Ötztalern, Zillertalern und die Pasterze. Man findet die genannte Zeitschrift in der Bücherei des Deutschen Alpenvereins auf der Praterinsel in München (Jahrgang 1885, Band XVI, Seite 54 bis 65), eine Fortsetzung folgte im Jg. 1888 [Nie]. Auch die Publikation [Hol] legt davon Zeugnis ab.

Bild 3 lässt schließlich die erneute Stagnation/Abkühlung der letzten 15 Jahre erkennen. Seit Beginn der Industrialisierung und nicht nur die letzten 15 Jahre passt der Temperaturverlauf mit dem stetig ansteigenden CO2 Gehalt der Luft nicht zusammen, was der Behauptung des IPCC über einen maßgebenden menschgemachten Klimaeinfluss widerspricht.


Bild 3: Globale Abkühlung seit etwa Mitte der 1990-er Jahre [hier]

IPCC-Behauptung 2: Die globalen Mengen an Schnee und Eis hätten abgenommen. Und weiter: über die letzten beiden Jahrzehnte hätten sich die Eisschilde von Grönland und der Antarktis verringert. Gletscher fast überall weltweit würden fortfahren kleiner zu werden und die arktische See-Eisbedeckung sowie die Frühjahrsschneebedeckung der Nordhemisphäre würden sich in hohem Ausmaße verringern.

Die Fakten zu 2: Weil sie allen Messdaten widersprechen, erreichen diese Behauptungen des IPCC bereits das Ausmaß des Absurden. Insbesondere der antarktische Eisschild, der etwa 90% allen Süßwassers weltweit enthält, nimmt zumindest nicht ab. Das gleiche trifft für das antarktische Schelf-Eis zu. Der einzige Teil, der geringfügig Eis verliert, ist die Westantarktische Halbinsel, die weniger als 10% des antarktischen Gesamt-Eis ausmacht. Die Temperaturaufzeichnungen am Südpol zeigen seit Beginn der Messungen in 1957 keine Erwärmung! s. hierzu auch (hier) und (hier).

Das medienbeliebte arktische See-Eis dagegen ist seiner relativ geringen Dicke wegen klimatisch weitgehend unrelevant. Seine Ausdehnung gehört zu den Wetterphänomenen. Relevant ist dagegen der Grönländische Festland-Eispanzer mit einem Volumen von etwa 3 Millionen Kubikkilometern, das sich so gut wie nicht verändert hat. Das arktische See-Eis schwankt stark mit den Jahreszeiten, insgesamt übers Jahr gemittelt hat es sich in den letzten Jahrzehnten weder maßgebend verringert noch erhöht. Ausgerechnet in 2013, also dem Erscheinungsjahr des jüngsten IPCC-Berichts hat sich die arktische See-Eisbedeckung rekordverdächtig um 60% auf 1 Millionen Quadratkilometer erhöht [hier]. Alle diese Schwankungen des arktischen Meer-Eis liegen im natürlichen Bereich und haben mit einem Einfluss des Menschen nichts zu tun.

Bild 4 zeigt schließlich die Schneebedeckung der Nordhemisphäre in Millionen Quadratkilometern, die eine leichte Zunahme in den Dezembermonaten anzeigt.

Bild 4: Schneebedeckung der Nordhemisphäre in Millionen Quadratkilometern. Seit 1960 wird in bestimmten Monaten Zunahme, in anderen Abnahme gemessen. Von einer maßgebenden allgemeinen Abnahme kann keine Rede sein [hier] und [hier].

IPCC-Behauptung 3:  Meeresspiegel seien angestiegen. Und weiter im Einzelnen: Die Meeresspiegelanstiegsrate seit Mitte des 19. Jahrhunderts sei höher als die mittlere Anstiegsrate während der letzten 2000 Jahre. 

Die Fakten zu 3: Seit Ende der letzten Eiszeit, also seit etwa 12.000 Jahren ist der Meeresspiegel weltweit um rund 120 Meter angestiegen, insofern trifft die allgemeine Aussage des IPCC über einen Meeresspiegelanstieg zu. Die Ursachen sind schmelzendes Festlandeis sowie die Ausdehnung von Meerwasser infolge der Erwärmung nach Ende der Eiszeit. Bis heute hat sich dieser Anstieg fortgesetzt, allerdings inzwischen stark verlangsamt in einem Ausmaß von aktuell grob 3 mm/Jahr. Eine Beschleunigung dieses Anstiegs wird nicht gemessen. Im Gegenteil, die jüngsten Satelliten-Altimetrie-Messungen deuten eher auf eine temporäre Verlangsamung des Meeresspiegelanstiegs hin.

Bild 5: Meeresspiegelanstieg, gemessen von Satelliten [hier]

Allerdings ist Vorsicht bei Aussagen über Meeresspiegeländerungen angebracht. Der deutsche Geo-Forscher Prof. Karl-Ernst Behre (hier) hat die über mehrere tausend Jahre aufgetretenen Meeresspiegelveränderungen an den Nordseeküsten vermessen (Bild 6). Sie zeigen bei näherem Hinsehen Erstaunliches:

Bild 6: Meeresspiegeländerungen an den Nordseeküsten [Beh]

Man erkennt in Bild 6 immer wieder Zeiträume, in denen der Meeresspiegel sogar längerfristig abnahm und solche, in denen er in Übereinstimmung mit der ausklingenden Eiszeit erwartungsgemäß weiter anstieg. Die Ursachen für diese Schwankungen sind unbekannt, haben vermutlich auch mit Hebungen und Senkungen des Festlandes zu tu, sind aber keinesfalls dem Einfluss des Menschen zuzuschreiben. Aus den heutigen, modernen Meeresspiegelmessungen über die Dauer von wenigen Jahrzehnten auf einen allgemeinen Trend schließen oder gar auf menschgemachte Einflüsse spekulieren zu wollen, ist nicht zuletzt angesichts der Messungen von Behre als wissenschaftlich fragwürdig einzustufen. Die Aussage des IPCC über die Stärke des heutigen Anstiegs im Vergleich mit den letzten Tausenden Jahren widerspricht den Messungen und ist daher zurückzuweisen.

IPCC-Behauptung 4: die Konzentration an Treibhausgasen habe zugenommen.

Die Fakten zu 4: Diese Aussage trifft zu. Insbesondere die CO2-Konzentration in der Erdatmaosphäre hat seit 1960 von 317 ppm auf aktuell 400 ppm zugenommen. ppm bedeuten „parts per million“, 400 ppm entsprechen also 0,04 Volumenprozent. CO2 ist ein Spurengas in der Luft, sogar das Edelgas Argon kommt in der Luft häufiger vor. Die vom IPCC vermittelte suggestive Vorstellung, dass der CO2-Anstieg zu einem dramatischen globalen Temperaturanstieg führen müsse, ist falsch. Entscheidend ist nämlich nicht die Erwärmungswirkung des CO2 schlechthin, sondern der erwärmende Einfluss das ZUSÄTZLICHEN, vom Menschen in die Erdatmosphäre emittierten CO2. Dieser ist nach allen bisherigen Messergebnissen unmaßgeblich klein. Dies erscheint auf den ersten Blick ungewöhnlich, denn CO2 ist schließlich vermutlich das zweitstärkste Treibhausgas nach dem Wasserdampf.

Tatsächlich liegt der Grund für die geringe Erwärmungswirkung des zusätzlichen, menschgemachten CO2 darin, dass die Temperaturerhöhungswirkung des CO2 schon bei weit kleineren CO2 Konzentrationen fast vollständig ausgeschöpft ist, oder technisch ausgedrückt, die Infrarot-Absorption des CO2 steigt mit zunehmender CO2 Konzentration nur noch unmaßgeblich an. Als simple Veranschaulichung dieses Sachverhalts kann eine gut wärmende Pudelmütze dienen, die die Erwärmungswirkung des CO2 darstellt. Setzt man eine zweite Pudelmütze auf, d.h. verdoppelt man also die CO2 Konzentration, ist die zusätzliche Erwärmung vernachlässigbar. Zwei Pudelmützen übereinander wärmen auch nicht viel besser als eine.

Nur mit Klimacomputermodellen, in die physikalisch UNZULÄSSIGE, weil FIKTIVE, d.h. nicht sauber durch Messungen belegte Erwärmungsmechanismen eingesetzt werden, ist überhaupt eine stärkere Erwärmungswirkung des zusätzlich vom Menschen in die Atmosphäre eingebrachten CO2 theoretisch herleitbar. Entsprechend haben solche fiktiven Klimamodelle noch nicht einmal die Klimavergangenheit wiedergeben können und sie können auch nicht die Zeitpunkte der großen Oszillationen, wie z.B. des El Nino vorhersagen. Sie sind daher als Prognoseinstrumente unbrauchbar und nur zur Beantwortung spezieller Detailfragen für die Klimaforschung von Nutzen.

Ein menschgemachter Einfluss auf Klimawerte ist bis heute in der Fachliteratur nicht beweiskräftig nachgewiesen – was nicht bedeutet, dass es ihn nicht gibt. Er ist offenbar so klein, dass er im Rauschen der natürlichen Fluktuationen untergeht. Entsprechend sind alle einschlägigen Wahrscheinlichkeitsangaben des IPCC (ehemals 90%, inzwischen 95%) subjektive, der betriebenen Politik geschuldete Willkürlichkeitsangaben. In der Fachliteratur existieren solche belegte Wahrscheinlichkeitsangaben zum menschgemachten Einfluss nicht. Es gibt freilich Angaben in umgekehrter Richtung, stellvertretend (hier) und [Bee].

Eine Zunahme des CO2 in der Atmosphäre sollte nicht gefürchtet werden, sondern umgekehrt hoch ERWÜNSCHT sein! Sie sorgt nämlich für stärkeren Pflanzenwuchs, insbesondere von Nahrungspflanzen und hat bereits maßgebend zur besseren Ernährung der Weltbevölkerung beigetragen. Eine theoretische Verdoppelung der CO2 Konzentration lässt den Ertrag aus Nahrungspflanzen um ein Drittel ansteigen [hier], [hier]. Die bei den Medien beliebte Verteufelung des Naturgases CO2 als „Schmutzgas“ oder „Klimakiller“ ist absurd und irreführend.

Fazit zum IPCC-Report 2013

Die Aussagen des IPCC sind wissenschaftlich fragwürdig, rein ökopolitisch und daher sachlich unsinnig und wertlos.

Im Folgenden stichwortartig noch einige Ergänzungen, die im hier behandelten Zusammenhang von Interesse sein können.
 
Was weiß eigentlich die Klimawissenschaft über das „Klima“? Nüchtern betrachtet, trotz weltweiter, milliardenschwerer, jahrelanger Forschungsbemühungen so gut wie nichts! Die einzigen, weitgehend gesicherten Fakten sind die sehr langfristigen – mehrere 10.000 Jahre – veränderlichen Einflüsse der Milankovitch-Zyklen. Diese Einflüsse sind für die aktuelle Klima-Diskussion irrelevant. Ferner hat man die Abkühlungseffekte nach globalwirksamen Extrem-Vulkanausbrüchen messen und gut erklären können. Damit ist aber schon fast das Ende der Erkenntnis erreicht. Die Ursachen der großen dekadalen Oszillationen, zu denen auch der populär bekannte El Nino gehört, liegen immer noch im Dunkeln, denn Länge, Stärke, Eintritts- und Endzeitpunkte dieser klimabestimmenden Oszillationen können von der Wissenschaft bis heute nicht angegeben werden.

Die Ursachen der Klimafluktuationen – so etwa der inzwischen auch vielen Laien geläufige Übergang vom warmen Mittelalter bis herunter zur kleinen Eiszeit und danach die Wiedererwärmung bis heute – sind völlig ungeklärt. Der wahrscheinlichste Ursachenkandidat ist nach Einschätzung des Verfassers die Variation des Sonnenmagnetfeldes vermittels noch nicht endgültig geklärter, indirekter Einflüsse, bei denen die kosmische Partikelstrahlung eine Mittlerrolle spielt. Zur Bestätigung dieser Hypothese wurden bereits wissenschaftliche Fortschritte erzielt, von einem Durchbruch kann aber noch keine Rede sein. Auch die numerische Stärke des Treibhauseffekts des CO2 kann physikalisch nur grob berechnet werden. Die alles entscheidenden Einzelheiten und insbesondere Abschwächungs- oder Verstärkungsmechanismen verbergen sich hinter einer kaum zu bewältigenden Komplexität der Vorgänge in Atmosphäre und Ozeanen.

Zum IPCC: Das IPCC ist eine politische, keine wissenschaftliche Institution. Es wird von Ökoaktivisten und politischen Drahtziehern dominiert, die sich Advokatenforschern bedienen, deren ideologischen oder finanziellen Interessen wiederum mit der angekündigten „Klimakatastrophe“ verbunden sind. Die Politik hat die „Klimakatastrophe“ als wirksamstes und einfachstes Mittel zur Erhöhung von Steuern entdeckt, denn nichts ist einfacher als die Luft zu besteuern. Zu den  Hintergründen, Personen und Aktivitäten des IPCC sind die gut recherchierten, kritischen Bücher der kanadischen Journalisten Donna Lafromboise zu empfehlen.

An dieser Stelle sei der Vollständigkeit halber angemerkt, dass die hier verwendeten Bezeichnungen "Klimabericht des IPCC" nicht die offiziellen Bezeichnungen des IPCC sind. Die richtigen Bezeichnungen, Versionen und "time-tables" des IPCC können der Webseite des IPCC (Okt. 2013) entnommen werden (hier). So lautet beispielsweise die richtige Bezeichnung der hier vereinfacht als Klimabericht AR5 bezeichneten IPCC-Veröffentlichung "Bericht der Arbeitsgruppe 1 (Physikalische Grundlagen) in einer akzeptierten aber noch nicht endgültig verabschiedeten Fassung".

Allgemeines zum angeblichen wissenschaftlichen „Klimakonsens“: Konsens kann es in einer ordentlich funktionierenden Wissenschaft grundsätzlich niemals geben, dies wäre ihr Ende. Wissenschaftliche Erkenntnisse müssen jederzeit überprüfbar sein und in Frage gestellt werden können, andernfalls gibt es keinen wissenschaftlichen Fortschritt. Dies ignorieren viele Politiker und vor allem Advokatenforscher, wie es zuletzt auch die jüngsten Beispiele zeigen. IPCC-Meinungsvertreter versuchten in Verhandlungen, die Aussagen des IPCC über das mittelalterliche Wärmeoptimum oder die jüngste Temperaturstagnation aus dem SPM von 2013 herauszuhalten.

Tatsächlich übersteigt aber auch die messbare Qualität und Anzahl der Fachwissenschaftler, die anderer Auffassung als das IPCC sind, die der IPCC-Meinungsvertreter um Längen. Unter den „Klimaskeptikern“ befinden sich beispielsweise zwei Physik-Nobelpreisträger, Ivar Glaever und Robert Laughlin, ferner der weltberühmte Physiker Freeman Dyson. Von der Gegenseite ist solch eine fachliche Qualität unbekannt. Davon berichten die deutschen Medien freilich nichts. Inzwischen scheinen sich die Berichtsverhältnisse – als Vorreiter ist hier die große Schweizer Wochenzeitschrift "Weltwoche" lobend hervorzuheben – allmählich zu bessern [Wel]. Die unzähligen Petitionen und Manifeste von Fachleuten gegen die „IPCC-Wissenschaft“ werden allerdings bis heute von den bundesdeutschen Medien dem Publikum verschwiegen [hier].

Was muss die deutsche Politik tun? Sie sollte aufhören, kostspielige Maßnahmen mit „Klimaschutz“ zu begründen und gar in Gang zu setzen. Real in internationaler Zusammenarbeit lösbare Umweltprobleme gibt es genug. Es seien nur die Zerstörung des Fischbestands der Weltmeere, der Tropenwälder und der Artenvielfalt genannt. Eine Begrenzung der Weltbevölkerung könnte durch Hebung des Bildungsstandes junger Frauen in Entwicklungsländern sowie höheren Wohlstands dieser Länder erzielt werden. Jeder für solche vernünftigen Maßnahmen ausgegebene Euro ist sinnvoll, jeder für „Klimaschutz“ ausgegebene verloren. Leider bevorzugt die Politik Maßnahmen, deren Wirkungen UNMESSBAR sind – dies zu ihrem eigenen Schutz und zum leichteren Betrug des Wählers.

Prof. Dr. Horst-Joachim Lüdecke (Physiker), EIKE Pressesprecher

Quellen ohne Verlinkung

[Bee] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

[Beh] C.-E. Behre: A new Holocene sea-level curve for the southern North Sea, Boreas 36, 82-102, Oslo. ISSN 0300-9483 (2007)

[Chr] B. Christiansen, F.C. Ljungqvist: The extra-tropical Nprthern Hemisphere temperature in the last two millenia: reconstructions of low-frequency variability, Clim. Past, 8, 765-786, 2012

[Hol] H. Holzhauser: Auf dem Holzweg der Gletschergeschichte, Sonderdruck aus „Mitteilungen der Naturforschenden Gesellschaft in Bern“, Band 66 (2009)

[Nie] Die Information verdankt der Verfasser Herrn Lutz Niemann

[Rei] J.H. Reichholf: Eine kurze Naturgeschichte des letzten Jahrtausends, S. Fischer (2007)

[Wel] Weltwoche, Nr. 39.13 (2013), „Wahrsager, nicht Wissenschaftler“ sowie „Skeptiker im Aufwind“

Related Files




Leuchten die Tiere in der Todeszone von Tschernobyl?

Eine wissenschaftliche Debatte über Europas unwahrscheinlichstes Tier-Reservat.

Valentina Sachepok stürmte los, und ich hetzte hinter ihr her durch einen Wald in der Sperrzone rund um das Kernkraftwerk von Tschernobyl.

Ein Kamerateam folgte uns, sie drehten einen Dokumentarfilm über die alten Frauen von Tschernobyl. Die Katastrophe im Jahr 1986 zwang zur dauerhaften Evakuierung von 300.000 Menschen, aber ein paar Frauen leben noch halblegal in ihrer alten Heimat.

Sachepok, eine über 60-jährige pensionierte Krankenschwester, deren graue Haare unter einem braunen Tuch hervorlugten, ging nicht, sondern trottete und sprintete abrupt davon, während der Rest von uns sich abmühte, ihr zu folgen. Nach dem Sammeln von dicken gelben Pilzen aus einem Klumpen von Moos führte sie mich zu einer Kiefer. "Das ist für den Igel ", sagte sie über das stachelige Lieblingstier in slawischen Märchen. Sie spießte einen Pilz auf einen Kiefernzweig in Bodennähe.

Das ist dort, wo heute die Radioaktivität am höchsten ist. Die Explosion und das Feuer spuckten hier das Strahlungsäquivalent von mindestens 20 Hiroshima-Bomben aus, das meiste verblieb innerhalb von etwa 25 Meilen um die Reaktorgebäude. Die meisten radioaktiven Isotope sind längst abgeklungen, und der Regen hat den Rest in den Boden und in der Nahrungskette ausgewaschen. Zwei der langlebigsten Isotope sind Cäsium-137, das chemisch mit dem Kalium verwandt ist, und Strontium -90, das wie Calcium in Lebewesen inkorporiert wird. Da diese Isotope von Pflanzen, Tieren, Pilzen und Bakterien aufgenommen wurden, ist die Radioaktivität nicht mehr auf der Zone , sondern auch im Umkreis verteilt.

Dies ist ein einzigartiges Ökosystem, mit ca. 8.000 km² etwa halb so groß wie Thüringen (doppelt so groß wie Rhode Island) und liegt je etwa zur Hälfte in Weißrussland und in der Ukraine. Eine Generation, nachdem die meisten Menschen das Gebiet verlassen haben, haben Wälder und Feuchtgebiete die einst gepflegten Felder, Dörfer und Städte zurückerobert. Nur die gelegentlichen Gerippe von verfallenen Gebäuden sind stumme Zeugen der ehemaligen Bewohner.

Sachepok steckte noch einen Pilz 30 cm höher in dem Baum. "Das ist für die Rehe. Es ist schwer für sie, Nahrung unter dem Schnee zu finden. " Der Tag war Ende Oktober noch warm, aber in der Ukraine sind die Winter kalt.

Nur wenige wilde Tiere lebten im Jahr 1986 in der Region, ihre Lebensräume war für sowjetische Milchviehbetriebe und Kiefernwaldpflanzungen zerstört worden. Aber große Säugetiere tauchten fast unmittelbar nach den Evakuierungen auf – und die Tierpopulationen ist bald explodiert.

Rehe und Wildschwein, die hier in den frühen 1990er Jahren gefangen wurden, waren mit mehr als dem 2.000-fachen der zulässigen Grenzwerte für Cäsium-137 in Fleisch belastet. Obwohl Strahlenbelastung seither dramatisch gesunken ist, überschritten einige Tiere, die vor kurzem in Weißrussland untersucht wurden, die zulässigen Grenzwerte noch einige Dutzende Male.

Aber es ist eine Überraschung für praktisch jeden – die Tiere sahen alle körperlich normal aus. Das gleiche galt für andere untersuchte Arten – sie waren radioaktiv, sahen aber normal aus. Die wenigen bekannten Ausnahmen sind Albino- Spots (Pigmentdefekte?) und einige Missbildungen bei Rauchschwalben.

Aufrecht stehend spießt Sachepok einen Pilz ganz weit oben auf. "Und der ist für den Elch."

Von dem Dutzend Elche, die ich in meinem Leben gesehen habe, befanden sich alle in der Sperrzone, wo ich im Laufe meiner vielen Reisen mehr als einen Monat Zeit mit Recherchen zu meinem Buch „Wormwood Forest: A Natural History of Chernobyl“ verbracht habe. Es ist ein seltsamer und schöner Ort, wo ich Wölfe am helllichten Tag beobachten konnte; Spuren von Luchsen im Schnee und riesige Herden von Wildschweinen, Rehen und Elchen. Es zieht mich nach wie vor dorthin.

Sachepok lächelte spitzbübischer, als man es von einer einsamen Frau in einem radioaktiven Niemandsland erwartet. "Die Tiere kennen mich alle", sagte sie, ein Goldzahn glänzte, bevor sie mir einen Vortrag über gesunde Lebensweise  hielt, eingeschlossen die Warnung vor dem, was sie die "Zombie- Box" nennt – dem Fernsehen.

Ich glaube, sie meinte das politisch, Ukrainisches Fernsehen ist reine Propaganda. Aber wenn es um Tschernobyl geht, ist es nur eine Frage der Zeit, bevor Zombies oder Mutanten auftauchen. Immer, wenn ich jemandem über meine Begegnungen mit Tschernobyls Tierwelt erzähle, sind die Fragen immer die gleichen: Haben sie zwei Köpfe? Leuchten sie? Leuchten Sie?

Tatsächlich fanden Forscher in den Anfangsjahren, als kontaminierter Staub alles überzogen hatte, unzählige Beispiele für die monströsen Mutationen, die man aus Horrorfilmen der 1950er Jahren erwartete: Fehlbildungen, Zwergwuchs , Riesenwuchs , seltsame Gewächse , und, ja – sogar einige leuchtende.

Aber diese Effekte wurden nur an Pflanzen festgestellt. Angriffe von Riesenblättern werden nicht so schrecklich gesehen wie das Unwesen mit dem Atom- Gehirn. In Wirklichkeit hat nach dem Unfall von Tschernobyl niemand jemals ernsthaft deformierte wilde Tiere (oder gar Zombies) gefunden. Mutierte Tiere, die in freier Wildbahn geboren  werden, sterben oder werden gefressen, bevor sie entdeckt werden. Welche biologischen Auswirkungen die Strahlung auch immer auf die Individuen hatten, die Fittesten überlebten.

Tschernobyls üppige und überraschend normal aussehenden Tierwelt hat das Verständnis der Biologen über die Auswirkungen von Radioaktivität durcheinandergewirbelt. Die Vorstellung, dass aus dem weltweit größten radioaktiven Ödland Europas größtes Naturschutzgebiet geworden ist, stellt das Weltbild von jedem auf den Kopf, der hier nukleare Dystopien erwartet.

Die Nachricht ist nicht gut für alle Tiere. Viele Arten, die menschliche Gesellschaft bevorzugen – Schwalben, Störche, Tauben – verließen überwiegend  die Region zusammen mit den Menschen. Auch scheinen kleine Kreaturen anfälliger für die Auswirkungen der Strahlung zu sein als große. Das mag der Grund sein, weshalb eine Studie über die Nagetiere in den 1990er Jahren in der Umgebung von Tschernobyl ein kürzeres Leben und kleinere Würfe aufwiesen als ihre Kollegen außerhalb der Zone. Hirschkäfer hatte ungleiche Hörner. Aber das hatte keinen Einfluss auf ihre Populationsgröße.

Und weil die Gesundheit der Wildtierarten in der Regel durch ihre Anzahl beurteilt wird, anstatt über den Zustand des einzelnen Tieres, gilt Tschernobyls Tierwelt als gesund. Allen Zählungen, die in der Ukraine und in Weißrussland in den letzten 27 Jahren durchgeführt wurden, zeigen eine enorme Vielfalt und Fülle an Tieren. Die vorherrschende wissenschaftliche Sicht der Sperrzone wurde die, dass es ein unbeabsichtigtes Naturschutzgebiet wurde. Diese Schlussfolgerung beruht auf der Prämisse, dass die Strahlung weniger schädlich für Wildbestände ist als wir Menschen.

In dem Bemühen, diese Ansicht in Frage zu stellen, haben Biologen Timothy Mousseau (University of South Carolina) und Anders Moller (Universität Paris) eine Reihe von Papieren veröffentlicht, dass die Populationen von Insekten, Vögeln und Säugetieren in den meisten kontaminierten Regionen Tschernobyl rückläufig seien. Sie behaupten auch, dass die Vögel es vermeiden, in hochradioaktiven Gebieten zu nisten. Gegenteilige Berichte über die Vielfalt von Tieren verweisen sie in das Reich der Fabeln..

Ihre Arbeit hat vor allem nach der nuklearen Katastrophe in Fukushima (Japan) die Aufmerksamkeit der Medien auf sich gezogen, vielleicht, weil es so gut mit der Zombie-/ Mutanten- Erwartung passt.

Eine Phalanx von Experten für Umweltradioaktivität hat jedoch die Methoden und Schlussfolgerungen von Mousseau und Moller in Frage gestellt. Der ukrainische Co-Autor, der die Arbeit vor Ort übernommen hatte, hat ihre Artikel zurückgewiesen, in denen sie behaupten, dass Vögel die radioaktiven Gebiete meiden. Er erzählte dem Magazin Wired im Jahr 2011, dass die Experimente nie darauf ausgelegt waren, um diese Hypothese zu untersuchen.

Ein Makel  der Forschungsarbeit der Wissenschaftler ist, dass sie den unpassendsten Ort untersucht haben. Moller und Mousseau behaupten, dass die größten negativen Auswirkungen auf die Wildbestände in Tschernobyl "an den am stärksten kontaminierten" Orten bestünden – die Verwendung des Plurals suggeriert, sie hätten viele Stellen untersucht. Während die Sperrzone von Tschernobyl viele "sehr belastete" Gebiete umfasst, enthält sie fünf "am stärksten kontaminierten" Reviere. Sie aber untersuchten daraus nur eine Stichprobe , die Roten Wald, eine Kiefernwaldfläche, der rot leuchtete, weil die hohe Strahlung das Chlorophyll zerstört hatte. Der Rote Wald war niedergewalzt, mit Sand überschüttet und es wurden neue Kieferbäumchen angepflanzt. Es ist einer der wenigen Orte, an denen man noch Pflanzenmissbildungen wie kurz nach der Katastrophe sehen kann. Die jungen Bäume sind klein und verkümmert, ähnlich wie verrückt verdrehte Büsche.

Die Fläche sieht überhaupt nicht wie ein natürlicher Kiefernwald aus. Die Vögel, von denen Mousseau und Moller behaupten, sie würden radioaktive Bereiche meiden, meiden eigentlich einen wirklich bizarr aussehenden Lebensraum. Es ist kaum möglich, um Tschernobyl einen Bereich zu finden, an dem es garantiert weniger Tiere gibt als diesen. Dann darauf zu verweisen, dass die wenigen Tiere im Roten Wald stellvertretend für die verbleibenden 99,098 Prozent des Sperrgebiets seien, ist so, als würde man behaupten, dass die Zahl der Tiere im Yellowstone- National Park abnimmt, weil man nur wenige Spinnen auf dem Parkplatz gefunden hat.

Tief im Inneren der Zone , wo die anderen "am stärksten kontaminierten" Bereiche sind und keine Menschen leben, gibt es in Belarus ein wieder entstandenes Moor, wo ich einmal eine erstaunliche Vielzahl von Enten, Reihern, Schwänen und ganz seltene Schwarzstörche in einer heiseren , kreischenden Wolke aufstieben sah, während ein Elch uns von der anderen Seite der Straße beobachtete. Der Hlyboke-See, der bei weitem radioaktivste Wasserweg der Welt, ist ein anderer "am stärksten kontaminierter" Ort. Dort entdeckte ich bei einem Besuch einen Birkhahn, eine Herde Rebhühner und drei Rehe innerhalb einer Stunde. Eine Studie ergab 2011, dass die Artenvielfalt dort größer ist als in jedem anderen See bei Tschernobyl.

Mousseau räumte in einer E-Mail ein, dass "es durchaus möglich ist, dass es mehr Tiere in den radioaktiven Bereichen" außerhalb der Orte gibt, die er und Moller untersucht haben. Aber er sagte gegenüber der New York Times, dass "insgesamt ein Mythos sei, zu behaupten, dass die Häufigkeiten von Tieren in der Sperrzone von Tschernobyl größer sei." Und per E-Mail fuhr er fort zu behaupten , wie er es viele Male tat, dass niemand jemals häufiger vor Ort war tatsächlich Tiere gezählt hat – das sogar, obwohl Weißrussland von 2005 bis 2007 systematische Untersuchungen und selektive Zählungen an Tieren durchgeführt hat.

Diese Studien fanden eine Vielfalt und Fülle an Säugetieren vergleichbar mit der eines Naturschutzgebietes mit seltenen Arten wie Bären, Luchse, Fischotter und Dachs sowie ausgewilderten Herden von Wisenten und Przewalski- Pferden. Die Vielfalt an Vögeln ist noch reichhaltiger und umfasst 61 seltene Arten. Singschwäne – nie zuvor in der Region beobachtet, sind jetzt dort regelmäßig zu finden.

Mousseau sagt, sie hätten ihre Forschungsprotokolle als Reaktion auf einige ihrer Kritiker abgeändert, aber nichtsdestotrotz haben er und Moller sich nicht aus dem Roten Wald herausgewagt, um tiefer in den anderen "am stärksten kontaminierten" Orten der evakuierten Zone um Tschernobyl zu forschen. Es wäre eine Schande für die Wissenschaft, wenn sie es nicht täten, da sie zu den wenigen westlichen Wissenschaftlern gehören, die in dieser Region Forschung betreiben. Bis sie einen sinnvolleren Zusammenhang zwischen der Auswirkung der Strahlung auf die Reichhaltigkeit der Fauna finden, gelten ihre umfassenden Behauptungen über eine abnehmende Tierpopulation wirklich nur für eine sehr wenig repräsentativen Ort.

Die Kontroversen werden idealerweise zu besser konzipierte Studien anspornen, vielleicht sogar von den Kritikern. Es ist Zeit für ein erneutes Interesse an den Auswirkungen der Strahlung auf Tschernobyls Tierwelt. Mehr als ein Vierteljahrhundert sind seit dieser Katastrophe vergangen. Fukushima hat uns gezeigt, es wird in der Zukunft noch weitere geben.

Wenn wir Entscheidungen über eine neue, intelligente Energieversorgung (smart energy) treffen wollen, muss die Wissenschaft eine Menge mehr über die Risiken lernen, welche mit der Umweltradioaktivität auf niedrigem Niveau zusammenhängen. Wir wissen noch nicht, wie sicher wirklich sicher ist. Das nukleare Ödland ist ein natürliches Laboratorium, um viele dieser Fragen zu stellen.

In der Zwischenzeit  ist aber Entspannung angesagt. Tschernobyls radioaktive Kreaturen sind nicht überall – wenn wir sie weiterhin in Ruhe lassen.

Mary Mycio ist die Verfasserin des Buches  Wormwood Forest: A Natural History of Chernobyl. Sie berichtete für die Los Angeles Times über die Ukraine. Ihr neuestes Buch Doing Bizness, ein Thriller über Nuklearschmuggel, ist als E-Book bei Amazon zu erhalten.

mit freundlicher Genehmigung von Mary Mycio Übersetzt von Rudolf Kohler