1

FAZ: Bauchlandung für die Klimavorhersagen: El Nino flaut früh ab, kein Super-Klimachaos

Starke El-Niño-Ereignisse im tropischen Pazifik können weltweit das Wetter durcheinander bringen – und die Börsen. Viele Anzeichen deuten immer deutlicher darauf hin, dass noch in diesem Sommer oder Herbst ein El Niño eintreten wird. Als Erste vorhergesagt haben dies deutsche Wissenschaftler – schon im September 2013.“

In der kalten Sonne vom am 1. August 2014 mussten wir Rahmstorfs Erwartungen dann aber leider dämpfen (siehe “Australisches Meteorologisches Institut sieht geringe Chancen für El Nino in 2014“). Zehn Tage später stand es dann auch in der FAZ:

El Nino flaut früh ab – Kein Super-Klimachaos
Bauchlandung für die Klimavorhersagen:

Vor wenigen Wochen hatten die Experten noch einen der stärksten El Ninos der letzten Jahre mit globalen Folgen prognostiziert. Jetzt macht sich das Klimaphänomen im Pazifik offenbar voreilig dünne. […] In der Prognose des amerikanischen Wetterdienstes und Klima- und Ozeanforschungszentrums NOAA von Ende vergangener Woche heißt es jetzt im monatlichen Bulletin: Die von den Bojen gemessenen Temperaturen hätten sich beinahe wieder normalisiert, „das Fehlen kohärenter atmosphärischer El-Nino-Muster und die Rückkehr zu durchschnittlichen Oberflächenwasser-Temperaturen im Zentralpazifik spricht für neutrale El-Nino-Bedingungen“.

Der Jahrgang 2014 will den Freunden des IPCC-Alarmgedankens einfach keine Freude bereiten…

———————————–

Im Juli 2014 erschien im Blog von Warren Business Consulting ein Beitrag zum Klimawandel von Sebastian Lüning. In einem ausgezeichneten Kommentar zum Artikel schreibt Keith Martin:

Ich bin froh, dass hier andere Meinungen zu Wort kommen. Dr. Lüning zum Beispiel ist ein bekannter Skeptiker, und die Ausgewogenheit in Gestalt verschiedener Standpunkte schafft Perspektiven. Sie zeigt auch, dass die Debatte im Gegensatz zum herrschenden Dogma alles andere als vorbei ist. Es gibt keinen Konsens hinsichtlich der relativen Stärke eines CO2-getriebenen Klimawandels und der natürlichen Variabilität. Außerdem gab es in der Wissenschaft noch nie Fortschritte, wenn diese einem Konsens gefolgt ist. Das gilt für die Gravitationstheorie von Newton, die Relativitätstheorie von Einstein oder die Plattentektonik. Im letzten Fall lautete der Konsens in den fünfziger Jahren, dass die Kontinente fest seien. Die Protagonisten hatten sogar bis kurz vor seinem Tod 1955 Einstein auf ihrer Seite. Natürlich wurde dies widerlegt durch die Theorie der Plattentektonik und deren Bestätigung durch das GPS-System.

Dies hier soll eine konstruktive Kritik sein. Ich war enttäuscht über die Warren-Befragung. M. E. waren die Fragen zu simplizistisch. Fast alle Skeptiker stimmen wie auch die Warmisten der Ansicht zu, dass CO2 ein Treibhausgas ist. Fast alle stimmen zu, dass die Menschheit eine gewisse Auswirkung hat. Aber nichts davon ist der Punkt, um den es hier geht. Das wirkliche Thema ist das Verhältnis einer CO2-getriebenen Klimaänderung zur natürlichen Variabilität. Außerdem ging es in der Befragung darum, wie es mit der Politik zum Umgang mit der Klimaänderung aussieht. Offensichtlich basieren derartige Fragen auf der Annahme, dass a)die Größenordnung des CO2 als Klimatreiber ein Problem ist, b)wir in der Lage sind die Änderung zu beeinflussen und c), selbst wenn a) und b) zutreffend wären, dass es sich ökonomisch rechnet, den Versuch einer Beeinflussung zu machen. Aus diesen Gründen habe ich dieses Jahr die Befragung nicht ausgefüllt. Das IPCC hat Politiker und die Main Stream Medien davon überzeugt, dass es hier ein Problem gibt. In seinem Bericht vom Oktober 2013 erwähnt das IPCC zwar den Trend zum Eisrückgang in der Arktis, sagt jedoch nichts zu dem Zuwachs in der Antarktis (was in direktem Gegensatz zu ihren Modellen steht). Hierbei sollte man nicht übersehen, dass das Meereis um die Antarktis in diesem Monat das höchste, jemals in der Satelliten-Ära beobachtete Niveau erreicht hat. Das IPCC erwähnt die abnehmende Schneebedeckung auf der Nordhemisphäre im Frühjahr, sagt aber nichts zu der zunehmenden Schneebedeckung im Herbst und Winter.

100% der vom IPCC benutzten Modelle zeigen zunehmende Temperaturen seit den achtziger Jahren, was sich auch in den zehner und zwanziger Jahren dieses Jahrhunderts fortsetzen soll. Die Realität dagegen zeigt, dass sich die Temperaturen seit 12 bzw. 17,7 Jahren nicht mehr verändert haben (abhängig davon, welchen Datensatz man benutzt). Dies impliziert, dass der sogenannte „97%-Konsens“ irrelevant ist angesichts der Tatsache, dass 100% der Klimamodelle falsch sind. Der USHN-Temperaturdatensatz zeigt nur dann eine Temperaturzunahme, wenn Adjustierungen vorgenommen worden sind. Die Rohdaten zeigen ein anderes Bild. Diese Adjustierungen werden nach wie vor angebracht. Sicher bedürfen der wirkliche Effekt der Beobachtungszeit, Auffüllung und Rasterung einer sorgfältigen Begutachtung. Tidenmessungen zeigen, dass der Meeresspiegel um 1,6 mm ,,pro Jahr steigt, während die Adjustierungen von Satellitendaten seitens GIA diesen Wert auf eine Zunahme von 3,2 mm pro Jahr hieven. Die Tidenmessungen zeigen keine Beschleunigung der Rate, was impliziert, dass die natürliche Rate der Zunahme seit 1750 wie normal weitergeht. Eine Beschleunigung wäre unabdingbar bei Vorliegen eines anthropogenen Effektes.

Änderungen in historischem und geologischem Maßstab haben den amtlichen Perspektiven den Boden entzogen. Isotopische und geochemische Daten zeigen, dass das CO2-Niveau, die Temperatur und der Meeresspiegel in der Vergangenheit schon höher gelegen haben. Während der letzten 1 Million Jahre hat der Planet durchweg von selbst zwischen Eis- und Warmzeiten hin und her gependelt, und zwar mit Änderungen bis zu einer Größenordnung von 8 bis 10°C. Heutzutage beträgt die Temperaturänderung hinsichtlich einer „globalen Erwärmung“, über die heute diskutiert wird, weniger als 1°C. Mit anderen Worten, eine Änderung um weniger als 10% der bekannten natürlichen Variabilität wird als CAGW gebrandmarkt. Noch verstörender: Änderungen in unserem Energie-Mix und unserer Energiestrategie wurden auf dieser Grundlage bereits durchgeführt.

Hinsichtlich der Politik zeigt Obiges, dass der Fall CAGW alles andere als in trockenen Tüchern ist. Im Gegenteil, immer mehr Beweise (wie oben ausgeführt) zeigen, dass die natürliche Variabilität viel größer ist als CAGW (anderenfalls gäbe es keinen Stillstand der globalen Temperaturen. Wie es so schön heißt, wenn man den Stillstand nicht erklären kann, weiß man auch nichts über die Ursache). Selbst dann noch haben Studien gezeigt, dass CAGW das zukünftige BIP um 2% senken könnte. Aber die politisch getriebenen Maßnahmen zu diesem Thema können zu einer Reduktion des BIP um 4% führen. Es ist eindeutig keine gute Idee, für die Heilung mehr auszugeben als die negative Auswirkung überhaupt kosten würde.

Best wishes,

Keith Martin

Dieser Artikel war zuerst auf der Website „Die Kalte Sonne“ hier erschienen. Übersetzung des Kommentars von Keith Martin von Chris Frey EIKE




Probleme mit statistischen Tests der Daten der atmosphärischen CO2-Konzentration in den Jahren vor 1958

Mit ein paar bemerkenswerten Ausnahmen sind die Schlussfolgerungen in nahezu allen Studien ähnlich derjenigen von Liu und Rodriguez (2005) aus ihrem Abstract:

Mit der Anwendung ökonometrischer Verfahren zur Auswahl von I(1) und I(2)-Trends fanden wir das Vorhandensein von statischen, langfristigen Steady-State- und dynamischen langfristigen Steady-State-Beziehungen zwischen Temperatur und Strahlungsantrieb durch die Sonneneinstrahlung sowie einen Satz von drei Treibhausgas-Reihen.

Vielen WUWT-Lesern werden die von mir angesprochenen Probleme der CO2-Daten vor 1958 kennen. Ziel dieses Essays ist es zu erklären, wie die Datenprobleme vieles der statistischen Forschung hinfällig machen, die hinsichtlich einer Beziehung zwischen atmosphärischen CO2-Konzentrationen und der globalen mittleren Temperatur durchgeführt worden sind. Ich vermute, dass viele der in diese Forschungen involvierten Ökonomen nicht in vollem Umfang die Natur der Daten ermessen können, mit denen sie umgegangen sind.

Die üblichen Quellen atmosphärischer CO2-Daten seit 1958 sind Messungen des Scripps Institute of Oceanography und der NOAA am Mauna Loa, der Antarktis und anderswo. Diese Daten wurden auf monatlicher Basis erstellt, manchmal häufiger, und stellen so ein gutes Niveau zeitlicher Genauigkeit her zum Vergleich der jährlichen mittleren CO2-Konzentrationen mit den globalen mittleren Temperaturen.

Unglücklicherweise gab es vor 1958 nur sporadisch direkte Messungen der atmosphärischen CO2-Konzentrationen. Ernst-Georg Beck sammelte viele der Daten vor 1958 und hat sie auf seiner Website veröffentlicht.

Die meisten Forscher, die die Beziehungen zwischen Treibhausgasen und Temperatur vor 1958 untersucht haben, griffen auf antarktische Eisbohrkerne zurück, die Etheridge et al. (1966) zur Verfügung gestellt hatten. Etheridge maß die CO2-Konzentration der im Bohrkern eingeschlossenen Luftbläschen, und zwar in drei Bohrkernen am Law Dome, die bis zu einer Tiefe von 200 bis 2000 Metern reichten.

Es gab viele veröffentlichte Studien durch verschiedene Forscher, die die CO2-Konzentrationen vor 1958 von Etheridge verwendet haben. Unter jüngeren statistischen Studien auf der Basis der Etheridge-Daten finden sich Liu & Rodriguez (2005), Kaufmann, Kauppi & Stock (2006a), Kaufman, Kauppi, & Stock (2006b), Kaufmann, Kauppi, & Stock (2010), Beenstock, Reingewertz, & Paldor (2012), Kaufmann, Kauppi, Mann, & Stock (2013) und Pretis & Hendry (2013). In jeder einzelnen dieser Studien werden die Etheridge-Daten vor 1958 so behandelt, als seien sie jährliche Angaben zu der atmosphärischen CO2-Konzentration.

Eine Untersuchung von Etheridges Studie enthüllt, dass die Daten nur 26 Messungen von Luftbläschen umfassen, genommen zu verschiedenen Zeiten in der relevanten Periode von 1850 bis 1957. Außerdem stellt Etheridge in seiner Studie eindeutig fest, dass die Luftbläschen aus den Eisbohrkernen ein Altersbereich haben, der mindesten 10 bis 15 Jahre umfasst. Man hat den zeitlichen Rahmen weiter vergrößert durch das Einpassen eines „Glättungsprofils“ mit einem Zeitfenster von 20 Jahren. So geschehen mit Daten aus zwei der Bohrkerne, um jährliche Schätzungen des atmosphärischen CO2 zu erhalten. Diese Jahresschätzungen, die die Grundlage bilden für die Daten von 1850 bis 1957 auf der GISS-Website, können brauchbar gewesen sein für jede Absicht, die Etheridge verfolgt hat, sind aber total ungeeignet für Tests statistischer Zeitreihen, die in den o. g. Studien durchgeführt worden waren. Die Ergebnisse der Tests mit den Daten vor 1958 sind fast mit Sicherheit falsch.

Details der Daten aus den Eisbohrkernen nach Etheridge et al. (1996)

Etheridge hat an der Stelle Law Dome in der Ostantarktis zwischen 1987 und 1993 drei Bohrkerne gezogen. Die Kerne wurden gekennzeichnet als DE08 (bis zu einer Tiefe von 234 Metern), DE08-2 (243 Meter) und DSS (1200 Meter). Dann nahmen sie sich die in den Bohrkernen in verschiedenen Tiefen eingeschlossenen Luftbläschen vor, um zu bestimmen, wie viel CO2 sich in der Atmosphäre befand zu verschiedenen Zeitpunkten in der Vergangenheit. Sie bestimmten das Alter des Eises und dann dasjenige der im Eis eingeschlossenen Luftbläschen. Etheridge schreibt:

Die vom Eis eingeschlossene Luft weist eine Alters-Spannbreite auf infolge diffuser Durchmischung und nur allmählichem Einschluss des Bläschens … Die Mehrheit der Luftbläschen findet sich bei größerer Dichte und Tiefe. Schwander und Stauffer (1984) stellten fest, dass etwa 80% aller Blaseneinschlüsse bei Firndichten zwischen 795 und 830 kg/m³ erfolgten. Messungen der Durchlässigkeit im DE08-2 zeigen eine Bandbreite von 790 und 825 kg/m³, was mit einer Dauer von 8 Jahren korrespondiert in den Bohrkernen DE08 und DE08-2 und etwa 21 Jahre bei DSS. Falls sich nach dem Einschluss keine Luft mehr in die Tiefe mischt, ergibt sich die Altersbandbreite hauptsächlich aus der Diffusion, geschätzt aus Diffusionsmodellen etwa 10 bis 15 Jahre. Falls sich eine kleine Menge Luft nach dem Einschluss in die Tiefe mischt, würde die Dauer des Einschluss der Blase eine größere Rolle spielen bei der Ausweitung der Altersbandbreite. Man kann unten sehen, dass allein durch Diffusion eine größere Altersbandbreite als erwartet erforderlich ist, um die beobachteten CO2-Differenzen zwischen den Bohrkernen zu erklären.

Mit anderen Worten, Etheridge ist sich nicht sicher hinsichtlich der genauen Datierung der Luftbläschen in den Bohrkernen. Der graduelle Einschluss der Luftbläschen hat eine Altersbandbreite von 8 Jahren verursacht bei den Bohrkernen DE08 und DE08-2, und Diffusion sorgte für eine Altersbandbreite zwischen 10 und 15 Jahren. Die Ergebnisse von Etheridge aus den Bohrkernen DE08 und DE08-2 folgen hier (aus ihrer Tabelle 4):

Etheridge Tabelle 4: Bohrkern DE08

Bohrkern DE08-2

Wegen der Problematik von diffuser Durchmischung und graduellem Einschluss der Luftbläschen zeigen alle diese Zahlen lediglich eine Schätzung der mittleren CO2-Konzentration über einen Zeitraum, der 15 Jahre oder länger sein kann. Falls die Verteilung des Alters der Luft symmetrisch um dieses mittlere Alter verteilt ist, kann der Schätzwert von 310,5 ppm aus dem Bohrkern DE08 für den Zeitpunkt 1938 auch Luft enthalten aus den Jahren 1930 bzw. 1946.

Etheridge kombinierte die Schätzungen aus den Bohrkernen DE08 und DE08-2 und passte eine 20-jährige Glättungskurve an die Daten an, um jährliche Schätzungen der CO2-Konzentrationen zu erhalten. Diese können hier betrachtet werden. Diese jährlichen Schätzungen, die tatsächlich gleitende Mittelwerte über 20 Jahre oder mehr sind, wurden von Dr. Makiko Sato verwendet, der damals für NASA-GISS gearbeitet hatte, um eine jährliche Zeitreihe der CO2-Konzentrationen zusammenzustellen für den Zeitraum von 1850 bis 1957. Dr. Sato nutzte direkte Messungen des CO2 vom Mauna Loa und anderswo für den Zeitraum von 1958 bis heute. Er bezieht sich auf die Eisbohrkern-Daten von Etheridge auf jener Website und fügt hinzu, dass sie „für ein globales Mittel adjustiert worden sind“. Einige der Studien, die sich auf die Daten der Website von GISS beziehen, findet man hier.

Ich habe Dr. Sato (der jetzt an der Columbia University tätig ist) eine E-Mail geschrieben und ihn gefragt, ob er die Zahlen aus der 20-jährigen Glättungskurve von Etheridge genommen hatte und was genau er gemacht hat, um die Werte für ein globales Mittel zu adjustieren. Er antwortete, dass er sich nicht daran erinnern könne, was er gemacht hatte, aber jetzt präsentiert er die gleichen Daten vor dem Jahr 1958 auf der Website der Columbia University hier.

Ich glaube, dass Dr. Satos Daten aus den Zahlen von der 20-jährigen Glättungskurve von Etheridge abgeleitet sind. Für jedes Jahr von 1850 bis 1957 liegen sie weniger als 1 ppm auseinander. Wegen der großen zeitlichen Ungenauigkeit der CO2-Schätzungen in den vom Eis eingeschlossenen Luftbläschen, die durch die Verwendung der 20-jährigen Glättungskurve noch verschlimmert wurde, haben wir nur grobe gleitende Mittelwert-Schätzungen der CO2-Konzentration in der Luft für jedes Jahr und eben keine präzisen jährlichen Schätzungen. Der Schätzwert von 311,3 ppm für das Jahr 1950, der auf den Websites von GISS und Columbia angegeben wird, kann beispielsweise Luft aus dem Jahr 1922 bzw. aus dem Jahr 1978 enthalten. Das Anpassen der Glättungskurve kann für die Ziele von Etheridge absolut akzeptabel sein, aber wie wir sehen werden, ist es vollständig inakzeptabel für die Verwendung in den zuvor erwähnten Tests statistischer Zeitreihen.

Empirische Studien, die die Etheridge’schen Eiskerndaten vor 1958 verwenden

Wie in der Einführung erklärt, gibt es eine Anzahl statistischer Studien, die versuchen, eine Relation zwischen Treibhausgasen und globaler mittlerer Temperatur herzustellen. Unter diesen Forschern befanden sich Klimatologen, Ökonomen und oftmals eine Mischung der beiden Gruppen.

Liu and Rodriguez (2005), Beenstock et al (2012) und Pretis & Hendry (2013) verwenden die jährlichen Daten aus der Etheridge’schen Glättungskurve für den Zeitraum von 1850 bis 1957 von der GISS-Website, wie sie von Sato für das globale Mittel adjustiert worden sind.

Kaufmann, Kauppi, & Stock (2006a), (2006b), and (2010) und Kaufmann, Kauppi, Mann, & Stock (2013) verwenden ebenfalls die Etheridge-Daten vor 1958 und ihre eigene Interpolationsmethode. Ihre Datenquelle für CO2 wird beschrieben im Anhang zu Stern & Kaufmann (2000):

Vor 1958 verwendeten wir Daten der Eisbohrkerne DE08 und DE08-2 aus Law Dome (Etheridge et al. 1996). Wir interpolierten die fehlenden Jahre mittels eines natürlichen kubischen Profils und Daten vom Mauna Loa aus zwei Jahren (Keeling und Whorf 1994), um einen Endpunkt zu nennen.

Die Forschungen von Liu und Rodriguez (2005), Beenstock et al (2012), Pretis & Hendry (2013) sowie die vier Studien von Kaufmann et al. verwenden ein Paar allgemeiner statistischer Methoden, die von Ökonomen entwickelt worden waren. Ihr erster Schritt war das Austesten von Treibhausgas-Zeitreihen einschließlich CO2 für Stationarität. Man nennt dies auch das Testen einer unit root [?], und es gibt eine Reihe von Tests zu diesem Zweck. Laut Kaufmann et al (2006a) lautet der mathematische Ausdruck für eine Zeitreihe mit einer Einheitswurzel (Unit Root):

        (1)

Dabei ist ɛ der Term des Zufalls-Fehlers [random error term], der Schocks oder Innovationen auf die Variable Y repräsentiert. Der Parameter λ ist gleich eins, falls die Zeitreihe eine Einheitswurzel aufweist. In solch einem Falle wird jeder Schock auf Y dauerhaft bleiben, und Y wird eine nicht stationäre Verteilung aufweisen. Falls λ kleiner als eins ist, werden die ɛ-Schocks eventuell verschwinden, und Y wird eine stationäre Verteilung aufweisen, die auf ein gegebenes Mittel zurückgreift, auf Varianz und anderes. Der von Kaufmann et al. (2006a) durchgeführte statistische Test ist ein erweiterter Dickey-Fuller-Test (ADF), der von Dickey und Fuller (1979) entwickelt worden ist und mit dem sie die folgende Regression jährlicher Zeitreihen-Daten von CO2 und Temperatur haben laufen lassen:

        (2)

Hierbei ist ∆ der erste Unterschieds-Operator, t ist ein linearer Zeittrend, ɛ ist ein Zufalls-Fehler-Term und γ = λ – 1. Der ADF-Test gilt für die Null-Hypothese, dass γ = 0 und daher λ = 1 ist, und Y ist eine nicht stationäre Variable mit einer Unit Root, ebenfalls als I(1) bezeichnet.

Es gibt noch viele andere Tests für Einheitswurzeln, die von vielen Forschern verwendet werden, darunter Phillips & Perron (1988), Kwiatkowski, Phillips, Schmidt, & Shin (1992) und Elliott, Rothenberg, & Stock (1996). Sie alle haben eines gemeinsam: eine Art der Regression einer Zeitreihen-Variablen auf verzögerte Werte derselben wie in Gleichung 2.

Eine Regression nach Art von Gleichung 2 kann ordentlich nur mit sich nicht überlappenden Daten durchgeführt werden. Wie zuvor erklärt, können die Eiskerndaten von Etheridge vor 1958 Luft von 20 Jahren vor bzw. nach dem gegebenen Zeitpunkt enthalten. Das Problem wird noch gravierender durch die Tatsache, dass sich Etheridge nicht sicher ist hinsichtlich der Stärke der Diffusion. Auch kennen wir nicht die Verteilung, wie viel Luft aus jedem Jahr sich in jedem Bläschen befindet. Folglich legen diese Forscher eine Regression nicht durch die jährlichen CO2-Konzentrationen aus der Vergangenheit (wie 1935 auf 1934, 1934 auf 1933 usw.), sondern durch einige Mittelwerte von 1914 bis 1954 auf 1913 auf 1953 und so weiter. Dies kann nur zu falschen Ergebnissen führen, weil der Test zumeist darin besteht, eine Regression der CO2-Daten für einen Zeitraum auf sich selbst durchzuführen.

Die zweite von den Forschern verwendete statistische Methode ist es, eine Integration der Treibhausgase (konvertiert zu Strahlungsantrieb) und den Temperaturdaten zu testen. Damit soll bestimmt werden, ob es eine Gleichgewichts-Beziehung zwischen Treibhausgasen und Temperatur gibt. Das Konzept der Integration wurde zuerst von Engle & Granger (1987) durchgeführt, um dem Problem der Erkennung einer Relation zwischen nicht stationären Variablen zu begegnen. Das traditionelle Verfahren kleinster Quadrate der Regression von nicht stationären Zeitreihen-Variablen führt oft zu falschen Ergebnissen. Integrationstests wurden erstmals mit makroökonomischen Zeitreihen-Daten durchgeführt wie das Bruttoinlandsprodukt, Geldmengen und Zinsraten.

In den meisten Studien werden die Strahlungsantriebe der verschiedenen Treibhausgase addiert und kombiniert mit Schätzungen der solaren Einstrahlung. Aerosole und Schwefel werden in einigen Studien auch berücksichtigt. Dann wird ein Test dieser Messungen durchgeführt, um zu bestimmen, ob sie mit jährlichen Temperaturdaten passend sind (wobei üblicherweise die jährlichen Mittelwerte der GISS-Zeitreihen Verwendung finden). Der Integrations-Test involviert das Auffinden eines linearen Vektors auf eine Weise, dass eine Kombination der nicht stationären Variablen mit diesem Vektor selbst stationär ist.

Ein Integrationstest kann nur gültig sein, falls die Datenserie ein hohes Maß zeitlicher Genauigkeit aufweist und auf geeignete Weise aufbereitet wird. Die Temperaturdaten weisen wahrscheinlich eine gute zeitliche Genauigkeit auf, aber die Etheridge’schen CO2-Daten vor 1958, aus denen die Daten des Strahlungsantriebs abgeleitet sind, sind gleitende Mittel über 20 Jahre oder mehr mit unbekannter Länge und Verteilung. Sie können nicht angemessen getestet werden auf eine Integration mit jährlichen Temperaturdaten, ohne falsche Ergebnisse zu liefern. Beispiel: Anstatt die CO2-Konzentration von 1935 mit der Temperatur von 1935 zu vergleichen, würde der Integrationstest einen Mittelwert der CO2-Konzentration über den Zeitraum 1915 bis 1955 mit der Temperatur von 1935 vergleichen.

Zur Verteidigung von Beenstock et al. (2012) muss gesagt werden, dass es das primäre Ziel ihrer Studie war zu zeigen, dass die CO2-Daten, die sie und die anderen Forscher als I(2) (zwei Unit Roots) ermittelten, nicht mit den I(1)-Temperaturdaten verglichen werden können, solange sie nicht polynomisch integriert werden. Sie behaupten nicht, eine Beziehung zu finden zwischen den CO2-Daten vor 1958 und den Temperaturreihen.

Schlussfolgerung von Kaufmann, Kauppi, & Stock (2006a) aus ihrem Abstract:

Regressionsergebnisse bieten direkte Beweise für eine statistisch bedeutsame Relation zwischen Strahlungsantrieb und globaler Temperatur. Ein einfaches, auf diesen Ergebnissen basierendes Modell zeigt, dass Treibhausgase und anthropogene Schwefelemissionen zum größten Teil verantwortlich sind für die Temperaturänderung der letzten 130 Jahre.

Die anderen in diesem Essay erwähnten Studien, außer Beenstock et al. (2012), kommen zu ähnlichen Ergebnissen. Wegen des geringen Niveaus der zeitlichen Genauigkeit der CO2-Daten vor 1958 können ihre Ergebnisse für diese Zeit nicht gültig sein. Der einzige angemessene Weg, mit diesen Daten zu arbeiten wäre es, eine obere Grenze der Zeit-Bandbreite festzulegen, die durch die Länge des Blaseneinschlusses und der Diffusion von Gasen durch das Eis bestimmt werden könnten. Beispiel: falls eine obere Grenze von 20 Jahren eingeführt werden könnte, dann könnten die Forscher eine mittlere CO2-Konzentration für sich nicht überlappende Zeiträume von 20 Jahren berechnen und dann die Unit Root- und Integrations-Tests durchführen. Unglücklicherweise würde der Zeitraum 1850 bis 1957 nur fünf vollständige 20-Jahres-Perioden umfassen. Eine so kleine Datenmenge ist nutzlos. Bis man eine Quelle findet, die CO2-Daten vor 1958 mit besserer zeitlicher Genauigkeit ermittelt, macht es keinen Sinn, Integrations-Tests mit Temperaturdaten für jenen Zeitraum durchzuführen. (Hervorhebungen von der Redaktion)

References

Beenstock, M., Y. Reingewertz, and N. Paldor (2012). Polynomial cointegration tests of anthropogenic impact on global warming. Earth Syst. Dynam., 3, 173–188.

Dickey, D. A. and Fuller, W. A.: 1979, ‘Distribution of the estimators for autoregressive time series with a unit root’, J. Am. Stat. Assoc. 74, 427–431.

Elliott, G., Rothenberg, T. J., and Stock, J. H.: Efficient tests for an autoregressive unit root, Econometrica, 64, 813–836, 1996.

Engle, R. F. and Granger, C. W. J.: Co-integration and error correction: representation, estimation and testing, Econometrica, 55, 251–276, 1987.

Etheridge, D. M., Steele, L. P., Langenfelds, L. P., and Francey, R. J.: 1996, ‘Natural and anthropogenic changes in atmospheric CO2 over the last 1000 years from air in Antarctic ice and firn’, J. Geophys. Res. 101, 4115–4128.

Kaufmann, R. K., Kauppi, H., Mann, M. L., and Stock, J. H.: Does temperature contain a stochastic trend: linking statistical results to physical mechanisms, Climatic Change, 118, 729–743, 2013.

Kaufmann, R., Kauppi, H., and Stock, J. H.: Emissions, concentrations and temperature: a time series analysis, Climatic Change, 77, 248–278, 2006a.

Kaufmann, R., Kauppi, H., and Stock J. H.: The relationship between radiative forcing and temperature: what do statistical analyses of the instrumental temperature record measure?, Climatic Change, 77, 279–289, 2006b.

Kaufmann, R., H. Kauppi, and J. H. Stock, (2010) Does temperature contain a

stochastic trend? Evaluating Conflicting Statistical Results, Climatic Change, 101, 395-405.

Kwiatkowski, D., Phillips, P. C. B., Schmidt, P., and Shin, Y.: Testing the null hypothesis of stationarity against the alternative of a unit root, J. Economet., 54, 159–178, 1992.

Liu, H. and G. Rodriguez (2006), Human activities and global warming: a cointegration analysis. Environmental Modelling & Software 20: 761 – 773.

Phillips, P. C. B. and Perron, P.: Testing for a unit root in time series regression, Biometrika, 75, 335–346, 1988.

Pretis, F. and D. F. Hendry (2013). Comment on “Polynomial cointegration tests of anthropogenic impact on global warming” by Beenstock et al. (2012) – some hazards in econometric modelling of climate change. Earth Syst. Dynam., 4, 375–384.

Stern, D. I., and R. K. Kaufmann, Detecting a global warming signal in hemispheric temperature series: A structural time series analysis, Clim. Change, 47, 411 –438, 2000.

Übersetzt von Chris Frey EIKE, der einige Fachbegriffe hier nicht verstanden und daher möglicherweise falsch übersetzt hat.




Zitat: „Die Parteien in Berlin unterscheiden sich bei der Energiewende nur durch die Grade ihres Irrsinns.“

von Alexander Wendt

Wenn niemand zuhört: Innenansichten über die Energiewende

Journalisten führen regelmäßig so genannte Gespräche „unter drei“. Der Code bedeutet: Was Politiker oder Chefs von Unternehmen und Organisationen dort sagen, darf nicht zitiert werden, auch nicht camoufliert. Also nicht einmal in der Form: „sagte ein Mitglied des Bundeskabinetts“. Wozu finden solche Gespräche dann überhaupt statt? Weil Amtsträger auch gern einmal aussprechen, was sie wirklich denken, was sie wiederum nur in einer geschützten Atmosphäre tun können, eben unter drei beziehungsweise unter vier Augen. Dem Gespräch wohnt also durchaus eine therapeutische Komponente inne. Die interessantesten, saftigsten und überraschendsten Äußerungen unter drei, die ich in den letzten zwei Jahren zu hören bekam, betrafen ausnahmslos die Energiewende. Natürlich würde ich sie liebend gern komplett zitieren. Das kann ich nicht, ohne den vertraulichen Modus zu verletzen. Einen kleinen Ausweg gibt es allerdings, gewissermaßen die Katzenklappe, durch die ein Journalist der Situation entschlüpfen kann, ohne zu viel preiszugeben. Fast alle großen Medien, „Spiegel“, „Zeit“ et al. praktizieren diese Notlösung irgendwann. Zu diesem Zweck verschleiern sie (und im Folgenden auch ich) die Identität der Zitatgeber bis zur Unkenntlichkeit. Nur an den Zitaten selbst ändert sich nichts. Es handelt sich hier also eher um eine soziologische Untersuchung zu der Frage, wie prominente und mächtige Zeitgenossen in Deutschland das Projekt Energiewende beurteilen, wenn keiner weiter zuhört.

1.    Ein Vorsitzender einer großen, einflussreichen Organisation, der öfters sowohl mit Angela Merkel als auch mit Sigmar Gabriel und etlichen Abgeordneten spricht:

„Die Parteien in Berlin unterscheiden sich bei der Energiewende nur durch die Grade ihres Irrsinns.“

2.    Ein Unionspolitiker, der einmal zu den Wichtigen in der Partei gehörte:

„Ich habe mit Angela Merkel oft über die Energiewende gestritten. Sie ist da stur bis zum ideologischen Starrsinn.“

3.    Ein führender Unionspolitiker: 

„Mit der Energiewende ist es wie mit einem Fuhrwerk, das in eine Sackgasse fährt. Da braucht man nicht hinterherzulaufen, denn das kommt genau dort wieder heraus, wo es eingebogen ist. Von Unterhaltungswert ist nur das Wendemanöver.“

4.    Ein Politiker, der sich mit Angela Merkels duzt:

„Haben Sie einen Ofen? Ich meine, einen Ofen, in den Sie richtig Holz verbrennen können? Nein? Ich habe einen Ofen, ein Grundstück, und Holzvorräte. Mir würde ein Blackout nichts ausmachen.“

5.    Ein gewichtiger Sozialdemokrat in Angela Merkels Kabinett:

„Die Energiewende steht kurz vor dem Aus. Die Wahrheit ist, dass wir auf fast allen Feldern die Komplexität der Energiewende unterschätzt haben. Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.“

Gut, in diesem Fall spricht nichts dagegen, den Urheber zu nennen: Bundesumweltminister Sigmar Gabriel. Bei einem Besuch eines Kasseler Solarunternehmens rutschte ihm die Bemerkung heraus, der Reporter einer lokalen Nachrichtenplattform sorgte für ihre Verbreitung. Gabriel dementierte nicht.

Mittlerweile muss er auch nicht mehr befürchten, mit seinem Urteil einsam dazustehen. Der Bundesrechnungshof veröffentlichte kürzlich einen regelrechten Verriss der Energiewende: Die Maßnahmen der Bundesregierung seien „unkoordiniert, uneinheitlich, redundant“. Den Ministerien bescheinigen die Rechnungsprüfer, dass ihnen „der umfassende Überblick über die von ihnen selbst eingeleiteten Maßnahmen fehlt“. Die Bundesnetzagentur wiederum weist darauf hin, dass der Bau von 1 860 Kilometern neuer Stromtrassen, die eigentlich bis 2015 den Windstrom in den Süden transportieren sollten, gelinde hinterherhinkt. Bis heute existieren davon gerade 300 Kilometer. Niemand braucht prognostische Fähigkeiten, um vorauszusehen: Auch bis 2020 steht das Leitungsnetz noch nicht, das eigentlich schon in einem halben Jahr gebraucht würde.

Der Plan wiederum, den in diesen Mengen weder benötigten noch transportierbaren Ökostromüberschuss zu speichern, zerbröselt unter den Augen der Bundesregierung. Ein Gutachten in Auftrag des Bundeswirtschaftsministeriums untersuchte kürzlich, ob sich unter den Bedingungen der Energiewende der Bau von Pumpspeicherwerken noch lohnt. Die klare Antwort: Nein. „Die ermittelten Deckungsbeiträge werden nicht zur Refinanzierung von Neuinvestitionen in Pumpspeicherwerke ausreichen,“ heißt es in dem Papier. Andere Speichertechniken wie synthetisches Methan oder Riesenbatterien befinden sich ohnehin noch im Versuchsstadium.

Was bedeutet es eigentlich, dass fast die gesamte wirtschaftliche und politische Elite weiß, dass sich das teuerste Projekt der deutschen Nachkriegsgeschichte zu einer fulminanten Katastrophe entwickelt, dass ihre Mitglieder aber gleichzeitig glauben, sie dürften die Erkenntnis nicht laut aussprechen? Normalerweise scheue ich den Gebrauch historischer Parallelen. Aber hier passt sie möglicherweise doch ins Bild. Ich hatte mich als Journalist in den vergangenen Jahren immer wieder mit ehemaligen DDR-Funktionären unterhalten. Darunter gab es durchaus kluge, reflektierte Leute. Sie versicherten mir ausnahmslos, dass sie den Zusammenbruch ihres Staates schon lange vor 1989 vorausgesehen hatten. Auf meine Frage, warum sie dann weiter mitgemacht hätten, zuckten sie mit den Schultern. Sie sagten, sie verstünden das mittlerweile selbst nicht mehr.

Mein Buch „Der grüne Blackout. Warum die Energiewende nicht funktionieren kann“ zeichnet in seiner Neuausgabe die Geschichte eines singulären Scheiterns gewissenmaßen in Echtzeit nach. Und es bilanziert die Schäden, in der Volkswirtschaft wie in der Natur. Das Buch zum Desaster gibt es seit dem 1. September endlich nicht nur als E-Book, sondern bei Amazon auch als aktualisiertes und stark erweitertes Taschenbuch mit 178 Seiten für 9,99 Euro. Das Taschenbuch besitzt einen unschlagbaren Vorteil: Man kann es lesen, und anschließend dem Politiker seiner Wahl ins Abgeordnetenbüro schicken.

Hier geht es zum Buch.




Menschenopfer für den „Klimaschutz“?

Das bisherige Kältemittel ist das weit verbreitete R134a; gemäß Sicherheitsdatenblatt ist es nicht brennbar. Es sei jedoch in besonderem Maße „klimaschädlich“, denn es habe nach IPCC Berechnungen (AR4-WG1-ch2, S.212, HFC-134a, 100yr) ein Treibhausgas Potential (Global Warming Potential, GWP) vom 1430fachen von CO2.

Nur mal nebenbei: nach Daten des Carbon Dioxide Information Analysis Center (US-DoE) ist in den letzten 2 Jahrzehnten global soviel CO2 emittiert worden, wie in den 4 Jahrzehnten Jahren davor, und in eben diesen letzten knapp 2 Jahrzehnten sehen wir keine Erhöhung der globalen Temperatur, die aber wegen des GWP von CO2 hätte gesehen werden müssen. Mithin wäre das GWP von CO2 gleich Null. Und wieviel wäre das 1430fache von Null?

Aber ignorieren wir an dieser Stelle solche kleinen Ärgernisse durch falsche Theorien und Computermodelle.

Die EU hat 2006 eine Richtlinie erlassen, dass Fahrzeuge, deren Typgenehmigung nach dem 1.1.2011 erteilt wird, mit einem Kältemittel ausgestattet sein müssen, dessen „GWP-Wert 150 nicht übersteigt“. Ab 2017 müssen alle Neuwagen mit einem solchen Kältemittel ausgestattet sein. Anfangs war noch CO2 als Kältemittel im Gespräch, aber schließlich einigte man sich auf das neue Mittel R1234yf. (Spiegel).

Vermutlich war das neue Mittel attraktiver als die Alternativen, weil man damit keine oder nur geringe Änderungen an der Klimaanlage benötigte. Hingegen hätte der Umstieg auf CO2 als Kühlmittel eine Neukonstruktion erforderlich gemacht, die, wie vom Automobilprofessor Ferdinand Dudenhöffer geschätzt, pro Fahrzeug 100€ Mehrkosten verursacht hätte, und wegen der Entwicklungszeit eine Verzögerung von zwei Jahren zur Folge gehabt hätte.
Das neue Mittel wird von dem amerikanischen Joint Venture aus Honeywell und Dupont hergestellt. Beides sind internationale Großkonzerne, und auch stark in der Chemie tätig.
Sie halten Patente auf die Herstellung dieses Mittels. Eine kurze Google-Patent Recherche zeigt mindestens zwei Patente, US8071826 B2 mit Prioritätsdatum 4. Apr. 2008, und Patent US20120172638 A1 mit Prioritätsdatum 2010. Dies sind Verfahrenspatente, und somit zwar nicht so stark wie ein Stoffpatent, aber man sieht schnell, dass diese beiden Anmeldungen von einem Schwarm internationaler Anmeldungen umgeben sind. Man kann getrost davon ausgehen, dass solche Konzerne auch das Patenthandwerk gut verstehen, und für ausreichend Schutz gesorgt haben.

Mit einem Prioritätsdatum 2010 ergeben sich selbst ab heute noch immer komfortable mindestens 16 Jahre Patentschutz! Davon können Firmen normalerweise nur träumen.

In dieser Zeit ist ihnen gesetzlich garantiert, das alleinige Recht auf Herstellung und Verkauf zu haben. Und somit den Preis auch nach ihrem Ermessen festsetzen zu können. Das ist die vielgerühmte Lizenz zum Gelddrucken, wie auch Dudenhöffer feststellt.

Prompt gibt es auch eine Klage eines konkurrierenden Herstellers, dass ihm keine ‘fair and reasonable’ Herstellungslizenz gewährt wurde, und die EU untersucht nun.

Obwohl sich die Auto Hersteller anfangs mit der EU einig waren, dieses neue Mittel einzusetzen, scherte Mercedes plötzlich aus, und rief sogar seine bereits mit dem neuen Mittel ausgelieferten Autos zurück, um das alte Mittel wieder einzufüllen.

Was war geschehen?

In diversen Prüfungen und Crashversuchen hat Mercedes einen Brand des neuen Mittels beobachtet, und sie haben dabei die Bildung von Fluss-Säure festgestellt.

Das sollte eigentlich nicht überraschend sein, denn aus z.B. der Gestis Stoffdatenbank für das neue Mittel kann man klar entnehmen, dass es folgende Eigenschaft hat: „Extrem entzündbares Gas. Bildet mit Luft explosive Gemische.“ und weiter: „Persönliche Schutzausrüstung bei der Brandbekämpfung: Achtung! Gefährliche Zersetzungsprodukte können entstehen. Fluorwasserstoff“. Eine wässrige Lösung von Fluorwasserstoff ist als Flusssäure bekannt, und deren Gefahreneigenschaften haben es in sich. (Gestis Stoffdatenbank, Wikipedia)
Starke Säuren wie Salzsäure und Schwefelsäure können starke Verätzungen herbeiführen, aber wenn man sie abgewaschen hat, ist die weitere Gefahr abgewendet. Flusssäure hingegen dringt in die Haut ein, kann NICHT durch Abwaschen entfernt werden, und führt selbst bei kleinflächigen Kontakt zum Tode. Wikipedia beschreibt das (Auszug):

Flusssäure ist ein starkes Kontaktgift; Sie wird sofort von der Haut resorbiert. Dadurch ist eine Verätzung tieferer Gewebeschichten und sogar der Knochen möglich, ohne dass die Haut äußerlich sichtbar verletzt ist. …

Eine handtellergroße Verätzung durch 40-%-ige Flusssäure ist in aller Regel tödlich. Im schlimmsten Fall müssen die Gliedmaßen oder ein großer Teil davon aufgrund der tödlichen Wirkung von Flusssäure amputiert werden. …

Flusssäure führt zu akut bedrohlichen Stoffwechselstörungen, die unter multiplem Organversagen tödlich verlaufen können. Flusssäure schädigt auch das Nervensystem.

Mercedes weigert sich weiterhin mit Nachdruck gegen den Einsatz des neuen Mittels, da der Stoff zu gefährlich sei für den Einsatz im Automobil. Andere Hersteller wurden plötzlich sehr einsilbig, wenn sie nach dem Einsatz des neuen Mittels gefragt wurden. Einige lieferten Autos mit dem neuen Mittel aus, setzten in den späteren Produktionschargen aber wieder das alte Mittel ein. Angeblich wegen Produktionsengpässen des neuen Mittels. (hier, hier, hier, hier)

Die EU Kommission sieht kein Problem und zweifelt an der Qualität der Mercedes Autos: ‚das von Mercedes angeführte Brandrisiko sei nicht erwiesen oder rühre von der Konstruktion der Klimaanlage her: "Wahrscheinlich ist es nicht das Kühlmittel selbst", verlautete aus der Behörde. "Es ist kein allgemeines Problem."‘

Es ist also unstrittig, dass das neue Mittel hochentzündlich ist, und das es zur Flusssäure Bildung kommen kann, und dass diese in hohem Maße lebensgefährlich ist. Aber anstatt vorbeugend darauf zu verzichten, neue Gefahren in Autos einzubauen, wird Mercedes der Dummheit bezichtigt.

Frankreich wollte die Gunst der Stunde nutzen, und Mercedes den Verkauf seiner Fahrzeuge verbieten. Es wär doch zu schön, sich per staatlicher Anordnung einen Konkurrenten für die eigene, darbende Autoindustrie vom Leibe halten zu können – aber inzwischen hat ein französisches Gericht das französische Verbot verboten.

Einige Tricks mussten aber zuvor angewendet werden, damit den betroffenen Fahrzeugen nicht, wie ursprünglich erfolgt, eine neue Typgenehmigung zugeordnet wurde, sondern eine von noch vor dem Stichtag in 2011, sodass diese nach EU Vorgaben bis 2017 weiter mit dem alten Mittel befüllt werden konnten. Mercedes will nun bis dahin eine CO2 gefüllte Klimaanlage in seinen Autos anbieten.

Dudenhöffer findet was eigentlich offensichtlich sein sollte, nämlich dass „Menschenleben nicht für 100€ Mehrpreis [für eine CO2 basierende Klimaanlage] pro gekühltem Neuwagen aufs Spiel gesetzt werden dürfen“, und – man staune – selbst Greenpeace stellt sich auf die Seite von Mercedes und sagt, dass das Kühlmittel "vollkommen unkalkulierbar in seinen Umweltauswirkungen [sei]“, und ist "froh, dass Daimler den Mumm hatte, der Nachfolgegeneration von FCKW-Mitteln einen Riegel vorzuschieben." (Spiegel)

Wer nach dieser Groteske ein klein wenig besorgt ist, und sich fragt, welche Autos man dann noch kaufen kann, findet nicht unbedingt freigiebige Informationen der Hersteller. Im Spiegel liest man letztes Jahr verschwurbelte Antworten. Aber bemerkenswerterweise hat die Partei Die Linke eine Liste Stand April 2014, und der ACE (Auto Club Europa) hat eine solche Liste Stand Juni 2014 veröffentlicht. Der ADAC hält sich eher zurück, und „empfiehlt“ CO2 basierte Klimaanlagen.

Nur der VW Konzern und Mercedes fehlen in beiden Listen, jedoch scheint VW jetzt umgeschwenkt zu sein, wie soeben Der Spiegel meldet.

Klimaschutz erfordert halt Opfer. Bisher sind es Vögel und Fledermäuse, die in Windanlagen geschreddert werden, oder die beim Durchfliegen der konzentrierten Sonnenstrahlung von Solar-thermischen Anlagen in Flammen aufgehen und verbrannt abstürzen – was zu der neuen Wortschöpfung „Streamer“ führte, weil die Vögel beim Abstürzen eine Rauchfahne hinter sich herziehen.

Nun haben die Hohenpriester der EU eben Menschenopfer wenn auch nicht direkt vorgeschrieben aber billigend in Kauf genommen. Die alten Mayas haben bei Wetterproblemen schließlich auch Menschenopfer gebracht.

Man darf gespannt sein, wann in den USA eine erste Class-Action Klage als Folge von Autounfällen mit Flusssäure-Verletzung kommen. Da die Autohersteller das Risiko kannten, oder hätten kennen müssen, dürften die Strafen besonders drastisch ausfallen („punitive damages“). In der Folge dürften dann Auto-Rückrufe erfolgen, die angesichts der Fertigungskapazitäten der Automobilhersteller von jährlich etwa 60 Millionen Fahrzeugen hunderte Millionen Fahrzeuge betreffen würden.

Denken Sie daran, rechtzeitig Ihre Auto Aktien zu verkaufen!

P.S. Heute kommt die Meldung, dass die EU nach Butterbergen, Milchseen, Gurken, Glühbirnen, Olivenöl-Kännchen, Duschköpfen, Staubsaugern, nun auch noch „Heizungen für Schwimmbecken, Wasserkocher, Zubehör für Aquarien, Sandstrahlreiniger und Küchengeräte“ regulieren will. Wasserkocher! Gewiss wird der 1. Hauptsatz der Thermodynamik auch neu reguliert.




Fehlende Wärme‘ im Atlantik – so funktioniert das nicht

Der Stillstand des globalen Temperaturanstiegs könnte zu einem Glaubensverlust an die globale Erwärmung führen. Darum sind die Priester der AGW-Bewegung in Zugzwang, eine Erklärung anzubieten. Die Erklärung, mit der sie aufwarten, lautet, dass die fehlende Wärme in den Tiefen des Atlantiks versteckt ist und eines Tages freigesetzt wird, zu einem Zeitpunkt, zu dem wir das am Wenigsten erwarten. Die folgende Illustration soll ihre Erklärung verdeutlichen:

[Das Bild stand so offenbar unvollständig auch im Original! Anm.d. Übers.]

Die Abbildung zeigt Wärme, die bis in eine Tiefe von 1500 Meter abtaucht. Die Ozeane funktionieren so aber nicht. Die meiste Energie aus Sonnenlicht wird in den obersten paar Zentimetern der Ozeanoberfläche absorbiert. Wellen durchmischen das Wasser nahe der Oberflächenschicht so, dass die Temperatur in den oberen 100 Metern relativ gleichmäßig ist. Darunter gibt es fast keine Durchmischung und keine vertikalen Wasserbewegungen.

An dieser Stelle ist das CDIAC bequem zur Stelle. Es folgt eine Karte der CDIAC-Bewegungen im Atlantischen Ozean:


Und dies ist das Temperaturprofil von A16 aus etwa 60°N nahe Island, eine Distanz über 13.000 km:

Es zeigt, dass die Antarktis ein gigantischer Kühlschrank für den Planeten ist. Kaltes Wasser mit einer Temperatur unter 1°C (dunkelblau unten links) sinkt nahe der Antarktis ab und sammelt sich in der Tiefsee bis zum Äquator. Natürlich zeichnen die CDIAC-Fahrten auch CO2-Daten auf. Hier folgt das Kohlendioxid- und das Gesamt-Alkalinitäts-Profil für A20, westlich der A16-Fahrt:

Wieder zeigt sich die größte Variation nahe der Oberfläche, während die Verhältnisse im Großteil des Ozeans effektiv homogen sind.

Wir brauchen die CDIAC-Daten nicht, um Behauptungen hinsichtlich der fehlenden Wärme in der Tiefsee zu widerlegen, aber es ist gut, empirische Daten zu haben. Das CDIAC hat sein Verfallsdatum jedoch deutlich überschritten. Unabhängig von den überflüssigen Kosten war es erdacht worden für ein düsteres Ziel unter Präsident Carter. Die USA werden schon bald alle Energie brauchen, die sie bekommen können.

————————————–

David Archibald, a Visiting Fellow at the Institute of World Politics in Washington, D.C., is the author of Twilight of Abundance: Why Life in the 21st Century Will Be Nasty, Brutish, and Short (Regnery, 2014).

Reference:

Science 22 August 2014: Vol. 345 no. 6199 pp. 860-861 DOI: 10.1126/science.345.6199.860

————————————–

Versteckt sich die fehlende Wärme der Erde im Atlantik?

Eli Kintisch

Schreibtisch-Detektive könnten es als den Fall „fehlende Wärme der Erde“ bezeichnen. Warum sind die globalen Lufttemperaturen seit der Jahrtausendwende im Wesentlichen unverändert geblieben, obwohl sich weiterhin Treibhausgase in der Atmosphäre akkumuliert haben? Unter den Verdächtigen finden sich Änderungen des atmosphärischen Wasserdampfgehaltes, einem starken Treibhausgas, oder der schädliche Schatten des aus Fabrikschornsteinen entweichenden Staubes. Andere glauben, dass der mächtige Pazifische Ozean der Schuldige ist, der große Schwaden kalten Tiefenwassers an die Oberfläche geschickt hat. Zwei brandneue Untersuchungen haben einen neuen Verdächtigen ausgemacht: den Atlantischen Ozean. Eine Studie in dieser Ausgabe von Science präsentiert Daten der Wassertemperatur, die implizieren, dass das Meiste der fehlenden Wärme tief im Atlantik gespeichert ist. Die andere Studie, veröffentlicht online in Nature Climate Change, zeigt, dass ein sich erwärmender Atlantik dem Pazifik Vorschub leistet, indem er Strömungslagen treibt, die dem Ozean helfen, die Atmosphäre zu kühlen. Aber einige Klimaspezialisten bleiben skeptisch. In einer dritten Studie aus jüngster Zeit, ebenfalls online veröffentlicht bei Nature Climate Change, argumentieren andere Forscher, dass der Pazifik die Nummer eins bleibt. Ein Grund für deren Annahme, dass der Pazifik hinter dem Stillstand steckt, ist eine gemessene Beschleunigung der Passatwinde, die zu einem massiven Aufquellen kalten Tiefenwassers im Ostpazifik führen. Aber auch hierfür kann der Atlantik verantwortlich sein, wie Modellexperimente zeigen. Ein Konsens über den wirklichen Grund des Stillstandes kann noch Jahre auf sich warten lassen, aber ein Wissenschaftler sagt, dass die jüngsten Studien bestätigen, dass sich die Erwärmung während des Stillstands fortgesetzt hat, zumindest in der Tiefsee, wenn schon nicht in der Luft.

Link: http://wattsupwiththat.com/2014/08/24/missing-heat-in-the-atlantic-it-doesnt-work-like-that/

Übersetzt von Chris Frey EIKE




Was für eine Schmach für die Klimaschützer

Das mag eine Zeitlang gutgehen, aber irgendwann werden diese Arbeitsplatzbesitzer sehen, wo überall und wieviele Sandhaufen von A nach B geschaufelt werden und dass es immer mehr werden. Anfangs haben sie sich gesagt, dieses Schaufeln ist zwar Blödsinn, aber dann sind die Arbeitslosen wenigstens beschäftigt und weg von der Straße. Nun merken sie, dass ihnen die Regierung für das Schaufeln immer mehr Geld abverlangt und sie immer weniger Geld zum Leben haben. Das finden Ihre Frauen und Kinder gar nicht schön und sie selbst ebenfalls nicht. Also protestieren sie, machen Demos und wählen die Regierung ab. Blödsinn darf zwar sein, sagen sie, aber nicht zwangsweise bezahlt werden von uns. Und damit sind wir bei Deutschlands Energiewende. Die nämlich funktioniert so ähnlich.

Obwohl unzuverlässig und zu teuer: Es wird gemacht

Energiewende in Deutschland heißt bekanntlich: Weg vom Strom aus fossilen Energierohstoffen und hin zum Strom aus den alternativen Energien Wind, Sonnenschein und Pflanzenmasse (zum Beispiel Vergärung von Mais zu „Biogas“). Weil die Vernunft sagt, dass dies – umfassend und vielfältig auch belegt – Blödsinn ist, würde sich aus freien Stücken niemand darauf einlassen, denn dieser Alternativ-Strom („Ökostrom“) ist zu teuer, ist unzuverlässig, ist instabil und folglich nicht wettbewerbsfähig. Aber die maßgeblichen Politiker wollen mehr Arbeitsplätze schaffen und mehr Wirtschaftswachstum. Also verordnen sie für den Alternativ-Strom einen Abnahmezwang und einen Zwangsabnahmepreis.

Die Erfahrungen aus der Agrarpolitik

Wir kennen das aus der Agrarpolitik, um landwirtschaftliche Arbeitsplätze zu erhalten. Wir wissen, das ging in die Hose, denn die Folge war eine Überschussproduktion an Milch, Butter, Magermilchpulver, Weizen, Zuckerrüben … Nicht anders ist das heute beim Alternativ-Strom: Wer sich um den Absatz und den Preis nicht sorgen muss, produziert auf Deubel komm raus. Die Windkraft-, Fotovoltaik- und Biogasanlagen schießen in die Höhe und in die Breite. Bei viel Sonnenschein und gleichzeitig viel Wind werden wir mit Mengen an Strom überschüttet, der die Nachfrage bei weitem übersteigt. Sehen kann man diese Stromüberschüsse nicht. Die Butterberge von einst konnten die Menschen zwar ebenfalls nicht sehen, denn die lagerten in Kühlhäusern. Aber die Alternativ-Stromanlagen sind auf Wiesen, Feldern und Bergen von jedermann weithin zu sehen und ruinieren dort das Landschaftsbild. Obendrein ruinieren Windkraftanlagen noch einiges von der fliegenden Tierwelt.

Was die Politiker erstens unterschlagen und zweitens nicht kennen

Damit die Menschen dies nicht als offenkundig pervers brandmarken und wegfegen, greifen die Politiker zur Angstmache. Sie sagen: Das Verbrennen fossiler Energierohstoffe zur Stromerzeugung setzt CO2 frei (was zutrifft), dieses menschenverursachte (anthropogene) Kohlendioxid heizt das Erdklima auf (was zumindest zweifelhaft ist), und das müssen wir verhindern. Deshalb soll das, was an sich Blödsinn ist, sein dürfen, man müsse ihn in Kauf nehmen. Aber erstens unterschlagen die Politiker dabei, dass mehr CO2 das Pflanzenwachstum fördert und für die Menschen die Nahrungsmittelversorgung verbessert, also willkommen sein muss. Und zweitens kennen sie – wie die meisten Menschen – das Kosten-Energie-Äquivalenz-Gesetz (KEÄG) nicht.

Ohne fossile Energie kein „Ökostrom“

Nach diesem physikalischen Gesetz (formuliert von Dr. Heinz Schütte hier) resultieren alle Kosten letztlich aus Kosten für Primär-Energie, alle Kosten sind letztlich Energiekosten. Aber die Träger von Primär-Energie sind global nach wie vor und auf sehr lange Zeit weiterhin zu mehr als 90 Prozent die CO2-haltigen fossilen Energierohstoffe Kohle, Erdöl und Erdgas. Damit bestehen die heutigen globalen Kosten zu über 90 Prozent aus dem Verbrauch von Kohle, Öl und Gas. Folglich resultieren auch die Kosten für Strom aus sämtlichen Alternativ-Stromanlagen ebenfalls zu über 90 Prozent aus dem Verbrauch dieser drei fossilen Energieträger. Sie repräsentieren diejenige Energie (nämlich Kohle, Öl und Gas), die zur Herstellung des Alternativ-Stroms benötigt wurde. Also ohne fossile Energie auch kein „Ökostrom“.

Mit Windkraft- und Solarstrom mehr CO2 als mit Kohlestrom

Da aber die Stromerzeugung mit Wind 3-mal so viel kostet wie die mit Braunkohle und die mit Sonnenschein sogar 7-mal so viel (hier), bedeutet das in der Schlussfolgerung, dass Windkraftstrom demnach das 3-fache und Fotovoltaik-Strom das 7-fache an Kohle, Öl oder Gas verbraucht, als ein Braunkohlekraftwerk benötigt. Dementsprechend beträgt dann aber auch die CO2-Emission bei Windkraftanlagen das 3-fache und bei Fotovoltaik-Anlagen das 7-fache der CO2-Emissionen eines Braunkohlekraftwerks. Würde also das Klima wirklich durch Reduktion von CO2 „geschützt“ werden, so erreicht die Umstellung auf die Alternativ-Energien exakt das Gegenteil dessen, was sie bezwecken soll.

Also nicht die Kohlkraftwerke abschalten, sondern die Wind- und Solarstromanlagen

Und was folgt daraus für die „Klimaschutzpolitik“? Wenn der CO2-Ausstoß verringert werden soll, um (vorgeblich) die Erderwärmung zu stoppen und das Klima zu „schützen“, dann müssen als erstes sämtliche „Ökostrom“-Anlagen abgeschaltet werden, aber auf keinen Fall die Braunkohle-Kraftwerke. Denn die wahren „Dreckschleudern“ sind nach dem Kosten-Energie-Äquivalenz-Gesetz nicht sie, sondern Windkraft & Co. Das jedenfalls ist folgerichtig und zwingend, wenn man unterstellt, CO2 sei wirklich ein „Klimakiller“. Weitere Erläuterungen hier.

Selbst wenn Kohle, Öl und Gas sehr teuer würden ….

Es hilft den Klimaschutzpolitikern auch nicht, wenn sie glauben machen wollen, mit der Zeit würden die Kosten für Kohle, Öl und Gas steigen und die Kostenstruktur zugunsten der dann kostengünstigeren Alternativ-Strom-Anlagen allmählich umkehren. Das nämlich ist ein gedanklicher Irrtum, denn auch in absehbarer Zukunft wird der Löwenanteil der benötigten Primär-Energie global weiterhin aus Kohle, Öl und Gas bestehen und auch sehr, sehr lange zur Verfügung stehen (hier). Wenn also die Kosten für diese fossilen Energieträger steigen, dann werden sich, weil das KEÄG gilt, zwangsläufig auch die Kosten für die alternativen Energien Wind und Fotovoltaik erhöhen. Sie bleiben 3- bis 7mal so hoch. Je teurer also fossile Energie, desto teurer auch der „Ökostrom“.

Mit CO2-Emissionszertifikaten erreicht man das Gegenteil ihres Zwecks

Deshalb bringt es auch nichts, wenn der Staat diejenigen Unternehmen, die ihre Produkte mit Strom aus fossiler Energie herstellen, durch den Zwangserwerb von CO2-Emissionsrechten mit (vermeintlich) externen CO2-Kosten belastet und so die internen Kosten dieser Unternehmen erhöht. Weil nämlich sämtliche Kosten letztlich Energiekosten sind (KEÄG!), wird ihre Produktion nicht dadurch CO2-frei, dass sie, um die Kosten für den Kauf von CO2-Zertifikaten zu sparen, künftig mehr und mehr mit Strom aus Wind und Sonnenschein ihre Produkte herstellen. Im Gegenteil, Wind- und Solarstrom wirken dann daran mit, dass sogar mehr CO2 emittiert wird. Die Klimaschutzpolitik konterkariert sich sozusagen selbst.

Überzeugte Klimaschützer müssten jetzt in tiefe Selbstzweifel fallen

Dies feststellen, ist völlig unabhängig davon, ob man vom Glauben, dass anthropogenes CO2 zu verhindern und das Klima zu schützen sei, überzeugt ist oder ob nicht. Die Feststellung ist also neutral. Folglich muss sie die Klimaschützer in tiefe Selbstzweifel stürzen und zu einer reumütigen Hinwendung zur Stromerzeugung aus fossilen Energieträgern veranlassen. Geschieht das nicht, ist es ein Beleg dafür, dass ihr wirkliches Ziel jedenfalls nicht der Klimaschutz sein kann.

Wenn Fakten der Illusion widersprechen

Fakten, die einem nicht passen und über die man nicht nachdenken will, schiebt man gerne weg, verdrängt oder unterdrückt sie. Werden Menschen zu einer Illusion mit Fakten konfrontiert, die dem, was sie bisher glauben, widersprechen, dann lehnen sie Informationen darüber meist ab. Sie mögen nicht mit einer Illusion in Konflikt geraten, die dem Mainstream entspricht oder die sie sich selbst zurechtgelegt haben. Die Psychologen nennen das Cognitive Dissonanz, das heißt, man versucht, von irgendwoher Antworten zu bekommen, die das, was man glaubt, bestätigen. In dieser Gefahr befindet sich wohl jeder, und ich selbst will mich davon nicht ausnehmen. Daher sind etwaige Widerlegungen, kritische Anmerkungen oder ergänzende Hinweise willkommen.

Wie schmachvoll

Zurück zum Sandschaufeln. Wenn Politiker und betörte Menschen glauben, mit Wind und Sonnenschein Strom erzeugen zu müssen, weil sich mit weniger CO2 das Klima schützen lasse, dann ist das ein vergleichbarer Unsinn wie das subventionierte Hin- und Zurückschaufeln von Sand; es bringt nichts, es führt zu nichts. Schlimmer noch: Durch Wind- und Sonnenstrom entsteht nicht weniger CO2, sondern mehr davon. Das bedeutet in der Denkweise der Klimaschützer folgerichtig, dass sie die Erde aufheizen, obwohl sie vorgeben, eben dies verhindern zu wollen. Wie schmachvoll.

Noch eine Schmach: Arbeitsplätze werden vernichtet

Aber das ist noch nicht die ganze Schmach. Die Politiker wollen mit ihrer alternativen Stromerzeugung doch auch das Wirtschaftswachstum ankurbeln (oder wenigstens verstetigen) und Arbeitsplätze schaffen. Gewiss ein edles Ziel. Aber subventionierte Arbeitsplätze sind stets gefährdete und damit unsichere Arbeitsplätze. Subventionen machen unvorsichtig, schläfern ein, Konkurse sind die Folge, und Arbeitsplätze sind weg. Außerdem zerstören Subventionen andere, nicht subventionierte Arbeitsplätze. Zu sehen ist das in Deutschlands stromintensiven Branchen. Der Alternativ-Strom ist zu teuer und nicht zuverlässig genug, und die Unternehmen rücken ab ins Ausland, das die deutschen Eskapaden so nicht mitmacht. Für die Politiker und ihre subventionierte Gefolgschaft ist das freilich nur schmachvoll, für die Menschen, die sie als Spielmasse benutzen, tiefer Sturz ins Leid.

Wohin staatliche Eingriffe in die Wirtschaft stets führen

Es ist, wie es immer war und immer sein wird – jetzt auf dem deutschen Markt für Strom: Die staatliche Intervention läuft ab wie im Lehrbuch des einstigen Ökonomieprofessors Ludwig von Mises. Jeder staatliche Eingriff erzwingt einen weiteren. Es treten Folgen und Fehlentwicklungen ein, die die Politiker nicht bedacht haben oder nicht bedenken wollten. So macht die erste Regelung die nächste notwendig und diese erzwingt wieder weitere. Zwangsläufig entsteht ein Regulierungsdickicht, alles wird konfuser, unübersichtlicher, bürokratischer … bis alles platzt und die Rückbesinnung unausweichlich macht. Bis dahin ist unnötig viel Geld ausgegeben (das Steuerzahler und Verbraucher haben aufbringen müssen), hat unnötig und kostspielig viel Arbeitskraft gebunden, die anderswo produktiv hätte eingesetzt werden können, hat unnötig und kostspielig zu Fehllenkungen von Geld- und Sachkapital geführt, das in anderen Verwendungen nutzbringender gewesen wäre.

Der Klimaschutzwahn ist auch ein verkapptes Konjunkturprogramm

Die staatlichen Eingriffe in den Markt für elektrische Energie mit dem gesamtwirtschaftlich ruinösen Subventionieren von Alternativ-Strom ist auch ein verkapptes Konjunkturprogramm. Aber Konjunkturprogramme unterbinden, dass sich Wirtschaftszweige und Unternehmen konsolidieren, dass im Wirtschaftsablauf Stetigkeit einkehrt, dass sich in wirtschaftlichen Schwächephasen Selbstheilungskräfte entwickeln. Ohnehin sind Konjunkturprogramme immer nur Strohfeuer. Sie lodern schnell auf, dann ist das Stroh nur noch Asche. Neues Stroh wird herbeigeschafft. Und es endet wie stets: Die Bürger müssen mit ihrem Geld für alles bluten. Zur Schädlichkeit von Subventionen und wie sie sich abschaffen ließen hier.

Der Beitrag erschien zuerst in Klaus Peter Krauses Blog hier