1

Die UN-Umfrage-Wiederbelebung

Bessere Arbeitsplatz-Chancen

Keine Diskriminierung und Verfolgung

Maßnahmen bzgl. des Klimawandels

Unterstützung für Menschen, die nicht arbeitsfähig sind

Zugang zu sauberem Wasser und sanitäre Anlagen

Schutz von Wäldern, Flüssen und Ozeanen

Zuverlässige Energieversorgung zu Hause

Bezahlbare und gesunde Nahrungsmittel

Eine ehrliche und offene Regierung

Gute Bildung

Gleichheit zwischen Männern und Frauen

Telefon und Internet-Zugang

Politische Freiheiten

Bessere Transportbedingungen und gute Straßen

Schutz vor Kriminalität und Gewalt

Bessere Gesundheitsfürsorge

Zum Zeitpunkt meines letzten Beitrages rangierte der Klimawandel abgeschlagen an letzter Stelle. Vor ein paar Tagen habe ich noch einmal nachgeschaut. Die Umfrage ist immer noch im Gange, man kann dort klicken und abstimmen, falls man will. Inzwischen gibt es über neun Millionen Antworten … und jawohl, Klimawandel rangiert immer noch unter ,ferner liefen‘, selbst noch gegenüber dem Themenbereich auf dem vorletzten Platz:

Abbildung 1: Ergebnisse der UN-Umfrage, alle gesellschaftlichen Gruppen.

Da habe ich mich entschlossen, ein wenig tiefer in diese Daten einzutauchen. Ich begann mit einem Blick auf die Unterschiede zwischen Männern und Frauen bzgl. der oben gelisteten Themenbereiche:

Abbildung 2: Unterschiede zwischen Männern und Frauen. Die Werte zeigen die Prozentzahl der Antwortenden, die das jeweilige Thema als ihre Wahl unter den sechs Auswahlmöglichkeiten nannten. Die Linien verbinden die Prozentzahlen von Männern bzw. Frauen zum gleichen Thema und sind nur am oberen Ende beschriftet. Blaue Beschriftungen und Linien zeigen Themen, die Frauen wichtiger fanden als Männer, während rote Dinge von den Männern als wichtiger erachtet wurden. Die Enden der farbigen Linien zeigen die Prozentwerte für Frauen (linke Enden) und Männer (rechte Enden).

Die oberen drei Ergebnisse sind interessant, weil sie beiden Gruppen gemeinsam sind. Man erkennt, dass Männer mehr Gewicht auf Arbeitsplätze legen und Frauen mehr Gewicht auf Gesundheitsfürsorge und Bildung. Wie jedoch Abbildung 1 zeigt, stehen diese drei weit vor allen anderen Themen.

Frauen legen auch viel mehr Gewicht auf bezahlbare gute Nahrungsmittel und auf Schutz vor Gewalt und sexuelle Gleichheit (steile blaue Linien) als Männer. Männer andererseits legen mehr Gewicht als Frauen auf politische Freiheit, bessere Straßen und Telefon-Möglichkeiten (steile rote Linien).

Und Maßnahmen gegen die Klimawandel rangieren bei Frauen und Männern gleichermaßen ganz weit unten.

Während das schon ziemlich interessant war, wollte ich jetzt noch wissen, ob und welche Unterschiede es gibt zwischen den armen und den reichen Ländern zu diesen Themen. Die UN unterteilen die Länder in vier Niveaus, von arm bis reich, oder in UN-Termini von „niedrigem HDI (Human Development Index) bis zu „sehr hohem HDI“. Um die Änderungen zu vereinfachen und klarer herauszustellen, habe ich nur die erste und letzte Kategorie betrachtet, also die ärmsten und die reichsten Länder. Die Ergebnisse sehen so aus:

Abbildung 3: Wie in Abbildung 2, aber mit dem Unterschied der Prioritäten zwischen den Armen und den Reichen.

Hier zeigen sich einige interessante Dinge. Erstens, Bildung steht an oberster Stelle für Männer, für Frauen, für die reichsten und die ärmsten Länder. Meiner Ansicht nach zeigt dies das gute Urteilsvermögen der Menschen weltweit. Oder es bedeutet einfach, dass ich mit dem Rest der Welt übereinstimme … Bildung ist wichtig.

Weiter, die starke Neigung aller Linien zeigt, dass die Unterschiede zwischen dem, was für die Menschen in reichen bzw. armen Ländern wichtig ist, viel, viel größer sind als die Unterschiede zwischen Männern und Frauen zum gleichen Thema.

Weiter, die wichtigsten drei Themen aller Gruppen zusammen (Abbildung 1) ebenso wie für Männer und Frauen separat (Abbildung 2) sind Bildung, Gesundheitsfürsorge und Arbeitsplätze. Alle drei sind für die Reichen weitaus weniger wichtig als für die Armen. Auch sind viele andere Dinge wie Telefone, zuverlässige Energie, gute Straße und politische Freiheiten für die Reichen nicht besonders wichtig. Dass die Menschen in reichen Ländern jene Dinge nicht so wichtig finden, hat einen einfachen Grund – im Allgemeinen verfügen sie über all diese Dinge, so dass sie sich den Luxus leisten können, sich um andere Themen Gedanken zu machen.

Weiter, es zeigt sich eindeutig, dass Umweltbedenken etwas sind, dass sich nur die Reichen leisten können. Der „Schutz von Wäldern, Flüssen und Ozeanen“ rangiert in reichen Ländern ziemlich weit oben, noch deutlich vor Gelegenheiten bzgl. Arbeitsplätzen … aber in armen Ländern rangiert dies an vorletzter Stelle, noch vor Klima und deutlich unter dem darüber liegenden Thema.

Und schließlich, Klimawandel. Die Menschen, die Maßnahmen gegen Klimawandel favorisieren, egal ob Männer oder Frauen, behaupten, dass sie das für die Armen tun … aber es scheint, als ob die Armen das gar nicht mitbekommen. Für sie rangiert der Klimawandel ebenso wie für die ganze Welt allgemein abgeschlagen an letzter Stelle. Und in den armen Ländern haben nur 13% aller Menschen das überhaupt erwähnt, ein sehr geringer Prozentsatz. Soweit es die Armen betrifft, sollten die Menschen lieber Spenden abliefern für jedes der vielfachen Probleme, die es bei den Armen gibt, als es dem Klimawandel in den Rachen zu schmeißen.

Betrachten wir jetzt die behaupteten Überzeugungen der reichen Länder. Hier folgen Stichproben dessen, was seit einiger Zeit das Narrativ ist; zunächst für die USA:

Unter Verweis darauf, dass der Klimawandel unter den ernstesten Problemen ist, vor denen die Welt derzeit steht – wie Epidemien, Armut, Terrorismus und die Ausbreitung von Massenvernichtungswaffen – appellierte US-Außenminister John Kerry an alle Nationen, auf „diese größte Herausforderung unserer Generation“ zu reagieren.

Von unseren Vettern jenseits des Großen Teiches [= des Atlantiks] beglückte uns der als „Prinz“ bekannte Künstler mit seinen Ansichten hierzu:

Der Kampf gegen die globale Erwärmung ist die größte Herausforderung, vor der die Welt heute steht, sagte Prinz Charles, und drängte die Regierungen, etwas gegen den Klimawandel zu unternehmen, bevor es zu spät sei.

Und schließlich kam von Obamas Pressesprecher Josh Earnest Folgendes:

1. „Was der Präsident hier meint ist, dass es viel mehr Menschen gibt, die jährlich mit den Auswirkungen des Klimawandels konfrontiert sind, den direkten Auswirkungen auf ihre Leben oder die Ausbreitung von Krankheiten als mit Terrorismus“.

2. „Was der Präsident hier meint ist, dass wenn man über die täglichen direkten Auswirkungen dieser Art von Herausforderung auf das tägliche Leben der Amerikaner spricht, besonders der in diesem Land lebenden Amerikaner, dann sind davon mehr Menschen stärker betroffen als von Terrorismus“.

3. „Ich denke, dass sogar das Verteidigungsministerium die signifikante Bedrohung angesprochen hat, die der Klimawandel für unsere nationale Sicherheit darstellt. Hauptsächlich wegen der Auswirkungen, den er auf Länder haben kann, in denen die Infrastruktur weit weniger entwickelt ist als bei uns“.

Die Leute in reichen Ländern glauben also vermeintlich, dass Klimawandel eine größere Gefahr ist als Terrorismus. Allerdings geht aus den Antworten von neun Millionen Menschen hervor, dass die Leute in reichen Ländern diese Botschaft nicht vernommen haben. Anstatt zu glauben, dass Maßnahmen gegen den Klimawandel wichtiger sind als gegen Terrorismus und dass es die größte Herausforderung für die Welt ist, sind in Wirklichkeit Maßnahmen gegen Klimawandel für die Menschen in reichen Ländern weniger wichtig als sexuelle Gleichheit oder bezahlbare Nahrungsmittel. Und Maßnahmen gegen Klimawandel sind in den wohlhabendsten Ländern weit weniger wichtig als sauberes Wasser und sanitäre Anlagen … das sind gute Nachrichten. Sie zeigen, dass es immer noch einigen gesunden Menschenverstand auf dem Planeten gibt. Nicht jeder heult mit dem alarmistischen Mantra „Der Himmel fällt herab! Ein paar Grad Erwärmung werden uns alle töten!“

Kurzversion gefällig? Falls jemand glaubt, den Armen zu helfen mit dem Kampf gegen das furchtbare CO2, würden die Armen den UN zufolge darauf wetten, dass sie anderer Ansicht sind. Die Menschen in den armen Ländern haben eindeutig gezeigt, dass sie es viel lieber sähen, dass falls Menschen helfen wollen, diese ihr Geld und ihre wertvolle Zeit für irgendeines der anderen 15 Themen auf der UN-Liste ausgeben würden, bevor man gegen den Klimawandel vorgeht. Klima ist nicht nur Nummer 16 am Ende ihrer Liste, sondern liegt der Meinung der Armen nach auch weit unter allen übrigen Themen. Der einzige Grund, warum das Thema Klima nicht den 17. Rang einnimmt, ist die Tatsache, dass sich auf der Liste nur 16 Themen finden. …

Und selbst die Menschen in den reichsten aller Länder nehmen nicht die Behauptung ab, dass der Klimawandel das größte Problem ist, vor dem wir stehen, nicht einmal ansatzweise. Zum Kuckuck, der Klimawandel schafft es nicht einmal in die obere Hälfte der Themen, die die Menschen in den reichsten Ländern für wichtig halten.

Aha! Während man von den USA oft behauptet, dass sie einen Ausreißer darstellen, weil so viele Menschen dort (einschließlich des neu gewählten Präsidenten) nicht glauben, dass der Klimawandel ein wichtiges Thema ist, stellt sich heraus, dass die meisten Menschen auf dem Planeten mit dem gewählten Präsidenten darin übereinstimmen, dass das Thema Klima am Ende aller Themen liegt, die von Belang sind. Das Bestehen irgendeiner sagenhaften großen Wählerschaft, die für Maßnahmen gegen Klimawandel sind, scheint eine Erfindung der Medien zu sein … Oha, eine sagenhaft große Wählerschaft, die in Wirklichkeit nur eine Erfindung der Medien ist – wo habe ich das kürzlich noch gehört? Aber ich schweife ab…

Angesichts des Umstandes, dass uns nur begrenzt Zeit zur Verfügung steht, mit Geld und Ressourcen gegen diese Dinge vorzugehen, scheint es mir, dass wir unsere Bemühungen konzentrieren sollten auf die realen Probleme, die die Menschen als wirkliches Problem für ihr Leben ansehen. Die obersten zehn Themen sind – in dieser Reihenfolge – Bildung, Arbeitsplätze, Gesundheitsfürsorge, eine gute Regierung, Nahrung, Schutz vor Gewalt, sauberes Wasser, Versicherung gegen Arbeitslosigkeit, Straßen und sexuelle Gleichheit. Falls sich Menschen wirklich um die Armen kümmern wollen, sollten sie sich eines dieser Themen aussuchen und an die Arbeit gehen. Genau das habe ich lange Zeit während meines Lebens getan.

Wenn wir diese Herausforderungen erst einmal gemeistert haben, könnten wir in Erwägung ziehen, Milliarden für CO2-Abschwächung auszugeben … oder nicht.

Aber bis dahin – sollten wir das nicht tun.

Link: https://wattsupwiththat.com/2016/11/22/the-un-poll-redux/

Übersetzt von Chris Frey EIKE




Was ist dieser üble Musk-Geruch?

Musk erzählte den Massen, dass er gerade von einem Treffen mit seinem Solar-Ingenieursteam gekommen sei. Die Herstellung und Installation des neuen Solardach-Erzeugnisses von Tesla, proklamierte er, wird tatsächlich weniger kosten als ein traditionelles Dach – sogar noch vor Einsparungen hinsichtlich der Energierechnung. „Strom“, sagt Musk, „ist einfach ein Bonus“.

Falls sich Musks Behauptungen als wahr erweisen, könnte dies ein echter Wendepunkt bei der Evolution von Solarenergie sein. Die Dachziegel, die er vor einigen Wochen vorgestellt hatte, sind etwas, das man sich ansehen muss: Sie bestehen aus strukturiertem Glas und sind praktisch nicht unterscheidbar von Luxusbedachungen. Sie machen auch aus Licht Energie für das Haus und das Elektroauto.

Der grundlegende Prämisse wird also sein: Würde man ein Dach mögen, das besser aussieht als ein normales Dach, doppelt so langlebig ist und – als Nebenprodukt – auch Strom erzeugt?“ fragt Musk. „Warum würde man irgendetwas anderes haben wollen?“

Man mache keinen Fehler: Die neuen Ziegel werden ein Premium-Erzeugnis sein, zumindest wenn sie erstmals ausgeliefert werden. Die Terrakotta- und Schieferdächer, die Tesla nachahmt, sind unter den teuersten Dachmaterialien am Markt – kosten sie doch bis zu 20 mal mehr als billige Asphaltziegel.

Viele der Kosteneinsparungen, die Musk erwartet, stammen aus Einsparungen beim Transport. Herkömmliche Dachmaterialien sind spröde, schwer und sperrig. Die Transportkosten sind hoch, ebenso wie die Verlustmenge. Die neuen Dachziegel aus Hartglas, welche in der neuen Automobil- und Solarglas-Abteilung entwickelt worden sind, wiegen nicht mehr als ein Fünftel der gegenwärtigen Erzeugnisse und sind bedeutend einfacher zu transportieren.

Zunächst einmal: Glas ist schwer. Ich glaube nicht eine Minute lang, dass sie billiger zu transportieren sind als zum Beispiel Asphaltziegel. Und ich kann Ihnen garantieren, dass die „Verlustmenge“ höher sein wird als bei Asphaltziegeln. Falls unsere Handys uns irgendetwas gelehrt haben, dann den Umstand, dass selbst das stärkste „Gorilla-Glas“ immer noch … nun … Glas ist. Die erste Schlussfolgerung lautet also, dass für Elon ein „normales“ Dach entweder aus Schiefer- oder Terrakotta-Ziegeln besteht … er ist einer der Auserwählten! Er hat wahrscheinlich seit einiger Zeit nicht mehr in einem Haus mit einem Dach aus Asphalt-Ziegeln oder aus Aluminium gelebt…

Wird Elons Dach leichter sein als Terrakotta? Vielleicht … aber bisher haben wir nur seine Versprechungen. Aber in jedem Falle bezweifle ich höchlich, dass der größte Kostenfaktor eines Schieferdaches die Transportkosten ausmachen … den Schiefer aus der Erde zu buddeln ist sehr teuer.

Weiter. Bequemerweise hat er die Kosten für die Batterien nicht genannt, die man braucht, damit das ganze System funktioniert, ebenso wie die Umwandler. Seine 14-kWh-Batterien des Typs „Berliner Mauer“, oder wie immer sie genannt werden, sind alles andere als billig und kosten etwa 5500 Dollar pro Stück … selbst wenn man mit nur einer Batterie auskommt, ist das immer noch by itself teurer als ein 40 Jahre altes Dach aus Asphaltziegeln. Und falls er sich Sorgen macht hinsichtlich des Bruches von Terrakotta-Ziegeln beim Transport, wäre der Transport jener Hätschelkinder weder billig noch einfach.

Außerdem sind seine Angaben zur Lebensdauer nichts als Schall und Rauch. Das Ersetzen eines Daches aus Asphaltziegeln wird 40 Jahre dauern und um die 3,80 Dollar pro Quadratfuß [= ca. 9 cm²] kosten (hier). Das Ersetzen eines Schieferdaches wird etwa fünf mal diese Summe kosten. Musk behauptet, dass seine Solarpaneele länger leben werden als Schiefer??? … wie in aller Welt kann er wissen, ob das stimmt? Und was noch länger überdauert ist verdammtes Gestein.

Weiter. Feuerwehrleute hassen Solarpaneele auf dem Dach, und zwar aus gutem Grund. Man denke daran, durch das Dach in das Haus einzudringen, wenn es im übrigen Haus brennt … man möchte NICHT durch gläserne Solarpaneele brechen, die an einem Umwandler und einer riesigen Batterie hängen. Tatsache ist: falls ein solches Haus in Brand gerät, stellt die Batterie sowohl eine giftige und explosive Gefahr dar, während das Dach eine No-Go-Zone ist…

Und weil das so ist, werden Ihre Versicherungskosten steigen – etwas, an das man bei einem normalen Dach nicht einmal denken würde.

Weiter. Diese Solarziegel werden viel schwieriger zu installieren und daher viel kostspieliger sein als ein normales Dach. Elektriker müssen involviert werden, Spezial-Installateure und andere hoch bezahlte Personen.

Und schließlich, die Kosten für Solarpaneele sind gefallen und kosten jetzt etwa 1 Dollar pro Watt, was sich zu etwa 15 Dollar pro Quadratfuß umrechnet – nur für das Paneel selbst. Diese Kosten des Rohmaterials sind höher als die Kosten eines FERTIG INSTALLIERTEN Schieferdaches. Und vielleicht kann Musk das ja noch reduzieren, aber ich wäre sehr überrascht, wenn ihm das in größerem Umfang gelänge. Wenn Musk die Kosten pro Quadratfuß von Solarpaneelen senken kann, warum stellt er nicht die Paneele selbst mit seiner neuen Glas-Technologie her? Ich über lasse die Antwort der Leserschaft.

Was steht unter dem Strich? Nun, die übliche Story. Wenn Musk seine Lippen bewegt, dann zählt er entweder nach, wie viel Geld er der amerikanischen Öffentlichkeit abgepresst hat, oder er lügt hinsichtlich seiner nächsten Erzeugnisse … die einzige gute Nachricht lautet, dass wir mit der neuen Regierung hoffen können, dass das große Absahnen ein Ende hat.

Allerdings ist er auch ein sehr, sehr smarter Mann. Darum würde es mich nicht überraschen, wenn er die Öffentlichkeit so ködern würde, dass ihm noch mehr Geld zufließt, bevor sein Saugrüssel verstopft wird. Niemand hat je Geld verloren durch Unterschätzen der Intelligenz der amerikanischen Grünoisie, und Musk hat eine Wissenschaft daraus gemacht, mit den schlimmsten Befürchtungen der Gesellschaft zu spielen.

Und zu guter Letzt – sind Elektroautos wirtschaftlich genug, um eine maßgebliche Rolle in unserem Transportwesen zu spielen? Meine Antwort, die Einige überraschen könnte, lautet ja, das kann sein … aber wir sollten irgendeinen Kerl nicht unverschämt reich machen mit der Subvention funkelnder Fahrzeuge, die sich NICHT wirtschaftlich rechnen. Falls Musk so verdammt smart ist, dann lasse man sich ihn auf dem Markt bewähren, wie jeden sonst auch. Es sollte nicht Aufgabe der Regierung sein, eine Lösung gegenüber einer anderen zu bevorzugen, egal wie wunderbar die Intentionen der Regierung sein mögen, egal ob sie liberal oder konservativ ist und egal, welches Ergebnis sie unbekümmert prophezeit.

Die Lösung ist einfach und könnte sogar bald beginnen. Sie lautet:

Aufhören mit der Subventionierung ineffizienter Technologien, die nicht marktreif sind!!

————————————

Anhang: Die Mathematik: Gegenwärtig hat Musk 4,9 Milliarden Dollar Subventionen des Steuerzahlers erhalten. Im Gegenzug hat er Autos geliefert, die so teuer sind, dass die wohlhabenden Käufer derartiger Autos ihre eigenen persönlichen Subventionen einstreichen in Gestalt von Steuernachlässen.

Sollen wir an diesem Punkt sagen „Danke, Elon“?

Zu den Entwicklungsländern – die WWFA sagt, dass ein Brunnen, der ein Dorf mit Wasser versorgen kann, etwa mit 8000 Dollar zu Buche schlägt … folglich würde man mit dem Geld, das wir für Musk und seine Funken sprühenden Autos verschwenden, saubere Wasserquellen für etwa eine halbe Million Gemeinden in Entwicklungsländern einrichten können.

Ich bezweifle, dass die Menschen in jenen Gemeinden „Danke, Elon“ sagen würden, wenn sie um diesen faustischen Pakt wüssten…

Link: https://wattsupwiththat.com/2016/11/19/whats-that-musky-smell/

Übersetzt von Chris Frey EIKE

Bemerkung: Alle Hervorhebungen übernommen aus dem Original!




Noch einmal: Precipitable Water*

Abbildung 1: Scatterplot mit TPW (X-Achse) im Verhältnis zu Atmosphärischer Absorption (Y-Achse). Die gestrichelte vertikale Linie zeigt den nach Gebiet gewichteten globalen mittleren Wert. Gepunktete vertikale Linien zeigen die Bandbreite des globalen Mittelwertes über den Zeitraum. Die Neigung der Kurve an jedem Punkt beträgt 62,8/TPW (W/m² pro Grad)

In diesem Beitrag betrachte ich die andere Hälfte der Beziehung. Diese ist die Beziehung zwischen der Wassertemperatur der Ozeane an deren Oberfläche und das gesamte precipitable water. Die gute Nachricht lautet, dass wir anders als bei den CERES-Daten, die nur 15 Jahre zurück reichen, TPW-Aufzeichnungen seit dem Jahr 1988 haben, ebenso wie Wassertemperaturen für den gleichen Zeitraum. Abbildung 2 zeigt die Beziehung zwischen diesen beiden Größen:

Abbildung 2: Scatterplot, TPW-Daten von RSS im Verhältnis zu ReynoldsOI-Wassertemperaturen. Siehe Anmerkungen am Ende zu den Datenquellen.

Wie man sieht, ist die Beziehung geordnet, aber nicht einfach. Zuerst dachte ich, dass die Beziehung logarithmisch sei, aber es zeigte sich, dass dem nicht so ist. Auch eine Potenzfunktion [power function] repräsentiert das Verhältnis nur sehr schlecht. Nachdem ich erfolglos eine Vielfalt von Kurven untersucht hatte, kam ich zu dem Ergebnis, dass man sich dem Ganzen mit einer inversen S-förmigen Kurve [sigmoid function] nähern könnte (oben in gelb dargestellt). Angesichts der sehr smarten Leute hier denke ich, dass irgendjemand in der Lage sein wird, eine physikalische Begründung zusammen mit der richtigen Gleichung zu liefern. Aber für das, was ich hier darlegen möchte, reicht es.

Nun, die Beziehung zwischen Wasserdampf und atmosphärischer Absorption ist eindeutig logarithmisch, wie es von der Theorie auch vorgegeben wird. Andererseits kenne ich keinerlei einfache Theorien zur Beziehung zwischen Wassertemperatur und Gesamt-PW. Zum Beispiel passt die Kurve nicht zur Clausius-Clapeyron’schen Zunahme des Wasserdampfes. Und eindeutig ist mein Verfahren rein heuristisch und brute-force … aber das ist in Ordnung, weil ich nicht behaupte, dass es erläuternd ist. Ich verfolge einen anderen Zweck. Ich will nämlich herausfinden, wie stark sich das PW pro Grad Änderung der Wassertemperatur ändert. Und für diesen Zweck muss die Funktion ableitbar sein.

Zunächst einmal möchte ich erklären, wo wir stehen. Im vorigen Beitrag habe ich eine mathematische Beziehung abgeleitet zwischen den beiden in Abbildung 1 gezeigten Variablen. Dabei handelt es sich um die atmosphärische Absorption der ausgehenden langwelligen Strahlung bei klarem Himmel von der Erdoberfäche sowie der Gesamt-PW-Gehalt (TPW) der Atmosphäre.

Und zu Beginn dieses Beitrags habe ich eine mathematische Beziehung zwischen den beiden in Abbildung 2 gezeigten Variablen hergeleitet. Das sind der Gesamt-PW-Gehalt der Atmosphäre und die Wassertemperatur SST.

Das bedeutet: setzt man Letzteres in Ersteres ein, kann ich eine mathematische Beziehung herleiten zwischen der SST und der atmosphärischen Absorption.

Natürlich wollte ich meine Formel grundlegend testen, welche die Wassertemperatur mit der atmosphärischen Absorption verbindet. Ich habe bzgl. der Absorption nur die CERES-Daten, so dass hier ein kürzerer Zeitraum abgedeckt ist als in Abbildung 2. Da die Gesamt-Beziehung mit den Reynolds-Wassertemperaturdaten erstellt worden ist, habe ich diese für den Vergleich herangezogen.

Abbildung 3: Atmosphärische Absorption langwelliger Strahlung im Verhältnis zur Wassertemperatur. Zur mathematischen Herleitung siehe die Anmerkungen am Ende.

Ich bin recht zufrieden damit als Vergleich zwischen theoretischer und gemessener atmosphärischen Absorption. Dazu ein paar Bemerkungen. Erstens, die Differenz unter 0°C kommt zustande, weil CERES und Reynolds bei Frost Dinge messen, die sich geringfügig unterscheiden, sobald Eis ins Spiel kommt. CERES misst die mittlere Temperatur des Eises und des Wassers, während Reynolds allein die Wassertemperatur erfasst.

Weiter. Die leichte Krümmung der schwarzen Linie von 0°C bis 25°C folgt nicht vollständig der roten Linie. Ursache hierfür ist, dass ich die Daten unter dem Gefrierpunkt mit einbezogen habe, was die Ergebnisse etwas verzerrt hat. Vielleicht hätte ich diese Daten außen vor lassen sollen, aber ich dachte, der Vollständigkeit halber…

Die leichte Krümmung der schwarzen Linie von 0°C bis 25°C ist der Tatsache geschuldet, dass die Strahlung der Oberfläche proportional zur vierten Potenz der Temperatur ist. Falls man die Absorption berechnet hätte gegen die ausgehende Strahlung anstatt gegen die Temperatur, hätte sich eine gerade Linie ergeben. Ich habe es so gemacht, weil es viele Diskussionen um den Wert der „Wasserdampf-Strahlungs-Rückkopplung“ [water vapor radiative feedback] gibt, die pro Grad Celsius gemessen wird. Ich könnte eine bessere Näherung erhalten, wenn ich die T↑4-Beziehung einbezogen hätte, aber meine Schlussfolgerung war, dass das Ergebnis nicht den Aufwand gerechtfertigt hätte … falls ich eine größere Genauigkeit benötige, kann ich die Abbildung noch einmal errechnen, aber für jetzt ist sie mehr als ausreichend.

Die Stärke der Rückkopplung wird berechnet als die Neigung der roten Linie in Abbildung 3. Die Neigung ist die Änderung der Absorption für eine Änderung um 1°C der Wassertemperatur. Abbildung 4 zeigt die Amplitude der Wasserdampf-Strahlungs-Rückkopplung über die Bandbreite der ozeanischen Wassertemperaturen:

Abbildung 4: Wasserdampf-Strahlungs-Rückkopplung, berechnet als die Änderung der atmosphärischen Absorption ausgehender langwelliger Strahlung pro 1°C Änderung der Wassertemperatur.

Das ist ein sehr interessanter Verlauf. Angesichts der allgemeinen Form der Abbildungen 1 und 2 hätte ich dieses Aussehen erwarten können … aber es kam irgendwie als Überraschung. In den meisten Gebieten der Welt heben sich die beiden Tendenzen gegenseitig auf, und die Wasserdampf-Strahlungs-Rückkopplung bei klarem Himmel beträgt etwa 3 bis 4 W/m² pro Grad Celsius. Aber in den Tropen, wo das Wasser warm ist, schießt die Wasserdampf-Rückkopplung in den Himmel.

Diskussion

Mit einer so großen Strahlungs-Rückkopplung von Wasserdampf, drei bis vier Watt pro Quadratmeter pro Grad und noch viel höher in den Tropen – warum gibt es da keine Runaway-Rückkopplung? Ich meine: die so genannte, vom IPCC behauptete „Klima-Sensitivität“ lautet, dass 2 bis 3 W/m² zusätzliche Strahlung zu einem Grad Erwärmung führt. Und den Beobachtungen oben zufolge, wenn es sich um ein Grad erwärmt, bekommen wir eine zusätzliche einfallende Strahlung durch Wasserdampf von 3 bis 4 W/m². Und von dieser Menge wird behauptet, dass sie ausreichend sei für mehr als ein Grad zusätzliche Erwärmung … ein Garant für eine positive Runaway-Rückkopplung, falls ich jemals eine gesehen habe. Also – mit jener hohen Strahlungs-Rückkopplung, warum zeigt sich keine Runaway-Rückkopplung?

Man könnte beginnen mit der sorgfältigen Lektüre der Diskussion von Dr. Roy Spencer zu diesem Thema, nämlich Five Reasons Why Water Vapor Feedback Might Not Be Positive. Die TL-DR-Version lautet: wenn der Wasserdampf-Gehalt in der Luft zunimmt, nimmt die einfallende Strahlung tatsächlich zu … aber es gibt auch noch viele andere Dinge, die sich ebenfalls ändern.

Als ein von Dr. Spencer erwähntes Beispiel in seiner Diskussion des Verhältnisses zwischen Wasserdampf und Niederschlagsmenge sagte er:

Während wir wissen, dass die Verdunstung mit der Temperatur zunimmt, wissen wir nicht sehr viel darüber, wie sich die Effizienz von Niederschlags-Systemen mit der Temperatur ändert.

Letzterer Prozess ist viel komplexer als die Verdunstung von der Erdoberfläche (Renno et al. 1994), und es ist keineswegs geklärt, ob sich Klimamodelle diesbezüglich realistisch verhalten.

Da möchte ich noch etwas hinzufügen. Die Regenmenge steigt mit steigendem atmosphärischen Wassergehalt, wie Abbildung 5 zeigt:

Abbildung 5: Scatterplot, Verdunstungskühlung durch Regen im Verhältnis zu TPW. Die TRMM-Daten überdecken lediglich die Breiten zwischen 40°N und 40°S.

Man beachte die Größenordnung der involvierten Abkühlung … nicht Watt pro Quadratmeter, sondern hunderte Watt pro Quadratmeter. Während PW von etwa 40 bis 55 kg pro Quadratmeter reicht, reicht die Verdunstungsabkühlung von 50 bis 250 Watt pro Quadratmeter oder mehr … das ist eine große Abkühlung, etwa zehn Watt pro zusätzlicher Abkühlung pro zusätzlichem kg von PW.

Das können wir vergleichen mit der Neigung der zunehmenden Wasserdampf-Strahlungs-Rückkopplung in Abbildung 1. Die Neigung in Abbildung 1 beträgt 62,8 W/m² dividiert durch TPW, so dass sich bei einem TPW von 50 kg/m² etwa 1,2 W/m² zusätzliche Strahlungs-Erwärmung pro zusätzlichem kg/m² Wasser ergeben würde … gegen 10 W/m² Verdunstungs-Abkühlung durch Regen pro zusätzlichem kg/m² Wasser.

Aber Moment … da ist noch mehr. Abbildung 6 zeigt die Verdunstungsabkühlung durch Regen im Vergleich zur Wassertemperatur SST. Da SST und PW in einer engen Beziehung zueinander stehen, sieht Abbildung 6 der Abbildung 5 ziemlich ähnlich:

Abbildung 6: Scatterplot, Verdunstungsabkühlung durch Regen im Vergleich zu Reynolds-Wassertemperaturen SST.

Wie in Abbildung 5 steigt die Verdunstungsabkühlung durch Regen am warmen (rechten) Ende der Skala von 50 bis etwa 200 W/m² sehr schnell. Allerdings ist es hier von Bedeutung, dass die SST von 27°C bis 30°C reicht. Und das ergibt eine Gesamt-Abkühlung von etwa 50 W/m² pro Grad … was die 3 bis 4 W/m² wasserdampf-basierter Erwärmung des IPCC ziemlich marginalisiert …

Es gibt einen weiteren interessanten Aspekt bei Abbildung 6, und zwar die leere Fläche unten rechts. Ich habe immer gesagt, dass thermoregulierende Phänomene wie Gewitter von Temperaturschwellen abhängen. Die leere Fläche in der unteren rechten Ecke von Abbildung 7 zeigt, dass oberhalb einer bestimmten Wassertemperatur … der Regen diese abkühlt. Und nicht nur der Regen, sondern auch je wärmer es wird, desto größer die Gesamt-Verdunstungs-Abkühlung und desto größer auch die minimale Verdunstungs-Abkühlung.

Die Abkühlungseffekte von Wasserdampf hören hier aber noch nicht auf. Zunehmender Wasserdampf lässt auch die Größe der absorbierten Sonnenenergie zunehmen, wenn sie durch die Atmosphäre dringt. Wie bei der Absorption der ausgehenden langwelligen Strahlung ist die Beziehung auch hier logarithmisch. Abbildung 7 zeigt diese Beziehung:

Abbildung 7: Scatterplot, atmosphärische Absorption der einfallenden Solarstrahlung (Y-Achse) im Verhältnis zu TPW (X-Achse).

Logarithmische Beziehungen der Form „m log(x) + b” haben eine einfache Neigung, nämlich m/x. Die Neigung der Gleichung in Abbildung 7 beträgt 31,6/TPW (W/m² pro Grad). Zuvor haben wir gesehen, dass die Neigung der Erwärmung durch zunehmenden Wassergehalt 62,8/TPW (W/m² pro Grad) betragen hatte. Dies bedeutet, dass zu jedem Punkt die Hälfte der Erwärmung durch Wasserdampf-Strahlungs-Rückkopplung kompensiert wird durch den Verlust der einfallenden Sonnenstrahlung infolge zusätzlichen Wasserdampfes.

Und auch das ist noch nicht das Ende der damit zusammenhängenden Phänomene … Abbildung 8 zeigt die Korrelation zwischen TPW und Wolken-Albedo:

Abbildung 8: Korrelation von TPW und Wolken-Albedo

Wie man sieht, wenn in den Tropen PW zunimmt, nimmt auch die Wolken-Albedo zu (rot-gelb). Das macht Sinn: mehr Wasser in der Luft bedeutet mehr Bewölkung. Auch dies hat einen Abkühlungseffekt zur Folge.

Dies ist auch keine vollständige Liste. Nicht angesprochen habe ich Änderungen der einfallenden langwelligen Strahlung durch Wolken … immer neue Beziehungen.

Schlussgedanken

Das Zentrum der Klimaaktivitäten liegt in den Tropen. Die Hälfte des verfügbaren Sonnenlichtes trifft auf die Erde zwischen 23°N und 23°S. Die wesentlichen Phänomene, die die einfallende Solarstrahlung regulieren, treten in den Tropen auf. Und wie die Graphen oben zeigen, befindet sich die Menge des Wassers in der Atmosphäre im Herzen jener Phänomene.

Ist also die Rückkopplung von Wasserdampf positiv oder negativ? Alles in allem muss ich sagen, dass sie deutlich negativ ist, aus zwei Gründen. Der erste Grund ist die langzeitliche Stabilität des globalen Klimasystems (z. B. betrug die Änderung der globalen Temperatur nur ± 0.3°C während des gesamten 20. Jahrhunderts). Dies impliziert eher eine negative anstatt einer positiven Rückkopplung.

Der zweite Grund sind die relativen Größenordnungen der oben beschriebenen verschiedenen Rückkopplungen. Diese werden dominiert durch Verdunstungsabkühlung infolge Regens und durch die Änderungen des reflektierten Sonnenlichtes infolge der Albedo. Beides ist viel größer als die 3 bis 4 W/m² der von Wasserdampf induzierten Strahlungs-Erwärmung.

Allerdings gibt es eine sehr große Schwierigkeit, wenn man die so genannte „Wasserdampf-Rückkopplung“ von der Myriade anderer Phänomene isolieren will. Diese Schwierigkeit ist eingebettet in etwas, das ich den „Ersten Hauptsatz des Klimas“ nenne, der da lautet:

Im Klimasystem hängt alles mit allem zusammen … was wiederum mit allem zusammenhängt … außer wenn das nicht der Fall ist.

Beispiel: Die Temperatur beeinflusst den [Gehalt von] Wasserdampf – steigt die Temperatur, steigt auch der Wasserdampfgehalt. Steigt der Wasserdampfgehalt, nehmen auch Bewölkung und Regenmenge zu. Wenn Bewölkung und Regenmenge zunehmen, sinken die Temperaturen. Wenn die Temperatur sinkt, verringert sich der Wasserdampf … man erkennt hier das Problem. Anstatt Dinge zu haben, die eindeutig Ursache bzw. eindeutig Folge sind, besteht das gesamte System aus etwas, das ich eine „Zirkelkette von Effekten“ nenne, in der es keine eindeutige Ursache und keine eindeutigen Begrenzungen gibt.

Wie auch immer, das sind die Einsichten, die sich mir mit der Untersuchung des PW-Datensatzes erschlossen haben.

Da ich gerade von ;precipitable water‘ spreche – hier geht gerade die Sonne unter. Wenn ich aus dem Küchenfenster auf den Ozean schaue, sehe ich den vom Pazifik herein treibenden Nebel. Er wabert in Wellen über die fernen Hügel, verschluckt die Bäume auf dem Weg zu unserem Haus … gestern Abend gab es das gleiche Schauspiel.

(Siehe Bild oben rechts).

Ich liebe diesen Seenebel. Er riecht nach meinem geliebten Ozean; trägt den Geruch von Fischerbooten und Muscheln, von versteckten Höhlen und Jugendträumen. Und wenn der Nebel herein treibt, bringt er den Klang des Nebelhorns am Ende der Bodega Bay mit sich. Es sind etwa zehn Kilometer von meinem Haus zu dieser Bucht, aber der Klang scheint in der Nebelschicht gefangen. Dann pausiere ich mit meiner wissenschaftlichen Arbeit – und genieße einfach den Augenblick.

————————————–

Anmerkungen [nicht übersetzt]:

The math … I start with the equation for relationship between absorption (A) and total precipitable water (TPW) shown in Figure 1:

A = 62.8 Log(TPW) – 60

To this I add the inverse sinusoidal relationship between TPW and sea surface temperature, as shown in Figure 2:

TPW =  – 13.5 Log[-1 + 1/(0.00368 SST + .887)] -19.1

Combining the two gives us:

A = 62.8  Log[-19.1 – 13.5  Log[-1 + 1/(0.887 + 0.00368 SST)]] – 60

Differentiating with respect to sea surface temperature gives the result as shown in Figure 3:

dA/dT = 3.13/((-1 + 1/(0.887 + 0.00368 SST)) (0.887 + 0.00368 SST)^2 (-19.1 – 13.5 Log[-1 + 1/(0.887 + 0.00368 SST)]))

Further Reading: NASA says water vapor feedback is only 1.1 W/m2 per degree C …

DATA

RSS data

Reynolds SST data, NetCDF file at the bottom of the page

CERES data

TRMM data, NetCDF file at the bottom of the page

Link: https://wattsupwiththat.com/2016/07/28/precipitable-water-redux/

Übersetzt von Chris Frey EIKE




Das unsinkbare „Versinkende-Atolle“-Narrativ

Die Ergebnisse zeigen, dass die Inselfläche im Analysezeitraum weitgehend stabil geblieben ist oder sogar zugenommen hat. 43% der Inseln haben um über 3% an Fläche zugenommen mit der größten Zunahme der Insel Betio (Tarawa Atoll) um 30% und der Insel Funamanu (Funafuti Atoll, dem Haupt-Atoll von Tuvalu) um 28,3%. Es gibt keinerlei Beweise für Landverluste in großem Maßstab trotz des Anstiegstrend des Meeresspiegels. Folglich war die Inselfläche während der letzten 20 bis 60 Jahre überwiegend gleich geblieben oder hat an Ausdehnung zugenommen.

Nun, die gute Nachricht lautet, dass Paul Kench seine wissenschaftlichen Gewohnheiten nicht abgelegt hat. Seine jüngste Studie trägt den Titel [übersetzt] „Räumlich-zeitliche Variabilität der Auswirkungen von Taifunen und Ruheperioden auf dem Jaluit Atoll, Marshall-Inseln (paywalled here). Jaluit liegt im tropischen Nordpazifik. Das Atoll besteht aus einer großen Zahl von Korallenbänken. Auszug aus dem Abstract (Hervorhebung von mir):

Das Jaluit Atoll im Bereich der Marshall-Inseln wurde im Jahre 1958 von dem Taifun Ophelia betroffen, welcher signifikante geomorphologische Änderungen der Riff-Inseln zeitigte. Mittels Luftbildern ebenso wie mit jüngsten Satellitenbildern verfolgen wir die Auswirkungen des Taifuns und der multidekadischen Erholung der Inseln aus dieser Katastrophe. Ophelia verursachte bedeutende Landverluste der Inselfläche, nämlich von 9,95 km² auf 9,45 km² (–5.1%), wobei die Inseln am nordöstlichen Rand insgesamt von 4,72 km² auf 4,14 km² geschrumpft sind (–12.2%). Im Zeitraum 1976 bis 2006 haben 73 der 87 Inseln an Fläche zugenommen, wobei die Gesamt-Landfläche inzwischen größer ist als vor dem Taifun (10.25 km²).

In meinem Beitrag mit dem Titel „Floating Islands“ beschreibe ich ein Korallen-Atoll als eine momentane Verzögerung in einem langsam strömenden Fluss von Korallensand und Trümmern. Dieser Fluss aus Sand und Trümmern besteht aus abgebrochenen Stücken aus dem das Atoll umgebenden Korallenriff. Sand und Trümmer werden konstant durch Wellen und Stürme am Atoll angetrieben … und gleichzeitig erodieren Korallensand und Trümmer durch die gleichen Stürme und werden in den Ozean verfrachtet. Die Atolle bestehen in einem dynamischen Gleichgewicht zwischen Zuwachs und Erosion.

Die dynamische Natur des Gleichgewichtes kommt sehr gut in der jüngsten Kench-Studie zum Ausdruck. Ein großer Zyklon zog 1958 über das Gebiet und verfrachtete einige Anteile dieser lockeren Ansammlungen von Sand und Trümmern in den Ozean. Dies reduzierte ihre Landmasse. Aber weil die Ausgangsbedingungen der Topographie am Meeresgrund sowie Wind- und Wellenverhältnisse unverändert blieben, häufte der Ozean neuen Korallensand an den gleichen Stellen an und trug so zur Neubildung der Atoll-Inseln an ihren früheren Positionen bei auf ihrem früherem Untergrund.

Also – nein, die Atolle sind nicht in Gefahr, vom Ozean verschlungen zu werden. Im Gegenteil, sie werden ständig durch den Ozean neu gebildet und repariert. Und daher … warum hören wir immer wieder Berichte über Schwierigkeiten im Paradies, von steigendem Meeresspiegel und erodierenden Inseln?

Grund hierfür ist, dass sich der Fluss von Korallensand und Trümmern verlangsamt, wenn das Riff nicht gesund ist … und da die Atolle in einem dynamischen Gleichgewicht sind, würde jeder Rückgang der angespülten Menge Korallensand zur Erosion des Atolls führen.

Im Allgemeinen reduzieren sich die Gründe dafür, dass ein Riff nicht gesund ist, auf eine Kombination von Überfischung, Verschmutzung und Korallenabbau. Diese Probleme sind alle lösbar. In meinem Beitrag „Floating Islands“ [etwa: sich bewegende Inseln] habe ich eine ganze Palette von Maßnahmen vorgestellt die die Inselbewohner durchführen können, um die Stabilität ihrer Atolle zu erhalten, zusammen mit relevanten Links … aber unglücklicherweise ist der törichte Gedanke der versinkenden Inseln fest eingebettet in die Alarmosphäre.

Und genau darum komme ich hier wieder einmal mit all dem. Das „Versinkende-Atolle“-Narrativ ist schwieriger zu töten als einen Vampir mit frisch geschnitzten Holzpfählen, und die New York Times reitet wieder einmal das gleiche alte, tote Pferd:

Eine abgelegene Inselnation im Pazifik, bedroht durch steigenden Meeresspiegel

Der Klimawandel bedroht das Leben der Menschen auf der kleinen Insel Kiribati und sogar die Existenz der Inselnation. Die Regierung arbeitet an Plänen für den Fall des Untergangs der Insel.

MIKE IVES

2. Juli 2016

Unsinn! Pustekuchen! Grün gefärbte Geisteskrankheit. Korallenatolle werden NICHT durch steigenden Meeresspiegel bedroht. Das ist einfach eine kranke Fantasie.

Liebe Gleichgesinnte, kämpfen Sie weiter … es wird ein langer Kampf.

Weiteres zur aktuellen Lage von Kiribati: So Many People … So Little Rain vom 10. 3. 2012

Link: https://wattsupwiththat.com/2016/07/25/the-unsinkable-sinking-atolls-meme/

Übersetzt von Chris Frey EIKE




CO2 in der Atmosphäre durch Verbrennung verdoppeln? Kann man total vergessen!

Hier der Link zu dem im Aufmacher angesprochenen Thread auf WUWT.

Eine verlinkte Grafik aus dem IPCC AR5 Bericht der Arbeitsgruppe 1, Kapitel 6

ORIGINAL UNTERTITEL: Abbildung 6.1 | Vereinfachtes Schema des globalen Kohlenstoffkreislauf. Die Zahlen stellen das Reservoir [d.h. die gespeicherte] Masse dar, auch "Kohlenstoffspeicher" genannt in Peta Gramm C (1 PgC = 10 ^ 15 * C) und die jährlichen Kohlenstoff Austauschflüsse (in PgC yr-1). Schwarze Zahlen und Pfeile zeigen Reservoir Masse und Austauschflüsse für die Zeit vor dem Industriezeitalter geschätzt, etwa 1750 (siehe Abschnitt 6.1.1.1 für Referenzen). Vorräte an fossilen Brennstoffen sind von GEA (2006) und stehen im Einklang mit den Zahlen der IPCC WGIII für zukünftige Szenarien. Die Sediment Lagerung ist eine Summe von 150 PgC des organischen Kohlenstoff in der Mischschicht (Emerson and Hedges, 1988) und 1600 PGC der Tiefsee CaCO3 Sedimente verfügbar um das CO2 der fossilen Brennstoffe zu neutralisieren (Archer et al., 1998).

Rote Pfeile und Zahlen zeigen jährliche "anthropogene" Flüsse über den Zeitraum 2000-2009 gemittelt. Diese Flüsse sind eine Störung des Kohlenstoffkreislaufs während des Industriezeitalters nach 1750. Diese Flüsse (rote Pfeile) sind: Fossile Brennstoffe und Zement CO2-Emissionen (Abschnitt 6.3.1), Nettoänderungen der Landnutzung (Abschnitt 6.3.2) und der durchschnittliche atmosphärische Anstieg von CO2 in der Atmosphäre, auch CO2-Wachstumsrate genannt (Abschnitt 6.3). Die Aufnahme von anthropogenen CO2 durch den Ozean und durch terrestrische Ökosysteme, oft als "Kohlenstoffsenken" benannt, sind die roten Pfeile als Teil des Nettoflusses von Land und Ozean. Rote Zahlen in den Reservoirs bezeichnen kumulative Veränderungen des anthropogenen Kohlenstoffs über dem Industriezeitraum 1750-2011 (Spalte 2 in Tabelle 6.1). Vereinbarungsgemäß bedeutet eine positive kumulative Änderung, dass ein Reservoir Kohlenstoff seit 1750 zugenommen hat…

Es gibt es viele interessante Dinge in dieser Grafik, aber was mich besonders interessiert, waren ihre Schätzungen der Gesamt Reserven an fossilen Brennstoffen. Einschließlich Gas, Öl und Kohle, schätzen sie insgesamt für fossile Brennstoffe eine Reserve von 650 bis 1580 Gigatonnen Kohlenstoff (GtC). Ich beschloss, diese Zahlen sowohl für das Bern Modell als auch für das einfache exponentielle Zerfall-Modell zu verwenden.

Das Bern-Modell und das einfache exponentielle Modell sind beide exponentielle Zerfall-Modelle. Der Unterschied besteht darin, dass das einfache exponentielle Zerfall Modell einen Wert für die Halbwertszeit der CO2-Emissionen verwendet. Auf der anderen Seite, das Berner Modell verwendet drei verschiedene Halbwertzeiten für drei verschiedene Fraktionen der CO2-Emissionen, plus 15% des emittierten CO2 sollen nur über Tausende von Jahren zerfallen.

Mein Interesse war herauszufinden, was würde nach den beiden CO2-Modellen geschehen, wenn wir alle fossilen Brennstoffe bis 2100 verbrennen. Für den kleineren Fall mit 640 GtC bis zum Jahr 2100, impliziert das eine Rate irgendwo um die aktuellen Emissionen, das sind ein bisschen mehr als 7,5 GtC pro Jahr für die nächsten 85 Jahre.

Die größere Schätzung mit 1580 GtC impliziert eine Rate, die sich jedes Jahr um 1,1% erhöht. Wenn das passiert, dann würden wir bis zum Ende dieses Jahrhunderts 1580 Gigatonnen Kohlenstoff verbrannt haben.

Gibt man diese Annahmen in die beiden Modelle, wie würde sich dies im Hinblick auf die atmosphärische Konzentration von CO2 auswirken? Abbildung 2 zeigt die Ergebnisse:

 

Abbildung 2. CO2-Projektionen des Bern-Modell (rot und blau) und einem einzigen exponentiellen Abfall-Modell (lila und hellgrün ). Das single-exponentielle Zerfall-Modell verwendet eine Zeitkonstante tau von 33 Jahren

Nun gibt es einige Dinge von Interesse. Erstens können Sie sehen, dass wir leider noch nicht genügend Informationen haben, um zu unterscheiden, ob das Modell Bern oder das einzige exponentielle Zerfall Modell genauer ist.

Als nächstes scheinen die beiden oberen Werte unwahrscheinlich, da sie ein anhaltendes exponentielles Wachstum über 85 Jahre annehmen. Diese Art von Langzeit-exponentiellem Wachstum ist im wirklichen Leben selten.

Schließlich, ist das hier der Grund, warum ich diesen Beitrag geschrieben habe. In diesem Jahr ist der atmosphärische CO2-Gehalt um 400 ppm. Ihn zu verdoppeln, hätte [der Anteil] auf 800 ppm gehen müssen … und selbst wenn wir ein exponentielles Wachstum für die nächsten acht Jahrzehnte halten könnten und wir jeden Tropfen der 1580 Gigatonnen-High-End-Schätzung der fossilen Reserven verbrennen würden, würde der CO2-Gehalt immer noch nicht doppelt so hoch wie heute sein.

Und in der Tat, auch ein fünfzig Prozent Anstieg der CO2-Konzentration in 2100 scheint unwahrscheinlich. Das wären 600 ppm … möglich, aber zweifelhaft nach der Grafik oben.

Kurzversion? Laut IPCC, gibt es nicht genügend fossile Brennstoffe (Öl, Gas und Kohle) um auf dem Planeten die atmosphärische CO2-Konzentration von seinem aktuellen Wert aus zu verdoppeln.

Beste Grüße an alle Leser

Willis Eschenbach

Meine Übliche Ansage: Fehlwahrnehmungen sind der Fluch der Internets. Wenn Sie mit mir oder jemand nicht einverstanden sind, schreiben Sie bitte die genauen Worte, denen Sie nicht zustimmen. Meine eigenen Worte kann ich verteidigen. Ich kann jedoch nicht jemand anderes Interpretation einiger nicht identifizierter Worte verteidigen.

Meine andere Ansage: Wenn Sie glauben, dass Ich z.B. die falsche Methode auf den falschen Datensatz verwende, demonstrieren Sie mir und anderen bitte die ordnungsgemäße Verwendung der richtigen Methode auf den richtigen Datensatz. Einfach zu behaupten, ich liege falsch, bringt die Diskussion nicht voran.

Modelle: Das Bern Modell wird hier beschrieben und die im Modell verwendete Berechnungsmethode wird hier beschrieben

Erschienen auf WUWT am 27. März 2016, update vom 28.03. eingearbeitet

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2016/03/27/double-the-atmospheric-co2-fuggeddaboutit/

Hinweis: Bezüglich der Bezeichnung „Bern Modell“ bin ich mir nicht sicher, ob es sich um das Modell des Herrn bzw. den Eigennamen „Bern“ handelt oder um ein „Berner“ Modell. Die Fachleute unter unseren Lesern werden wissen was gemeint ist; der Übersetzer

Kommentar zum update:

Hinweis: W. Eschenbach hatte ursprünglich fälschlicherweise Werte von 900 GtC und 2000 GtC angenommen. Leser „LarryB  March 28, 2016 at 8:36 am  „ wies ihn auf die korrekten Werte hin, im Text setzt er nun 640 GtC und 1580 GtC ein. Das stützt seine Aussage, es gibt nicht genügend fossile Brennstoffe, noch mehr – warum sollen wir also fossile Brennstoffe wegen CO2 Anstieg vermeiden?

Original Kommentar s.u. 

LarryB March 28, 2016 at 8:36 am 

Two questions, (1) arithmetic: Willis says “…. they estimate a total fossil fuel reserve of nine hundred to two thousand gigatonnes of carbon…” If you add the fossil carbon reserve numbers in the IPCC figure, you get 1002-1940 GtC (=PgC). Where does Willis get his 900 GtC? (2) IPCC figure legend says black numbers are reserves in 1750 & red numbers are extractions from 1750-2011. If you subtract the extractions from the 1750 reserves, you get current reserves of 637-1575 GtC. Aren’t these the numbers to use as starting points for model calculations?

LarryB

Reply  Willis Eschenbach March 28, 2016 at 10:35 am 

Dang … good catches both. I’ll revise the head post. Actually, makes my argument stronger.

w.




Kohlenstoff und Carbonate

Bild rechts: Coccolithophore. Quelle

Auf der Grundlage meiner Erfahrung und meines Wissens habe ich eine Reihe von Beiträgen geschrieben über das, was ich als erstaunliche Reaktions- und Anpassungsfähigkeit der im Ozean lebenden Lebensformen ansehe. Ich habe wiederholt gesagt, dass die geringe Neutralisierung der Ozeane infolge eines höheren atmosphärischen CO2-Gehaltes bedeutungslos ist und dass den ozeanischen Lebensformen eine solche Änderung nichts ausmachen würde.

Daher habe ich laut gelacht, als mir die jüngste Studie im Magazin Science unter die Augen kam, in der es um Coccolithophores [Kieselalgen?] ging. Das sind Kalk bildende Pflanzen, welche die schönsten und komplexesten Skelette aus Kalziumkarbonat bilden, welches sie dem Meerwasser entnehmen.

Der Studie zufolge hat die Anzahl der Coccolithophores im Nordatlantik während der letzten Jahre um das Zehnfache zugenommen. Mit anderen Worten, anstatt Coccolithophores in 2% des Planktons in den Schleppnetzen zu finden, findet man jetzt 20%. Man führte eine multivariable Analyse durch und kam zu dem Ergebnis, dass die Zunahme von CO2 der Hauptgrund für die Zunahme der Coccolithophores-Vielfalt sei. Die Studie trägt den Titel „Multidecadal increase in North Atlantic coccolithophores and the potential role of rising CO2” und findet sich hier hinter einer Zahlschranke.

Diese Studie ist bedeutsam, weil der Zustand der Ozeane eines der größten Themen der reihenweise scheiternden Klimauntergangs-Propheten ist. Die Alarmisten behaupten, dass die leichte Neutralisierung des Ozeans es den Kalk bildenden Organismen schwerer macht, ihre Kalzium-Skelette zu bilden. Allerdings zeigt die Studie, dass dies für die Coccolithophores nicht gilt. Aus dem Magazin:

Durchführung eines Säure-Tests

Kalk bildende maritime Organismen werden allgemein größere Schwierigkeiten haben, ihre Karbonat-Skelette zu bilden und zu erhalten, da eine steigende Konzentration des atmosphärischen CO2-Gehaltes die Ozeane versauern lässt. Nichtsdestotrotz werden einige Typen von Organismen stärker geschädigt als andere, und einige können sogar von dem höheren CO2-Niveau profitieren. Coccolithophores sind hierfür ein Beispiel, weil deren photosynthetisches Vermögen stark Kohlenstoff-limitiert ist. Rivero-Calle et al. zeigen, dass die Vielfalt von Coccolithophores im Nordatlantik bis zu 20% während der letzten 50 Jahre zugenommen hat. Folglich könnte diese wichtige Phytoplankton-Gruppe sich an eine Zukunft mit höherem CO2-Gehalt anpassen.

Abstract

Da anthropogene CO2-Emissionen die Ozeane versauern lassen, wird allgemein erwartet, dass Kalk bildende Lebensformen negativ beeinflusst werden. Allerdings zeigen wir mittels Daten des Continuous Plankton Recorder, dass das Vorkommen von Coccolithophores im Nordatlantik von etwa 2% auf über 20% zugenommen hat, im Zeitraum von 1965 bis 2010. Wir haben bestimmte Modelle [nämlich random forest models] angewendet, um über 20 mögliche Umwelttreiber dieser Änderung zu untersuchen. Wir finden, dass CO2 und die Atlantische Multidekadische Oszillation die besten Prädiktoren waren. Dies führt uns zu der Hypothese, dass ein höheres CO2-Niveau das Wachstum fördern könnte. Eine Sichtung 41 unabhängiger Laborstudien stützt unsere Hypothese. Unsere Studie zeigt eine langfristige Zunahme der Coccolithophores im Maßstab von Ozeanbecken. Sie zeigt, dass steigendes CO2 und steigende Temperatur das Wachstum dieser Phytoplankton-Gruppe beschleunigt hat, was wichtig ist für den Kohlenstoff-Kreislauf.

Ich habe schon immer gesagt und sage es auch jetzt wieder: Hinsichtlich des Ozeans habe ich eine Faustregel:

In den Ozeanen dirigiert nicht die Chemie das Leben – stattdessen dirigiert das Leben die Chemie!

Und diese Faustregel hat eine logische Konsequenz:

Das Leben ist raffiniert – und wird einen Weg finden, auch durch Steine zu wachsen!

Dies ist ein perfektes Beispiel. Leben hat die Gewohnheit, chemische Reaktionen in unerwartete Richtungen zu lenken, und das mit einem Tempo, dass nirgendwo außerhalb lebender Kreaturen angetroffen wird. Trotz der chemischen Realität gestiegenen CO2-Gehaltes, was den Ausfall von CaCO3 schwieriger macht, widmen die Coccolithophores dem Umstand nur geringe Aufmerksamkeit, wie steil der energetische Hügel ist. Sie wachsen einfach, und in diesem Falle sogar schneller denn je.

Ich finde das sehr wichtig, weil die Coccolithophores der Studie zufolge verantwortlich gemacht werden für etwa die Hälfte allen ausfallenden Kalziumkarbonates (CaCO3) in den Ozeanen. Die Hälfte. Das ist viel.

Folgt man nun dieser Kette von Auswirkungen zum nächsten logischen Schritt, hatt die Rate, mit der CO2 aus dem Ozean als CaCO3 herausgefiltert wird, Auswirkungen auf den Grad der Neutralisierung des Ozeans infolge des gestiegenen atmosphärischen CO2-Gehaltes.

In Anlehnung an Mark Twain lautet meine Schlussfolgerung, dass die Gerüchte über den Tod der Ozeane durch mehr CO2 gewaltig übertrieben sind.

Link: http://wattsupwiththat.com/2016/01/30/carbon-and-carbonate/

Übersetzt von Chris Frey EIKE




Der Höhepunkt der Temperatur-Narretei

Er hat die Arbeit wiederholt, die Tom Wigley für den IPCC-Bericht zuvor gemacht hatte. Es gibt ein vereinfachtes Klimamodell mit der Bezeichnung „MAGICC“, das vom IPCC extensiv verwendet wird. Man kann es laufen lassen, um die Ergebnisse jedweder vom IPCC verwendeter Klimamodelle nachzubilden, einschließlich deren Mittelwerte, indem man einfach nur die MAGICC-Eingangsgrößen verändert. Dies überlässt es uns herauszufinden, wie viel Abkühlung wir erwarten können durch eine Vielfalt von Maßnahmen der Reduktion von CO2.

Das Abstract der Studie sagt (Hervorhebung von mir):

Dieser Artikel untersucht den Einfluss wesentlicher Vorhaben der Klimapolitik auf die Temperaturabnahme, die bis 2030 eingeführt werden sollen, und zwar mittels des Standardmodells MAGICC. Selbst unter der optimistischen Annahme, dass die vorgeschlagenen Emissionsreduktionen im Laufe dieses Jahrhunderts erreicht werden, sind die Auswirkungen allgemein gering.

Die US-Klimapolitik, so sie unter optimistischen Umständen vollständig erreicht und im gesamten Jahrhundert durchgeführt werden würde, wird die globale Temperatur bis 2100 um 0,013°C reduzieren.

● Die gesamten US-Versprechungen für die COP21-Konferenz in Paris, die sog. Intended Nationally Determined Contribution (INDC) werden den Temperaturanstieg um 0,031°C verringern.

● Die 20-20-Politik der EU hat eine Auswirkung von 0,026°C, die EU-INDCs von 0,053°C und China INCDs 0,048°C.

● Die gesamte Klimapolitik der USA, Chinas, der EU und dem Rest der Welt, implementiert zu Anfang dieses Jahrhunderts und verlängert über das gesamte Jahrhundert, werden den globalen Temperaturanstieg voraussichtlich um 0,17°C reduzieren.

Diese Abschätzungen der Auswirkungen sind stabil gegen unterschiedliche Kalibrierungen der Klimasensitivität, dem Kohlenstoff-Recycling und unterschiedlichen Klimaszenarien. Die gegenwärtigen Versprechungen bzgl. der Klimapolitik werden kaum etwas dazu beitragen, das Klima zu stabilisieren, und die Auswirkungen dieser Politik werden noch viele Jahrzehnte lang gar nicht erkennbar sein.

Man beachte, dass diese Zahlen in allen Fällen optimistisch sind, wird doch davon ausgegangen, dass die vorgeschlagenen Reduktionen der CO2-Emissionen nach 2030 weitergehen bis zum Ende dieses Jahrhunderts.

Von besonderem Interesse für mich war die Auswirkung des Krieges gegen die Kohle von Präsident Obama oder, wie es auch genannt wird, des Clean Power Planes (USCPP). Selbst falls wir den implementieren könnten und dann annehmen, dass wir dem bis zum Jahr 2100 folgen, wird die Reduktion des Temperaturanstiegs insgesamt auf 0,013°C geschätzt.

Nun, das ist etwas mehr als ein Hundertstel Grad Celsius. Das Problem: Niemand hat wirklich Zugang zur Abschätzung, wie gering jene Reduktion der Temperatur tatsächlich ist, weil wir nichts haben, mit dem wir sie vergleichen können. Selbst Fieberthermometer messen nur auf ein Zehntelgrad genau. Ich erinnere mich an die alte Faustregel, wie stark sich die Luft abkühlt, wenn man auf einen Berg klettert. Jedermann weiß, dass es kühler wird, je höher man kommt. Die Rate, mit der sich trockene Luft mit zunehmender Höhe abkühlt, nennt man die „Trockenadiabate“. Die Faustregel sagt, dass die Temperatur pro 100 Meter Höhengewinn um 1°C abnimmt.

Nun ist ein normaler Mensch etwa 170 cm groß, einige größer, andere kleiner. Dies bedeutet, dass bei sonst gleichen Bedingungen die Temperatur in Höhe des Kopfes um 0,017°C niedriger ist als an den Füßen. Und wie hieß es oben? Die „Auswirkung des USCPP ist eine Reduktion des Temperaturanstiegs um 0,013°C bis zum Jahr 2100…“

Das bedeutet: nachdem man Milliarden Dollar ausgegeben, wertvolle Kraftwerke zerstört und unsere Energieoptionen reduziert hatte, was uns noch abhängiger werden lässt von Öl aus dem Nahen Osten, ist alles, was wir tun, die Temperatur an unseren Füßen abzukühlen auf die Temperatur in Höhe unserer Köpfe… Ich ströme über vor Dankbarkeit für so eine überwältigende Erkenntnis.

Jetzt mal ernsthaft. Die Gesamtsumme der gesamten Umstrukturierung der US-Energieerzeugung wird die Luft an unseren Füßen genauso kühl machen wie an unseren Köpfen.

Nun sagen die Befürworter dieser Politik an diesem Punkt etwas wie „ja, aber dies ist ja nur der erste Schritt. Wartet nur, bis andere Nationen so begeistert sein werden über den Schaden,, den wir unserer eigenen Wirtschaft zufügen, dass sie alle unterschreiben und das Gleiche tun wollen“. Natürlich sind sie dabei nicht ehrlich, aber es ist ihr Glaube, dass falls die USA stupide werden, jeder dessen Führung folgt. Ich glaube das nicht eine Minute lang, egal was sie SAGEN, wenn sie zu der Party kommen, aber nehmen wir mal einen Moment lang an, dass das Märchen wahr ist.

Das hat Lomborg nämlich auch berechnet. Er verwendete MAGICC, um den kombinierte Auswirkung der CO2-Versprechungen der ganzen Welt zu berechnen, und die Antwort lautet 0,17°C Abkühlung bis zum Jahr 2100 im optimistischen Szenario, dass nicht nur jeder seine versprochenen Reduktionen erreicht, sondern diese auch noch von 2030 bis 2100 laufen lässt.

Und die Zahl für das, was Lomborg das „pessimistische“ Szenario nennt, was aber genauer das „realistische“ Szenario genannt werden sollte, beträgt eine Reduktion der Erwärmung um 0,05°C.

Und dies wiederum ist äquivalent zum Temperaturunterschied, den man antrifft, wenn man 5 Meter einen Hügel hinauf läuft. Man stelle sich vor, jemand sagt: „Es ist so heiß hier. Ich denke, ich gehe mal 5 Meter den Hügel hinauf, wo es um fünf Hundertstel Grad kühler ist…“

In jedem Falle sind die MAGICC-Ergebnisse die vom IPCC Verwendeten, und da haben wir es. Falls alles, was die Politiker in Paris versprechen, tatsächlich eingehalten wird, wird sich bis zum Jahr 2100 eine Differenz von fünf bis sieben Hundertstel Grad ergeben … zu einem astronomischen Preis, Milliarden über Milliarden Dollar global.

Seufz… ein astronomisch hoher Preis für eine unmessbar geringe Abkühlung. Wahnsinnig brillant. Dies ist es, was dieser Tage durchgeht als der Gipfel „verantwortungsbewusster“ Wissenschaft bzgl. Klima – aber für mich ist es einfach der Höhepunkt der Temperatur-Narretei.

Link: http://wattsupwiththat.com/2015/11/10/the-height-of-temperature-folly/

Übersetzt von Chris Frey EIKE




Tiefenrausch – warum Korallen die „Versauerung“ gut überleben!

Aus diesem Grunde auch bin ich besonders hellhörig hinsichtlich der behaupteten Auswirkungen, die ein gestiegener CO2-Gehalt auf die Riffe haben soll. Die Hinzufügung von CO2 in die Atmosphäre neutralisiert das natürlicherweise alkalische Meerwasser ein wenig. (Man beachte: während man gewöhnlich die Änderung des pH-Wertes durch zunehmenden CO2-Gehalt „Versauerung“ des Ozeans nennt, dann ist das nichts als die Terminologie der Alarmisten. Da zusätzliches CO2 den Ozean neutraler macht, kann es den Ozean nicht „versauern“. Zumindest die englische Sprache wird allgemein verstanden: etwas kann nicht gleichzeitig neutralisieren und „sauer“ sein).

Während etwa der letzten fünf Jahre sage ich, dass die leichte Neutralisierung des Ozeans durch die fortgesetzte CO2-Zunahme für die Korallenriffe keinen Unterschied bedeutet. Im Besonderen habe ich darauf hingewiesen, dass sich der pH über Korallenriffen um einen ganzen Punkt ändern kann im Verlauf einer der Gezeiten. Ich habe auch die Tatsache angesprochen, dass Korallenriffe oftmals eine CO2-Quelle sind und folglich das Riff selbst den pH-Wert des Wassers senkt (neutralisiert, fälschlich als „versauern“ bekannt). Meiner Ansicht nach machen es diese Tatsachen sehr unwahrscheinlich, dass eine geringe Neutralisierung des Ozeans für die Korallenriffe einen wesentlichen Unterschied macht.

Da ich diese Trommel seit fünf Jahren gerührt habe, war ich froh über einen Artikel auf Phys.org mit dem Titel Increase in acidity may not be harmful to coral reefs after all. Darin wird eine Studie (hinter einer Zahlschranke) besprochen mit dem Titel Shifts in coral reef biogeochemistry and resulting acidification linked to offshore productivity.

Der Beitrag auf Phys.org ist sehr eindeutig in seiner Aussage (Hervorhebung von mir):

Um besser zu verstehen, was mit den Korallenriffen geschehen könnte, falls zusätzliches CO2 seinen Weg in die Ozeane findet, installierten die Forscher Beobachtungssysteme entlang eines Korallenriffes vor Bermuda – die Messungen dieser Sensoren wurden fünf Jahre lang aufgezeichnet (von 2007 bis 2012). Das Team hatte auch Zugang zu Daten einer Messstation der Ozean-Chemie in einer Entfernung von etwa 80 km von ihrem Messort. Die kombinierten Daten zeigten eine eindeutige Perspektive der Korallen-Aktivität.

Bei der Auswertung dieser Daten bemerkten die Forscher, dass Spitzenwerte von Phytoplankton-Blühen in den Jahren 2010 und noch einmal 2011 aufgetreten waren – dieses Blühen sorgte für mehr Nährstoffe als gewöhnlich für die Korallen. Die Korallen reagierten darauf mit Wachstum, was dazu führte, dass sie mehr alkalische Karbonate aus dem umgebenden Wasser zogen, so dass dieses saurer wurde. Die vermehrte Nahrungsaufnahme führte auch dazu, dass die Korallen mehr CO2 in das Wasser emittierten. Die Folge war eine starke Zunahme der Versauerung – auf Niveaus, die höher lagen als die prophezeiten Niveaus der Zukunft infolge menschlicher Emissionen – und doch blühten die Korallen immer weiter.

Diese Ergebnisse stehen in scharfem Kontrast zu der vorherrschenden Ansicht, dass eine zunehmende Versauerung schädlich für die Korallen ist – was im Exzess bis zu deren Absterben geht. Aber die von den Forschern mittels dieser neuen Bemühungen entdeckten Niveaus zeigen, dass dies nicht im Mindesten der Fall ist, was die Theorien hinsichtlich der Auswirkungen eines höheren CO2-Niveaus und höherer Temperaturen auf die Ozeane zerschlägt. Ein anderes Team in Westaustralien gab bekannt, dass die Ergebnisse dieses neuen Teams mit jenen aus einer kleinen Studie übereinstimmen, die sie gewonnen haben mittels der Positionierung einiger Kisten um einige Korallen, in denen sie das Kohlendioxid auffingen. Es zeigte sich kein anders gearteter Effekt.

Mann! Tatsächliche Messungen des pH-Wertes an echten Korallenriffen … ein wirklich neues Verfahren in diesen Tagen endlos modellierter „könnte“ oder „vielleicht“ …

Alles, was ich wieder einmal sagen kann ist: WUWT ist wegweisend!

Link: http://wattsupwiththat.com/2015/11/10/rapture-of-the-deeps/

Übersetzt von Chris Frey EIKE




Ist das Klima chaotisch?

Wie das so geht bei derartigen Untersuchungen, wurde das Thema unserer Diskussion und Untersuchung bald zu einer größeren und noch interessantesten Frage – welcher der vielen natürlichen Datensätze (Temperatur, Regenmenge, Ausbrüche, Druck usw.) und/oder korrespondierende Klimamodelle sind chaotisch?

Natürlich muss ich mit der offensichtlichen Frage anfangen: was ist mit „chaotisch“ gemeint? Ein chaotisches System ist eines, in dem ähnliche Ausgangsbedingungen exponentiell entweder konvergieren oder divergieren. Ein Beispiel ist die Meeresoberfläche. Falls man zwei versiegelte leere Flaschen von einem Schiff mitten in einem Ozean ins Wasser wirft, je eine auf jeder Seite des Schiffes, werden sie mit der Zeit auseinanderdriften. Dieser Vorgang wird zunächst langsam ablaufen, dann aber schneller und immer schneller, wenn die Flaschen nämlich von verschiedenen Strömungen und Winden in verschiedenen Gebieten erfasst werden.

Ob ein Datesatz chaotisch ist oder nicht, wird allgemein mit Hilfe des Lyapunov-Exponenten [?] festgestellt. Dabei handelt es sich um eine Maßzahl des „Dehnungsfaktors“ [stretching factor]. In unserem Beispiel mit den Ozeanen misst der Dehnungsfaktor, wie schnell sich die beiden Punkte mit der Zeit auseinander bewegen. In einem chaotischen Datensatz nimmt der Dehnungsfaktor allgemein mit der Zeit zu oder ab. In nicht-chaotischen Datensätzen andererseits bleibt der Dehnungsfaktor mit der Zeit konstant. Die folgende Abbildung zeigt die „Lyanupov-Kurven“ der Evolution des Dehnungsfaktors mit der Zeit bei einigen natürlichen und berechneten Datensätzen.

Abbildung 1: Lyanupov-Kurven für einige Datensätze. Alle Datensätze sind vor der Analyse trendbereinigt und standardisiert worden.

Nun habe ich vier Arten von Datensätzen graphisch dargestellt, gekennzeichnet durch die vier Farben. Der erste Typ (rot), meist überdeckt von den blauen Linien, zeigt eine Auswahl von vier verschiedenen Zufalls-Datensätzen – normal, gleichmäßig, eine Poisson-Verteilung [?] und ein hoher Hurst-Exponent, teils Gauss’sche Zufallszahlen. Im Grunde liegen die Lyanupov-Kurven von Datensätzen mit Zufallszahlen ziemlich genau übereinander. Beginnend am Zeitpunkt 0 erreichen sie sehr schnell ihren maximalen Wert und verharren dann dabei. Wie zu erwarten war gibt es in den Zufallsdaten keinen Trend des Dehnungsfaktors mit der Zeit.

[Dieser Abschnitt enthält einige Fachbegriffe, die ich noch nie gehört habe. Um sicherzustellen, dass die Übersetzung korrekt ist, folgt hier das Original: Now, I’ve graphed four types of datasets above, indicated by the four colors. The first type, shown in red and mostly obscured by the blue lines, shows four different varieties of random numbers—normal, uniform, poisson, and high Hurst exponent fractional Gaussian random numbers. Basically the Lyapunov curves of the random number datasets are all plotting right on top of each other. Starting from time = 0, they climb rapidly to their maximum value and then just stay there. As we would expect from random data, there’s no trend in the stretching factor over time.]

Die nächste Gruppe in blau zeigt die Lyanupov-Kurven für ein halbes Dutzend klimabezogener Datensätze, nämlich:

● HadCRUT4 monatliche mittlere Lufttemperatur 1850 bis 2015

● Jährlichen Minimal-Wasserstand im Nil 622 bis 1284 [ Annual Nilometer Minimum River Height]

● Monatliche Gezeiten in Stockholm 1801 bis 2001

● Tägliche Maximum-Temperatur der Aufzeichnung in Central England 1878 bis 2015

● Tägliche mittlere Temperatur in Armagh, Irland, 1865 bis 2001

● Jährliche mittlere Durchflussmenge des Nils in m³ pro Sekunde, 1870 bis 1944

Wie man sieht, sind hinsichtlich der Lyanupov-Analyse alle sechs dieser klimabezogenen Datensätze (blaue Linien) nicht unterscheidbar von den vier Zufallsdatensätzen (rote Linien), welche wiederum untereinander ununterscheidbar sind. Keiner zeigt irgendwelche Spuren chaotischen Verhaltens.

Eine weitere Gruppe von Datensätzen, und zwar jene unten in gelben Farben, unterscheiden sich ziemlich von den Zufalls- und den Beobachtungs-Datensätzen. Bei ihnen handelt es sich um einige chaotische Datensätze. Man beachte, dass sie alle eines gemeinsam haben – wie oben erwähnt, nimmt die Entfernung voneinander (bestimmt nach dem „Dehnungsfaktor“) mit der Zeit zu. Die Rate des Auseinanderdriftens erreicht einfach nicht einen höchsten Punkt und bleibt dort, wie es bei den anderen beiden Datensätzen der Fall war. Die Rate des Auseinanderdriftens in chaotischen Datensätzen nimmt mit der Zeit unverändert weiter zu.

Schließlich sind noch ein paar andere Datensätze in violett gezeigt. Diese zeigen Beobachtungen von Phänomenen, die man gewöhnlich als „Treiber“ [forcings] betrachtet. Eine davon zeigt die Änderungen der Sonnenaktivität mit den täglichen Sonnenflecken als Proxy für die Aktivität von 1880 bis 2005. Die andere ist die jährliche optische Tiefe [Dichte?] von Aerosolen von 800 bis 2000, welche normalerweise eine Funktion vulkanischer Aktivität ist und aus Eisbohrkernen berechnet wurde. Komischerweise liegen diese beiden Datensätze irgendwo zwischen den Zufalls-Beobachtungen oben und den chaotischen Datensätzen unten. Zusätzlich zeigen beide eine signifikante Variation des Dehnungsfaktors mit der Zeit. Die Sonnenflecken zeigen einen leichten, wenngleich signifikanten Anstieg. Die optische Tiefe der Aerosole geht zurück, und es sieht so aus, als würde sie danach wieder steigen. Es scheint also, dass diese beiden Datensätze schwach chaotisch sind.

Diese Ergebnisse waren für mich sehr überraschend. Ich habe lange gedacht, ohne dies nachzuprüfen, dass das Klima chaotisch ist … allerdings zeigt diese Analyse, dass zumindest jene sechs Beobachtungs-Datensätze, die ich oben analysiert habe, nicht im Mindesten chaotisch sind. Aber was weiß ich schon … ich bin von gestern.

Gibt es überhaupt irgendwelche Klima-Datensätze, die chaotisch sind, und sei es auch nur schwach chaotisch? Ich denke schon. Es scheint, dass die Wassertemperatur tropischer Ozeane leicht chaotisch ist … aber dieser Frage werde ich im nächsten Beitrag nachgehen, in dem es um den Gedanken von Dan Hughes geht hinsichtlich der Hurst-Analyse, um zwischen chaotischen und nicht-chaotischen Datensätzen zu unterscheiden.

CODE: To calculate the Lyapunov exponent I’ve used the lyap_k function from the R package tseriesChaos. Here are the functions I used to make Figure 1:

Link: http://wattsupwiththat.com/2015/10/22/is-the-climate-chaotic/

Übersetzt von Chris Frey EIKE

Anmerkungen von Prof. Dr. Horst-Joachim Lüdecke:

Der Aufsatz von Willis Eschenbach verwirrt, denn ihm sind unsere nachfolgend aufgeführten Arbeiten, die alle den Hurst-Exponenten als maßgebende Größe berücksichtigen, eigentlich bekannt, wurden aber weder erwähnt noch berücksichtigt. Zumindest bei einer Blogdiskussion (Judith Curry) über eine dieser Arbeiten war Eschenbach sogar mit dabei, ohne allerdings dabei tiefere Kenntnis über autokorrelierte Zeitreihen an den Tag zu legen, was seinen Aufsatz in WUWT verständlicher macht. Ich hatte in einem E-Mail-Verkehr mit ihm damals versucht, ihm die Grundzüge der DFA-Analyse zu erklären. Ob mit Erfolg, weiß ich nicht. (US-Kollegen haben oft die für mich oft befremdliche Art, wenn sie an einer Information interessiert sind, unglaublich nett und höflich um diese zu bitten und zu kommunizieren. Ist das Thema abgeschlossen oder kann man die Info nicht zufriedenstellend erbringen, wird der Austausch dann kommentarlos und abrupt abgebrochen, kein Dankeschön, nichts).

Der Blog "kalte Sonne" und die ersten beiden der unten aufgeführten Publikationen belegen, dass das Klima sehr wohl maßgebende zyklische Eigenschaften auf Zeitskalen von mehreren 100.000 Jahren (Milankovitch) bis zumindest herunter von 200 Jahren (de Vries / Suess Zyklus) aufweist. Chaotische Eigenschaften hat es überdies. Das Klima ist anscheinend beides, geforscht wird heute, wie sich die Anteile auswirken bzw. wie stark sie sind.

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Paleoclimate forcing by the solar de Vries / Suess cycle, Clim. Past Discuss 11, 279-305, 2015
http://www.clim-past-discuss.net/11/279/2015/cpd-11-279-2015.pdf

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records,
Clim.
Past. 9, 447-452 (2013), http://www.clim-past.net/9/447/2013/cp-9-447-2013.pdf 

H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011), http://www.eike-klima-energie.eu/uploads/media/How_natural.pdf

Bei einem Vergleich von natürlichen Zeitreihen mit den Ergebnissen aus Klimamodellen auf der Basis von Hurst Exponenten kann kaum Sinnvolles herauskommen. Für eine Hurst-Analysyse (mindestens 500 Datenpunkte) sind Messdaten erforderlich – Temperaturzeitreihen in aller Regel – aber auch Niederschlagsreihen. Solche Messdaten sind stets zufällig + autokorreliert. Nebenbei: Niederschlagsdaten sind nach bisherigen Untersuchungen nicht autokorreliert, also offenbar rein zufällig, hier.

Die Eigenschaft "zufällig + autokorreliert" weisen aber in aller Regel die Ergebnisse von Klimamodellen nicht auf, weil die Algorithmen in Klimamodellen den Hurst-Exponenten H auf unnatürliche Werte weit über 1 treiben (Natürliche Temperaturzeitreihen liegen um 0,5 < H < 0,9, der Wert H = 1 entspricht schon rotem Rauschen usw. Eine Zeitreihe mit H > 1 entfernt sich mit zunehmender Zeit beliebig weit vom Ausgangswert, ist also chaotisch, offenbar liefert hier auch der Ljyapunov Exponent ein ähnliches Werkzeug wie die Autokorrelationsanalyse DFA).

Jeder Algorithmus erhöht den Hurst-Exponent unnatürlich und verfälscht ihn, und Klimamodelle enthalten nun einmal Algorithmen. Man kann es auch von folgender Seite sehen: Es ist nicht einfach, zufällige Zeitreihen mit einer vorgegebenen Autokorrelation künstlich zu erzeugen. Ich bezweifle stark, dass es Zeitreihen von Klimamodellen gibt, die zufällige Ergebnisse liefern und dabei realistische Autokorrelationswerte (H < 1) aufweisen. Aber man weiß ja nie was den "Modellieren" noch so alles einfällt. Ein Vergleich von Messdaten mit Klimamodellergebnissen, der auf unterschiedliche Autokorrelation (Hurst-Exponenten) abzielt, erscheint mir daher sinnlos. Man vergleicht Äpfel mit Birnen.

Die physikalische Ursache für die Autokorrelation von realen Temperaturzeitreihen ist übrigens unbekannt. Es könnten in den Reihen steckende Zyklen sein, es kann aber auch etwas anderes sein. Um Zyklen zu entdecken oder gar näher zu analysieren ist die Autokorrelationsanalyse (DFA) leider nicht geeignet. Sie ist aber für vieles andere geeignet (s.o. unsere Arbeiten), näheres dazu würde hier zu weit führen.




Moderne wissenschaftliche Legenden

Nach meinen Erfahrungen bei der Bekämpfung dieser Legenden braucht es für jede Legende das Äquivalent zu einem Speer aus Eichenholz, der durch deren Herz gestoßen wird auf einer einsamen Straßenkreuzung um Mitternacht.

Zufällig habe ich heute über Methan nachgedacht. Dieses Gas soll vermeintlich das Untergangs-Gas schlechthin vor allen anderen Triebhausgasen sein, viele Male stärker als CO2. Mache reden über Dinge wie die „Methan-Zeitbombe“, die irgendwo ticken soll und die uns alle nach Thermageddon blasen wird oder zumindest ins Klimatorium … der vermeintliche Fundort dieses explosiven Zeugs hat sich mit der Zeit geändert…

Also habe ich mal gegoogelt nach „Methan viele Male stärker als CO2“. Dabei zeigten sich an vorderster Stelle die folgenden sechs Ergebnisse, von Nr. 1 abwärts:

EPA: 20 mal so stark

EDF: 84 mal so stark

thinkprogress: 34 mal so stark

onegreenplanet: 100 mal so stark

psehealthyenergy: 20 mal so stark

global-warming-forecasts: 72 mal so stark

In diesen Zahlen erkennt man die initiale Bestätigung, dass der Methan-Alarmismus in Wirklichkeit eine moderne wissenschaftliche Legende ist … eine der roten Flaggen für derartige Legenden ist, dass niemand die genaue Zahl kennt, aber – Himmel, jeder ist absolut sicher, dass sie wirklich, wirklich groß und wirklich,wirklich schlecht für uns ist.

Also fragte ich mich … Das IPCC sagt, dass die Änderung der atmosphärischen Absorption bei einer Verdoppelung des CO2-Gehaltes eine Zunahme um 3,7 W/m² ist. Wie viel Änderung würde aus einer Verdoppelung des Methan-Gehaltes folgen?

Um diese Frage zu beantworten klickte ich mich auf die wundersame MODTRAN site. Unter Verwendung der heutigen Werte für CO2 (~400 ppmv) und Methan (~1,81 ppmv) ergibt sich eine Ausstrahlung [upwelling radiation] von 287,5 W/m².

Dann habe ich den Methangehalt auf 3,62 ppmv verdoppelt, die Berechnungen noch einmal durchgeführt und bekam 286,7 W/m², die von der Obergrenze der Atmosphäre TOA emittiert werden …

…was bedeutet, dass falls sich aus irgendwelchen Gründen während der nächsten 100 Jahre der Methangehalt verdoppelt, der Gesamteffekt eine Zunahme der atmosphärischen Absorption um 0,8 W/m² wäre . Weniger als ein Viertel des Effektes einer CO2-Verdoppelung … schau an, schau an. Das soll das fürchterliche Methan sein, elf mal so stark wie CO2? Weniger als ein Watt pro Verdoppelung?

Also wollte ich natürlich meine Berechnungen noch einmal durchgehen. Zu diesem Zweck verwendete ich die Formeln des IPCC bei der Berechnung der Änderung des Antriebs durch eine gegebene Änderung des Methan-Gehaltes. Diese Formeln finden sich hier, siehe Tabelle 6.2. Ich möchte Sie nicht mit den Berechnungen langweilen, aber sie zeigen: falls sich das atmosphärische Methan-Niveau vom gegenwärtigen Niveau von 1,81 ppmv auf 3,62 ppmv verdoppeln würde, würde der Antrieb um 0,54 W/m² zunehmen. Ein wenig geringer als die 0,8 W/m² von MODTRAN, aber von gleicher Größenordnung, deutlich unter 1 Watt pro Quadratmeter …

Etwas langsamer zum besseren Verständnis. FALLS sich die Methan-Konzentration im nächsten Jahrhundert verdoppeln würde, würden wir eine Zunahme des Antriebs von

Einem halben

Watt pro Quadratmeter

pro Jahrhundert

erwarten.

Und nun … wie wahrscheinlich ist es, dass sich der Methan-Gehalt innerhalb von 100 Jahren verdoppeln wird? Um dies zu beantworten können wir auf die jüngsten Änderungen des Methan-Niveaus schauen. Die jüngsten gemessenen Daten zeigen Folgendes:

Abbildung 1. Quelle: NOAA/ESRL

Eine Verdoppelung des heutigen Niveaus (1810 ppbv oder 1,81 ppmv) wären weitere 1810 ppbv. Wie man sieht, hat der Methan-Gehalt schneller bis etwa zum Jahr 1992 zugenommen, danach etwa linear mit einer geringeren Rate. Die Aufzeichnungsperiode macht etwa ein Drittel eines Jahrhundert aus (36 Jahre). Während dieser Zeit erfolgte eine Zunahme um etwa 250 ppbv. Dies bedeutet, dass im nächsten Jahrhundert bei einem „Business-as-Usual“-Szenario eine Zunahme um etwa das Dreifache erwarten können, oder 750 ppbv. Dies ist weit entfernt von einer Verdoppelung, welche 1810 ppbv betragen würde.

Und der verstärkte Antrieb durch jene 750 ppbv? Nun … es ist ein läppisches Viertel von einem Watt pro Quadratmeter. Aber noch einmal langsamer. Unter einem „Business-as-Usual“-Szenario würden wir eine Zunahme des Antriebs durch Methan erwarten von

Einem Viertel

von einem Watt pro Quadratmeter

pro Jahrhundert.

Was ist, wenn die Anreicherungs-Rate aus dem Ruder läuft und das Methan anfängt, mit dem Dreifachen der gegenwärtigen Rate zuzunehmen? Das wäre zusätzlich 2250 ppbv pro Jahrhundert, welche zu einem zusätzlichen Antrieb von … zwei Dritteln eines einsamen Watts pro Quadratmeter führen würde. MODTRAN zeigt einen etwas höheren Wert, aber immer noch unter 1 W/m². Mickrig!

Und wie groß ist die Wahrscheinlichkeit einer so hohen Rate, dreimal so hoch wie die gegenwärtige Rate von 750 ppbv pro Jahrhundert? Sehr gering. Das erkennt man durch die Betrachtung der letzten 1000 Jahre bzgl. des Methan-Niveaus. Man beachte, dass hier keine globalen Werte stehen wie in Abbildung 1. Da es einen Methan-Gradienten vom Nord- zum Südpol gibt, sind die Werte aus der Antarktis um einiges geringer als in Abbildung 1. Allerdings sind wir am Trend interessiert, der global überall der Gleiche sein dürfte:


Abbildung 2. Quelle: NASA GISS

Von 1900 bis 2000, welches im vorigen Jahrtausend das Jahrhundert mit der schnellsten Zunahme des atmosphärischen Methan-Gehaltes war, stieg die Konzentration um etwa 800 ppbv, ein wenig stärker als die jüngste Zunahme von 750 ppbv pro Jahrhundert (Abbildung 1). Es zeigt sich also keine Beschleunigung der Zunahme-Rate von Methan. Im Gegenteil zeigt sich eher eine Verlangsamung, zeigen doch die letzten beiden Jahrzehnte der Aufzeichnung lediglich eine Zunahme von etwa 400 ppbv. Und tatsächlich ist meine „Business-as-Usual“-Schätzung etwa so hoch wie der Rekord-Anstieg während der letzten eintausend Jahre.

Als Ergebnis denke ich, dass es kaum Aussichten gibt, dass sich die Zunahme des Methan-Gehaltes während der kommenden 100 Jahre verdoppelt, geschweige denn verdreifacht … und selbst bei der sehr unwahrscheinlichen Verdreifachung läge die Zunahme des Strahlungsantriebs immer noch unter 1 W/m² pro Jahrhundert. Nicht pro Jahrzehnt. Pro Jahrhundert.

Ich sage also, das ist kein Gas zum Fürchten. Das ist nichts weiter als ein kümmerliches Beispiel eines Chicken-Little-Gases [?]; ein Lachgas, wenn man so will. Für jeden, der hinsichtlich Methan besorgt ist, sind das gute Nachrichten. Man kann aufhören, sich Sorgen zu machen. Selbst eine extreme Zunahme von Methan über 100 Jahre würde nur einen trivialen Unterschied ausmachen bei dem Strahlungsantrieb. Der Gedanke, dass Methan eine Hauptfigur im Temperaturspiel ist, ist eine moderne wissenschaftliche Legende.

Postskriptum: Ja, ich weiß um die Behauptungen von Einigen, denen zufolge Methan einige starke Rückkopplungen aufweist. Und ja, ich habe diese betrachtet. Eine lautet, dass steigende Temperatur auch einen zunehmenden Methangehalt bedeutet, weil Methan ein Nebenprodukt des Lebens ist, und Leben liebt Wärme. Mehr Wärme = mehr Leben = mehr Verfall = mehr Methan. Die Relation kann man hier einsehen.

Das Problem jener Rückkopplung ist aber: welche Zunahme der Methan-Emissionen auch immer die jüngste globale Temperaturzunahme bewirkt haben könnte, ist bereits in beiden obigen Graphiken enthalten, Abbildungen 1 und 2. Also ist diese Rückkopplung bereits berücksichtigt in der vorhergesagten Zunahme von 750 ppbv pro Jahrhundert.

Die zweite Rückkopplung ist der Tatsache geschuldet, dass Methan nur etwa zehn Jahre lang in der Atmosphäre verbleibt. Danach zerfällt es folgendermaßen (vereinfacht):

CH4 ==> CO2 + 2H2O

Wenn also das CH4 verschwunden ist, verbleiben zwei unterschiedliche Treibhausgase, Kohlendioxid und Wasserdampf. Oh, wie ängstigend!

Aber das Problem mit jener Rückkopplung ist, dass die Zahlen bzgl. Methan so klein sind. Die atmosphärischen Niveaus der drei Gase sind etwa Folgende:

Methan: 1,8 ppmv

CO2: 400 ppmv

Wasserdampf: 6400 ppmv.

Nun dauert die Umwandlungszeit von Methan in der Atmosphäre größenordnungsmäßig zehn Jahre. Dies bedeutet, dass jedes Jahr ein Zehntel Methan umgewandelt wird oder 0,18 ppmv pro Jahrzehnt, d. h. 0,02 ppmv pro Jahr.

Dies bedeutet, dass die Menge des zu CO2 und H2O zerfallenden Methans das CO2-Niveau jedes Jahr um etwa 0,02 ppmv zunehmen lässt (oder 2 ppmv pro Jahrhundert). Der Wasserdampfgehalt nimmt doppelt so viel zu oder um etwa 0,04 ppmv … bedeutungslos gering.

Link: http://wattsupwiththat.com/2015/10/11/scientific-urban-legends/

Übersetzt von Chris Frey EIKE




Obamas Klimainitiative: Etwas wird ihm schließlich gelingen…..nämlich: Die Energiekosten massiv in die Höhe zu bringen!

Ich wiederhole diese interessanten Diagramme hier:
Link zu den Diagrammen: Viele Leute wissen das nicht

 EU Installationen in erneuerbarer Energie: Megawatt / Million Einwohner.

 

Strompreise in Europa
Private Nutzer incl. Steuern und Abgaben

Interessant, nicht wahr? Aber ich bin ein Zahlenmensch, ich will die Ergebnisse analysieren. Mit den Daten aus diesen Veröffentlichungen und das Hinzufügen der US Daten, habe ich die Beziehung graphisch dargestellt…. Folgende Grafik zeigt das Ergebnis:

 

Grafik Eschenbach: Stromkosten als Funktion der installierten, erneuerbaren Kapazität pro Kopf. nur Wind und Photovoltaik, ohne Wasserkraft [Updated: Australien hinzugefügt und Einheiten korrigiert]

Das ist ein sehr interessantes Ergebnis. Die Kapazität der installierten Erneuerbaren Pro-Kopf erklärt für sich bereits 84% der Variation der Stromkosten. Keine große Überraschung angesichts der verrückt-hohen Kosten der erneuerbaren Energien, aber es ist sehr nützlich für eine weitere Berechnung.

Heute, sagte Präsident Obama, er wolle, dass in Amerika bis zum Jahr 2030 28% der Elektrizität aus erneuerbaren Energien kommt. Er hat seinen Plan nicht detailliert, so dass ich annehme, Wasserkraft ist in Kalifornien und anderen Staaten mit [eigenen] Zielen für Erneuerbare, wie auch bei obiger EU Grafik, nicht in den Zahlen für Erneuerbare enthalten. Und die Energie muss aus Wind und Solar kommen. (Warum? In Kalifornien, erklärten sie, dass Wasserkraft ausgeschlossen wurde, weil es sonst zu einfach wäre, die erneuerbaren Ziele zu erreichen … ernsthaft, das war ihre Erklärung.)

Derzeit erhalten wir etwa 4% unseres Stroms aus Wind und Sonne. Er will es auf 28% anheben, was bedeutet, wir brauchen die installierte Leistung sieben Mal. Derzeit haben wir etwa 231 Watt / Kopf [1] Wind- und Solar installiert (siehe Abbildung 1). Obamas Plan erfordert, dass wir das fast sieben Mal benötigen, 1537 Watt / Kopf [1]. Und unter der Annahme, dass wir die Beziehung in Abbildung 1 verlängern, bedeutet dies, dass der durchschnittliche Strompreis in den USA notgedrungen bis zu nicht weniger als 43 Cent pro Kilowattstunde ansteigt. (Dies umfasst die verborgenen 1,4 Cent / kW Kosten aufgrund der fünf Cent pro Kilowattstunde Zuschuss zu den Solar / Wind Produzenten).

Da die aktuelle durchschnittliche US-Kilowattstunde etwa 12 Cent kostet … bedeutet das, der Preis für Strom wird sich in den nächsten 15 Jahren wahrscheinlich fast vervierfachen

Und da Präsident Obama bekanntlich voraussetzt, dass unter seinem Energieplan die Strompreise zwangsläufig "in die Höhe schnellen" … sieht es so aus, als ob ihm vielleicht endlich etwas gelingen wird.

Da dies illegal oder zumindest stark unsachgemäß durch Obamas präsidialen "Edikt und Erlass" [fiat] geschehen wird, scheint es , das wir nur wenig dagegen tun können, außer, dass Sie Ihre Freunde und Nachbarn wissen lassen, dass dank Obama und der Demokratischen Partei, ihre Stromrechnung in die Höhe schnellt … sonst wird Obama wahrscheinlich alles auf Präsident Bush schieben.

Alles Gute für Sie,

Willis Eschenbach.

Mein übliches Plädoyer: Wenn Sie mit etwas nicht einverstanden sind, zitieren Sie bitte die genauen Worte, denen Sie widersprechen. So können wir alle genau verstehen, gegen was Sie Einwände haben.

Informationen zur Vorhersage: Es ist immer gefährlich, zu versuchen, die Zukunft vorauszusagen. In diesem Fall haben wir ein paar Probleme: Erstens wissen wir nicht, ob diese Beziehungen auch weiterhin in der Zukunft zutreffen werden. Und wir wissen nicht, ob Amerikas Weg wie die der anderen Länder sein wird. Die gute Nachricht ist die Tatsache, dass es 19 Länder gibt, die stark sowohl in der installierten Leistung als auch der wirtschaftlichen Entwicklung abweichen, das gibt einigen Trost.

Als nächstes die Ausreißer. Ich habe getestet, indem ich Dänemark und Deutschland entfernt habe, um zu sehen, ob es den Trend verändert, … es verändert kaum. Das war sehr ermutigend, weil es bedeutet, dass wir die gleiche Beziehung erhalten, wenn wir die Daten von 600 kW / Kopf (Spanien etc.) hochrechnen, auf etwa 1000 kW / Kopf, eine Projektion von etwa 60% mehr. Da die Hochrechnung der projizierten US-Kapazität / Kopf (1000 auf 1500 kW / Kopf) etwa die gleiche Größe ist, erhöht dies das Vertrauen in die Schätzung.

Schließlich müssen wir einige Annahmen über US Stromverbrauch im Jahr 2030 treffen. Es wird sich erhöhen … aber um wie viel? Glücklicherweise ist die unabhängige Variable der erneuerbaren Kapazität pro Kopf fixiert. Dies bedeutet, dass die Verlängerung der Zeile enthält die stillschweigende Annahme enthält, dass der Stromverbrauch sich mit etwa der gleichen Rate wie die Bevölkerung zunimmt Während wir keine Möglichkeit haben um zu wissen ob dies wahr ist, hat der US-Stromverbrauch pro Kopf sich in den letzten zwei Jahrzehnten abgeflacht, so ist es eine vernünftige Annahme.

Erschienen auf WUWT am 3. August 2015

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2015/08/03/obama-may-finally-succeed/

[1] update vom 15.08.2015, Demmig
– im Original kW;  in W korrigiert, siehe #3 Kühn 

Einen ähnlichen Beitrag gab es bereits im April 2014 auf EIKE, allerdings damals noch weniger dramatisch als es Willis Eschenbach beschreibt.

Studie-der-windindustrie-zeigt-strompreise-in-windkraft-staaten-explodieren

http://tinyurl.com/p2jv5q5




Wiederholte Versuche zur Autokorrelation und Albedo

Bild rechts: Foto der Szenerie vor dem Haus von Eschenbach (aus seinem Beitrag).

Nehmen wir jetzt einmal an, wir nehmen die gleichen sieben Münzen und werfen alle sieben nicht nur einmal, sondern zehnmal. Wie groß ist die Wahrscheinlichkeit, dass in einem dieser Würfe siebenmal Zahl oben liegt?

Nun kann man auch ohne jede Berechnung sofort erkennen, dass die Chance für ein solches Ergebnis umso größer ist, je öfter man die Münzen wirft. Ich habe die Berechnungen unten als Anhang beigefügt, aber für jetzt wollen wir nur festhalten, dass wenn wir den Münzenwurf nur zehnmal ausführen, die Chance eines zufälligen Ergebnisses von siebenmal Zahl (ein statistisch signifikantes Ergebnis im Signifikanz-Level 99%) von 1% auf 7,5% steigt (nicht im Mindesten statistisch ungewöhnlich).

Kurz gesagt, je mehr Stellen man sich anschaut, umso größer ist die Chance, Seltsamkeiten zu finden, die folglich umso weniger signifikant werden. Praktische Auswirkung hiervon ist, dass man das Signifikanz-Niveau mit der Anzahl der Versuche adjustieren muss. Falls das Signifikanzniveau 95% beträgt, wie es in der Klimawissenschaft üblich ist, dann gilt: Falls man auf 5 Versuche schaut, um ein demonstrativ ungewöhnliches Ergebnis zu bekommen, muss man etwas Bedeutendes im 99%-Niveau finden. Hier folgt eine kleine Tabelle, in der die Anzahl der Versuche mit dem Signifikanz-Niveau verglichen werden, falls man nach dem Äquivalent eines Signifikanz-Niveaus von 95% aus einem einzigen Versuch sucht:

Damit als Prolog folgte ich meinem Interesse am Thema Albedo und untersuchte die folgende Studie mit dem Titel Spring–summer albedo variations of Antarctic sea ice from 1982 to 2009:

Abstract: In dieser Studie wurden die mittleren Albedo-Werte im Frühjahr und Sommer (November bis Februar) sowie deren Trends untersucht unter Verwendung eines Datensatzes, der 28 Jahre lange homogenisierte Satellitendaten für das gesamte Gebiet des antarktischen Meereises enthält sowie für fünf Längengrad-Sektoren rund um die Antarktis: Weddell-See (WS), den Sektor Indischer Ozean (IO), den Sektor Pazifischer Ozean (PO), die Ross-See (RS) und die Bellinghausen-Amundsen-See (BS).

Man erinnere sich: je mehr Stellen man betrachtet, umso wahrscheinlicher wird es, Seltsamkeiten zu finden … wie viele Stellen betrachten sie also?

Nun, zuallererst haben sie den Datensatz offensichtlich in fünf Teile aufgeteilt. Also schauen sie an fünf Stellen. Schon jetzt müssen wir eine Signifikanz von 99% finden, um eine Signifikanz von 95% behaupten zu können.

Allerdings betrachten sie auch nur einen Teil des Jahres. Einen wie großen Teil des Jahres? Nun, das meiste Eis findet sich nördlich von 70°S, so dass messbares Sonnenlicht etwa acht Monate lang darauf fällt. Dies bedeutet, dass sie die Hälfte der zur Verfügung stehenden Albedo-Daten nutzen. Die von ihnen ausgewählten vier Monate sind diejenigen mit dem höchsten Sonnenstand, insofern ist das vernünftig … aber es bleibt die Tatsache, dass sie Daten aussortieren, und dies beeinflusst die Anzahl der Versuche.

Wie auch immer, selbst falls wir die Frage nach der Unterteilung des Jahres vollständig beiseite schieben wissen wir, dass die Karte selbst in fünf verschiedene Teile unterteilt worden ist. Das bedeutet, um eine Signifikanz von 95% zu erhalten muss man etwas finden, dass mit 99% signifikant ist.

Allerdings haben sie tatsächlich gefunden, dass die Albedo in einem der fünf Eisgebiete (der Sektor Pazifischer Ozean) einen Trend aufweist, der beim 99%-Niveau signifikant ist. Ein weiterer Trend (der Sektor Bellinghausen-Amundsen) ist beim 95%-Niveau signifikant. Und dies wären interessante und wertvolle Ergebnisse … außer einem anderen Problem. Das betrifft den Aspekt Autokorrelation.

„Autokorrelation“ bedeutet, wie ähnlich die Gegenwart mit der Vergangenheit ist. Falls die Temperatur an einem Tag -40°C und am nächsten Tag +30°C betragen könnte, würde dies nur eine sehr geringe Autokorrelation zeigen. Aber falls (wie es der Normalfall ist) einem Tag mit einer Temperatur von -40°C ein weiterer eisiger Tag folgt, wäre dies sehr viel Autokorrelation. Und Klimavariablen im Allgemeinen tendieren dazu, autokorreliert zu sein, oftmals erheblich.

Nun, eine Seltsamkeit autokorrelierter Datensätze ist, dass sie dazu tendieren, „trendig“ zu sein. Es ist wahrscheinlicher, einen Trend in autokorrelierten Datensätzen zu finden als in einem Satz mit Zufallsdaten. Tatsächlich fand sich in Zeitschriften vor nicht allzu langer Zeit ein Artikel unter der Überschrift Nature’s Style: Naturally Trendy. (Ich sagte „vor nicht allzu langer Zeit“, aber meine Recherche ergab das Jahr 2005). Es scheint, dass viele Menschen jenes Konzept natürlicher Trendigkeit verstanden haben, wurde doch diese Studie seinerzeit lang und breit diskutiert.

Was weitaus weniger gut verstanden zu sein scheint, ist diese Folgerung:

Da die Natur natürlicherweise trendig ist, ist das Auffinden eines Trends in Messungs-Datensätzen weniger signifikant als es scheint.

In diesem Falle habe ich die Trends digitalisiert. Während ich ihre beiden „signifikanten“ Trends in der Bellinghaus-Amundsen-See bei 95% und im Sektor Pazifischer Ozean bei 99% finden konnte, passend zu meinen eigenen Berechnungen, fand ich unglücklicherweise auch das heraus, was ich vermutet hatte – sie haben Autokorrelation wirklich ignoriert.

Mit ein Grund dafür, warum die Autokorrelation in diesem speziellen Fall so wichtig ist, liegt darin, dass wir mit nur 27 jährlichen Datenpunkten beginnen. Als Ergebnis beginnen wir mit großen Unsicherheiten infolge der geringen Größe der Stichprobe. Der Effekt von Autokorrelation ist, diese schon jetzt unzureichende Stichprobengröße weiter zu reduzieren, so dass das effektive N ziemlich klein ist. Das effektive N [=Anzahl?] für die Bellinghausen-Amundsen-See (BS) beträgt 19 und für den Sektor Pazifischer Ozean (PO) nur 8. Ist Autokorrelation erst einmal berücksichtigt, sind beide Trends überhaupt nicht statistisch signifikant, liegen sie doch beide unter dem 90%-Signifikanz-Niveau.

Führt man zu den Autokorrelations-Effekten noch den Effekt wiederholter Versuche hinzu, bedeutet das im Grunde, dass nicht einer ihrer erwähnten Trends der „Frühjahrs-Sommer-Albedo-Variationen“ statistisch signifikant ist, nicht einmal ansatzweise.

Schlussfolgerungen? Nun, ich muss sagen, dass wir in der Klimawissenschaft unser statistisches Spiel überbieten müssen. Ich bin bei weitem kein Experten-Statistiker. Da sind Personen wie Matt Briggs, Statistician to the Stars, viel besser geeignet. Tatsächlich habe ich nie eine Statistik-Vorlesung besucht. Ich habe mir alles selbst beigebracht.

Falls ich also ein wenig über die Effekte weiß, einen Datensatz nach Signifikanz-Niveaus zu unterteilen, und die Auswirkungen von Autokorrelation auf Trends kenne – wie kommt es dann, dass diese Kerle das nicht wissen? Zur Klarstellung, ich glaube nicht, dass sie es absichtlich tun. Ich glaube, dass es ein echter Fehler ihrerseits war, sie haben einfach nicht den Effekt ihrer Aktionen erkannt. Aber zum Kuckuck, zu sehen, wie Klimawissenschaftler diese gleichen beiden Fehler wieder und immer wieder machen, wird langweilig.

Schließen möchte ich mit einer wesentlich positiveren Anmerkung. Ich erfahre gerade, dass das Magazin Science ein Gremium von Statistikern ins Leben rufen will, das die Einreichungen lesen soll, um ehrliche Fehler vermeiden zu helfen und die Standards von Datenanalysen zu steigern.

Das scheint mir sehr in Ordnung.

—————————————————-

Wiederholte Versuche: Bei der tatsächlichen Berechnung, wie viel besser die Chancen bei wiederholten Versuchen stehen, nutzt man die Tatsache aus, dass falls die Chancen, das etwas passiert, mit X bezeichnet werden (die 1/128 im Falle sieben geworfener Münzen, die dann ,Zahl‘ zeigen), die Chance, dass dann etwas NICHT passiert 1-X, d. h. 1 – 1/128 oder 127/128 beträgt. Es stellt sich heraus, dass die Chance, dass es NICHT passiert bei N Versuchen

(1-X)↑N

ist oder (127/128)↑N. Für N = 10 Würfe von sieben Münzen ergibt sich die Chance, dass NICHT siebenmal ,Zahl‘ erscheint, zu (127/128)↑10oder 92,5%. Dies bedeutet, dass die Chance, dass bei zehn Würfen siebenmal ,Zahl‘ erscheint, 1 minus der Chance ist, dass es nicht passiert, also etwa 7,5%.

Ganz ähnlich, falls wir nach dem Äquivalent eines Vertrauens von 95% in wiederholten Versuchen suchen, beträgt das erforderliche Vertrauensniveau bei N-mal wiederholten Versuchen

0,95↑1/N

Autokorrelation und Trends: Gewöhnlich verwende ich die Methode von Nychka, bei welcher ein „effektives“ N verwendet wird, also eine reduzierte Anzahl von Freiheitsgraden zur Berechnung statistischer Signifikanz.

Hier ist n die Anzahl der Datenpunkte, r die Verzögerung minus 1-Autokorrelation und n↓eff das effektive N.

Falls ich jedoch etwas von entscheidender Bedeutung vor mir habe, verwende ich an Stelle von Nychkas heuristischer Methode wahrscheinlich eine Monte-Carlo-Methode. Ich erzeuge beispielsweise 100.000 Beispiele von ARMA (auto-regressive moving-average model) Pseudo-Daten, die gut zur Statistik der aktuellen Daten passen, und ich würde die Verteilung der Trends in jenem Datensatz untersuchen.

Link: http://wattsupwiththat.com/2015/06/27/repeated-trials-autocorrelation-and-albedo/

Übersetzt von Chris Frey EIKE




Können wir eine Aussage darüber machen, ob sich die Ozeane erwärmen?

Die seinerzeitigen Behauptungen zur Genauigkeit, welche heute immer noch unverändert im Raum stehen, kann man in Abbildung 1a (unten) erkennen. Sie stammt aus einer Studie mit dem Titel „Observed changes in top-of-the-atmosphere radiation and upper-ocean heating consistent within uncertainty“ von Norman G.Loeb et al. 2012, paywalled hier, im Folgenden Loeb2012 genannt:


Abbildung 1: Dies ist Abbildung 1(a) aus Loeb2012. Original-Bildunterschrift: a: jährliche gemittelte Erwärmungsraten in den oberen Schichten der Ozeane, berechnet aus Daten von Pacific Marine Environmental Laboratory/Jet Propulsion Laboratory/Joint Institute for Marine and Atmospheric Research (PMEL/JPL/JIMAR), NODC und Hadley, 0–700 m

Ich möchte mich für die Qualität dieser Graphik entschuldigen, aber leider liegt das Dokument hinter einer Zahlschranke. Das ist schon o. k., mich interessierten auch nur deren Fehlerschätzungen.

Wie man sieht, zeigt Loeb2012 die ozeanischen Erwärmungsraten in Watt pro Quadratmeter für jedes Jahr. Alle drei Gruppen nennen die gleiche Fehler-Größenordnung. Der Fehler in den frühsten Daten beträgt etwa 1 W/m². Allerdings beginnt die Größe der Fehler abzunehmen, als die Bojen im Jahre 2006 online gingen. Am Ende ihrer Aufzeichnungen zeigen alle drei Gruppen Fehler deutlich unter einem halben Watt pro Quadratmeter.

Abbildung 2: Dies ist Abbildung 3(a) aus Loeb2012. In schwarz ist die zur Speicherung verfügbare Wärme dargestellt, abgeleitet aus den CERES-Satellitendaten. In blau sind die Erwärmungsraten bis 1800 m dargestellt und in rot die Erwärmungsraten bis 700 m. Original-Unterschrift: a: globales jährliches Mittel (Juli bis Juni) des Gesamt-TOA-Flusses aus CERES-Beobachtungen sowie die ozeanischen Erwärmungsraten 0 bis 700 sowie 0 bis 1800 m von PMEL/JPL/JIMAR.

Hier erkennt man, dass der Fehler am Ende ihres Datensatzes für die Schicht bis zu einer Tiefe von 1800 Metern ebenfalls unter einem halben Watt pro Quadratmeter lag.

Aber welche Temperaturänderung repräsentiert ein Fehler von einem halben Watt pro Quadratmeter? Meine Faustregel ist einfach.

Ein Watt pro Quadratmeter wärmt einen Kubikmeter Wasser während eines Jahres um 8°C.

(Ja, ich weiß; tatsächlich sind es 8,15°C, aber ich tätige viele allgemeine Berechnungen, so dass ein geringer Fehler-Prozentsatz in Ordnung geht für eine leichtere Berechnung und Speicherung). Das bedeutet, ein halbes Watt pro Quadratmeter schafft in einem Jahr eine Erwärmung von 4°C der gleichen Wassermenge.

Für eine 1800 Meter tiefe Wasserschicht sagt also Loeb2012, dass der Standardfehler ihrer Temperaturmessungen 4°C/1800 m beträgt – macht zwei Tausendstel Grad (0,002°C). Für die dünnere 700 Meter tiefe Schicht – für die der Antriebsfehler der Gleiche, aber die Masse kleiner ist, ergibt sich der gleiche Fehler in W/m² von 4°C/700, was einem alarmierenden Temperaturfehler von 6 Tausendstel Grad (0,006°C) gleichkommt.

Ich sagte zu jener Zeit, dass diese behauptete Genauigkeit um 5 Tausendstel Grad … nun … höchst unwahrscheinlich ist.

Jo Nova weist darauf hin, dass komischerweise die Studie im Jahre 2007 geschrieben worden ist, aber seinerzeit bis heute kaum Aufmerksamkeit erregt hat. Ich hätte sie sicher auch nicht gelesen, als ich meinen o. g. Beitrag geschrieben habe. Die folgenden Abschnitte aus ihrer Studie sind interessant:

Abstract

Wendet man OCCAM auf die typische ARGO-Messdichte an, kommt man zu dem Ergebnis, dass außerhalb der westlichen Begrenzung die monatliche gespeicherte Wärme in der durchmischten Schicht im subtropischen Nordatlantik einen Stichproben-Fehler von 10 bis 20 W/m² aufweist, wenn man über ein Gebiet 10 X 10 mittelt. Dieser Fehler reduziert sich zu weniger als 10 W/m², wenn man die jahreszeitliche Wärmespeicherung berücksichtigt. Fehler dieser Größenordnung zeigen, dass der ARGO-Datensatz interessant ist für die Untersuchung der Variabilität in der durchmischten Schicht in mehrere Jahre langen Zeitmaßstäben. Allerdings erhöht sich der erwartete Stichproben-Fehler auf über 50 W/m² im Gebiet des Golfstromes und nördlich von 40°N, was den Gebrauch von ARGO in diesen Gebieten einschränkt.

Und:

Unsere Analyse von Zufalls-Stichproben von Temperaturfeldern mittels des OCCAM-Modells hat gezeigt, dass das ARGO-Projekt im subtropischen Nordatlantik Temperaturdaten mit einer räumlichen und zeitlichen Auflösung zeigt, dass Ergebnisse einer Stichproben-Unsicherheit bei der Wärmespeicherung in der durchmischten Schicht in einer Größenordnung von 10 bis 20 W/m² liegt. Der Fehler wird kleiner, wenn die betrachtete Periode länger wird und man jahreszeitliche (jährliche) Zeitmaßstäbe nimmt; Reduktion auf 7 ± 1,5 W/m². Innerhalb des Golfstromes und subpolarer Gebiete sind die Stichproben-Fehler viel größer, weshalb der ARGO-Datensatz in diesen Gebieten weniger nützlich ist bei der Untersuchung der Variabilität der Wärmespeicherung in der durchmischten Schicht.

Wieder wollte ich ihre Einheit W/m² in eine Temperaturänderung konvertieren. Das Problem, das ich mit diesen in vielen Studien verwendeten Einheiten habe ist, dass „7 ± 1,5 W/m²“ mir einfach nicht viel sagt. Außerdem messen die ARGO-Bojen nicht W/m², sie messen Temperaturen und konvertieren sie zu W/m². Meine Frage bei der Lektüre der Studie lautete also: um welchen Betrag wird ihr genannter Fehler von „7 W/m²“ die Temperatur der „durchmischten Schicht“ des Nordatlantiks während eines Jahres ändern? Und was meinen sie überhaupt mit durchmischter Schicht?

Nun, sie haben sich ein merkwürdiges Element zum messen ausgesucht. Die „durchmischte Schicht“ ist die oberste Schicht des Ozeans, die sowohl vom Wind als auch dem nächtlichen Umkippen der Ozeane durchmischt wird. Im Klima-Zusammenhang ist dies interessant, weil es sich um den Teil des Ozeans handelt, der auf die sich ändernden Lufttemperaturen darüber reagiert. Die Schicht kann numerisch auf mehrere Arten definiert werden. Im Wesentlichen ist es die Schicht von der Oberfläche bis hinab zur „Thermokline“, also dem Punkt, an dem der Ozean anfängt, sich rasch mit zunehmender Tiefe abzukühlen. Jayne Doucette vom Woods Hole Oceanographic Institute hat eine wunderbare Zeichnung der meisten Dinge angefertigt, die in die durchmischte Schicht eingehen (Aus unbekannten Gründen hat sie eine der wichtigsten Zirkulationen, nämlich das nächtliche Umkippen des oberen Ozeans, weggelassen).

Abbildung 3: Die durchmischte Schicht. Sie zeigt verschiedene physische und biologische Prozesse, die in dieser Schicht ablaufen.

Der Studie zufolge lautet die von ihnen gewählte Definition, dass die durchmischte Schicht bis zu der Tiefe reicht, in der der Ozean um 0,2°C kühler ist als die Temperatur in einer Tiefe von zehn Metern. In Ordnung, kein Problem, das ist eine der Standard-Definitionen … aber wie tief reicht die durchmischte Schicht?

Nun, das Problem ist, dass die Tiefe der durchmischten Schicht sowohl nach Örtlichkeit als auch nach Jahreszeit variiert. Abbildung 4 zeigt typische Variationen in der Tiefe der durchmischten Schicht an einer einzigen Stelle pro Monat.

Abbildung 4: Typische Variationen der Tiefe der durchmischten Schicht pro Monat. Tut mir leid, die Stelle für diese Graphik ist nicht bekannt. Hinsichtlich des Temperaturniveaus tippe ich mal auf den Nordatlantik. In jedem Falle ist sie vollständig repräsentativ für die Spezies.

Man erkennt, dass sich die Temperatur bis hinunter zur Thermokline fast gar nicht ändert und danach rasch zurück geht.

Allerdings konnte ich nirgendwo eine Angabe zur mittleren Tiefe der durchmischten Schicht finden. Stattdessen habe ich daher den monatlichen Klimatologie-Datensatz 2°X2° Tiefe der durchmischten Schicht heruntergeladen mit der Bezeichnung „mld_DT02_c1m_reg2.0_Global.nc”. Daraus habe ich das gebietsgewichtete Mittel der Tiefe der durchmischten Schicht entnommen. Es stellte sich heraus, dass die mittleren Tiefen der durchmischten Schicht global etwas unter 60 Metern liegt. Der gesamte Prozess der Berechnungen und des Schreibens des Code nahm eine halbe Stunde in Anspruch … für Interessierte ist der Code beigefügt [im Original!]

Dann habe ich ihren 2°X2°-Datensatz auf ein 1°X1°-Netz umgerechnet, was natürlich hinsichtlich des Mittelwertes die gleiche Antwort lieferte. Aber damit konnte ich meine gewöhnlichen Graphikverfahren verwenden, um die Tiefe darzustellen.

Abbildung 5: Mittlere Tiefe der durchmischten Schicht rund um den Globus. Grüne und blaue Gebiete zeigen tiefer durchmischte Schichten.

Ich liebe die Klimawissenschaft wirklich, weil ich niemals weiß, was ich in Erfahrung bringen muss, um meine Forschungen durchzuführen. Dieses Mal war es die Erkundung der Tiefe der durchmischten Schicht. Wie man sich vorstellen kann, mischen die höchsten Wellen in den stürmischsten Gebieten der Ozeane diesen bis zu größter Tiefe durch, gezeigt in grün und blau. Man erkennt auch das Abbild des El Nino/La Nina entlang des Äquators vor der Küste Ecuadors. Dort blasen die Passatwinde das warme Oberflächenwasser nach Westen und belassen die Thermokline näher an der Oberfläche. So viel kann man daraus lernen … aber ich schweife ab. Ich konnte sehen, dass eine Anzahl seichter Gebiete im Nordatlantik besteht, die zur Durchführung der ARGO-Studie herangezogen wurde. Also berechnete ich die mittlere Tiefe der durchmischten Schicht im Nordatlantik (5°N-65°N, 0°W-90°W). Es ergab sich eine Zahl von 53 Metern, etwa sieben Meter höher als das globale Mittel.

Betrachten wir noch einmal die Faustregel:

Ein Watt pro Quadratmeter über ein Jahr erwärmt einen Kubikmeter Meerwasser um etwa acht Grad.

Berechnet man die Faustregel mit einer Tiefe von 53 Metern, erwärmt ein W/m² über ein Jahr 53 Kubikmeter Wasser (Tiefe der durchmischten Schicht) um etwa 8/53 = 0,15°C. Allerdings geben sie den jährlichen Fehler mit sieben W/m² an (siehe deren obiges Zitat). Dies bedeutet, dass Hadfield2007 sagen, dass die ARGO-Bojen nur die mittlere jährliche Temperatur der durchmischten Schicht im Nordatlantik bestimmen können mit einer Genauigkeit von plus/minus 1°C…

Nun, das scheint mir vernünftig. Es ist sehr, sehr schwierig, die mittlere Temperatur eines stark in Bewegung befindlichen Wasserkörpers genau zu messen, wenn es sich um den Nordatlantik oder irgendeinen anderen Ozean.

So weit, so gut. Jetzt kommt der schwierige Teil. Wir wissen, dass ARGO die Temperatur der durchmischten Schicht im Nordatlantik messen kann mit einem Fehler von ±1°C. Da erhebt sich jetzt folgende Frage: Falls wir den gesamten Ozean mit der gleichen Dichte von Messpunkten wie bei ARGO im Nordatlantik messen könnten, welcher Fehler würde dem finalen Mittelwert innewohnen?

Die Antwort hierauf ruht auf einer seltsamen Tatsache – unter der Annahme, dass die Fehler symmetrisch sind, würde der Fehler des Mittels einer Reihe von Temperaturmessungen, von denen jede seinen eigenen inhärenten Fehler enthält, kleiner sein als der Mittelwert der individuellen Fehler. Falls die Fehler alle gleich – sagen wir – E sind, dann errechnet sich die Größenordnung des Fehlers bei einer Mittelung von N Werten, von denen jeder einzelne den Fehler E aufweist mit

sqrt(N)/N

Beispiel: wenn man 100 Werte mittelt, von denen jeder einzelne den Fehler E aufweist, beträgt der Fehler ein Zehntel E (sqrt(100)/100).

Falls die 118 Fehler andererseits nicht alle gleich sind, dann wird durch sqrt(N)/N nicht der Fehler E angegeben, sondern

sqrt(E^2 + SD^2)

wobei SD die Standardabweichung der Fehler ist.

Jetzt wollen wir für einen Moment annehmen, dass der globale Ozean mit der gleichen Messdichte vermessen wird wie der Nordatlantik in der Studie. Dem ist nicht so, aber ignorieren wir das mal für einen Moment. Betrachtet man die 700 Meter tiefe Schicht, müssen wir bestimmen, wie viel größer das Volumen als das Volumen der durchmischten Schicht im Nordatlantik ist. Folgende Antwort schält sich heraus: der globale Ozean bis zu einer Tiefe von 700 Metern hat 118 mal das Volumen des NA bis 700 m.

Während wir den mittleren Fehler kennen (7 W/m² = 1°C), kennen wir unglücklicherweise nicht die Standardabweichung jener Fehler. Allerdings sagen sie, dass es viele Gebiete mit größeren Fehlern gibt. Falls wir also etwas wie eine Standardabweichung von 3,5 W/m² = 0,5°C annehmen, ist dies vermutlich ein konservativer Wert, der gut und gern auch größer sein kann.

Alles in allem: FALLS wir dir durchmischte Schicht des Nordatlantiks messen können mit einem mittleren Fehler von 1°C und einer Fehler-Standardabweichung von 0,5°C, dann sollten wir in der Lage sein, mit der gleichen Dichte von Messungen den globalen Ozean zu erfassen mit

sqrt(118)/118 * sqrt( 1^2 + 0.5^2 ) = 0.1°C

Jetzt zurück zu Loeb2012, der einen Fehler von irgendwo bei 0,005°C geltend machte … was um einen Faktor 20 zu optimistisch erscheint.

Und meine Vermutung ist: unterschätzt man den tatsächlichen Fehler um einen Faktor 20, ist dies der beste Fall [best case]. Ich sage dies, weil sie bereits gesagt haben, dass der zu erwartende Stichproben-Fehler auf über 50 W/m² im Gebiet des Golfstromes und nördlich von 40°N steigt“. Also gilt ihre Schätzung nicht einmal für den gesamten Nordatlantik.

Ich rede auch vom Best Case, weil dies nahelegt, dass a) die Fehler symmetrisch sind und b) alle Teile des Ozeans mit der gleichen Frequenz wie die oberen 53 Meter des Mittelmeeres erfasst werden. Ich bezweifle, dass irgendetwas davon stimmt, was die Unsicherheit sogar noch größer machen würde.

In jedem Falle bin ich froh, dass wieder einmal die Mainstream-Wissenschaft die interessante Arbeit verifiziert, die hier bei WUWT geleistet wird. Falls Sie sich fragen, was das alles bedeutet, betrachten Sie Abbildung 1 und bedenken Sie, dass die Fehlerbalken in Wirklichkeit zwanzig mal größer sind … dann ist es eindeutig, dass wir nichts darüber sagen können, ob sich die Ozeane erwärmen, abkühlen oder keines von beiden der Fall ist.

Link: http://wattsupwiththat.com/2015/06/06/can-we-tell-if-the-oceans-are-warming/

Übersetzt von Chris Frey EIKE




Schlaglöcher in ihren Argumenten

Abbildung rechts: Eine der ältesten, den Historikern bekannten Kosten-Nutzen-Analysen

Nun, das ist ein merkwürdiger Standpunkt, stehen doch der Guardian und seine Freunde zu 1000% [eintausend Prozent] hinter der Subventionierung "Erneuerbarer", vor allem solcher "Erneuerbarer", die nicht funktionieren … schauen Sie selbst. Aber angesichts dessen, dass die "Erneuerbaren" infinitesimal kleine Mitspieler sind im globalen Energiespiel, geht es in diesem Report um die Subventionierung derjenigen Energie-Mitspieler, die eigentlich … Energie in bedeutender Menge erzeugen. Das wären die bösen Öl- und Kohle- und Erdgasunternehmen. In der Welt des Guardian sind solche Subventionen per definitionem schlecht.

Also habe ich mich entschlossen, ihr Arbeitspapier wie ein Idiot zu erkunden. Zwar bin ich ein Fan von Erkundungen in unbekanntem Terrain, in den Karten als „Terra Incognita“ gekennzeichnet – aber in diesem Falle war es kein Vergnügen.

Ich bin sicher, dass viele Menschen wissen, was eine „Kosten-Nutzen-Analyse“ ist – man zieht eine vertikale Linie in der Mitte eines Blattes Papier. Auf der einen Hälfte, sagen wir mal rechts, listet man alle Kosten des fraglichen Vorhabens. Und auf der linken Seite listet man alle Vorteile des geplanten Vorhabens. Die Abbildung oben rechts zeigt eines der frühesten bekannten Beispiele einer Kosten-Nutzen-Analyse.

Der IMF hat das Blatt Papier entlang der vertikalen Mittellinie zerrissen und uns die Hälfte mit den Kosten der angeblichen „Subventionen“ übergeben, zusammen mit der Behauptung, dass es sich um eine saubere Analyse handelt. Das stimmt aber nicht. Es ist eine Liste mit wild übertriebenen Kosten, und nur Kosten.

Jetzt möchte ich etwas klarstellen. Ich habe kein inhärentes Problem mit Subventionen. Wir subventionieren alle möglichen Aktivitäten, wir müssen lediglich die richtigen auswählen. Und ich habe kein Problem mit einer Kosten-Nutzen-Analyse. Das ist eine sehr nützliche Methode.

Aber die Betrachtung nur der Kosten unter Ignorieren der Vorteile? Das ist keine Analyse irgendeiner Art.

Aber Moment, es wird noch viel schlimmer. Man erlaube mir, die Kurzversion des IMF-Arbeitspapiers zu zitieren. Erstens, um alles ins rechte Licht zu setzen, folgt hier ihr Abstract (Hervorhebung von mir):

Diese Studie bietet ein umfassendes, aktualisiertes Bild der Energiesubventionen im globalen und regionalen Maßstab. Sie konzentriert sich auf die breit gefächerte Auffassung von Energiesubventionen nach Steuern [post-tax energy subsidies]. Sie treten auf, wenn die Verbraucherpreise unter den Lieferkosten liegen plus eine Steuer, um Umweltschäden Rechnung zu tragen und einer zusätzlichen Steuer auf alle Verbrauchsgüter, um das Einkommen der Regierung zu vergrößern. Energiesubventionen nach Steuern sind dramatisch höher als zuvor geschätzt und dürften auch zukünftig sehr hoch bleiben. Diese Subventionen reflektieren hauptsächlich den unter Wert angesetzten Preis aus heimischer (und nicht globaler) Perspektive. Eine einseitige Preisreform liegt also im ureigenen Interesse des Landes. Die potentiellen fiskalischen, umweltlichen und Wohlstands-Auswirkungen einer Reform der Energiesubventionen sind substantiell.

Wie man sieht, befinden wir uns bereits im Spezialisten-Jargon. Das ist noch kein Problem, haben doch alle Fachgebiete einen Jargon. In ihrer Welt bedeutet „Energiesubventionen vor Steuern“ Geld, das zu dem Unternehmen oder der Industrie oder der Aktivität fließt, das subventioniert wird. Allgemeiner: Vor-Steuern-Subventionen sind Subventionen, die tatsächlich die Grundlinie der Bilanzen einiger begrenzter Untergruppen von ökonomischen Akteuren beeinflusst. Mit anderen Worten, „Vor-Steuern-Subventionen“ sind das, an das die meisten von uns sofort denken, wenn sie das Wort „Subventionen“ hören.

Was diese braven Menschen als „Energiesubventionen nach Steuern“ ansehen, sind andererseits keine Subventionen im normalen Sinne. Kein Cent davon fließt überhaupt an die Energieunternehmen.

Um den Unterschied hervorzuheben, möchte ich ein kristallklares Beispiel dafür nennen, was der IMF als „Energiesubvention nach Steuern“ an die böse Ölindustrie ansieht … aber zuvor halte ich es für meine Pflicht, davor zu warnen, dass das Folgende nichts für Blumenkinder oder andere Weichherzige ist. Also für alle Übrigen – eine der vielen, vielen „Energiesubventionen nach Steuern“ des IMF ist…

Die Kosten der Auffüllung von Schlaglöchern auf der Straße zu meinem bescheidenen Heim.

Wirklich. Ich bausche das nicht auf. Die Reparatur von Schlaglöchern ist Bestandteil ihrer „Energiesubvention nach Steuern“, von dem sie behaupten, dass er an die Energieunternehmen geht. Es ist gelistet unter der Rubrik „Nicht-Kohlenstoff-Effekte von außen“ [non-carbon externalities].

Und was sind „Nicht-Kohlenstoff-Effekte von außen“, wenn sie zu Hause sind? Glücklicherweise geben sie ein paar Beispiele:

Verstopfung, Unfälle, Luftverschmutzung und Straßenschäden“.

In dem seltsamen Paralleluniversum des IMF wird jedes einzelne Beispiel davon (einschließlich „Straßenschäden“) als eine SUBVENTION AN EXXON UND SHELL betrachtet! Die Reparatur von Schlaglöchern als Subvention an Energieunternehmen! Hat man schon jemals von einem solchen beknackten Ding gehört?

Also möchte ich hier selbst ein wenig technischen Jargon einführen. Ich werde mich auf jene Subventionen beziehen, die nur an Energieerzeuger und -verteiler fließen, die die Basis jener subventionierten Erzeuger und Verteiler als „wirkliche Energiesubventionen“ betreffen. Das ist eine eingängige Bezeichnung und trifft ins Herz der ganzen Sache.

Und was ist mit der Behauptung, dass das Ausbessern von Schlaglöchern eine Subvention für die Energieindustrie ist? Nun, dafür werde ich die Bezeichnung „imaginäre Energiesubventionen“ benutzen. Das ist kurz und bringt es auf den Punkt.

Was die relative Größenordnung der wirklichen und der imaginären Subventionen betrifft: unter den großen Schlagzeilen, die ihren Weg durch das Web gefunden haben, ist „Energiesubventionen betragen 5,3 Billionen Dollar pro Jahr!“. Nun, ich möchte darauf hinweisen, dass diese Zahl zu 94 Prozent imaginäre Energiesubventionen sind, und nur sechs Prozent davon sind reale Energiesubventionen. Seltsam aber wahr. Wie ich sagte, ich bausche das nicht auf. Zum Kuckuck, ich konnte mir dieses Niveau absurder Käuflichkeit gar nicht vorstellen. Ich bin lediglich ein furchtloser Erkunder, der seinen Weg durch endlos langes unausgegorenes Geschwätz sucht, um die Wahrheit zu ergründen … und wenn ich sie erreiche, kommt heraus, dass die Wahrheit sechs Prozent beträgt und das Blabla 94 Prozent. Abbildung 2 zeigt die hässlichen Behauptungen:

Abbildung 2: Aus dem IMF-Arbeitspapier. Man beachte, während die wirklichen Energiesubventionen stetig abnehmen, nehmen die imaginären Energiesubventionen stetig zu. Alarmismus?

Nun, endlich verstehe ich, warum es in den Straßen um meinen Wohnort so viele Schlaglöcher gibt. Bislang habe ich immer geglaubt, der Grund sei – wie von einem unserer Landkreis-Verwalter angemerkt – dass man die Schlaglöcher nicht ausbessern könne, weil man die obszön hohen Pensionen einer Generation von Menschen nicht aufbringen könnte, die gelernt hatten, sich an den Futtertrog des Landkreises zu lehnen.

Aber jetzt erkenne ich, dass dies keineswegs der Fall ist. Jetzt habe ich Durchblick. Das Belassen der Schlaglöcher ohne sie auszubessern ist kein Zeichen einer ökonomischen Schwäche, sondern stattdessen ein politisches Statement durch den Kreistag! Die Schlaglöcher nicht auszubessern ist ein cleveres Mittel, die heimtückischen „Energiesubventionen nach Steuern“ zu reduzieren, welche die Landkreisbewohner dümmlich an Exxon und Shell gezahlt haben! Es ist ein tollkühner Schlag gegen die außer Kontrolle tobenden Imperialisten der globalen Energieversorgung … muss ich wirklich dieses Aushängeschild versorgen? Ich fürchte, ja …

Ehrlicherweise muss man aber sagen, wenn man das Ausbessern von Schlaglöchern als eine Subvention für die Ölunternehmen zählt, bedeuten 5,3 Billionen Dollar gar nichts. Sie können die Summe so hoch schrauben wie sie wollen, darin liegt der Reiz imaginärer Energiesubventionen. Es gibt keine obere Grenze.

Aber Moment, da ist noch mehr. Obwohl die realen Energiesubventionen nicht einmal annähernd nahe der 5-Billionen-Marke liegen, sind es immer noch etwa 340 Milliarden Dollar pro Jahr. Das ist ein Drittel einer Billion, reales Geld in jedweder Welt. Aber natürlich gilt auch hier, dass nichts so ist, wie es zu sein scheint.

Das Erste, was man hinsichtlich dieser 340 Milliarden Dollar reale Energiesubventionen verstehen muss ist, dass global gesehen die höchsten Energiesubventionen diejenigen sind, die Öl produzierende Länder wie Venezuela und Nigeria ihren eigenen Bürgern zukommen lassen, indem man sie Preise zahlen lässt, die unter dem Marktpreis für Benzin und Diesel liegen. Das Zweite, was man wissen muss ist, dass der größte Teil der realen Energiesubvention in den Entwicklungsländern liegt. In einem Arbeitspapier über Subventionen, dass ich früher schon einmal hier analysiert habe, kam ich zu dem Ergebnis:

Schätzungen des IMF und der IEA zufolge belaufen sich globale Subventionen „vor Steuern“ (oder direkt) an fossiler Energie und fossil erzeugtem Strom im Jahre 2011 auf 480 bis 523 Milliarden Dollar pro Jahr (IEA 2012b; IMF 2013). Dies bedeutet eine Zunahme von fast 30% gegenüber dem Jahr 2010 und war sechsmal höher als die Gesamtsumme der Subventionen für Erneuerbare zu jener Zeit. Öl exportierende Länder waren für etwa zwei Drittel der Gesamtsubventionen für fossile Subventionen verantwortlich, während über 95% aller direkten Subventionen in den Entwicklungsländern anfielen.

Falls wir davon sprechen, dass die meisten Leute dies lesen: diejenigen von uns, die in der entwickelten Welt leben, sind nur mit lumpigen fünf Prozent an den realen Energiesubventionen beteiligt … was wiederum nur sechs Prozent ihrer fiktiven 5,3 Billionen Dollar schweren Subventionen ausmacht. Diese fünf Prozent der 340 Milliarden Dollar sind etwa 17 Milliarden Dollar. Aber das ist immer noch nicht alles. Man erinnere sich, die Summe ist aufgeteilt auf alle entwickelten Länder, Australien, die USA, UK, Deutschland, Israel, Neuseeland – die Liste ist lang.

Falls man also irgendwo in der entwickelten Welt lebt, betragen die wirklichen Subventionen für Energie etwa eine halbe Milliarde Dollar pro Staat. Übrigens, wenn man das in technischem Jargon ausdrückt, nenne ich eine Subvention von einer halben Milliarde Dollar „einmal Solyndra“ (An. der Redaktion: das ist die trotz Riesensubventionen pleite gegangene große Solarfirma in den USA) … aber ich schweife ab.

Wenn also Ihr Land ein- oder zweimal Solyndra pro Jahr an Subventionen zahlt, ist es das wert? Nun, das hängt davon ab, für was die Solyndras zahlen. Falls sie für Erneuerbare zahlen, ist es das höchstwahrscheinlich nicht wert. Falls sie für wirkliche Energie zahlen, könnte es das wert sein.

Schließen möchte ich mit dem Hinweis auf die Auswirkungen der Kappung von Energiesubventionen. Da die meisten davon in Entwicklungsländern sind und in Gestalt von reduzierten Energiepreisen für die Armen vorliegen … würde deren Kappung nicht die verwundbarsten Bürger treffen?

Nun, keine Angst, die IMFs haben dem Rechnung getragen. Hier folgt deren Aussage über die Auswirkungen der Beschneidung von Treibstoff-Subventionen für die Armen … ein lumpiger Satz ist alles, was sie für die Verarmten übrig haben, vielleicht ist es eine Elektronen-Knappheit oder so, aber hier folgt in jedem Falle dieser einsame Satz in seiner ganzen Glorie:

Außerdem sollte eine Reform der Energiesubventionen die Armen und Verwundbaren schützen, indem sichergestellt ist, dass ihr Wohlergehen nicht negativ beeinflusst wird.

Das ist es! Das ist alles hinsichtlich deren Gedanken um die Armen. Nun, das ist gut zu wissen … aber falls man 1 Dollar pro Gallone [ca. 4 Liter] an Subvention unter den Armen von Nigeria verteilt, WIE genau wollen sie sicherstellen, dass deren „Wohlergehen nicht negativ beeinflusst wird“? Das ist es, was ich bei diesen Lehnstuhl-Experten am meisten verachte, die vorschlagen, die Weltwirtschaft umzukrempeln, um ihren Ängsten und Phantasien Rechnung zu tragen. Sie ignorieren einfach alles, was sie als unerheblich beurteilen, und die Armen stehen oftmals an oberster Stelle jener Liste. An zweiter Stelle der Dinge, die sie ignorieren, steht, WIE sie umsetzen, was sie so leichthin vorschlagen.

Wie auch immer, das ist die jüngste wilde Übertreibung beim Vorlauf von Paris. Mein Rat? Man glaube nichts davon, was man liest … und man erinnere sich immer, dass man dies hier zuerst gelesen hatte…

——————————————–

Externalitäten: Dinge wie das Ausbessern von Schlaglöchern oder die Freisetzung von CO2 in die Atmosphäre werden „Externalitäten“ oder „externe Kosten“ genannt von Leuten, die an einer Kosten-Nutzen-Analyse arbeiten. Dies sind im Grunde Dinge, die der Schreiber entweder nicht mag oder die der Schreiber besteuern möchte, jedoch noch nicht herausgefunden hat, wie man es besteuern könnte. Noch nicht.

Während solche Externalitäten gelegentlich relevant sind, habe ich Einiges gegen den Einschluss von Externalitäten in die meisten Kosten-Nutzen-Analysen.

Erstens, wie legt man sie preislich fest? Welchen Preis würde man für – sagen wir – eine Tonne emittierten CO2 ansetzen? Ich habe Zahlen gesehen im Bereich von Null bis hunderte Dollar pro Tonne. Ohne Übereinstimmung eines bestimmten Wertes ist es den Analysten freigestellt, jede Zahl zu wählen, die sie wollen.

Weiter. Welche Externalitäten sollen eingehen? Falls wir das Ausbessern von Straßen als eine „Subvention“ an die Ölbarone eingehen lassen, sollte man dann nicht auch den Straßenbau einschließen? Und falls wir die Kosten für Straßenbau einschließen, was ist mit den Kosten für die Entwürfe des Straßenbaus? Und was ist mit den Pensionskosten für die Beamten (niemals billig), die den Straßenbau autorisiert haben? Wo führt das alles hin? Der IMF glaubt eindeutig, dass es hinter den Schlaglöchern endet, nicht davor…

Und schließlich, wenn man externe Kosten einfließen lässt, MUSS MAN ABSOLUT AUCH EXTERNE VORTEILE EINFLIESSEN LASSEN! Wie ich hier erläutert habe, beläuft sich der Vorteil des besseren Pflanzenwachstums wegen des gesteigerten atmosphärischen CO2-Gehaltes auf etwa 300 Milliarden Dollar pro Jahr, weil der Landwirt fossile Treibstoffe verbrennt … aber die aufgeblasenen Wichtigtuer beim IMF ignorieren dies vollständig, wie sie alle Vorteile ignorieren, die ihnen nicht in den Kram passen.

Link: http://wattsupwiththat.com/2015/05/29/potholes-in-their-arguments/

Übersetzt von Chris Frey EIKE




Eine neutrale Betrachtung von ozeanischem pH

Zunächst folgt hier die Ansicht eines Profils des Nordpazifik von Alaska nach Hawaii, wobei Hawaii oben links liegt, Alaska oben rechts. Tiefen werden vertikal gezeigt. Ozeanisches pH entlang des Profils:

Abbildung 1 (rechts): Variation des pH über geogr. Breite und Tiefe. Die Graphik stammt aus einem früheren Beitrag von mir zum ozeanischen pH.

Man erkennt, dass der Oberflächen-pH in Hawaii über 8,05 liegt und in Alaska unter 7,7 … und trotzdem ist die maritime Umgebung in Alaska viel, viel artenreicher als die maritime Umgebung von Hawaii. Dies unterstreicht eine einfache Tatsache: Alkalinität ist für Lebewesen problematisch, viel mehr als der Säuregrad. Beispiel: Falls man das Opfer der letzten Mordorgie sich zersetzen lassen will, würde man Lauge (ein starkes Salz) und nicht Schwefelsäure (eine starke Säure) verwenden.

Nun beträgt der Neutralwert auf der pH-Skala 7. Der geringen Alkalinität-Toleranz unserer Körper folgend nehmen wir oft Dinge wie Zitronensaft zu uns, welcher einen pH-Wert von etwa zwei hat, was neutral minus 5 pH-Einheiten ist … während die salzhaltigste Nahrung, die wir noch tolerieren können, einen pH von rund acht hat, was nur einen pH-Wert über neutral liegt.

Darum ist der Körper von Fischen oftmals vollständig mit einer Art Schleim umhüllt … einfach um zu verhindern, dass sie sich im leicht alkalinen Ozean einfach auflösen. Und darum auch ist ein Trend hin zu mehr Neutralität auch nicht im Mindesten besorglich.

Nachdem wir die räumlichen Änderungen des pH-Wertes von Hawaii bis Alaska gesehen haben, zeigt Abbildung 2 die zeitlichen Änderungen des ozeanischen pH in einer Vielfalt anderer maritimer Umgebungen:

Abbildung 2: pH in verschiedenen maritimen Umgebungen. Datenquelle: PLOS

Abbildung 2 zeigt nicht nur den mittleren pH-Wert in diesen Umgebungen, sondern auch die Variation in jeder Umgebung mit der Zeit. Man beachte: während der offene Ozean eine kleine pH-Bandbreite zeigt, zeigt sich in einer Anzahl maritimer Umgebungen eine große Bandbreite mit der Zeit. Korallenriffe und Seetangwälder beispielsweise zeigen eine große Variation der pH-Werte, und zwar bis hin zu einer vollen pH-Einheit innerhalb eines einzigen Monats. Zitat aus der zugrunde liegenden Quelle für Abbildung 2:

Diese Beobachtungen zeigen ein Kontinuum monatelanger pH-Variabilität mit Standardabweichungen zwischen 0,004 und 0,277 sowie Bandbreiten, die von 0,024 bis 1,430 pH-Einheiten reichen. Die Natur der beobachteten Variabilität war auch stark abhängig von der Messstelle, mit charakteristischen täglichen, halbjährlichen und stochastischen Verteilungen variierender Amplituden. Diese Biom-spezifischen pH-Signaturen offenbaren gegenwärtige Niveaus zu sowohl hoch als auch gering gelöstem CO2, was oftmals zeigt, dass örtliche Organismen jetzt schon pH-Regimes ausgesetzt sind, deren Eintreten man nicht vor dem Jahr 2100 vorhergesagt hat.

Also findet bereits jetzt statt, was uns angeblich erschrecken soll, nämlich die so genannte „Versauerung“ der Ozeane, die man für das Jahr 2100 vorhergesagt hatte.

Eine Ansicht aus der realen Welt, was unterschiedliche Variationen mit der Zeit bedeuten, zeigt Abbildung 3 mit den Daten des Hawaii Ocean Timeseries (HOT)-Projektes sowie die Daten von der Küstenlinie der Monterey Bay:

Abbildung 3: Oberflächen-pH-Messungen von HOT open ocean und Monterey Bay upwelling coastline. Die Hawaii-Daten zeigen sowohl gemessene pH (schwarz) als auch aus anderen Messungen berechnete pH-Werte, z. B. gelöster anorganischer Kohlenstoff (DIC), Gesamt-Alkalinität und Salzgehalt.

Wie man sieht, ist es für keine der tausenden unterschiedlichen Spezies im Ozean auch nur ansatzweise ein Problem, eine große und rapide pH-Änderung zu durchlaufen. Es scheint sie nicht im Mindesten zu stören, haben sie das doch seit Millionen Jahren erlebt. Nicht nur das, sondern wie man aus den Hawaii-Daten erkennt, bringt der langsame Rückgang der Alkalinität die Ozeane allmählich zu neutraleren Bedingungen, was den lebenden Organismen egal ist.

Aus all diesen Gründen sage ich, dass die graduelle Neutralisierung der Ozeane durch den zunehmenden CO2-Gehalt bedeutungslos ist. Genau deswegen sage ich auch, dass der „Versauerung“ genannte Prozess lediglich ein Versuch ist, noch mehr Alarmismus zu schüren. Was vor sich geht, ist eine graduelle Neutralisierung mit einer Rate von etwa 0,018 ± 0,001 pH-Einheiten pro Jahrzehnt (Mittel aus sieben multidekadischen Datensätzen) … man betrachte mich als unbeeindruckt.

Damit als Prolog wollen wir jetzt auf die ozeanographischen pH-Daten schauen, die ich in meinem letzten Beitrag mit dem Titel pH Sampling Density angesprochen habe. In jenem Beitrag schrieb ich, dass sowohl aus dem Seegebiet um Japan als auch aus dem Nordatlantik genug Daten vorliegen sollten, um sich Gedanken über die Brauchbarkeit des Datensatzes zu machen. Zu Beginn folgen hier die Daten aus dem Atlantik zusammen mit den HOT-Daten um Hawaii und die Daten aus der Monterrey Bay.

Abbildung 4: Atlantische pH-Messungen aus ozeanischen Profilen (blaue Kreise), Einzel-HOT-Messungen um Hawaii (rot = berechnet, schwarz = beobachtet) und die Messungen der pH-Werte aus der Monterrey Bay (blaugrün mit Standardabweichung). Die schwarze Linie markiert die erwartete Abnahme des ozeanischen pH-Wertes infolge der CO2-Zunahme. „Trend 1970 onwards“ ist der Trend der atlantischen ozeanographischen pH-Daten.

Hier gibt es viele interessante Aspekte. Erstens, die Abnahme in den HOT-Messungen liegt nahe der berechneten Abnahme infolge CO2. Jetzt habe ich diese Abnahme geschätzt unter Verwendung der gemessenen Änderungen der Mittelwerte in gelöstem anorganischen Kohlenstoff DIC infolge steigenden atmosphärischen CO2-Gehaltes. Um das zu tun, habe ich den R-Code lokalisiert (hier).

Und weil das nur eine Schätzung ist, stellt sich heraus, dass es ziemlich nahe sowohl der Abnahme der o. g. HOT- und anderer multidekadischer Messungen an einzelnen Stellen kommt als auch gut zum Trend im Nordatlantik nach 1970 passt mit ozeanographischen Messungen von -0,019. Es ist auch erwähnenswert, dass vor etwa dem Jahr 1960 die berechnete pH-Abnahme so gering ist, dass sie fast unsichtbar daherkommt.

Als nächstes: Japan. Aus diesem Gebiet gibt es deutlich mehr Daten, aber wie im Atlantik gibt es nur wenige Daten aus dem Zeitraum 1940 bis 1960. Abbildung 5 zeigt die Daten um Japan im gleichen Format wie Abbildung 4:

Abbildung 5: pH-Messungen aus ozeanographischen Profilen vor Japan (blaue Kreise), Einzel-HOT-Messungen um Hawaii (rot = berechnet, schwarz = beobachtet) und die Messungen der pH-Werte aus der Monterrey Bay (blaugrün mit Standardabweichung). Die schwarze Linie markiert die erwartete Abnahme des ozeanischen pH-Wertes infolge der CO2-Zunahme. „Trend 1970 onwards“ ist der Trend der atlantischen ozeanographischen pH-Daten.

Wieder erkennen wir die gleiche Verteilung wie in den Daten aus dem Atlantik mit einem zunehmenden Trend in den Jahren nach den Daten, und ein Trend vor 1970 in der gleichen Größenordnung wie das Mittel der o. g. sieben multidekadischen Studien.

Das also ist es. Der ozeanographische Datensatz bestätigt die graduelle pH-Abnahme, bietet aber vor 1960 nicht genug Daten, um uns viel über irgendetwas zu sagen. Wie gewöhnlich liegt das Problem darin, dass Änderungen infolge CO2 so gering sind, dass es schwierig ist, sie aus irgendetwas herauszulesen außer aus dem genauesten aller Datensätze. Das heißt nicht, dass wir die vorhandenen ozeanographischen Messungen nicht nutzen können … es heißt nur, dass wir hinsichtlich deren Verwendung sehr vorsichtig sein müssen.

Link: http://wattsupwiththat.com/2015/01/02/a-neutral-view-of-oceanic-ph/

Übersetzt von Chris Frey EIKE