1

Im Schleudergang: Die US Umweltbehörde EPA spielt Klima-Auswirkungen herunter und macht sich sehr wichtig

Ihre Ergebnisse waren kaum überraschend – die Klimaauswirkungen der vorgeschlagenen Vorschriften werden verschwindend gering sein.

Die EPA berechnet, dass die Stärke des globalen Temperaturanstiegs, der bis zum Ende des 21. Jahrhunderts durch diese Vorschriften vermieden wird, etwa… aber Moment, hier zitieren wir am Besten die EPA selbst:

Die Ergebnisse der Analyse zeigen, dass relativ zum Referenzfall die projizierten atmosphärischen CO2-Konzentrationen bis zum Jahr 2100 geschätzt um 1,1 bis 1,2 ppmv reduziert werden können, womit die globale Temperatur geschätzt um 0,0026 bis 0,0065°C reduziert werden kann; und der Anstieg des Meeresspiegels wird projiziert um etwa 0,023 bis 0,057 cm reduziert.

Haben Sie das mitbekommen? Den eigenen Berechnungen der EPA zufolge vermeiden ihre Vorschriften der Treibstoff-Ökonomie mittlerer und großer LKW eine zukünftige globale Erwärmung zwischen 26 Zehntausendstel und 65 Zehntausendstel Grad Celsius. Mit anderen Worten, die Maßnahme ist völlig sinnlos, wenn es darum geht, den zukünftigen Verlauf der globalen Temperatur zu beeinflussen. Falls die EPA die Treibstoff-Effizienz von Lastwagen regulieren will, muss sie dies mit Gründen rechtfertigen, die mit dem Klimawandel nichts zu tun haben.

Natürlich wissen Sie, falls Sie allem gefolgt sind, was wir bisher zu den Bemühungen der EPA zu sagen hatten, den zukünftigen Klimawandel durch die Limitierung von CO2-Emissionen abzuschwächen, dass wir genau dies seit Jahren sagen (im Grunde seit die EPA angefangen hat, derartige Vorschriften zu erlassen). Wieder und immer wieder und für jede neue, ins Spiel gebrachte Maßnahme haben wir gezeigt, dass die resultierenden Temperatur-Einsparungen in Hundertstel bis Tausendstel Grad ins Gewicht fallen. Es ist erfreulich, endlich zu sehen, dass die EPA vollständig mit uns übereinstimmt (das wussten wir schon immer, aber sie waren sehr zögerlich, dies einzugestehen).

Wenn wir die Auswirkungen dieser minimalen Änderungen beschreiben, verwenden wir Termini wie unbedeutend, eindrucksvoll gering, bedeutungslos, wissenschaftlich nicht erkennbar und ohne Konsequenzen für die Umwelt.

Die EPA beschreibt sie so:

EPA berechnet, dass die projizierten Reduktionen des atmosphärischen CO2, der globalen mittleren Temperatur, des Meeresspiegelanstiegs und des pH-Wertes in den Ozeanen im Zusammenhang mit dieser Maßnahme bedeutsam sind.

Obwohl diese Auswirkungen gering sind, treten sie im globalen Maßstab auf und sind lang anhaltend; daher können sie einen bedeutenden Beitrag leisten zur Reduktion der Risiken in Verbindung mit dem Klimawandel“,

Nicht nur, dass sie mit glühend eifrigen Worten über die Wichtigkeit der Vorschriften bzgl. des Klimas reden („ein bedeutender Beitrag zur Reduktion der Risiken in Verbindung mit dem Klimawandel“), sondern auch, dass sie einfach auch die ökonomischen Auswirkungen lieben.

Durch den Zauber der sozialen Kosten von Kohlenstoff transformiert die EPA 0,0003°C einer vermiedenen globalen Erwärmung zu 100 Milliarden Dollar ökonomischen Vorteils und schwärmt:

Wir schätzen die gesamt-ökonomischen Vorteile über 100 Milliarden Dollar, was dies zu einer höchst vorteilhaften Vorschrift macht.

Wir müssen alles den Regierungs-Bürokraten übergeben, weil sie extrem erfinderisch werden, wenn es darum geht, ihre Existenz zu rechtfertigen.

Aber leider, leider triumphiert die Vorstellung nicht über die Realität.

Link: http://wattsupwiththat.com/2015/08/20/spin-cycle-epa-deflates-climate-impacts-inflates-significance/

Übersetzt von Chris Frey EIKE




Globale Rekordtemperatur? Widersprüchliche Berichte, kontrastierende Implikationen

Aber bei näherem Hinsehen wird zweierlei deutlich: Erstens, ob das Jahr 2014 das wärmste jemals sein wird oder nicht, hängt davon ab, wen man fragt; und zweitens, unabhängig davon, wo dieses Jahr schließlich in den Beobachtungen rangiert, wird es unter den größten „Oberweiten“ der Klimamodellvorhersagen liegen (die kollektiv eine noch viel stärkere Erwärmung erwartet hatten). Die Implikation von Ersterem ist nichts weiter als ein Drängeln nach medialer Aufmerksamkeit. Die Implikation von Letzterem ist, dass das zukünftige Klima viel weniger eine Gefahr darstellt als es der Präsident und seine Steigbügelhalter kolportiert haben.

Schauen wir also mal genauer auf die verschiedenen Temperaturaufzeichnungen.

Zunächst ein wenig Hintergrund. Viele verschiedene Gruppen sammeln Daten der globalen Temperatur in Echtzeit. Jede einzelne wendet leicht unterschiedliche Verfahren zur Bearbeitung dieser Daten an (z. B. wie man Datenlücken füllt). Daraus folgt, dass jede Gruppe leicht unterschiedliche (aber nichtsdestotrotz sehr ähnliche) Werte erhält. Viele Gruppen berechnen die Temperatur an der Oberfläche, während andere die globale mittlere Temperatur der unteren Atmosphäre berechnen (was etwas unabhängiger von verzerrenden Faktoren wie Verstädterung ist). Alle haben bislang nur die Daten bis Oktober 2014 gesammelt, so dass der schließliche Rang des Jahres 2014 zu diesem Zeitpunkt nur Spekulation ist (wenngleich auch eine gut begründete).

Die drei Hauptinstitutionen, die die mittlere Oberflächen-Temperatur der Erde berechnen (Festland und Ozeane kombiniert) zeigen allesamt, dass 2014 wahrscheinlich das Jahr 2010 ausstechen wird (um ein paar hundertstel Grad Celsius), um zum wärmsten Jahr in jedem Datensatz zu werden (die Mitte bis Ende des 19. Jahrhunderts begannen). Dies wird fast mit Sicherheit so sein in den Datensätzen, die vom amerikanischen Wetterdienst NOAA und vom UK-Met.-Office gepflegt werden. In der vom GISS zusammengestellten Aufzeichnung liegt der bisherige Jahreswert dieses Jahres praktisch gleichauf mit dem Jahreswert für 2010. Daher wird der endgültige Rang sehr stark von den Daten im November und Dezember abhängen (die andere große Daten-Sammelstelle, also die von der Berkeley Earth Group entwickelte Datenreihe, wird nicht in Echtzeit aktualisiert).

Es gibt eine andere Zusammenstellung der Historie der Temperatur auf der Erde, die kürzlich von den Forschern Kevin Cowtan und Robert Way von der University of York entwickelt worden ist. Dieser Datensatz erreichte vor einem Jahr Prominenz-Status, zeigte er damals doch, dass verbesserte Verfahren zum Auffüllen datenarmer Gebiete der Erde (vor allem der Arktis) zu der Erkenntnis führten, dass der „Stillstand“ der globalen Erwärmung eher eine „Verlangsamung“ derselben war. Mit anderen Worten, ein besseres Verfahren zeigte, dass sich die Arktis stärker erwärmt hatte, als es in den anderen Datensätzen zum Ausdruck gekommen war. Dies machte den Datensatz von Cowtan und Way augenblicklich zum Liebling von Leuten, die zeigen wollten, dass die globale Erwärmung immer noch im Gange ist und nicht im Koma liegt (eine sorgfältige Analyse der Implikationen der Ergebnisse von Cowtan und Way ergab jedoch, dass deren Daten für diese Aufgabe ungeeignet waren). Wie also sind die Aussichten, dass 2014 ein rekordwarmes Jahr im Datensatz von Cowtan und Way ist? Dünn. 2014 folgt derzeit dem Jahr 2010 um ein paar hundertstel Grad Celsius – eine Größenordnung, die schwerlich zu halten sein wird, wenn nicht November und Dezember außerordentlich warm ausfallen. Als Konsequenz wird der kurzzeitig bevorzugte Datensatz jetzt weitgehend ignoriert.

Es ist den Hinweis wert, dass sich als ein Ergebnis der Daten- und Rechenungenauigkeit keiner der Datensätze der Oberflächentemperatur statistisch von 2010 unterscheidet – mit anderen Worten, es ist unmöglich, mit statistischer Sicherheit zu sagen, dass 2014 das wärmste Jahr jemals war – oder nicht.

In der unteren Atmosphäre sieht es anders aus.

Hier zeigen die beiden die Mitteltemperatur zusammenstellenden Institutionen, dass 2014 nicht einmal in die Nähe des wärmsten Jahres kommt (die Daten beginnen 1979), sondern um viele Zehntelgrad Celsius unter dem Wert von 1998 liegt. Dieser Unterschied ist so groß, dass statistisch eindeutig ist, dass 2014 kein Rekordjahr werden wird (es fällt möglicherweise in die untere Hälfte der fünf wärmsten Jahre sowohl nach RSS als auch nach UAH). Die Variabilität der Temperaturen in der unteren Atmosphäre reagiert empfindlicher auf El Niño-Bedingungen. Folglich steht die durch den Super-El Niño 1998 gesetzte Temperaturmarke auch viele kommende Jahre noch, oder zumindest bis es zu einem weiteren Super-El Niño kommt.

Unter dem Strich bedeutet dies alles, dass man – falls man das Jahr 2014 zum „wärmsten Jahr jemals“ machen will – Daten zur Stützung finden kann, und falls man das nicht will, findet man ebenfalls stützende Daten.

In allen Fällen wird nur Ersteres Schlagzeilen machen.

Aber all diese Schlagzeilen werden deplatziert sein. Die wirkliche Nachricht lautet, dass die Klimamodelle weiterhin unglaublich miserabel dastehen, indem sie das Ausmaß, mit dem sich die Erde erwärmt, maßlos überschätzen.

Schauen wir mal auf die Klimamodell-Projektionen für 2014 im Vergleich zu dem Datensatz, der am ehesten die Chance hat, das Jahr 2014 als das wärmste jemals auszuweisen – den NOAA-Datensatz.

Die Abbildung oben rechts zeigt das Mittel von 108 verschiedenen Klimamodell-Projektionen der jährlichen mittleren Temperatur an der Oberfläche von 1980 bis 2014 zusammen mit der jährlichen, von der NOAA zusammengestellten Temperatur.

Bild oben rechts: Globale jährliche mittlere Temperaturanomalien von 1980 bis 2014. Das Mittel von 108 Klimamodellen (rot) und Beobachtungen der NOAA (blau) sind anomalien vom Mittel des 20. jahrhunderts. Im Falle der NOAA-Beobachtungen ist der Wert für 2014 das Mittel von Januar bis Oktober.

Während der letzten 16 aufeinanderfolgenden Jahre haben die Klimamodelle kollektiv mehr Erwärmung projiziert als tatsächlich beobachtet worden ist.

Im Zeitraum von 1980 bis 2014 projizierten die Klimamodelle, dass die globale Temperatur mit einer Rate von 0,24°C pro Dekade steigen würde, während die NOAA-Daten diese Rate auf 0,14°C drückten, also etwa 40% weniger. Während der letzten 16 Jahre liegt der beobachtete Anstieg um 66 Prozent unter den Klimamodell-Projektionen. Und die Lage wird schlimmer, nicht besser. Das sind die wirklichen Nachrichten, weil es bedeutet, dass Aussichten für eine übermäßig schädliche Klimaänderung immer schwächer werden, ebenso wie die Rechtfertigungen für drastische Maßnahmen dagegen.

Wir erwarten nicht, dass es viele Stories gibt, die über den Tellerrand ihrer Schlagzeile „2014 ist das wärmste Jahr jemals“ hinausschauen.

Und was den Rest vom Schützenfest angeht und damit den Teil, der die tieferen und wichtigeren Implikationen aufweist – nun, da muss man immer wieder hier hereinschauen – wir klären gerne auf!

Link: http://wattsupwiththat.com/2014/12/10/record-global-temperatureconflicting-reports-contrasting-implications/

Übersetzt von Chris Frey EIKE




Das IPCC hat einen echten Packen Probleme am Hals

Das zentrale Thema der Wissenschaft von der Klimaänderung ist die Gleichgewichts-Klimasensitivität der Erde [the earth’s equilibrium climate sensitivity ECS] – also um wie viel die mittlere globale Temperatur als Folge einer Verdoppelung der atmosphärischen CO2-Konzentration zunehmen würde. Neue und konsistente Neuberechnungen dieses wichtigen Parameters erscheinen in der wissenschaftlichen Literatur schneller als beim trägen und schwerfälligen IPCC (vorausgesetzt das IPCC möchte das überhaupt – schließlich würden solche Berechnungen den AR 5 ziemlich schlecht aussehen lassen).

Außerdem, selbst wenn das IPCC in der Lage wäre, diese sich entwickelnde und ziemlich überzeugende Wissenschaft zu übernehmen, wird der weitaus größere Rest des IPCC-Berichtes auch verändert werden müssen, da er hochgradig abhängig ist von der Größenordnung der Klimasensitivität.

Inzwischen ist es für so etwas zu spät (die endgültige Fassung ist Anfang 2014 geplant) – die Kühe haben alle den IPCC-Stall zu diesen Dingen verlassen, und es ist zu spät, sie alle noch einmal zusammen zu trommeln.

Der Entwurf 1. Ordnung (FOD) des AR5 wurde im Dezember 2012 bekannt. Im FOD erkennt das IPCC die Bedeutung der Klimasensitivität der Erde an und nennt sie:

Das wichtigste Einzelmaß der Reaktion des Klimas wegen der Reaktion vieler anderer Klimavariablen auf eine CO2-Zunahme mit der Zunahme der globalen mittleren Temperatur.

Das IPCC fährt fort, das derzeitige wissenschaftliche Wissen über die Größenordnung der Klimasensitivität folgendermaßen zu beschreiben:

Trotz deutlicher Fortschritte bei den Klimamodellen und im Verständnis und bei der Quantifizierung von Klima-Rückkopplungen stützt die Literatur nach wie vor das Ergebnis im AR4 aus dem Jahr 2007, dass nämlich die Klimasensitivität im Bereich 2°C bis 4,5°C liegt und sehr wahrscheinlich über 1,5°C. Der wahrscheinlichste Wert verbleibt bei 3°C. Ein ECS über 6°C bis 7°C ist sehr unwahrscheinlich, jedenfalls auf Basis einer Kombination multipler Beweisschienen.

Der „wahrscheinlichste Wert” des IPCC im FOD beträgt 3°C. Dies ist aus sich selbst heraus interessant, weil dem gleichen Entwurf erster Ordnung zufolge die von den Klimamodellen simulierte Klimasensitivität bei 3,4°C liegt, also etwa 13% höher ist als die 3°C des IPCC.

Falls das IPCC glaubt, dass irgendetwas systematisch mit den verwendeten Modellen nicht stimmt, sollte es das sagen. Die Tatsache, dass das IPCC (gegenwärtig) das nicht tun möchte, stärkt nicht gerade das Vertrauen in seine Kritikfähigkeit. In Wirklichkeit zeigt eine während der letzten 2 bis 3 Jahre veröffentlichte ganze Reihe von Ergebnissen eine mittlere Klimasensitivität näher bei einem Wert von 2,0°C, und jüngste Beobachtungen der globalen Temperatur deuten auf einen sogar noch geringeren Wert.

Das IPCC ist unter wachsenden Druck durch die wissenschaftliche Gemeinschaft geraten – vor allem die Mitglieder der Kommission, die direkt mit den Forschungen zur Klimasensitivität befasst sind – diese neuen, niedrigeren Schätzungen gefälligst zu berücksichtigen.

Es gibt jedoch einige Indizien dafür, dass sich die Zeiten des IPCC ändern.

Dem  Economist zufolge, der behauptet, Einsicht in den jüngsten Entwurf des AR 5 gehabt zu haben, wurde die IPCC-Schätzung der Klimasensitivität inzwischen geändert. The Economist beschreibt folgendermaßen, was hinsichtlich der Gleichgewichts-Klimasensitivität im IPCC-Entwurf neu ist:

Sowohl der IPCC-Bericht von 2007 als auch ein früherer Entwurf des aktuellen Zustandsberichtes reflektierten frühere Ansichten hierzu mit den Worten, dass die Standardmessung der Klimasensitivität (der wahrscheinliche Anstieg der Gleichgewichts-Temperatur als Reaktion auf eine Verdoppelung des CO2-Gehaltes) zwischen 2°C und 4,5°C liege mit dem wahrscheinlichsten Wert bei 3,0°C. Im jüngsten Entwurf wurde die untere Grenze auf 1,5°C reduziert , und der „wahrscheinlichste“ Wert wurde eliminiert. Das scheint einen wachsenden Sinn dafür zu spiegeln, dass die Klimasensitivität in der Vergangenheit überschätzt worden ist, und dass der Wert daher zu ungewiss ist, um eine Einzelschätzung eines zukünftigen Anstiegs vorzunehmen.

Wenn das stimmt, dann zeigt die Kombination aus der Verringerung des unteren Wertes der Bandbreite einer möglichen Klimasensitivität und dem Beschluss des IPCC, auf seine Schätzung des „wahrscheinlichsten“ Wertes zu verzichten, dass die mittlere Klimasensitivität der Modelle von 3,4°C noch weiter aus der Wissenschaft entfernt wird und noch weniger gerechtfertigt ist. Wie weit genau die Klimamodelle von realistischen Werten entfernt liegen, wird vom IPCC versteckt gehalten, nennt es doch nicht länger einen „wahrscheinlichsten“ Wert. Sollte der „wahrscheinlichste“ Wert mit 2,5°C angegeben werden, läge das Klimamodell im Mittel etwa 36% zu hoch, verglichen mit der Wissenschaft. Sollte der „wahrscheinlichste“ Wert 2,0°C betragen, läge die mittlere Klimasensitivität der Modelle um 70% zu hoch.

Weil, wie das IPCC einräumt, die Änderungen vieler anderer Klimavariablen „mit der Zunahme der globalen Mitteltemperatur zusammenhängt“, sind die aus den Modellen abgeleiteten Klimaauswirkungen (was im Wesentlichen das ganze IPCC ausmacht) ebenfalls (substantiell) zu hoch.

Das IPCC hat jetzt drei Optionen:

1. Den gesamten AR5 noch einmal zu überarbeiten und von vorn anzufangen.

2. Den gegenwärtigen AR 5 zu veröffentlichen zusammen mit einer Erklärung, der zufolge die Klimaänderungen und alle Auswirkungen wahrscheinlich um 50% überschätzt sind, oder

3. Nichts zu tun und die Politiker und den Rest der Welt in die Irre zu führen.

Wir wetten auf Option Nr. 3.

Schlussbemerkung: das Problem, dass große Hypothesen von Regierungen hinsichtlich der Klimaänderung wissenschaftlich schon vor der Veröffentlichung überholt sind, ist für „Gruppenwissenschaft“ nicht atypisch, ist sie doch gewaltig teuer, erheblich uneffizient und oftmals ein Notnagel, um politische Maßnahmen zu rechtfertigen. Wir haben das Gleiche in unseren Kommentaren hinsichtlich des jüngsten Entwurfs eines Berichtes der Bemühungen seitens der USA erlebt, den Auswirkungen der Klimaänderung zu begegnen, dem „National Climate Assessment“ (NCA). In diesem Bericht heißt es:

Dass die neueste Literatur ultimativ eine genauere Schätzung der Gleichgewichts-Klimasensitivität zeigt als das Mittel der Klimamodelle bedeutet, dass allgemein alle Projektionen zukünftiger Klimaänderungen wie in der NCA erwähnt etwa 40% zu hoch (zu schnell) sind und dass die damit verbundenen (und beschriebenen) Auswirkungen erheblich überschätzt sind.

Wir verlangen, dass ein alternativer Satz von Projektionen entwickelt wird, und zwar hinsichtlich aller in der NCA diskutierter Themen. Dabei müssen die jüngsten wissenschaftlichen Ergebnisse des geringeren Wertes der Gleichgewichts-Klimasensitivität einfließen. Ohne das Hinzuziehen neuer Projektionen wird der NCA bereits am Tag seiner offiziellen Veröffentlichungen obsolet.

Der Gedanke, dass diese nationalen und internationalen Hypothesen herangezogen werden, um politische Maßnahmen zu rechtfertigen, ist ein beängstigender Gedanke.

Link: http://wattsupwiththat.com/2013/07/26/the-ipcc-has-a-real-pack-of-trouble-on-its-hands/

Übersetzt von Chris Frey EIKE

Normal 0 21 false false false MicrosoftInternetExplorer4