1

IPCC ertappt: der neue AR 5 enthält einen alten, bekannten und nicht korrigierten Fehler

Unter der Voraussetzung einer CO2-Verdoppelung erwarten sie, dass sich der tropische Waldgürtel ostwärts bewegen soll nach Minnesota, Wisconsin, Iowa und Illinois und sich sogar noch weiter östlich bis Ohio, Michigan und Pennsylvania erstrecken soll.

Schaue ich auf meinen eigenen Teil der Welt, sehe ich, dass das IPCC Papua-Neu-Guinea, Indonesien und die Philippinen gegenwärtig als mit Savannen, Trockenwäldern und Forsten bedeckt listet. Aber mit einer globalen CO2-Verdoppelung werden sich die Prärien Südostasiens nordwärts nach Malaysia, Vietnam, Laos, Myanmar und selbst Südchina ausweiten.

In Indien sind der folgenden Karte zufolge 70% seines Gebietes mit Tropenwäldern bedeckt. Aus irgendwelchen Gründen bewegt sich der Tropenwaldgürtel des IPCC von Nordaustralien (die meisten Australier glauben, dass es sich dabei um Gummibaum-Landschaften handelt) um etwa 1000 km nach Süden, so dass Touristenorte wie Cairns und Townsville plötzlich von Gummibaum-Vegetation à la Kongo umgeben und damit geeignet sind für den Import von Bonobos und vielleicht Okapis.

Betrachtet man Südamerika, dann wird der Amazonas-Regenwald schon jetzt auf mysteriöse Weise vom IPCC in Savannen verwandelt, die sich bei einer CO2-Verdoppelung über die gesamte obere Hälfte von Südamerika ausbreiten sollen. http://www.quadrant.org.au/blogs/thomas/2013/08/spot-the-error-the-ipcc-can-t – _edn2

[2]

Es ist eine merkwürdige alte IPCC-Welt. Ein Fehler vielleicht? Mitnichten! All diese Angaben finden sich bereits im hoch wichtigen Synthese-Bericht aus dem Jahr 1995, wo sich das IPCC zum ersten Mal für eine „wahrnehmbare“, vom Menschen verursachte globale Erwärmung entschieden hatte.

Das IPCC listet Tropenwälder auch in Nord- und Süd-Dakota sowie Teilen des Mississippi-Tales.

Auf die Waldverrücktheit des IPCC wurden die IPCC-Experten zumindest während der letzten sechs Jahre immer wieder hingewiesen. Der erste Vorsitzende des IPCC war Bert Bolin (von 1988 bis 1997). Im Jahre 2007 schrieb er in einer Fußnote seines Buches A History of the Science and Politics of Climate Change: The Role of the IPCC  (S. 253):

„Als Kuriosität ist es vielleicht interessant, dass in Abbildung 2 der ‚Zusammenfassung für Politiker’ der Arbeitsgruppe 11 (1995) ein wesentlicher Fehler steckt, nämlich eine Verwechslung der Öko-Systeme ‚Savanne’, ‚Trockenwälder’, ‚Forsten’ und Tropenwälder’. Aber ich habe bisher nicht gesehen, dass dieser Fehler irgendwo in den IPCC-Veröffentlichungen korrigiert worden wäre“.

Ich bin Anfang des vorigen Jahres über diese Fußnote gestolpert, als ich einen Beitrag über die Ursprünge des IPCC für meinen Blog Quadrant geschrieben habe. Ich schaute in die Karten des IPCC, und siehe da, auch fünf Jahre nach Bolins Aufforderung zur Korrektur waren sie nicht verändert worden.

Also schrieb ich im Februar 2012 an Renate Christ, die IPCC-Sekretärin in der Schweiz, wobei ich sorgfältig dem Reglement für eine Beschwerde folgte, die in einem IPCC-Prozedere zur Fehlerkorrektur im Jahre 2011 umrissen worden war.

Ein Fehler in einem ‚Synthese-Bericht’ muss spezielle Alarmglocken beim IPCC zum Klingen bringen. Die Verantwortung verbleibt dem Protokoll zufolge beim IPCC-Vorsitzenden (Dr. Pachauri) höchstpersönlich. Sowohl er als auch die Vize-Vorsitzenden der relevanten Arbeitsgruppe zur Zeit der Zustandsbeschreibung „müssen angemessen über die Entwicklung und die Teilnahme auf dem Laufenden gehalten werden“.

Die Details des Protokolls sind sogar noch strikter: Alle Vorsitzenden der Arbeitsgruppen und das Exekutiv-Komitee müssen involviert werden. Diese wiederum könnten genötigt sein, ihre Vorgänger dazu zu befragen.

Ich war hoch erfreut, innerhalb von 48 Stunden später via E-Mail eine Antwort von Jonathan Lynn erhalten zu haben, dem Vertreter der abwesenden Dr. Christ.

„Vielen Dank, dass Sie uns daran erinnern, dass wir uns damit befassen müssen.

Auf den ersten Blick sieht es ziemlich geradlinig aus, aber es ist ein wenig schwierig für unsere internen Prozesse, weil ein alter Bericht involviert ist, deren Arbeitsgruppen schon lange aufgelöst worden sind.

Dennoch habe ich Ihren Einwand an unser Exekutiv-Komitee weitergeleitet (in dem auch Dr. Pachauri sitzt), und ich versichere Ihnen, dass daran gearbeitet wird.

Freundliche Grüße, Jonathan Lynn“

Wunderbar! Außer dass ich mir eineinhalb Jahre später, am 18. August 2013, die Karten erneut angeschaut habe, und erneut hatte sich nichts geändert, trotz selbst Dr. Pachauris und seines Exekutiv-Komitees besonderer Aufmerksamkeit bzgl. dieser Angelegenheit. Vielleicht wird es nicht als prioritär angesehen, einen Fehler zu korrigieren, den der Ex-Vorsitzende des IPCC Bert Bolin als einen „wesentlichen“ Fehler beschrieben hat?

Ich fürchte, dass dies ein weiterer Fall dessen ist, was die kanadische Journalistin Donna Laframboise in ihrem Buch Delinquent Teenager über das IPCC beschrieben hat: Das IPCC sagt etwas und macht das Gegenteil. http://www.quadrant.org.au/blogs/thomas/2013/08/spot-the-error-the-ipcc-can-t – _edn3[3] Nur mal als Beispiel: Das IPCC verlangt von seinen Autoren, dass alle nicht begutachteten Referenzen für den Bericht 2007 als solche gekennzeichnet werden müssen. Als der Bericht dann erschienen war, hat Laframboise nachgezählt. Von den 5587 nicht begutachteten Referenzen waren gerade mal insgesamt sechs oder 0,1% davon als solche gekennzeichnet.

Das Fehlerprotokoll des Jahres 2011 erwuchs aus der aggressiv falschen Reaktion von Dr. Pachauri auf den IPCC-Fauxpas der schmelzenden Himalaya-Gletscher im Jahr 2007. Diese Gletscher sollten der Vorhersage zufolge bis zum Jahr 2035 abgeschmolzen sein und eine halbe Milliarde durstiger Asiaten hinterlassen.

Pachauri (der von sich sagt, dass er zwei PhD habe, obwohl es in Wirklichkeit nur einer ist) hat im Jahre 2009 ursprünglich den Beschwerdeführer hinsichtlich der Himalaya-Gletscher diffamiert [4]. Diese Person war Vijay Raina, ein bedeutender indischer Glaziologe. Pachauri hat Raina vorgeworfen, ‚Voodoo-Wissenschaft’ und ‚Zauberei’ auszuüben und weitere unhaltbare Vorwürfe. Er fügte hinzu, dass es dem Glaziologen nicht zukomme, eine solche Frage so einer bedeutsamen Institution wie dem IPCC vorzulegen [5].

Pachauri hat offensichtlich die kurze entsprechende Passage gar nicht gelesen, obwohl die schlechte Arithmetik und zweifelhafte Herkunft (Gerüchte, die von der Aktivistengruppe Worldwide Fund for Natur recycelt worden waren) für sich selbst sprachen. Tatsächlich mussten auf der einen Seite mit den Himalaya-Gletschern im Bericht 2007, die aus 497 Wörtern bestand, neun unterschiedliche Fehler korrigiert werden [6].

Pachauris Gehässigkeit war zu viel für die ehrenwerte wissenschaftliche Gemeinschaft, und innerhalb weniger Monate wurde er dazu gezwungen, dem Inter Academy Council IAC, einer internationalen Spitzen-Wissenschaftsagentur, hinsichtlich prozessualer Reformen im IPCC Rede und Antwort zu stehen, um weitere Fehler und damit den Verlust an Glaubwürdigkeit zu vermeiden.

Der IAC berichtete im August 2010, dass als Folge des Himalaya-Unsinns und Klimagate 1 „das öffentliche Vertrauen in die Klimawissenschaft abgenommen hat“ [7]. Aber, fügte er hastig hinzu, weder der Himalaya-Fauxpas noch Klimagate 1 unterminierten die wesentlichen Ergebnisse über die globale Erwärmung, verursacht vom Menschen. (Seine Quelle für diese Schlussfolgerung war niemand anders als der Integritäts-Spezialist Peter Gleick, der später, Anfang 2012, zugegeben hat, auf betrügerische Weise an interne Dokumente einer konservativen US-Denkfabrik gekommen zu sein, nämlich dem Heartland Institute) [8].

Zur Korrektur von Fehlern sagte der IAC: „Die Herausforderung bzgl. Kommunikation hat neue Dringlichkeit erhalten in der Folge jüngster Kritiken an den langsamen und unangemessenen Antworten des IPCC auf berichtete Fehler im 4. Zustandsbericht 2007. Diese Kritik unterstreicht die Notwendigkeit von Beziehungen zu Medien, um es dem IPCC zu ermöglichen, rasch und in angemessener Weise auf Kritik und Sorgen zu antworten, die in einem solchen umstrittenen Bereich zwangsläufig auftauchen“ [9].

Als Folge dieser Kritik des IAC hat die maßgebliche IPCC-Abteilung auf ihrer Sitzung im Mai 2011 in Abu Dhabi ein detailliertes und großartiges 12-seitiges Protokoll und Flussdiagramme zur Fehlerkorrektur herausgegeben [10]. Darin findet sich u. A.:

„Wenn der Fehler in einem Synthese-Bericht auftaucht, liegt die Verantwortung beim augenblicklichen IPCC-Vorsitzenden.

Zu Beginn des Prozesses wird der Beschwerdeführer vom IPCC-Sekretariat über die nächsten Schritte informiert … Der Beschwerdeführer wird nochmals über die Ergebnisse dieses Prozesses informiert.

Errata werden auf den Websites des IPCC, der Arbeitsgruppen oder der Task Force nach dem Ende des Prozesses aufgelistet. Eine kurze Erklärung über den Fehler kann ebenfalls gepostet werden“.

Nun, als gutgläubige IPCC-Fehler-Spürnase wurde ich vor 18 Monaten wirklich über die ‚nächsten Schritte’ informiert. Aber der Prozess, die grünen und braunen Kästen auszutauschen ist bislang nicht durchgeführt worden.

Vielleicht haben die IPCC-Experten einen hinterhältigen Sinn für Humor, und ihre Berichte sind ein raffinierter praktischer Witz. In diesem Falle hätte ich Tomaten vor den Augen; ich bin so verdammt vertrauensselig.

###


References:

[1] http://www.trust.org/item/20130816133815-ao2wt/?source=hptop

[2] http://www.ipcc.ch/pdf/climate-changes-1995/ipcc-2nd-assessment/2nd-assessment-en.pdf p31, maps

[3] http://www.amazon.com/Delinquent-Teenager-Mistaken-Climate-ebook/dp/B005UEVB8Q

[4] http://www.quadrant.org.au/magazine/issue/2012/3/the-fictive-world-of-rajendra-pachauri

[5]  http://www.youtube.com/watch?v=bnYmQjFoNCs

[6] ibid

[7] http://www.interacademycouncil.net/File.aspx?id=27672 p2

[8] http://science.time.com/2012/02/20/climate-expert-peter-gleick-admits-deception-in-obtaining-heartland-institute-papers/

[9] http://www.interacademycouncil.net/24026/26050/27665.aspx p2

[10] https://www.ipcc.ch/pdf/ipcc-principles/ipcc_error_protocol.pdf

=================================================================== Aktualisierung: Das IPCC antwortet

Ich schreibe in Bezug auf Ihren Beitrag vom 19. August, der von Tony Thomas übermittelten Story, in der Sie ansprechen, dass das IPCC laut Hinweis von Tony Thomas noch nicht einen Fehler korrigiert hat.

Das ist falsch, und ich möchte gerne die Fakten für Ihre Leser nennen:

Als wir den Brief von Tony Thomas am 8. Februar 2012 erhalten haben, wurde erkannt, dass es einen typographischen Fehler in der Summary for Policymakers der Arbeitsgruppe II im zweiten Zustandsbericht 1995 gibt. Eine Korrektur mit Datum vom 9. März 2012 wurde ausgegeben und kann hier gefunden werden:

http://www.ipcc.ch/ipccreports/sar/sar_syr_errata.pdf (…)

Wir haben Tony Thomas am 20. September 2012 geschrieben und ihn hierüber informiert. Eine Kopie dieser E-Mail folgt hier:

Jonathan Lynn, Head of Communications, IPCC

Sehr geehrter Herr Tony Thomas,

mit Bezug auf Ihre E-Mail vom 9. Februar 2012 informieren wir Sie, dass wir den gemäß der IPCC-Richtlinien zum Umgang mit möglichen Fehlern in den IPCC-Zustandsberichten, Synthese-Berichten, Sonderberichten oder methodischen Berichten den Prozess in Gang gesetzt haben. Wir möchten Ihnen mitteilen, dass die Arbeitsgruppe II des IPCC die Analyse der in Ihrer E-Mail vom 8. Februar 2012 angesprochenen Punkte abgeschlossen hat. Am 8. März 2012 hat das Büro der Arbeitsgruppe II festgelegt, dass man tätig werden müsse und dass der Fehler als ein typographischer Fehler betrachtet werden müsse wie in Abschnitt 2, Schritt 4A in den Richtlinien bestimmt. Vielen Dank, dass Sie uns darauf aufmerksam gemacht haben.

Mit freundlichen Grüßen, IPCC-Sekretariat

2. Aktualisierung:

Ich habe mit folgender E-Mail darauf geantwortet. Dafür erhielt ich ein Standard-Dankeschön, aber keine Antwort auf meine Frage. – Anthony

Sehr geehrter Mr. Lynn,

ich habe ihre Korrektur am Ende des Beitrags angefügt, vielen Dank dafür. Es scheint wie ein möglicher Fall der nicht perfekten Natur des Internets, was ab und zu dazu führt, dass Sendungen verloren gehen oder im Spam-Filter landen.

In dieser Hinsicht: Haben wir die Entschuldigung von Dr. Pachauri an die Klimaskeptiker in der ganzen Welt für seine „Voodoo-Wissenschaft“ hinsichtlich der Behauptung des Abschmelzens der Himalaya-Gletscher bis zum Jahr 2035 verpasst? Siehe hier: http://wattsupwiththat.com/2012/02/09/ipccs-pachauris-voodo-science-claim-comes-full-circle/

Vielen Dank für Ihr Interesse.

Anthony Watts, WUWT

3. Aktualisierung: Antwort von Tony Thomas:

Wie es manchmal so geht, habe ich meine E-Mail-Adresse von einem australischen Provider am 18. September 2012 zu gmail gewechselt. Jonathan Lynn vom IPCC hat mir am 20. September 2012 geantwortet, zweifellos an meine ehemalige E-Mail-Adresse. Ich habe keinen Beleg für ihren Empfang. In der Rückschau war mein Beitrag ein wenig zu harsch in Bezug auf das IPCC. Mein Check bestand aus der Untersuchung der IPCC-Karten aus dem Jahr 1995 und dem Synthese-Bericht, um zu sehen, ob es Beweise für eine Korrektur gebe. Es gab keine.

Der ehemalige IPCC-Vorsitzende Bert Bolin beschrieb die Karten als einen ‚wesentlichen Fehler’ und nicht als einen typographischen Fehler. Darum habe ich angenommen, dass es irgendeine Änderung oder Aufmerksamkeit geben würde.

Ich bin auch verwirrt, dass trotz der Klagen des IAC über die Verzögerungen bei Antworten des IPCC auf Fehlerhinweise dieser IPCC-Prozess immer noch sehr langsam zu sein scheint. Ich habe mich darüber am 9. Februar 2012 beklagt. Die Arbeitsgruppe II des IPCC wurde am 8. März 2012 aktiv. Und doch dauerte es bis zum 20. September, also ein halbes Jahr, bis ich darüber in einer E-Mail informiert worden bin.

Also ist das Ganze ein schlimmer gewordenes kleines Durcheinander. [So the story is really one of compounding small snafus.]

1. Die Beschriftung der Karte wird 1995 umgekehrt.

2. Bert Bolin beklagt sich im Jahre 2007 über einen nicht korrigierten „wesentlichen Fehler“.

3. Ich habe mich auch über diesen Fehler beschwert, und zwar Anfang 2012.

4. Irgendeine Panne in den Büros des IPCC führt zu einer Verzögerung von sechs Monaten, bis man mir antwortet. Die Antwort verschwindet dann im E-Mail-Äther.

5. Die Karten wurden nicht geändert.

6. Ich habe dem IPCC im August 2013 eine harte Mail geschickt.

7. Verletzte Gefühle allerorten.

Link: http://wattsupwiththat.com/2013/08/19/ipcc-caught-with-an-old-uncorrected-error-in-new-ar5-report/

Übersetzt von Chris Frey EIKE




Eine Illustration, dass das CO2 die Erde nicht in einem Runaway-Tipping-Point rösten wird…

Aus der Abteilung „etwas, das Sie nicht jeden Tag sehen“, stammt die Graphik rechts:

Atmosphärische CO2-Konzentrationen in geologischen Zeiträumen

Quelle: GeoCO2.png Photo by dhm1353 | Photobucket

Mit Dank an Tom Nelson

Auf der folgenden Graphik werden die Quellen gezeigt:

Quelle: http://s90.photobucket.com/user/dhm1353/media/CO2_Decline.png.html

Weitere Datenquellen: (Dank an Bill Illis)

http://www.geocraft.com/WVFossils/Reference_Docs/Geocarb_III-Berner.pdf
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/climate_forcing/trace_gases/phanerozoic_co2.txt

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/climate_forcing/trace_gases/pagani2005co2.xls

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/antarctica/epica_domec/edc-co2-2008.xls

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/climate_forcing/trace_gases/royer2006co2.xls
(Verwenden Sie nicht die Boron- oder Paleosol-Methode! Sie sind unzuverlässig!) ftp://ftp.ncdc.noaa.gov/pub/data/paleo/paleocean/by_contributor/pearson2000

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/ipcc2007/ipcc2007fig61top.xls
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/pearson2009/pearson2009.xls

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/tripati2009/tripati2009.xls

http://www.snowballearth.org/Bao08.pdf

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/hoenisch2009/hoenisch2009.xls

http://www.nature.com/ngeo/journal/v4/n7/extref/ngeo1186-s1.xls
http://www.nature.com/nature/journal/v486/n7401/extref/nature11200-s2.xls

http://www.nature.com/nature/journal/v486/n7401/extref/nature11200-s2.xls

Link: http://wattsupwiththat.com/2013/08/08/an-illustration-that-co2-wont-roast-the-earth-in-a-runaway-tipping-point/

Übersetzt von Chris Frey EIKE




Bemerkenswerte Korrelation des arktischen Meereises mit der Länge solarer Zyklen

Abbildung 1.5: Länge des Sonnenzyklus’ (gepunktete Linie), Index der Meereisausdehnung nach Koch aus Beobachtungen in der Grönländischen See (durchgezogene Linie).

Die Studie:

Multi-decadal variation of the East Greenland Sea-Ice Extent: AD 1500-2000

[Multi-dekadische Variation der Eisausdehnung vor Ostgrönland]

Knud Lassen and Peter Thejll

Abstract:

Die Eisausdehnung im Nordatlantik variiert mit der Zeit in zeitlichen Größenordnungen, die bis zu Jahrhunderten reichen, und der Grund für diese Variationen ist Gegen­stand dieser Studie. Wir betrachten den Koch-Eisindex, der die Menge des von Island aus gesichteten Eises im Zeitraum 1150 bis 1983 beschreibt. Diese Maßzahl der Eisausdehnung ist eine nicht lineare und verkürzte Maßzahl der Eismenge in der Grönland-See, gibt aber eine Gesamtübersicht auf die Eismengen während über 800 Jahren. Die Länge dieser Reihe ermöglicht Einsichten in die natürliche Variabilität der Eisausdehnung, und das Verständnis hierfür kann man nutzen, um derzeitige Variationen zu evaluieren. Auf diese Weise kommen wir zu dem Ergebnis, dass der jüngste Eisrückzug in der Grönland-See mit dem Ende der so genannten Kleinen Eiszeit Anfang des 20. Jahrhunderts in Beziehung stehen könnte. Wir betrachten auch die etwa 80-jährige Variabilität des Koch-Meereisindex’ und vergleichen ihn mit der ähnlichen Periodizität, die man hinsichtlich der Länge von solaren Zyklen gefunden hat, einem Maß für die Sonnenaktivität. Zwischen beiden findet sich eine enge Korrelation (R = 0,67) hoher Signifikanz (0,5% Wahrscheinlichkeit des Auftretens). Dies deutet auf eine Verbindung zwischen der Sonnenaktivität und dem Klima im Arktischen Ozean hin.

Schlussfolgerungen:
Angesichts der hohen gefundenen Signifikanz zeigen wir, dass die Korrelation von 0,67 zwischen multidekadischen Modi des Koch-Eisindex’ und der Länge solarer Zyklen auf einen Zusammenhang hindeutet und nicht bloßer Zufall ist. Die multidekadischen Modi repräsentieren immer noch lediglich einen kleinen Teil der Gesamtvarianz in der Zeitreihe des Eises. Sie zeigen: Während die Art der Sonnenaktivität, charakterisiert durch die variable Länge der solaren Zyklen, einige der in den Eis-Zeitreihen zu erkennenden Variationen verursachen kann, wird die Mehrheit durch andere Faktoren verursacht.

Während der multidekadische Zustand die Folge variierender Sonnenaktivität sein kann, ist der Grund des sich allmählich verändernden Zustandes nicht direkt aus den hier gezeigten Daten abzulesen. Offensichtlich muss hier eine natürliche Variation des Klimas zugrunde liegen. Eine Variation ähnlichen Aussehens kann man aus der Länge solarer Zyklen ablesen (Abbildung 1.5), aber es war nicht möglich, aus den vorhandenen Daten eine signifikante Korrelation abzuleiten. Nichtsdestotrotz spricht die Ähnlichkeit der Variation des Eistransportes durch die Fram-Straße und der geglätteten Variation der Länge solarer Zyklen in Abbildung 1.7 für die Hypothese, dass die Länge eines Sonnenzyklus’ beide natürliche Zustände abbilden kann. Diese Schlussfolgerung stimmt überein mit den Ergebnissen von Bond et al. 2001 (ihre Abbildung 2), dass nämlich eine persistente Reihe von der Sonne beeinflusster Variationen im Zeitraum von Jahrtausenden einschließlich der Mittelalterlichen Warmzeit und der Kleinen Eiszeit einen Grundsatz der Zyklen im Zeitraum von Jahrhunderten darstellen.

Abbildung 1.7: Variation des Eistransportes durch die Fram-Straße (in Einheiten von km³ pro Jahr) und geglätteter Werte der Länge solarer Zyklen (SCL121)(dicke Linie).

Die ‚niederfrequente Oszillation’, die den Eistransport durch die Fram-Straße ebenso wie die Eisausdehnung in der Grönland-See und der Davis-Straße im 20. Jahrhundert dominiert hat, kann daher als Teil eines Musters angesehen werden, dass seit mindestens vier Jahrhunderten existiert. Das Muster ist ein natürliches Ereignis und korreliert mit der variierenden Sonnenaktivität. Die Überlegungen hinsichtlich des Einflusses natürlicher Quellen der Variabilität der arktischen Eisausdehnung sind von Bedeutung für Befürchtungen, dass der gegenwärtige Eisrückzug ausschließlich auf menschliche Aktivitäten zurückzuführen ist. Offensichtlich ist ein beträchtlicher Teil des gegenwärtigen Rückzugs ein natürliches Ereignis.

Die ganze Studie steht hier (PDF)

Link: http://wattsupwiththat.com/2013/07/18/remarkable-correlation-of-arctic-sea-ice-to-solar-cycle-length/

Übersetzt von Chris Frey EIKE




Sieht aus, als wisse das Weiße Haus nicht, wie man mit Google umgeht

Zum Vergleich: Die Küste von Kalifornien ist 840 Meilen lang [ca. 1350 km].

Bild rechts: Karte von der NOAA US Tides and Currents website

Der Zusammenstellung U.S. International Borders: Brief Facts” durch den Research Service des Kongresses zeigt in Tabelle 3 den Wert für Georgia:

Ich habe etwa 20 Sekunden gebraucht, um diese Daten zu lokalisieren. Georgias Küstenlinie ist 100 Meilen lang, nicht 707 [ca. 161 km anstatt 1140 km].

Verwendet man die Methode von NOAA, wobei in die Messung der Küstenlinie jede Flussmündung und jeder Meeresarm, jede Halbinsel und so weiter eingehen, bekommen wir für Georgia einen Wert von 2344 Meilen [ca. 3800 km]:

Source: http://coastalmanagement.noaa.gov/mystate/ga.html

Egal mit welcher Methode, man kommt niemals auf 707 Meilen.

Man füge dies der Liste lächerlicher Behauptungen bzgl. von Daten hinzu wie z. B. die Behauptung, dass der Heimatstaat von Präsident Obama, Hawaii, 31 Counties [Landkreise] hat (es sind in Wirklichkeit 5). Es scheint mir, dass das Weiße Haus nicht einmal in der Lage ist, grundlegende Forschungen mittels einer Suchmaschine zu betreiben.

Nebenbei, die Stadt Savannah in Georgia scheint angesichts des dort gemessenen Anstiegs des Meeresspiegels nicht verschwunden zu sein:

Quelle: http://tidesandcurrents.noaa.gov/sltrends/sltrends_station.shtml?stnid=8670870

Es muss mit Sicherheit empörend für das Weiße Haus sein, dass ein „flat earther”-Blogger wie ich auf diese faktischen Fehler aufmerksam machen muss.

Link: http://wattsupwiththat.com/2013/06/27/its-almost-as-if-the-white-house-cant-figure-out-how-to-use-google/

Übersetzt von Chris Frey EIKE




Neue Studie mittels GRACE-Daten: Meeresspiegel steigt um weniger als 17 cm pro Jahrhundert

Die Studie bestätigt das Sea Level Budget von NOAA 2012, dem zufolge der Meeresspiegel nur um 1,1 bis 1,3 mm pro Jahr während der vergangenen 7 Jahre von 2005 bis 2012 gestiegen ist. Sie bestätigt auch die Ergebnisse einer Studie von Chambers et al, dass nämlich „der Meeresspiegel im Mittel während der letzten 110 Jahre um 1,7 mm pro Jahr gestiegen ist“.

Aus dem IPCC FAR Abschnitt 5.5.2: Holgate und Woodworth (2004) schätzten eine Rate von 1,7 ± 0.4 mm pro Jahr, und zwar gemittelt entlang der globalen Küstenlinie während des Zeitraumes 1948 bis 2002 und basierend auf Messungen von 177 Stationen, eingeteilt nach 13 Regionen. Church et al. (2004) berechneten einen globalen Anstieg von 1,8 ± 0.3 mm pro Jahr während der Periode 1950 bis 2000, und Church und White (2006) berechneten eine Änderung von 1,7 ± 0.3 mm pro Jahr im 20. Jahrhundert.

Die Studie:
Impact of Continental Mass Change on Rate-of-Rise of Sea Level

(etwa: Einfluss der Massenänderung von Kontinenten auf die Rate des Meeresspiegel-Anstiegs)

Heutige Variationen der Kontinentalmassen, wie sie durch gravimetrische Messungen mittels Satelliten-Gravimetrie beobachtet werden, zeigen säkulare Massenabnahmen und Akkumulation. Während Erstere zum Anstieg des Meeresspiegels beiträgt, führt Letztere zu einem Absinken desselben. Daher ist die Betrachtung der Massen-Akkumulation (anstatt sich allein auf den Massenverlust zu konzentrieren) wichtig für verlässliche Abschätzungen des Meeresspiegels. Mittels Daten von der Gravity Recovery And Climate Experiment Satellitenmission quantifizieren wir Trends der Massenänderung in 19 kontinentalen Gebieten, die ein dominantes Signal zeigen. Die integrierte Massenänderung innerhalb dieser Gebiete ist repräsentativ für die gesamten Landgebiete. Während der Periode von Mai 2002 bis April 2011 trugen die GIA-adjustierten Massengewinne und –verluste in diesen Gebieten im Mittel bei zu einem Rückgang des Meeresspiegels um -(0.7 ± 0.4) mm pro Jahr und zu einem Anstieg des Meeresspiegels von +(1.8 ± 0.2) mm pro Jahr; der Nettoeffekt betrug +(1.1 ± 0.6) mm pro Jahr. Eisschmelze in Grönland, Island, Spitzbergen, der kanadischen Arktis, der Antarktis, Alaska und Patagonien war verantwortlich für +(1.4±0.2) mm pro Jahr in der Gesamtbilanz. Folglich hat die Land-Wasser-Massenakkumulation etwa 20% des Einflusses vom Schmelzwassereintrag in die Ozeane kompensiert. Um den Einfluss der geozentrischen Bewegung abzuschätzen, haben wir geozentrische Koordinaten, abgeleitet aus Satelliten-Laser-Messungen (SLR), in Ein-Grad-geopotentielle Koeffizienten konvertiert. Wir erkannten, dass die geozentrische Bewegung kleine Verzerrungen in die Massenänderung und die Schätzung der Meeresspiegel-Änderung einbringt; ihr Gesamteffekt beträgt +(0.1 ± 0.1) mm pro Jahr. Dieser Wert sollte jedoch mit Vorsicht betrachtet werden wegen der fragwürdigen Verlässlichkeit säkularer Trends in den aus SLR abgeleiteten geozentrischen Koordinaten.

Eine Diashow der Studie findet sich hier: Baur_GGHS2012

Referenz
Baur, O., Kuhn, M. and Featherstone, W.E. 2013. Continental mass change from GRACE over 2002-2011 and its impact on sea level. Journal of Geodesy 87: 117-125.

Hintergrund
Die Autoren schreiben, dass „heutige Variationen der Kontinentalmassen profane Massenabnahme und Akkumulation zeigen“ und „während Ersteres zum Anstieg des Meeresspiegels beiträgt, führt Letzteres zu einem Absinken desselben“. Folglich stellen sie fest, dass „die Betrachtung der Massen-Akkumulation (anstatt sich allein auf den Massenverlust zu konzentrieren) wichtig für verlässliche Abschätzungen des Meeresspiegels“ ist.

Durchführung

Mittels Daten, abgeleitet aus dem Gravity Recovery And Climate Experiment – the GRACE satellite mission – haben Baur et al. kontinentale Massenvariationen im globalen Maßstab abgeschätzt, einschließlich der Beiträge sowohl aus Land-Eis und Land-Wasser, und zwar in 19 Kontinentalgebieten mit signifikanten Signalen. Dies haben sie für einen neunjährigen Zeitraum (2002 bis 2011) durchgeführt, der auch „zusätzlich 1 bis 3 Jahre zeitlich variabler Schwerefelder aus früheren Studien enthielt“. Und um den Einfluss der glacial isostatic adjustment (GIA) zu kompensieren, haben sie das GIA-Modell auf Paulson et al. (2007) angewendet.

Ergebnisse

Die Forscher berichten, dass sich während der neun Jahre ihrer Studie der mittlere GIA-adjustierte Massengewinn und Massenverlust während der 19 Jahre vor ihrem primären Brennpunkt auf -(0.7 ± 0.4 mm pro Jahr) eines Absinkens des Meeresspiegels und +(1.8 ± 0.6) mm pro Jahr eines Anstiegs aufsummierten, was zu einem Gesamtergebnis von +(1.1 ± 0.6) mm pro Jahr führte. Um eine Abbildung der insgesamten Änderung des Meeresspiegels zu erhalten, haben sie dann die räumliche Komponente von +(0.5 ± 0.5) mm pro Jahr hinzugefügt. Diese war von Leuliette und Willis (2011) abgeleitet worden. So ergab sich ein finales Ergebnis (Geocenter vernachlässigt) von +(1.6 ± 0.8) mm pro Jahr und ein finales Ergebnis (Geocenter korrigiert) von +(1.7 ± 0.8) mm pro Jahr.

Bedeutung dieses Ergebnisses

Das Geocenter-korrigierte Schlussergebnis von Baur et al. ist höchst ermutigend, wenn Chambers et al. (2012) zeigen, dass der Meeresspiegel im Mittel um 1,7 mm pro Jahr während der letzten 110 Jahre gestiegen ist, wie es sich auch aus den Analysen von Church und White (2006) sowie Holgate (2007) ergibt. Gleichzeitig ist die CO2-Konzentration in der Luft um fast ein Drittel gestiegen. Und immer noch hat dieser Anstieg nicht die Rate des globalen Meeresspiegel-Anstiegs beeinflusst!

References
Chambers, D.P, Merrifield, M.A. and Nerem, R.S. 2012. Is there a 60-year oscillation in global mean sea level? Geophysical Research Letters 39: 10.1029/2012GL052885.

Church, J.A. and White, N.J. 2006. A 20th century acceleration in global sea-level rise. Geophysical Research Letters 33: 10.1029/2005GL024826.

Holgate, S.J. 2007. On the decadal rates of sea level change during the twentieth century. Geophysical Research Letters 34: 10.1029/2006GL028492.

Paulson, A., Zhong, S. and Wahr, J. 2007. Inference of mantle viscosity from GRACE and relative sea level data. Geophysical Journal International 171: 497-508.

This essay was derived from several sources: CO2Science.org, The Hockey Schtick, and independent located content.

Link: http://wattsupwiththat.com/2013/07/03/new-study-using-grace-data-shows-global-sea-levels-rising-less-than-7-inches-per-century/

Übersetzt von Chris Frey EIKE

Ergänzung

Im hier behandelten Zusammenhang soll an eine historische Studie zu den Meerespiegelhöhen der Nordsee von Karl-Ernst Behre erinnert werden (mit Dank an meinen Freund Klaus-Eckart Puls, der mich auf Prof. Behre aufmerksam machte). Zum einen ist die von Behre ermittelte historische Meeresspiegelkurve in seinem empfehlenswerten Buch „Landschaftsgeschichte Norddeutschlands“ gezeigt, zum zweiten – detaillierter – in seiner Fachpublikation Behre (2007). Aus dieser Studie ist das folgende Bild entnommen. Die Kurve zeigt überraschend starke säkulare Schwankungen des Meeresspiegels mit Tidenhuben bis über einen Meter Differenzen zwischen Minima und Maxima. Die Ursachen für diese langfristigen Oszillationen sind unbekannt und sollten uns zur Vorsicht über Aussagen zur aktuellen bzw. zukünftigen Situation der Meeresspiegel anhalten. 

Prof. Behre war Leiter des Niedersächsischen Instituts für historische Küstenforschung in Wilhelmhaven und ist inzwischen emeritiert.

Behre, K-E.: A new Holocene sea-level curve for the southern North Sea, Boreas, Vol. 36, p.82-102, doi 10.1080/03009480600923386 (2007)

Prof. Dr. Horst-Joachim Lüdecke




Das „Ensemble” von Modellen ist statistisch vollkommen bedeutungslos

rgbatduke sagt:

Wenn man sagt, dass wir einen bestimmten Zeitraum lang warten müssen, um zu der Schlussfolgerung zu gelangen, dass „die Modelle falsch sind“, ist das aus zwei Gründen gefährlich und falsch. Erstens – und dieser Punkt wird erstaunlich stark ignoriert – gibt es sehr viele verschiedene Modelle, die alle für sich in Anspruch nehmen, auf  der Physik zu basieren. Und doch ergeben keine  zwei von ihnen etwa die gleichen Ergebnisse!

Dies spiegelt sich in den von Monckton veröffentlichten Graphiken, wobei die AR5-Trendlinie das Mittel all dieser Modelle ist. Trotz der Anzahl der hierzu beitragenden [Modelle] ist die Varianz gewaltig. Falls jemand einen „Spaghetti-Graphen“ der einzelnen Modellprojektionen veröffentlicht (wie es Roy Spencer kürzlich in einem anderen Beitrag getan hat), sieht er aus, wie das ausgefranste Ende eines Seiles und nicht wie eine kohärente Verteilung um ein bestimmtes, von der Physik gestütztes Ergebnis.

Man beachte den impliziten Schwindel in dieser Graphik. Wenn man ein Mittel und die Standardabweichung über die Modellprojektionen bildet und dann dieses Mittel als eine „sehr wahrscheinliche“ Projektion und die Varianz als repräsentativ für die Fehlerbandbreite darstellt, behandelt man die Differenzen zwischen den Modellen so, als ob sie nicht-korrelierte Zufallsvarianten wären, die sich in einer Abweichung um das wirkliche Mittel scharten.

Was soll denn das heißen?!

Es ist ein solch horrender Missbrauch von Statistik, dass man gar nicht so recht weiß, wo man am besten anfangen soll. Man möchte am liebsten dem Erzeuger dieser Graphik-Zusammenstellung – wer auch immer das war – eine runterhauen und dafür sorgen, dass diese Person niemals wieder etwas Wissenschaftliches oder Statistisches veröffentlicht. Man darf kein Ensemble unabhängiger und gleich verteilter Modelle erzeugen, die einen unterschiedlichen Code haben. Man kann eventuell ein einzelnes Modell erzeugen, das ein Ensemble von Vorhersagen erzeugt, indem man gleichartige Abweichungen (Zufallszahlen) verwendet, um „Rauschen“ (zur Repräsentation der Unsicherheit) in die Inputs mit eingehen zu lassen.

Was ich sagen möchte: die Varianz und das Mittel des „Ensembles” der Modelle ist vollständig bedeutungslos in statistischer Hinsicht, weil der Input nicht die wirklich grundlegenden Eigenschaften besitzt, die für eine bedeutungsvolle Interpretation erforderlich sind. Sie sind nicht unabhängig, ihre Unterschiede basieren nicht auf einer Zufallsverteilung von Fehlern, es gibt keinen wie auch immer gearteten Grund zu glauben, dass die Fehler oder Differenzen nicht auf Vorurteilen beruhten (unter der Voraussetzung, dass es nur eine einzige Möglichkeit für den Menschen gibt, etwas Vorurteilfreies zu erzeugen: nämlich die Verwendung eines Würfels oder anderer objektiver Zufallsgeneratoren).

Warum sollte man also diesen Unsinn hinnehmen und lineare Fits für eine Funktion – die globale Temperatur – anpassen, die niemals in ihrer gesamten Historie linear verlaufen ist, obwohl sie natürlich immer annähernd so glatt war, dass man jederzeit eine Taylor-Reihe in hinreichend kleinen Intervallen erzeugen und einen linearen Term erhalten kann, der – durch die Natur von Taylor-Reihen-Fits an nichtlinearen Funktionen – garantiert scheitern wird, wenn er extrapoliert wird, weil nichtlineare Terme höherer Ordnung sich draufsetzen und die Herrschaft übernehmen? Warum sollte man ein Lippenbekenntnis abgeben für die Vorstellung, dass R² oder p für eine lineare Anpassung oder für einen Kolmogorov-Smirnov-Vergleich der realen Temperaturaufzeichnung mit der extrapolierten Modellvorhersage irgendeine Bedeutung hätten? Sie haben keine.

Noch einmal: Es ergibt keine Bedeutung! Und ist unhaltbar in Theorie und Praxis der statistischen Analyse. Genauso könnte man ein Hexenbrett nehmen [siehe hier bei wikipedia, Bild oben rechts] als Basis für Behauptungen über die Zukunft des Klimas, und zwar als Ensemble-Mittel unterschiedlicher berechneter physikalischer Modelle, die sich nicht durch wirklich zufällige Variationen unterscheiden und die allen Arten von ausgelassenen Variablen unterworfen sind, dazu ausgewählten Variablen, der Implementierung und vorurteilsbefangener Initialisierung. Das Brett könnte uns die richtige Antwort liefern oder auch nicht, außer, dass es Glück bringen kann bei der Begründung einer Antwort auf irgendeiner vernünftigen Grundlage.

Wir wollen diesen Prozess einmal umkehren und tatsächlich die Verteilung der Modellergebnisse einer statistische Analyse unterwerfen. Zur Erinnerung: es geht um die Behauptung, dass sie alle nach den gültigen Gesetze der Physik korrekt implementiert sind. Zum Beispiel, wenn ich versuche, eine a priori-Berechnung der Feinstruktur – sagen wir – eines Kohlenstoff-Atoms durchzuführen, könnte ich damit so beginnen, dass ich ein Einzel-Elektronenmodell auflöse, wobei ich die Wechselwirkung zwischen den Elektronen unter Verwendung der Wahrscheinlichkeits-Verteilung des Einzel-Elektronenmodells bestimme, um eine sphärisch symmetrische „Dichte“ von Elektronen um den Kern zu erzeugen. Dann stelle ich eine in sich widerspruchsfreie Wiederholungs-Feldtheorie-Iteration auf  (indem ich das Einzel-Elektronenmodell für das neue Potential auflöse) bis es konvergiert. (Das ist als „Hartree-Approximation bekannt“).

Nun könnte jemand sagen „Moment mal, das ignoriert das Pauli-Ausschlußprinzip [Pauli exclusion principle]“ sowie die Forderung auf vollkommene Antisymmetrie der Elektronen-Wellenfunktion. Man könnte dann das (immer noch Einzel-Elektronen-)Modell komplizierter machen und eine Slater-Determinante [?] konstruieren, die man als vollständig antisymmetrische Repräsentation der Elektronen-Wellenfunktionen verwendet; sodann die Dichte erzeugen und die widerspruchsfreie Feldberechnung zur Konvergenz durchführen (das ist Hartree-Fock).

Jemand anders könnte dann darauf hinweisen, dass dies immer noch die „Korrelations-Energie“ des Systems unterschätze, weil das Behandeln der Elektronenwolke als kontinuierliche Verteilung die Tatsache ignoriert, dass einzelne Elektronen sich stark abstoßen und folglich nicht in die Nähe eines anderen kommen wollen. Beide frühere Herangehensweisen unterschätzen die Größe des Elektronen-Loches und machen das Atom folglich „zu klein“ und „zu stark gebunden“. Eine Palette von Schemata wird zur Behandlung dieses Problems vorgeschlagen – wobei die Verwendung einer semi-empirischen lokalen Dichtefunktion das wahrscheinlich erfolgreichste ist.

Und noch jemand könnte dann anmerken, dass das Universum wirklich relativistisch ist, und dass wir beim Ignorieren der Relativitätstheorie und der Durchführung einer klassischen Berechnung einen Fehler einführen in alles oben Gesagte (obwohl es in das halb empirische LDF-Verfahren heuristisch eingebracht werden kann).

Am Ende könnte man sehr gut ein „Ensemble” von Modellergebnissen in der Hand haben, die alle auf der Physik basieren. Tatsächlich basieren auch die Unterschiede auf der Physik. Die  von einem Versuch zum nächsten weggelassene Physik, oder die zur Annäherung und zur Einbringung der Physik verwendeten Methoden, können wir nicht in eine Berechnung der Grund-Prinzipien einschließen (man beachte, wie ich mit der LDF eine semi-empirische Note eingeschmuggelt habe, obwohl man Dichtefunktionen aus den Grund-Prinzipien ableiten kann (z B. Thomas-Fermi-Approximation), die normalerweise nicht besonders gut sind, weil sie nicht im gesamten Bereich der in wirklichen Atomen beobachteten Dichte gültig sind). Was ich hervorheben möchte, die Durchführung der präzisen Berechnung ist keine Option. Wir können das Vielkörperproblem in der Quantentheorie nicht mehr exakt lösen, wie wir auch nicht mehr das Vielkörperproblem in der klassischen Theorie exakt lösen können, auch nicht den Satz von offenen, nicht-linearen, gekoppelten, gedämpften, angetriebenen Navier-Stokes-Gleichungen in einem nicht-inertialen Bezugsrahmen, wie es das Klimasystem darstellt.

Wohlgemerkt: die Lösung der exakten, vollständig korrelierten, nichtlinearen Elektronen-Wellenfunktion des einfachen Kohlenstoffatoms – oder des weitaus komplexeren Uranatoms – ist trivial einfach (hinsichtlich der Berechnung) im Vergleich zum Klimaproblem. Wir können beides nicht berechnen, aber wir können einer konsistenten Annäherung an die Lösung von Ersterem viel näher kommen als bei Letzterem.

Sollten wir also das Ensemble-Mittel von „physikalisch fundierten” Modellen heranziehen, um die Quanten-Elektron-Struktur eines Kohlenstoffatoms zu bestimmen und dieses als die beste Vorhersage der Kohlenstoff-Quantenstruktur ansehen?

Nur wenn wir sehr dumm, oder geisteskrank sind, oder etwas glauben machen wollen. Wenn man das von mir Gesagte sorgfältig liest (was Sie vielleicht nicht getan haben – man überliest vieles, wenn ein Jahr oder mehr an Elektronen-Quantentheorie in einigen Sätzen zusammengefasst wird, dabei habe ich noch die Perturbations-Theorie, die Feynman-Diagramme usw. ausgelassen), merkt man, dass ich geschummelt habe – ich bin in eine semi-empirische Methode geraten.

Wer wird gewinnen? LDF natürlich. Warum? Weil die Parameter so angepasst sind, dass dabei der beste Fit für das wirkliche empirische Spektrum von Kohlenstoff herauskommt. Alle anderen unterschätzen das Korrelations-Loch, die Fehler werden systematisch vom korrekten Spektrum abweichen. Ihr Mittel wird systematisch abweichen. Durch die Gewichtung von Hartree (dümmster vernünftiger „auf der Physik beruhender Ansatz“) in gleichem Maße wie wie LDF beim „Ensemble“-Mittel wird garantiert, dass der Fehler in diesem „Mittel“ signifikant sein wird.

Nehmen wir mal an, wir wüssten nicht (ganz so, wie wir mal nicht wussten), welches Modell die besten Ergebnisse brächte. Nehmen wir weiter an, dass niemand das Spektrum von Kohlenstoff wirklich gemessen hätte, so dass dessen empirische Quantenstruktur unbekannt wäre. Wäre das Ensemble-Mittel dann sinnvoll? Natürlich nicht. Ich habe die Modelle in der Weise präsentiert, wie die Physik selbst eine Verbesserung vorhersagt – und habe später wichtige Details hinzugefügt, die von Hartree ausgelassen wurden. Man kann nicht sicher sein, dass das nachträgliche Hinzufügen dieser Details die Dinge wirklich verbessert, weil es immer möglich ist, dass die Korrekturen nicht monoton sind (und tatsächlich sind sie es in höheren Größenordnungen der Perturbations-Theorie mit Nahezu-Sicherheit nicht). Und doch würde niemand so tun, als sei das Mittel aus einer Theorie und einer verbesserten Theorie  „wahrscheinlich“ besser als die verbesserte Theorie selbst, weil das sinnlos wäre. Auch würde niemand behaupten, dass Ergebnisse der diagrammatischen Perturbations-Theorie notwendigerweise semi-heuristische Methoden wie LDF in den Schatten stellen könnten, weil das oft genug nicht der Fall ist.

Was man in der realen Welt tun würde wäre: das Spektrum von Kohlenstoff messen, dies mit den Vorhersagen des Modells vergleichen und erst dann dem Gewinner den Siegerkranz aushändigen. Niemals umgekehrt. Und da keiner der Gewinner exakt sein wird – tatsächlich war trotz jahrzehntelanger Forschung keiner der Gewinner auch nur in der Nähe beobachteter/gemessener Spektren, trotz des Gebrauchs von Supercomputern für die Berechnungen (zugegeben, die waren damals langsamer als Ihr Mobiltelefon heute) – würde man dann dennoch zurück am Zeichenbrett und der Eingabe-Konsole versuchen, es besser zu machen?

Können wir diese Art sorgfältigen Nachdenkens auf den Spaghetti-Knoten der GCMs und ihrer erheblich divergierenden Lösungen anwenden? Natürlich können wir das! Zuerst sollten wir aufhören so zu tun, als ob das „Ensemble“-Mittel und die Varianz irgendeine Bedeutung hätten und sie einfach nicht mehr berechnen. Warum sollte man eine bedeutungslose Zahl ausberechnen? Zweitens könnten wir wirkliche Klimaaufzeichnungen von einem beliebigen „Epochen-Startpunkt“ nehmen – der Startpunkt spielt langfristig keine Rolle, wir müssen den Vergleich über einen langen Zeitraum durchführen, weil für jeden beliebigen kurzen Zeitraum  von einem beliebigen Startpunkt aus ein vielartiges Rauschen die systematischen Fehler verschleiert – und wir können nur die Realität mit den Modellen vergleichen. Wir können dann die Modelle aussortieren, indem wir (mal angenommen) alle außer den oberen fünf in eine Art von „Fehler-Papierkorb“ legen und sie nicht mehr für irgendeine Art Analyse oder politische Entscheidungsprozesse heranzuziehen, es sei denn, sie fangen an, sich mit der Wirklichkeit zu vertragen.

Danach könnten sich echte Wissenschaftler hinsetzen und die fünf Gewinner betrachten – und darüber nachdenken, was sie zu Gewinnern gemacht hat – was sie dazu gebracht hat, der Realität am nächsten zu kommen – und den Versuch machen, sie noch besser zu machen. Zum Beispiel, wenn sie weit oben rangieren und von den empirischen Daten divergieren, könnte man überlegen, früher nicht beachtete physikalische Phänomene hinzuzufügen, semi-empirische oder heuristische Korrekturen oder Input-Parameter anzupassen, um den Fit zu verbessern.

Dann kommt der schwierige Teil – Abwarten. Das Klima ist nicht so einfach gebaut wie ein Kohlenstoffatom. Das Spektrum von Letzterem ändert sich nie, es ist immer gleich. Ersteres ist niemals gleich. Entweder ein dynamisches Modell ist niemals das Gleiche und spiegelt die Variationen der Realität, oder man muss sich damit abfinden, dass das Problem ungelöst und die unterstellte Physik falsch ist, wie „wohlbekannt“ auch immer diese Physik ist. Also muss man abwarten und sehen, ob ein Modell, das adjustiert und verbessert worden ist und das auf die Vergangenheit bis zur Gegenwart besser passt, tatsächlich einen Vorhersage-Wert hat.

Am schlimmsten ist, dass man nicht einfach mit Statistik entscheiden kann, wann und warum Vorhersagen scheitern, weil das verdammte Klima nicht-linear ist, nicht-Markovianisch, stattdessen chaotisch und offensichtlich auf nichttriviale Weise beeinflusst ist von einem globalen Wettbewerb von gegensätzlichen und manchmal sich aufhebenden, kaum verstandenen Faktoren: Ruß, Aerosole, Treibhausgase, Wolken, Eis. Dekadische Oszillationen, Störungen, entstanden aus dem chaotischen Prozess, die globale, anhaltende Änderungen der atmosphärischen Zirkulation auf lokaler Basis verursachen (z. B. blockierende Hochdruckgebiete über dem Atlantik, die dort ein halbes Jahr lang liegen bleiben). Diese Änderungen haben gewaltige Auswirkungen auf jährliche oder monatliche Temperaturen, Regenmengen und so weiter. Dazu orbitale Faktoren, solare Faktoren. Änderungen der Zusammensetzung der Troposphäre, der Stratosphäre, der Thermosphäre. Vulkane. Änderungen bei der Landnutzung. Algenblüten.

Und dann dieser verdammte Schmetterling. Jemand muss dieses blöde Ding zerquetschen, weil der Versuch, ein Ensemble aus einer kleine Stichprobe aus einem chaotischen System zu mitteln, so dumm ist, dass ich mich gar nicht damit befassen kann. Alles ist gut, solange man über ein Intervall mittelt, das kurz genug ist, um an einen bestimmten Attraktor gebunden zu sein, der schwingt und alles vorhersagbar macht – und dann mit einem Male ändern sich die Attraktoren und alles mit ihnen! All die kostbaren Parameter, empirisch fein eingestellt auf den alten Attraktor müssen nun durch neue Werte ersetzt werden.

Das ist der Grund, warum es tatsächlich unsinnig ist, der Vorstellung zuzustimmen, dass irgendeine Art p-Werte oder R², der aus irgendeinem Mittel im AR 5 abgeleitet ist, irgendeine Bedeutung hätte. Diese Vorstellung verliert ihren hohen Stellenwert (sogar dann noch, wenn man in guter Absicht zu argumentieren versucht, dass dieses „Ensemble“ elementare statistische Tests nicht bestünde). Statistisches Testen ist eine wahrhaft wackelige Theorie, offen für Datenmanipulation und horrende Fehler, vor allem, wenn sie von zugrunde liegenden IID-Prozessen [Independent and identically distributed processes] gesteuert wird („grüne Bohnen verursachen Akne“). Man kann nicht naiv ein Kriterium anwenden, wie z. B. „falsch, wenn P < 0,05“, und all das bedeutet im günstigsten Fall, dass die gegenwärtigen Beobachtungen unwahrscheinlich sind bei einer gegebenen Null-Hypothese von 19 zu 1. Auf solchem Niveau verlieren und gewinnen Spieler immer wieder ihrer Wetten.

Also möchte ich empfehlen – in aller Bescheidenheit – , dass die Skeptiker weiter hart bleiben, sich nicht auf dieses Feld locken lassen und durch Diskussionen über Fragen ablenken lassen, wie z. B. warum die Modelle in so erschreckender Weise untereinander abweichen, selbst wenn man sie auf identische Spiel-Probleme anwendet, die viel einfacher sind als die wirkliche Erde. Und ich möchte empfehlen, dass wir empirische Beweise nutzen (es werden immer mehr), um gescheiterte Modelle zurückzuweisen, und dass wir uns auf diejenigen konzentrieren, die der Realität am nächsten kommen. Dabei darf man keine Modelle benutzen, die offensichtlich überhaupt nicht funktionieren, und vor allem keine mit irgendwelchen Arten von Vorhersagen „durchschnittlicher“ zukünftiger Erwärmung …

Bei meiner verhältnismäßigen Ignoranz würde es mich fünf Minuten kosten, alle GCMs außer den besten 10 Prozent auszusortieren (auch diese divergieren noch hinsichtlich der empirischen Daten, liegen jedoch noch innerhalb der erwarteten Fluktuation des Datensatzes). Dann würde ich den Rest aufteilen in eine obere Hälfte mit den Modellen, die man eventuell behalten und möglicherweise verbessern könnte, und in eine zweite Hälfte, deren weitere Verwendung ich für Zeitverschwendung halte. Das würde sie natürlich nicht zum Verschwinden bringen, aber in die Mottenkiste. Falls sich das zukünftige Klima jemals magischerweise dazu aufraffen sollte, zu den Modellen zu passen, wäre es nur eine Frage weniger Sekunden, sie wieder hervorzuholen und zu benutzen.

Natürlich, wenn man das tut, fällt die von den GCMs vorhergesagte Klimasensitivität von den statistisch betrügerischen 2,5°C pro Jahrhundert auf einen wesentlich plausibleren und möglicherweise immer noch falschen Wert von etwa 1°C pro Jahrhundert. Dieser Wert – Überraschung! – stellt mehr oder weniger eine Fortsetzung des Erwärmungstrends nach der Kleinen Eiszeit dar mit einem möglicherweise kleinen anthropogenen Beitrag. Diese große Änderung würde zu einem großen Aufruhr führen, weil die Leute merken würden, wie sehr sie von einer kleinen Gruppe von Wissenschaftlern und Politikern ausgenutzt worden sind, wie stark sie Opfer von unhaltbarem statistischen Missbrauch geworden sind, indem man ihnen suggeriert hat, dass sie alle stimmen mit gewissen Unterschieden an den Rändern.

Link: http://wattsupwiththat.com/2013/06/18/the-ensemble-of-models-is-completely-meaningless-statistically/

Übersetzt von Chris Frey EIKE unter Mithilfe von Helmut Jäger




Das GRANDIOSE SCHEITERN der Klimamodellierung – Spencer: ‚Der Tag der Abrechnung ist gekommen!’

Dr. Roy Spencer schreibt:

Als Erwiderung auf diejenigen, die sich in meinem jüngsten Beitrag darüber beklagt haben, dass lineare Trends kein guter Weg sind, die Modelle mit Beobachtungen zu vergleichen (obwohl die Modellierer behauptet haben, dass wir uns auf das langzeitliche Verhalten der Modelle konzentrieren sollen und nicht auf individuelle Jahre), folgen hier die gleitenden 5-Jahres-Mittel der Temperatur in der tropischen Troposphäre, Modell gegen Beobachtung:

(siehe Bild oben rechts!)

In diesem Fall wurden die Modellergebnisse und die Beobachtungen geplottet, so dass ihre jeweiligen Trendlinien alle im Jahr 1979 beginnen. Wir glauben, dass dies die beste Darstellung ist, um die Modellergebnisse mit den Beobachtungen zu vergleichen.

Meiner Ansicht nach ist der Tag der Abrechnung gekommen! Die Modellierer und das IPCC haben bewusst viele Jahre lang die Beweise für die geringe Klimasensitivität ignoriert, trotz der Tatsache, dass einige von uns gezeigt haben, dass man einfach Ursache und Wirkung verwechselt, da man, wenn man aufgrund von Wolken- und Temperaturänderungen auf die Rückkopplung durch Wolken schließt, sehr in die Irre geführt werden kann (siehe z. B. Spencer & Braswell, 2010). Die Diskrepanz zwischen den Modellen und den Beobachtungen ist nichts Neues… aber etwas, das mit der Zeit immer deutlicher hervor tritt.

Sein Essay steht hier.

==============================================================

Der lineare Plot aus Dr. Spencers gestrigem Beitrag folgt hier. Er schreibt:

Dank der Arbeit von John Christy folgt hier ein Vergleich zwischen 73 CMIP5-Modellen (archiviert auf der Website Climate Explorer des niederländischen Wetterdienstes KNMI) und Beobachtungen der tropischen troposphärischen Temperatur („MT“) seit 1979:

Anstatt eines Spaghetti-Plots der individuellen Modelljahre haben wir hier den linearen Temperaturtrend von jedem Modell und den Beobachtungen im Zeitraum 1979 bis 2012 geplottet.

Man beachte, dass die Beobachtungen (die zufälligerweise nahezu identische Trends zeigen) aus zwei sehr unterschiedlichen Beobachtungssystemen stammen: 4 Datensätze aus Radiosondendaten und 2 Satelliten-Datensätze (UAH und RSS).

Wenn wir den Vergleich auf lediglich die 19 Modelle begrenzen, die ausschließlich von Forschungszentren in den USA erstellt worden sind, zeigt sich eine geringere Bandbreite:

Also, in welchem Universum repräsentieren die obigen Ergebnisse kein grandioses Scheitern der Modelle?

Link: http://wattsupwiththat.com/2013/06/06/climate-modeling-epic-fail-spencer-the-day-of-reckoning-has-arrived/

Übersetzt von Chris Frey EIKE




Vielzitierte Studie zum 97-Prozent-Konsens zerfällt!

Zunächst gibt es da neue Einwände hinsichtlich des Suchsystems, um die Studien zu bewerten, wie Shub Niggurath bei Bishop Hill erklärt:

Die Literatur zur Klimaänderung umfasst weit über hunderttausend Artikel und Bücher. Die Strategie von Cook et al. war es, sich auf Studien zu konzentrieren, die einen direkten Bezug zur „globalen Erwärmung“ oder zur „globalen Klimaänderung“ im Web of Science haben. Sie beschreiben es so:

Im März 2012 durchsuchten wir das ISI Web of Science nach Studien, die in den Jahren 1991 bis 2011 veröffentlicht worden waren, und zwar mit den Suchbegriffen ‚globale Erwärmung‘ oder ‚globale Klimaänderung‘. Die Art der Artikel war begrenzt auf ‚Artikel‘. Bücher, Diskussionen, Studien zu Vorgehensweisen und andere Typen waren ausgeschlossen.

Eine Suche mit Web of Science auf die von den Autoren beschriebene Art und Weise ergibt tatsächlich 30940 Treffer, nicht 12464. Schließt man den ‚Arts and Humanities Citation Index’ (A&HCI) aus, werden daraus 30876 Treffer. Dies geschieht, wenn man die Suchbegriffe nicht als Doppelbegriff kenntlich macht (z. B. ‚globale Erwärmung‘ anstatt „globale Erwärmung“).

Scopus ist eine akademische Datenbasis, die technische, medizinische und soziale Wissenschafts-Disziplinen abdeckt. Wenn Scopus mit den korrekten Suchbegriffen benutzt wird, ergeben sich überraschenderweise insgesamt 19417 Treffer. Eine Suche beim Web of Knowledge ergibt etwa 21488 Treffer. Diese Zahlen sind um 7473 Treffer (Scopus) und etwa 9544 Treffer (Web of Knowledge) größer als das, was Cook et al. möglicherweise analysiert haben.

Mehr: http://www.bishop-hill.net/blog/2013/5/27/landmark-consensus-study-is-incomplete.html

=================================================================

Zweitens geben immer mehr Autoren an, dass ihre Studien falsch kategorisiert worden sind:

=================================================================

Ist dies eine akkurate Repräsentation Ihrer Studie?

„Mit Sicherheit nicht korrekt und mit Sicherheit irreführend. Die Studie richtet sich stark gegen AGW und dokumentiert dessen Fehlen in den beobachteten Fakten hinsichtlich des Meeresspiegels. Außerdem entkräftet sie erheblich die Art und Weise, mit der das IPCC den Meeresspiegel behandelt“. – Dr. Mörner

„Ich bin sicher, dass diese Einstufung des fehlenden CO2-Einflusses auf AGW keinesfalls akkurat oder korrekt ist. Die Einstufung unserer ernsthaft bewerteten Studie lediglich aufgrund der Durchsicht des Abstracts oder Wörtern im Titel der Studie ist sicherlich ein ernster Fehler“. – Dr. Soon

„Nein; wenn die Studie von Cook et al. meine Studie mit dem Titel ‚eine multi-disziplinäre, wissenschaftlich basierte Annäherung zu den wirtschaftlichen Folgen der Klimaänderung‘ mit der Beschreibung klassifiziert, dass sie „AGW explizit befürwortet, aber nicht quantifiziert oder minimiert“, kann von meinen Absichten oder dem Inhalt der Studie nicht weiter entfernt liegen“. – Dr. Carlin

Mehr: http://www.populartechnology.net/2013/05/97-study-falsely-classifies-scientists.html#Update2

Anthony Watts

Link: http://wattsupwiththat.com/2013/05/27/the-97-consensus-paper-is-starting-to-fall-apart/

Weiterführender Link.

Tol statistically deconstructs the 97% Consensus

Übersetzt von Chris Frey EIKE




Hockeystickerfinder Michael Mann – wieder einmal rat- und ahnungslos

Von the Hockey Schtick: Eine neue Studie von Schurer et al. (mit Mann als Mitautor) zeigt, dass „Klimamodelle die warmen Bedingungen vor rund 1000 Jahren (vor heute, während der Mittelalterlichen Warmphase) nicht erklären können, die man in einigen (Temperatur-)Rekonstruktionen erkennt“.

Schurer et al.: „Es zeigte sich, dass Variationen des solaren Outputs und explosiver Vulkanismus von 1400 bis 1900 die Hauptklimatreiber waren“. Sie behaupten auch: „aber zum ersten Mal sind wir auch in der Lage, einen signifikanten Beitrag aus Variationen von Treibhausgasen abzuleiten bis zu den kalten Bedingungen der Jahre von 1600 bis 1800“. Diese Behauptung ist höchst unwahrscheinlich, zeigen doch die Eisbohrkerne lediglich Änderungen des CO2-Gehaltes zwischen 1600 und 1800 von weniger als 10 ppm, und die Auswirkungen einer Änderung des CO2-Gehaltes um 10 ppm sind nicht bestimmbar, selbst mit moderner Instrumentierung.

Separating forced from chaotic climate variability over the past millennium*

auf deutsch etwa: Unterscheidung zwischen verursachter und zufälliger klimavariabilität während des letzten Jahrtausends
Andrew Schurer,1 Gabriele Hegerl,1 Michael E. Mann,2 Simon F. B. Tett,1 and Steven J. Phipps3

Journal of Climate 2013 doi: http://dx.doi.org/10.1175/JCLI-D-12-00826.1

[*Mit Dank an Leser D. Rohrlack.]

Abstract
Rekonstruktionen des vergangenen Klimas zeigen eine bemerkenswerte Temperatur-Variabilität während des vergangenen Jahrtausends, mit relativ warmen Bedingungen während der ‚Mittelelterlichen Klima-Anomalie MCA’ und der relativ kalten ‚Kleinen Eiszeit LIA’. Wir haben Multimodell-Simulationen des letzten Milleniums verwendet, zusammen mit einer Vielzahl von Rekonstruktionen der mittleren Temperatur auf der Nordhemisphäre, um die Klimavariabilität von 850 bis 1950 in Komponenten zu zerlegen, die man entweder externen Treibern oder interner Klimavariabilität zuordnen kann. Es zeigte sich, dass externe Treiber signifikant zu langzeitlichen Temperaturänderungen beigetragen haben, unabhängig von der Rekonstruktion aus Proxies, besonders ab dem Jahr 1400. Während der MCA allein jedoch ist der Effekt des Antriebs nur etwa in der Hälfte der betrachteten Rekonstruktionen auffindbar, und die Folgen des Antriebs in den Modellen können die warmen Bedingungen um das Jahr 1000 nicht erklären, die in einigen Rekonstruktionen zum Ausdruck kommen. Wir haben die Restmenge aus der Ermittlungs-Analyse verwendet, um die interne Variabilität unabhängig von der Klimamodellierung abzuschätzen, und fanden, dass die gegenwärtig beobachteten 50-jährigen und 100-jährigen hemisphärischen Temperaturtrends substantiell größer sind als irgendeiner der intern erzeugten Trends, selbst wenn man die große Restmenge während der MCA verwendet. Es zeigte sich, dass Variationen des solaren Outputs und explosiver Vulkanismus von 1400 bis 1900 die Hauptklimatreiber waren, aber zum ersten Mal sind wir auch in der Lage, einen signifikanten Beitrag aus Variationen von Treibhausgasen abzuleiten bis zu den kalten Bedingungen der Jahre von 1600 bis 1800. Die Proxy-Rekonstruktionen tendieren dazu, eine kleinere Reaktion auf Antriebe zu zeigen als von den Modellen simuliert. Wir zeigen, dass diese Diskrepanz zumindest teilweise zusammenhängt mit dem Unterschied der Reaktion auf große Vulkanausbrüche zwischen Rekonstruktionen und Modellsimulationen.

================================================================

Was soll das; die Klimamodelle können ja nicht einmal die Gegenwart erklären, geschweige denn die Vergangenheit. Also ist das wirklich keine Überraschung:

Anthony Watts

Link: http://wattsupwiththat.com/2013/04/11/michael-mann-says-climate-models-cannot-explain-the-medieval-warming-period-i-say-they-cant-even-explain-the-present/

Übersetzt von Chris Frey EIKE