1

RSS Satellitendaten sind offenbar Gegenstand ,heimlicher‘ Adjustierungen, um die Daten der globalen Temperatur wärmer zu machen

Leute schicken mir Material. Jetzt hat der aufmerksame Leser Clay Ablitt mir Folgendes geschrieben:

Ich verfüge über Aufzeichnungen vieler der unterschiedlichen Daten, die von RSS und UAH veröffentlicht werden, weil ich glaube, dass diese Daten zuverlässiger sind als diejenigen von NASA oder NOAA. Bei der Aktualisierung des vorigen Monats, als die September-Daten hinzugefügt worden sind, wurden die historischen Temperaturen ohne jede Mitteilung darüber und ohne jede Änderung der Version adjustiert.

Ich habe die August-Daten sowie die neu adjustierten Daten des Septembers mal beigefügt. Dies wird Auswirkungen auf alle RSS-Datensätze haben einschließlich der Ozean-Temperaturen wie die globalen RSS TLT-Daten, welche nach wie vor einen Stillstand seit Februar 1997 zeigen.

Beigefügt hatte er eine Excel-Tabelle mit zwei Seiten, eine für jeden Monat. Der Link dazu: rss-temperature-trend-sep-oct-2016 (.xlxs).

Ich habe mir das mal angeschaut, und er scheint recht zu haben. Es gibt eine nicht bekannt gemachte Änderung der Fernerkundungs-Daten. Die meiner Kenntnis nach letzte Mitteilung über eine Änderung ist diese: http://www.remss.com/node/5166.

Es scheint keinerlei weitere Erwähnung auf der remss.com-Website zu geben, die die Änderung erklären kann, die in der folgenden Wechselgraphik ersichtlich wird:


[Falls sich die Animation nicht zeigt, auf das Bild oder ggf. ins Original klicken]

Ich befragte den UAH-Wissenschaftler Dr. Roy Spencer dazu und zeigt ihm die Daten. Seine Antwort:

Wir hatten schon den Verdacht, dass sie eine überarbeitete LT in den Arbeiten hatten, nachdem sie mit einer neuen MT aufgewartet hatten.

„MT“ steht für Daten aus der Mittleren Troposphäre und „LT“ für Daten aus der unteren Troposphäre. Im vorigen März dokumentierte WUWT ihre Adjustierungen der MT-Daten, was den Trend wärmer machte (hier).

Natürlich macht auch die unangekündigte, von Ablitt entdeckte Adjustierung den Trend wärmer, was jedoch nicht vollkommen unerwartet kam, wenn man hörte, was der RSS-Chefwissenschaftler Carl Mears im vorigen Jahr sagte.

Dazu habe ich im März den Beitrag geschrieben The ‘Karlization’ of global temperature continues – this time RSS makes a massive upwards adjustment [auf Deutsch beim EIKE hier!]:

All das wird sich jetzt ändern. Mancher Leser wird sich an ein Video erinnern, das von der abscheulichen „Klima-Krücke der Woche“, dem Aktivisten Peter Sinclair produziert worden ist. Die zugrunde liegende Prämisse darin lautet: „die Satelliten lügen!“. Mir scheint es aufgrund seiner jüngsten Kommentare so, als ob Dr. Mears die Nase voll hätte von Leuten, die den RSS-Datensatz heranziehen, um zu zeigen, dass die Welt sich nicht so erwärmt wie sie es seiner Erwartung nach hätte tun sollen. In dem Video erklärt Mears:

Sie wollten einfach wissen, verstehen Sie, sie wollten ihr Statement feinabstimmen, verstehen Sie, ob – verstehen Sie – die Temperaturmessungen genauer sind oder die Satelliten-Temperaturen genauer sind; und ursprünglich wollten sie in etwa sagen „aber man sollte den Satelliten-Temperaturen wirklich nicht trauen, sondern diese Bodenbeobachtungen zur Grundlage machen“; und ich sagte „nun, was würden Sie empfehlen; Sie wollen wirklich all diese unterschiedlichen Datensätze betrachten, also wollen Sie nicht allein den Satelliten-Temperaturen vertrauen, Sie wollen die Bodenbeobachtungen betrachten – und all solches Zeug.

Auf seiner Website findet sich dieses Statement von Mears:

Jüngst fand sich in der Mainstream-Presse eine Anzahl von Artikeln des Inhalts, dass es nur eine geringe oder gar keine Änderung der global gemittelten Temperatur während der letzten beiden Jahrzehnte gegeben habe. Aus diesem Grunde stellt man uns eine Menge Fragen mit dem Tenor „ich habe diesen Plot auf der Website von Leugnern gesehen. Sind das wirklich Ihre Daten?“ Während einige dieser Berichte cherry-picked hinsichtlich ihrer Endzeitpunkte sind, um den angeblichen Beweis deutlicher zu machen, gibt es kaum einen Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten Simulationen des historischen Klimas im IPCC AR5 prophezeit. Dies geht aus den RSS-Daten hervor, ebenso wie aus den meisten anderen Temperatur-Datensätzen. Beispiel: Die Abbildung unten ist ein Plot der Temperatur-Anomalie (Abweichung vom Normalen) der unteren Troposphäre während der letzten 35 Jahre aus dem RSS-Datensatz „Temperature Lower Troposphere (TLT)“. Für diesen Plot haben wir über fast den gesamten Globus gemittelt, von 80S bis 80N, und haben den gesamten TLT-Datensatz verwendet mit Beginn im Jahre 1979. (Die Leugner mögen es wirklich, ihre Trends im Jahre 1997 beginnen zu lassen, so dass das gewaltige ENSO-Ereignis am Beginn ihrer Zeitreihe liegt, was zu einem linearen Fit mit der geringstmöglichen Neigung führt).

Source: http://www.remss.com/blog/recent-slowing-rise-global-temperatures Archived here: http://www.webcitation.org/6fiS2rI7k

Mears verwendet den Terminus „Leugner“, und damit ist seine Objektivität dahin, wenn er glaubt, Leuten so etwas unterstellen zu müssen.

Link: https://wattsupwiththat.com/2016/10/10/remote-sensing-systems-apparently-slips-in-a-stealth-adjustment-to-warm-global-temperature-data/

Übersetzt von Chris Frey EIKE




AEMO*: Windparks waren ultimative Ursache von Blackout. Das Netz widerstand den umgestürzten Masten

Bild rechts: Strommasten nahe Melrose bei Mid North in South Australia hielten dem Sturm nicht stand. Quelle: ABC News Australia

Aus dem Institute of Public Affairs, der führenden Denkfabrik Australiens:

5.Oktober 2016: Vorläufiger Bericht der AEMO zum Stromausfall in South Australia: Ursache war Wind.

Der vorläufige Bericht des australischen Netzbetreibers AEMO zum Stromausfall in South Australia zeigt auf: Der Hauptgrund für den totalen Stromausfall war eine plötzliche Reduktion der Windenergie, die ins Netz eingespeist worden war.

„Der Vorläufige Bericht stellt klar: während das Wetter Ursache für multiple Ausfälle des Strom-Übertragungssystems war, kam es zu dem Blackout erst nach dem plötzlichen Abfall von Wind-Output um 315 Megawatt an sechs verschiedenen Stellen im Verlauf von sechs Sekunden“, erklärte Forschungsdirektor Brett Hogan. „Die Regierung von South Australia und die Erneuerbaren-Industrie können nicht länger glaubwürdig geltend machen, dass die Gründe für den Ausfall ausschließlich beim Wetter zu suchen sind. Bilder umgefallener Strommasten erzählen nicht die ganze Geschichte.

Einfach gesagt, der Wind frischte auf und einige Übertragungsleitungen rissen, aber die Stromerzeugung ging weiter. Es war ausschließlich die bislang noch unerklärliche Reduktion des Outputs von Windparks bei gleichzeitiger Überlastung des Interkonnektors mit Victoria, was zum Zusammenbruch des gesamten Netzes führte“.

„Die Stromerzeugung mittels Gas wurde durch den Sturm und die Ausfälle der Übertragungsleitungen nicht unterbrochen, ebensowenig wie die Versorgung durch den Interkonnektor. Außerdem war es von Wichtigkeit, dass das auf Torrens Island stehende Gaskraftwerk herangezogen wurde, um das Stromnetz später an jenem Abend wieder in Betrieb zu nehmen.

Wenn man sich zur Stromerzeugung auf das Wetter verlässt und das Wetter schlecht wird, sollte man nicht überrascht sein, wenn das Stromsystem als Reaktion darauf damit nicht fertig wird. Während die Erneuerbaren durchaus ihren Platz in unserem zukünftigen Energiebedarf haben können, beginnt deren unkontrollierter Ausbau, befeuert durch Subventionen der öffentlichen Hand, Australien zu schädigen.

Die Begrenzung der Nachfrage legt Umschalter lahm, und Blackouts sind Symbole für gescheiterte Politik. Es ist nicht Aufgabe der Regierung, eine Energie-Technologie oder einen Provider gegenüber Anderen zu bevorzugen. Die Regierung sollte den Wettbewerb in einem offenen und freien Markt fördern, so dass sich Technologien und der private Sektor frei für die besten Energiequellen entscheiden können.

[Hervorhebung vom Übersetzer]

Die Erzeugung war ursprünglich durch die Schäden nicht beeinträchtigt, aber um 16.18 Uhr wurden im Zuge einer außerordentlich großen Zahl von Ausfällen innerhalb eines kurzen Zeitraumes 315 Megawatt Windenergie abgekoppelt, wovon auch das Gebiet nördlich von Adelaide betroffen war“. Quelle: AEMO Preliminary Report – Black System Event in South Australia am 28 September 2016, Seite 2.

Eine Ausgabe dieses Reports steht hier.

[Im Original folgt jetzt ein wörtlicher Auszug aus diesem Bericht mit vielen technischen Einzelheiten. Da das Wesentliche oben bereits zusammengefasst ist, wird auf dessen Übersetzung hier verzichtet. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2016/10/05/australian-energy-market-operator-report-says-wind-farms-were-the-ultimate-cause-of-blackout-network-withstood-pylon-downings/

Übersetzt von Chris Frey EIKE




Neue USGS-Studie*: Hitze speichernder Beton und Asphalt beeinträchtigen US-Klimastationen immer mehr

Bild rechts: Die USHCN-Station der University of Arozona Tucson mitten auf einem Parkplatz. Wenige Monate, nachdem dieses Photo bei WUWT erschienen war, wurde die Station geschlossen. Man beachte die undurchlässige Oberfläche rings um die Station.

Das Wichtigste an dieser Studie ist, dass sie die Prozentzahl von Stationen quantifiziert, die Schauplatz immer weiterer Bodenversieglung mit undurchlässigen Oberflächen um sie herum waren. Wie ich schon vor längerer Zeit erläutert habe, agieren derartige Oberflächen als Wärmesenken, was zu höheren Nachttemperaturen führt, wenn diese Oberflächen die gespeicherte Energie von der Sonne als Infrarot wieder abgeben. Dies wärmt die Luft um die Thermometer herum und verzerrt die Tiefsttemperatur aufwärts.

In dieser Studie belegen die Autoren, dass sie über 32% aller USHCN-Stationen gefunden haben, um die herum undurchlässige Oberflächen (ISA) zwischen 2001 und 2011 um über 20% zugenommen haben. Als der 1000 m-Radius, für welches Gebiet jede Station repräsentativ sein soll, der Stationen untersucht worden ist, ergab sich bei über der Hälfte aller Stationen (52%; über 600) eine Zunahme von ISA von mehr als 20% innerhalb mindestens 1% der Gitterpunkte innerhalb dieses Radius‘.

Dies zeigt, dass in Städten wie Las Vegas, wo es während der letzten 50 Jahre eine gravierende Infrastruktur-Zunahme gegeben hatte, die Minimum-Temperatur immer wärmer wird (hier), was die Mitteltemperatur, die zum Auffinden des „Signals der globalen Erwärmung“ herangezogen wird, nach oben verzerrt. Die NOAA wäre gut beraten, diese Stationen auszusondern, die auf diese Weise beeinträchtigt worden sind. Aber man hält stur an diesen falschen Daten fest und besteht darauf, dass man diese „adjustieren“ kann, damit sie genau werden. Dazu sage ich: Blödsinn! Da die USA so dicht mit tausenden Wetterstationen überzogen sind, ist es weitaus besser, Rausch- und nicht perfekte Daten auszusondern und nur jene Stationen heranziehen, die nicht durch zunehmende Infrastruktur verzerrte Werte aufweisen, also nur die besten Stationen mit tadellosen Daten.

Wenn man genau das tut, findet man einen statistisch signifikanten niedrigeren 30-Jahre-Trend:

Die neue Studie:

Änderungen der aus Satellitenbildern abgeleiteten Ausbreitung undurchlässiger Oberflächen bei Stationen des US Historical Climatology Network USHCN

Kevin Gallo,  George Xian

Abstract

Der Unterschied zwischen einer undurchlässigen, [30 m gridded] Oberfläche (ISA) zwischen 2001 und 2011 wurde evaluiert innerhalb von Radien von 100 bzw. 1000 m um die Stationen, die das USHCN ausmachen. Die Größe der Gebiete im Zusammenhang mit den beobachteten Zunahmen der ISA über bestimmte Grenzen hinaus wurde für die Klimastationen dokumentiert. Über 32% der USHCN-Stationen waren Schauplatz einer Zunahme der ISA von ⩾20% zwischen 2001 und 2011 in mindestens 1% der Gitterboxen innerhalb eines Radius‘ von 100 m um die Station. Während jedoch das erforderliche Gebiet in Verbindung mit ISA-Änderungen von ⩾1% auf ⩾10% zunahm, ist die Anzahl der Stationen, die eine ISA-Zunahme von ⩾20% aufwiesen, zwischen 2001 und 2011 auf 119 gesunken (9% der Stationen). Die Untersuchung des 1000 m-Radius‘ um jede Station ergab, dass über 52% (über 600) Stationen Schauplatz einer ISA-Zunahme von ⩾20% innerhalb mindestens 1% der Gitterboxen innerhalb jenes Radius‘. Da jedoch das erforderliche Gebiet im Zusammenhang mit ISA-Änderungen auf ⩾10% zugenommen hatte, sank die Anzahl der Stationen, bei denen man eine ISA-Zunahme von ⩾20% beobachtet hatte, zwischen 2001 und 2011 auf 35 (weniger als 3% der Stationen). Die gridded ISA-Daten bieten eine Gelegenheit, die Umgebung von Klimastationen zu charakterisieren mittels eines konsistent gemessenen Indikators einer Oberfläche. Periodische Evaluationen von ISA-Änderungen bei USHCN-Stationen und anderen Netzwerken mit Stationen werden gefordert um sicherzustellen, dass die lokale Umgebung um die Stationen sich nicht signifikant geändert hat dergestalt, dass die Messungen an der Station beeinflusst werden.

Link: https://wattsupwiththat.com/2016/09/22/new-usgs-study-shows-heat-retaining-concrete-and-asphalt-have-encroached-upon-us-climate-stations/

Übersetzt von Chris Frey EIKE




Klimaskeptiker reicht im Rahmen des RICO Klage ein gegen fast alle NGOs mit Klimabezug sowie einige Individuen

Geschworenenprozess gefordert mit einer Klage vor dem United States District Court in Lubbock, Texas [District Court = Amts-,/Landgericht]:

Auf der Frontseite liest man [siehe Bild rechts]:

LEONID GOLDSTEIN, Kläger,
gegen

CLIMATE ACTION NETWORK, CERES INC., ROCKEFELLER BROTHERS FUND INC., GENERATION INVESTMENT MANAGEMENT LLP, FORD FOUNDATION, THE PEW CHARITABLE TRUSTS, GREENPEACE INTERNATIONAL CORP., ENVIRONMENTAL GRANTMAKERS ASSOCIATION CORP., THE CONSULTATIVE GROUP ON BIOLOGICAL DIVERSITY CORP., THE SIERRA CLUB FOUNDATION CORP., WORLD WIDE FUND FOR NATURE TRUST, US CLIMATE ACTION NETWORK CORP., GLOBAL CALL FOR CLIMATE ACTION CORP., GENERATION INVESTMENT MANAGEMENT US LLP, ALLIANCE FOR CLIMATE PROTECTION CORP., FENTON COMMUNICATIONS CORP., WORLD WILDLIFE FUND INC., GREENPEACE INC., GREENPEACE FUND INC., FRIENDS OF THE EARTH INTERNATIONAL CORP., FRIENDS OF THE EARTH US CORP., FRIENDS OF THE EARTH (ACTION) INC., ENVIRONMENTAL DEFENSE FUND INC., ENVIRONMENTAL DEFENSE ACTION FUND CORP., NATURAL RESOURCES DEFENSE COUNCIL INC., NRDC ACTION FUND CORP., SIERRA CLUB CORP., EARTHJUSTICE CORP., THE UNION OF CONCERNED SCIENTISTS INC., THE PEW MEMORIAL TRUST, J. HOWARD PEW FREEDOM TRUST, MABEL PEW MYRIN TRUST, J.N. PEW JR. CHARITABLE TRUST, THE JOHN D. AND CATHERINE T. MACARTHUR FOUNDATION, THE WILLIAM & FLORA HEWLETT FOUNDATION, THE DAVID AND LUCILE PACKARD FOUNDATION, TIDES FOUNDATION CORPORATION, TIDES CENTER CORPORATION, CLIMATEWORKS FOUNDATION, THE ENERGY FOUNDATION und JOHN AND JANE DOES 1-99
Beklagte

Leonid Goldstein schreibt:

Ich habe eine Zivilklage im Rahmen des RICO eingereicht gegen das Unternehmen Klima-Alarmismus – Climate Action Network, Generation Investment Management, Ceres, Greenpeace, Sierra Club, Rockefeller Brothers Fund usw. – insgesamt 40 Körperschaften. Beigefügt sind hier die Titelseite und der ganze Text der Klage.

Das mutmaßlich kriminelle Unternehmen existiert seit dem Jahr 1988. Die Vorwürfe lauten:

Vergeltungsmaßnahmen gegen Zeugen

Versuch der Bestechung von Zeugen

Einschüchterung von Zeugen

Bestechung von Funktionären

Diebstahl/Veruntreuung von Pensionen und/oder Wohlfahrtsprogrammen einschließlich Social Security, sowie fortgesetzte Versuche, bis zu 36 Billionen Dollar zu veruntreuen – siehe www.ceres.org.

Auszüge aus der Klageschrift:

1. Dies ist eine Zivilklage gegen Climate Action Network und andere Körperschaften, die schon lange in kriminelle Machenschaften verstrickt sind, darunter eine falsche Behauptung, dass die anthropogene Freisetzung (oder Emission) von Kohlendioxid zu einer gefährlichen „globalen Erwärmung“ oder einem gefährlichen „Klimawandel“ führen soll sowie Verfolgung der Dissidenten oder Forderung nach regierungsamtlichen Maßnahmen auf der Grundlage dieser falschen Behauptung einschließlich Geldflüsse. In Wirklichkeit sorgt die anthropogene Freisetzung von Kohlendioxid weltweit für eine signifikante Zunahme der landwirtschaftlichen Produktivität. Die Erwärmung, theoretisch verursacht durch eine Zunahme der Kohlendioxid-Konzentration ist unbedeutend und nahezu unmessbar. Es wird erwartet, dass sie global viele Vorteile mit sich bringt.

2. Beginnend Anfang des Jahres 1988 und danach bis auf den heutigen Tag agierten die Beklagten und andere Mitglieder des Unternehmens gemeinschaftlich, um ihr kriminelles Schema voranzubringen (das „Unternehmen Klima-Alarmismus“). Jeder Beklagte hat an Operationen und dem Management des Unternehmens teilgenommen und zahlreiche [ungesetzliche] Akte begangen, um das Unternehmen zu erhalten und auszuweiten.

7. Der Kläger klagt wegen von den Beklagten verursachter Verletzungen von ihm selbst und zusätzlich auf der Grundlage [der Verletzung] des Ansehens von Opfern der kriminellen Machenschaften, die als „private Staatsanwälte“ diese kriminellen Machenschaften verfolgt haben (Rotella v. Wood, 528 U.S. 549, 556; 2000).

8. Bis zum Beweis des Gegenteils wurden die Aktionen der Beklagten begangen während der zehn Jahre vom 15. September 2006 bis zum Datum der Einreichung dieser Klage.

13.Der Kläger Leonid Goldstein ist ständiger Bürger der Vereinigten Staaten von Amerika, ein Bürger von Texas und Staatsbürger von Israel. Der Kläger hält einen Grad Master of Science in Mathematik, hat über 20 Jahre Erfahrung bei der Entwicklung von Software und ist Eigentümer vieler Patente. Außerdem gibt es von ihm zahlreiche Veröffentlichungen in einem bestimmten Bereich der erneuerbaren Energien. Der Kläger wirkte als Gutachter für einige Journale. Aufgrund seiner Ausbildung, seiner professionellen Erfahrungen und Kenntnisse ist der Kläger qualifiziert, als Experte auszusagen zu bestimmten Bereichen von Physik, Mathematik und Computer-Modellierung mit Bezug zur Klimaforschung und der so genannten „Klimawissenschaft“. Der Kläger hat zusätzlich Kenntnisse und Lebenserfahrungen, die ihn qualifizieren können, Aussagen zu den Korruptions-Aktivitäten der Körperschaften des Klima-Alarmismus‘ zu machen. Der Kläger ist bereit, zu diesen Themen vor dem US-Kongress, dem Gesetzgeber von Texas, dem Obersten Gerichtshof der Vereinigten Staaten und dem Obersten Gerichtshof von Texas entgeltfrei auszusagen. Der Kläger hat über 15 Jahre lang in die Sozialversicherung eingezahlt und besitzt Rücklagen für seinen Ruhestand, geschützt durch das Employee Retirement Income Security Act aus dem Jahr 1974. Der Kläger benennt seine Standpunkte zu Themen relevant zu Klimadiskussionen und Klima-Alarmismus auf seiner Non-Profit-Website defyccc.com, auf der es auch eine Suchmaschine gibt (defyccc.com/search, die es jedem erlaubt, der Wahrheit entsprechende Informationen hinsichtlich der Klimadiskussionen zu finden. Der Kläger schreibt auch für andere angesehene Blogs unter dem Pseudonym „Ari Halperin“.

Offenlegung: Mr. Goldstein hat bei WUWT Beiträge unter dem Pseudonym „Ari Halperin“ gepostet. Bislang dachte ich, das sei sein richtiger Name.

Sowie es zu dieser bahnbrechenden Story etwas Neues gibt, wird es Aktualisierungen geben.

Link: https://wattsupwiththat.com/2016/09/12/exclusive-climate-skeptic-files-sweeping-rico-lawsuit-against-most-all-climate-related-ngos-and-some-individuals/

Übersetzt von Chris Frey EIKE




Svensmark: Sonnenaktivität hat einen direkten Einfluss auf die Wolkenbedeckung der Erde

Es ist bekannt, dass Sonneneruptionen die Atmosphäre der Erde vor kosmischen Strahlen abschirmen. Allerdings zeigt die neue, im Journal of Geophysical Research: Space Physics veröffentlichte Studie, dass die globale Bewölkung in gleichem Maße reduziert ist. Dies stützt den Gedanken, dass kosmische Strahlung für die Wolkenbildung sehr wichtig ist. Die Eruptionen verursachen einen Rückgang des Bewölkungsanteils von etwa 2%, was mit etwa 1 Milliarde Tonnen Wasser korrespondiert, das aus der Atmosphäre verschwindet.

Da man von Wolken weiß, dass sie in größerem Zeitmaßstab die globalen Temperaturen beeinflussen, präsentiert die jetzige Untersuchung einen wichtigen Schritt zum Verständnis von Wolken und Klimavariabilität.

„Die Erde ist einem ständigen Bombardement von Partikeln aus dem Weltraum ausgesetzt, die man galaktische kosmische Strahlen nennt. Gewaltige Eruptionen auf der Sonnenoberfläche können diese kosmischen Strahlen etwa eine Woche lang von der Erde fernhalten. Unsere Studie hat gezeigt, dass bei einer auf diese Weise erfolgenden Reduktion kosmischer Strahlen auch eine korrespondierende Reduktion der irdischen Bewölkung zu verzeichnen ist. Da Wolken ein wichtiger Faktor bei der Kontrolle der Temperatur auf der Erde sind, können unsere Ergebnisse Implikationen für Klimawandel haben“, erklärt der Leitautor der Studie Jacob Svensmark von der DTU.

Sehr energiereiche Partikel

Galaktische kosmische Strahlen sind sehr energiereiche Partikel, die ihren Ursprung hauptsächlich in Supernovae haben.

Diese Partikel erzeugen elektrisch geladene Moleküle – Ionen – in der Erdatmosphäre. Ionen haben laut Laborversuchen zu einer Verstärkung der Bildung von Aerosolen geführt, welche als Kondensationskerne für die Wolkentröpfchen fungieren. Ob dies tatsächlich in der Atmosphäre so ist oder nur im Labor ist eine Frage, über das seit Jahren geforscht und diskutiert wird.

Wenn die großen Sonneneruptionen die galaktischen kosmischen Strahlen hinweg blasen, bevor sie die Erde erreichen, verursachen sie eine Reduktion atmosphärischer Ionen im Verlauf einer Woche um etwa 20% bis 30%. Falls also Ionen die Wolkenbildung beeinflussen, sollte es möglich sein, eine Abnahme der Bewölkung zu finden während Ereignissen, bei denen die Sonne kosmische Strahlen von der Erde fernhält, und genau das ist in dieser Studie getan worden.

Die so genannten Forbush decreases der kosmischen Strahlen wurden bislang mit Wochen dauernden Änderungen der Wolkenbedeckung in Verbindung gebracht, aber der Effekt ist lang und breit in der wissenschaftlichen Literatur debattiert worden.

Die neue Studie kommt zu dem Ergebnis, dass „es eine reale Auswirkung von Forbush decreases auf die Mikrophysik von Wolken gibt“, und dass die Ergebnisse die Aussage stützen, dass „Ionen eine bedeutende Rolle im Lebenszyklus von Wolken spielen“.

Der Weg zu diesem Ergebnis war jedoch ein hartes Unterfangen: Sehr wenige Forbush decreases treten auf, und es ist zu erwarten, dass deren Auswirkung auf die Wolkenbildung bei globalen atmosphärischen Beobachtungen mittels Satelliten und Messstationen an Land kaum zu erkennen ist. Daher war es von allergrößter Wichtigkeit, die stärksten Ereignisse für die Studie herauszusuchen, da deren Auswirkungen am einfachsten erkannt werden können. Zur Bestimmung der Stärke war die Kombination von Daten von etwa 130 Stationen erforderlich in Kombination mit atmosphärischer Modellierung.

Dieses neue Verfahren führte zu einer Liste mit 26 Ereignissen im Zeitraum von 1987 bis 2007, entsprechend der Ionisierung. Die Rangfolge in der Liste war wichtig für die Erkennung eines Signals und könnte auch Licht in die Frage bringen, warum frühere Studien zu anderen Schlussfolgerungen gekommen waren. Diese basierten nämlich auf Ereignissen, die nicht notwendigerweise an vorderer Stelle der Listen rangierten.

Mögliche langzeitliche Auswirkung

Die Auswirkung von Forbush decreases auf Wolken ist zu kurz, um irgendeinen Einfluss auf langzeitliche Temperaturänderungen zu haben.

Da jedoch Wolken durch kurzfristige Änderungen der kosmischen Strahlung beeinflusst werden, können sie auch beeinflusst werden durch die langsamere Änderung der Sonnenaktivität, welche sich in Zeitmaßstäben von Dekaden zu Jahrhunderten abspielt und folglich eine Rolle im Strahlungshaushalt spielt, welcher wiederum die globalen Temperaturen dirigiert.

Der Beitrag der Sonne zu Klimawandel in Vergangenheit und Zukunft kann also folglich viel größer sein als bloß die direkten Änderungen bei der Strahlung.

Quelle: http://www.dtu.dk/english/News/Nyhed?id=b759b038-66d3-4328-bbdc-0b0a82371446

Die ganze Studie steht hier: J. Svensmark, M. B. Enghoff, N. J. Shaviv, and H. Svensmark, “The response of clouds and aerosols to cosmic ray decreases”, Journal of Geophysical Research – Space Physics, 2016, DOI: 10.1002/2016JA022689.

Hier oder hier kommt man zum Abstract und der gesamten wissenschaftlichen Studie.

Damit im Zusammenhang: (via the Hockey Schtick)

Der Solarphysiker Dr. Leif Svalgaard hat seine Rekonstruktion des Auftretens von Sonnenflecken überarbeitet (hier), und zwar über die 400 Jahre von 1611 bis 2013. Der Plot des „Zeitintegrals“ der Sonnenfleckenzahl aus den Daten von Dr. Svalgaard zeigt eine signifikante Zunahme der akkumulierten Solarenergie, welche während des 18. Jahrhunderts begonnen und bis nach Ende der Kleinen Eiszeit um das Jahr 1850 gedauert hatte. Nach einem Stillstand von etwa 30 Jahren ergibt die akkumulierte Solarenergie einen „Hockeyschläger“-Anstieg im restlichen 20. Jahrhundert, gefolgt von einer Abnahme mit Beginn im Jahre 2004. All dies zeigt eine bemerkenswerte Korrespondenz zu den globalen Temperaturaufzeichnungen nach HadCRUT4:

Das Zeitintegral der Sonnenaktivität plus ozeanische Oszillationen (hier), welche ebenfalls durch die Sonnenaktivität getrieben werden, können 95% des Klimawandels während der letzten 400 Jahre (hier) erklären.

Es ist angebracht, sich noch einmal daran zu erinnern, was Dr. Roy Spencer über Wolken gesagt hat:

Die offensichtlichste Art und Weise für eine natürlich erfolgende Erwärmung sind kleine natürliche Fluktuationen der Zirkulation von Atmosphäre und Ozean, welche zu einer Reduktion der Wolkenbedeckung um 1% oder 2% führen. Wolken beschatten die Erde, und falls sich die Bewölkungsmenge aus irgendwelchen Gründen ändert, hat man globale Erwärmung – oder globale Abkühlung.

Link: https://wattsupwiththat.com/2016/08/25/svensmark-publishes-solar-activity-has-a-direct-impact-on-earths-cloud-cover/

Übersetzt von Chris Frey EIKE




Solarphysikerin sieht globale Abkühlung voraus

Die Forschungen zeigen, dass sich die nächsten drei solaren Zyklen durch eine signifikante Reduktion der Sonnenaktivität auszeichnen bis Mitte des Jahrhunderts – mit Bedingungen ähnlich denen, die zuletzt im 17. Jahrhundert verzeichnet worden sind – also während des Maunder-Minimums. Dies dürfte Implikationen hinsichtlich der Temperatur auf der Erde mit sich bringen. Zukünftige solare Zyklen werden als ein Test der Arbeit der Astrophysiker fungieren, aber einige Klimawissenschaftler haben die Forschungen abgelehnt und sogar versucht, die Bekanntgabe der neuen Ergebnisse zu unterdrücken [was für mich eine klare Bestätigung dieser Ergebnisse ist! Anm. d. Übers.]

Neue Forschungen bzgl. der Sonne werfen Klima-Fragen auf und lösen Angriffe aus

Für die meisten von uns sieht es so aus, als sei die Sonne unveränderlich. Aber wenn man deren Oberfläche beobachtet, kocht sie vor riesigen Explosionen und Ausbrüchen. Diese Aktivität hat ihre Ursache in starken Magnetfeldern, erzeugt durch Wirbelströme in der äußeren Sonnenschicht – Wissenschaftler bezeichnen das als den solaren Dynamo.

Dabei kommt es zu dem allgemein bekannten 11-Jahre-Zyklus, der sich in Sonnenflecken manifestiert, die kommen und gehen.

Aber Modelle des solaren Dynamos waren nur teilweise erfolgreich bei der Vorhersage des solaren Zyklus‘ – und der Grund hierfür könnte sein, dass eine grundlegende Komponente fehlt.

Nach dem Studium von solaren Magnetfeldern über die gesamte Sonnenscheibe entdeckten Professorin Valentina Zharkova von der Northumbria University und ihre Kollegen, dass der solare Dynamo tatsächlich durch zwei Komponenten am Leben gehalten wird, die aus unterschiedlichen Tiefen innerhalb der Sonne stammen.

Die Wechselwirkung zwischen diesen beiden magnetischen Wellen verstärkt entweder die Sonnenaktivität oder schwächt sie ab. Prof. Zharkovas Beobachtungen zeigen, dass eine längere Periode geringer Sonnenaktivität fällig ist.

Prof. Valentina Zharkova:

Wir werden es von 2020 bis 2053 sehen, wenn die nächsten drei Zyklen bei einem stark reduzierten Magnetfeld der Sonne auftreten. Was im Grunde geschieht ist, dass diese beiden Wellen sich in den gegenüber liegenden Hemisphären separieren, und sie werden nicht in Wechselwirkung stehen, was bedeutet, dass das resultierende Magnetfeld dramatisch abnehmen wird bis fast Null. Und genau diese Bedingungen herrschten auch während des Maunder-Minimums.

Welche Folgen das für die Erde hat, bleibt abzuwarten, weil noch niemand irgendein Programm oder Modell bzgl. der terrestrischen Reaktion entwickelt hat – diese basieren alle auf dieser Periode mit maximaler Sonnenaktivität, wenn die Sonne diese netten Fluktuationen zeigt und ihr Magnetfeld sehr stark ist. Aber wir laufen auf ein Stadium zu, in dem das Magnetfeld der Sonne sehr, sehr schwach sein wird.*

[*Es scheint mir so, als seien die Zitate von Prof. Zharkova aus einer anderen Sprache mittels einer Übersetzungs-Maschine ins Englische übersetzt worden. Das gilt auch für das Zitat weiter unten. Ich kann mich aber nur an den Text hier halten {und als Anmerkung: Ich benutze für meine Übersetzungen niemals eine Übersetzungs-Maschine!} Anm. d. Übers.]

Sie schätzt, dass es zu einer Wiederholung des sog. Maunder-Minimums kommen wird – einem Zeitraum im 17. Jahrhundert, in dem geringe Sonnenaktivität eine Abkühlung auf der Erde beeinflusst haben könnte.

Was immer wir mit dem Planeten machen – falls alles nur von der Sonne verursacht ist, dann sollte die Temperatur ähnlich wie im Maunder-Minimum sinken. Zumindest auf der Nordhemisphäre, wo diese Temperatur gut protokolliert und aufgezeichnet ist. Wir haben aus der Südhemisphäre nicht viele Messungen, wir wissen nicht, was dort passieren wird, aber von der Nordhemisphäre wissen wir es. Die Flüsse waren gefroren. Es gab Winter, aber keine Sommer, und so weiter.

Also können wir nur hoffen, dass diese Maunder-Minima kürzer sind. Das Maunder-Minimum des 17. Jahrhunderts dauerte rund 65 Jahre, während das jetzt zu erwartende Maunder-Minimum nicht länger dauern könnte als 30 bis 35 Jahre.

Natürlich ist nichts mehr so wie im 17. Jahrhundert – wir haben viel mehr Treibhausgas in der Atmosphäre. Und es wird interessant sein zu verfolgen, wie sich terrestrische und solare Einflüsse gegenseitig beeinflussen.

Dies sind vielversprechende Forschungen – eine neue Einsicht in unsere Sonne mit Vorhersagen bzgl. ihres zukünftigen Verhaltens. Trotzdem beklagt Prof. Zharkova, dass einige Klimatologen ihr ihre Forschungen übelnehmen.

Prof. Valentina Zharkova:

Einige von ihnen waren wohlwollend und diskutierten darüber. Aber einige andere waren ziemlich – ich würde sagen – aufdringlich [pushy]. Sie haben versucht, uns ruhig zu stellen. Einige von ihnen kontaktierten die Royal Astronomic Society und forderten hinter unserem Rücken, dass diese unsere Presseerklärung zurückziehen soll. Die Royal Astronomic Society antwortete ihnen mit CC an uns und sagte: „Schauen Sie, dies sind Forschungen von den Wissenschaftlern, die wir unterstützen, bitte diskutieren sie dieses Thema mit ihnen“.

Es gab dann 8 oder 10 E-Mail-Wechsel, wobei ich meine Punkte beweisen wollte. Und ich sage, ich bin willens zu sehen, was Sie tun, ich bin willens zu erklären, wie wir zu unseren Ergebnissen gekommen sind und was die Sonne uns erklärt hat. Wie sich dies in Bezug auf das Klima auswirkt, haben wir nicht untersucht; wir können diesbezüglich nur Vermutungen anstellen. Also werden wir gerne mit Ihnen zusammenarbeiten und Ihre Daten unseren Ergebnissen hinzufügen. Nehmen Sie also nicht nur Ihre Sonnenflecken, wir können Ihnen unsere Kurve zur Verfügung stellen. Arbeiten Sie mit unser Kurve. Aber das wollten sie nicht und haben es abgelehnt.

Die Arbeit von Prof. Zharkova könnte unsere Fähigkeit, die Sonnenaktivität vorherzusagen, deutlich verbessert haben. Falls wir wirklich in ein neues Maunder-Minimum rutschen, dann sollten wir auch neue Erkenntnisse bezüglich unserer Sonne und deren Einfluss auf unser Klima gewinnen.

Link: https://wattsupwiththat.com/2016/08/09/solar-physicist-sees-global-cooling-ahead/

Übersetzt von Chris Frey EIKE




UK schafft das Energie- und Klimaministerium ab*

Bildinschrift Bild rechts: „Offizielle Zahlen – ursprünglich vom Ministerium zurückgehalten – zeigen gewaltige Anstiege der Strompreise bis zum Ende dieses Jahrzehnts, die jeder aufbringen müsste, um die Maßnahmen der Regierung bzgl. des Klimawandels zu finanzieren“.

Angesichts dessen, dass sich die neue Regierung unter Theresa May auf die erheblich wichtigeren Themen konzentriert wie wirtschaftliches Wachstum, internationale Wettbewerbsfähigkeit und den Austritt aus der EU wird diese Entscheidung vitale Einsparungen mit sich bringen. Allgemein herrscht die Hoffnung, dass die Auflösung des DECC auch neues Gewicht auf den Übergang zu einer kosteneffektiven Politik legt.

„Die Verlagerung der Energiepolitik in das neue Department for Business, Energy and Industrial Strategy [Ministerium für Wirtschaft, Energie und Industriestrategie] sollte den Ministern frischen Schwung verleihen sicherzustellen, dass die Kosten für Verbraucher und Wirtschaft sinken und nicht weiter nach oben getrieben werden“, sagte GWPF-Direktor Dr. Benny Peiser.

Die Zeitung The Independent nennt dies einen „einfach dummen und zutiefst besorglichen Vorgang“ (hier), siehe folgenden Auszug:

Die Entscheidung, das DECC aufzulösen, wurde von vielen Seiten als „einfach nur dumm“, „zutiefst besorglich“ und „schrecklich“ verurteilt – von Politikern, Campaignern und Experten.

Eine der ersten Amtshandlungen von Theresa May als Premierministerin war es, die Verantwortung für Klimawandel einem neuen Department for Business, Energy & Industrial Strategy zuzuweisen.

Erst am Montag hatten Berater der Regierung die dringende Notwendigkeit sofortiger Maßnahmen hervorgehoben (hier), um UK auf Überschwemmungen, Dürren, Hitzewellen und Nahrungsmittelknappheit vorzubereiten, die vom Klimawandel verursacht werden.

Die Nachricht kam nach der Berufung von Andrea Leadsom – deren erste Frage an die Regierung lautete, nachdem sie im vorigen Jahr Energieministerin geworden war „ist der Klimawandel real?“ – zur neuen Umweltministerin.

Und nachdem die ehemalige Ministerin für Energie und Klimawandel Amber Rudd im November verkündet hatte, dass UK bis zum Jahr 2025 die „Kohle schließen“ werde, hat Ms. Leadsom später die Kohleindustrie aufgefordert, definieren zu helfen, was dies tatsächlich bedeutet (hier).

Experten fürchten ein ,Freudenfeuer‘ von Vorschriften mit dem Ziel, die Umwelt zu schützen

Der ehemalige Labourführer Ed Milliband twitterte: „Die Auflösung des DECC ist einfach dumm. Das Stichwort ,Klima‘ wird im Titel des neuen Ministeriums nicht einmal erwähnt. Dies ist von Bedeutung, weil Ministerien Prioritäten setzen und Ergebnisse bringen“.

Greenpeace sagte, man sei besorgt, dass die neue Regierung den Klimawandel nicht als eine ernste Bedrohung betrachte.

John Sauven, der geschäftsführende Direktor der Kampagnen-Gruppe sagte: „Das Abstimmungsergebnis und der Anschluss an Klimaskeptiker seitens Schlüsselmitgliedern des Kabinetts sind zutiefst besorglich“.

Der gesamte Beitrag steht hier.

Nein! Alles, was zutiefst besorglich ist, ist der Umstand, dass Organisationen wie Greenpeace so viel Macht erlangen konnten, dass sie die Regierung effektiv mit Aktivisten infiltrieren konnte. Meiner Ansicht nach haben sie die Ergebnisse ihrer Jahre mit übertriebenem Alarmismus eingeheimst, und der Rückschlag, den wir jetzt erleben, ist die direkte Folge davon, dass sie den Bogen überspannt haben mit Bemerkungen wie „Notwendigkeit dringender Maßnahmen“ (hier), wenn eine allmähliche Änderung es auch tun würde. Falls es einige wirkliche Untersuchungen bzgl. Klimagate anstatt der Reinwaschung von Muir Russell (hier) gegeben hätte – vielleicht wäre dann das Ministerium nicht total aufgelöst worden. Und dann sind da natürlich noch die zusätzlichen Kosten, die zu veröffentlichen das DECC verpflichtet worden ist:

siehe Bild oben rechts!

Die Auflösung des DECC ist hoch verdient und war meiner Absicht nach schon lange überfällig.

Link: https://wattsupwiththat.com/2016/07/14/britain-abolishes-the-department-of-energy-and-climate-change/

Übersetzt von Chris Frey EIKE




Kurzinfo: „97%-Klimakonsens“ ist reine Phantasie

Auf der Liste der Studien stehen 43 zu solaren Einflüssen, 27 zu natürlichen Ozean-Oszillationen, 2 zu Rossby-Wellen, 3 zu Ozon, 6 zu den geringen CO2-Auswirkungen, 11 zur natürlichen Variabilität, 11 zu Wolken und Aerosolen, 3 zur Abkühlung der Stratosphäre durch CO2, 15 zu Klimaten der Vergangenheit, 4 zu „settled science“, 19 zur Unzuverlässigkeit von Klimamodellen, 2 zu städtischen Wärmeinseln, 6 zu vulkanischen Antrieben, 2 zur Erwärmung der Ozeane, 7 zu verschiedenen Themen, 2 zu Waldbränden, 2 zum Verhältnis von Todesfällen durch Kälte bzw. Wärme, 6 zu Klimapolitik, 7 zu Extremwetter, 20 zum polaren Eis, 9 zum Anstieg des Meeresspiegels, 12 zur Versauerung der Ozeane, 2 zu Hurrikanen, 4 zu Dürren, 3 zu natürlichen Klimakatastrophen, 7 zu Ergrünung und der Steigerung von Ernteerträgen sowie 1 zur geringen Klimasensitivität.

Link: https://wattsupwiththat.com/2016/07/13/already-240-published-papers-in-2016-alone-show-the-97-climate-consensus-is-a-fantasy/

Übersetzt von Chris Frey EIKE




CERN CLOUD-Experiment: Industrielle Revolution reduzierte die Wolkenbedeckung. Auch kosmische Strahlen haben Einfluss

Diesen beiden Studien zufolge (1, 2) zeigen neue Ergebnisse des CLOUD-Experiments (3) am CERN (4), dass das vorindustrielle Klima durch mehr Bewölkung gekennzeichnet war als bisher gedacht. CLOUD zeigt, dass von Bäumen emittierte organische Dämpfe vielfältige Aerosol-Partikel in die Atmosphäre freisetzen beim Fehlen von schwefliger Säure*. Zuvor hatte man gedacht, dass schweflige Säure – zum größten Teil aus fossilen Treibstoffen – für die Bildung von Partikeln erforderlich war. CLOUD zeigt nun, dass diese sog. biogenen Dämpfe auch der Schlüssel sind für das Wachstum neu gebildeter Partikel bis hin zu Größen, wo sie als Kondensationskerne für Wolken dienen können.

[*Es gibt ,schweflige Säure‘ und ,Schwefelsäure‘. Ich weiß nicht, welche hier gemeint ist. Ich bleibe erst mal bei ,schwefliger Säure, weil das ,sulfuric‘ wie ein Adjektiv daherkommt. Anm. d. Übers.]

Diese Ergebnisse sind die bislang wichtigsten Ergebnisse des CLOUD-Experimentes am CERN“, sagte CLOUD-Sprecher Jasper Kirkby. „Wenn die Bildung und das Wachstum reiner biogener Aerosol-Partikel in Klimamodelle eingehen, sollte dies unser Verständnis bzgl. des Einflusses menschlicher Aktivitäten auf Wolken und Klima verbessern“.

Das IPCC betrachtet die Zunahme von Aerosolen und Wolken seit präindustriellen Zeiten als eine der größten Unsicherheits-Quellen des Klimawandels (5). CLOUD zielt darauf ab zu verstehen, wie sich neue Aerosol-Partikel bilden und in der Atmosphäre wachsen sowie deren Auswirkungen auf Wolken und Klima.

CLOUD zeigt auch, dass Ionen aus der kosmischen Strahlung die Entstehungsrate reiner biogener Partikel erheblich verstärken – um einen Faktor 10 bis 100 verglichen mit Partikeln ohne Ionen. Dies zeigt, dass kosmische Strahlen eine viel wichtigere Rolle bei der Bildung von Aerosolen und Wolken in vorindustriellen Zeiten gespielt haben als in der heutigen verschmutzten Atmosphäre.

Eine gleichzeitig in Science veröffentlichte Studie (Bianchi 2016; Science, doi 10.1126/ science.aad5456(link is external) beschreibt eine Beobachtung [Messung?] reiner organischer Aerosolbildung am Observatorium auf dem Jungfraujoch durch den gleichen Mechanismus, der auch vom CLOUD gezeigt wird. Die Messungen haben CLOUD nicht direkt involviert, aber die meisten Autoren sind auch Mitglied des CLOUD-Teams.

Die Beobachtung reiner organischer Kernbildung auf dem Jungfraujoch ist sehr befriedigend“, sagte Kirkby. „Es bestätigt, dass der gleiche Prozess, wie er vom CLOUD entdeckt wurde, auch in der Atmosphäre stattfindet“.

Striche

Anmerkungen

1. Kirkby, J., et al. Ion-induced nucleation of pure biogenic particles. Nature, doi 10.1038/nature 17953(link is external) (2016).

2. Tröstl, J., et al. The role of low-volatility organic compounds in initial particle growth in the atmosphere. Nature, doi 10.1038/nature18271(link is external) (2016).

3. Das CLOUD-Experiment besteht aus einer großen, mit Instrumenten ausgestatteten Kammer, in der die Atmosphäre präzise simuliert werden kann, und Bildung und Wachstum von Aerosol-Partikeln sowie die damit entstehenden Wolken können unter präzise überwachten atmosphärischen Bedingungen untersucht werden. Unerwünschte Beimengungen können deutlich unter die Marke von 1 ppt [part per trillion] gedrückt werden. Beim CLOUD-Experiment wurde ein Strahl vom Proton-Synchroton am CERN verwendet, um kosmische Strahlen zu simulieren – Partikel, die die Erde aus dem Weltraum bombardieren.

Die experimentelle Zusammenarbeit umfasst 21 Institute: Aerodyne Research, California Institute of Technology, Carnegie Mellon University, CERN, Finnish Meteorological Institute, Goethe University Frankfurt, Helsinki Institute of Physics, Karlsruhe Institute of Technology, Lebedev Physical Institute, Leibniz Institute for Tropospheric Research, Paul Scherrer Institute, Stockholm University, Tofwerk, University of Beira Interior, University of Eastern Finland, University of Helsinki, University of Innsbruck, University of Leeds, University of Lisbon, University of Manchester und University of Vienna.

4. CERN, the European Organization for Nuclear Research, is the world’s leading laboratory for particle physics. Its headquarters are in Geneva. Its Member States are: Austria, Belgium, Bulgaria, Czech Republic, Denmark, Finland, France, Germany, Greece, Hungary, Israel, Italy, Netherlands, Norway, Poland, Portugal, Slovakia, Spain, Sweden, Switzerland and United Kingdom. Romania is a Candidate for Accession. Cyprus and Serbia are Associate Member States in the pre-stage to Membership. Pakistan and Turkey are Associate Member States. European Union, India, Japan, JINR, Russian Federation, UNESCO and United States of America have Observer status.

5.Boucher, O. et al. in Climate Change 2013: The Physical Science Basis. Working Group I Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change (eds. Stocker, T.F. et al.) 571–658 (Cambridge Univ. Press, 2013).

[Diese ganzen Namen lasse ich aus Zeitgründen mal unübersetzt! Anm. d. Übers.]

Striche

Unterstützende Informationen für Presseinformationen bzgl. Nature-Veröffentlichungen durch das CLOUD-Team

Kirkby, J. et al. Ion-induced nucleation of pure biogenic particles. Nature, doi 10.1038/nature17953 (2016).
Tröstl, J. et al. The role of low-volatility organic compounds in initial particle growth in the atmosphere. Nature, doi 10.1038/nature18271 (2016).

Hintergrund des CLOUD-Experimentes am CERN: CLOUD untersucht, wie sich neue Aerosol-Partikel in der Atmosphäre bilden und auf Größen wachsen, bei der sie Wolken und Klima modifizieren. Mittels eines Partikel-Strahls vom Proton-Synchroton am CERN untersucht das CLOUD-Experiment auch, ob diese Prozesse durch Ionisierung durch kosmische Strahlung beeinflusst wird. Atmosphärische Aerosol-Partikel kühlen das Klima, weil sie das Sonnenlicht reflektieren und weil sich mehr, aber kleinere Wolkentröpfchen bilden, welche die Wolken heller machen und ihre Lebensdauer verlängern. Abkühlung durch verstärkte Freisetzung von Aerosol-Partikeln aus menschlichen Aktivitäten hat einen Teil der Erwärmung durch Treibhausgase [so es die überhaupt gibt, Anm. d. Übers.] kompensiert. Um die Stärke der Abkühlung zu bestimmen, bedarf es Kenntnissen über die Aerosol-Verhältnisse in der präindustriellen Atmosphäre. Unglücklicherweise kann man dies nicht direkt messen, weil es in der heutigen Atmosphäre fast keine Gebiete mehr gibt, die perfekt frei von Verschmutzung sind [ach? Aerosole nannte man in vorindustrieller Zeit Aerosole und heute Verschmutzung? Anm. d. Übers.]. Darum muss die präindustrielle Atmosphäre mit Klimamodellen simuliert werden, die auf sorgfältigen Messungen der zugrunde liegenden mikrophysikalischen Prozesse beruhen, über die man durch Laborexperimente Kenntnis erlangt. CLOUD bringt fundamentale Experimente unter einen Hut, wobei die Klimamodellierung eine einzelne Bemühung in internationaler Zusammenarbeit ist.

Was hat CLOUD untersucht? CLOUD hat die Bildung neuer atmosphärischer Partikel untersucht in einer eigens dafür konstruierten Kammer, in der Laborbedingungen von Temperatur, Feuchtigkeit und Konzentrationen kondensierender und Keime bildender Dämpfe extrem gut kontrolliert werden. Im gegenwärtigen Experiment haben wir die Bildung und das Wachstum von Partikeln gemessen ausschließlich aus organischen Dämpfen, die von Bäumen emittiert werden ( so genannte biogene Dämpfe). Im Mittelpunkt stand dabei Alpha-Pinene, welches Kiefernwäldern den charakteristischen angenehmen Geruch verleiht. Alpha-Pinene oxidiert sehr schnell, wenn es Ozon ausgesetzt ist, was Dämpfe erzeugt mit extrem geringer Volatilität, aber in nur sehr geringen Konzentrationen von etwa ein Molekül pro Billion Luftmolekülen.

Was ist das Besondere am CLOUD-Experiment? Mit dem Know-How vom CERN konnten in der CLOUD-Kammer viel geringere Konzentrationen unerwünschter Beimengungen erreicht werden als bei allen Experimenten zuvor. Dies gestattete es uns, Partikelbildung und -wachstum aus biogenen Dämpfen zu messen, bei vollständig fehlender kontaminierender Dämpfe wie Schwefliger Säure. Das Kollektiv hat eigens Instrumente zur Messung der Dämpfe, der Ionen und Aerosol-Partikel entwickelt bei ultrageringen Konzentrationen in der Luft, entsprechend der CLOUD-Kammer. Wir messen, wie diese Dämpfe und Ionen molekulare Cluster bilden und welche Dämpfe das folgende Wachstum der Partikel kontrollieren. Eine besondere Eigenschaft von CLOUD ist dessen Fähigkeit, Partikelbildung zu messen, die von der Ionisierung durch kosmische Strahlung verstärkt wird, simuliert durch einen Pion-Strahl – oder mit allen Auswirkungen der Ionisierung, die vollständig unterdrückt werden mit einem internen elektrischen Feld.

Was hat CLOUD entdeckt? Es hat entdeckt, dass oxidierte biogene Dämpfe reichlich Partikel in der Atmosphäre erzeugen beim Fehlen von schwefliger Säure. Zuvor hatte man geglaubt, dass schweflige Säure – hauptsächlich aus Schwefeldioxid, emittiert durch fossile Treibstoffe [ach? Aus Vulkanen kommt gar nichts davon? Anm. d. Übers.] – war zur Partikelbildung erforderlich. Wir entdeckten, dass Ionen aus kosmischer Strahlung die Produktionsrate reiner [pure] biogener Partikel erheblich verstärkt – um einen Faktor 10 bis 100 verglichen mit Partikeln ohne Ionen, wenn die Konzentrationen gering sind. Wir zeigen auch, dass oxidierte biogene Dämpfe das Partikel-Wachstum in nicht verschmutzter Umgebung kontrollieren. Das beginnt, unmittelbar nachdem sich die ersten paar Moleküle zusammengetan haben und weiter wachsen bis zu Größen über 50 bis 100 nm, wo die Partikel zur Bildung von Wolkentröpfchen führen können. Die Wachstumsrate beschleunigt sich, wenn die Partikel an Größe zunehmen, wenn biogene Dämpfe höherer Volatilität daran teilhaben können. Wir erklären dies quantitativ mittels eines Modells organischer Kondensation.

Warum ist dies wichtig für unser Verständnis von Klima? Ionen-induzierte Bildung purer biogener Partikel kann wichtige Konsequenzen haben für unverfälschte Klimate [?], bietet sich hier doch ein bislang unbekannter Prozess, bei dem die Natur Partikel entstehen lässt ohne Verschmutzung. Und haben sich embryonische Partikel erst einmal gebildet, sorgen damit zusammenhängende, aber reichlichere oxidierte biogene Dämpfe für eine Beschleunigung des Wachstums der Partikel. Rapides Wachstum der neuen Partikel, während sie immer noch klein und sehr mobil sind impliziert, dass ein größerer Teil eine Koagulation mit zuvor schon existierenden größeren Partikeln vermeidet und eventuell Größenordnungen erreicht, bei der sie Wolkentröpfchen und damit das Klima beeinflussen können. Rein biogene Bildung und Wachstum könnte den grundlegenden Aerosol-Status der makellosen vorindustriellen Atmosphäre angehoben haben und so den vermuteten anthropogenen Strahlungsantrieb durch verstärke Aerosol-Wolken-Albedo im Zuge der industriellen Periode reduziert haben. Ionen-induzierte biogene Partikelbildung kann auch neues Licht werfen auf die schon lange im Raum stehende Frage nach einem physikalischen Mechanismus für die Sonnen-Klima-Variabilität in dem unverfälschten vorindustriellen Klima.

Eine gleichzeitig in Science veröffentlichte Studie (Bianchi 2016) berichtet von Messungen auf dem Jungfraujoch purer organischer Partikelbildung in der freien Troposphäre, was die Relevanz der CLOUD-Messungen der Atmosphäre bestätigt.

Link: https://wattsupwiththat.com/2016/05/25/cerns-cloud-experiment-results-suggests-industrial-revolution-reduced-cloud-cover-cosmic-rays-have-an-impact-too/

Übersetzt von Chris Frey EIKE




Eine neue, niedrigere Schätzung der Gleichgewichts-Klimasensitivität

Aus dem Abstract:

Abschätzung der Klimasensitivität mittels eines Zwei-Gebiete-[Two-zone]-Energiebilanzmodells

Schätzungen der CO2-Gleichgewichts-Klimasensitivität bei einer Verdoppelung dieses Spurengases (EqCS) leiten sich ab aus gleitenden globalen Klimamodellen GCMs bis zum Gleichgewicht. Schätzungen der effektiven Klimasensitivität (EfCS) sind die korrespondierenden Quantitäten mittels transienter GCM-Ergebnisse oder Messungen. Das EfCS-Verfahren wird mit einem begleitenden Energiebilanzmodell EBM durchgeführt, wobei das Null-dimensionale Modell ZDM Standard ist. GCM-Werte von EqCS und EfCS variieren erheblich (Bandbreite beim IPCC 1,5 bis 4,5°C). Die Bandbreite hat sich während der letzten 35 Jahre nicht verkleinert. Jüngst wurden Versuche unternommen, das EfCS-Verfahren zu verfeinern mittels Zwei-Gebiete-Modellen EBMs. Gibt man Strahlungsdaten von Satelliten ein, ergeben diese niedrige und eng gebündelte EfCS-Werte um 1°C. Diese niedrigen gemessenen [EfCS/two-zone EBM ]-Werte wurden aus mehreren Gründen in Frage gestellt: a) sie passen nicht zu höheren beobachteten EfCS/ZDM-Werten, und b) die [EfCS/two-zone EBM ]-Werte der GCMs korrelieren kaum mit den Standard-GCM-Sensitivitäts-Schätzungen. Die Validität der niedrigen beobachteten [EfCS/two-zone EBM ]-Werte wird hier erkundet, wobei der Schwerpunkt auf den Begrenzungen des beobachteten EfCS/ZDM-Verfahrens liegt sowie auf der Nicht-Übereinstimmung zwischen GCM und beobachteten Reaktionen der Strahlung auf Temperaturstörungen [temperature perturbations ?] in den Tropen und den modifizierten EfCS-Werten aus einem erweiterten Zwei-Gebiete-EBM, das eine explizite Parametrisierung dynamischer Wärmetransporte enthält. Die Ergebnisse bestätigen die niedrigen [EfCS/two-zone EBM ]-Werte, was zeigt, dass die Einwände a) und b) gegen diese Werte beide noch einmal überdacht werden müssen. Es wird gezeigt, dass in dem EBM mit dem expliziten dynamischen Wärmetransport der traditionelle Formalismus von Klima-Rückkopplungen zusammenbrechen kann infolge fehlender Additivität [?]

Die Kernpunkte:

Stützung einer niedrigen beobachteten Schätzung der Klimasensitivität, gewonnen aus Zwei-Gebiete-Energiebilanzmodellen.

Meridionaler Wärmetransport und variierende Strahlungs-Reaktionen können die Schätzungen der Sensitivität stark beeinflussen

Die Sensitivität verändernde Klima-Rückkopplungen sind nicht immer additiv.

Die vorhersehbare Reaktion der Alarmisten ist bereits im Gange.

Die vollständige Studie ist als PDF hier einsehbar: http://onlinelibrary.wiley.com/doi/10.1002/2015EA000154/epdf

Ich weiß nicht, ob das Modell gut oder schlecht ist, aber es ist mit Sicherheit des Lesens wert.

Link: https://wattsupwiththat.com/2016/05/15/a-new-lower-estimate-of-equilibrium-climate-sensitivity/

Übersetzt von Chris Frey EIKE




Klimavariationen von vor 5 Mio. Jahren zeigen wiederkehrende Muster

Bild rechts: Peter Ditlevsen’s Kalkulationen zeigen, dass Sie das Klima als Fraktal ansehen können, d.h., Muster oder Strukturen widerholen sich in kleinen und kleineren Versionen unendlich. Die Formel ist: Fq(s)~sHq .(Kredit: Maria Lemming)

Das Klima der Erde System zeichnet sich durch komplexe Wechselwirkungen aus zwischen Atmosphäre, Ozeanen, Eisflächen, Landmassen und die Biosphäre (Teilen der Welt mit Pflanzen- und Tierwelt). Astronomische Faktoren spielen auch eine Rolle in Bezug auf die großen Veränderungen, wie die Verschiebung zwischen den Eiszeiten, die in der Regel etwa 100.000 Jahre dauert und den Warmzeiten, die typischerweise etwa 10-12.000 Jahre dauern.

Klima wiederholt sich als Fraktale
"Sie können das Klima als Fraktale ansehen, das heißt, Muster oder Strukturen, die sich auf unbestimmte Zeit in immer kleineren Versionen wiederholen. Wenn Sie über 100-jährige Stürme sprechen, gibt es dann 100 Jahre zwischen ihnen? – Oder finden Sie plötzlich, dass es drei solche Stürme über einen kurzen Zeitraum sind? Wenn Sie über sehr heiße Sommer reden, passieren sie jedes zehnte Jahr oder jedes fünfte Jahr? Wie groß sind die normalen Schwankungen? – Wir haben dies nun untersucht ", erklärt Peter Ditlevsen, Associate Professor für Klimaphysik am Niels-Bohr-Institut der Universität Kopenhagen. Geforscht wurde in Zusammenarbeit mit Zhi-Gang Shao der South China University, Guangzhou in China.

Die Forscher untersuchten: Temperaturmessungen der letzten 150 Jahre. Eisbohrkerndaten von Grönland aus der Warmzeit von vor 12.000 Jahren, für die Eiszeit von vor 120.000 Jahren, Eisbohrkerndaten aus der Antarktis, die bis zu 800.000 Jahre zurück gehen, sowie Daten aus Meeressedimentkernen bis 5.000.000 Jahre zurück.

"Wir haben nur etwa 150 Jahre [lang] direkte Messungen von Temperatur, also, wenn wir zum Beispiel abschätzen wollen, wie große Variationen über mehr als 100 Jahren zu erwarten sind, dann schauen wir die Temperaturaufzeichnungen für diesen Zeitraum an, aber es kann uns nicht sagen, was wir für die Temperaturaufzeichnung über 1000 Jahren zu erwarten haben. Aber wenn wir die Beziehung zwischen den Variationen in einem bestimmten Zeitraum bestimmen können, dann können wir eine Schätzung machen. Diese Art von Schätzungen sind von großer Bedeutung für die Sicherheitsbewertungen von Bauwerken, die für eine sehr lange Zeit halten müssen oder für Strukturen, bei denen Unwetter ein Sicherheitsrisiko darstellt, wie bei Bohrinseln oder Kernkraftwerken. Wir haben nun diese untersucht, indem wir sowohl direkte als auch indirekte Messungen in der Zeit davor analysierten ", erklärt Peter Ditlevsen.

Die Forschung zeigt, dass die natürlichen Variationen über einen bestimmten Zeitraum von der Länge dieser Periode in ganz besonderer Art und Weise davon abhängt, wie sie für Fraktale charakteristisch ist. Dieses Wissen sagt uns etwas darüber, wie groß wir den 1000-jährigen Sturm in Bezug auf den 100- jährigen Sturm erwarten sollten und wie groß der 100- jährige Sturm zu erwarten sein sollte im Vergleich auf einen 10-jährigen Sturm. Sie haben ferner heraus gefunden, dass es einen Unterschied in dem fraktalen Verhalten in dem Eiszeit-Klima und in dem aktuellen warmen interglazial-Klima gibt.

Abrupte Klimaschwankungen während der Eiszeit

"Wir können sehen, dass das Klima während einer Eiszeit hat viel größere Schwankungen macht als während einer Warmzeit. Es wurde spekuliert, dass der Grund astronomische Variationen sein könnte, aber wir können das jetzt auszuschließen, da die große Fluktuation während der Eiszeit sich in der gleichen "fraktalen" Art und Weise verhält, wie die anderen natürlichen Schwankungen in der Welt, "Peter Ditlevsen.

Die astronomischen Faktoren, die das Klima der Erde beeinflussen, das sind die anderen Planeten im Sonnensystem, die die Erde aufgrund ihrer Schwerkraft anziehen. Dies wirkt auf die Bahn der Erde um die Sonne, die von fast kreisförmig bis zu mehr elliptisch variiert und dies wirkt auf die Sonneneinstrahlung auf die Erde. Die Schwere der anderen Planeten wirkt auch auf die Rotation der Erde um ihre Achse. Die Erdachse schwankt zwischen einer Neigung von 22 Grad und 24 Grad und wenn die Neigung 24 Grad ist, gibt es eine größere Differenz zwischen Sommer und Winter, und dies hat einen Einfluss auf die heftigen Verschiebungen im Klima zwischen Eis- und Warmzeiten.

Die abrupten Klimaänderungen während der Eiszeit könnten durch verschiedene Mechanismen ausgelöst worden sein, welche die mächtige Meeresströmung, den Golfstrom, beeinflusst haben könnte, der im Atlantik warmes Wasser vom Äquator nach Norden transportiert, wo es abkühlt und in das kalte Meerwasser unter dem Eis zu Boden sinkt und zurück in den Süden geschoben wird. Diese Wasserpumpe kann ausgesetzt oder geschwächt werden durch, Änderungen im Süßwasserdruck, dem Aufbrechen der Eisdecke oder durch Verschiebung des Meereises und dies führt zu einer zunehmenden Klimavariabilität.

Natürliche und vom Menschen verursachten Klimaveränderungen

Das Klima während der warmen Warmzeiten ist stabiler als das Klima während der Eiszeiten

"In der Tat sehen wir, dass das Eiszeit Klima das darstellt, was wir " multifraktal "nennen, was ein Merkmal ist, dass Sie in sehr chaotischen Systemen sehen, während das interglaziale Klima ‚monofractal‘ ist. Dies bedeutet, dass das Verhältnis zwischen den Extremen des Klimas über verschiedene Zeiträume sich verhält wie das Verhältnis zwischen den normaleren Verhältnissen von unterschiedlichen Zeitskalen ", erklärt Peter Ditlevsen

Dieses neue Merkmal des Klimas wird es leichter machen für Klimaforscher, zwischen natürlichen und vom Menschen verursachten Klimaveränderungen zu unterscheiden, weil erwartet werden kann, dass die vom Menschen verursachten Klimaveränderungen sich nicht in der gleichen Weise verhalten wie die natürlichen Schwankungen.

"Die Unterschiede, die wir zwischen den beiden Klimazuständen finden, deuten auch darauf hin, dass, wenn wir das System zu viel verschieben, wir ein anderes System bekommen könnten, was zu größeren Schwankungen führen könnte. Wir haben sehr weit in die geologische Geschichte der Erde zu gehen, um ein Klima zu finden, das so warm ist wie das, auf das wir zusteuern. Auch wenn wir die Klimaschwankungen so weit zurück im Detail nicht kennen, wissen wir, dass es in dem warmen Klima damals abrupte Klimaveränderungen waren", betont Peter Ditlevsen.

Die ausführlichere Studie zu „Klimafraktalen“ von Prof. Ditlevsen finden Sie hier:
http://www.nature.com/ncomms/2016/160316/ncomms10951/full/ncomms10951.html

Gefunden auf WUWT am 16. März 2016

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2016/03/16/climate-variations-analyzed-5-million-years-back-in-time-show-repeating-fractal-patterns/

Persönliche Anmerkungen des Übersetzers:

Ich habe den englischsprachigen Beitrag für Sie, sehr verehrte Leser übersetzt, für den Inhalt ist einzig der Autor verantwortlich.

Aber auch ich habe mir Gedanken dazu gemacht:

Also, ein chaotisches Wetter ergibt ein chaotisches Klima. Und wir müssen nach Prof. Ditlevsen auch [sehr weit] bis zur mittelalterlichen Warmzeit zurückgehen, „…, um ein Klima zu finden, das so warm ist wie das, auf das wir zusteuern“. So weit ist das aber nicht, in erdgeschichtlichen Zeiträumen.

In meiner Studienzeit haben wir auch Vorlesungen und Übungen zu Fraktalen gehabt. Wenn wir die „Teile“ nur klein genug machten, brachten wir immer Fraktale hin – was lernten wir daraus: Nix für die Praxis.

Andreas Demmig




Die ,Karlisierung‘ der globalen Temperatur geht weiter: Diesmal macht RSS eine massive Adjustierung nach oben

Jetzt gibt es einen neuen Mitspieler im Prozess der „Karlisierung“ – Carl Mears, leitender Wissenschaftler für RSS (Remote Sensing Systems) in Santa Rosa, Kalifornien. Hierbei handelt es sich um ein Privatgeschäft, das rein zufällig einen auf Satellitenmessungen basierenden Klimadatensatz erstellt (hier), der ähnlich dem UAH-Satelliten-Datensatz ist, der von Roy Spencer und John Christy erzeugt wird. Seit Jahren zeigen die RSS-Daten kaum eine Erwärmung, und auf der RSS-Website entblödeten sie sich nicht zu sagen:

Um dieses letzte Problem zu illustrieren, zeigen wir hier mehrere Plots. Jedes dieser Plots umfasst eine Zeitreihe von TLT-Temperaturanomalien* mittels eines Referenz-Zeitraumes von 1979 bis 2008. In jedem Plot ist das blaue Band die 5% bis 95% Einhüllende für das Unsicherheits-Ensemble von RSS V3.3 MSU/AMSU. Das gelbe Band zeigt die Einhüllende von 5% bis 95% für die Ergebnisse von 33 Modellsimulationen der CMIP5-Klimamodelle (19 unterschiedliche Modelle, viele mit multiplen Realisierungen). Sie sollen das Erdklima im Verlauf des 20. Jahrhunderts simulieren. Für den Zeitraum vor dem Jahr 2005 gingen in die Modelle historische Werte von Treibhausgasen ein sowie vulkanische Aerosole und der solare Output. Nach dem Jahr 2005 wurden geschätzte Projektionen dieser Antriebe verwendet. Falls die Modelle als Ganzes die Vergangenheit auf akzeptable Weise simuliert haben, sollten die Beobachtungen zumeist innerhalb des gelben Bandes liegen. Den ersten beiden Plots zufolge, die die globalen und die tropischen Mittelwerte zeigen, ist dies nicht der Fall. Nur für die hohen nördlichen Breiten liegen die Beobachtungen zumeist innerhalb der Bandbreite der Modellprojektionen.

[*TLT = Temperature Lower Troposphere]

Abbildung 1: Globale (80S bis 80N) mittlere TLT-Anomalie, dargestellt als eine Funktion der Zeit. Das blaue Band markiert die Einhüllende für Unsicherheits-Ensemble von RSS V3.3 MSU/AMSU. Das gelbe Band zeigt die Einhüllende von 5% bis 95% für die Ergebnisse von 33 Modellsimulationen der CMIP5-Klimamodelle. Der mittlere Wert jedes Zeitreihen-Mittels von 1979 bis 1984 ist auf Null gesetzt, so dass die Änderungen mit der Zeit besser erkennbar sind. Man beachte, dass die Beobachtungen nach dem Jahr 1988 unter den simulierten Werten liegen, was belegt, dass das System als Ganzes zu viel Erwärmung zeigt.

Quelle: Source: http://www.remss.com/research/climate Archived here – http://www.webcitation.org/6fiQcrQDQ

All das wird sich jetzt ändern. Mancher Leser wird sich an ein Video erinnern, das von der abscheulichen „Klima-Krücke der Woche“, dem Aktivisten Peter Sinclair produziert worden ist. Die zugrunde liegende Prämisse darin lautet: „die Satelliten lügen!“. Mir scheint es aufgrund seiner jüngsten Kommentare so, als ob Dr. Mears die Nase voll hätte von Leuten, die den RSS-Datensatz heranziehen, um zu zeigen, dass die Welt sich nicht so erwärmt wie sie es seiner Erwartung nach hätte tun sollen. In dem Video erklärt Mears:

Sie wollten einfach wissen, verstehen Sie, sie wollten ihr Statement feinabstimmen, verstehen Sie, ob – verstehen Sie – die Temperaturmessungen genauer sind oder die Satelliten-Temperaturen genauer sind; und ursprünglich wollten sie in etwa sagen „aber man sollte den Satelliten-Temperaturen wirklich nicht trauen, sondern diese Bodenbeobachtungen zur Grundlage machen“; und ich sagte „nun, was würden Sie empfehlen; Sie wollen wirklich all diese unterschiedlichen Datensätze betrachten, also wollen Sie nicht allein den Satelliten-Temperaturen vertrauen, Sie wollen die Bodenbeobachtungen betrachten – und all solches Zeug.

Auf seiner Website findet sich dieses Statement von Mears:

Jüngst fand sich in der Mainstream-Presse eine Anzahl von Artikeln des Inhalts, dass es nur eine geringe oder gar keine Änderung der global gemittelten Temperatur während der letzten beiden Jahrzehnte gegeben habe. Aus diesem Grunde stellt man uns eine Menge Fragen mit dem Tenor „ich habe diesen Plot auf der Website von Leugnern gesehen. Sind das wirklich Ihre Daten?“ Während einige dieser Berichte cherry-picked hinsichtlich ihrer Endzeitpunkte sind, um den angeblichen Beweis deutlicher zu machen, gibt es kaum einen Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten Simulationen des historischen Klimas im IPCC AR5 prophezeit. Dies geht aus den RSS-Daten hervor, ebenso wie aus den meisten anderen Temperatur-Datensätzen. Beispiel: Die Abbildung unten ist ein Plot der Temperatur-Anomalie (Abweichung vom Normalen) der unteren Troposphäre während der letzten 35 Jahre aus dem RSS-Datensatz „Temperature Lower Troposphere (TLT)“. Für diesen Plot haben wir über fast den gesamten Globus gemittelt, von 80S bis 80N, und haben den gesamten TLT-Datensatz verwendet mit Beginn im Jahre 1979. (Die Leugner mögen es wirklich, ihre Trends im Jahre 1997 beginnen zu lassen, so dass das gewaltige ENSO-Ereignis am Beginn ihrer Zeitreihe liegt, was zu einem linearen Fit mit der geringstmöglichen Neigung führt).

Quelle: http://www.remss.com/blog/recent-slowing-rise-global-temperatures Archived here: http://www.webcitation.org/6fiS2rI7k

Mears verwendet den Terminus „Leugner“, und damit ist seine Objektivität dahin, wenn er glaubt, Leuten so etwas unterstellen zu müssen.

Eindeutig: er ist eingeschnappt. Was also tun? Er zieht einen Hinweis von dem anderen Karl heran, er veröffentlicht eine Studie und behauptet, dass neue und verbesserte Adjustierungen jene fehlende Erwärmung „gefunden“ hätten.

Mears, C., and F. Wentz, 2016: Sensitivity of satellite-derived tropospheric
temperature trends to the diurnal cycle adjustment. J. Climate. doi:10.1175/JCLID-
15-0744.1, in press.

http://journals.ametsoc.org/doi/abs/10.1175/JCLI-D-15-0744.1?af=R

Hier das Ergebnis: Es gibt hier Differenzen zwischen der alten und der neuen Version von RSS:

Abbildung 8: Vergleich zwischen RSS V3.3 global (80°S to 80°N)-Anomalie-Zeitreihen und das Resultat des V4.0-Verschmelzungs-Algorithmus‘ mit unterschiedlich starken Adjustierungen.

Die neue Version V4.0 zeigt einen fast doppelt so hohen Erwärmungstrend wie UAH V5.6; siehe folgende Abbildung:

Abbildung 9: Vergleiche zwischen fast globalen (80S bis 80N) und tropischen (30S bis 30N)-Anomalie-Zeitreihen, erzeugt von unterschiedlichen Gruppen. Um die Differenzen in den Trends besser ersichtlich zu machen, wurden die Anomalie-Zeitreihen adjustiert so dass ihre Mittelwerte über 1979 gleich Null sind.

Falls man jetzt glaubt, dass das etwas bedeutet für die Tropen 30S bis 30N: Die neue Erwärmungsrate von RSS V4.0 ist fast fünf mal größer als bei UAH!

Dr. Gavin Smith von NASA GISS scheint begeistert, dass die neue Adjustierung kommt:

Dr. Roy Spencer und Dr. John Christy haben sich diese jüngste „Karlisierung“ bereits angeschaut und dabei etwas herausgefunden, was ein furchtbarer Schwindel zu sein scheint. In einer E-Mail an mich schreibt Spencer:

In der Studie geht es um MT, nicht LT … aber ich glaube, wir können davon ausgehen, dass Änderungen in einer Reihe in der anderen Reihe reflektiert werden, wenn Mears seine Analyse vervollständigt.

Von dem bisschen, das wir bislang betrachtet haben, scheint es so, als ob sie die unberechtigte Erwärmung in NOAA-14 MSU relativ zu NOAA-15 AMSU nicht korrigiert hätten … sehen Sie deren Abbildung 7c. Sie haben sie einfach stehen gelassen.

Da diese unberechtigte Erwärmung nahe der Mitte des gesamten Zeitraumes liegt, macht dies die zweite Hälfte der Satelliten-Aufzeichnung wärmer, wenn NOAA-14 MSU (die letzte in der MSU -Reihe) auf NOAA-15 AMSU übergeht (die erste AMSU-Zeitreihe).

Warum halten wir NOAA-14 MSU für falsch?

1) AMSU soll ein „Cadillac“-Kalibrierungs-Design haben (diesen Terminus benutzte ein NASA-Ingenieur namens Jim Shiue, als er mir das AMSU-Design beschrieb, in das er involviert war)

2) NOAA-14 MSU erfordert eine starke Korrektur der kalibrierten TB, die in den Instrumentenaufzeichnungen zunimmt, wenn sich der Satellit in einen anderen Orbit verschiebt. NOAA-15 AMSU erfordert keine derartige Korrektur … und es war sowieso nicht die Verschiebung während des fraglichen Zeitraumes.

Es sieht also alles danach aus, als ob sie sich entschlossen haben, gute Daten dazu zu bringen, zu schlechten Daten zu passen. Kommt einem das bekannt vor?

Oh ja, genau das tut es!

Zusatz: Hier folgt Abbildung 7 aus der von Dr. Spencer angesprochenen Studie:

Abbildung 7: MSU minus AMSU-Zeitreihen fast global (60S bis 60N) für Festland, Ozean sowie 802 kombinierte Festlands-Ozean-Regionen. Jedes Paneel zeigt die Ergebnisse nach unterschiedlichen Niveaus von 803 Adjustierungen angebracht an die Daten.

Aktualisierung: Angesichts des Umstandes, dass diese Art Arbeit nur von zwei Gruppen praktiziert wird, ist es doch ein sehr enger Bereich spezieller Wissenschaft, stellte ich Dr. Spencer diese Frage:

Ich vermute, weder Sie noch Christy wurden aufgefordert, diese Studie zu begutachten? So viele Experten für Satellitendaten gibt es ja nicht auf der Welt.

Er erwiderte:

Interessante Frage…

John [Christy] begutachtete detailliert ihre Originalstudie, bei JGR eingereicht, und fragte nach zusätzlichen Beweisen – sprach sich aber nicht für eine Zurückweisung der Studie aus. Am Ende hat der Herausgeber von JGR diese aber doch abgelehnt.

Mears & Wentz überarbeiteten die Studie daraufhin, reichten sie dann bei J. Climate ein und forderten wahrscheinlich, uns als Begutachter auszuschließen.

Link: http://wattsupwiththat.com/2016/03/02/the-karlization-of-global-temperature-continues-this-time-rss-makes-a-massive-upwards-adjustment/

Übersetzt von Chris Frey EIKE

Frage des Übersetzers: Ist es jetzt ein Alarmzeichen, dass man nun auch den Satelliten-Daten an den kragen will?




Ein atemberaubender ,Hockeyschläger‘ – wie Zugang zu Energie die Menschheit voran gebracht hat

Bei Wikipedia findet sich eine ähnliche Graphik:

Die Daten sind extrahiert aus „World Population, GDP and Per Capita GDP, 1-2003 AD”.

Und dann gibt es da noch diese Graphik, die bis in das Jahr 500 vor Christus zurück reicht:

Quelle: Victor V. Claar, “The Urgency of Poverty and the Hope of Genuinely Fair Trade,” Journal of Markets & Morality 16, no. 1 (Spring 2013): 274. GDP figures from J. Bradford DeLong, “Estimates of World GDP, One Million B.C.—Present.”

Aus dem Artikel:

Diese Graphik zeigt, wie nur allzu real dieser „riesige Anstieg des Wohlergehens“ während der letzten beiden Jahrhunderte war. Was diese ökonomischen Fortschritte sogar noch erstaunlicher macht ist, dass es gleichlaufend damit zu einer Bevölkerungsexplosion gekommen war. Es sind jetzt umso mehr „Köpfe“ in „pro Kopf“ enthalten, je weiter man in der Graphik nach rechts kommt, und doch erleben wir immer noch enorme Gewinne des Pro-Kopf-BIP. Die Ökonomin Deidre McCloskey schreibt:

Niemals zuvor ist so etwas geschehen. Man habe ständig im Hinterkopf: achteinhalb mehr Nahrung und Kleidung und Wohnungen und Bildung und Reisen und Bücher für den durchschnittlichen Bürger – obwohl es davon sechs mal mehr gibt.

Dennoch fand eine Umfrage der Barna Group im April vorigen Jahres heraus, dass den meisten Amerikanern diese ökonomischen Fortschritte in keiner Weise bewusst sind: „über 8 von 10 Amerikanern (84%) sind sich nicht bewusst, dass die globale Armut so drastisch abgenommen hat. Über zwei Drittel (67%) sagen, sie hätten gedacht, dass die Armut während der letzten drei Jahrzehnte immer weiter voran geschritten ist“. Sowohl die Realität der globalen Armut (1,2 Milliarden Menschen verbleiben in extremer Armut) und die öffentliche Wahrnehmung der Verbreitung und der schlimmen Folgen von Armut verdienen zunehmend Aufmerksamkeit.

Die Negativ-Spitze um das Jahr 1300 geht wahrscheinlich auf die große Hungersnot des Jahres 1315 zurück:

Die Große Hungersnot von 1315 bis 1317 (gelegentlich auch im Zeitraum 1315 bis 1322 datiert) war die erste einer Reihe großräumig auftretender Krisen, die Anfang des 14. Jahrhunderts Nordeuropa heimgesucht hatten. Unter den betroffenen Gebieten sind das kontinentale Europa (im Osten bis nach Russland und im Süden bis nach Italien) ebenso wie Großbritannien. Sie verursachte Millionen Todesopfer im Verlauf mehrerer Jahre und markiert den klaren Endpunkt einer Periode von Wachstum und Wohlstand zuvor zwischen dem 11. und dem 13. Jahrhundert (hier).

Die Große Hungersnot begann mit schlechtem Wetter im Frühjahr 1315. Allgemeine Missernten dauerten über das Jahr 1316 bis zur Sommerernte 1317, und Europa hatte sich davon nicht vor dem Jahr 1322 vollständig erholt. Diese Zeit war gekennzeichnet durch extrem hohe Kriminalität, Krankheiten, Massensterben und sogar Kannibalismus und Kindstötungen. Die Krise zeitigte Konsequenzen für die Kirche, den Staat, die europäische Gesellschaft und brachte weitere Mishelligkeiten im 14. Jahrhundert.

Man beachte, dass es Kälte und Regen waren, nicht exzessive Wärme, die diese Krise verursacht hatten (hier):

Zwischen Anfang des 14. und Ende des 19. Jahrhunderts kühlte eine Periode der Abkühlung den Planeten, bekannt als die Kleine Eiszeit. Europa hatte die Hauptlast dieser ungünstigen Umstände zu tragen, wo es zu schlechtem und unbeständigen Wetter gekommen war, viele Jahrhunderte lang und besonders von 1560 bis 1660. Wissenschaftler diskutieren weiterhin über Ursachen und Zeitrahmen dieser Kältephase, welche verantwortlich gemacht wird für Katastrophen, die von Dürren und Hungersnöten bis zu Kriegen und Epidemien reichen. Der jüngsten Studie zufolge, veröffentlicht in den Geophysical Research Letters dieser Woche, haben Vulkanausbrüche unmittelbar vor dem Jahr 1300 zu einer Ausdehnung des Arktischen Eises geführt, was eine Kettenreaktion auslöste, die weltweit zu sinkenden Temperaturen führte.

Die Mittelalterliche Warmzeit von etwa 950 bis 1250, ist ebenfalls in der Graphik zu erkennen. Etwa um das Jahr 1000 erreichte das BIP einen Spitzenwert, um dann wieder zurückzugehen mit der Einkehr kalten und nassen Wetters.

Dann wurde die Dampfmaschine erfunden, der Zugang zu reichlicher, aber dennoch billiger Energie setzte ein, die industrielle Revolution nahm ihren Anfang, und die Welt schaute niemals zurück.

Wenn Ihnen das nächste Mal jemand sagt, wie schrecklich die Dinge heute sind, primär durch fossile Treibstoffe, zeigen Sie diese Graphik und fragen Sie, ob diese Leute sich die Bedingungen zurückwünschten, die damals geherrscht hatten.

Link: http://wattsupwiththat.com/2016/02/22/a-stunning-hockey-stick-how-access-to-energy-brought-humanity-forward/

Übersetzt von Chris Frey EIKE




Studie: Grönländischer Eisschild bewegt sich inzwischen langsamer als während der letzten 9000 Jahre

Bild rechts: Die mittlere Geschwindigkeit der Bewegung des grönländischen Eises während der letzten 9000 Jahre (link), dessen gegenwärtige Geschwindigkeit (Mitte) und der Unterschied zwischen beidem (rechts). Nach Joseph A.MacGregor.

Die Ergebnisse sind in der Science-Ausgabe vom 5. Februar veröffentlicht. Die Forscher sagen dazu, dass diese Ergebnisse nicht die Tatsache ändern, dass der Eisschild alles in allem an Masse verliert und zum Anstieg des Meeresspiegels beiträgt. An der Peripherie von Grönland werden die Gletscher rapide dünner. Allerdings verdickt sich das riesige Inlandeis von Grönland allmählich immer mehr – ein Prozess, der in der Studie klarer wird.

„Die Wissenschaftler sind sehr interessiert daran zu verstehen, wie sich die Eisschilde bewegen, und wie sich diese Bewegung zu denen in der Vergangenheit unterscheidet. Unsere Paläo-Geschwindigkeits-Karte für Grönland ermöglicht es uns, den Fluss des Eisschildes jetzt im Zusammenhang mit den letzten vielen Jahrtausenden abzuschätzen“, sagte Leitautor Joe MacGregor vom Institute for Geophysics (UTIG) an der University of Texas in Austin, eine Forschungsabteilung der Jackson School of Geosciences.

Die Studie baut auf früheren, von der UTIG geleiteten Forschungen auf, die eine Datenbasis entwickelten für viele Schichten innerhalb des grönländischen Eisschildes. Mittels dieser Datenbasis haben die Wissenschaftler die Fließgeschwindigkeit der letzten 9000 Jahre bestimmen können – was im Endeffekt zur Erstellung einer Karte der „Paläo-Geschwindigkeit“ geführt hat.

Ein Vergleich der Paläo-Geschindigkeits-Karte mit derzeitigen Fließraten ergab, dass das Innere des Eisschildes sich jetzt langsamer bewegt als während der meisten Zeit des Holozäns, einer geologischen Periode, die vor 11.700 Jahren begann und bis heute andauert.

„Wie viele andere auch hatte ich den sich fortsetzenden dramatischen Rückzug und Fließ-Beschleunigung des Eisschildes im Hinterkopf. Darum habe ich vermutet, dass sich auch dessen Inneres schneller bewegt, aber das war nicht der Fall“, sagte MacGregor.

Die Autoren fanden drei Gründe für diese Verlangsamung. Der erste ist, dass die Schneefallmengen während der letzten 9000 Jahre allgemein stärker waren, zweitens ist es das langsame Versteifen [stiffening] des Eisschildes mit der Zeit und drittens der Kollaps einer „Eisbrücke“, die normalerweise das grönländische Eis mit dem auf der nahe gelegenen Ellesmere-Insel verbindet. Am meisten interessierten die letzten beiden Gründe.

„Das Eis, dass sich aus Schneefällen in Grönland während der letzten Eiszeit gebildet hat, ist etwa dreimal so weich als das Eis, das sich heute bildet“ sagt William Colgan von der Lassonde School of Engineering an der York University, ein Mitautor der Studie.

Infolge dieses Unterschiedes wird der Eisschild allmählich immer härter. Als Konsequenz fließt er langsamer und wird mit der Zeit immer dicker. Dieser Effekt ist am wichtigsten im südlichen Grönland, wo höhere Schneefallmengen zu einem rapiden Ersatz von Eis aus der letzten Eiszeit durch Eis während des Holozäns.

„Aber dies konnte nicht erklären, was anderswo in Grönland los war, vor allem im Nordwesten, wo es nicht so viel schneit und der Versteifungseffekt daher nicht so bedeutend ist“, sagte MacGregor.

Die Erklärung der Verlangsamung im Nordwesten liegt im Zusammenbruch einer „Eisbrücke“ über die Nares-Straße vor 10.000 Jahren. Sie hatte das grönländische Eis mit dem auf der Ellesmere-Insel verbunden. Der Kollaps der Eisbrücke am Ende der letzten Eiszeit hat zu einer Beschleunigung im Nordwesten geführt, doch hat sich die Fließgeschwindigkeit seitdem wieder verlangsamt.

Diese Änderungen, die vor tausenden von Jahren begonnen hatten, beeinflussen unser Verständnis des sich ändernden grönländischen Eisschildes noch heute. Wissenschaftler arbeiten oft mit GPS und Altimetern auf Satelliten, um die Seehöhe der Eisoberfläche zu vermessen und zu untersuchen, wie viel Eismasse bei dem gesamten Eisschild verloren geht oder hinzu kommt. Korrigiert man andere bekannte Auswirkungen auf die Seehöhe der Eisoberfläche, scheint jede zusätzliche Verdickung vermutlich stärkeren Schneefällen geschuldet zu sein, aber diese Studie zeigt, dass dies nicht unbedingt der Fall sein muss.

Wir sagen, dass die jüngste Zunahme von Schneefällen nicht notwendigerweise die heutige Verdickung des inneren Eisschildes erklärt“, sagte Colgan. „Verwendet man Satelliten-Altimeter zur Bestimmung, wie viel Eis Grönland verliert, wird man vermutlich eine nicht ganz richtige Antwort bekommen, es sei denn, man zieht diese sehr langfristigen Signale in Betracht, wie sie das Innere eindeutig zeigt“.

Link: http://wattsupwiththat.com/2016/02/05/greenland-ice-sheet-moving-slower-now-than-in-the-last-9000-years/

Übersetzt von Chris Frey EIKE

Der Übersetzer bedankt sich bei Herrn Hartmut Hüne für den Hinweis auf diesen Beitrag.




Presseinformation – Watt bei # AGU15 Die Qualität der Temperaturstation Standortfragen für die Temperaturtrends

Dies war in der AGU Pressemitteilung (American Geophysikal Union) zu lesen. Etwa zu der Zeit, als diese Geschichte veröffentlicht wurde, präsentiere ich es beim AGU Herbst Treffen 2015 in San Francisco. Hier sind die Details:


Die neue Studie von NOAA US Climate network zeigt einen niedrigeren 30-jahres-Temperatur-Trend wenn hochwertige Temperaturstationen berücksichtigt werden, die von Urbanisierung ungestört aufzeichnen.

Abbildung 4 – Vergleich der 30 Jahre Trends für Klasse 1,2 konformen USHCN Stationen mit nicht-konformen, Klasse 3,4,5 USHCN Stationen NOAA gegenüber justierten V2.5 USHCN Daten in den kontinentalen USA.

SAN FRANCISCO, CA – eine neue Studie über die Aufzeichnung der Oberflächentemperatur, präsentiert zur 2015 Herbsttagung der American Geophysical Union, legt nahe, dass die 30-Jahres-Trends der Temperaturen für die Continental United States (CONUS) [US Staaten ohne Hawai und ohne Alaska], die seit 1979 nur etwa zwei Drittel so angestiegen sind wie offizielle NOAA Temperaturtrends.

Durch Verwendung des NOAA US Historischen Klimatologie Netzwerkes, das 1218 Wetterstationen in der CONUS umfasst, waren die Forscher in der Lage, eine Teilmenge von 410 „ungestörten" Stationen, die nicht verändert wurden zu identifizieren (Veränderungen der Ausrüstung oder Veränderungen in der Zeit von Beobachtungen) und damit keine "Anpassungen" erfordern, um ihre Temperatur Aufzeichnungen für diese Probleme zu berücksichtigen. Die Studie konzentriert sich auf die Suche nach Unterschieden in den Trends zwischen gut gelegenen und schlecht gelegenen Wetterstationen auf der Grundlage einer WMO zugelassenen metrischen Leroy (2010)1 für die Klassifizierung und Bewertung der Qualität der Messungen, basierend auf Nähe zu künstlichen Wärmequellen und Wärmesenken, welche die Temperatur Messung beeinflussen. Ein Beispiel ist in Abbildung 2 dargestellt und zeigt die NOAA USHCN Temperaturfühler für Ardmore, OK. [Oklahoma]

Die im Anschluss an eine Ausarbeitung der von den Autoren in 2010 veröffentlichten Analyse der Auswirkungen der Exposition Station auf dem US Historische Klimatologie Netzwerk Temperaturen und Temperatur Trends kommt zu dem Schluss:

Schätzungen des Temperaturtrends variieren je nach Ort der Klassifizierung, führen bei schlechter Standortwahl zu einer Überschätzung der Mindesttemperatur Trends und einer Unterschätzung der maximalen Temperaturtrends, was insbesondere einen wesentlichen Unterschied der Einschätzung der Reichweite von Trends der täglichen Temperatur ausmacht.

AGU Tagung, Präsentationsvorlage  A43G-0396 am Donnerstag den 17. Dezember 2015: Comparison of Temperature Trends Using an Unperturbed Subset of The U.S. Historical Climatology Network

 Eine Teilmenge von 410-Station des US Historische Klimatologie Netzwerks (Version 2.5) Stationen wurden identifiziert, die keine Änderungen in der Zeit der Beobachtung oder der Verlegung der Station in der Zeit von 1979 bis 2008 erlebt hatten. Diese Stationen sind eingestuft auf der Basis der Nähe zu künstlicher Flächen, Gebäuden und anderen derartigen Objekten mit unnatürlicher thermischer Masse, nach Leitlinien, eingeführt durch Leroy (2010)1.

Die geschätzten USA Temperaturtrends, gefunden bei den relativ wenigen Stationen in den Klassen mit minimalen künstlichen Einflüssen, sind kollektiv etwa 2/3 so viel wie geschätzte USA Trends in den Klassen mit mehr künstlichen Einflüssen.

Die Trendunterschiede sind für minimale Temperaturen am größten und sind statistisch signifikant, auch auf regionaler Ebene und über verschiedene Arten der Messgeräte und dem Grad der Urbanisierung. Die Anpassungen der Homogenität durch das Nationale Center für Umwelt Information (früher das Nationale Klima Daten Center) reduzieren diese Unterschiede erheblich, aber sie produzieren Trends, die mehr im Einklang mit den Stationen mit höheren künstlichen Einflüssen sind. Trend Unterschiede wurden in der 1999- 2008 Subperiode mit relativ konstanten Temperaturen nicht gefunden, was darauf hindeutet, dass die beobachteten Unterschiede durch einen physikalische Mechanismus verursacht werden, der direkt oder indirekt von sich ändernden Temperaturen verursacht wird.

Bild 1 – USHCN Temperatur Sensor an einer Straßenecke in Ardmore, OK, in vollem Sichtschatten mehrerer Hitzequellen.

Bild 2 –Analyse der künstlichen Oberflächen innerhalb von 10 und 30-Meter-Radien an der Ashland, NE USHCN Station (COOP # 250375) mit Google Earth-Tools. Der Temperatursensor der NOAA ist als MMTS markiert

Tabelle 1 – Auflistung der Stationstypen, die einen 30 Jahre Trend für zulässige Klasse 1 & 2 USHCN Stationen zeigen, zu schlecht platzierten, nicht konformen, Klassen 3,4, und 5 USHCN Stationen im CONUS, verglichen zu offiziellen NOAA justierten und homogenisierten USHCN Daten.

Abbildung 3 – Tmittel Vergleiche von gut gelegenen (konform Klasse 1 & 2) USHCN Stationen gegenüber schlecht gelegen USHCN Stationen (nicht konform, Klassen 3,4, und 5) durch CONUS und der Region offiziellen NOAA justierten USHCN Daten (V2.5) für den gesamten (konformen und nicht konformen) USHCN Datensatz.

Die wichtigsten Ergebnisse:

1. Umfassende und detaillierte Auswertung der Stations Metadaten, Vor-Ort-Station Fotografie, Satelliten- und Luftbild, Google Earth Bilder auf Straßenniveau, und Betreuer Interviews haben eine gut verteilte 410 Stationen Untermenge der 1218 Stationen des USHCN Netzwerk ergeben, die ungestört durch die Zeit der Beobachtung, Station versetzt oder Einstufungsänderungen sind und einen vollständigen oder weitgehend abgeschlossen 30-Jahres-Datensatz haben. Es muss betont werden, dass die vom der USHCN Datensatz aussortierten, veränderten Stationen sehr deutlich niedrigere Trends zeigen, als die in die Stichprobe einbezogenen, sowohl für gut und schlecht gelegene Stations Sets.

2. Grundeinstellungen am Mikropegel (der unmittelbaren Umgebung des Sensors) der ungestörten Teilmenge der USHCN Stationen hat eine signifikante Wirkung auf den Trend der Durchschnittstemperatur (Tmean). Gut platzierte Stationen zeigen eine signifikant geringere Erwärmung von 1979 – 2008. Diese Unterschiede sind in Tmean signifikant und am häufigsten in den Mindesttemperaturdaten zu finden (Tmin). (Abbildung 3 und Tabelle 1)

3. Die Grundeinstellung der Ausrüstung (CRS v. MMTS Stationen) der ungestörten Teilmenge von USHCN Stationen hat eine signifikante Wirkung auf den Trend der Durchschnittstemperatur (Tmean) wenn CRS Stationen mit MMTS Stationen verglichen werden. MMTS Stationen zeigen eine signifikant geringere Erwärmung als CRS Stationen von 1979 – 2008 (Tabelle 1) Diese Unterschiede sind signifikant in Tmean (sogar auch nach der Anpassung nach oben für die MMTS) und am häufigsten in den Maximaltemperaturdaten zu finden (Tmax).

4. Der 30-jährige Tmean Temperaturtrend der ungestörten, gut gelegenen Stationen ist deutlich niedriger als der Tmean Temperaturtrend von NOAA / NCDC offiziellen justierten und homogenisierten Aufzeichnungen der Oberflächentemperaturen für alle 1218 USHCN Stationen.

5. Wir glauben, die NOAA / NCDC Homogenisierung bewirkt, dass gut gelegene Stationen nach oben korrigiert werden, um sich den Trends von schlecht gelegenen Stationen anzupassen.

6. Die Daten legen nahe, dass die Divergenz zwischen gut und schlecht gelegenen Stationen schrittweise erfolgt und nicht das Ergebnis von Fälschungen wegen schlechter Metadaten ist.

Die Studie ist von Anthony Watts und Evan Jones von surfacestations.org Autor, John Nielsen-Gammon der Texas A & M, John R. Christy von der Universität von Alabama in Huntsville und repräsentiert jahrelange Arbeit mit der Untersuchung der Qualität des Temperaturmesssystems der Vereinigten Staaten.

Leit-Autor Anthony Watts, sagte zur Studie: "Die Mehrheit der Wetterstationen der NOAA um das Temperatursignal zum Klimawandel zu erfassen, wurde durch künstliche Oberflächen wie Beton, Asphalt und Wärmequellen sowie Abluft von Klimaanlagen beeinträchtigt. Diese Studie zeigt eindeutig, dass dieses den Temperatur-Trend beeinflusst und die NOAA Verfahren dieses Problem nicht korrigieren, was zu einem überhöhten Temperaturtrend führt." Er schlägt vor, dass der Trend der US Temperatur korrigiert werden müsse. "Wir sehen auch Beweise für diese gleiche Art von Standortproblemen auf der ganzen Welt an vielen anderen offiziellen Wetterstationen, was darauf hindeutet, dass die gleiche Verzerrung nach oben im Trend sich auch selbst in der globalen Temperaturaufzeichnung manifestiert ".

Die komplette AGU Präsentation kann hier runtergeladen werden: https://goo.gl/7NcvT2

[1] Leroy, M. (2010): Siting Classification for Surface Observing Stations on Land, Climate, and Upper-air Observations JMA/WMO Workshop on Quality Management in Surface, Tokyo, Japan, 27-30 July 2010

Leroy, M. (2010): Standort Klassifizierung für Oberflächen-Beobachtungsstationen an Land, Klima, und höheren Luftschichten JMA / WMO Workshop über Qualitätsmanagement in der Oberfläche

[2] Fall et al. (2010) Analysis of the impacts of station exposure on the U.S. Historical Climatology Network temperatures and temperature trends https://pielkeclimatesci.files.wordpress.com/2011/07/r-367.pdf

Fall et a.. Analyse der Auswirkungen der Station Exposition auf das US Historische Klimatologie Netzwerk für Temperaturen und Temperatur Trends

Erschienen auf WUWT am 17. Dezember 2015

Übersetzt von Andreas Demmig

http://wattsupwiththat.com/2015/12/17/press-release-agu15-the-quality-of-temperature-station-siting-matters-for-temperature-trends/

Abstrakt ID und Titel: 76932: Comparison of Temperature Trends Using an Unperturbed Subset of The U.S. Historical Climatology Network
Final Paper Number: A43G-0396
Präsentationstyp: Poster
Tagungsdatum und Zeit: Donnerstag, 17. Dezember 2015; 13:40 – 18:00 PST

Tagungsnummer und Titel: A43G: Tropospheric Chemistry-Climate-Biosphere Interactions III Posters

Ort: Moscone South; Poster Hall

Full presentation here: https://goo.gl/7NcvT2


Einige Nebenbemerkungen des Autors Anthony Watts:

Dieses Werk ist eine Fortsetzung des Projekts über Bodenstationen, das im Jahr 2007 begann. Unsere erste Veröffentlichung, Fall et al. in 2010 und unsere früheres Konzeptpapier im Jahr 2012. Die Veröffentlichung des Konzeptentwurfs im Jahre 2012 bot uns wertvolles Feedback von Kritikern, und wir haben dieses in unsere Bemühungen einbezogen. Selbst der Input von offen feindseligen Fachleuten, wie Victor Venema, waren sehr nützlich und ich danke ihm dafür.

Viele der berechtigten Kritiken unserer Entwurfs von 2012 drehten sich um die Anpassungen der "Time of Observation (TOBs)“ [Zeit der Beobachtung], die auf einen Mischmasch von Stationen mit Problemen im USHCN angewendet werden. Unsere Sicht ist, dass versucht werden sollte, Stationen mit zwielichtigen Aufzeichnungen aufzubewahren. Das Justieren der Daten ist ein sinnloses Unterfangen. Wir haben uns einfach nur versucht, alle Stationen, die KEINE Anpassungen benötigen herauszufinden und zu verwenden, damit umgehen wir das hoch argumentative Problem vollständig. Glücklicherweise gab es genug davon in den USHCN, 410 von 1218 Stationen.

Es sei darauf hingewiesen, dass die Untergruppe der Class1/2 Stationen (die besten Stationen wir in CONUS lokalisiert  haben) als analog zum Climate Reference Network (CNR) [Klimareferenznetzwerk] anzusehen sind, da diese Stationen relativ gut in CONUS verteilt sind und wie die CRN, keine Anpassungen in ihrer Aufzeichnungen erfordern. Die CRN besteht aus 114 in betreuten Stationen in den angrenzenden Vereinigten Staaten, unsere Zahlen von Stationen in Größe und Verteilung sind ähnlich. Dies sollte zum CRN beachtet werden:

Eine der wichtigsten Schlussfolgerungen der Konferenz von 1997 zum World Climate Research Programm war, dass die globale Kapazität das Klimasystem der Erde zu beobachten unzureichend ist und sich weltweit verschlechtert und "ohne Aktion, diesen Rückgang umzukehren und die Entwicklung des GCOS [Global Climate Observing System] zu verbessern, die Fähigkeit den Klimawandel und Veränderungen im Laufe der nächsten 25 Jahre zu erkennen sogar weniger als im vergangenen Vierteljahrhundert sein wird." (National Research Council [NRC] 1999).

Obwohl die Vereinigten Staaten als Marktführer in der Klimaforschung gelten, sind langfristige US-Klimastationen mit Herausforderungen konfrontiert durch mit Änderungen an Instrumenten und Website, die Auswirkungen auf die Kontinuität der Beobachtungen über die Zeit haben. Schon geringe Verzerrungen kann die Erklärung der dekadischen Klimavariabilität und des Klimawandels ändern, so dass ein erheblicher Aufwand erforderlich ist, um nicht-klima Diskontinuitäten zu identifizieren und die Stationsaufzeichnungen zu korrigieren (ein Prozess namens Homogenisierung).

Quelle:https://www.ncdc.noaa.gov/crn/why.html

Die CRN hat ein Jahrzehnt von Daten und sie zeigen eine Pause im CONUS. Unsere Untergruppe der Justierung freier ungestörter Stationen umspannt mehr als 30 Jahre. Wir finden es lohnt sich ein Blick auf diese Daten zu werfen und die Daten zu ignorieren, die Mengen an statistischer Spachtelmasse benötigten, bevor sie verwendbar sind. Denn das ist, was sie aussagen, ist der Grund warum die CRN erstellt wurde.

Wir erlauben nur eine und nur einmalige Anpassung der Daten, und dies ist nur, weil es auf physikalischen Beobachtungen beruht und es wird wirklich gebraucht. Wir verwenden die MMTS Anpassung wie in Menne et al festgestellt für 2009 und 2010 für das MMTS Gehäuse gegenüber der alten Holzkiste [Cotton Region Shelter (CRS)], die eine warme Verzerrung vor allem wegen Farbe und Wartungsprobleme hat. Das MMTS Kiemen Schild ist ein Superior-Belichtungssystem, das die Beeinflussung von tagsüber kurzwelliger und nachts langwelliger Wärmestrahlung verhindert. Die CRS erfordert jährlichen Anstrich und das wird oft vernachlässigt, was zu einer Exposition führt, die wie folgt aussehen:

Siehe unten zum Vergleich der Beiden:

Einige fragen sich vielleicht, warum wir einen 1979-2008 Vergleich anführen, wenn es 2015 ist? Der Grund dafür ist, dass dieses Menne et al. 2009 und 2010 entspricht, Berichte durch NOAA / NCDC ins Leben gerufen, um ihre Anpassungsverfahren gegen die Kritikpunkte zu USCHN zu verteidigen, die ich über die Qualität der Aufzeichnung der Oberflächentemperaturen gestartet hatte, wie in diesem Buch von 2009: Is the U.S. Surface Temperature Record Reliable? [Sind die US-Oberflächentemperatur Aufzeichnungen zuverlässig?] Dieser verursachte bei NOAA / NCDC eine helle Aufregung und sie antworteten mit einem übereilten und durch einen Ghostwriter geschriebenen Flyer, den sie verteilten. In unserer Abhandlung, erweitern wir die Vergleiche auf den aktuellen Datenbestand des USHCN sowie den 1979-2008 Vergleich.

Wir sind im Begriff, dies in einer angesehenen Zeitschrift zu veröffentlichen. Nein, ich will nicht sagen welche, weil wir keine Versuche von Druck auf Redaktionen zum Unterlassen von Veröffentlichungen brauchen, wie wir es in den Climategate-E-Mails gesehen haben. Ähnlich wie "Ich will keine dieser Abhandlungen in einem der nächsten IPCC-Berichte sehen. Kevin und ich werden sie schon irgendwie heraushalten – auch wenn wir, neu zu definieren haben, was Peer-Reviewed-Literatur ist" und " Ich werde die Zeitschrift anmailen um ihnen zu sagen, dass ich nichts mehr mit ihnen zu tun habe, bis sie diesen unangenehmen Redakteur los sind".

Wenn der Zeitschriftenartikel veröffentlicht wird, werden wir alle Daten, Code und Methoden zur Verfügung stellen, so dass die Studie völlig replizierbar ist. Wir glauben, das ist sehr wichtig, auch wenn es skrupellosen Typen erlaubt, "kreative" Angriffe über Veröffentlichungen in Zeitschriften, Blog-Posts und Kommentaren zu starten. Wenn die Daten und die Abhandlung zur Verfügung stehen, werden wir reale und fundierte Kritik willkommen heißen.

Es sei darauf hingewiesen, dass viele der USHCN Stationen die wir ausgeschlossen haben, weil die Mess-Stationen versetzt wurden, die Ausrüstung oder Zeitpunkte der Messung verändert, etc., hatten niedrigere Trends die unsere Schlussfolgerungen gestärkt hätten.

Der "Galerie" Server des 2007er Oberflächen-Projektes, der einzelne Wetterstationen und Angaben zum Standort zeigt, ist derzeit offline, vor allem, weil es noch regelmäßig angegriffen wird und das betrifft mein Büronetzwerk. Ich bin dabei, ihn auf Cloud-Hosting zu verlegen, um dieses Problem zu lösen. Ich frage dafür um etwas Hilfe von meinen Lesern.

Wir denken, dass diese Studie wird sich gut behaupten. Wir waren sehr sorgfältig, sehr langsam und akribisch. Ich gebe zu, der Entwurf der Ausarbeitung vom Juli 2012 wurde vor allem angegriffen, weil ich glaubte, dass Dr. Richard Muller von BEST vor dem Kongress in der nächsten Woche die Daten, die ich zur Verfügung gestellt hatte – die er aber nur für Publikationen verwendet wissen wollte – als politisches Instrument nutzen wollte. Glücklicherweise nahm er nicht an diesem Panel teil. Aber das Feedback, das wir von dieser Anstrengung bekamen, war von unschätzbarem Wert. Wir hoffen, dass diese Vorabversion auch heute wertvolle Kritik erzeugen wird.

Die Menschen fragen sich vielleicht, ob dieses Projekt von einer Regierung, Unternehmen, Organisation oder Einzel finanziert wurde: Nein, war es nicht. Das war alles freie Zeit und ohne Bezahlung von allen Beteiligten durchgeführt. Das ist ein weiterer Grund, warum wir uns viel Zeit gelassen haben, es gab kein "muss produziert werden" von einer Finanzierungsforderung.

Dr. John Nielsen-Gammon, der staatliche Klimatologe von Texas, analysierte all die statistische Signifikanz und seine Meinung wird in der Einführung reflektiert.

Dr. Nielsen-Gammon war einer unserer ärgsten Kritiker von Anfang an, er reproduzierte unabhängig von uns die Bewertungen der Stationen mit Hilfe seiner Schüler und kreierte seine eigene Reihe von Tests an den Daten und Methoden. Seine Aussage ist erwähnenswert:

Die Trendunterschiede sind am größten für minimale Temperaturen und sind sogar auf regionaler Ebene statistisch signifikant und über verschiedene Arten von Messausrüstungen und dem Grad der Urbanisierung.

Die p-Werte von Dr. Nielsen-Gammon statistischer Signifikanz-Analyse liegen weit unter 0,05 (bei einem Konfidenzniveau von 95%), und viele Vergleiche sind unter 0,01 (99% Konfidenzniveau). Er ist mit seinen Erkenntnissen nun bei uns, nachdem er sich vergewissert hat, dass wir in der Tat eine Grundwahrheit gefunden haben. Wenn jemand seinen Beitrag zu dieser Studie bezweifelt, sollten Sie seine Publikationsliste ansehen.

Richtlinien für Kommentare:

Zum Zeitpunkt dieser Beitrag online geht, werde ich an AGU präsentieren, also bin ich nicht in der Lage, auf Anfragen gleich zu reagieren. Dies gilt auch für Evan Jones… [Aussage an die jetzige Vergangenheit der AGU Konferenz angepasst; A.D.]

Dies ist ein technischer Grund, so dass diejenigen, die einfach boshafte Bemerkungen über Leugner schreien möchten, „Koch Brothers“ [US Milliardäre] und Exxon [Kommentatoren] hier nicht willkommen sind. Das Gleiche gilt für Leute, die einfach nur Anschuldigungen verbreiten wollen ohne sie nachzuweisen (insbesondere unter Verwendung von falschen Namen / E-Mails, wir haben ein paar). Moderatoren sollten proaktive Umsicht verwenden, um Unkraut sowie Geröll auszusortieren. Wahrhaftige Kommentare und / oder Fragen sind willkommen.

Danke an alle die geholfen haben, diese Studie und Präsentation möglich zu machen.