1

Ihre Meinung zum Erderwärmung ist gefragt – Eine AGW-Meinungsumfrage für alle

Gründe für die Durchführung der Umfrage:

Ziel der Umfrage ist es, die Natur und den Hintergrund derjenigen zu verstehen, die online an der Klimadebatte interessiert sind. Ich erwarte mir davon eine sehr wertvolle Einsicht in Bildung und Arbeitserfahrung der Teilnehmer. Außerdem will ich die Relevanz der Politik bei der Meinungsbildung testen sowie soziale Faktoren und deren Beziehung zu den Ansichten bzgl. des Klimas beleuchten.

Der Link zu der Umfrage lautet:

http://scef.org.uk/survey/index.php/868721/lang/en.

Ich habe an der Umfrage teilgenommen, es dauert 5 Minuten, und obwohl es einige verwirrende Fragen darin gibt (was man in JEDER Umfrage hat), denke ich doch, dass es alles in allem eine recht vernünftige Umfrage ist.

Bemerkung: Wenn man an der Umfrage teilnimmt, diese bitte UNBEDINGT AUCH BEENDEN! Anderenfalls gibt es eine Menge zusätzlicher Arbeit bei der Aussortierung unvollständiger Antworten. Ich betone auch, dass ich keinerlei Verbindung in  irgendeiner Weise dazu habe. Man hat mich einfach gefragt, ob ich das bekannt machen will

Link: http://wattsupwiththat.com/2014/01/22/an-agw-opinion-survey-for-your-participation/

Übersetzt von Chris Frey EIKE




Neue Studie: Wolken durch Sonnenwind getrieben

 

Vom Sonnenwind getriebene Wolken

M Voiculescu et al 2013 Environ. Res. Lett. 8 045032 bei: doi:10.1088/1748-9326/8/4/045032

Abstract

In diesem Brief untersuchen wir mögliche Beziehungen zwischen der Wolkenbedeckung (CC) und dem interplanetarischen elektrischen Feld IEF. Dieses wird moduliert durch die Geschwindigkeit des Sonnenwindes und dem IEF. Wir zeigen, dass die CC in mittleren und hohen Breiten systematisch mit einem positiven IEF korreliert, was einen eindeutigen energetischen Input in die Atmosphäre zur Folge hat; jedoch nicht mit einem negativen IEF, was ganz allgemein übereinstimmt mit den Vorhersagen des mit dem GEC zusammen hängenden Mechanismus‘. Folglich zeigen unsere Ergebnisse, dass die Wolken in mittleren und hohen Breiten über das GEC durch den Sonnenwind beeinflusst sein könnten. Da das IEF unterschiedlich auf die Sonnenaktivität reagiert als beispielsweise der kosmische Strahlenfluss oder die Solar-Gesamtstrahlung zeigen wir auch, dass es eine solche Studie erlaubt, einen solar getriebenen Mechanismus der Wolkenentwicklung via GEC von anderen [Mechanismen] zu unterscheiden.

Introduction

Heute besteht hohes Interesse daran, den solaren Beitrag zur Klimaänderung zu quantifizieren. Trotz der Fortschritte hinsichtlich des Verständnisses der Prozesse, die das Erdklima steuern, bleibt die Quantifizierung der natürlichen Quellen der Klimavariabilität besonders hinsichtlich solarer Effekte schwer fassbar (Solomon et al 2007, Gray et al 2010).

Obwohl die Klimamodelle sehr weit entwickelt sind und viele Auswirkungen einschließen, sind sie nicht perfekt, und beobachtete Beweise sind bescheiden und unklar. Empirische Beweise zeigen eine kausale Beziehung zwischen der solaren Variabilität und dem Klima, vor allem im vorindustriellen Zeitalter (Bond et al 2011), aber mögliche Mechanismen sind unklar und qualitativ. Das Gleichgewicht zwischen der aus dem All kommenden und von der Erde mit unterschiedlichen Wellenlängen reflektierten Strahlung trägt signifikant zu Temperaturänderungen bei (Hartmann et al 1992). Folglich spielt die Wolkenbedeckung eine tragende Rolle im terrestrischen Strahlungshaushalt. Das Modellieren des Beitrages der Wolken zum Klima in verschiedenen räumlichen und zeitlichen Scales ist möglicherweise die größte Herausforderung im Bereich von Klimastudien (Vieira und Da Silva 2006). Trotz der zunehmenden Zahl von Studien bzgl. der Beziehung zwischen Sonne und Wolken versteht man noch nicht eindeutig solare Effekte auf die Wolkenbedeckung. Indirekte Mechanismen werden hier vorgeschlagen, die den relativ kleinen solaren Input verstärken und die die solarbezogene, in unterschiedlichen Zeiträumen von Tagen bis zu Jahrzehnten) beobachtete Variabilität verschiedener Wolkenparameter erklären können (Udelhofen und Cess 2001, Marsh und Svensmark 2000, Voiculescu und Usoskin 2012) oder Höhe der Wolkenuntergrenze (Harrison et al 2011, Harrison und Ambaum 2013).

Ein indirekter Mechanismus hängt mit der Tatsache zusammen, dass spektrale Einstrahlung der Sonne im UV-Band signifikant variiert, dessen Auswirkungen auf die Stratosphäre beschränkt sind. Daher muss es ein Zusammenspiel Stratosphäre – Troposphäre – Ozean geben, einen ‚top-down-Effekt‘ (Gray et al 2010, Meehl et al 2009, Haigh et al 2010). Ein anderer Mechanismus basiert auf möglichen Variationen der atmosphärischen Aerosol-/Wolken-Verhältnisse, was die Durchlässigkeit/Absorption der Atmosphäre beeinflusst und als Konsequenz die Menge der absorbierten Solarstrahlung. Zwei mögliche physikalische Zusammenhänge werden präsentiert: einer über die Ionen-induzierte/gesteuerte Bildung von Aerosolen durch von kosmischen Strahlen ausgelöste Ionisation (CRII) (Dickinson 1975, Svensmark und Friis-Christensen 1997, Carslaw et al 2002, Kazil und Lovejoy 2004, Yu und Turco 2001), der andere via GEC-Auswirkungen auf die Aerosol-/Wolkenverhältnisse (Tinsley 2000, Harrison und Usoskin 2010). Ersterer könnte nur sehr schwierig im allgemeinen Rauschen erkennbar sein, besonders in kurzfristigen Zeiträumen, wie in-situ-Laborexperimente (e.g., Carslaw 2009, Kulmala et al 2010, Enghoff et al 2011, Kirkby et al 2011) sowie statistische Studien (Calogovic et al 2010, Dunne et al 2012) gezeigt haben. Im Gegensatz dazu haben Studien von Svensmark et al (2009), Enghoff et al (2011), Svensmark et al (2013), Yu et al (2008) gezeigt, dass es einen Einfluss der Ionisierung auf die Bildung neuer Partikel gibt und dass Wolken-Kondensationskerne (CCN) existieren. Folglich kann es sein, dass der CRII-Partikelbildungs-Prozess nur längerfristig wirksam wird. Außerdem könnte er räumlich auf die polare Stratosphäre begrenzt sein (Mironova et al 2012). Andererseits kann auch der mit dem GEC zusammen hängende Mechanismus wichtig sein (Tinsley 2000, Harrison und Usoskin 2010, Rycroft et al 2012), besonders für tiefe Wolken. Und es wurden einige Verbindungen aufgezeigt zwischen den atmosphärischen elektrischen Eigenschaften und der Wolkenbildung und –entwicklung (Harrison et al 2013).

Da alle solaren Treiber bis zu einem gewissen Grad korrelieren, ist es möglicherweise schwierig zu evaluieren, welcher Treiber oder welche Kombination derselben am meisten zur Modulation der Wolken beiträgt. Ein Versuch, zwischen Solarstrahlung (gesamt oder UV) und CRII-Effekten auf die Wolkenbedeckung zu unterscheiden, wurden von Kristjánsson et al (2004), Voiculescu et al (20062007), Erlykin et al (2010) durchgeführt, die zeigten, dass zahlreiche Mechanismen in verschiedenen Höhen und verschiedenen geographischen Gebieten unterschiedliche Auswirkungen zeitigen können. Allerdings wird der GEC durch die Sonnenaktivität in anderer Weise beeinflusst, nämlich via das IEF, so dass nur das positive IEF eine Rolle spielt, das negative IEF aber nicht. Ein positives IEF korrespondiert mit einem interplanetarischen magnetischen Feld (interplanetary magnetic field IMF) mit einer südwärts gerichteten oder negativen z-Komponente, welche einen direkten Energietransfer vom Sonnenwind zur Magnetosphäre und der Ionosphäre begünstigt. Für das negative IEF (postive z-Komponente des IMF) ist der Transfer viel weniger effizient, und nur ein sehr kleiner Prozentsatz der Sonnenwind-Energie wird in die Magnetosphäre transferiert (e.g. Dungey 1961, Papitashvili und Rich 2002, Singh et al 2005). Folglich wird vom IEF im Gegensatz zu anderen potentiellen solaren Treibern, von denen man erwartet, dass sie einen monotonischen Einfluss ausüben, erwartet, dass die Wolkenverhältnisse nur dann beeinflusst werden, wenn das IEF positiv ist. Dieses Feature hat das Potential, die Auswirkungen des IEF von denen anderer Treiber zu unterscheiden. Hier präsentieren wir die Ergebnisse von Korrelations-Studien zwischen dem IEF und der Wolkenbedeckung, welche den höchst möglichen Mechanismus zeigt, der die Wolkenbedeckung beeinflussen könnte. Wir diskutieren hier hauptsächlich die Ergebnisse für die Bedeckung mit tiefen Wolken (LCC), beziehen uns aber auch auf mittelhohe und hohe Wolken.

Abbildung: Variation der mittleren Bedeckung mit tiefen Wolken in mittleren und hohen Breiten (30° bis 75° N und S) (grüne durchgezogene Linie), dem interplanetarischen elektrischen Feld (schwarze Punkte) und die durch kosmische Strahlen ausgelöste Ionisierung (CRII) im 700-hPa-Niveau (rot gestrichelt). CRII wird berechnet mittels des atmosphärischen Ionisations-Modells von Usoskin et al 2010.

Schlussfolgerung:

Wir zeigen hier ein Ergebnis einer empirischen Studie, der zufolge es eine schwache, aber statistisch signifikante Beziehung gibt zwischen der Bedeckung mit tiefen Wolken in mittleren und hohen Breiten in beiden Hemisphären der Erde und dem interplanetarischen elektrischen Feld, das einen bestimmten Mechanismus des Einflusses der indirekten Sonnenaktivität auf das Klima begünstigt: der globale elektrische Kreislauf beeinflusst die Wolkenbildung. Wir zeigen, dass alle Charakteristiken dieser Beziehung auf einer Linie mit der Erwartung liegen, falls das interplanetarische elektrische Feld via den globalen elektrischen Kreislauf beeinflusst:

(1) Die Bedeckung mit tiefen Wolken zeigt eine systematische Korrelation im jährlichen Zeitmaßstab mit einem positiven interplanetarischen elektrischen Feld in mittleren und hohen Breiten in beiden Hemisphären.

(2) Es gibt keine Korrelation zwischen der Bedeckung mit tiefen Wolken und dem interplanetarischen elektrischen Feld in tropischen Regionen.

(3) Es gibt keine Korrelation zwischen der Bedeckung mit tiefen Wolken und einem negativen interplanetarischen elektrischen Feld auf dem ganzen Globus.

Als zusätzlicher Faktor kann der kosmische Strahlenfluss beim Vorhandensein eines positiven IEF die Wolkenbildung beeinflussen. Dagegen wurde kein eindeutiger Effekt des Flusses kosmischer Strahlen während Perioden eines negativen IEF gefunden.

Ähnliche, aber statistisch weniger signifikante Ergebnisse fanden sich auch für mittelhohe und hohe Wolken, was zeigt, dass sich die primären Auswirkungen bei tiefen Wolken zeigen. Die Tatsache, dass die gefundene statistische Relation nur für Zeiten eines positiven IEF existiert und nicht bei einem negativen IEF stellt andere potentielle Mechanismen der Beziehung zwischen Sonne und Wolken in mittleren und hohen Breiten in den Schatten, wie der Aerosolbildung durch Ionen oder ein UVI-Einfluss. Allerdings könnte letzterer in tiefen und mittleren Breiten wirksam sein. Obwohl diese statistische Studie keinen Hinweis auf einen genauen physikalischen, die Wolken beeinflussenden Mechanismus vermittelt wie oben beschrieben, begünstigt sie einen bestimmten solaren Treiber, nämlich den Sonnenwind mit einem eingefrorenen IEF, der das globale elektrische Stromsystem auf der Erde beeinflusst. Das Ergebnis zeigt, dass sich weitere Forschungen des solar-terrestrischen Einflusses ebenfalls in diese Richtung orientieren sollten.

Die Studie ist offen verfügbar, und zwar hier:

http://iopscience.iop.org/1748-9326/8/4/045032/article

Related: No increase of the interplanetary electric field since 1926  (Sager and Svalgaard 2004)

Link: http://wattsupwiththat.com/2013/12/26/new-paper-clouds-blown-by-the-solar-wind/

Übersetzt von Chris Frey EIKE, der diesen Artikel inhaltlich nicht verstanden hat.




Jetzt, da die Passagiere des ‚Narrenschiffes‘ in der Antarktis sicher sind, müssen harte Fragen gestellt werden

Update 11:20 Uhr:

Weitere interessante Hinweise auf den Verlauf dieser Expedition zum "Nachweis der Erwärmung" in der Antarktis finden Sie hier (in Englisch). Mit Dank an Pierre Gosselin

Bolt:

1. Wer hat diese Expedition finanziert?

2. Wie kommt es, dass zu den Teilnehmern der Expedition auch Turneys Ehefrau [Chris Turney war Leiter der Expedition] und zwei kleine Kinder gehören?

3. Wie ernst war dieses wissenschaftliche Unternehmen?

4. War die Wahl des Schiffes klug, wenn es doch kein Eisbrecher war?

5. Wie kommt es, dass dieses Schiff in der heutigen Zeit mit Satellitenbeobachtungen, sehr genauen Wettervorhersagen und Radar im Eis stecken geblieben ist?

6. Wie viel hat die Rettung gekostet?

7. Wer zahlt für diese Rettung?

8. Warum waren ABC und Fairfax-Medien so erpicht darauf, zuerst zu verkünden, dass diese Expedition Ausmaß und Auswirkungen der globalen Erwärmung erforschen soll, während diese Tatsache in ihren Berichten keine Erwähnung mehr findet, seit das Schiff im Eis stecken geblieben ist?

9. Warum hat man in allen diesen Berichten – und der Expeditionsleiter selbst – es abgelehnt zu erwähnen, dass das Meereis um die Antarktis während der letzten drei Jahrzehnte stetig zugenommen hat – und dass die Eisbedeckung derzeit viel größer ist als zu Zeiten von Douglas Mawson vor einem Jahrhundert?

Ich selbst habe folgende Fragen:

1. Wer zahlt für die Rückreise nach Australien, wenn sie Casey Station verlassen?

2. Wie groß ist der Schaden durch dieses Fiasko für wirklich wissenschaftliche Expeditionen in der Antarktis, nicht nur vom Standpunkt falscher Logistik, sondern auch vom PR-Standpunkt?

3. Warum hat das gestrandete Schiff nach Wettervorhersagen und Daten gerufen, wenn es die Ausrüstung hierfür doch eigentlich an Bord haben sollte?

4. Wer wird verantwortlich gemacht, wenn dieses Schiff gar nicht mehr freikommt oder der Schiffsrumpf durch den Eisdruck eingedrückt wird und das Schiff sinkt?

5. Vor welchen Pflichten und welchem Schicksal steht die zurück gelassene Schiffsbesatzung?

6. Wer finanzierte die ARGO ATVs, nachdem Turneys Indiegogo crowdsourcing campaign [?] so kläglich gescheitert ist? Bekommen diese Leute eine Entschädigung?

7. Warum sollte Turney dieses Schiff chartern, wenn es für  Fahrten im Eis überhaupt nicht ausgelegt ist?

Akademik Shokalskiy: UL
Xue Long: B1
Aurora Australis: A1

UL = Widerstandsfähigkeit des Schiffes gegen Eis (erlaubt unabhängige Navigation in der Arktis im Sommer und Herbst bei geringer Vereisung sowie in überfrierenden nicht arktischen Gewässern das ganze Jahr über). Mehr zu den Ratings hier: http://www.globalsecurity.org/military/world/icebreakers-class.htm

8. Ist Turney in die Irre geführt worden hinsichtlich der Intensität der Vereisung, weil er selbst geglaubt hat, dass das antarktische Meereis schmilzt?

9. Hat die Rundfahrt zu Mawson’s Huts am 19. Und noch einmal am 23. Dezember (offenbar zum Mertz-Gletscher, obwohl ihr Blog und „tracker“ [track = Spur, Kurs] zu diesem Punkt unklar bleibt) zu Verzögerungen geführt, so dass das Schiff in sich rasch ändernden, das Meereis um sie herum schließenden Wetterbedingungen gefangen war?

10. Offenbar hat die Schiffsbesatzung der Akademik Shokalskiy fast kein Englisch gesprochen. Hat diese Sprachbarriere zur Situation beigetragen? Wurde Turney gewarnt, dass sich Wetter und Wind ändern würden, während die zweite Besichtigung von Mawsons Huts im Gange war, und falls ja, hat er diese Warnungen verstanden und beachtet?

11. Warum hat das Schiff eine Mischung aus Touristen und Medienvertretern an Bord gehabt, wenn es doch eine „wissenschaftliche Expedition“ durchführen sollte?

ABC-Spätnachrichten vom 5. November: Professor Chris Turney von der University of NSW hat 1,5 Millionen Dollar erhalten, um die größte australische Antarktis-Expedition mit einem Team von 85 Personen durchzuführen. Damit soll die Frage beantwortet werden, wie die Klimaänderung auf dem gefrorenen Kontinent schon jetzt die Wetterlagen in Australien verändert hat. http://www.abc.net.au/lateline/content/2013/s3898858.htm

Link: http://wattsupwiththat.com/2014/01/02/now-that-the-ship-of-fools-is-safe-in-antarctica-tough-questions-need-to-be-asked/

Übersetzt von Chris Frey EIKE




Betrug und kein Ende im Klimaschutz

Riesiger Betrug bei der EPA durch ihren bestbezahlten Angestellten

Anthony Watts

Es ist atemberaubend. Aber es musste ja so kommen. Wir wissen, dass sich Viele haben einlullen lassen und dass sich einige der bekannten Klima-Advokaten zu riesiger Selbstbeweihräucherung aufgeblasen haben und sich zu irrationalen verbalen und echten Exzessen haben verleiten lassen.

Das hier ist aber der Gipfel!

Die von der NBC News durchgeführte Hintergrund-Recherche enthüllte, dass das höchstbezahlte EPA-Individuum, John C. Beale, die Agentur im Verlauf eines Jahrzehnts um fast $1 Million beschwindelt hat bei seinen Bezügen und Boni.

Dem höchstbezahlten Angestellten der EPA, noch dazu führender Experte beim Klimawandel, geschieht ganz recht, wenn er für mindestens für 30 Monate ins Gefängnis gesteckt wird, weil er seine Vorgesetzten belogen hat und behauptete, er wäre ein CIA-Spion, der in Pakistan gearbeitet hätte und deswegen hätte er seinen Pflichten nicht nachkommen können. So sagen es die US-Bundesanwälte.

Beale verübte fortgesetzten Betrug. Er zeigte sich in der EPA mehrfach monatelang nicht. Einmal fehlte er 18 Monate lang an einem Stück, von Juni 2011 an. Er verrichtete „überhaupt keine Arbeit“, wie Kern, Beales Anwalt, in seiner Eingabe an das Gericht zugab.

Was hat er denn so getrieben? Er jettete in der Ersten Klasse um die Welt und hielt sich in 5-Sterne-Hotels auf. Auf Kosten des Steuerzahlers – das hat er gemacht!

Die beiden Anklage-Schriften und die Dokumente im Besitz der NBC-News zeigen neue Details von einem der unverfrorensten und einfallsreichsten Betrug zu Lasten der Vereinigten Staaten.

“I dachte nur: Oh mein Gott, wie konnte nur so etwas in dieser Behörde passieren ?”, sagte der Leiter der Untersuchung, EPA Assistant Inspector General Patrick Sullivan, in einem Interview mit NBC-News – als er sich daran machte, Beales Betrügereien in näheren Augenschein zu nehmen. “Ich arbeite seit 35 Jahren für die Regierung, aber so etwas habe ich noch nie gesehen.”

Und natürlich ist da die Blindheit für die “Alles-für-den-guten-Zweck-Masche” im Spiel, warum es passieren konnte.

Sullivan sagte, dass Beales Betrug in keiner anderen Behörde außer bei der EPA möglich war: „In der EPA hat sich eine Kultur des „Der-gute-Zweck-heiligt-die-Mittel“ etabliert,“ sagte er. „Die EPA-Angestellten vermuten keine kriminellen Handlungen. Sie neigen zur Vertrauensseligkeit und nehmen Alles hin.“

Übersetzt heißt das: Wenn einer gute Arbeit für den “guten Zweck” macht, muss man nicht so genau hinschauen.

Hier ist mehr zu lesen: (Dank an WUWT-Leser Martin Rettig)

Es war ein riesiger Betrug bei den Gehalts- und Bonus-Zahlungen, aber man muss sich doch fragen, welche weiteren Betrügereien dieser Mensch in seiner Rolle als Klima-Verantwortlicher begangen haben mag. Dem Bericht zufolge geht es um die Mitarbeit zum Clean Air Act 1990, um die Leitung der EPA-Delegationen bei den UNO-Konferenzen zum Klimawandel 2000 und 2001, und um die Mitarbeit bei den Verhandlungen zur Vereinbarung zur Verminderung der Kohlenstoff-Emissionen mit China, Indien und weiteren Staaten.

In diesem EPA-Dokument scheint man auf nichts anderes zu schauen als auf Beales Mißbrauch bei den Reisekosten. Ich meine aber, man trägt da “Scheuklappen”, denn ich musste feststellen, dass man sich überhaupt nicht mit der Qualität von Beales Klima-Arbeit beschäftigt.

Die Korruption in Washington wird den Staat zerstören, wenn sie nicht bald in ihre Schranken gewiesen wird. Schon sieht unsere Regierung aus, wie diejenige eines Drittwelt-Staates.

Weitere Artikel:

Climate Change Expert’s Fraud Was ‘Crime of Massive Proportion,’ Say Feds (freepatriot.org)

Feds charge EPA’s climate-change guru with fraud (wnd.com)

Third EPA Official Implicated in $900K Scam (freebeacon.com)

REPORT: EPA knew for years of illegal salary going to ex-official… (washingtonpost.com)

EPA’s Christmas Gift to the Nation: 134 More Regulations (politicaloutcast.com)

Original hier

Übersetzung: Helmut Jäger, EIKE




Neuer Eisbohrkern spiegelt die Klimavariabilität in der Westantarktis

Die Autoren schreiben, dass sich die Region ihrer Analyse zufolge seit Ende der fünfziger Jahre erwärmt hat, und zwar mit einer Rate, die derjenigen auf der Antarktischen Halbinsel und in den zentralen Gebieten der Westantarktis ähnelt.

Allerdings weisen die Autoren auch darauf hin, dass diese jüngste Erwärmung in ihrer Größenordnung ähnlich den Erwärmungs- und Abkühlungstrends ist, die sich Mitte des 18. Und Mitte des 19. Jahrhunderts in ihrem Eisbohrkern zeigen. Dies bedeutet, dass an dieser Stelle an der Westantarktis die Auswirkungen einer vom Menschen induzierten Klimaänderung nicht über die natürliche Klimavariabilität der letzten 300 Jahre hinausgehen.

Quelle: Geophysical Research Letters, doi:10.1002/2013GL057782, 2013 http://onlinelibrary.wiley.com/doi/10.1002/2013GL057782/abstract

A 308 year record of climate variability in West Antarctica

[etwa: Eine 308 Jahre lange Aufzeichnung der Klimavariabilität in der Westantarktis]

Authors: Elizabeth R. Thomas, Thomas J. Bracegirdle and John Turner: British Antarctic Survey, Cambridge, UK; Eric W. Wolff: Department of Earth Sciences, University of Cambridge, Cambridge, UK.

Abstract:

Wir präsentieren eine neue Aufzeichnung aus stabilen Isotopen aus dem Ellsworth Land. Von dort haben wir einen wertvollen, 308 Jahre abdeckenden Eisbohrkern (1702 bis 2009) untersucht, der die Klimavariabilität in den küstennahen Gebieten der Westantarktis spiegelt. Die Klimavariabilität an dieser Stelle wird sehr stark beeinflusst von der Wassertemperatur und dem Luftdruck im tropischen Pazifik und ist abhängig von den Eisverhältnissen vor Ort. Die Aufzeichnung zeigt, dass sich diese Region seit Ende der fünfziger Jahre erwärmt hat, und zwar mit einer ähnlichen Rate, wie sie auf der Antarktischen Halbinsel und der zentralen Westantarktis beobachtet worden ist. Allerdings ist dieser Erwärmungstrend nicht einheitlich. Weit dramatischere isotopische Erwärmungs- (und Abkühlungs-)Trends ereigneten sich Mitte des 18. und Mitte des 19. Jahrhunderts. Dies belegt, dass gegenwärtig die Auswirkungen anthropogener Klimaantriebe nicht über die natürliche Variabilität während der letzten 300 Jahre oder so hinausgehen.

Link: http://wattsupwiththat.com/2013/12/05/new-ice-core-record-shows-climate-variability-in-west-antarctica/

Übersetzt von Chris Frey EIKE




Tiefste Temperatur der Erde, die jemals in der Antarktis gemessen wurde

Bild rechts: Dieses Photo bei Plateau Station in der Ostantarktis zeigt charakteristische Dünen an der Oberfläche. Die meisten Gebiete der Antarktis sehen eben aus, trotz der verborgenen Wehen, Hügel und Löcher. – Bild: Atsuhiro Muto

Die Messungen wurden zwischen 2003 und 2013 durchgeführt vom Moderate Resolution Imaging Spectroradiometer (MODIS)-Sensor an Bord des NASA-Satelliten AQUA und während des Südwinters durch Landsat 8, einem neuen Satelliten, der Anfang dieses Jahres 2013 durch die NASA und den US Geological Service gestartet worden ist.

„Ich habe mich noch niemals einer derartigen Kälte ausgesetzt und hoffe auch, dass dies nie der Fall sein wird”, sagte Scambos. „Man hat mir gesagt, dass jeder Atemzug schmerzt und dass man extrem vorsichtig sein muss, nicht Erfrierungen in Hals und Lunge beim Einatmen zu erleiden“.

Diese Rekordwerte liegen um Einiges unter den bisherigen Rekorden von -89,2°C, gemessen am 21. Juli 1983 in Wostok in der Ostantarktis. Und sie liegen bei Weitem unter den Rekordwerten in den USA, z. B. -62°C in Alaska, der kältesten jemals in den USA gemessenen Temperatur, -68°C in Nordasien und sogar -75°C am höchsten Punkt des grönländischen Eisschildes.

Scambos berichtete, dass man die Rekordtemperaturen in vielen, 5 mal 10 km großen Mulden gefunden hat, in denen die Topographie kleine Höhlungen mit einer Tiefe von 2 bis 4 Metern geschaffen hat. Diese Höhlungen finden sich unmittelbar neben der Eishügelkette zwischen Dome Argus und Dome Fuji – den höchsten Erhebungen des Eisschildes in der Ostantarktis. Antarktische Stationen befinden sich auf beiden Seiten des Gebietes und sind im antarktischen Winter normalerweise nicht besetzt.

Unter dem klaren Winterhimmel in diesen Gebieten bildet sich über der Schneedecke Kaltluft. Diese bewegt sich hangabwärts, weil sie schwerer und dichter ist. Sie sammelt sich in den nahen Höhlungen, wo sie weiter abkühlt, wenn die Bedingungen günstig sind.

„Diese für die Rekorde verantwortlichen Bedingungen scheinen aufzutreten, wenn der Gradient des Luftdrucks die Luft den Hügel wieder hinauf treibt, wo sie auf die abwärts strömende Luft trifft“, erklärte Scambos. „Dadurch wird die Luft länger in den Höhlungen gehalten, was unter klarem Himmel und den extrem trockenen Bedingungen zu stetiger weiterer Abkühlung führt. Verbleibt die kalte Luft sehr lange in diesen Höhlungen, können ultratiefe Temperaturen erreicht werden.

Jeder Gärtner weiß, dass klarer Himmel und trockene Luft nachts zu den tiefsten Temperaturen führen. Hier in den USA und den meisten Gebieten von Kanada haben wir keine Nächte, die drei oder vier oder sechs Monate lang sind, um ähnlich tiefe Werte zu erreichen“.

Jahrhunderte alte Eisbrüche

Scambos und sein Team entdeckten diese Rekordwerte, während sie an einer damit zusammen hängenden Studie über ungewöhnliche Eisbrüche an der Eisoberfläche der Ostantarktis arbeiteten. Er vermutet, dass diese Brüche viele hundert Jahre alt sind.

„Bei den Brüchen handelt es sich möglicherweise um thermische Brüche – es wird im Winter so kalt, dass sich die Obergrenze des Schnees bis zu einem Punkt zusammen zieht, an dem die Oberfläche Risse bekommt. Das führte uns zu der Frage, wie kalt es eigentlich werden konnte. Also machten wir uns auf die Suche nach den kältesten Orten, und zwar mit Hilfe von Daten von drei Satelliten-Sensoren“.

Mehr als 30 Jahre mit Daten vom Advanced Very High Resolution Radiometer (AVHRR) auf dem polarumlaufenden NASA-Satelliten POES (Polar Orbiting Environmental Satellite) lieferten Scambos eine gute Vorgabe, wie die Verteilung tiefer Temperaturen in der Antarktis aussehen könnte.

„Landsat 8 ist noch ein neuer Sensor, aber voraus gegangene Arbeiten zeigten, dass er in der Lage ist, die kalten Höhlungen im Detail zu vermessen“, erklärte Scambos. „Das zeigt, wie selbst kleine Hügel aus der kalten Luft herausragen“.

Scambos hatte vermutet, dass er ein einzelnes Gebiet finden würde, in dem es extrem kalt ist. Stattdessen fand er einen breiten Streifen in größerer Höhe, wo es an vielen Stellen regelmäßig zu rekordtiefen Temperaturen kommt. Außerdem sank die Temperatur in Dutzenden dieser extrem kalten Gebiete in den meisten Jahren auf das gleiche Minimum zwischen -92°C und -94°C.

„Das ist so, als ob man sagt, dass man in einem ganzen Landstrich von International Falls in Minnesota über Duluth ebendort bis nach Great Falls in Montana genau die gleiche Temperatur erreicht, und zwar mehr als einmal. Und das ist etwas eigenartig“, sagte Scambos.

Dieses Bild zeigt die Stellen mit den Rekord-Tiefstwerten der Temperaturmessungen in der Antarktis. Die roten Punkte zeigen, wo es zu den vom Satelliten gemessenen Rekordtemperaturen gekommen war. Grau schattiert ist eine Auflistung der niedrigsten, vom MODIS-Sensor an Bord des NASA-Satelliten AQUA gemessenen Temperaturen von 2003 bis 2013, wobei die kältesten Gebiete in dunklerem Grau dargestellt sind. Die Thermalbilder des Satelliten Landsat 8 von Juli und August 2013 lieferten noch größere Details der kältesten Gebiete (violette Quadrate). Die Höhe über NN der Oberfläche der Antarktis wird durch grüne Linien markiert, und die blauen Linien repräsentieren einen Umriss des antarktischen Kontinents, seine Inseln sowie die Kante der schwimmenden Eisschilde. Quelle: Ted Scambos, NSIDC

Die Wissenschaftler vermuten, dass eine Schicht der Atmosphäre über dem Plateau eine bestimmte Minimumtemperatur erreicht und das Plateau dann daran hindert, noch weiter abzukühlen.

Eine physikalische Grenze

„Es scheint eine physikalische Grenze dafür zu geben, wie kalt es auf diesem hoch gelegenen Plateau werden kann und wie viel Wärme entweichen kann“, erklärte Scambos. Obwohl es ein extrem kaltes Gebiet ist, strahlt die Oberfläche der Antarktis Wärme oder Energie in den Weltraum ab, vor allem, wenn die Atmosphäre trocken und frei von Wolken ist.

„Der Gehalt von Kohlendioxid, Stickstoffoxid, Spuren von Wasserdampf und anderer Gase in der Luft könnten ein mehr oder weniger gleichförmiges Limit darstellen, wie viel Wärme von der Oberfläche abgestrahlt werden kann“, sagte Scambos weiter.

Scambos und sein Team werden weitermachen mit der Vervollständigung ihrer Karte mit den kältesten Orten der Erde unter Verwendung der Daten von Landsat 8. „Das ist ein bemerkenswerter Satellit, und wir waren immer wieder beeindruckt, wie gut er arbeitet, nicht nur bei der Erfassung der Temperatur, sondern auch bei der Kartographierung von Ernten, Wäldern und Gletschern auf der ganzen Welt“.

„Die Daten von Landsat 8 können vielfältig und für verschiedenste Gebiete verwendet werden”, sagte James Irons, Projektwissenschaftler der Mission von Landsat 8 am Goddard Space Flight Center der NASA in Greenbelt, Md. „Und Scambos‘ Arbeit ist ein Beispiel der faszinierenden Wissenschaft, die man mit den Daten von Landsat 8 durchführen kann“.

Längerfristig wollen Scambos und sein Team versuchen, Wetterstationen in den Gebieten zu errichten, in denen Landsat 8 die extrem tiefen Temperaturen gemessen hat, um diese Daten zu verifizieren. Gegenwärtig funktionieren die automatischen Wetterstationen im tiefen Winter nicht richtig.

„Auf den Forschungsbasen dort gibt es keine Leute, die dort überwintern und Temperaturmessungen durchführen können”, erklärte Scambos. „Wir müssen in Elektronik investieren, die diese Temperaturen überstehen kann“.

Link zur Animation der NASA:
https://www.youtube.com/watch?feature=player_embedded&v=Hp6wMUVb23c

Link: http://wattsupwiththat.com/2013/12/09/coldest-ever-temperature-recorded-on-earth-found-in-antarctica/

Übersetzt von Chris Frey EIKE




Eine weitere bekannte Unbekannte – vulkanische CO2-Ausgasungen

Bild rechts: Medicine Lake Volcano from Schonchin Butte, Lava Beds National Monument (Photo credit: Ray Bouknight)

Diese inflationär steigenden Zahlen, füge ich hastig hinzu, bedeuten nicht, dass unser Planet plötzlich mehr CO2 ausgast.

Die Menschheit tut das mit Sicherheit, aber jedwede Änderungen des vulkanischen Hintergrund-Niveaus würde über Generationen erfolgen und nicht während einiger Jahre. Der Anstieg, den wir hier sehen, ist daher kein echter Anstieg, sondern es war schon immer so viel. Durch den unsere Perspektive erweiternden wissenschaftlichen Prozess wird umrissen, wie hoffnungslos gering unser Wissen über Vulkane ist.

Schlafende Riesen

Die Ausgasungen unseres Planeten können spektakulär offensichtlich sein. Die Feuerwerke sind jedoch nur ein Teil des Bildes. Wir wissen jetzt, dass die Freisetzung von CO2 bei Vulkanausbrüchen fast vernachlässigbar ist verglichen mit dem, was passiert, wenn die Kameraleute des Filmens müde sind. Die wirklich eine Rolle spielenden Emissionen sind verborgen. Die ruhigen, silbrigen Rauchwolken, die sich gegenwärtig über den 150 oder so aktiven Vulkanen gen Himmel wälzen, enthalten auch den größten Teil ihres Kohlendioxids. Sie mögen das Augenmerk auf sich ziehen – aber zwischen den Ausbrüchen [tantrums] fördert das stetige Ausatmen der Vulkane im Stillen eine Viertelmillion Tonnen CO2 pro Jahr.

Wir denken. Die Schätzungen der Wissenschaftler [the best estimates] dagegen basieren auf Hypothesen. Es könnte überraschend sein zu erfahren, dass bis weit in dieses neue Jahrhundert hinein etwa 80 Prozent der von mir erwähnten Raucher hinsichtlich ihrer emittierten CO2-Menge immer noch so mysteriös sind wie eine Generation zuvor: wir haben erst 33 davon vermessen.

Wenn die verbleibenden 117 einem ähnlichen Trend folgen, kann die gegenwärtige Projektion der Forschergemeinschaft bestehen bleiben. Aber wenn man durch ein nur so kleines Fenster schaut, können wir nie in Erfahrung bringen, ob das, was wir da sehen, typisch ist oder nicht. Es ist wie ein Lichtstrahl, der auf einen verdunkelten Globus trifft: vielleicht beleuchtet er gerade Australien, und man glaubt, alles gesehen zu haben – während außerhalb des Lichtkegels unbemerkt Asien liegt. Die isolierten vulkanischen Grenzen unseres Planeten können sehr gut ein oder zwei Monster verbergen; und mit ein wenig weiterer Erkundung könnte unsere Abschätzung des vulkanischen CO2-Ausstoßes sogar noch mehr steigen.

Sie glauben, dass würde reichen. Das kann meine Schuld sein – ich tendiere dazu, mir das Verrückteste bis zum Ende aufzuheben. Vor Kurzem kam eine schillernde Quelle vulkanischen Kohlenstoffes ans Licht, die nichts mit Lava oder selbst Kratern zu tun hat. Inzwischen sieht es so aus, dass es nicht nur für uns unerreichbares CO2 gibt, sondern auch solches, das wir nicht einmal bemerken können.

Noch unglaublicher: Es scheint, dass einige als inaktiv angesehene Vulkane hinsichtlich ihres Potentials, neues Land zu erschaffen, immer noch erhebliche Beiträge in die Atmosphäre leisten durch das diffuse Freisetzen von CO2. Restliche Magmavorräte unter schlafenden Kratern können immer noch aus der Distanz Gase freisetzen, selbst wenn sie niemals die Erdoberfläche erreichen sollten. Erstaunlicherweise sieht es nach dem Bisschen, das die Wissenschaftler bislang gemessen haben, so aus, als ob dieser Prozess noch einmal halb so viel CO2 in die Atmosphäre entweichen lässt, wie es durch aktive Vulkane der Fall ist.

Wenn diese zusätzlichen ‚kohlenstoff-aktiven’ Vulkane mit einbezogen werden, erhöht sich die Anzahl der ausgasenden Kegel auf über 500. Davon haben wir gerade mal 9 Prozent vermessen. Möglicherweise kann man jetzt mehr dazu tun – wir müssen mehr Berge erklimmen.

Link: http://wattsupwiththat.com/2013/11/16/another-known-unknown-volcanic-outgassing-of-co2/

Übersetzt von Chris Frey EIKE




IPCC Konferenz in Warschau – Es geht nur ums Geld! Arme Länder verlassen den UN-Klimagipfel

„Die EU hat Verständnis dafür, dass dieses Thema unglaublich wichtig für Entwicklungsländer ist. Aber sie sollten vorsichtig sein, eine neue Institution ins Leben zu rufen. Das ist nicht das, was dieser Prozess braucht“, sagte die EU-Klimakommissarin Connie Hedegaard. Sie wies deren wichtigste Forderung zurück und besteht darauf: „Wir können kein System mit automatischer Kompensation haben, wenn es auf der ganzen Welt Extremereignisse gibt. Das ist nicht machbar“. – John Vidal, The Guardian, 20 November 2013

Die Zerstörungen durch den Taifun Haiyan wurden zu einem Aufschrei bei den UN-Klimagesprächen, wo die Philippinen und andere Entwicklungsländer Hilfegarantien fordern für künftige Schäden durch die globale Erwärmung. Die Forderung führte zu einem weiteren tiefen Graben in den schwierigen Verhandlungen, weil reiche Länder das als eine potentielle Falle betrachten, die sie in eine niemals endende Verantwortung für Kompensationen treiben soll. Über 130 Entwicklungsländer rufen jetzt nach einem „Verluste und Schäden“-Mechanismus, finanziert von reichen Ländern, der 2015 in einen globalen Vertrag zur Klimaänderung eingebettet werden soll. – Agence France Press, 20 November 2013

Für die Anpassung an Auswirkungen der Klimaänderung kommen auf Afrika Kosten zu, die auf 350 Milliarden Dollar pro Jahr bis zu den siebziger Jahren dieses Jahrhunderts steigen werden, falls es den Regierungen nicht gelingt, die Emissionen unter Kontrolle zu bringen. Die Kosten, Afrikas Infrastruktur an steigende Meeresspiegel und stärkere Stürme ausgelöst durch die globale Erwärmung anzupassen, werden bis zum Jahr 2020 insgesamt 7 Milliarden bis 15 Milliarden Dollar betragen und danach „rapide steigen“ wegen der stetig weiter steigenden Temperatur. Das ließ die UNEP in einem Bericht für den Klimagipfel in Warschau verlauten. – Alex Morales, Bloomberg 20 November 2013

Trotz der Tatsache, dass es sich in der Vergangenheit einige Fehler geleistet hat, ist das IPCC genau die Art Institution, um wissenschaftliche Beratung zu liefern, um kontrastierende und unsichere empirische Behauptungen zu evaluieren. Im Falle von Schäden und Verlusten durch Extremereignisse sind die Beweise extrem stark. Gegenwärtig gibt es keine offensichtliche Basis für die Unterstützung von Forderungen nach Reparationen.

Der von den G77-Staaten plus China eingereichte Vorschlag, dass die USA und andere Nationen zehn oder sogar hunderte Milliarden Dollar an arme Länder zahlen sollen, die von Katastrophen betroffen sind, ist ein zentrales Thema der derzeitigen Klimaverhandlungen in Warschau. Für das Aufkommen der Debatte um historische Reparationen trägt Präsident Obama eine direkte Teilverantwortung, hat er doch entgegen wissenschaftlicher Beweise in seiner Rede an die Nation gesagt: „Hitzewellen, Dürren, Buschfeuer, Überschwemmungen – alle sind jetzt häufiger und intensiver. Wir können zu glauben auswählen, dass der Supersturm Sandy und die schlimmste Dürre seit Jahrzehnten sowie die schlimmsten Buschbrände in einigen US-Bundesstaaten alle nur ein zufälliges Zusammentreffen waren. Oder wir können wählen, der überwältigenden Mehrheit der Wissenschaft zu glauben“. – Roger Pielke Jr., The Guardian, 19 November 2013

Lange befürchteter Streit während zwei Tagen fast ununterbrochener Verhandlungen brach aus über die grundlegenden Beschlüsse des Warschauer Treffens. Ein Entwurf dieser Entschlüsse, bekannt geworden am Montag, wurde zum neuen Schlachtfeld, als entwickelte Länder es ablehnten, die Verantwortung gegenüber den Entwicklungsländern zu übernehmen. – Nitin Sethi, The Hindu, 20 November 2013

 

20% des EU-Haushaltes wird in den Kampf gegen den Klimawandel fließen, hat Klimakommissarin Connie Hedegaard in Warschau verkündet. Das summiert sich zu Klimaausgaben in Höhe von 180 Milliarden zwischen 2014 und 2020. Vieles davon wird für heimische Projekte aufgebracht, und zwar durch Hilfen für den Aufbau einer klimaverträglichen Landwirtschaft, Energieeffizienz und den Transportbereich. Auf einer Pressekonferenz in Warschau fuhr sie fort: „Wenn die Welt wirklich im Kampf gegen den Klimawandel erfolgreich sein will, ist eines der Dinge, die wir ändern müssen, das gesamte wirtschaftliche Paradigma, einschließlich der Art und Weise, wie wir unsere Haushalte konstruieren“. Sie fügte hinzu, dass Europa die erste Region mit einer derartigen Budget-Aufstellung sei. – Sophie Yeo, Responding to Climate Change, 20 November 2013

Der polnische Premierminister Donald Tusk hat vor einigen Tagen im Zuge einer Regierungsumbildung seinen Umweltminister Marcin Korolec entlassen. Er wird ersetzt durch Maciej Grabowski, ehemaliger Vize-Finanzminister und verantwortlich für die Vorbereitung von Schiefergas-Bewertung. „Es geht um eine radikale Beschleunigung der Schiefergas-Aktivitäten. Korolec wird der Bevollmächtigte für die Klimaverhandlungen bleiben“, sagte Tusk auf einer Pressekonferenz. Seine Entlassung führte zu Fragen über Polens Position bei den Verhandlungen. – Reuters, 20 November 2013

 

Link: http://wattsupwiththat.com/2013/11/20/newsbytes-the-climate-reparations-game-poor-countries-walk-out-of-un-climate-summit/

Übersetzt von Chris Frey EIKE




Eine weitere Unsicherheit für Klimamodelle – gleiche Modelle liefern unterschiedliche Ergebnisse, wenn auf unterschiedlichen Computern gerechnet

Bild rechts: Graphik von Dr. Roy Spencer

Zunehmende mathematische Unsicherheiten der Startbedingungen sind der Hauptgrund. Aber einiges davon könnte der Tatsache geschuldet sein, dass einige Modelle trotz des gleichen Codes nicht die gleichen Ergebnisse zeigen, wenn die Rechenoperationen an verschiedenen CPUs, Betriebs-Systemen und Compilern durchgeführt werden. Mit dieser Studie können wir nun Software-Unsicherheiten der Liste von Unsicherheiten hinzufügen, die hinsichtlich des Klimas und seiner Modellierung bekannt sind.

Mir ist diese Studie gestern vor Augen gekommen, und deren Ergebnisse sind ziemlich aufschlussreich.

Die Studie wurde am 26. Juli 2013 im Monthly Weather Review veröffentlicht, also einem Journal der American Meteorological Society. Sie kommt zu dem Ergebnis, dass das gleiche Vorhersagemodell (eines für die geopotentielle Höhe) zu unterschiedlichen Ergebnissen kommt, wenn man es auf verschiedener Computer-Hardware und Operationssystemen laufen lässt, ohne sonst irgendwelche Änderungen vorzunehmen.

Sie sagen, dass die Unterschiede hauptsächlich durch Rundungsfehler der verschiedenen Software-Systeme auftreten und dass diese Fehler mit der Zeit zunehmen, das heißt sie akkumulieren sich.

Die Autoren:

„Wir behandeln die Toleranzfrage und verwenden dafür die 500-hPa-Fläche für die mittelfristige Vorhersage sowie den Ensemble-Spread für jahreszeitliche Klimasimulationen“.

„Die Abhängigkeit (von Hardware & Software), also die Standardabweichung der 500-hPa-Geopotentialfläche (Gebiete mit hohem und tiefem Druck) gemittelt über den Globus nimmt mit der Zeit zu“.

Die Autoren kommen zu dem Ergebnis:

„Der Ensemble-Spread infolge der Unterschiede in den Software-Systemen ist vergleichbar mit dem Ensemble-Spread infolge von Unterschieden der Anfangsbedingungen, die für die traditionelle Vorhersage von Ensembles verwendet werden“.

Schon viele Studien haben gezeigt, dass kleine Änderungen der Anfangsbedingungen von Klimamodellen signifikant unterschiedliche Projektionen des Klimas erzeugen.

Man fragt sich, ob einige der katastrophalen Zukunfts-Projektionen vielleicht nur aufgrund eines Rundungsfehlers simuliert werden.

Die Software/Hardware-Tests haben sie folgendermaßen durchgeführt:

Tabelle 1 zeigt die 20 Computersysteme einschließlich Fortran-Compiler, Parallel-communication libraries und optimierte Levels des Compilers. Der Linux-Cluster der Yonsei University (YSU) ist mit 12 Intel Xeon CPUs pro Node ausgestattet (Modellname: X5650) und unterstützt die PGI und Intel Fortran Compiler. Das Korea Institute of Science and Technology Information (KISTI, http://www.kisti.re.kr) verfügt über eine Computer-Ausrüstung mit High Performance IBM  und SUN-Platttformen. Jede Plattform ist ausgerüstet mit verschiedenen CPUs: Intel Xeon X5570 for KISTI-SUN2 platform, Power5+ processor of Power 595 server for KISTI-IBM1 platform, and Power6 dual-core processor of p5 595 server for KISTI-IBM2 platform. Jede Maschine hat eine unterschiedliche Architektur und etwa fünfhundert bis zwanzigtausend CPUs.*

[*Ich verstehe hier nur Bahnhof. Sorry! A. d. Übers.

Im Original lautet dieser Absatz: Table 1 shows the 20 computing environments including Fortran compilers, parallel communication libraries, and optimization levels of the compilers. The Yonsei University (YSU) Linux cluster is equipped with 12 Intel Xeon CPUs (model name: X5650) per node and supports the PGI and Intel Fortran compilers. The Korea Institute of Science and Technology Information (KISTI; http://www.kisti.re.kr) provides a computing environment with high-performance IBM and SUN platforms. Each platform is equipped with different CPU: Intel Xeon X5570 for KISTI-SUN2 platform, Power5+ processor of Power 595 server for KISTI-IBM1 platform, and Power6 dual-core processor of p5 595 server for KISTI-IBM2 platform. Each machine has a different architecture and approximately five hundred to twenty thousand CPUs.]

Und hier sind die Ergebnisse:

Tabelle 2: Global gemittelte Standardabweichung der 500 hPa-Fläche aus dem 10-Mitglieder-Ensemble mit unterschiedlichen Anfangsbedingungen in einem gegebenen Software-System 383 (d. h. Ensemble der Anfangsbedingungen) und der korrespondierenden Standardabweichung des 10-Mitglieder-Ensembles mit unterschiedlichen Software-Systemen für einen gegebenen Anfangszustand (d. h. Ensemble der Software-Systeme).

Einigen mögen diese Unterschiede gering vorkommen, aber man sollte im Auge behalten, dass diese Standardabweichungen nur für Modellierungen von 10 Tagen im Voraus durch globale Wettervorhersage-Systeme gelten, und nicht für Jahrzehnte durch Klimamodelle.*

*Siehe hierzu den Anhang der EIKE-Redaktion unten!

Eindeutig wird hier eine Evaluierung dieses Effektes gebraucht, wenn es um viele der GCMs geht, die verwendet werden, um das zukünftige Klima zu projizieren. Beeinflusst dieser Effekt die Modelle, und wenn ja, wie viel von deren Output ist real, und wie viel des Outputs beruht lediglich auf akkumulierten Rundungsfehlern?

Die Studie:

An Evaluation of the Software System Dependency of a Global Atmospheric Model

Song-You Hong, Myung-Seo Koo,Jihyeon Jang, Jung-Eun Esther Kim, Hoon Park, Min-Su Joh, Ji-Hoon Kang, and Tae-Jin Oh Monthly Weather Review 2013 ; e-Viewdoi: http://dx.doi.org/10.1175/MWR-D-12-00352.1

Abstract

Diese Studie präsentiert die Abhängigkeit von Simulationsergebnissen eines globalen numerischen Modells, das auf Rechnern mit unterschiedlichen Hardware- und Software-Systemen gerechnet wird. Das Global Model Program (GMP) des Global/Regional Integrated Model Systems (GRIMs) wird auf 10 verschiedenen Computersystemen getestet mit unterschiedlichen Prozessor-Einheiten (CPU) oder Compilern. Es gibt Unterschiede in den Ergebnissen verschiedener Compiler, parallel libraries und Optimierungs-Niveaus, hauptsächlich durch die Behandlung von Rundungsfehlern durch die verschiedenen Software-Systeme. Die Abhängigkeit des Systems, also die Standardabweichung der 500 hPa-Fläche gemittelt über den Globus nimmt mit der Zeit zu. Allerdings verharrt die fractional Tendency [?], also die Änderung der Standardabweichung relativ zum Wert selbst, mit der Zeit bei nahe Null. Im Rahmen einer jahreszeitlichen Vorhersage ist der Ensemble-Spread aufgrund der Unterschiede in den Software-Systemen vergleichbar mit dem Ensemble-Spread aufgrund unterschiedlicher Anfangsbedingungen, die für die traditionelle Vorhersagen von Ensembles verwendet werden.

h/t to The Hockey Schtick

Link: http://wattsupwiththat.com/2013/07/27/another-uncertainty-for-climate-models-different-results-on-different-computers-using-the-same-code/

Übersetzt von Chris Frey EIKE

Anhang: Die in diesem Artikel angesprochene Problematik globaler Wettervorhersage-Systeme kann jeder täglich selbst nachvollziehen (und zwar hier: http://www.wetterzentrale.de/topkarten/fsenseur.html). Beispielhaft seien hier die folgenden drei Abbildungen gezeigt:

Dipl.-Met. Hans-Dieter Schmidt, EIKE-Redaktion




American Tradition Institute (ATI) verklagt Universität auf die Veröffentlichung von Dokumenten zum „Hockeyschläger“

Bei diesen Aufzeichnungen handelt es sich um E-Mails in Zusammenhang mit dem berüchtigten „Hockeyschläger“ und die Institution, die diesen berühmt gemacht hatte, das IPCC. Das IPCC macht derzeit Schlagzeilen mit der jüngsten einer Serie von Proklamationen bzgl. der drohenden Klimakatastrophe und einer inzwischen schon rituellen Proklamation von sogar noch größerer Gewissheit, dass ökonomische Aktivitäten die Ursache dafür sind.

„Die Öffentlichkeit merkt immer starker, dass sie die Bemühungen finanziert hat, eine allgemein schädliche und sinnfreie* Energie-Angst-Agenda einzuführen, und zwar durch Aktivisten in der Regierungs-Bürokratie sowie grünen Interessengruppen, die sie lieben, bis hin zu Aktivisten, die sich in staatlichen Universitäten verbergen“, sagt Chris Horner, führendes Mitglied in der ATI, FMELC-Anwalt und Autor von The Liberal War On Transparency sowie der Initiator der Aktion. „Wir trachten weiterhin danach, Kopien der Aufzeichnungen einzusehen, für die die Öffentlichkeit bezahlt hat, und danach, der oft versprochenen, aber kaum einmal eingetretenen freiwilligen Transparenz der Regierung zum Durchbruch zu verhelfen. Zu oft schon haben öffentliche Einrichtungen uns aufgefordert, uns in langwierigen Kämpfen im Rahmen von Gesetzen zur Offenlegung von Aktivitäten zu engagieren. Die Öffentlichkeit muss zumindest eine Ahnung hinsichtlich des gewaltigen Apparates bekommen, den sie gefördert haben“, fügte er hinzu.

[*unübersetzbares Wortspiel: …all-pain, no-gain…]

ATI verlangte nach diesen Aufzeichnungen im Dezember 2011 [1]. Nachdem die Universität den Widerstand der betroffenen Professoren eingeräumt hatte – wie ATI vor Gericht aussagte, wurde beiden widerrechtlich erlaubt zu entscheiden, welche E-Mails sich darauf beziehen und welche zu erzeugen sie der Universität gestatten würden – bereitete U of A hunderte damit zusammenhängender E-Mails auf.

Unter den Unterlagen der U of A befand sich auch zum ersten Mal jemals eine 213 Seiten starke Roadmap mit vielen hundert E-Mails bzgl. des „Hockeyschlägers“ sowie des IPCC, bei denen die Akademiker darauf bestanden hatten, dass sie nicht veröffentlicht werden konnten. Unglücklicherweise waren die Indizes auch aus freien Stücken und nicht charakteristisch sehr sparsam mit Details, obwohl sie die Korrespondenz zwischen den Hockeyschläger- und den IPCC-Autoren offenlegen (Sie identifizieren z. B. auch E-Mails zwischen den Professoren und dem IPCC hinsichtlich der Koordinierung der Arbeit von Jonathan Overpeck an der Universität für die Umweltaktivistengruppe Union of Concerned Scientists sowie E-Mails von und an Phil Jones von der University of East Anglia, dem Ausgangspunkt von Klimagate).

Das ATI hat Anklage nach dem Public Records Law in Arizona erhoben, nachdem die Universität die Forderung des ATI abgelehnt hat, ausreichende Details dieser Indizes über zurück gehaltene Aufzeichnungen zur Verfügung zu stellen oder die darauf eingehenden Aufzeichnungen zu erzeugen. Das Goldwater Institute fungiert als der lokale Berater des ATI. Die Klage des ATI erklärt, wie in diese E-Mails, erstellt und versandt auf Kosten der Steuerzahler, zwei Akademiker involviert sind mit:

…einer Historie der Verwendung (öffentlicher) Ressourcen der Universität – einschließlich des Sendens und Empfangens von E-Mails, die für diesen Fall von Belang sind – für die arbeitsbezogene Teilnahme in damit zusammen hängenden Organisationen einschließlich des IPCC, welches Gegen­stand vieler, im Rahmen von Klimagate bekannt gewordener höchst kontroverser E-Mails war, versandt und empfangen auf öffentlich bezahlten Computern.

Durch das Bekanntwerden dieser E-Mails und Veröffentlichungen im Rahmen vieler Gesetze zur Informationsfreiheit [freedom of information laws] hat die Öffentlichkeit von verstörenden Praktiken durch ein Netzwerk öffentlich geförderter Akademiker erfahren. Unter diesen Praktiken waren eine fragwürdige Verwendung von Statistiken, organisierte Bemühungen, Gesetze zur Transparenz in den USA und UK zu unterlaufen, Kampagnen zur Verhinderung der Veröffentlichung abweichender Arbeiten, Rekrutierungen von Journalisten, die sich auf die Gegner einschießen sollten und Rache an Wissenschaftlern und Herausgebern von Zeitschriften, die abweichende Arbeiten bekannt gemacht haben.

Als Teil des Transparenz-Projektes vom ATI hat es nach Informationen verlangt und diese auch erhalten. Dabei geht es um Informationen von öffentlich geförderten Agenturen und Universitäten, die in Beziehung stehen zu der wichtigen öffentlichen politischen Frage einer vermeintlich katastrophalen, vom Menschen verursachten globalen Erwärmung und damit zusammen hängenden politischen Forderungen.

Das ATI ist auch in einen Rechtsstreit involviert, bei dem es um Aufzeichnungen der University of Virginia zu dieser Frage geht. Außerdem hat ATI zahlreiche Anfragen an verschiedene Agenturen und Universitäten gestellt, denen man aber nur teilweise nachgekommen ist. Das ATI hat dem obersten Gerichtshof von Virginia erklärt, warum das Gericht die UVA-Anfrage in Betracht ziehen sollte.

Das American Tradition Institute (ATI) ist eine öffentliche Einrichtung für politische Forschung und die Durchsetzung öffentlicher Interessen. Es befürwortet die Wiedereinsetzung der Prinzipien der Wissenschaft und des freien Marktes, verantwortungsbewussten Landverbrauch, das Management natürlicher Ressourcen, Energie, Eigentumsrechte und Prinzipien der Verwaltungsarbeit. Die Organisation bezieht aus seiner Transparenz-Initiative öffentliche Informationen im Rahmen von Informationsfreiheits-Gesetzen in Verbindung mit Umwelt- und Energiepolitik und darüber, wie politische Entscheidungsträger mit diesen öffentlichen Ressourcen umgehen.

________________________________

[1] Die University of Arizona (U of A) erkennt an, dass „die University of Arizona im Rahmen öffentlicher Gesetze arbeitet. Ziel dieser Gesetze ist es, der allgemeinen Öffentlichkeit, deren Steuergelder die Universität stützen, Einsicht in die Art und Weise unserer Arbeit bekommen. Auf Anfrage müssen die Untersuchung oder Kopien der meisten Aufzeichnungen zur Verfügung gestellt werden, mit Ausnahme von zwei Kategorien, die nicht öffentlich sind“. http://tinyurl.com/nod76no, S. 5. (Bei diesen beiden Kategorien handelt es sich um Angaben zu Studenten und Personal, die nicht in die ATI-Anfrage involviert sind).

Auf der gleichen Website informiert die U of A neue Mitarbeiter unter der „Arizona Public Service Orientation“. „Innerhalb Ihrer ersten 30 Tage der Mitarbeit lesen Sie bitte die Information in dieser Orientierungshilfe. Am Ende drucken Sie die Checkliste und verifizieren Sie, dass Sie den Abschnitt vollständig bearbeitet haben, und senden Sie es an die für Ihren Arbeitsbereich zuständige Abteilung!“ http://tinyurl.com/p8zsavw, p. 4.

Link: http://wattsupwiththat.com/2013/09/09/ati-files-suit-to-compel-the-university-of-arizona-to-produce-records-related-to-so-called-hockey-stick-global-warming-research/

Übersetzt von Chris Frey EIKE




Nach über 20 jähriger Forschung: IPCC kann Stillstand der globalen Erwärmung nicht erklären

Bild rechts: © Spiegel Online

Das IPCC beschlossen, den seit 1997 anhaltenden Stillstand als irrelevant einzustufen. Außerdem hat es die ursprünglich eingeräumte Aussage (in der Version vom 7. Juni) aus der Endfassung entfernt, wonach die Modelle es nicht vermocht haben, ‚die beobachtete Reduktion des Erwärmungstrends während der letzten 10 bis 15 Jahre zu reproduzieren’.

Nicht nur, dass das IPCC den anhaltenden Temperatur-Stillstand nicht vorhergesagt hat, sondern auch, dass seine Klimamodelle tatsächlich eine beschleunigte Erwärmung simuliert hatten infolge der zunehmenden CO2-Emissionen.

Anstatt empirische Fakten und wachsende Unsicherheiten einzuräumen, versucht das IPCC, die Aufmerksamkeit von diesen Dingen abzulenken, indem es von einer zunehmenden Sicherheit bzgl. der Verlässlichkeit der Klimamodelle und ihrer Ergebnisse spricht.

„Heute hat das IPCC ein gewaltiges Lotteriespiel begonnen, das schon bald darüber bestimmen wird, ob es immer noch zielführend ist. Sollten die Temperaturen auch während der nächsten Jahre nicht wieder zu steigen anfangen, wird das IPCC sehr wahrscheinlich existenziell an Glaubwürdigkeit einbüßen“, sagte Benny Peiser, Direktor der GWPF.

Link: http://wattsupwiththat.com/2013/09/27/ipcc-fails-to-come-clean-over-global-temperature-standstill/

Übersetzt von Chris Frey EIKE




Svensmark-Theorie offenbar bestätigt

Einer  Presseerklärung der Technical University of Denmark (TUD) zufolge sieht es so aus, als gäbe es eine signifikante Bestätigung der Theorie von Svensmark hinsichtlich Temperaturmodulationen auf der Erde durch Wechselwirkungen mit kosmischen Strahlen. Der Prozess: Wenn es mehr kosmische Strahlung gibt, bilden sich mehr mikroskopische Wolken-Kondensationskerne, die wiederum zu verstärkter Wolkenbildung führen, so dass mehr Sonnenlicht zurück in das Weltall reflektiert wird und die Erde kühler wirdn, als sie sonst wäre. Anders herum, weniger kosmische Strahlung hat geringere Bewölkung und einen wärmeren Planeten zur Folge, wie hier gezeigt. Vom Magnetfeld der Sonne nimmt man an, dass es kosmische Strahlung reflektiert, wenn der solare Dynamo aktiver ist, und gerade das letzte solare Maximum war so stark wie seit 8000 Jahren nicht mehr. Damit wurden mehr kosmische Strahlen abgewehrt, was zu wärmeren Temperaturen führte. Inzwischen ist die Sonne in ein Rekord-Minimum eingetreten, und es gibt Vorhersagen über kühlere Temperaturen in nächster Zeit. Diese neue und wichtige Studie wird veröffentlicht in Physics Letters A.

Dänisches Experiment zeigt unerwartete Zusammenhänge zwischen kosmischen Strahlen und Wolkenbildung

Forscher an der Technical University of Denmark (TUD) sind einem zuvor unbekannten molekularen Prozess auf der Spur, der dabei hilft, ganz gewöhnliche Wolken zu bilden. Tests in einer großen und reich instrumentierten Kammer in Lyngby, SKY2 genannt, zeigen, dass eine bestehende chemische Theorie in die Irre führt.

Bereits im Jahre 1996 haben dänische Physiker gezeigt, dass kosmische Strahlen, hoch energetische Teilchen aus dem Weltraum, eine wichtige Rolle bei der Wolkenbildung spielen. Seitdem haben Experimente in Kopenhagen und anderswo gezeigt, dass kosmische Strahlen tatsächlich dabei helfen, kleine Molekül-Cluster zu bilden. Aber die Hypothese hinsichtlich kosmischer Strahlen und Wolken schien in eine Sackgasse zu laufen, als numerische Simulationen der zuvor bestehenden chemischen Theorie auf fehlendes Wachstum dieser Cluster hindeuteten.

Glücklicherweise konnte auch die chemische Theorie experimentell getestet werden, ebenfalls in SKY2, einer Kammer, die mit 8 Kubikmetern Luft und Spuren anderer Gase angefüllt ist. Eine Reihe von Experimenten bestätigte die nicht stützende Vorhersage, dass die neuen Cluster nämlich nicht so stark anwachsen, dass sie auf die Wolkenbildung Einfluss nehmen könnten. Aber bei einer anderen Reihe von Experimenten mit ionisierten Strahlen zeigte sich ein völlig anderes Ergebnis, wie die beiden begleitenden Graphiken zeigen.

Die Reaktionen in der Luft über unseren Köpfen involvieren zumeist ganz normale Moleküle. Tagsüber sorgt die ultraviolette Strahlung der Sonne dafür, dass Schwefeldioxid mit Ozon und Wasserdampf reagiert und sich Schwefelsäure bildet. Die interessierenden Cluster zur Wolkenbildung enthalten hauptsächlich Schwefelsäure- und Wassermoleküle, die sich in sehr großer Zahl zusammen klumpen und mit Hilfe anderer Moleküle weiter wachsen.

Bei der Simulation von Vorgängen in der Atmosphäre zeigt das Experiment in SKY2 der TUD molekulare Cluster (rote Punkte), die nicht genug anwachsen, um eine signifikante Zahl von „Wolken-Kondensationskernen“ (CCN) zu bilden mit einem Durchmesser über 50 Nanometer. Das nehmen die bestehenden Theorien an. Aber wenn die Luft in der Kammer ionisierten Strahlen ausgesetzt ist, die die Auswirkung kosmischer Strahlen simulieren, wachsen die Cluster (blaue Punkte) viel schneller auf eine ausreichende Größe, um Wassertröpfchen zu bilden und Wolken zu erzeugen (ein Nanometer ist ein Millionstel eines Millimeters).

Atmosphären-Chemiker haben vermutet, dass wenn die Cluster die Ausbeute des Tages gesammelt haben sie ihr Wachstum einstellen und nur ein kleiner Teil groß genug werden kann, um meteorologisch relevant zu sein. Das SKY2-Experiment zeigte nun aber, dass keine solche Unterbrechung des Wachstums stattfindet, wenn natürliche kosmische Strahlen und Gammastrahlen die Luft in der Kammer ionisiert halten. Dieses Ergebnis zeigt, dass ein anderer chemischer Prozess für die Bildung der zusätzlichen Moleküle sorgt, die zum Anwachsen der Cluster erforderlich sind.

„Das Ergebnis stützt und fördert unsere Theorie, dass nämlich kosmische Strahlen aus der Galaxie direkt in das Wetter- und Klimageschehen auf der Erde eingreifen“, sagt Henrik Svensmark, Leitautor des neuen Berichtes. „In viele Jahre langen Experimenten haben wir gezeigt, dass ionisierte Strahlen dabei helfen, kleine molekulare Cluster zu bilden. Kritiker haben argumentiert, dass die Cluster nicht groß genug werden können, um die Wolkenbildung signifikant zu beeinflussen. Aber unsere gegenwärtige Forschung, bei der die SKY23-Experimente nur einen kleinen teil ausmachen, widerspricht dieser konventionellen Sichtweise. Jetzt wollen wir noch näher die Details der unerwarteten Chemie in der Luft untersuchen, am Ende der langen Reise, die die kosmische Strahlung von explodierenden Sternen bis hierher hinter sich hat“.

Die neue Studie: Response of cloud condensation nuclei (>50 nm) to changes in ion-nucleation”

H. Svensmark, Martin B. Enghoff, Jens Olaf Pepke Pedersen, Physics Letters A 377 (2013) 2343–2347.

In Experimenten, in denen ultraviolettes Licht Aerosole aus Spurenanteilen von Ozon, Schwefeldioxid und Wasserdampf erzeugt, ist die relative Zunahme von Aerosolen durch Ionisierung mittels Gamma-Quellen konstant von der Kernbildung bis zu einem Durchmesser über 50 nm, was für die Bildung von Wolken ausreichend ist. Dieses Ergebnis widerspricht sowohl ionenfreien Kontrollexperimenten und auch theoretischen Modellen, die als Folge eine Abnahme größerer Partikel vorhersagen. Dieses unerwartete experimentelle Ergebnis zeigt einen Prozess, der nicht in den gegenwärtigen theoretischen Modellen enthalten ist, möglicherweise eine durch Ionen verursachte Bildung von Schwefelsäure in kleinen Clustern.

In der Presseerklärung wird dieser Link genannt: https://dl.dropboxusercontent.com/u/51188502/PLA22068.pdf (open access PDF)

LOCAL COPY: (for those having trouble with link above):  Svensmark_PLA22068 (PDF)

Link: http://wattsupwiththat.com/2013/09/04/svensmarks-cosmic-ray-theory-of-clouds-and-global-warming-looks-to-be-confirmed/

Übersetzt von Chris Frey EIKE




Cooks ‚97 Prozent’ widerlegt durch eine neue begutachtete Studie, …

In einem Tweet im Namen von Präsident Obama war unterstellt worden, dass die frühere betrügerische Studie von Cook und anderen eine Bestätigung von 97% für die Gefährlichkeit des Klimawandels gefunden habe:

„97% Prozent der Wissenschaftler stimmen zu: die Klimaänderung ist real, vom Menschen verursacht und gefährlich“ (Hervorhebung hinzugefügt)

Die neue Studie durch den führenden Klimatologen Dr. David Legates und seine Kollegen wurde in dem angesehenen Journal Science and Education veröffentlicht und enthüllt, dass Cook nicht in Betracht gezogen hat, ob die Wissenschaftler in ihren veröffentlichten Studien gesagt haben, die Klimaänderung sei „gefährlich“.

Der von Cook angeführte Konsens bestand aus der Standard-Definition: dass der Mensch das meiste der Erwärmung nach 1950 verursacht hat. Selbst unter dieser schwächeren Definition unter den veröffentlichten wissenschaftlichen Studien betrug der Konsens nicht 97,1%, wie Cook behauptet hat, sondern nur 0,3%.

Nur in 41 der 11944 veröffentlichten Klimastudien, die Cook explizit untersucht hat, wurde behauptet, dass der Mensch den größten Teil der Erwärmung seit 1950 verursacht hat. Cook selbst hat 64 Studien angeführt, die diesen Konsens explizit stützen, obwohl 23 dieser 64 Studien das gerade nicht getan hatten.

Dieses Schock-Ergebnis kommt knapp vor der Herausgabe des 5. IPCC-Zustandsberichtes, in dem ein „Vertrauen von 95%“ in den vorgestellten Konsens behauptet wird. Der neuen Studie zufolge ist dies imaginär.*

[*Der Absatz enthält ein unübersetzbares Wortspiel und folgt daher hier im Original: This shock result comes scant weeks before the United Nations’ climate panel, the IPCC, issues its fifth five-yearly climate assessment, claiming “95% confidence” in the imagined – and, as the new paper shows, imaginary – consensus.]

Die neue Studie mit dem [etwas sperrigen] Titel ‚Climate Consensus and ‘Misinformation’: a Rejoinder to ‘Agnotology, Scientific Consensus, and the Teaching and Learning of Climate Change’ weist entschieden Ergebnisse von Cook und anderen zurück, dass diejenigen, die sagen, dass nur wenige Wissenschaftler explizit den fast einstimmigen Klimakonsens stützen, die Öffentlichkeit falsch informieren und in die Irre führen.

Dr. Legates: „Es ist erstaunlich, dass irgendein Journal eine Studie veröffentlichen konnte, in der ein Konsens von 97% behauptet wird, wenn der eigenen Analyse des Autors zufolge der wirkliche Konsens weniger als 1% betragen hat. Es ist noch erstaunlicher, dass das IPCC eine Sicherheit von 95% hinsichtlich des Klimakonsens’ behaupten kann, wenn nur ein so kleiner Teil der veröffentlichten Studien diesen Konsens, wie ihn das IPCC definiert, untermauert“.

Dr. Willie Soon, ein angesehener Solarphysiker, zitierte den Wissenschaftsautor Michael Crichton mit den Worten: „Wenn es Wissenschaft ist, gibt es keinen Konsens. Wenn es Konsens ist, ist es keine Wissenschaft“. Soon fügte hinzu: „Seit nunmehr fast 17 Jahren gab es keine globale Erwärmung mehr. Keines der ‚Konsens’-Computermodelle hat das vorhergesagt“.

Dr. William Briggs, „Statistician to the Stars” [?], sagte: „in jeder Erhebung nach Art von Cook ist es ganz wichtig, die Fragen sehr klar zu formulieren. Und doch hat Cook drei separate Definitionen des Klimakonsens’ wirr durcheinander verwendet. Auch schloss er 8000 der 12000 betrachteten Studien willkürlich aus, und zwar mit der inakzeptablen Begründung, dass sie hinsichtlich des Klimakonsens’ keine Meinung äußern. Diese Kunstgriffe ließen ihn zu der ungerechtfertigten Schlussfolgerung kommen, dass es einen Konsens von 97,1% gegeben hat, obwohl das gar nicht stimmt.

Tatsächlich bietet Cooks Studie den klarsten verfügbaren statistischen Beweis, dass es kaum irgendeine explizite Unterstützung unter den Wissenschaftlern für den Konsens gibt, den das IPCC, Politiker, Bürokraten, Akademiker und die Medien so lange und so falsch proklamiert haben. Das war nicht das Ergebnis, das sich Cook erhofft hatte, und es entsprach nicht dem Ergebnis, dass er in seiner Studie behauptet hat, aber es entsprach dem Ergebnis, das er wirklich herausbekommen hatte“.

Christopher Monckton of Brenchley, Experten-Begutachter für den 5. Zustandsbericht, der die Fehler in Cooks Daten entdeckt hatte, sagte: „Es kann sein, dass mehr als 0,3% der Wissenschaftler glauben, dass der Mensch für mindestens die Hälfte der Erwärmung seit 1950 verantwortlich ist. Aber nur in 0,3% der 12000 Studien kommt das auch explizit zum Ausdruck. Cook hat nicht berücksichtigt, wie viele Studien das auch nur implizieren. Zweifellos halten viele Wissenschaftler das für möglich, so wie wir es tun, dass der Mensch für etwas, aber nicht den größten Teil der Erwärmung verantwortlich ist.

Es ist unwissenschaftlich anzunehmen, dass die meisten Wissenschaftler das glauben, was sie weder gesagt noch geschrieben haben“.

###

Die Studie: Climate Consensus and ‘Misinformation’: A Rejoinder to Agnotology, Scientific Consensus, and the Teaching and Learning of Climate Change

David R. Legates, Willie Soon, William M. Briggs, Christopher Monckton of Brenchley

http://link.springer.com/article/10.1007/s11191-013-9647-9

Abstract

Nichtwahrnehmung [Agnotology] ist das Studium des Aufkommens von Ignoranz mittels der Verbreitung von Fehlinformation, die darauf abzielen, in die Irre zu führen. Legates et al. (Sci Educ 22:2007–2017, 2013) haben die Anwendbarkeit von Agnotology in politisch gefärbten Diskussionen in Frage gestellt. In ihrer Antwort haben Bedford und Cook (Sci Educ 22:2019–2030, 2013) danach getrachtet, Agnotology in der Klimawissenschaft anzuwenden, indem sie versichern, dass Interessen fossiler Treibstoffe Zweifel geweckt haben hinsichtlich eines Klimakonsens’. Ihre Definition von Klima-‚Fehlinformation’ war vielleicht angebracht für die postmodernen Hypothesen, dass wissenschaftliche Wahrheit mit der Messung eines Konsens’ unter den Experten feststellbar ist und dass ein fast einstimmiger Konsens existiert. Allerdings hat die Untersuchung einer Behauptung von Cook et al. (Environ Res Lett 8:024024, 2013) über einen Konsens von 97,1%, die sich stark auf Bedford und Cook stützt, nur eine Unterstützung von 0,3% für die Standarddefinition eines Konsens’ergeben: dass nämlich die meiste Erwärmung seit 1950 anthropogener Natur ist.

Agnotology ist also ein zweischneidiges Schwert, da jede Seite in der Diskussion behaupten kann, dass generelle Ignoranz aus Fehlinformationen stammt, die vermeintlich von der anderen Seite lanciert worden waren. Wichtige Fragen über anthropogene Einflüsse bleiben aber bestehen. Daher haben Legates et al. in geeigneter Weise vermutet, dass parteiische Präsentationen von Kontroversen die Diskussion abwürgen und in der Bildung keinen Platz haben.

================================================================

Aktualisierung: Studie von Cook und Nuccitelli abgelehnt:

Bishop Hill schreibt:

Die Benestad-Studie (Cook, Nuccitelli) über „Agnotology“, eine bizarre Erfindung, die zum Ziel hat, praktisch jede jemals geschriebene skeptische Studie zu widerlegen, ist von Earth System Dynamics (ESD) abgelehnt  worden:

„Basierend auf Begutachtungen und meiner eigenen Lesart der Original- und der überarbeiteten Studie lehne ich die Studie in ihrer jetzigen Form ab. Die Einreichung ist löblich hinsichtlich der Ziele und der Verfügbarkeit des R source code [?], aber davon abgesehen gibt es kaum etwas, das als wissenschaftlicher Beitrag bei ESD fungieren könnte. Während ich glaube, das eine ESD-Veröffentlichung zumindest eine Diskussion der R-Routines [?] hätte auslösen und die Aufmerksamkeit vieler interessierter Gemeinden hätte gewinnen können, ist das Manuskript selbst unpassend für dieses Journal und bräuchte wesentliche weitere Überarbeitungen, bevor es für dieses Journal in Betracht kommt (wenn überhaupt).

Link: http://wattsupwiththat.com/2013/09/03/cooks-97-consensus-disproven-by-a-new-paper-showing-major-math-errors/

Erster Kommentar unter dem Original: Die Aussage ‚wenn es Konsens ist, ist es keine Wissenschaft’ sagt alles!

Übersetzt von Chris Frey EIKE




Australien: Endlich befreit aus dem langen nationalen grünen Alptraum

[*Unübersetzbares Wortspiel: Krudd steht für Kevin Rudd, den bisherigen Premier. Es soll eine Assoziation mit dem englischen Wort mud hergestellt werden, das „Schlamm“ bedeutet. A. d. Übers.]

Tony Abbott hat die Wahlen in Australien mit einem Erdrutsch gewonnen und die Abschaffung der Kohlenstoff-Steuer als oberste und erste Priorität genannt. Abbot hat erklärt, dass Australien „jetzt wieder offen ist für die Wirtschaft“ und seinen Wahlsieg vom Sonnabend festgestellt.

Es ist ein vernichtender Schlag gegen die Labour-Party von Rudd-Gillard und ihrer grünen Ziele, die auf einer den Australiern aufgezwungenen Lüge aufbauen. Noch im Jahr 2010 hat Gillard in einer mit Video aufgezeichneten Rede gesagt „keine Kohlenstoff-Steuer“. Dies war allgemein der Punkt, als Australien seine Vertrauenswürdigkeit verloren hatte.

Das Video (15 Sekunden): https://www.youtube.com/watch?feature=player_embedded&v=KMVc0IbtyAQ

Danach, kaum dass sie zur Premierministerin gewählt worden war, agierte sie so, als ob sie diese Worte niemals gesagt hätte und führte in jedem Falle eine Kohlenstoffsteuer ein. Es gibt nichts Schlimmeres als eine Lügnerin, die gegenüber ihren eigenen Lügen so vergesslich ist, und meiner Ansicht nach war das der Katalysator, der das Ende des grünen Traums von Labour eingeläutet hat ebenso wie das Ende ihrer Dominanz in der Regierung.

Abbott sagt, dass er die Kohlenstoff-Steuer annullieren werde. In einem Artikel in der Herald Sun vom 5. August hieß es:

Im Falle seiner Wahl werde er am ersten Tag die CEFC (Clean Energy Finance Corporation) suspendieren und ein Gesetz auf den Weg bringen, diese permanent zu schließen. Außerdem werde er innerhalb von zwei Wochen einen Gesetzentwurf einbringen mit dem Ziel, die Kohlenstoff-Steuer abzuschaffen sowie alle Klimaagenturen, die mit den Labour-Gesetzen zu sauberer Energie zusammenhängen.

Heute schreibt die Herald Sun:

„Heute haben die Australier erklärt, dass das Recht, dieses Land zu regieren, nicht Mr. Rudd gehört oder mir oder seiner Partei oder meiner Partei, sondern es gehört Ihnen, dem Volk von Australien“, sagte Abbott. „Und Sie werden jeden bestrafen, der etwas anderes für sich in Anspruch nimmt!“

Andrew Bolt schrieb in seinem Blog: „Endlich, ein Mann, der es wert ist, das Büro des Premierministers zu beziehen – und bescheiden genug, um Hoffnung zu wecken“.

Ich gratuliere meinen Freunden in Australien, der Krudd ist kaput [das steht wirklich so im Original!] und die Kohlenstoff-Steuer verschwindet, ebenso wie fast mit Sicherheit auch Flim Flam Flannery. Was für ein großartiger Tag!

Cook, Ove und Sou [australische Wissenschafts-Alarmisten, A. d. Übers.], dieser Krudd ist für euch!

Aber zurück in die USA. Die Washington Post scheint diese laute Botschaft aus Down Under überhört oder vergessen zu haben, wenn sie schreibt (Dank an Steve Milloy):

Das erste, was man tun muss, ist, die Kosten der Verschmutzung auf den Preis für Energie aufzuschlagen, und zwar mittels einer einfachen Kohlenstoff-Steuer oder andere marktbasierte Mechanismen. Obwohl die Steuereinnahmen direkt an die Menschen zurückgehen könnten, würden höhere Verkaufspreise für Energie aus fossilen Treibstoffen immer noch Grund genug liefern, ihr Verhalten zu ändern und nach energieeffizienteren Mitteln zu fragen.

Es ist wieder einmal wie ein déjà vu, weil die australische Kohlenstoff-Steuer auf genau die gleiche Art und Weise eingeführt worden ist, und heute wurde sie von den australischen Wählern rundweg zurückgewiesen. Hoffen wir, dass wir hier in den Staaten nicht die gleiche Verrücktheit erleben müssen!

Aktualisierung: Der Australier Eric Worrall schreibt in einem kurzen Beitrag für WUWT nur wenige Augenblicke nach der Veröffentlichung [des Wahlsiegs]:

Tony Abbott, der die Klimaänderung einst als Mist bezeichnet hat (http://en.wikipedia.org/wiki/Tony_Abbott#Climate_change), hat einen Erdrutschsieg bei den Wahlen in Australien verbucht, einer Wahl, die gekennzeichnet war durch substantiellen Schwung gegen Labour und die Grünen.

Während wir Australier durch Abbotts Kniefall vor dem grünen Dogma enttäuscht waren, dem er durch sein Versprechen, die gehasste Kohlenstoff-Steuer durch eine verwässerte Art der Kohlenstoff-Taxierung zu ersetzen, Ausdruck verliehen hat, leben wir jetzt in der Hoffnung, dass dies lediglich ein Spruch war, um die Grünen in seiner Partei zu besänftigen. Abbott hat uns genügend Anlass für diese Hoffnung gegeben, und zwar mit Statements des Inhalts, dass sein Budget zur Abschwächung des Klimawandels gekürzt wird, egal ob die Förderung ihre gesetzten Ziele erreicht sowie mit einem Versprechen, die Bereitstellungen für das nationale Wissenschafts-Budget zu straffen.“

Abbott hat auch Tim Flannery widersprochen (hier bei Joanne Nova), dem Ober-Schwarzseher der Regierung, der mehr als jeder andere dafür getan hat, Australiens white elephant desalination plants [?] auszuliefern, und zwar mit seiner schrillen Unterstützung von Vorhersagen permanenter Dürre.

Es sind also begeisternde Zeiten für Klimaskeptiker in Down Under – und potentiell eine globale Warnung an Politiker und politische Parteien, die die sich zu stark bei den Grünen anbiedern.

Link: http://wattsupwiththat.com/2013/09/07/australia-liberated-from-their-long-national-green-nightmare/

Übersetzt von Chris Frey EIKE




Schocker: Globale Erwärmung kann einfach Folge von Gesetzen zur Luftreinhaltung sein

Bild rechts: Das Bild stammt von Wild et al. und zeigt die Unterschiede des Strahlungsgleichgewichtes infolge von Aerosolen.

Eine neue Studie (O’Dowd et al.) der National University of Ireland, die diesen Sommer auf der 19th International Conference on Nucleation and Atmospheric Aerosols präsentiert worden war, zeigt, dass in Kraft getretene Gesetze zur Luftreinhaltung in den siebziger und achtziger Jahren zu einer Zunahme des Sonnenlichtes geführt haben, das die Erdoberfläche erreicht, was wiederum zu einer Temperaturzunahme geführt hat. Mit einem Schlag kann dies erklären, warum die Temperaturen in den siebziger Jahren leicht gefallen waren mit der Folge der Angst vor einer neuen Eiszeit. Dem folgten die Sorgen bzgl. einer globalen Erwärmung, nachdem die Luft aufgrund entsprechender Gesetze sauberer geworden war und das auch gründlich kontrolliert worden ist.

Bei WUWT war das auch schon einmal Thema (Wild 2009) hier und Studie hier (PDF 1.4 mb). Darin wurde dieser Effekt angesprochen, jedoch ohne eine nachprüfbare Schlussfolgerung hinsichtlich der Temperatur.

Mit dieser neuen Arbeit von O’Dowd et al. scheint es jetzt ziemlich wahrscheinlich, dass infolge saubererer Luft mehr Sonnenstrahlung die Erdoberfläche erreicht. Diese Zunahme der Strahlung bedingt eine Zunahme der Temperatur.

Wild 2012 war eine Folgestudie, aus der die Abbildung oben rechts stammt.

Martin Wild, 2012, Institute for Atmospheric and Climate Science, Zurich, Switzerland. Veröffentlicht in: Enlightening Global Dimming and Brightening
http://journals.ametsoc.org/doi/pdf/10.1175/BAMS-D-11-00074.1 (open PDF)

Mit den Ergebnissen von O’Dowd et al. scheint diese „globale Aufhellung“ als Klimatreiber viel plausibler zu sein.

Die Autoren schreiben in der neuen Studie von O’Dowd:

Diese Studie hat zum ersten Mal mit Hilfe von in-situ-PM-Messungen gezeigt, dass eine zurück gehende Verschmutzung durch Aerosole das Phänomen der Strahlungs-Aufhellung treibt und dass die Trends der Aerosol-Verschmutzung, vor allem für Sulfate, direkt mit anthropogenen Emissionen zusammenhängen. Ultimativ zeigt die Analyse, dass politische Maßnahmen zur Luftreinhaltung in entwickelten Gebieten wie Europa die Aufhellung der Atmosphäre voran bringen und die die Erde erreichende Strahlungsmenge erhöhen. Die tatsächliche Auswirkung saubererer Luft und vermehrter Strahlung auf die Temperatur muss noch geklärt werden.

Und sie zeigen diese Graphik:

Abbildung: Links: Massenkonzentrationen von Nss-Sulfat PM10, gemessen am Mace Head von 2001 bis 2011. Rechts: An der Oberfläche einfallende Solarstrahlung im Vergleich mit den Nss-Sulfat-Messungen am Mace Head von 2003 bis 2011.

Dies liegt auf der gleichen Linie wie Hatzianastassiou et al., 2012, Features and causes of recent surface solar radiation dimming and brightening patterns [etwa: Gründe jüngster Strahlungseinbußen und –aufhellungen an der Erdoberfläche]:

Die auf der Erdoberfläche ankommende Strahlung ist seit Ende der fünfziger Jahre ausführlich registriert worden. Diese Registrierungen zeigten eine weit verbreitete Abnahme zwischen den fünfziger und den achtziger Jahren („Global Dimming“) und der nachfolgenden Aufhellung. http://adsabs.harvard.edu/abs/2012EGUGA..1413344H

Aus der neuen Studie von O’Dowd:

Sauberere Luft: Aufhellung der Verschmutzungs-Perspektive?

AIP Conf. Proc. 1527, pp. 579-582; doi:http://dx.doi.org/10.1063/1.4803337 (4 pages)

NUCLEATION AND ATMOSPHERIC AEROSOLS: 19th International Conference

Date: 23–28 June 2013Location: Fort Collins, Colorado, USA

Abstract:

Politische Maßnahmen zur Luftreinhaltung in Entwicklungsländern haben zu einem reduzierten Niveau anthropogener Aerosol-Verschmutzung der Atmosphäre geführt. Es wird angenommen, dass Reduktionen der Aerosol-Verschmutzung auch Dunst und Wolkenschichten reduzieren, so dass eine größere Menge Sonnenstrahlung die Erdoberfläche erreicht und damit ultimativ zu einer Temperaturzunahme führt. Es gab schon viele Studien, die die kohärenten Beziehungen zwischen der Solarstrahlung an der Erdoberfläche und der Temperatur illustrieren. Allerdings fehlt bisher ein direkter Zusammenhang zwischen Aerosol-Emissionen, -Konzentrationen und Oberflächenstrahlung. Hier zeigen wir eine Kohärenz zwischen den Trends der reduzierten anthropogenen Aerosol- Emissionen und –Konzentrationen, und zwar im Übergangsbereich zwischen dem Nordostatlantik und Westeuropa. Wir fanden eine erstaunliche Zunahme der Sonnenstrahlung an der Erdoberfläche, und zwar um etwa 20% während des letzten Jahrzehnts.

Dank an Sunshine Hours

Es scheint wie ein möglicher Fall von Occam’s Razor in action – die einfachste Erklärung ist die wahrscheinlichste.

Link: http://wattsupwiththat.com/2013/08/19/shocker-global-warming-may-simply-be-an-artifact-of-clean-air-laws/

Übersetzt von Chris Frey EIKE