1

Neubewertung von bei der Klimamodellierung verwendeten Temperaturrekonstruktionen

Instrumenten-Aufzeichnungen

Die meisten wenn nicht alle Klimamodelle benutzen die Temperaturaufzeichnung aus Zentral-England [Central England Temperature CET], um historische Temperaturen mit Modellergebnissen zu vergleichen (hindcasting). Die CET ist die längste Temperaturaufzeichnung mittels Instrumenten der Welt und reicht zurück bis zum Jahr 1659.

Die Temperaturen im Rahmen von CET wurden an Orten aufgezeichnet, die von Lancashire im Norden über Bristol im Südwesten und London im Südosten von England reichen. Seit 1974 waren die Temperaturwerte angepasst worden, um dem UHI Rechnung zu tragen. Mehr: http://www.metoffice.gov.uk/hadobs/hadcet/ [1]

Als Beispiel einer CET-Meßstation sei hier Ringway in Chesire genannt als eine der nördlich gelegenen Original-Meßstellen. Von dort gibt es Aufzeichnungen der Ringway-Kapelle, die während des Englischen Bürgerkriegs (1642 bis 1651) verwendet worden sind. Im Jahr 1723 war die alte Kapelle durch ein neues Gebäude aus roten Klinkersteinen ersetzt worden. Im Jahr 1894 war sie erneut zerstört und dann als Ringway-Pfarrkirche wieder aufgebaut worden.

Ringway, eine typische ländliche Örtlichkeit, wurde als Ort für einen Flugplatz von Manchester ausgewählt, und die Arbeit begann im Jahr 1935. Das erste Flugzeug landete in Ringway im Jahr 1937 auf einer teilweise fertig gestellten, komplett grasbewachsenen Landebahn. Der erste Hangar wurde ebenfalls im Jahr 1937 fertig gestellt. Bis zum Jahr 1938 waren ein Terminal-Gebäude, ein Kontrollturm und andere Bauwerke eröffnet worden, und die ersten Linienflüge starteten mit 400 Passagieren im ersten Jahr.

Im Jahr 1939 begann der Bau der Luftwaffenbasis Ringway [RAF Ringway] im nordöstlichen Teil des Flugplatzes mit zwei weiteren neuen Hangars an der Südseite und noch zwei weiteren im Nordwesten. Während des Jahres 1941 wurden zwei asphaltierte Rollbahnen (3000 Fuß) [ca. 900 m] gelegt auf einer Achse von 06/24 und 10/28 [?]. Weitere drei riesige Hangars wurden an der Südseite während der Jahre 1942 und 1943 errichtet. Ebenfalls 1943 wurde die Rollbahn 06/24 auf 4200 Fuß [ca. 1300 m] verlängert, und eine weitere, 3300 Fuß [ca. 1006 m] lange Rollbahn wurde gebaut.

Nach dem Krieg, zwischen den Jahren 1946 und 1957 fand Ringway überwiegend wieder eine zivile Verwendung, obwohl die RAF dort weiterhin ein Geschwader stationiert hielt. Während dieser Zeit wuchs der Flugplatz erheblich. Im Jahre 1952 wurde ein 24-Stunden-Betrieb eingeführt mit internationalen und transatlantischen Flügen. Im Jahre 1954 zählte man den millionsten Passagier seit dem Zweiten Weltkrieg. 1962 wurde ein weiteres, 2,7 Millionen Pfund teures Terminal eröffnet, das das erste „Gangway“-System Europas war, und im Jahre 1969 wurde die Rollbahn auf  9006 Fuß [ca. 2700 m] verlängert. Bis zum Jahr 1978 flogen über 100 Fluggesellschaften den Flughafen an, und die Zahl der Beschäftigten wuchs auf über 5000.

Im Jahre 1981 war die Rollbahn nochmals verlängert worden, diesmal auf 10000 Fuß [über 3000 m], um Langstreckenflieger anzulocken, und bis zum Jahr 1987 erreichten die Passagierzahlen 1 Million pro Monat. 1986 wurde ein neues Welt-Frachtterminal eröffnet und 1989 ein neues Inland-Terminal mit extra Parkplätzen. Während der neunziger Jahre wurde Terminal 2 1993 eröffnet, gemeinsam mit einer Bahnstation, die direkte Verbindungen zu vielen Städten im Nordwesten bot. Bis 1995 erreichten die Passagierzahlen 15 Millionen pro Jahr.

Eine neue zweite Rollbahn wurde 2001 fertig gestellt, Erweiterungen der Terminals 1 und 2 2003. 2007 gab es eine wesentliche Renovierung von Terminal 1 und die Einweihung eines neuen Terminals 3. 2008 eröffnete das Concord-Konferenzzentrum.

Parallel zu all diesen Entwicklungen entstanden auch viele Parkplätze, Hotels sowie andere Betriebs- und Nebengebäude.

Abbildung 1: Wachstum des Flughafens Manchester bzgl. Flugbewegungen und Passagierzahlen .

Es gibt eine Reihe von Dingen, die in Abbildung 1 beachtenswert sind: Der Zuwachs der Passagierzahlen war größer als der der Flugbewegungen. Dies bedeutet, dass mehr Menschen mit größeren Flugzeugen geflogen sind oder dass freie Plätze in bestehenden Flugverbindungen besser ausgefüllt werden konnten. Abbildung 2 zeigt, dass die Wachstumsrate auf einer Linie mit dem Wachstum aller anderen Flughäfen in UK liegt.

Abbildung 2: Gesamtzahl der Flugbewegungen in UK seit 1956

Interessant ist der Rückgang des Luftverkehrs nach einer Spitze im Jahr 2005, der in beiden Abbildungen hervor tritt.

Aus der Entwicklung des Flughafens Manchester wird offensichtlich, dass sich die Infrastruktur  erheblich ausgeweitet hat, und zwar praktisch von einem Acker mit einer kleinen Landebahn in den dreißiger Jahren zu einem wichtigen internationalen Flughafen heute. Dies macht den Flughafen Manchester zu einem guten Beispiel für den UHI-Effekt. Allerdings gibt es keine vergleichbare ländliche Örtlichkeit in der Umgebung, um den Unterschied zu messen.

In einer Studie in dem Magazin Weather im Dezember 2009 verglich Dr. Philip D. Jones [2] verschiedene Orte in und um London, um den UHI-Effekt zu bestimmen. In der Studie wurden zwei Stellen im Zentrum von London (St. James Park und London Weather Centre) mit ländlicheren Gegenden verglichen (Rothampstead und Wisley). Vergleiche gab es auch zwischen den Orten Kew und Heathrow; die Stellen Gatwick und Stansted wurden aber ausgeschlossen. Das Argument für den Ausschluss dieser beiden basierte auf dem Umstand, dass sie nicht vom Met. Office, sondern seit 1990 von der Civil Aviation Authority CAA betrieben worden waren und „nur sporadisch Eingang in die Datenbasis des Met. Office“ gefunden hatten. Dass alle CAA-Beobachter vom Met. Office angelernt worden waren und die Daten von beiden Stellen vollständig verfügbar waren, spielte keine Rolle. Ich selbst habe die Daten von Gatwick seit 15 Jahren gesammelt.

In seinen Schlussfolgerungen stellt er fest: „Die UHIs haben zugenommen, und zu einer mit der Verstädterung verbundenen Erwärmung kam es in Heathrow und Kew am Stadtrand von London. In Heathrow ist die mittlere Temperatur um 0,4°C gestiegen, und zwar zwischen dem Beginn der Aufzeichnungen im Jahr 1949 und 1980. Seit 1981 gab es keine weitere Zunahme des UHI. Es wird erwartet, dass sich die UHIs an anderen Orten am Rand von Zentral-London (wie Heathrow und Kew) während des 20. Jahrhunderts ähnlich verhalten haben. Orte innerhalb Zentral-Londons würden keinen mit der Verstädterung verbundenen Erwärmungstrend zeigen (d. h. konstante UHIs) im Vergleich mit ländlichen Orten rund um London“.

Abbildung 3: Wetterstation des Met. Office bei Heathrow (courtesy Google Maps)

Nicht nur, dass die Station des Met. Office bei Heathrow (seit 1949 nicht mehr verlagert) im Norden, Osten und Westen sehr nahe stark befahrener Autobahnen liegt (Northern Perimeter Rd W), sich im Süden geteerte und betonierte Rollbahnen befinden und 500 m entfernt von wichtigen Terminals (T1, T2,T3), sondern auch, dass sich eine der am stärksten frequentierten Rollbahnen (27R/09L) 200 m entfernt befindet. Jüngsten Aufzeichnungen zufolge (2011) benutzen 652 Flugzeuge jeden Tag diese Rollbahn. Die Station befindet sich sehr nahe der Stelle, an der die Flugzeuge ihre Triebwerke zum Start auf maximale Stärke hochfahren oder den Umkehrschub zum Landen einschalten. In beiden Fällen wird sehr viel Wärmeenergie freigesetzt.

Abbildung 4: Luftaufnahme von Heathrow (courtesy Google Maps)

Abbildung 5: Luftaufnahme von Gatwick (courtesy Google Maps)

Vergleicht man die Luftaufnahmen von Heathrow (Abb. 4) mit Gatwick (Abb. 5), wird sofort augenfällig, dass Heathrow viel städtischer ist als Gatwick. Der ländliche Charakter des Letzteren kommt schon durch die Menge der Vegetation (grün) in der Umgebung heraus. Beide Flughäfen liegen auf NN, so dass keine Temperaturanpassung infolge eines Höhenunterschieds erforderlich ist.

Abbildung 6: Vergleich der Maximum-Temperatur zwischen Heathrow und Gatwick in °C.

Abbildung 7: Vergleich der Minimum-Temperatur zwischen Heathrow und Gatwick in °C.

Abbildung 8: Vergleich der Mitteltemperatur zwischen Heathrow und Gatwick in °C.

Während der letzten 11 Jahre war es in Gatwick anhaltend kühler als in Heathrow, wie die Abbildungen 6 bis 8 zeigen.

Tabelle 1: Temperaturdifferenz zwischen Heathrow und Gatwick

In diesen Beispielen ebenso wie in Tabelle 1 wird natürlich eine mehr städtische Stelle in Heathrow mit einer weniger städtischen Stelle in Gatwick verglichen. Aber Gatwick hat sich wie die meisten Flughäfen mit der Zeit in seiner Infrastruktur ausgeweitet und hat jetzt sein eigenes UHI-Niveau. Die UHI-Differenz zwischen Heathrow und Gatwick beträgt 0,8°C. Unter der Annahme, dass Gatwick im Vergleich zu einer gänzlich ländlichen Stelle ebenfalls einen UHI von 0,8°C aufweist, beträgt der potentielle UHI in Heathrow 1,6°C und nicht 0,4°C (mittlerer Wert), wie er in der Schlussfolgerung der Studie von Philip Jones angeführt wird.

Anekdotisch: wenn man mit dem Auto durch große Städte fährt, steigt die Temperatur am Autothermometer unvermeidlich um mindestens 2°C im Vergleich zu ländlichen Gebieten. Und selbst in den Wettervorhersagen in der BBC heißt es in bestimmten Situationen, dass es auf dem Lande „ein paar Grad kühler“ ist.

Eine wirklich ländliche Stelle gibt es natürlich nicht, weil selbst an ländlichen Stellen in der Umgebung der Messeinrichtungen die Vegetation wächst (Bäume, Büsche usw.), was das Temperaturprofil an dieser Stelle beeinflusst.

Viele der Stationen, an denen auf dem Festland die Temperatur gemessen wird, liegen an Flughäfen, hauptsächlich aus historischen Gründen, weil meteorologische Messungen für die Luftfahrtindustrie wichtig waren und sind. Hat man an diesen Stellen Anpassungen bzgl. des UHI vorgenommen?

Die Schlussfolgerung dieser Untersuchung zeigt, dass UHI-Anpassungen für Instrumenten-Messungen, die für Temperatur-Rekonstruktionen verwendet werden, nicht robust genug sind, um die erforderliche hohe Genauigkeit aufzuweisen.

Verwendung von Photosynthese betreibende Organismen als Temperaturproxies

Für die Photosynthese benötigen alle Bäume und andere lebende Organismen (Alkenone/Phytoplankton) spezielle Mengen Luft (Gase), Wärme, Licht (Photonen) und Wasser. Mit anderen Worten, ohne Luft (Gase), ohne Wärme, ohne Licht und ohne Wasser kann der Baum jeweils keinen Baumring ausbilden. Es ist eine Kombination von Wetterelementen, die das Wachstum des Baumes und die Bildung von Baumringen stützt.

Aber um einen Baumring zu bilden braucht der Baum auch einen biologischen Mechanismus, der die Aufnahme bestimmter Nährstoffe kontrolliert, die für das Wachstum notwendig sind. Nun ändert sich jedoch die Zufuhr von Luft, Wärme, Licht und Wasser fortwährend. Daher muss dieser biologische Mechanismus in der Lage sein, mit unterschiedlichen Niveaus von Sauerstoff/CO2, Wärme/Kälte, Licht/Dunkelheit und nass/trocken umzugehen. Als solcher reagiert dieser biologische Mechanismus auf das Wetter. Dieser mit dem Wetter umgehende Mechanismus ist auch ein genetischer An- und Ausschalt-Mechanismus, ein homöostatischer Regulator und eine biologische Uhr.

In diesem Teil dieser Untersuchung wird eine spezifische Kombination von Wetterelementen (Luft, Wärme, Licht und Wasser), die im Folgenden als Photosynthese-Index (P-Index) bezeichnet wird, mit der Temperatur allein verglichen. Der P-Index hat eine Bandbreite von 0 bis 100. Die Photosynthese wird ab einem Wert von 6,9 ausgelöst, ist jedoch variabel, da jede Spezies sein eigenes Toleranzniveau zu diesem Input entwickelt hat (Luft, Wärme, Licht oder Wasser).

Abbildung 9: 14-jähriger Vergleich zwischen der täglichen Höchsttemperatur (Tx) und dem P-Index an einer Stelle in UK.

Der Vergleich zwischen den Höchstwerten der Temperatur und dem Photosynthese-Index (Abbildung 9) ergibt eine Korrelation von +0,69. Vergleicht man jedoch den P-Index mit den niedrigsten bzw. höchsten Werten der Maximum-Temperatur, ergibt sich ein anderes Bild, wie Abbildung 10 zeigt:

Abbildung 10: Höchste bzw. niedrigste Werte der Maximum-Temperatur im Vergleich zum P-Index.

Abbildung 10 zeigt, dass alle Temperaturen bis zu 23°C einen P-Indexwert von 0 annehmen können. Bei einem PI von 0 gibt es keine Photosynthese. Hinsichtlich des Photosynthese auslösenden Wertes von 6,9 zeigt sich eine klarere Erklärung in Tabelle 2.

Tabelle 2: Vergleich zwischen Tx und P-Index min/max.

Aus den 14-jährigen täglich erfolgten Aufzeichnungen des Vergleichs zwischen Tx und P-Index (min und max) ergibt sich ein Indexwert von 6,9 für die volle Photosynthese. Die meisten Bäume werden keine Baumringe ausbilden, bis die Temperatur etwa 7,5°C beträgt. Der wichtigste Punkt: Photosynthese findet in der Bandbreite von 7,5°C bis 27°C statt.

Abbildung 11: Anzahl der Tage mit Photosynthese

Aus der Analyse der 5114 Tage an einer Stelle in UK gibt es an 4125 Tagen Höchstwerte, die Photosynthese zulassen würden, aber nur 1600 PI-Tage, wenn die volle Photosynthese wirklich stattfindet. Mit anderen Worten, es gibt 2525 von 5114 Tage (49,9%), an denen das Wachstum von Baumringen kein gutes Proxy für Temperatur-Rekonstruktionen ist.

Diese Untersuchung wirft Zweifel auf die Verwendung von Baumring-Proxies als zulässige Temperatur-Rekonstruktionen.

(Letzte Meldung: Die jüngste Studie von Marcott et al. mit der Verwendung von Alkenone-Daten (erzeugt durch Phytoplankton) erweckt wahrscheinlich die gleichen Zweifel (unabhängig von der schlecht durchgeführten statistischen Analyse) wie andere lebende Organismen wie Baumringe!!!)

Proxies aus Eisbohrkernen:

Nicht genug Hintergrundwissen für eine Besprechung!

CO2

Eine sehr einfache Analyse des Vergleichs zwischen Temperatur und CO2 zeigt nur eine geringe Korrelation (mehr Daten wären erforderlich, um eine gesicherte Studie durchzuführen).

Tabelle 3: Mitteltemperatur (Ta), CO2 und Relative Feuchtigkeit (RH) in Hawaii

Abbildung 12: Vergleich zwischen Mitteltemperatur (Ta), CO2 und Relativer Feuchtigkeit (RH) in Hawaii

Die Korrelationen zeigen -0,23 zwischen Ta und CO2 sowie -0,08 zwischen RH und CO2. Beide Werte sind statistisch nicht gesichert.

Das gegenwärtige CO2-Niveau beträgt 390 ppm in der Atmosphäre (0,039%), was auch Wasserdampf und andere Treibhausgase einschließt. Der natürliche Kohlenstoff-Kreislauf erzeugt 2960000 metrische Tonnen CO2 [3]. Der Beitrag der Menschheit wird mit 33500 metrischen Tonnen angenommen[4], was 1,13% ausmacht. Der UK-Beitrag bleäuft sich auf 458 metrische Tonnen CO2 [3] oder 0,0155%. Daher ergibt sich die Gesamtmenge aller Treibhausgase zu 2960*0.039%*100=758974358974 metrischen Tonnen.

[*Die Einheit in diesem Absatz lautet „{Zahl}m tonnes“. Ich habe das mit metrischen Tonnen angenommen, weil in diesem ganzen Aufsatz ausschließlich britische Maßeinheiten verwendet werden. Sollten „Millionen Tonnen“ gemeint sein, bitte ich das im Geiste zu korrigieren. A. d. Übers.]

Der prozentuale UK-Anteil der globalen atmosphärischen [Treibhaus?]Gase beträgt: 0,0000000604%.

Diskussion:

Es scheint, dass historische Daten, Temperatur-Proxies, die in der Analyse der Klimaänderung verwendet werden, nicht robust genug sind, um eine genaue Temperatur-Rekonstruktion zu ermöglichen. Ich zeige, dass die UHI-Anpassungen zu gering sind und dass Baumring-Proxies keine genauen Temperatur-Rekonstruktionen ergeben können.

Was die Beziehung und die Hypothese von Klimawissenschaftlern zwischen Temperatur und CO2 betrifft, zeigt sich einfach keine signifikante Korrelation. Hat irgendjemand eine in die Tiefe gehende Studie unter Verwendung signifikanter Daten durchgeführt, in der Temperatur und CO2 miteinander verglichen werden? Oh, es gibt die historischen Temperaturaufzeichnungen aus Hawaii; alle 13 Meßstationen liegen an Flughäfen. Man wähle sich eine aus und sie wird den UHI-Effekt aufweisen. Man beziehe Bevölkerungswachstum und daraus folgende Infrastruktur-Ausweitungen ein – oh, noch mehr UHI. Aber was würden wir vergleichen, CO2-Niveau mit realer Temperatur oder CO2-Niveau mit dem UHI-Effekt? Auf der einen Seite der Mauer zeigen die „realen Temperaturen“ nur sehr geringe Korrelationen. Auf der anderen Seite der Mauer ANTHROPOGENE GLOBALE ERWÄRMUNG.

Noch eine Bemerkung zum Schluss: Das vom IPCC eingeräumte Fehlen von Wissen der Strahlungs-Rückkopplung von Wolken und Wasserdampf ist interessant. Man betrachte irgendein globales Satellitenbild im Infrarot-Bereich, im sichtbaren Bereich oder im Wasserdampf-Bereich (Abbildung 13*). Dann erkennt man die Bedeutung dieser zwei Faktoren für die Klimaforschung. Und doch zeigt das Wissen des IPCC in ihrer Graphik aus dem 3. Zustandsbericht, dass deren Kenntnisse sehr gering sind. Der P-Index (Luft {Gase}, Wärme, Licht und Wasser) zeigt eine Korrelation von 0,69 im Vergleich zur Maximum-Temperatur (14 Jahre lang tägliche Daten), die statistisch signifikant ist. Aber man erinnere sich an die Auswirkung auf die Photosynthese und das Wachstum von Baumringen und in dieser Hinsicht an alle Photosynthese durchführende Organismen.

[*Abbildung 13 im Anschluss an die References fehlt im Original!]

Vielleicht ist der P-Index ein sinnvollerer Indikator von Strahlungs-Rückkopplung und der Auswirkung auf die Temperatur, da er wie Photosynthese wirkt.

Schlussfolgerung: Das gegenwärtige Wissen über das Klima ist nicht ausreichend für politische Entscheidungen, die auf diesem Wissen basieren. Politische Entscheidungen hinsichtlich des Climate Change Act und der Energiepolitik basieren auf zweifelhafter Wissenschaft, gleichbedeutend mit Homöopathie.

References:

1. http://www.metoffice.gov.uk/hadobs/hadcet/

2. Jones P. D., Lister D. H. The urban heat island in Central London and urban-related warming trends in Central London since 1900, Weather, December 2009, Vol. 64, No.12

3. http://www.esrl.noaa.gov/gmd/infodata/faq_cat-3.html#9

4. G.P. Peters et al. Global carbon budget 2010 (summary), Tyndall Centre for Climate Change Research

5. https://www.gov.uk/government/publications/final-uk-emissions-estimates

Mid-IR/Water Vapour 18Mar2013 1200 Vis Green/Red 18Mar2013 1200 IR 18March2013 1200

Abbildung 13: Satellitenbilder in drei Spektralbereichen – fehlen im Original!

Link: http://wattsupwiththat.com/2013/04/16/revisiting-temperature-reconstructions-used-in-climate-change-modeling/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Der gesamte erste Teil dieser Arbeit ist eine eindrucksvolle Bestätigung der vor einiger Zeit hier bei EIKE veröffentlichten Ergebnisse von Leistenschneider et al. Für mich ein weiteres Indiz dafür, dass die letzte globale Erwärmung eben nicht global, sondern überwiegend an den ausgewählten Messpunkten aufgetreten ist – und hier tatsächlich anthropogenen Ursprungs ist.

Welchen prozentualen Anteil haben diese Messpunkte an der gesamten Erdoberfläche?

C. F.




Atome – die strahlenden Monster? „Das Märchen von der Asse, Gorleben und anderen Endlagern“

Es ist ermutigend, wenn der Autor nicht müde wird und nun mit der 3. überarbeiteten Auflage einen weiteren Anlauf unternimmt mit dem Ziel, mit dem Halb- und Unwissen in Sachen Atome und deren Strahlung in der Bevölkerung, vor allem aber in der Publizistik und bei den Volksvertretern aufzuräumen.

Dazu bedarf es naturwissenschaftlich belegten Faktenwissens  und darüber verfügt der Physiker und Strahlenschutzfachmann Hinsch, der Mitarbeiter der Helmholzgesellschaft und in dieser Eigenschaft in der Asse beschäftigt war.

Den Übergang der Zuständigkeit für die Asse von der Helmholzgesellschaft zum Bundesamt für Strahlenschutz war für den Fachmann Hinsch mit einem Wandel von wissenschaftlich abgesicherter Arbeit hin zu politisch gewollter Verunsicherung und Problematisierung der Lagerung von radioaktiven Materialien verbunden.

Nach wie vor gilt  für die eingelagerten Stoffe in der Asse, dass keine erhöhte Strahlung in der Umgebung messbar ist. Das kann und wird auch in der Zukunft nicht anders sein, weil die natürliche Strahlung des Deckgebirges die Strahlung der eingelagerten Stoffe um ein Mehrfaches übertrifft. (Niemann, 2007 / 2009).     

Vor diesem Hintergrund kritisiert der Autor das Vorhaben der Rückholung der eingelagerten Stoffe aus der Asse.

Besorgniserregend ist in diesem Zusammenhang für den interessierten Laien die Tatsache, dass das zuständige Bundesamt für Strahlenschutz laut Evaluationsbericht des Wissenschaftsrates (2006) ganz offensichtlich nicht über die notwendige Kompetenz verfügt, um die anstehenden Probleme zu bearbeiten, geschweige denn zu lösen.

Weiter verstärkt wird diese Situation dadurch, dass offensichtlich von Seiten der verantwortlichen PolitikerInnen keine sachorientierte Bearbeitung des Problems Asse u.a. Lager oder Endlager für strahlende Abfälle zu erwarten ist.

Das gilt – wie der Autor darstellt – für die Inkompetenz von Frau Kotting-Uhl, Herrn Wenzel,  Herrn König u.a. Politiker auf den verschiedensten politischen Ebenen.  

Nicht minder kritisch betrachtet Hinsch die Rolle von Journalisten hinsichtlich deren Verpflichtung zu einer sachbezogenen und dennoch kritischen Berichterstattung.

Der Beitrag von Karl-Friedrich Kassel in der Zeit vom 05.03. 2009 mit dem Titel: „Asse war die falsche Standortwahl“ wird vom Strahlenfachmann zitiert und vor allem kritisiert.

Der interessierte Leser findet in dem Buch viele Sachinformationen, wie Hinweise zur unterschiedlichen Gefährlichkeit verschiedener Strahlenformen. Besonders gefährlich ist Alpha- u. Neutronenstrahlung, weniger gefährlich dagegen Gamma- u. Röntgenstrahlung.

Strahlendosis, Strahlungsintensität, Messeinheiten wie Bequerel (Bq), Sievert (Sv), Hintergrundstrahlung, radioaktiver Zerfall u.a. Termini werden erklärt.

Der Leser erfährt beispielsweise, dass Uran (U 235, 238),Thorium (Th232) und Kalium (K40) die wesentlichen natürlichen radioaktiven Elemente unserer Erde sind.

Die Mensch gemachte künstliche Aktivität erhöht die natürliche Aktivität von Mutter Erde lt. Hinsch um 0,017%.

Diese Zahl dient nicht etwa der Verharmlosung, sondern vielmehr als Aufruf zu einer sachbezogeneren Betrachtung von realen und vermuteten Strahlenproblemen.

Als erster Schritt dazu sei die Lektüre des Buches von Hermann Hinsch: „Das Märchen von der Asse, Gorleben und anderen Endlagern“ empfohlen.

Diese Empfehlung ergeht insbesondere an politische Entscheidungsträger aller Ebenen und aller Couleur und an Journalisten der verschiedenen Medien.

Bei einer Neuauflage wünscht sich der Rezensent einen Tabellenteil mit den Fakten in Sachen radioaktiver Elemente, Radioaktivität, Zerfallsraten, Mess- und Maßeinheiten u. a. wichtige Fakten zum Thema aufzunehmen.

Das Buch:(Bei Bedarf bitte über Amazon Bestellknopf oben rechts bestellen)

Hinsch, Hermann: „Das Märchen von der Asse,  Gorleben und anderen Endlagern“

3. Aufl.; März 2013 / 132 Seiten

Preis: 14,99 €

Verlag. Books on Demand, Norderstedt

ISBN: 978-3-8482-6787-3 

Literatur:

Hinsch, H. (2010): „Das Märchen von der Asse“

NOVOArgumente 105; S. 50-51

Niemann, L. (2007): „Strahlend wie das Matterhorn“

NOVO 89; S. 34-35

Niemann, L. (2009): „Der Asse-„Skandal““

NOVOArgumente 99; S. 43-46

Wissenschaftsrat (2006): „Wissenschaftspolitische Stellungnahme zum Bundesamt für Strahlenschutz (BfS) , Salzgitter         

http://www.wissenschaftsrat.de7download/archiv/7259-06.pdf

                 




Wenn man von Kindern redet…

Im zweiten Film vom Herrn der Ringe gibt es eine Szene, in der ein verzweifelter König, der den Tod seines gefallenen Sohnes beklagt, erklärt: „Keine Eltern sollten ihr Kind beerdigen müssen!“

Diese Aussage bewegt die Zuhörer gewaltig – vor allem solche, die zufällig Eltern sind. Der Tod eines Kindes ist eine Agonie für Erwachsene – Mütter, Väter, Großeltern, Tanten, Onkel – und ebenso für die Geschwister. Es ist eine Trauer, die die Menschen bis zu ihrem eigenen Grab mit sich herum schleppen.

Was wir modernen, gehätschelten, technologisch gesegneten Bewohner der Ersten Welt vergessen haben ist, dass Kindstod einst allgemein verbreitet war.

Im Jahre 1762 war Emile von Jean-Jaques Rousseau erschienen. Darin fand sich dies:

Die Hälfte aller geborenen Kinder stirbt vor dem achten Lebensjahr… Das ist ein Naturgesetz, warum sollte man dem widersprechen?

Die industrielle Revolution begann etwa zum Zeitpunkt der Veröffentlichung dieses Buches. Vor der Industrialisierung unserer Gesellschaften konnte unser Leben also tragisch kurz sein. Das herzzerreißende Ereignis, von dem der König sagt, dass es niemand durchmachen sollte, war in Wirklichkeit Normalität. Die meisten Erwachsenen liefen mit einer schmerzhaften Leere in ihrem Herzen herum, die der Tod eines geliebten kleinen Mädchens oder Jungen hinterlassen hat.

Die Filme über den Herrn der Ringe spielen in einer vorindustriellen Zeit. Es gibt darin keine Krankenhäuser, keine Impfstoffe, kein fließendes Wasser oder Zentralheizungen. Die Menschen reisen nicht via Flugzeug, Eisenbahn oder Auto, sondern auf dem Pferderücken. Und Pferde waren eine der Todesursachen für Kinder – durch Ausschlagen, Niedertrampeln oder Herunterfallen.

Falls wir darüber nur für mehr als 10 Sekunden nachdenken, klingen die Bemerkungen des Königs hohl. Sie repräsentieren eine historisch falsche Umkehr der Wirklichkeit. Eine vorindustrielle Welt ist genau die Art Welt, in der immer irgendjemand ein Kind beerdigen muss.

Was mich zu den grünen Aktivisten bringt. Ihnen zufolge sind industrielle Prozesse des Teufels. Industrie verschmutzt. Sie verbraucht zu viel Wasser. Sie verschandelt die Landschaft. Ihrer Comic-Heft-Analyse zufolge ist Industrie gierig und kurzsichtig und kümmert sich nur um sich selbst.

Aber selbst wenn das alles stimmen würde, gibt es noch eine absolute Wahrheit: Die Industrie ist gut für Kinder. Sie rettet ihre Leben.

Gestern habe ich beobachtet, dass Klima-Kreuzzügler sagen, wir sollten Maßnahmen gegen die globale Erwärmung ergreifen um unserer Kinder und Enkel willen. Viele dieser Menschen favorisieren eine sofortige und starke Reduktion der Kohlendioxid-Emissionen – etwas, das nicht erreicht werden kann, wenn wir nicht einen erheblichen Teil unserer industrialisierten Wirtschaft schließen.

Diese Leute sagen, dass sie sich um die Kinder kümmern. Aber sie wollen, dass wir zurück in eine Welt kommen, in der viele Kinder ihre Kindheit nicht überleben.

Denken Sie mal darüber nach!

Link: http://nofrakkingconsensus.com/2013/03/26/speaking-of-the-children/

Übersetzt von Chris Frey EIKE




Gefälschte Ergebnisse bei Untersuchungen des Proxys „Schichtdicke“

Ihre Behauptung aus dem Abstract lautet folgendermaßen:

Mittels einer hierarchischen Bayesianischen Analyse [?] von Thermometerablesungen, Baumringen, Eisbohrkernen und Sedimenten aus Seen zeigen wir hier, das Magnitude und Frequenz jüngster Warm-Extreme der Temperatur in hohen nördlichen Breiten während der letzten 600 Jahre ohne Beispiel sind. Die Sommer der Jahre 2005, 2007, 2010 und 2011 waren wärmer als alle Sommer zuvor bis zum Jahr 1400 (Waharscheinlichkeit P > 0,95), jedenfalls im Flächenmittel. Der Sommer 2010 war der wärmste Sommer der letzten 600 Jahre in Westrussland (P >0,99) und möglicherweise der wärmste in Westgrönland und der kanadischen Arktis (P > 0,90). Diese und andere Extreme aus jüngster Zeit liegen deutlich weit oberhalb der in einem stationären Klima zu erwartenden Extreme, können aber verstanden werden als resultierend aus konstanter Raum-Zeit-Variabilität über eine gestiegene Mitteltemperatur.

[Der letzte Satz lautet im Original: probably the warmest in western Greenland and the Canadian Arctic as well (P > 0.90). These and other recent extremes greatly exceed those expected from a stationary climate, but can be understood as resulting from constant space–time variability about an increased mean temperature.]

Inzwischen hat Steve McIntyre bei ClimateAudit einige liebenswerte Probleme in ihren Behauptungen gefunden. Ich überlegte mir, einmal einen Blick auf ihre Aufzeichnungen aus Sedimenten in Seen zu werfen. Die Rohdaten vor jedweder Analyse sehen so aus:


Abbildung 1: alle Schichtdicken-Aufzeichnungen aus TH2013. Die Einheiten wechseln und sind so wie vom Original-Forscher berichtet.

Was also stimmt hier nicht? Nun, eine ganze Menge!

Zu Beginn ist da die infame Korttajarvi-Aufzeichnung. Eine gute Beschreibung hiervon gibt Steve McIntyre:

In Übereinstimmung mit der totalen und vollständigen Sturheit der Paläoklima-Gemeinschaft verwenden sie die berühmteste Reihe von Mann et al. 2008: die kontaminierten Korttajarvi-Sedimente. Die Probleme dieser Reihe sind in Skeptiker-Blogs nur allzu bekannt, und Ross und ich haben darüber in einem Kommentar bei PNAS berichtet. Die Original-Autorin, Mia Tiljander, warnte vor der Verwendung des jüngsten Teils dieser Daten, waren doch die Sedimente durch modernen Brückenbau und die Landwirtschaft kontaminiert worden. Obwohl die Schwächen dieser Reihe als Proxy Lesern „skeptischer“ Blogs gut bekannt sind, haben die Begutachter bei Nature offenbar keine Einwände gegen die Berücksichtigung dieses Proxy für eine Temperaturrekonstruktion gehabt.

Hier möchte ich einen Moment innehalten und über Proxies aus Seen sprechen. Auf dem Grund nahezu jeden Sees wird in jedem Jahr eine neue Sedimentschicht abgelegt. Dieses Sediment enthält einen sehr informativen Mix von allem, was jemals während eines bestimmten Jahres in den See gespült worden ist. Man kann Änderungen der lokalen Vegetation beispielsweise durch Pflanzenpollen identifizieren, die als Teil des Sediments abgelagert worden sind. Es gibt eine Menge Informationen, die man aus dem Schlamm am Seegrund gewinnen kann.

Eine Informationsquelle, die wir betrachten können, ist die Rate, mit der sich das Sediment akkumuliert. Das nennt man „Schichtdicke“ [varve thickness], wobei eine „Schicht“ [varve] ein Paar dünner Schichten in dem Sediment bedeutet, eine für Sommer und eine für Winter, die zusammen ein einzelnes Jahres-Sediment ausmachen. Offensichtlich kann diese Dicke ziemlich variieren. Und in einigen Fällen ist es in gewisser Weise mit der Temperatur korreliert.

Allerdings unterscheiden sich See-Proxies in einem entscheidenden Punkt von Proxies aus Eisbohrkernen. Die täglichen Aktivitäten der Menschen ändern nicht die Dicke der Eisschichten, die sich jedes Jahr bilden. Aber alles vom Straßenbau bis zu Änderungen der landwirtschaftlichen Methoden kann die Sediment-Menge in lokalen Gewässern radikal verändern. Und genau das ist das Problem bei Korttajarvi.

Zusätzlich können auch Änderungen der natürlichen Landschaft das Sediment-Niveau verändern. Viele Dinge, vom Verbrennen lokaler Vegetation über Insektenvernichtung bis hin zu Änderungen des lokalen Wasserabflusses können die Sediment-Ablagerungen in einem bestimmten Teil eines bestimmten Sees verändern.

Man betrachte hierzu beispielsweise die Soper-Daten in Abbildung 1. Mehr als offensichtlich werden einige signifikante Änderungen während der ersten Hälfte des 20. Jahrhunderts  erkennbar. Nach vier Jahrhunderten eines bestimmten Regimes ist etwas geschehen. Wir wissen nicht was, aber es erscheint zweifelhaft, dass eine graduelle Temperaturänderung eine so plötzliche Änderung der abgelagerten Sedimentmenge in Kombination mit einer Änderung der Variabilität ausgelöst haben kann.

An genau dieser Stelle möchte ich innehalten und betonen, dass allein die Erwähnung dieses Proxys, wenn man die offensichtliche Unsinnigkeit ignoriert, auch Korttajarvi zu betrachten, ausreicht, die ganze Studie total zu disqualifizieren. Es gibt keinerlei Rechtfertigung für die Behauptung, dass diese Änderungen mit der Temperatur zusammenhängen. Ja, ich weiß, später in der Studie wird darauf noch eingegangen, aber bleiben wir realistisch: Dies ist keine Repräsentation der Temperatur.

Aber Korttajarvi und Soper sind nicht das einzige Problem. Man betrachte Iceberg, drei separate Aufzeichnungen. Es ist wie eine zweitrangige Quizfrage: „Welcher dieser drei Aufzeichnungen ist anders als die beiden anderen?“ Wie kann man so etwas nur als stichhaltige Proxy betrachten?

Wohin führt die Betrachtung all diesen Mülls? Die Autoren erklären es so:

Alle Schichtdicken-Aufzeichnungen, die öffentlich beim Paleolimnology Data Archive der NOAA öffentlich zugänglich sind (Stand Januar 2012) werden betrachtet unter der Voraussetzung, dass sie folgenden Kriterien genügen:

• sie reichen mindestens 200 Jahre zurück,

• sie zeigen eine jährliche Auflösung

• sie werden in Längeneinheiten dargestellt

• die Original-Veröffentlichungen oder andere Referenzen sprechen für eine positive Verbindung mit der Sommertemperatur.

Nun, das klingt alles sehr gut, aber diese Kerle sind so klassisch … man betrachte den Devon Lake in Abbildung 1, es ist DV09. Sehen Sie, wie weit diese Reihe zurück reicht? Bis 1843, also bis vor 170 Jahren … so viel zu ihrem 200-Jahres-Kriterium.

Wollen Sie den spaßigen Teil erfahren? Fast hätte ich es übersehen, aber als ich die Kriterien gelesen habe dachte ich „warum gerade 200 Jahre?“ Das schien mir eine Besonderheit zu sein, also betrachtete ich sehr genau die einzige Reihe, auf die es passte, und … nanu? Das sieht nicht wie 200 Jahre aus. Also untersuchte ich die Daten hier … 1843, nicht vor 200, sondern vor 170 Jahren.

Mann, je mehr ich schaue, umso mehr finde ich. In dieser Hinsicht haben Sawtooth und Murray wenige kurze separate Abschnitte zum Ende ihrer Hauptdaten. Vielleicht ist es Zufall, aber beide werden den wie auch immer gefälschten Hockeyschläger von Korttajarvi und Soper stützen.

Soviel also zum ersten Blick auf die Rohdaten. Jetzt wollen wir betrachten, was sie tatsächlich mit diesen Daten machen. Aus der Studie:

Wie allgemein üblich werden die Schichtdicken vor der Analyse logarithmisch transformiert, was zu Verteilungen führt, die normalverteilter sind und mit der Hypothese in Einklang stehen, die unsere Analyse charakterisiert (siehe folgenden Abschnitt).

Ich kann mich mit dieser Transformation nicht ganz abfinden. Ich verstehe die zugrunde liegende Rechtfertigung oder Logik nicht, das zu tun. Falls die Schichtdicke in irgendeiner Weise proportional zur Temperatur ist, und das kann gut sein, warum sollte sie proportional zum Logarithmus der Dicke sein?

Wie auch immer, schauen wir, über wie viel „normalverteilter“ wir reden. Hier folgen die Verteilungen der gleichen Aufzeichnungen nach der Log-Transformation [?] und Standardisierung. Ich habe einen „Violin-Plot“ verwendet, um das Aussehen der Verteilung zu untersuchen. Die Entfernung an irgendeinem Punkt steht für die geglättete Zahl der Datenpunkte um diesen Wert. Der weiße Punkt zeigt den Medianwert der Daten. Der schwarze Kasten zeigt die interquartile Bandbreite, die die Hälfte der Daten enthält. Die vertikalen „Schnurrhaare“ [whiskers] erstrecken sich 1,5 mal so weit wie die interquartile Distanz an der Ober- bzw. der Unterseite des Kastens.


Abbildung 2: Violin-Plots der Daten aus Abbildung 1, aber nach der Log-Transformation und Standardisierung. Die Randwert-Normalverteilung unten rechts dient Vergleichszwecken.

Man beachte die sehr großen Unterschiede zwischen den verschiedenen Datensätzen der Schichtdicke. Man kann die Probleme beim Soper-Datensatz erkennen. Einige Datensätze sind nach der Log-Transformation ziemlich normalverteilt, wie Big Round und Donard. Andere wie DV09 und Soper sind selbst nach der Transformation noch weit von der Normalverteilung entfernt. Viele von ihnen sind stark asymmetrisch mit Ausreißern von vier Standardabweichungen, die in positiver Richtung allgemein sind. Im Gegensatz dazu variieren sie nur halb so stark in negativer Richtung, zwei Standardabweichungen. Und wenn man sie mit einschließt, beeinflussen die Unterschiede, mit denen sie aus dem Normalzustand schwingen (die positiven Ausreißer übertreffen die negativen bei Weitem), sowohl die Ergebnisse als auch deren Unsicherheiten.

In jedem Falle sind die Datensätze nach der Log-Transformation und Standardisierung zu einem Mittel von Null und einer Standardabweichung von eins in Abbildung 3 gezeigt:

 

Abbildung 3: Schichtdicken-Aufzeichnungen nach Log-Transformation und Standardisierung.

Wie man sieht, ändert die Log-Transformation nichts an den Problemen von z. B. Soper oder Iceberg. Sie sind immer noch nicht intern konsistent. Als Ergebnis der Mitbetrachtung dieser problematischen Reihen, die allesamt sichtbare Unregelmäßigkeiten in den jüngsten Daten enthalten, zeigt selbst ein einfacher Mittelwert einen vollkommen gefälschten Hockeyschläger.

Tatsächlich zeigt das Mittel die typische Form für diese Art gefälschten Hockeyschläger. Im „Schaft“ des Hockeyschlägers scheinen sich die Rand-Variationen der gewählten Proxies einander wegzumitteln. Im „Blatt“ mitteln sich die Rand-Proxies ebenfalls heraus, und alles was übrig bleibt, sind die wenigen Proxies, die im jüngsten Abschnitt einen Anstieg zeigen.

Meine Schlussfolgerungen lauten (in beliebiger Reihenfolge):

• Man muss den Autoren hinsichtlich der Eindeutigkeit ihrer Datenquellen gratulieren. Sie lassen eine einfache Analyse ihrer Arbeit zu.

• Man muss ihnen auch zu den klaren Definitionen der Kriterien gratulieren, die sie an die Berücksichtigung der Proxies anlegen.

• Traurigerweise folgen sie nicht ihren eigenen Kriterien.

• Die wesentliche Schlussfolgerung jedoch lautet: Klare, eindeutige Kriterien von der Art, wie sie sie verwendet haben, sind ein notwendiger, aber kein ausreichender Teil des Prozesses. Es müssen noch mehr Schritte unternommen werden!

Der zweite Schritt besteht in der Verwendung von Quellen-Dokumentationen und der Literatur um zu sehen, ob es Probleme mit der Verwendung einiger Teile der Daten gibt. Hier Korttajarvi mit einzubeziehen ist ein besonders ungeheuerliches Übersehen. Michael Mann hat es in seiner Analyse aus dem Jahr 2008 umgekehrt verwendet. Er hat anschließend gesagt, dass „das keine Rolle spielt“. Es erscheint hier wieder umgekehrt, und die ursprünglichen Forscher sagten, man verwende es nicht nach 1750 oder so. Es ist absolut erbärmlich, dass nach all den Diskussionen in der Literatur und im Internet einschließlich eines veröffentlichten Briefes an PNAS Korttajarvi wieder einmal in einer Proxy-Rekonstruktion verwendet wird, und wieder einmal wird es umgekehrt verwendet. Das ist unentschuldbar.

Der nächste Schritt bei der Auswahl der Proxies muss in der Verwendung des Mark I eyeball [?] bestehen um zu sehen, ob es Lücken, Sprünge der Amplitude, Änderungen der Variabilität oder andere Anzeichen von Problemen in den Daten gibt.

Als nächstes müssen die Auswirkungen der fragwürdigen Daten auf das Endergebnis untersucht werden.

Und schließlich müssen noch die Gründe dargelegt werden für den Ein- oder Ausschluss der fragwürdigen Daten sowie deren Auswirkung auf das Ergebnis der Studie.

Unglücklicherweise haben sie nur dem ersten Teil Genüge getan, indem sie klare Kriterien formuliert haben.

Sehen Sie, man kann nicht einfach ein Bündel Proxies nehmen und diese mitteln, egal ob man Bayesianische Methoden anwendet oder nicht. Die Menge [crowd] der Paläo-Proxy-Forscher hat wieder und immer wieder gezeigt, dass man damit einen Hockeysachläger konstruieren kann, wenn man nur die richtigen Proxies dafür auswählt…

Und jetzt? Alles, was es beweist, ist: ja, wirklich; wenn man Müll hineinsteckt, wird man vermutlich auch Müll herausbekommen. Wenn man sorgfältig den Auswählprozess der Proxies durchführt, kann man jedes gewünschte Ergebnis bekommen.

Mann, wie sehr ich es satt habe, mich durch diese Art von Müll zu wühlen; künstliche Studien von künstlichen Wissenschaftlern.

Willis Eschenbach

Link: http://wattsupwiththat.com/2013/04/13/spurious-varvology/

Übersetzt von Chris Frey EIKE




Zukünftige Temperaturenentwicklung in Deutschland – Wärmer oder Kälter? (Teil 2)

…So konnten anhand historischer und aktueller Daten, nach einem Hauptsonnenzyklus starke Ausschläge zwischen warm und kalt nachgewiesen werden und sind in unseren Breiten als „normal“ anzusehen, was bedeutet, dass das Klima/Wetter in Deutschland für die nächsten Jahre starken Schwankungen zwischen warm und kalt unterliegt. So freut es uns natürlich, dass die Warmisten von PIK und Co. zu ähnlichen Aussagen, was die Schwankungen betrifft, gelangen. Dass deren Erklärungen hierzu, jedoch an der Wirklichkeit vorbeigehen und der Realität (wieder einmal) nicht standhalten, zeigt unser Teil 2.

Obwohl wir kälteren Zeiten entgegen gehen, werden Mammut und Wollnashorn in unseren Breiten nicht mehr erscheinen. Übertreibungen solcher Art, wenn auch in die andere Richtung, überlassen wir PIK, AWI, ZDF und Co. Wir wollen uns mehr an der Naturwischenschaft orientieren. Abbildung, Quelle: Wikimedia.commons

PIK und AWI behaupten: Es ist kälter, weil es wärmer wird

Dass für die nächsten Jahrzehnte mit hohen Schwankungen zwischen warm und kalt zu rechnen ist, hat Leistenschneider bereits in 09/2011 in seiner EIKE-Reihe, “Dynamisches Sonnensystem – Die tatsächlichen Hintergründer des Klimawandels“ festgehalten und dies anhand historisch gemessener Temperaturdaten, wie sie z.B. in den Abbildungen 15 bis 19 (Teil 1) zu sehen sind, festgehalten und mit der Sonnenphysik beschrieben. Umso erfreulicher, dass gegenwärtig die sog. Warmisten sich seine Feststellung zu Eigen machen. Abenteuerlich hingegen ist deren Begründung für die aktuelle Abkühlung. Aber dazu später mehr. Lassen Sie uns zuerst unser Ergebnis, dass die Wintertemperaturen den Jahrestemperaturen um ca. 10 Jahre vorlaufen und somit deren Trend vorweg nehmen, weiter prüfen.

Unsere eingangs gezeigte Auswertung ergab das Jahr 2070, bis die Temperaturen in unserem Land wieder zu steigen beginnen. Wird bei unserem Ergebnis weiter dem Fakt Rechnung getragen, dass bei inaktiver Sonne sich das Verhältnis Abstiegszeit (Abkühlung) zu Anstiegszeit (Erwärmung)  zugunsten der Abkühlung verschiebt, so trifft unser Ergebnis sehr exakt die Realität des letzten Hauptsonnenzyklus – so, wie sich seinerzeit die Temperaturen entwickelten. Keine gute Nachricht, denn eine Warmzeit ist eine gute Zeit. Nicht nur wegen der Heizkosten und dem Freizeitwert, sondern vor allem für die Biosphäre. Aber wissenschaftliche Erkenntnis richtet sich nun einmal nicht an menschlichen Wünschen.

Wie gesagt, möchten wir unsere Ergebnisse jedoch noch weiter absichern, bzw. prüfen. Besteht der von uns ermittelte jahreszeitliche Vorlauf der Temperaturen noch bei weiteren Datenreihen. Hierzu möchten wir Frühling und Herbstgang der Temperaturen vergleichen.

 

 

 

  

 

Abbildungen 20 – 24: Basis dieser Untersuchungen waren das „Wikipedia- Deutschlandmittel“ ab 1761 und das Rastermittel Deutschland ab 1881. Ganz oben Einzelwerte ab 1761 mit Linear- und Polynomtrends. Bei langfristiger Betrachtung sind die Lineartrends gleich, was auch zu erwarten war. Abbildungen 22 – 24 zeigen Gleitmittel 11-, 23- und 35- jährig mit Polynom- Trends. Die untere Abbildung 25 zeigt, dass sich auf der kurzfristigen Skala (1980 bis 2012) sogar ein gegenläufiges Verhalten zeigt- wenn Frühling warm, dann Herbst tendenziell eher kalt- und umgekehrt. Man erkennt außerdem bei allen Abbildungen, dass die Frühjahrsmittel die Herbstmittel gegen Ende des Betrachtungszeitraums eingeholt haben. Als mögliche Ursachen kommen eventuell unterschiedliche Auswirkungen der verschiedenen Wärmeinsel- Effekte in Betracht. Außerdem nahm die herbstliche Sonnenscheindauer während der vergangenen 30 Jahre weniger deutlich zu, als die des Frühjahres; und der Frühling, besonders der April, zeichnete sich durch eine wachsende Anzahl von Hochdruckwetterlagen aus (KÄMPFE/LEISTENSCHNEIDER/KOWATSCH 2013: „Erst zum Gipfel, dann wieder talwärts: Die Temperaturentwicklung in Deutschland seit 1980 und deren wesentliche Ursachen“, Teile 2 und 3) bei http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/

Inwieweit die Wintertemperaturen, einen Trend vorwegnehmen, haben wir auch am Vergleich zu den Frühlingstemperaturen geprüft (Abbildungen 25 und 26).

Abb. 25 und 26: Sowohl die Deutschland-Langzeitzeitmittel aus den Wikipedia-Daten, als auch die Deutschlandmittel der DWD-Daten zeigen das gleiche Verhalten der Temperaturen, insbesondere ihres Trends (Polynom 6): Die Wintertemperaturen eilen den Frühjahrtemperaturen voraus und zwar um gut 10 Jahre, wobei in einer Abkühlungsphase auch hier sich das Verhältnis verschiebt – größer wird. Eine mögliche Erklärung für diese Verschiebung sind die Strahlungsgesetze nach Planck und die Abkühlungsgesetze nach Newton, wie sie auch Leistenschneider in 2010 als Basis für die Berechnung seines WI-Temperaturwertes der Deutschlandtemperaturreihe des DWD heranzog, EIKE berichtete darüber (http://www.eike-klima-energie.eu/uploads/media/Waermeinseleffekt-k-L_I_und_II.pdf). Ein gleich starker Erwärmungsantrieb wirkt im niedrigen Temperaturniveau deutlicher, als bei höherem Ausgangsniveau der Temperaturen. Seine Überlegungen und seine ermittelten WI-Werte für Deutschland, wurden übrigens jüngst bei WUWT zu 100% bestätigt (http://wattsupwiththat.com/2013/04/16/revisiting-temperature-reconstructions-used-in-climate-change-modeling/).

Anhand weiterer Untersuchungen, wird dieses Verhalten, sowie die unterschiedliche Temperaturentwicklung der Jahreszeiten eingehender geprüft werden müssen; besonders zur Rolle der WI-Effekte.

Deutschland: Frühlingsmittel laufen den Herbstmitteln und die Wintermittel, den Frühlingsmitteln um 1 bis 1,5 Jahrzehnte voraus! Wie bereits der Wintervorlauf zu den Jahrestemperaturen.

Eine mögliche Erklärung, dass die Herbstmittel den Frühlingsmitteln nachlaufen, also eine Abkühlung später anzeigen, könnte in der Erwärmung der Speicherflächen Land und Wasser liegen. Diese geben die im Frühjahr und Sommer gespeicherte Sonnenwärme an die Atmosphäre ab und diese gespeicherte (Zusatz)Wärme wird zu der direkten solaren Strahlung über die vorherrschenden Luftströmungen (West, Südwest) zu uns getragen. Genauere Untersuchungen werden z.Z. durchgeführt.

Daraus kann der Schluss gezogen werden, dass in naher Zukunft die Frühlingstemperaturen zuerst und stärker sinken werden, während der Herbst tendenziell noch ein paar Jahre relativ warm bleiben könnte- das deutete sich in den vergangenen Jahren schon so an.

Und nun zu den abenteuerlichen Versuchen der sog. Warmisten, die Kälte, die wir seit mehreren Jahren vorfinden, der aus Computermodellen abgeleiteten postulierten Erderwärmung zuzuschreiben. So war am 28.03.2013 in der Südwestpresse folgendes zu vernehmen: Weil das Eis in der Arktis schmilzt, fließt kalte Polarluft nach Mitteleuropa. Im Nordosten Deutschlands geht laut Deutschem Wetterdienst der kälteste März seit 130 Jahren zu Ende. Klimaforscher rechnen für die Zukunft mit häufiger auftretenden extremen Wintereinbrüchen. Aha, “Klimaforscher rechnen für die Zukunft mit häufiger auftretenden extremen Wintereinbrüchen. Auf EIKE hat dies bereits Leistenschneider in der erwähnten Reihe zum Einfluss der Sonne auf unser Wetter/Klima in 09/2011 aufgezeigt und hergeleitet (ohne aufwendige Klimamodelle und Supercomputer, sondern anhand der Sonnenphysik und historischer Temperaturdaten).

Die Erklärung, die die sog. Warmisten anführen, klingt indes so: Mehrere Klimastudien hatten diese Kälteeinbrüche bereits vorhergesagt. Eine Ursache ist demnach das mit der Erderwärmung immer stärker schmelzende Arktiseis. PIK-Forscher Vladimir Petoukhov hatte 2010 in einer Modellrechnung eine Verdreifachung extremer Wintereinbrüche in Europa und Nordasien prognostiziert. Grund: Das dunkle, offene Meer in der Arktis heize untere Luftschichten weiter auf. Das führe zu einer Luftströmung, die in der Computersimulation kalte Winterwinde nach Europa brachte.“ Oder wie folgt:

“Wladimir Petoukow vom Potsdam-Institut für Klimafolgenforschung und Klaus Dethloff in der Forschungsstelle Potsdam des Alfred-Wegener-Instituts haben alles herausgefunden: Mithilfe von Computermodellen zeigen beide Forschergruppen, wie der Klimawandel Teile Europas in einen Eiskeller verwandeln könnte: Wenn die moderne Zivilisation viel Kohle, Öl und Gas verbrennt, steigen weltweit die Temperaturen und auf dem Nordpolarmeer schmilzt das Eis. Genau das registrieren Forschungssatelliten seit einigen Jahren. Mit dem Eis aber fehlt auch der Deckel, der die Energie im Wasser hält. Daher erwärmt sich auch die Luft über den eisfreien Wasserflächen. Dadurch aber verändert sich auch der Luftdruck über dem Atlantik in arktischen und in mittleren Breiten und es kann sich ein Hoch über Skandinavien bilden, das uns zurzeit eisige Temperaturen beschert.“

Nun zu den Fakten. Die Luftströmungen, die sich angeblich wegen den vielen Treibhausgasen geändert haben, werden von der NAO (North Atlantic Oscillation) bestimmt. Die NAO gibt das Druckgefälle zwischen Islandtief und Azorenhoch an und ist Hauptfaktor für das Wetter in Europa und für die dortigen Klimaschwankungen. Sie ist ein regionaler Teil der ringförmigen Arctic Oscillation (AO) und beschreibt den Druckunterschied zwischen dem Islandtief und dem Azorenhoch. Wie der Name sagt, ist dieser Druckunterschied nicht konstant, sondern Schwankungen unterworfen, die einen oszillierenden Charakter besitzen.

Die NAO bestimmt den Verlauf der Zugbahnen atlantischer Sturmsysteme und die daraus resultierende Beeinflussung der Niederschlags- und Temperaturmuster im Nordatlantik. Sie wird auch in Zusammenhang gebracht mit der arktischen Meereisausbreitung, dem Eisvolumen in der “Davis Strait“ und den Eisbergflussraten vor der Küste Labradors. Sie ist maßgeblich für unser Wettergeschehen und wird daher an dieser Stelle näher betrachtet.

Als Maß für die NAO wird ein Index der Luftdruckunterschiede an repräsentativen Stationen benutzt. In der Definition nach Hurrell sind dies “Stykkysholmur“ auf Island und “Ponta del Gada“ auf den Azoren. Der NAO-Index nach Jones verwendet anstelle der Station “Ponta del Gada“ die Station auf Gibraltar. Allgemein gilt, dass der NAO-Index die Differenz der Druckanomalie auf den Azoren minus der auf Island ist, d.h. ist der NAOI stark positiv, hat man ein ausgeprägtes Azorenhoch bzw. Islandtief, was mit einem starken westwärts gerichteten Grundstrom und dafür typischen wandernden Zyklonenfamilien im nord-west-atlantischen und west-europäischen Raum verbunden ist und Mitteleuropa milde Winter beschert. Im Gegensatz dazu, wenn der NAO-Index niedrig oder negativ ist, dann ist der Grundstrom schwach, was oft mit meridionalen, blockierten Wetterlagen einhergeht. Die NAO soll sich demnach wegen der vielen Treibhausgase verändert haben. Dazu schauen wir, inwieweit die NAO vom atmosphärischen CO2-Pegel abhängt.

 

Abbildung 27 zeigt sowohl den NAO-Verlauf, als auch den atmosphärischen CO2-Pegel nach NOAA. Es bedarf keiner weiteren Erläuterungen, dass beide Verläufe, nichts gemeinsam haben. Auch der Langfristtrend der NAO zeigt keine steigende, fallende, oder sonst wie geartete Tendenz, die einen Ansatz für die Behauptungen von PIK und Co. geben.

 

Abbildung 28: NAO von 1860 – 2011 (Quelle: Hamburger Bildungsserver). Während der atmosphärische CO2-Pegel steigt und steigt, fällt derzeit das Langfristmittel der NAO, wie z.B. auch in den 1950er Jahren. Dies lässt auf zyklische Muster schließen, die nicht auf das Freisetzen sog. Treibhausgase reagieren, sondern auf die Sonnenaktivität. Dies ist seit langem bekannt, siehe Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003.

Abbildung 29 zeigt den NOA-Index nach Hurrel. Sowohl in der linken und noch mehr in der rechten Abbildung ist deutlich der Schwabe-Zyklus der Sonne abgebildet. Die Schwankungen der NAO sind in Übereinstimmung mit den Sonnenzyklen.

 

Abbildung 29 links zeigt den NAO-Winterindex von 1865 – 2000 (Quelle: Deutscher Wetterdienst). Deutlich ist in der Wellenform ein 10-Jahres-Zyklus abgebildet, der zeitlich mit dem Schwabezyklus korreliert. Hohe Indexwerte sind mit einer intensiven nordatlantischen Westdrift und damit milderen Temperaturen verbunden. Rechts ist der NAO-Winterindex von 1982 – 1998 abgebildet (ergänzt nach Quelle: American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000). Die kleine Abbildung ist hineinkopiert und zeigt den Schwabezyklus der Sonne im selben Zeitraum. Er stimmt exakt mit dem NAO-Winterindex überein.

Unnötig zu erwärmen, dass ebenfalls kein Zusammenhang zwischen dem Einfluss der arktischen Meereisbedeckung und den Wintertemperaturen besteht (Abbildung 30).

 

Abbildung 30 (Quelle: Privatdozent Dr. Dr. Eckhard Schulze -EIKE): “Die Eisbedeckung der Arktis bewegt sich im Januar in engen Grenzen zwischen 14,5 und 15 Millionen Quadratkilometern. Die Monatsmitteltempertaturen in Deutschland (Quelle DWD) lassen, bezogen auf das jeweils selbe Jahr, keinerlei Abhängigkeiten zu den Eisbedeckungsflächen erkennen. Dies wird drastisch illustriert, wenn man die Jahre 2007 und 2010 betrachtet. In diesen beiden Jahren sind die Januarwerte der eisbedeckten Flächen nahezu gleich, die Monatsmitteltemperatur ist jedoch 2007 mit 4,8°C atypisch hoch und in 2010 mit -3,6°C recht tief für den Januar.“

Noch deutlicher wird dies, wird zu den Märztemperaturen verglichen (Abbildung 31).

 

Abbildung 31, Quelle, wie Abb 30 (Datenquelle der Temperaturen, DWD, Datenquelle Monatsmittel der Eisbedeckungsflächen http://www.woodfortrees.org/data/nsidc-seaice-n). Wie unschwer zu erkennen, gibt es keinen Zusammenhang zwischen der arktischen Eisbedeckung und den Temperaturen in Deutschland. Somit kann die o.g. Aussage von PIK und AWI als widerlegt angesehen werden.

Ausgangspunkt der erneut von PIK und AWI vorgebrachten These, dass es in Deutschland kälter wird, weil es wärmer wird, um es einmal bildhaft auszudrücken, ist die Untersuchung von Petoukhov, V., Semenov, V. A. (2010): A link between reduced Barents-Kara sea ice and cold winter extremes over northern continents. – Journal of Geophysical Research, 115, D21111 (Abbildung 32):

 

Abbildung 32 zeigt die Eisbedeckung in der Barentssee und Karasee nach Petoukhov et al. Von 2000 bis 2007 und dazu das Wintermittel für Deutschland nach DWD-Daten.

 

Abbildung 33, Quelle, Dr. Dr. Schulze – EIKE: Dazu in graphischer Darstellung, die Eisbeckungen Barentssee (blau) und Karasee (grün), sowie das Wintermittel der Temperaturen von Deutschland (rot). Wer daraus nun ableitet, die dortigen Eisbeckungen hätten etwas mit den Wintertemperaturen in Deutschland zu tun, der hat sehr viel Phantasie.

Zu gleichem Ergebnis kommt Herr Dr. Herold (EIKE). Die PIK-Aussage lautet: "Die vorliegenden Modellrechnungen zeigen, dass der Luftdruckgegensatz bei geringerer sommerlicher arktischer Meereisbedeckung im darauf folgenden Winter abgeschwächt wird, so dass arktische Kälte bis in die mittleren Breiten vordringen kann." Und was zeigen die Daten?

Abbildung 34 (Datenquelle: Dr. Herold – EIKE): die blaue Kurve zeigt die arktische Eisbedeckung im Zeitraum Ende August 2005 bis Ende August 2012. (8 Werte)

Laut PIK bestimmt diese Meereisausdehung vom Sommer die Wintertemperaturen ein halbes Jahr später in Mitteleuropa. Wenig Meereis soll kalte Winter bringen. Die entsprechenden 8 Winter haben diesen Verlauf:

Abb35a: (Datenquelle DWD). Die Wintertemperaturen Deutschlands zeigen keinerlei Zusammenhang mit der Größe der arktischen Meereisbedeckung vom Sommer davor. Die beiden Grafiken entlarven eindeutig die PIK-Aussagen als falsch.

Dieses Jahr war der März ein zusätzlicher Wintermonat in Asien, in Europa und in Deutschland. Deshalb soll dieser eigentlich erste Vorfrühlingsmonat auch in die Betrachtung mit einbezogen werden.

Abb 35b (Datenquelle DWD). Keinerlei Zusammenhang besteht auch für die Sommereisausdehnung Nordpol und den nachfolgenden Märztemperaturen. Der vom PIK behauptete Zusammenhang trifft nur zufällig für die letzte Betrachtung zu.

Außerdem sind extrem kalte Märzmonate auch in der Vergangenheit immer wieder vorgekommen. So wiesen die Märzen 1785, 1786, 1789, 1804, 1808, 1814, 1845, 1853 und 1883 an der Station Berlin- Tempelhof ein Monatsmittel unter 0°C auf, ohne dass es damals eine erhöhte CO2- Konzentration in der Atmosphäre gab!

Damit beweisen die zuvor vorgelegten Grafiken eindeutig, dass die von PIK verkündete neue Theorie, vollkommen falsch ist, denn die Grafiken von zuvor  beweisen keinerlei Zusammenhang. Die Ausdehnung des Sommereises am Nordpol hat noch niemals den darauffolgenden Winter in Deutschland maßgeblich vorbestimmt. Das ist blanker Unsinn. Die Winter wurden kälter, weil  seit 1998 die Temperaturen weltweit abnehmen.

Und schließlich lässt sich auch der kalte März 2013 nicht mit einer außergewöhnlich geringen Eisbedeckung im März erklären, wie die folgende Abbildung 36 beweist.

 

Abbildung 36 : Eisbedeckung der Arktis Anfang März 2013, Quelle: http://nsidc.org/arcticseaicenews/ (kleine Abbildung: EIKE)

Es zeigt sich, dass es gar keinen dramatischen Eisschwund im Spätwinter gibt! Wie übrigens generell nicht, was Abbildung rechts zeigt. Nach jeder noch so starken Sommerschmelze, kehrt das Wintereis auf volle Ausdehnung zurück. Es gibt demnach keine Nordpoleisschmelze. Zwar wird die orange Linie (große Abbildung, Langjähriges Median- Mittel der Eisbedeckung) vereinzelt leicht unter-, an einzelnen Stellen aber auch überschritten- für Europa (links ganz unten liegend) können diese geringen Änderungen der winterlichen Eisdecke keine wesentlichen Auswirkungen haben.

KÄMPFE/LEISTENSCHNEIDER/KOWATSCH (2013) fanden aber eine andere Ursache für die geänderten Häufigkeitsverhältnisse der Großwetterlagen, und zwar die Sonnenaktivität. Eine sehr aktive Sonne begünstigt mildernd wirkende Westlagen, die aktuell nachlassende Aktivität hingegen Extremlagen:

 

Abbildung 37: Man erkennt, dass mit fallender gelber Linie (Anzahl der Sonnenflecken, Gleitmittel) die Zahl der mildernd wirkenden Westwetterlagen (violette Linie) deutlich abnahm; gleichzeitig wurden Lagen mit nördlichen (blaugrün) und südlichen (rot) Strömungsanteilen häufiger, was Extremwetter begünstigt und vor allem insgesamt kältere Winter fördert (auch Südlagen können im Winter mitunter bitterkalt sein!). Man beachte, dass wegen des „11- jährigen Gleitmittels“ die Werte seit 1975 und bis 2012 mit eingeflossen sind.

Ergebnis 3

Die Abbildungen widerlegen eindeutig die von PIK und AWI vertretene These. Die Wintertemperaturen haben nichts mit einer arktischen Eisschmelze zu tun, sondern gehen, so wie von uns dargestellt, auf die rückläufige solare Aktivität zurück und das typische Verhaltensmuster der Temperaturen nach einem Hauptsonnenzyklus.

Soviel zu den Computermodellen von PIK, AWI und Co., über die angeblich durch „Treibhausgase“ ausgelöste „arktischen Eisschmelze“ und die dadurch bedingten niedrigen Temperaturen in Deutschland.

Dass dieser Unsinn, der wieder einmal von deutschen Journalisten, deren Kenntnisse meist bereits an der Oberfläche enden, ungeprüft nachgeredet wurde, vom PIK und AWI in die Welt gesetzt wurde, verwundert denn nicht wirklich. Auch nicht, dass das ZDF wieder einmal an vorderster Linie zu finden ist, da deren Journalisten und Nachrichtensprechern zuweilen der Durchblick fehlt (EIKE berichtete darüber, hier  und hier ). Auch nicht, dass deren Meteorologen, wie Frau Niedek, die für den Unsinn, der anthropogenen Klimaerwärmung bezahlt werden (EIKE berichtet ebenfalls darüber auf Seite 35), dass jedoch ebenso Herr Dr. Tiersch auf den PIK (Unsinns-)Zug aufgesprungen ist und dies in der Karwoche im Heute Journal gegenüber der bereits beschriebenen ZDF-Sprecherin, Frau Slomka, eine breite Öffentlichkeit damit überraschte, dass es kälter wird, weil es wärmer wird, überrascht uns nun doch ein wenig. Offensichtlich ist das ZDF bestrebt, seinen runden Geburtstag unter dem Motto zu begehen: 50 Jahre Unsinn (und kein Ende abzusehen).

Wie sich die Temperaturen in Deutschland kurzfristig entwickeln werden, wie also die Temperaturen der nächsten Monate oder des Sommers werden, hängt somit stark von der solaren Aktivität und der Sonnenscheindauer ab. Gegenwärtig steigt die solaren Aktivität wieder, was an der vermehrten Sonnenfleckenaktivität sichtbar ist. Inwieweit sich daraus in diesem Jahr ein 2. Aktivitätsmaximum im 11-jährigen Schwabe-Zyklus entwickelt, werden die nächsten Monate zeigen. Warum Aktivitätszyklen dort ein 2. Maximum ausbilden können, hat Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ beschrieben – wegen der Fließrichtungen des elektr. und magn. leitfähigen Sonnenplasmas im 200.000 km starken Sonnenmantel.

 

Abbildung 38 zeigt links die Sonnenzyklen 21 – 23 (Quelle: Max Planck Gesellschaft). Jeder Zyklus bildet teils deutlich ein 2. Maximum aus. Rechts daneben ist der aktuelle 24. Zyklus bis März 2013 zu sehen. Ein Erstes Maximum fand in der zweiten Hälfte 2011 statt. Inwieweit sich in 2013 ein zweites Maximum ausbildet, was dann Einfluss auf unser Wetter hat, werden die nächsten Monate zeigen. Anhand der Auswertung vergangener solarer Zyklus, liegen beide Maxima ca. 1 ½ Jahre auseinander, so dass ein zweites solares Maximum in 2013 eintreten sollte. Danach geht die Sonne in ihre inaktive Phase, wie bei jedem Schwabezyklus. Solange, bis der nächste, der 25. Sonnenzyklus beginnt. Der jedoch, wegen dem übergeordneten Gleissberg-Zyklus (stellt die Hüllkurve des Schwabezyklus dar und hat im 25. Sonnenzyklus sein Minimum), sehr schwach ausfallen dürfte.

Damit die deutsche Öffentlichkeit die tatsächlichen Gründe für die vergangenen kalten Temperaturen, den nicht enden wollenden Winter und die zu erwartende Temperaturentwicklung in unserem Land, erfährt, werden wir von EIKE diesen Part übernehmen, den eigentlich die deutsche Presse übernehmen sollte: Für Aufklärung zu sorgen. Wie es scheint, ist man dort zuweilen aus eigenem Interesse (Geld) und ideologischer Verblendung (der Mensch und seine Industrie ist an allem Schuld) dazu nicht mehr in der Lage.

  

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider – EIKE




Abstimmung „Green Tec Awards“

Schauen Sie sich das Reaktorkonzept an! "Grüner" geht es eigentlich nicht mehr, und man fragt sich, was die grüne Ideologie eigentlich gegen eine inhärent sichere Kernkraft ohne nukleraen Abfall hat. Danach können Sie sich entscheiden und abstimmen. Und so geht´s. Seite aufrufen, bis zu Galileo Wissenspreis runterscrollen, dann rechts im Bild "DFR Institut für Festkörper -Kernphysik" Vergrößerungsglas anklicken. Dann erscheint der Text:

Dual Fluid Reaktor DFR

Institut für Festkörper-Kernphysik GmbH

Der Dual Fluid Reaktor DFR ist ein neues nukleares Reaktorkonzept in Weiterführung der sogenannten Generation IV. Der DFR ist inhärent sicher, wobei er im Gegensatz zu heutigen wassermoderierten Reaktoren keinerlei aktive Sicherungssysteme benötigt. Der DFR kann langlebigen nuklearen Abfall aus heutigen Reaktoren vollständig nutzen, ohne neuen zu produzieren – ein geologisches Endlager wird dadurch überflüssig. Außerdem können Kraftstoffe CO2-frei günstig hergestellt werden. Dadurch wird der DFR zu einer extrem umweltfreundlichen und kosteneffizienten Lösung für die Zukunft.

www.dual-fluid-reaktor.de

Konzept begutachten und evtl. zur Anstimmung markieren.

Gefunden?

Danach ist es recht einfach: Häkchen einsetzen, ans Ende scrollen, „Abstimmung“ anklicken und danach Name und E-Mail-Adresse angeben. Die Seite erreicht man hier.

Das EIKE TEam




Unermüdliche Lügner: Das große grüne Gebäude zerfällt

Es gibt keinen zunehmenden Trend zu „extremerem Wetter“, es sei denn, man schließt den gegenwärtigen Abkühlungszyklus der letzten 17 Jahre ein, der zu längeren und kälteren Wintern in der ganzen Welt geführt hat. Ich bezweifle, dass die Grünen irgendetwas gegen die Sonne ausrichten können, die sich in einem natürlichen Zyklus verringerter Strahlung befindet.

Hinsichtlich Hurrikanen wie Sandy werden Meteorologen bestätigen, dass das US-Festland alle drei Jahre von zwei oder drei wesentlichen Stürmen der Kategorie 3 bis 5 betroffen wird. Für alle Kategorien gilt, dass im Mittel alle drei Jahre fünf Hurrikane auf das Festland treffen. Es gibt also keinen zunehmenden Trend für Extremwetter. Es gibt nur das Wetter.

 

Was den Sierra Club und vergleichbare, Multimillionen Dollar schwere Umweltorganisationen angeht – wenn sie sagen, dass sie „zukünftige Auswirkungen der Klimaänderung verhindern wollen“, sind sie entweder dem Wahn verfallen, dass man irgendetwas tun kann, um Hurrikane, Blizzards oder andere Wetterereignisse zu verhindern, oder sie sprechen von der Einführung einer Steuer auf Kohlenstoff und andere so genannte Treibhausgase. Dies hat der Kongress bereits abgelehnt.

Und es ist nicht nur der Sierra Club. Am gleichen Tag, an dem ich ihre E-Mail erhalten hatte, haben Friends of the Earth ebenfalls in einer E-Mail gesagt: „Im Nordwesten der USA streitet man gegenwärtig über die schmutzige Zukunft von Kohle und Kohleexporte der USA. Wenn es nach den größten Kohleunternehmen der Welt geht, könnten wir jedes Jahr Transporte von 140 Millionen Tonnen Kohle durch Montana, Idaho, Washington und Oregon erleben. Das sind bis zu 60 Züge pro Tag in einigen Gebieten unserer Umgebung und über 1000 Schiffe pro Jahr auf unseren empfindlichen Wasserstraßen!“ Kann man dazu Angst erzeugend sagen? Lügen über die Kohle? Und totale Ignoranz des Wertes der verbrauchten und exportierten Kohle für unsere Wirtschaft?

Die Grünen betrachten alles, was Energie für alle Zwecke und für jedermann zur Verfügung stellt, als Feind!

Das ist der Grund, warum „eine Expertenrunde Projekte fossiler Brennstoffe in unserem Staat diskutiert, deren Auswirkungen und über Wege, dieser Verschmutzung zu reduzieren“. Brennstoff ist nicht VerschmutzungBrennstoff ist das, was wir verwenden, um unsere Wohnungen zu heizen oder zu kühlen, unsere Autos zu fahren, um Strom zu erzeugen und das Geschäftsleben unserer Nation durchzuführen. Luft und Wasser in New Jersey sind so sauber, dass wir tatsächlich Menschen einladen, hier zu leben, Geschäfte zu machen oder uns als Touristen zu besuchen.

„Die Reduktion von Treibhausgasen aus schmutzigen Brennstoffquellen ist für den Schutz von New Jersey unabdingbar”, heißt es in der Einladung. Tatsächlich hat das Kohlendioxidniveau bereits zugenommen. James M. Taylor, der geschäftsführende Herausgeber von Environmental & Climate News sagte im März: „Neue Daten der NOAA zeigen, dass das atmosphärische Kohlendioxid-Niveau weiter steigt, dass aber die Temperaturen dem nicht auf dem Fuße folgen. Die neuen Daten widerlegen Vermutungen, dass Kohlendioxid eine globale Erwärmungs-Krise auslöst“.

Angesichts der Tatsache, dass Kohlendioxid für das Wachstum aller Vegetation, von unseren Blumengärten bis zur Reichhaltigkeit der Ernten, die uns und alles Leben ernähren, unabdingbar ist, ist die Reduktion dieses Gases eine sehr schlechte Idee.

Muss man noch erwähnen, dass dieses Kapitel auf lokaler Ebene auch dazu führt, gegen eine Erdgas-Pipeline für den [US-]-Staat zu opponieren? Man denke an die Arbeitsplätze. Und an niedrigere Energiekosten. Dann extrapoliere man das auf die Keystone XL-Pipeline und andere erweiterte Energiequellen sowie auf die Vorteile für die Wirtschaft unserer Nation.

Die alte Garde der Umweltbewegung verabschiedet sich aus der Szene, und das gesamte Schwindelgebäude der globalen Erwärmung zerfällt. Jim Hansen, Leiter von NASA GISS seit 1981, hat seinen Rückzug erklärt. Es war Hansen, der einem Komitee des Kongresses 1988 gesagt hat, dass sich die Erde aufheizt. Im gleichen Jahr war das IPCC von zwei UN-Organisationen gegründet worden, der WMO und dem UNEP.

Larry Bell, Kolumnist beim Magazin Forbes hat die USA jüngst gedrängt, Zuwendungen an das IPCC und auch das UNFCCC zu beschneiden. „Obwohl die von uns an das IPCC und das UNFCCC gezahlten Beträge wie ein kleines Almosen in den Gesamtausgaben der Regierung erscheinen, ist es wichtig zu erkennen, dass die wirklichen Kosten dieser Narretei sich zu zahllosen Milliarden addieren, die infolge einer desaströsen Politik und regulatorischen Auswirkungen verpufft sind“.

Umweltorganisationen sind drauf und dran, unser Leben zu kontrollieren. Im März wurde in ihrem jährlichen Journal BioScience eine begutachtete Studie mit dem Titel „Social Norms and Global Environmental Challenges” [etwa: soziale Normen und Herausforderungen der globalen Umwelt] veröffentlicht. „Eine substanzielle Anzahl von Personen wird ihr bestehendes Verhalten ändern müssen, um dieser neuen Klasse globaler Umweltprobleme zu begegnen“.

Zu viele Regierungen auf der ganzen Welt, unsere eigene und vor allem jene in Europa, haben alle möglichen Gesetze erlassen und Milliarden in Projekte „grüner Energie“ investiert, nur um zu entdecken, dass dies eine ungeheure Verschwendung ist und dass normale Menschen andere Vorstellungen hinsichtlich der Technologien haben, die ihr Leben verbessern.

Grüne sind unermüdliche Lügner, und ihre Lügen erscheinen täglich in unseren Print-, Radio- und Fernsehmedien. Die Wirklichkeit beeinflusst jedoch ihre Bemühungen immer mehr. Fakten sind eine sture Angelegenheit.

Grüne sind viel weniger an der Umwelt interessiert als daran, Restriktionen hinsichtlich unseres Energieverbrauchs und des allgemeinen Wohlergehens der Menschheit einzuführen. Es ist reiner Faschismus, und das war es immer.

Link: http://www.nationalanxietycenter.blogspot.de/2013/04/relentless-liars-great-green-edifice-is.html

Übersetzt von Chris Frey EIKE




Neuer Hockeyschläger Fehlalarm: Jungforscher Marcott führte Medien hinters Licht

Hauptperson unserer Geschichte ist der Jungwissenschaftler Shaun Marcott. Fast auf den Tag genau vor zwei Jahren, im April 2011, reichte Marcott bei der Geologischen Fakultät der Oregon State University eine Doktorarbeit ein, in der er sich mit den Gletschern und der klimatischen Entwicklung der Erde während der späten Eiszeit sowie der letzten 10.000 Jahre beschäftigte. Der Arbeit voran stellt Marcott ein Zitat von Richard P. Feynman:

„Wissenschaft ist der Glaube an die Ignoranz der Experten“

Ach, hätte sich der junge Marcott doch dieses Motto vollständig zu Eigen gemacht, dann wäre ihm sicher einiges erspart geblieben. Aber davon ahnte er damals vielleicht noch nichts. Letztendlich waren es nämlich genau diese ignoranten Experten, die den Doktoranden zu Fall brachten.

Das Papier

Zwei Jahre später. Als Produkt der Dissertation erschien am 8. März 2013 in der Zeitschrift Science von Marcott eine Arbeit mit einer globalen Temperaturrekonstruktion der letzten 11.300 Jahre, also für die Zeit seit Ende der letzten Eiszeit. Der Publikationszeitpunkt war günstig, denn so konnte die Studie noch gerade so in den momentan entstehenden 5. Klimazustandsbericht des Weltklimarats IPCC eingearbeitet werden. Entsprechend viel Mühe machten sich die US-amerikanischen National Science Foundation und die Universität, die beide am Tag vor Veröffentlichung des Papiers kräftig Werbung betrieben und aufsehenerregende Pressemitteilungen herausgaben. So titelte die Science Foundation sensationsheischend:

Die Erde ist heute wärmer als während 70-80% der letzten 11.300 Jahre.

Auch die Universität Oregon wollte ihren Anteil an den Presselorbeeren und spielt daher in ihrem Titel auf die angeblich besondere Bedeutung der Erwärmung der letzten Jahrzehnte an:

Rekonstruktion der Temperaturgeschichte unterstreicht Bedeutung der kürzlichen Erwärmung

Noch am Erscheinungsdatum des Artikels war die Nachricht über den Atlantik geschwappt, wo die deutsche Presse die bedrohliche Nachricht ihren Lesern lustvoll und ungeprüft kredenzte. So berichtete der Berliner Tagesspiegel:

In den vergangenen Jahrzehnten sind die Temperaturen im globalen Durchschnitt gestiegen. Das zeigen zahlreiche Studien. Wie die Entwicklung über einen längeren Zeitraum aussieht, ist schon schwieriger festzustellen, da brauchbare Daten über das Weltklima nur für die letzten 1500 Jahre vorlagen. Shaun Marcott von der Oregon State University und Kollegen haben diese Spanne nun beträchtlich erweitert auf 11 300 Jahre. Ihre Daten zeigen, dass es derzeit wärmer ist als in drei Vierteln der gesamten Beobachtungszeit. Und dass es sehr wahrscheinlich ist, dass die Erde bald einen neuen Temperaturrekord erleben wird.

Auch die klimaaktivistische Webplattform klimaretter.de freute sich sehr über die neue Studie und schrieb:

Die globalen Temperaturen steigen derzeit schneller als jemals zuvor seit dem Ende der letzten Eiszeit. Das ist das Ergebnis einer Studie, bei der ein Team von Wissenschaftlern um den Geologen Shaun Marcott von der Oregon State University in Corvallis die Temperaturen der vergangenen 11.300 Jahre rekonstruiert hat. “Wir wussten bereits, dass die Erde heute wärmer ist als während der vergangenen 2.000 Jahre”, sagt Marcott. “Jetzt wissen wir, dass sie heute wärmer ist als während – fast – der gesamten letzten 11.300 Jahre”. Steigt die Erwärmung im bisherigen Tempo, dann, so Jeremy Shakun von der Havard University, einer der Co-Autoren der Studie, “sind wir auf dem Weg zu einem Planeten, der ganz anders ist als das, was wir bis jetzt gewohnt sind”.

Shaun Marcott selbst macht es in einem Beitrag im National Journal ganz deutlich:

„Wir fanden, dass die Temperaturen in den letzten hundert Jahren im gleichen Maße angestiegen sind, wie sie im Laufe der letzten 6000 Jahre gefallen sind. In anderen Worten: Die Änderungsrate [der Erwärmung] ist sehr viel größer als irgendwann im gesamten Holozän“ [welches die letzten 11.500 Jahre nach Ende der Eiszeit abdeckt].

Shaun Marcott war über Nacht berühmt geworden, wie sein großes Vorbild Michael Mann. Die Presse riss sich um den Jungforscher. Die ganze Welt interessierte sich plötzlich für seine Meinung, wollte zitierfähige Sätze aus dem Mund des Shooting Stars hören, welche sogleich digital um die ganze Welt gefunkt wurden. Vertreter des IPCC beglückwünschten den jungen Mann zu seiner ausgezeichneten Arbeit. Der Weg zu einer goldenen Karriere stand offen. Wie bereits bei Michael Mann geschehen, konnte Marcott nun auf schnelle Beförderung, zügige Professur und verantwortungsvolle IPCC-Posten hoffen. Nach 15 enttäuschenden Jahren des Erwärmungsstopps gab es nun endlich wieder Hoffnung auf neue Temperaturrekorde. Endlich schien hier die neue Arbeit zu sein, die den Schlüssel zum ganz großen Neustart der Klimakatastrophe darstellte. Hier war er, der Beweis, dass alleinig der Mensch an der Klimaerwärmung Schuld war.

Man kann sich vorstellen, dass der Vater des ursprünglichen Hockey Sticks ganz aus dem Häuschen war. Michael Mann twitterte vergnügt, dieses Paper wäre der langersehnte ‚Dolch im Herzen‘ der Klimaleugner. Und Marcott hielt sich ganz eng an sein großes Vorbild, lobt diesen für seine Pionierarbeit und seine Ausdauer im Kampf gegen die Feinde der Wissenschaft. Im Wetterzentrale Forum jubilierte ein K.a.r.S.t.e.N, dies wäre doch eine geradezu bahnbrechende Arbeit, ein absoluter Meilenstein.

Wiederauferstehung einer Kurve: Kann man ihr wirklich vertrauen?

Klingt alles ziemlich gut. Trotzdem wollen wir uns die eigentlich unnötige Mühe machen und schauen kurz auf die in den Pressemitteilungen und Zeitungsartikeln gelobte neue Temperaturkurve:

Abbildung 1: Globale Temperaturrekonstruktion für die letzten 11.300 Jahre. Aus Marcott et al. (2013).

In der Tat ragt in der Heutezeit eine raketenhaft nach oben schießende Temperaturspitze aus der Kurve heraus. Allerdings erreicht sie gerade so etwa das Temperaturniveau, das bereits 4000 Jahre lang zu Beginn der Nacheiszeit geherrscht hat. Wäre dies nicht auch eine Schlagzeile wert gewesen? Zum Beispiel: „Neue Studie zeigt: Es war bereits tausende von Jahren mindestens so war wie heute.“

Dankenswerterweise haben die Autoren der Studie auch einen vergrößerten Ausschnitt ihrer Temperaturrekonstruktion für die letzten 2000 Jahre dazu gegeben:

Abbildung 2: Globale Temperaturrekonstruktion für die letzten 2,000 Jahre. Aus Marcott et al. (2013).

Fällt Ihnen etwas auf? Genau, das sieht doch fast genauso wie die berühmt berüchtigte Hockey Stick Kurve von Michael Mann aus. Weil jene so wunderschön ist, wollen wir sie hier nochmal zeigen:

Abbildung 3: Temperaturrekonstruktion der nördlichen Hemisphäre für die letzten 2,000 Jahre nach Michael Mann und Kollegen. Aus dem 3. IPCC-Bericht (Fig. 2.20).

Da war er also wieder, der gute alte Hockey Stick. Auferstanden von den Toten. Aber wie konnte dies sein? Neuere Untersuchungen hatten doch zwischenzeitlich eindeutig nachgewiesen, dass es vor 1000 Jahren eine Mittelalterliche Wärmeperiode gegeben haben muss, die in etwa das heutige Temperaturniveau hatte. Zu nennen sind hier beispielsweise die Arbeiten des Schweden Fredrik Ljungqvist (Abbildung 4). Selbst der ursprüngliche Hockey Stick Erfinder Michel Mann musste seine Kurve in den letzten Jahren signifikant verändern und die Mittelalterliche Wärmeperiode wieder integrieren.

Abbildung 4: Temperaturrekonstruktion der außertropischen nördlichen Hemisphäre für die letzten 3,000 Jahre. Nach Ljungqvist 2010.

Auf Basis dieser allbekannten Vorgeschichte hätten sich die wissenschaftlichen Gutachter von Science sowie die internationale Fachpresse eigentlich besondere Mühe geben müssen, die Studie des Jungforschers Marcott auf Herz und Nieren zu prüfen. Ganz so viele Jahre Erfahrung hat er ja noch nicht vorzuweisen, da kann ein bisschen gesundes Misstrauen wohl nicht schaden. Dabei stehen zwei Fragen im Vordergrund:

1) Wo ist die Mittelalterliche Wärmeperiode plötzlich geblieben?

2) Durch welche Daten ist die raketenhafte Erwärmung der letzten Jahrzehnte belegt, die laut der Marcott-Studie zuletzt vor 6000 Jahren erreicht worden sei?

Nur wenige Pressevertreter hatten die Problematik bereits früh erkannt. Dazu gehörte auch Axel Bojanowski von Spiegel Online, der sich bezüglich der Studie von Experten aus Deutschland (Jan Esper, Universität Mainz) und der Schweiz (Ulf Büntgen, Eidgenössische Forschungsanstalt für Wald, Schnee und Landschaft) beraten ließ. Und diese Exerten mahnten zur Vorsicht. Bojanowski schrieb:

Gleichwohl falle auf, dass es den Daten zufolge in den vergangenen 11.300 Jahren nie einen so starken Wärmesprung gegeben habe wie im vergangenen Jahrhundert, seit der Mensch das Klima erwärme, sagt Studienautor Marcott. Ob es jedoch tatsächlich der einzige derartige Temperatursprung gewesen sei, ist Büntgen und Esper zufolge unklar: Die zeitliche Genauigkeit der Kurve liege bei durchschnittlich 120 Jahren, gibt Büntgen zu bedenken. Nur in den vergangenen Jahrzehnten gibt es auf den Tag genaue Aufzeichnungen. “Da kann die jüngste Erwärmung im Vergleich dann dramatischer erscheinen”, sagt Esper. Die meisten Daten stammen vom Meeresgrund. Doch Klimadaten aus dem Ozean zeigen üblicherweise geringere Ausschläge nach warm und kalt als Daten vom Land, erläutert der Forscher. Die Temperatur könnte in Wirklichkeit also mehr Sprünge gemacht haben. Mögliche Auswirkungen solcher Klimaschocks auf historische Ereignisse sollen künftige Studien klären.

Kollegen-Check: Mit wem arbeitet Marcott eigentlich?

Bevor wir uns gleich der Analyse von Marcotts Klimakurve widmen, wollen wir kurz überprüfen, um wen es sich eigentlich bei den drei Co-Autoren des jungen Geologen handelt. Zunächst wäre da Alan Mix. Mix ist Professor an der Oregon State University. Er betreibt das hiesige Isotopenlabor, dessen Messungen für derlei Studien unverzichtbar sind. Interessanter sind jedoch die anderen beiden Mitautoren. Peter U. Clark ist ebenfalls Professor an der Fakultät und fungierte als Doktorvater von Marcott. Aber was noch viel wichtiger ist: Clark ist ‚Koordinierender Leitautor“ für Kapitel 13 (Meeresspiegel) des gerade entstehenden IPCC-Klimaberichts. Dies könnte vielleicht den klimaalarmistischen Ton der Arbeit erklären. Eine böse Vorahnung beschleicht uns: Werden hier möglicherweise noch letzte aufrüttelnde Mosaiksteinchen für den 5. Klimazustandsbericht fabriziert, sozusagen als Auftragsarbeiten für IPCC-Kollegen?

Dieser Verdacht erhärtet sich, wenn wir uns den letzten Co-Autor näher anschauen, Jeremy Shakun. Auch Shakun war bis vor kurzem noch Clarks Doktorand. Bereits vor einem Jahr fiel Shakun mit einem fragwürdigen Paper auf, in dem eines der größten Probleme des IPCC „gelöst“ wurde, nämlich das zeitliche Hinterherhinken des CO2-Verlaufs gegenüber der Temperatur in den letzten 600.000 Jahren. Wie kann das CO2 in einem solchen Fall Wärmetreiber sein? Jeremy Shakun stellte damals neue Altersdatierungen vor, und schwupps sah plötzlich alles viel besser aus (siehe unseren Blogbeitrag „Statistik-Trick befördert CO2 vom Beifahrer zum Chauffeur: Fragwürdiger neuer Shakun-Artikel in Nature“). Co-Autoren der umstrittenen Studie? Peter U. Clark und Shaun Marcott ! Man wird das Gefühl nicht los, dass hier ein Doktorvater seine Schützlinge für fragwürdige IPCC-Zwecke verheizt. Ohne zuviel vorweg nehmen zu wollen: Alterdatierungen spielen auch in unserer aktuellen Geschichte wieder eine wichtige Rolle.

Die Analyse

Schreiten wir nun zur Analyse des wissenschaftlichen Gehalts des Marcott-Artikels. Wir stützen uns dabei auf die wertvolle Arbeit etlicher fleißiger Faktenchecker wie etwa Steve McIntyre, Rud Istvan und Don Easterbrook, die in ihrer Freizeit die Arbeit verrichten, die eigentlich von den bezahlten Vollzeit-Forschern hätte selbst erbracht werden sollen. Die Links zu diesen Analysen sind jeweils in den Text eingearbeitet.

Kümmern wir uns zunächst um den großen, zentralen Temperaturberg in der Kurve, der etliche Jahrtausende des Untersuchungszeitraums dominiert hat. Hier scheint prinzipiell alles in Ordnung zu sein. Es handelt sich nämlich um das wohlbekannte ‚mittelholozäne Klimaoptimum‘ während dessen es auf der Erde um mindestens ein Grad wärmer war als heute. Grund hierfür war die Bahnkonstellation der Sonne um die Erde, so dass während der Nordsommer durch geometrische Effekte mehr Sonneneinstrahlung auf die landreiche Nordhalbkugel geriet (siehe S. 128 in „Die kalte Sonne“).

Kommen wir zur nächsten Frage: Warum sieht der Kurvenverlauf eigentlich so glatt aus? Aus geologischen Untersuchungen wissen wir doch eigentlich, dass der Temperaturverlauf viel hochfrequenter war und sich enorme Änderungen im Jahrhundert bis Jahrtausend-Maßstab ereigneten. Das Rätsel lässt sich zum Glück relativ leicht auflösen. Marcott und Co-Autoren selbst wiesen in der Einleitung ihres Papers hin, dass die verwendeten Datensätze eine mittlere zeitliche Auflösung von nur 120 Jahren haben, einige sogar nur von 500 Jahren. Das heißt, dass das Geschehen von bis zu 500 Jahren auf einen einzigen Punkt verschmilzt. Die Mittelalterliche Wärmephase wurde mit dieser Methode einfach weggeglättet. Zur Analyse der genauen Temperaturgeschichte sind Marcotts Kurven daher überhaupt nicht geeignet. Vielmehr geht es in der Arbeit um den groben, langfristigen Klimaverlauf, der durch das mittelholozäne Klimaoptimum und die darauf folgende Abkühlung im Prinzip auch gut abgebildet ist.

Die wirklich brennende Frage ist jedoch eher methodischer Natur: Wie kann in einer Arbeit, die nur eine zeitliche Auflösung von Jahrhunderten besitzt, eigentlich plötzlich eine Temperaturspitze in der Heutezeit nach oben schießen, die nur wenige Jahrzehnte umfasst? Ein Ding der Unmöglichkeit. Warum sind die Gutachter von Science nicht auf diesen Widerspruch gestoßen? Waren die Gutachter möglicherweise gar nicht daran interessiert, etwaige Schwächen aufzudecken? Zwischenzeitlich kursieren Gerüchte, dass einer der Gutachter Michael Mann gewesen sein soll, was einiges erklären würde. Und noch etwas fällt auf: In Marcotts Doktorarbeit ist das entsprechende Manuskript auf Seite 41 noch als Einreichung bei der Zeitschrift Nature gekennzeichnet. Hatten die Gutachter von Nature den Braten frühzeitig gerochen und das Manuskript kurzerhand abgelehnt?

Bohren wir noch etwas genauer nach und versuchen zu verstehen, wie die moderne Temperaturspitze in Marcotts Kurve zustande kam. Dazu schauen wir zunächst in Marcotts Doktorarbeit nach. Dort ist bekanntlich viel mehr Platz um Dinge zu erklären als in einem vierseitigen Science-Artikel. Aber was für eine Überraschung ! In Marcotts Doktorarbeit taucht die moderne Wärmespitze gar nicht auf ! Falls Sie es nicht glauben, laden Sie sich doch einfach mal das pdf der Arbeit herunter und schauen auf Seite 48 nach. Dort findet sich nämlich die folgende Kurve (Abbildung 4). Das Resultat: Keine moderne Wärmespitze !

Abbildung 5: Globale Temperaturentwicklung der letzten 2000 Jahre laut Marcotts Doktorarbeit 2011. Es fehlt die ominöse moderne Wärmespitze, das Herzstück des späteren Science Artikels.

Shaun Marcott selbst scheint sich also der Problematik durchaus bewusst gewesen zu sein, dass man in einem zeitlich schlecht aufgelösten und stark geglätteten Datensatz nicht plötzlich nach Belieben kurzfristige Zacken einbauen kann. Nun wissen wir alle, dass man in Doktorarbeiten auf keinen Fall Schummeln darf, um schlimme Spätfolgen zu vermeiden, wie einige deutsche Politiker am eigenen Leibe erfahren mussten. In wissenschaftlichen Papers hingegen kann man schreiben was man will. Wenn es von den Gutachtern durchgelassen wird, gilt es als akzeptiert. War die Temperaturspitze im Science-Artikel daher möglicherweise nur eine Art böses Spiel, mal sehen, ob die Gutachter es finden, und wenn nicht, dann umso besser? Wer könnte hinter diesen Bestrebungen stecken? Doktorvater Peter U. Clark, der sich als koordinierender IPCC-Leitautor in unwissenschaftlicher Weise dem klimaalarmistischen Gedankengut verschrieben haben könnte?

Es kommt noch besser. Die Grundlage für Marcotts Temperaturkurve bildeten 73 einzelne Temperaturkurven, die von anderen Forschern in verschiedenen Teilen der Erde erstellt und größtenteils bereits publiziert worden waren. Marcotts Arbeit bestand lediglich darin, die Daten statistisch zu bearbeiten und eine Gesamtkurve daraus zu formen. Und von den 73 verwendeten Temperaturkurven decken lediglich 9 die Zeit ab 1950 ab. In diesen 9 Kurven muss also irgendwie die moderne Wärmespitze der letzten Jahrzehnte stecken, die die Autoren in ihrem Science Paper und den Pressemitteilungen stolz präsentieren und hervorheben.

The Inconvenient Skeptic hat die Originaldaten dieser 9 Kurven einmal aufgetragen:

Abbildung 6: Darstellung der 9 Temperaturkurven, die in Marcotts Studie die Zeit nach 1950 abdecken und aus denen durch geeignete statistische Verfahren eine enorme Wärmespitze generiert wurde. Quelle: The Inconvenient Skeptic.

Sehen Sie es auch? Keine einzige der 9 Kurven besitzt eine ausgeprägte Wärmespitze in den letzten Jahrzehnten. Die Spitze im Science Paper ist ein übles, statistisches Artefakt. Was für eine Riesenpleite. Das Science Magazin sollte sich schleunigst neue Gutachter suchen.

Offensichtlich hat die Marcott-Truppe aber auch an den Originaldaten herumgedoktort, um die Wärmespitze herbeizuzaubern. Spürnasen wieSteve McIntyre fanden schließlich, was passiert war. Marcott nahm sich die „künstlerische Freiheit“ die Altersdatierungen unliebsamer Datenpunkte zu modifizieren, um die gewünschte Hockey Stick-Geometrie zu erhalten. Schauen Sie sich das mal an:

Abbildung 7: Originaltemperaturdaten (rot) und was daraus nach phantasievoller Modifikation durch Marcott et al. wurde. Quelle: Climate Audit.

Das Eingeständnis

Drei Wochen nach dem Erscheinen des Papers, musste die Marcott-Truppe schließlich ihre Flunkerei hinsichtlich der modernen Wärmespitze einräumen. In aller Stille, am Ostersonntag, dem 31. März 2013 erschien auf der klimaalarmistischen Webplattform realclimate.org eine langatmige Erklärung der Autoren, in der sorgfältig in den Buchstabensalat versteckt das überfällige Eingeständnis zu finden war: Ja, die Temperaturen des 20. Jahrhunderts in der publizierten Kurve sind statistisch nicht robust, und die Temperaturspitze daher auch nicht. Lesen Sie die Einlassung im englischen Original:

Question: What do paleotemperature reconstructions show about the temperature of the last 100 years?

Answer: Our global paleotemperature reconstruction includes a so-called “uptick” in temperatures during the 20th-century. However, in the paper we make the point that this particular feature is of shorter duration than the inherent smoothing in our statistical averaging procedure, and that it is based on only a few available paleo-reconstructions of the type we used. Thus, the 20th century portion of our paleotemperature stack is not statistically robust, cannot be considered representative of global temperature changes, and therefore is not the basis of any of our conclusions.

Im Prinzip stand dies sogar bereits auf der ersten Seite im Science Artikel, nur etwas verklausulierter (Fettsetzung ergänzt):

Without filling data gaps, our Standard5×5 reconstruction (Fig. 1A) exhibits 0.6°C greater warming over the past ~60 yrB.P. (1890 to 1950 CE) than our equivalent infilled 5° × 5° area-weighted mean stack (Fig. 1, C and D). However, considering the temporal resolution of our data set and the small number of records that cover this interval (Fig. 1G), this difference is probably not robust.

Da wundert es umso mehr, dass Marcott zum Zeitpunkt des Erscheinens des Artikels in den zahlreichen Medieninterviews stets die angeblich einzigartige Erwärmungsrate der letzten Jahrzehnte hervorhob, obwohl diese Erwärmungsrate nach eigenen Angaben im Paper sowie dem späteren Eingeständnis in keiner Weise belastbar war. Was ging bloß im Kopf des jungen Mannes vor? Wurde ihm zu diesem Vorgehen geraten oder war es seine eigene Idee, die Welt so zu täuschen?

Ein Skandal und keine Folgen?

Der Skandal ist aufgeflogen und trotzdem scheint es keinen der ehemaligen Berichterstatter der Studie zu interessieren. Tagesspiegel,Stuttgarter Zeitung und Klimaretter haben noch immer ihren Originalartikel im Netz, ohne Hinweis oder Addendum auf den sinnentstellenden Fehler. Die klimaalarmistische Gemeinde verstummte plötzlich und ging auf Tauchstation. Klimarealisten wie Ross McKittrick mussten die Lücke füllen und die Öffentlichkeit über die veränderte Sachlage in der Presse informieren.

In einer sorgfältigen Analyse diskutiert Roger Pielke Jr., Professor für Umweltstudien an der University of Colorado at Boulder, ob das Verhalten der vier Autoren der Temperaturstudie möglicherweise sogar den Tatbestand des wissenschaftlichen Fehlverhaltens erfüllt. Pielke kann dabei zeigen, dass die Gruppe um Shaun Marcott die Ergebnisse ihrer Studie in den beiden Pressemitteilungen fehlerhaft dargestellt haben, die dann von einer Vielzahl von Medien im guten Glauben übernommen wurden. Pielke fordert in seinem Artikel die Zeitschrift Science auf, die fehlerhaften Abbildungen im Fachartikel gegen korrekte Versionen auszutauschen und den Text entsprechend zu korrigieren. Weiterhin fordert Pielke die National Science Foundation auf, Korrekturen an ihrer irreführenden Pressemitteilung vorzunehmen. Bislang hat keine der beiden Parteien auf diese berechtigten Forderungen reagiert.

Angesichts der schweren wissenschaftlichen Verfehlungen wäre es vermutlich das Beste, wenn die Autoren das Paper zurückziehen würden. Einen solchen Schritt ist Mitte 2012 bereits eine australische Forschergruppe gegangen, die ebenfalls einen vergeblichen Wiederbelebungsversuch des Hockey Sticks gestartet hatten (siehe unseren Blogbeitrag „Kontroverse um neuen australischen „Hockey Stick“: Autoren ziehen Paper zurück“). Es lohnt sich also durchaus, in den kommenden Wochen öfter einmal auf der Webseite von Retraction Watchvorbeizuschauen. Schließlich wäre dem IPCC und der Oregon State University angeraten, die Aktivitäten des koordinierenden IPCC-Leitautors Peter U. Clark näher unter die Lupe zu nehmen. Die Verkettung seltsamer Vorkommnisse in seiner Forschungsgruppe sollte Anlass genug sein, die dort angewandten Methoden sowie die eigentlich notwendige wissenschaftliche Unparteilichkeit zu prüfen.

Dr. Sebastian Lüning

übernommen von „Die kalte Sonne“

Related Files




Das Ende einer Illusion

Bei Forbes datiert Harry Binswanger den Beginn der Kampagne auf das Jahr 1979 und stellt sie in eine amüsante Perspektive.

„Erinnern Sie sich an das Jahr 1979? Es war das Jahr mit dem Hit ‚We Are Family’ von Sister Sledge, den ‚Dukes of Hazard’ im Fernsehen und Kramer vs. Kramer im Kino. Es war das Jahr, in dem der Schah aus Iran vertrieben worden war. Es war vor dem Internet, vor PCs, vor den Handys und vor Anrufbeantwortern. Aber es lag nicht vor der Kampagne zur globalen Erwärmung.

Im Januar 1979 erschien in der New York Times ein Artikel mit der Schlagzeile: ‚Experten: Wie das Eis in der Antarktis weit verbreitete Überschwemmungen verursachen könnte’…

Wo also ist die Erwärmung? Wo sind die Gondeln auf dem Weg zum Capitol? Wo ist das in Florida eindringende Meer? Oder sonst wo? Wo ist die Klimaänderung, die seit 33 Jahren um die Ecke schielt?”

Er schließt: „Ich bin über das Warten auf die versprochene globale Erwärmung alt geworden”. Buchstäblich: „Ich war 35 Jahre alt, als die Vorhersagen einer drohenden neuen Eiszeit durch die Angst erzeugende Wärmeprognosen abgelöst worden sind. Jetzt bin ich 68, und es gibt immer noch keine Anzeichen für wärmeres Wetter!“

Er drückt das Ganze als Beobachtung mit dem gesunden Menschenverstand aus. Aber man kann es auch durch gemessene harte Daten ausdrücken. Wir kommen jetzt an den Punkt, an dem die Vorhersagen lange genug im Raum standen, um signifikante Vergleiche mit aktuellen Daten durchzuführen, und wir sind jetzt in der Lage, definitiv zu sagen, dass die Vorhersagen entsetzlich übertrieben waren.

Steven Hayward verweist auf Anzeichen, dass selbst die Befürworter der Hysterie um die globale Erwärmung anfangen, zum Rückzug zu blasen.

„Die neue Ausgabe des Economist enthält ein langes Feature über das abnehmende Vertrauen in die Schätzungen der hohen Klimasensitivität. Dass dies im Economist erscheint, ist bedeutsam, weil dieses erhabene britische Nachrichten-Magazin seit Jahren voll auf der Welle des Klimaalarmismus’ mitgeschwommen ist. Ein Korrespondent in Washington hat privat mir gegenüber zugegeben, dass die leitenden Herausgeber in London anhaltende und reguläre Abdeckung der alarmistischen Klimavorhersagen angeordnet haben.

Das Problem wird für die Klimateure immer schlimmer. Wie der Economist in seiner ersten Graphik zeigt, fällt der gegenwärtige Temperaturverlauf eindeutig bis zum untersten Ende seiner vorhergesagten Bandbreite und könnte bald sogar ganz daraus herausfallen, was bedeutet, dass die Modelle falsch sind, oder zumindest, dass irgendetwas vor sich geht, dass in der vermeintlich ‚eindeutigen’ [settled] Wissenschaft nicht eindeutig war“.

Eine bessere Version dieser Graphik findet sich hier, und sie zeigt ganz klar, dass die aktuellen Prognosen nur bis 2006 gehen – und dass sie sich schon jetzt als falsch erwiesen haben.

Man kann einen Graphen wirklich so manipulieren, dass die Daten verzerrt werden, beispielsweise durch Manipulationen der Skala mit ‚Zoom in’ um etwas größer aussehen zu lassen, oder mit ‚zoom out’ um es kleiner aussehen zu lassen. Wir sind an die Zoom-In-Version der globalen Temperaturmessungen gewöhnt, so dass es reizvoll ist, die Zoom-Out-Version zu betrachten: siehe oben rechts!

Anstatt der Verkleinerung der Messungen der Variationen um das vieljährige Mittel, die jährliche Änderungen um wenige Zehntel enorm groß aussehen lässt, dient diese Vergrößerung dazu, uns die Daten in Gestalt absoluter Temperaturmessungen zu zeigen, in der die jährlichen Variationen der letzten 15 Jahre genauso unbedeutend aussehen wie sie wirklich sind.

Im Grunde ist also alles, was die Befürworter der globalen Erwärmung als Beweisbasis für ihre Theorie haben, dass die globale Temperatur Ende der neunziger Jahre etwas höher als normal gelegen hat. Das ist alles. Und beweist nichts. Das Klima variiert, und so weit wir das sagen können, bewegt es sich durchweg im Bereich der normalen Bandbreite.

Das habe ich von Anfang an hinsichtlich der Angstmache um die globale Erwärmung beklagt. Wir verfügen über systematische globale Temperaturmessungen erst seit etwa 150 Jahren, was in relevanten Zeiträumen – einer geologischen Zeitrechnung – lediglich ein Wimpernschlag ist. Mehr noch, die Messmethoden dieser globalen Temperaturen waren nicht immer konsistent, was sie anfällig für Änderungen aufgrund vieler Effekte macht, als da wären unterschiedliche äußere Anstriche der Wetterhütten, der „Wärmeinseleffekt“, der auftritt, wenn beispielsweise eine ursprünglich mitten in Äckern stehende Wetterhütte mit der Zeit immer mehr von Parkplätzen umgeben wird. Und irgendwie scheint unter all den für die Erforschung der globalen Erwärmung ausgegebenen Milliarden nicht viel Geld seinen Weg in enorme internationale Bemühungen gefunden zu haben, die erforderlich sind, um die genaue und konsistente Temperaturmessung sicherzustellen.

Also waren wir nicht in der Lage, etwas zu installieren, was eigentlich der Startpunkt für jedwede Theorie über globale Temperaturen sein sollte: Eine Grundlinien-Definition, was eine normale globale Temperatur überhaupt ist und was eine natürliche Temperaturvariation ist.

Im Bemühen, diese Lücke zu füllen – ohne jemals zuzugeben, was für ein fundamentales Problem das ist – haben die Alarmisten viele Versuche unternommen, eine viel längere Reihe globaler Temperaturen zusammen zu schustern, die viele tausend Jahre zurückreicht. Michael Mann hat den Tenor vorgegeben mit seinem infamen „Hockeyschlager“, wonach die Temperaturen angeblich 1000 Jahre zurück reichen sollten, wobei die gegenwärtigen Temperaturen auf ominöse Art wie das Blatt eines Hockeyschlägers nach oben springen.

Aber Manns Hockeyschläger geriet schon bald unter Feuer wegen seiner fragwürdigen statistischen Methoden und der selektiven Datenauswahl. Sie wurde seitdem fallen gelassen. Das hat aber die Warmisten nicht davon abgehalten, es wieder zu versuchen, diesmal mit einer neuen Graphik, benannt nach dem Leitautor der entsprechenden Studie, Shaun Marcott. Sie soll angeblich die Temperaturen der letzten 11300 Jahre zeigen, dieses Mal mit einem neuen, sogar noch größeren „Blatt“ am Hockeyschläger, der den vermeintlichen Aufwärtstrend der Temperaturen während der letzten 100 Jahre zeigen soll.

Außer dass sich das Ganze in einem neuen Fiasko aufgelöst hat.

Das Problem bei der Verwendung historischer Rekonstruktionen der Temperaturen in der Vergangenheit besteht genau in der Tatsache, dass wir über keine direkten Messungen verfügen, die weiter als 150 Jahre zurück reichen. Also müssen die Wissenschaftler auf „Proxies“ schauen – also andere Dinge, die dazu tendieren, mit der Temperatur zu variieren und die wir messen können. Dazu gehören die Dicke von Baumringen in sehr alten, langsam wachsenden Bäumen, die die jährliche Wachstumsrate des Baumes von Jahr zu Jahr reflektieren. Man beachte, dass ich gesagt habe, diese Messungen tendieren dazu, mit der Temperatur zu variieren. Aber sie werden auch durch viele andere Dinge beeinflusst, von der Regenmenge bis hin zu grasenden, die Rinde abnagenden Schafen.

Diese Proxies sind also nicht sehr genau, und der normale Weg, dies zu kompensieren besteht darin, diese Daten zu „glätten“, um Änderungen nicht nur über sehr lange Zeiträume zu zeigen, sondern auch, den Lärm von Jahr zu Jahr vermutlich auszumerzen. Aber in der Marcott-Studie waren die Daten über so lange Zeiträume geglättet worden, dass man hinsichtlich von Änderungen der letzten 100 Jahre gar nichts sagen kann.

Roger Pielke Jr. berichtet, was passiert ist, als die Autoren dieser Studie über diesen Punkt bohrend ausgefragt worden sind.

In einem später der Studie beigefügten FAQ-Abschnitt, der jüngst bei RealClimate erschienen war, haben Marcott et al. folgendes verblüffendes Zugeständnis gemacht:

„Frage: Was zeigen die Rekonstruktionen der Paläotemperaturen für die letzten 100 Jahre?“

Antwort: „unsere globale Rekonstruktion der Paläo-Temperatur schließt einen sog. „Aufwärtstrend“ [uptick] der Temperaturen während des 20. Jahrhunderts ein. Allerdings stellen wir in der Studie klar, dass dieser Einzelfall von kürzerer Dauer ist als die inhärente Glättung unserer statistischen Mittelungsprozedur, und dass er lediglich auf wenigen verfügbaren Paläo-Rekonstruktionen beruht, die wir verwendet haben. Folglich ist der Abschnitt unserer Paläotemperatur während des 20. Jahrhunderts nicht statistisch robust, kann nicht als repräsentativ für globale Temperaturänderungen angesehen werden und ist daher nicht die Grundlage für auch nur eine unserer Schlussfolgerungen.

Verstehen Sie das?

Falls nicht, wiederhole ich: … Der Abschnitt unserer Paläotemperatur während des 20. Jahrhunderts ist nicht statistisch robust und kann nicht als repräsentativ für die globale Temperatur angesehen werden…

Das bedeutet, dass diese Studie nichts mit einem ‘Hockeyschläger’ zu tun hat, da sie nicht in der Lage ist, die Temperaturen im 20. Jahrhundert auf eine Art und Weise zu reproduzieren, die ‚statistisch robust’ ist. Der neue ‚Hockeyschläger’ ist kein solcher, da Marcott et al. kein Blatt haben…

Die Studie zeigt also eigentlich das Folgende, nachdem ich die statistisch nicht ‚robuste’ Periode des 20. Jahrhunderts aus der Graphik entfernt habe“.

Pielkes amendierte Graphik zeigt einen langen und stetigen Rückgang der mittleren globalen Temperatur während der letzten 1000 Jahre und … das ist alles! Mehr zeigt sie nicht.

Aber Pielke weist darauf hin, dass die Daten aus dem 20. Jahrhundert, dieses dramatische Blatt des Hockeyschlägers, im Mittelpunkt der offiziellen Pressemitteilung und auch der Berichterstattung in den Medien hierzu gestanden hat. Und die Autoren der Studie haben diese Daten in die Graphik gesteckt und veröffentlicht. Übrigens ist dies die Standard-Prozedur der Alarmisten der globalen Erwärmung: man veröffentliche eine Studie, die hinsichtlich der Fakten zurückhaltend und vorsichtig ist – dann verpacke man sie in eine sensationelle Presseerklärung mit übertriebenen Behauptungen und einem Blickfang in Gestalt einer grellbunten Graphik, um den Journalisten ein öffentlichkeitswirksames Bild zur Veröffentlichung in die Hand zu geben.

Pielke ist sehr zurückhaltend hinsichtlich der Verwendung des Ausdrucks „wissenschaftliches Fehlverhalten“, was an sich ein zurückhaltender Begriff für „Betrug“ ist. Aber das muss er nicht. Als mir dieses Ereignis in den Nachrichten vor Augen kam, habe ich es meiner Frau erklärt, und sie sagte: „Also haben sie einfach die Zahlen frisiert“. Nun, nicht ganz, habe ich versucht zu erklären, sie haben schon reale Zahlen verwendet. Es ist nur – sie sind hinsichtlich der relevanten statistischen Methodik nicht signifikant, und – dann unterbrach sie mich und wiederholte: „Also haben sie einfach die Zahlen frisiert“. Darauf wusste ich keine Antwort. Meine Frau ist in gewisser Weise ungeduldig hinsichtlich der Stepptanz-artigen Abstraktionen der Intellektuellen im Elfenbeinturm, und es gibt ihr das Geschenk, in der Lage zu sein, ihre höflichen Vernebelungen zu zerreißen und zum Grund der Dinge zu kommen. In der Wissenschaft ist es so: Wenn die Zahlen nicht durch eine ordentliche Methode validiert worden sind; falls man nicht sicher sagen kann, ob sie echt und bedeutsam sind, dann ist das Einzige, was man tun muss, sie auszusortieren. Falls man über ungültige Zahlen verfügt und diese in irgendeiner Weise verwendet, gibt es keinen moralischen oder erkenntnistheoretischen Unterschied zwischen ihnen und irgendwelchen Phantasiezahlen.

Der Spielstand der Klimawissenschaft nach einem Drittel eines Jahrhunderts der Klimahysterie ist also Folgender: Sie haben keine verlässliche Grundlage globaler Temperaturmessungen, die es ihnen erlauben würde zu sagen, was normal ist und was nicht. Ihre Projektionen der zukünftigen Erwärmung scheitern definitiv bei der Vorhersage der tatsächlichen Daten. Und jetzt wurden sie wieder einmal dabei erwischt, wie sie an den Zahlen herum fummelten und die Graphen manipulierten, um eine rapide Erwärmung im 20. Jahrhundert zu zeigen, die sie gerne haben möchten, die aber durch tatsächliche Beweise nicht gestützt werden kann.

Eine Theorie mit so vielen Löchern darin hätte schon vor langer Zeit verworfen werden sollen, und sei es nur wegen der Tatsache, dass sie den Politikern sehr gelegen kommt, die damit die fossilen Treibstoffe als den Planeten zerstörendes Teufelszeug brandmarken können und die es radikalen Umweltaktivisten erlaubt, ihrem Primitiv-Kreuzzug für die Schließung der industriellen Zivilisation eine moderne, wissenschaftliche Maske aufzusetzen.

Aber können wir alle nicht mal damit aufhören, das „Wissenschaft“ zu nennen?

Robert Tracinski

Robert Tracinski is editor of The Tracinski Letter and a contributor to RealClearMarkets.

Link: http://www.realclearpolitics.com/articles/2013/04/04/the_end_of_an_illusion_117795.html

Übersetzt von Chris Frey EIKE




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #20 bis #24

Vergessen Sie Logik, Statistik und Wahrscheinlichkeitstheorie. In „Unfall- & Katastrophenrisiko”, der ersten großen Kategorie in Sladeks „100 guten Gründen”, werden diese ausgetretenenen Pfade verlassen, ganz im Sinne eines QUERDENKER®s (hier).Egal ob von der GRS oder der OECD, Gutachten sind für die selbsternannten „Stromrebellen” und ihren Elektrizitätswerken Schönau nichts wert, es sei denn, man schafft es, Worte wie „Schadensfall” als Super-GAU umzudeuten (#20), oder ausgetüftelte Sicherheitsmechanismen als „reines Glück” zu interpretieren (#22). Originell ist auch die Aussage (#21), je länger ein KKW laufe, desto mehr meldepflichte Ereignisse gebe es (richtig, und je älter ein Mensch ist, desto mehr hat er gegessen). In der Welt der Sladeks müssen neue Erstatzteile zwangsläufig schlechter als alte sein (#23), alte Kernkraftwerke hingegen schlechter als neue (#24). Auch wir gratulieren den Sladeks und mit ihnen auch dem QUERDENKER®-Förderer BMW zu ihrem Mut, so viele Regeln der Vernunft auf einmal gebrochen zu haben.

Hundert gute Antworten #20 – #24

#20: Sicherheitsmängel

Behauptung: Keines der 17 Atomkraftwerke in Deutschland bekäme heute noch eine Genehmigung.

Die EWS behaupten

Ob fehlende Schutzhülle, marode Elektrik oder spröder Stahl: Kein einziges Atomkraftwerk in Deutschland ist sicherheitstechnisch auf dem Stand von Wissenschaft und Technik, den das Bundesverfassungsgericht eigentlich fordert. Da helfen auch millionenteure Nachrüstungen nichts.

Als Neubau bekäme wegen der eklatanten Sicherheitsmängel heute keines der 17 Atomkraftwerke in Deutschland nochmals eine Genehmigung.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Ob raffinierte redundante Sicherheitssyteme, gestaffeltes Containment, multiple Notkühlsysteme, regelmäßige Sicherheitschecks, unplanmäßige Stresstests, strenge Grenzwertüberwachungen, IAEO-Kontrolle, umfangreiche Risikostudien und vieles mehr: Kein einziges Kernkraftwerk in Deutschland, das nicht auf dem Stand von Wissenschaft und Technik wäre.

Die Auflagen des Bundesverfassungsgerichts sind bei der Kernenergie auch bei den ältesten deutschen Kernkraftwerken mehr als erfüllt, das haben umfangreiche Studien und Kontrollen immer wieder gezeigt. Selbst nach den Sicherheitsstandards von 1989, als die letzte GRS-Studie zum Risiko von Kernkraftwerken durchgeführt wurde, ist statistisch höchstens ein „Schadensfall” in 33.000 Reaktorjahren zu erwarten. Ein Schadensfall bedeutet noch lange keine Kernschmelze, und eine Kernschmelze noch lange keine Freisetzung von Radioaktivität. Das Risiko für Leib und Leben ist selbst unter konservativen Annahmen mit Abstand geringer als bei jeder anderen Energieerzeugung, sogar Wind und Sonne, das besagen die wissenschaftlichen Fakten.

Beim neuen EPR konnte man die Sicherheit sogar noch mehr verbessern, so dass nur noch alle durchschnittlich 1 Million Reaktorjahre ein Schadensfall eintritt. Aber den wollte Deutschland nicht. Nun wird er in Frankreich, Finnland und China gebaut.

Quellen von KRITIKALITÄT


#21: Altersrisiko

Behauptung: Je länger ein Atomkraftwerk in Betrieb ist, desto unsicherer wird es.

Die EWS behaupten

Technik und Elektronik halten nicht ewig. Schon gar nicht in einem Atomkraftwerk. Rohre werden spröde, Steuerungen fallen aus, Ventile und Pumpen versagen. Risse wachsen, Metalle korrodieren. Im Atomkraftwerk Davis Besse (Ohio/USA) fraß sich ein Loch unbemerkt durch den 16 Zentimeter dicken Stahl des Reaktordruckbehälters. Nur noch eine dünne Schicht Edelstahl an der Innenseite verhinderte das Leck.

Je länger ein Atomkraftwerk läuft und je älter es ist, desto riskanter ist sein Betrieb. Das kann man auch aus der Statistik der meldepflichtigen Ereignisse ablesen: Alte Reaktoren wie Biblis und Brunsbüttel tauchen dort deutlich häufiger auf als jüngere.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Meldepflichtige Ereignisse sind nicht immer Störungen und erst recht nicht immer Störfälle, die es in Deutschland seit 10 Jahren nicht mehr gegeben hat. In der Statistik des Bundesamtes für Strahlenschutz weisen ältere KKWs 2009 und 2010 keine signifikant höhere Rate an meldepflichtigen Ereignissen auf als neuere. Dass sie insgesamt mehr Vorfälle gemeldet haben ist nicht verwunderlich, denn es gibt sie ja länger.

Nicht ohne Grund hat man ein Klassifikationssystem für meldepflichtige Ereignisse eingeführt. Dies dient der stetigen Verbesserung der Sicherheit, was man von anderen Einrichtungen wie Chemiefabriken, in denen auch Materialien für Solarzellen und Windkraftanlagen hergestellt werden, nicht sagen kann. Diesen enormen Sicherheitsvorteil als Beleg für schlechte Technik anzuführen ist ungefähr so logisch, wie jemanden, der vorsorglich häufiger zum Arzt geht, als kranker zu bezeichnen.

Zu suggerieren, kleinere Schäden wie Risse und Lecks, auch im nuklearen Bereich, würden zu katastrophalen Konsequenzen für die Umgebung führen, ist unverantwortlich. Der Vorfall in Davis-Besse zeigte auch, dass zwar eine der fünf Sicherheitsbarrieren versagen kann, aber auch, dass dies noch lange keine Gefahr für die Bevölkerung darstellt. Die redundante Mehrfachabsicherung sowie die passiv wirkenden Sicherheitsbarrieren verhindern effektiv, dass nennenswerte Strahlenbelastungen nach außen treten. Der Aufwand der Nachrüstung und Wartung bestimmt letztendlich die Häufigkeit von derartigen Ausfällen, wie bei allen technischen Industrieanlagen. Der Betreiber musste umfangreiche Auflagen erfüllen und hohe Strafen zahlen.

Bei der „dünnen Schicht” handelt es sich übrigens um die korrosionsfeste Innenwand – es ist also keineswegs glücklicher Zufall sondern gezielte Auslegung, dass diese nicht durchfressen wurde.

Quellen von KRITIKALITÄT


#22: Meldepflichtige Ereignisse

Behauptung: Alle drei Tage kommt es zu einem ›sicherheitsrelevanten Ereignis‹ in einem deutschen Atomkraftwerk.

Die EWS behaupten

Die Störfallmeldestelle des Bundesamts für Strahlenschutz verzeichnet Jahr für Jahr zwischen 100 und 200 Störfälle und für die kerntechnische Sicherheit bedeutsame Ereignisse in deutschen Atomkraftwerken – seit 1965 insgesamt etwa 6.000. Jedes Jahr haben einige dieser meldepflichtigen Ereignisse das Potenzial, einen schweren Unfall auszulösen. Dass es bisher in Deutschland nicht zum Super-GAU kam, war mehrmals nur Zufall und Glück.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die hier gewählte Formulierung soll suggerieren, dass es jedes Jahr 100 bis 200 Störfälle gibt. Dies ist jedoch falsch. Insgesamt gab es in Deutschland nur 3 Störfälle, wobei die letzten 2 (Philippsburg) 11 Jahre zurück liegen und sich nachträglich als unkritisch, wohl aber nicht vorschriftsmäßig, herausgestellt haben. Der Rest sind „Störungen” und „Vorfälle”, die zwar meldepflichtig, aber sicherheitstechnisch von geringer Relevanz sind. Auf diese Statistik sollte man stolz sein, aber auch froh, dass man durch ein derartiges Meldesystem ständig Verbesserungen vornehmen kann. Dies zeigt sich auch in der stetigen Abnahme der gemeldeten Vorfälle seit 20 Jahren.

In diesem Zusammenhang einen „Super-GAU” zu erwähnen ist ungefähr so, als würde man es als Zufall und Glück bezeichnen, dass ein Auto mit klemmendem Heckscheibenwischer nicht gleich lichterloh explodiert ist. Die mehrfach installierten, vielseitigen aktiven sowie die ausfallsicheren passiven Sicherheitssysteme und -barrieren bewirken eine nur sehr geringe Ausfallrate, klar belegt durch die Berichte des Bundesamtes für Strahlenschutz.

Quellen von KRITIKALITÄT


#23: Ersatzteilmangel

Behauptung: Bei Reparaturarbeiten an Atomkraftwerken entstehen leicht neue Fehler.

Die EWS behaupten

Die noch in Betrieb befindlichen Atomkraftwerke in Deutschland sind zwischen 1974 und 1989 ans Netz gegangen. Viele Bauteile gibt es heute gar nicht mehr. Für Reparaturen muss also Ersatz gebastelt werden. Ein riskantes Unterfangen, denn wenn sich die Ersatzteile nicht unter allen Umständen genau so verhalten wie das Originalbauteil, kann das gravierende Folgen haben.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Nachbauten arbeiten wesentlich besser als die original konzipierten Bauteile, gut zu sehen z.B. bei Oldtimer-Automobilen. Logisch, denn bei Nachbauten fließt ja nicht nur das Wissen der Originalkonstruktion, sondern auch die langjährige Benutzungserfahrung mit ein. Fachmännisch gefertigt und vor dem Einbau mindestens genauso geprüft wie das Original ist mit einer deutlichen Verbesserung zu rechnen. Warum sollte dies ausgerechnet bei sicherheitsrelevanten Teilen in Kernkraftwerken anders sein?

Jahrzehntelange Material- und Sicherheitsforschung als „Basteleien” abzutun ist ein Zeichen tiefer Ignoranz und Ahnungslosigkeit. Hier informiere man sich erst mal über die technische Realität, statt die persönliche schlechte Erfahrung mit Nachbauten von Druckerpatronen auf Kernkreaktoren zu übertragen.

Quellen von KRITIKALITÄT


#24: Steinzeittechnik

Behauptung: 30 Jahre alte Technik ist nur eins: reif für den Schrott!

Die EWS behaupten

Der Baubeginn der noch in Betrieb befindlichen deutschen Atomkraftwerke lag zwischen 1970 und 1982.

Kein vernünftiger Mensch würde je behaupten, ein Auto wie der VW-411 von 1970 sei heute noch »sicherheitstechnisch auf dem aktuellen Stand« – selbst wenn er in der Zwischenzeit die Stoßdämpfer erneuert, die Bremsen gewechselt und Anschnallgurte nachgerüstet hätte. Und jeder, der ankündigte, seinen Commodore-C64-Heimcomputer (Bj. 1982-93) auf heutige Standards nachrüsten zu wollen, würde lauthals ausgelacht.

Nur bei Atomkraftwerken ist all das nach Ansicht ihrer Betreiber kein Problem …

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Das Alter einer Anlage hat nicht unbedingt etwas mit der Sicherheit zu tun. Kein vernünftiger Mensch forderte je, man solle endlich die Pyramiden von Gizeh abreissen, weil sie »veraltet« sind. Solange die Gebäudestruktur intakt ist, ist das Gebäude sicher. Das Innenleben hingegen kann man beliebig austauschen. Auch einen VW-411 könnte man sicherheitstechnisch auf den aktuellen Stand bringen, nur wäre das vermutlich teurer als ein Neukauf. Und jemand, der in sein altes C64-Gehäuse einen moderen Computer einbaut, würde für dieses »Kunstwerk« großen Applaus ernten.

Die Sicherheitsanforderungen werden zuerst formuliert, dann entscheidet man, mit welchem Aufwand die Anlage diese Forderungen noch erfüllen kann. Bei Kernkraftwerken sind hier die passiv wirkenden Barrieren (Beton-/Stahlhüllen, Filter und Brennelementehüllen) besonders wichtig, welche aber meist nicht modernisiert werden müssen. Die sehr strengen KTA-Regeln beschreiben detailliert alle Anforderungen an Bauteile und Verfahren.

Die erst 50 Jahre junge „steinzeitliche” Kerntechnik nutzt bisher nur ein Bruchteil ihres Potentials – und ist damit bereits 20 mal so effizient wie z.B. die „moderne” Windenergie. Letztere wurde tatsächlich schon vor der Bronzezeit genutzt, und ihr technisches Potential ist heute längst ausgereizt.

Quellen von KRITIKALITÄT





Indien öffnet sich der Förderung von Schieferöl und –gas

Bild rechts: Die Bohrplattformen F. G. McClintock und C. E. Thornton der Firma Transocean Sedco Forex wurden im Jahr 2001 aus dem Golf von Mexiko nach Indien verlagert. (Foto: Transocean Sedco Forex).

Unter einer neuen Politik, die darauf abzielt, den heimischen Output fossiler Treibstoffe zu erhöhen, wird es Unternehmen erlaubt, Öl und Gas aus Schiefergestein zu extrahieren aus mehr als 250 Blöcken, die die Regierung bereits vergeben hat, sagte Vivek Rae, die oberste Bürokratin im Ölministerium. Die neuen Regeln werden es ONGC, dem größten nationalen Unternehmen, erlauben, in drei Jahren fast augenblicklich und in „substantieller Quantität“ mit den Schieferbohrungen zu beginnen, sagte der Vorsitzende Sudhir Vasudeva.

Indien, wo die Ausbeutung von Schiefergestein derzeit noch verboten ist, versucht es den USA nachzumachen, wo ein Boom zur Wiederbelebung der Industrie geführt und die weltgrößte Wirtschaft den Weg zur Energie-Unabhängigkeit eingeschlagen hat. Die Technologie, die es den Bohrern ermöglicht, Millionen Liter Wasser und Chemikalien in Risse zu pressen, um Felsen zu brechen, könnte Premierminister Manmohan Singh helfen, sein Ziel zu erreichen, Energieimporte um 50 Prozent in sieben Jahren und auf Null bis zum Jahr 2030 zu senken, selbst wenn die globalen Regulatoren Verschmutzungs-Risiken durch das hydraulische Brechen oder Fracking eintreten sollten.

„Wir wollen, dass der Prozess beginnt, um es Unternehmen zu ermöglichen, mit der Erzeugung zumindest in Feldern zu beginnen, in denen sie schon jetzt konventionell nach Öl und Gas bohren”, sagte Ölsekretär Rae in einem Interview. „Dies ist die erste Phase, und später werden wir noch mehr Gebiete erschließen“.

Genehmigung im Kabinett

Das Ölministerium plant, die neue Schiefergas-Politik in etwa einer Woche dem Kabinett und Premierminister Singh zur Genehmigung vorzulegen. Die Regierung wird später Blocks speziell für die Schieferöl- und –gaserzeugung versteigern, sagte er ohne nähere Erläuterungen.

Die Singh-Administration trachtet danach, die heimische Energieerzeugung wiederzubeleben als Reaktion auf den einen neuen Rekord erreichenden Importpreis von 140 Milliarden Dollar im am 31. März 2012 zu Ende gegangenen Jahr, was etwa 8 Prozent des Bruttoinlandproduktes ausmacht. Die Sicherung der Energieversorgung ist unabdingbar, um das Wirtschaftswachstum auf die angepeilten 10 Prozent zu bringen. In diesem Jahr waren es 5 Prozent, das niedrigste Wachstum in einem Jahrzehnt.

Indien könnte zwar immer noch mindestens drei Jahre brauchen bis zu einer kommerziellen Erzeugung von Schiefergas in großem Stil, untersuchen doch die Forscher noch die Daten aus den Feldern. Aber der Output aus diesen Formationen kürzt Importe in die USA, und Unternehmen wie Royal Dutch Plc und Total SA in Frankreich erkunden den Treibstoff in China.

Klarheit ist notwendig

„Eine Menge Klarheit ist erforderlich hinsichtlich der Gaspreise und der fiskalischen Anreize für die neue Politik”, sagte Mayur Patel, ein in Chennai beheimateter Analyst bei Spark Capital Advisors, der ein Vorkaufsrecht bei ONGC hält. „Während die Erzeugung von Schiefer in den bestehenden Blöcken relativ schneller erfolgt, würden der Landverbrauch und die die Wasserversorgung betreffende Belange die Entwicklung neuer Blocks behindern“.

Die ONGC-Anteile sind in diesem Jahr um 16 Prozent auf 311,40 Rupien in Mumbai gestiegen im Vergleich zu einem Rückgang um 3 Prozent beim Eckpfeiler S&P BSE Sensex.

Frankreich hat Fracking erst einmal geächtet aus Furcht, dass der Prozess die Grundwasserversorgung gefährden könnte, während Deutschland vorschlägt, den Prozess in Landschaftsschutzgebieten für ungesetzlich zu erklären. In den USA machte eine Flutwelle von Schiefergas von Texas bis nach West Virginia die Nation im Jahr 2009 zum größten Erzeuger dieses Treibstoffes, womit noch Russland überflügelt worden ist.

Der amerikanische Chemistry Council schätzt, dass billiges Erdgas 72 Milliarden Dollar an Kapitalinvestitionen erzeugen könnte, wenn petrochemische Unternehmen ihre Ausgaben wieder in den USA tätigen oder deutlich erhöhen.

Zusätzliche Bohrlöcher

ONGC, im Besitz der größten Öl- und Gas-Ländereien in Indien, wird zusätzliche Löcher bohren und mehr Pipelines bauen müssen, um das Gas zu transportieren, sagte Vasudeva. Schieferöl und –gas können in 10 Becken in Indien vorkommen.

Einer Schätzung des US Geological Survey (USGS) im vorigen Januar zufolge verfügt Indien über 6,1 Trillionen Kubikfuß technisch förderbarer Gasreserven in drei Becken. Das waren weniger als 10 Prozent der Schätzung über 63 Trillionen Kubikfuß aus dem Vorjahr durch die US-Energy Information Agency.

„Die USGS-Studie war auf drei Becken in Indien begrenzt, und das wirkliche Potential ist wahrscheinlich größer als das”, sagte Vasudeva. „Wir untersuchen und bewerten das gerade“.

ONGC wurde bzgl. Erdgas in der indischen Provinz West Bengal fündig, wie das Unternehmen am 27. Januar 2011 feststellte. Das Unternehmen unterzeichnete einen Vertrag mit Conoco Phillips im März vorigen Jahres zur Ausbeutung der Schiefer-Ressourcen in Indien und Nordamerika.

Rekorddefizit

Höhere Preise für Ölimporte sind ein Grund für Indiens derzeit beispiellos wachsendem Handelsdefizits von 32,6 Milliarden Dollar innerhalb von drei Monaten bis zum 31. Dezember oder 6,7 Prozent des BIP.

„Wir müssen alles, was wir können tun, um diese Imprtrechnung zu reduzieren und der Wirtschaft zu helfen, wieder Fahrt aufzunehmen”, sagte Ölminister Veerappa Moily in Neu-Delhi am 24. März. „Zunehmende Erkundung zum Auffinden von noch mehr Öl und Gas ist der Anfang“.

Dem zuständigen Ministerium zufolge verfügt China über 25,08 Trillionen Kubikmeter ausbeutbarer Schiefergas-Reserven an Land. Der größte Energieverbraucher der Welt hat sich zum Ziel gesetzt, 6,5 Milliarden Kubikmeter Schiefergas bis zum Jahr 2015 zu fördern und 60 bis 100 Milliarden Kubikmeter bis zum Jahr 2020, jedenfalls der National Development and Reform Commission zufolge.

Höhere Förderung von Schiefergas wird Reliance Industries einen kräftigen Schub verleihen, hat sich dieses Unternehmen doch verzweifelt bemüht, einen fast drei Jahre langen Rückgang der Fördermenge aus dem größten Feld der Nation umzukehren. ONGC trachtet danach, die Fördermenge aus mehr als vier Jahrzehnte alten Feldern in Indien zu erhöhen und zu helfen, den Output des Landes zu steigern, der seit November 2010 jeden Monat zurück gegangen war verglichen mit dem Jahr zuvor. Dies geht aus Daten des Ölministeriums hervor.

Beteiligungen kaufen

Anteile der Firma Reliance, kontrolliert von dem Milliardär Mukesh Ambani, sind dieses Jahr um 7,9 Prozent gefallen. Sprecher Tushar Pania hat auf eine E-Mail nicht geantwortet, in der eine Stellungnahme zu Plänen des Unternehmens verlangt worden war, Schiefergestein in Indien auszubeuten.

Reliance kaufte Anteile von Schieferfeldern in den USA von drei Unternehmen einschließlich Pioneer Natural Resources Co. und Carrizo Oil & Gas Inc. im Jahr 2010. Oil India Ltd., der zweitgrößte Förderer in Staatsbesitz, sowie die Indian Oil Corp., der größte Veredler, haben sich im Oktober letzten Jahres gemeinsam entschlossen, einen Anteil an ihrer ersten Schieferanlage in Übersee zu kaufen, und GAIL India Ltd., der Gastransporteur Nr. 1, stimmte zu, in die Felder von Carrizo im September 2011 zu investieren.

„Diese Unternehmen hätten durch ihre Erfahrungen in den USA alles über Technologie erfahren“, sagte Neelabh Sharma, ein Analyst bei BOB Capital Markets Ltd. in Mumbay, einem Tochterunternehmen der staatlichen Bank of Baroda. „Die Unternehmen werden wissen, welches die beste Schieferformation ist, um sie anzubohren. Wenn die Politik ausländische Investitionen zulässt, könnten sie sogar ihre Partner nach Indien bringen.“

Rakteem Katakey, Bloomberg News

Bloomberg

You can read more from Bloomberg at www.bloomberg.com

Link: http://fuelfix.com/blog/2013/04/01/india-opens-shale-oil-and-gas-for-production/

Übersetzt von Chris Frey EIKE




Meine unentdeckte Insel und das Computerproblem des Met. Office

Es lagen tote Papageitaucher am Strand, ebenso wie entlang der gesamten Ostküste. Die Kälte dieses Frühjahrs hatte ihnen hart zugesetzt. Einige Brutkolonien der Papageitaucher waren schlecht dran während der letzten Jahre, nachdem sie in den neunziger Jahren einen Boom erlebt hatten. Aber im Gegensatz zu den Vorhersagen der globalen Erwärmung sind es nicht die südlicher liegenden Kolonien, die am stärksten betroffen waren. Das Gleiche gilt für Lummen, Dreizehenmöwen und Brandseeschwalben: die Kolonien im Norden nehmen ab.

Nicht nur hier [in UK] war die Kälte unerbittlich. Die Mitteltemperatur für März lag in Deutschland unter Null Grad. Norwegische Landwirte können kein Gemüse anbauen, weil der Boden noch drei Fuß tief gefroren ist. In den USA hat es vorige Woche bis nach Oklahoma hinunter geschneit. Das ist furchtbar für die Farmer. Aber schlechtes Wetter wie dieses hätte in früheren Jahrhunderten Todesopfer gefordert. In den neunziger Jahren des 17. Jahrhunderts sind 2 Millionen Franzosen wegen schlechter Ernten verhungert. Ich habe nie verstanden, warum die Leute sagen, dass die Globalisierung das System anfälliger macht: das Gegenteil ist der Fall. Ernteausfälle mag es regional geben, aber niemals global, denn der Welthandel stellt sicher, dass wir in solchen Fällen immer Zugang zu überreichlichen Ernten anderswo haben.

Das gute alte Met. Office hat es wieder einmal grandios vergeigt. Im Dezember sagte es: ‚Im Februar und März … sind übernormale Mitteltemperaturen in UK wahrscheinlich’. Im vorigen Jahr um diese Zeit sagte es im April – Mai – Juni ‚eine etwas höhere Wahrscheinlichkeit für Bedingungen trockener als normal’ voraus mit dem April als dem voraussichtlich trockensten Monat. Dies kam vor dem nassesten April seit Beginn von Aufzeichnungen. Das Met. Office ist großartig hinsichtlich kurzfristiger Vorhersagen, aber die Menschen, die diesen Job machen, müssen mit der Beschädigung ihres Rufes leben, und zwar aufgrund eines Computers, den man gelehrt hat, an eine rapide globale Erwärmung zu glauben. Im September sagte es einen Winter ‚milder als im Mittel’ voraus, der dann schließlich der kälteste Winter seit 30 Jahren gewesen war. Ein Jahr danach sagte es ‚mit einer Wahrscheinlichkeit von 60 bis 80% mildere Temperaturen als im Mittel’ voraus, bevor der kälteste Dezember seit Beginn von Aufzeichnungen kam.

Zumindest einer ist glücklich über die Kälte. Gary Lydiate ist Eigentümer einer der Export-Erfolgsgeschichten in Northumberland, nämlich der Firma Kilfrost, die 60% von Europa und einen großen Teil der Welt mit Enteisungsflüssigkeit für Flugzeuge beliefert. Im Januar, als ich ihm in einem Restaurant begegnet bin, strahlte er: ‚Joe sagt, dass dieses kalte Wetter noch drei Monate andauern werde’. Joe ist Joe Bastardi, ein privater Forecaster, der sich seine Beurteilungen nicht durch die Wolke um die globale Erwärmung vernebeln lässt. Aufgrund von Jetstreams, El Niños und Oszillationen im  Ozean sagte Bastardi, dass der Winter 2011 – 2012 nur in Osteuropa sehr kalt werden würde, was er auch war, aber dass der Winter 2012 – 2013 auch in Westeuropa kalt sein würde, was er ebenfalls war. Er sagt jetzt eine Erwärmung für Mitte des Monats in UK vorher.

David Rose von der Mail on Sunday wurde wegen seiner Äußerung verunglimpft, dass es seit 16 Jahren keine globale Erwärmung mehr gegeben habe, aber selbst der Vorsitzende des IPCC räumt inzwischen ein, dass er recht hat. Rose ist auch scharf dafür kritisiert worden, dass er die Aufmerksamkeit auf Studien gelenkt hat, denen zufolge die Klimasensitivität von Kohlendioxid viel geringer als gedacht ist – so wie es mir ergangen ist, als ich den gleichen Punkt im Wall Street Journal angesprochen hatte. Selbst der Economist hat es inzwischen zugegeben. Dank an Patrick Michaels, damals an der University of Virginia, der zusammen mit drei Kollegen im Jahr 2002 eine sorgfältig erarbeitete Schätzung der Klimasensitivität veröffentlicht hatte. Für die Kühnheit zu sagen, dass ‚die Erwärmung im 21. Jahrhundert moderat ausfallen werde’, wurde Michaels geächtet. Hinter den Kulissen begann eine Kampagne, Chris de Freitas, den Herausgeber der Zeitschrift, die über diese Studie berichtet hatte, zu feuern. Und doch stimmt Michaels’ zentrale Schätzung der Klimasensitivität gut mit anderen Studien aus jüngster Zeit überein. Wissenschaftler können sich manchmal auf bemerkenswerte Weise wie Priester verhalten.

Matt Ridley

Link: http://www.spectator.co.uk/the-week/diary/8880591/diary-603/

Übersetzt von Chris Frey EIKE




Der Mythos vom wissenschaftlichen Konsens: Faktencheck von Schellnhubers „Drei bequeme Unwahrheiten“

Artikel von Schellnhuber aus den Salzburger Nachrichten

Die Angriffe der „Klimaskeptiker“erfordern fächerübergreifende Solidarität. Sie wollen am System der Wissenschaft rütteln und sind von einem Geist der Antiaufklärung getragen.

Die Hassmails sind das Geringste. Als Betrüger und Lügner werden Klimawissenschafter tagtäglich beschimpft; jedenfalls die unter ihnen, die in den Medien sichtbar sind. Schon gravierender sind manche Drohungen: Bei einem Vortrag in Australien reckte mir jemand eine Henkersschlinge entgegen, und Forscherkollegen an der Universität Canberra wurden vor Kurzem in sogenannte sichere Büros umgesiedelt.

Vollends bizarr aber ist, wie in der öffentlichen Debatte über die Erderwärmung sogenannten Klimaskeptikern Raum gegeben wird. Dabei werden etwa Ansichten von Kohle-Lobbyisten oder von eifrig-eifernden Pensionisten, die in ihrem Berufsleben möglicherweise tüchtige Ingenieure waren, gern mit den nach den Regeln des Wissenschaftssystems gewonnenen Erkenntnissen auf eine Stufe gestellt.

Um drei bequeme Unwahrheiten geht es dabei.

Die erste: „Es gibt keine vomMenschen verursachte globale Erwärmung.“

Dabei ist gerade in diesem Fall das SystemWissenschaft so einig wie sonst selten. Von 13.950 zwischen 1991 und 2012 veröffentlichten Studien, deren Erkenntnisse im bewährten Verfahren der peer review – der Begutachtung durch andere und durchaus konkurrierende Forscher – erhärtet wurden, sehen nur 24 keinen anthropogenen (also vom Menschen verursachten) Treibhauseffekt.

Damit stehen 99,87 Prozent 0,17 Prozent gegenüber; eindeutiger kann freie Forschung nicht sein. Die zweite bequeme Unwahrheit: „Es mag den Klimawandel geben, aber er ist unschädlich, wenn nicht gar nutzbringend.“Die Wissenschaft jedoch zeigt klar auf, wie drastisch die negativen Auswirkungen ausfallen dürften – auch wenn ihr genaues Ausmaß, der Zeitpunkt ihres Eintretens, die regionale Verteilung weiter Gegenstand intensiver Forschung sind.

Die Zunahme von Wetterextremen, der Anstieg des Meeresspiegels, Veränderungen des etwa für arme Reisbauern in Indien lebenswichtigen Monsuns et cetera sind gut belegte Projektionen. Die Weltbank hat erst kürzlich einen Bericht des Potsdam-Instituts für Klimafolgenforschung zu einer vier Grad Celsius wärmeren Welt auf die globale politische Tagesordnung gesetzt.

Es ist ein Gebot der Vorsorge, jetzt zu handeln, trotz fortbestehender Unsicherheiten. Die dritte bequeme Unwahrheit: „Es gibt gefährlichen Klimawandel, aber der Kampf dagegen ist längst verloren.“

Aus der Sicht des Physikers ist es jedoch sehr wohl weiter möglich, durch die scharfe Minderung der Emission von Treibhausgasen umzusteuern. Nichts im Erdsystem steht dem dagegen. Auch die Ökonomen rechnen vor, dass es die Welt nur wenige Prozentpunkte Wirtschaftswachstum kosten würde, den fossil-nuklearen Entwicklungspfad zu verlassen – während die Kosten des Klimawandels erschreckend hoch ausfallen könnten.

Nun sagen Skeptiker, dass der notwendige politische Wandel unrealistisch sei.

Das allerdings hat mit Wissenschaft nichts zu tun. Und wer auf die wahrscheinlichen Folgen der ungebremsten Erwärmung blickt, kann solch bequeme Resignation nur zynisch finden.

Verblüffenderweise löst all dies keinen Aufschrei aus. Nicht in der Öffentlichkeit, wo so manche in Politik und Medien es „unterhaltsam“ finden, wenn die Erkenntnisse der Wissenschaft diffamiert werden.

Auch nicht bei den Forschern anderer Fächer, obwohl von den Klimaskeptikern das System derWissenschaft als solches angegriffen wird.

Der US-Wissenschafter Benjamin Barber hat die Attacken auf die Klimaforschung als anti aufklärerisch bezeichnet. Sie seien vom gleichen Geist getragen wie der Kampf von bibeltreuen Anhängern der Schöpfungslehre gegen die von Darwin entwickelte Wissenschaft von der Entstehung der Arten. Deshalb ist der Konflikt um die Klimaforschung einer, der alle Geistesarbeiter angeht.

Es wäre somit ein Präzedenzfall für fächerübergreifende Solidarität. Hans Joachim Schellnhuber ist Direktor des Potsdam-Instituts für Klimafolgenforschung (PIK) und Professor für Theoretische Physik an der Universität Potsdam. Schellnhuber ist Vorsitzender des Wissenschaftliche Beirats der deutschen Bundesregierung Globale Umweltveränderung und langjähriges Mitglied desWeltklimarates (IPCC).

So weit Schellnhuber in den Salzburger Nachrichten vom 2. April 2013. Treffen seine Vorwürfe an die sogenannten Klimaskeptiker zu? Wir machen den Faktencheck.

Vor unserem Faktencheck einige klärende Anmerkungen

Zunächst ist ein Kommentar erforderlich zur Beschwerde Schellnhubers über Hassmails und ein Ereignis anlässlich einer seiner Vorträge in Australien, wo ihm eine Henkersschlinge entgegengehalten wurde. Wir schließen uns der Beschwerde Schellnhubers an. Solche Vorgänge sind nicht hinnehmbar. Die Klimadiskussion darf die Sachebene und angemessene Umgangsformen dem Meinungsgegner gegenüber niemals verlassen. Der Stil von Internet-Veröffentlichungen, wie man sie jüngst hier, hier oder hier auffinden kann, ist nicht tolerabel, selbst wenn man ihren sachlichen Inhalten teilweise zustimmt.

Allerdings können wir auch Schellnhuber Vorwürfe nicht ersparen. Klimaskeptiker als „Kohle-Lobbyisten“ oder „eifrig-eifernde Pensionisten“ zu diffamieren, entspricht nicht den geforderten Umgangsformen. Auch offensichtliche Propagandalügen sind inakzeptabel, so wie: „Vollends bizarr aber ist, wie in der öffentlichen Debatte über die Erderwärmung sogenannten Klimaskeptikern Raum gegeben wird“. In welcher TV-Sendung, welchem Rundfunkprogramm oder welchen überregionalen Zeitungen wird „Klimaskeptikern Raum gegeben„, wo werden sie eingeladen, um ihre Argumente vorzubringen? Eine bewusste Unwahrheit Schellnhubers oder ein Fall von kognitiver Dissonanz?

Schellnhuber als Klimaberater der Kanzlerin Angela Merkel kann sich über zu wenig Raum zur Verbreitung seiner Auffassung in den Medien nicht beschweren. Wäre er ein echter Wissenschaftler müsste er freilich jede Gegenmeinung und jede Diskussion begrüßen, denn für die wissenschaftliche Wahrheitsfindung sind kontroverse Diskussionen das Salz in der Suppe, genauer, sie sind für eine ordentliche wissenschaftliche Kultur unabdingbar. Seine Beschwerde, Skeptikern werde zu viel Raum gegeben, ist nicht nur sachlich falsch, sie bezeugt zudem unübersehbar einen Hang zum wissenschaftlichen Dogmatismus.

„Fächerübergreifende Solidarität“, wie von Schellnhuber gewünscht, wäre das Ende jeder freien Wissenschaft, denn sie entspräche den wohlbekannten Unterdrückungsmethoden in Diktaturen. Tatsächlich ist „fächerübergreifende Solidarität“ die Forderung nach Befolgung eines von selbsternannten Wissenschaftshütern aufgestellten wissenschaftlichen Dogmas. Sie kann nur dazu dienen, „Abweichler“ unter den Kollegen auszugrenzen und in Reihe zurück zu zwingen. „Fächerübergreifende Solidarität“ ist undemokratisch, freiheitsfeindlich, meinungsgleichschaltend und völlig unwissenschaftlich. Man kann solchen Forderungen nur mit allen gebotenen Mitteln entgegentreten. Die Solidaritätsforderungen Schellnhubers sind die Samen der späteren Gewächse von wohlbekannten Welterlösungslehren (Kommunismus), deren Wege bekanntlich Millionen Menschenopfer pflasterten.

Schellnhubers Forderung „trotz der bestehenden Unsicherheiten“ zu handeln, ist verantwortungslos. Sie verhindert wirksamen Naturschutz und ist nur unter einem ideologisch motivierten Drang zur Gesellschaftsveränderung zu verstehen, die nicht zu den Aufgaben eines Wissenschaftlers gehört. Es gibt nämlich unzählige Schädigungen, die die Menschheit verantwortet. So sind wir, um einige stellvertretende Beispiele zu nennen, auf dem besten Wege, den Fischbestand der Weltmeere zu vernichten, die Trinkwasserressourcen in Dürreländern aufzubrauchen, die Tropenwälder zu zerstören und die Artenvielfalt maßgebend zu reduzieren. Welche Remedur soll aber angesichts unserer begrenzten Mittel Vorrang haben? Immerhin gibt es beim Schutz der Weltmeere oder der Tropenwälder NICHT die von Schellnhuber eingestandenen „BESTEHENDEN UNSICHERHEITEN“. Hier ist jeder ausgegebene Euro (Dollar) auf seine Wirkung hin überprüfbar. Vom Schutz der Weltmeere und den weiteren hier genannten Naturschutzmaßnahmen hört man hierzulande freilich nichts mehr. Selbst Greenpeace scheint sich vom Naturschutz (Tiere) inzwischen verabschiedet und auf die lukrativeren Themen „Klimaschutz“, die Bekämpfung von Gentechnik und der Kernenergienutzung verlegt zu haben.

Bei der CO2–Vermeidung kann von Wirksamkeitsüberprüfung nicht die Rede sein. Viele Klimawissenschaftler (siehe „Mythos Konsens“ weiter unten) bezeugen, dass die extrem teuren CO2-Vermeidungsmaßnahmen völlig unwirksam sind. Der Autor schließt sich dieser Einschätzung an. Wir würden daher gerne von Schellnhuber hören, wie er seine apokalyptischen Warnungen und Handlungsdirektiven angesichts der von ihm genannten Unsicherheiten WISSENSCHAFTLICH begründen kann. Von seinem politischen 2 °C Ziel ist jedenfalls in der begutachteten Klima-Fachliteratur nichts aufzufinden.

Ein weiter Beleg, der an der Ehrlichkeit der Motive von Schellnhuber Zweifel aufkommen lässt, ist seine Forderung, „den fossil-nuklearen Entwicklungspfad zu verlassen“. Die Forderung, den fossilen Pfad zu verlassen, können wir zumindest nachvollziehen, denn sie fügt sich in seine AGW-Hypothese ein. Aber den nuklearen Pfad verlassen? Kernenergie ist bekanntlich CO2-frei. Was hat Schellnhuber gegen die nukleare Energienutzung von bekanntlich höchster Wirtschaftlichkeit? Die Welt um uns herum handelt ersichtlich anders, denn der Siegeszug der Kernkraft ist unaufhaltbar. Schellnhubers nukleare Antipathie ist unlogisch und irrational, hier spielen offenbar andere Ziele mit. Der Glaubwürdigkeit seiner wissenschaftlichen Aussagen hilft dies kaum weiter.

Nun aber endlich zu Schellnhubers drei bequemen Unwahrheiten, die seiner Meinung nach die Kernaussagen der Klimaskeptiker bilden!

Unser Faktencheck

Erste „bequeme Unwahrheit“ nach Schellnhuber

„Es gibt keine vom Menschen verursachte globale Erwärmung“. Schellnhuber nennt hierbei 13.950 begutachtete Studien zwischen 1991 und 2012, die seiner Meinung nach das Gegenteil erhärten würden und nur 24 Studien, die keinen vom Menschen verursachte Treibhauseffekt sehen.

Richtig ist….

Gutachter (Peer Reviewer) sind ausgesuchte Experten, die, zumindest im Prinzip, die Kriterien „Neutralität“ und „beste Fachkenntnisse“ erfüllen. Daher müssten selbst 24 BEGUTACHTETE Studien schon zu berechtigter Skepsis an der AGW-Hypothese Anlass geben. Es gibt aber tatsächlich bis heute KEINE EINZIGE begutachtete Publikation, die die Frage nach dem Einfluss des anthropogenen CO2 auf Erdtemperaturen auch nur annähernd beweiskräftig angehen konnte. Dazu ist der Erwärmungseffekt des anthropogenen CO2 zu klein, er geht im Rauschen der natürlichen Temperaturvariationen unter und kann nicht direkt gemessen werden. Wie Schellnhuber auf seine Zahlen (13.950 gegen 24) kommt, bleibt daher sein Geheimnis. Die folgenden Quellen hier und hier, die jede Publikation beim Namen nennen, sagen etwas komplett anderes aus. Schellnhubers 24 ist absurd, allein schon der Autor kann auf Anhieb und ohne nachzusehen bereits mehr als 24 skeptische, begutachtete Klima-Fachveröffentlichungen nennen. Unter diesen skeptischen Publikationen befinden sich sogar zwei aus der Feder SCHELLNHUBERS selber. Eine analysierte die Temperaturentwicklung des 20. Jahrhunderts, die andere übte fachliche Kritik an Klimamodellen.

Schellnhuber hat tatsächlich selber wissenschaftlich gearbeitet, bevor er sich der politischen Agitation mit Hilfe der AGW-Hypothese zuwandte, dies könnte angesichts seiner politischen Aktivitäten leicht in Vergessenheit geraten. In seiner Veröffentlichunghttp://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild1.jpg

Bild 1: Veröffentlichung mit Schellnhuber als Koautor.

ist in der Zusammenfassung zu lesen

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild2.jpg

Bild 2: Die Aussage Schellnhubers et al. in der Zusammenfassung der in Bild 1 gezeigten Publikation ins Deutsche übertragen lautet „In der weit überwiegenden Zahl von Stationen haben wir keine Anzeichen für eine globale Erwärmung der Atmosphäre erkennen können„.

Wir können uns nicht erklären, wie solch eine unzweideutig entwarnende Aussage (es ist noch nicht einmal vom anthropogenen CO2 die Rede) nur wenige Jahre später zu dem von Schellnhuber beschworenen Weltuntergangsszenario einer globalen Erwärmung führen konnte. Immerhin ist es global seit über 15 Jahren kühler geworden, so dass man sich zudem fragt, wie Schellnhuber auf seine „ungebremste“ globale Erwärmung kommt. Hat er diesen Winter nicht irgendwann einmal aus dem Fenster gesehen?

Zweite „bequeme Unwahrheit“ nach Schellnhuber

„Es mag den Klimawandel geben, aber er ist unschädlich, wenn nicht gar nutzbringend“. Die Wissenschaft jedoch zeigt klar auf, wie drastisch die negativen Auswirkungen ausfallen dürften – auch wenn ihr genaues Ausmaß, der Zeitpunkt ihres Eintretens, die regionale Verteilung weiter Gegenstand intensiver Forschung sind. Die Zunahme von Wetterextremen, der Anstieg des Meeresspiegels, Veränderungen des etwa für arme Reisbauern in Indien lebenswichtigen Monsuns et cetera sind gut belegte Projektionen.

Richtig ist….

Kein vernünftiger Mensch bezweifelt den natürlichen Klimawandel. Das Klima in allen Klimazonen der Erde (polar bis tropisch) hat sich seit Bestehen der Erde stets gewandelt, oft heftiger und schneller als im 20. Jahrhundert, und es wird dies auch zukünftig weiter tun. Konstantes Klima ist unmöglich. Nach seinem ersten Satz werden Schellnhubers Ausführungen dann vollends irreführend. Über die Extremwetterentwicklung der letzten Jahrzehnte bis zum heutigen Tage gibt schließlich das hier wohl unverdächtige IPCC erschöpfende Auskunft. Zum ersten Mal in seinem Bericht vom Jahre 2001, the scientific bais, Chapter 02, Kap. 2.7 S. 155 (hier), danach im Extremwetterbericht von 2012 (hier). Die gesamte meteorologische Fachliteratur bezeugt Gleiches: Es ist bis heute keine Zunahme von Extremwetterereignissen in Klimazeiträumen feststellbar. Schellnhuber spricht formal korrekt zwar nur von „gut belegte Projektionen“, seine Aussage ist aber so konstruiert, dass sie eine Extremwetterzunahme als aktuell gegeben suggeriert. Zufall oder Absicht? Die Begründung für „gut belegt“ bleibt er uns natürlich schuldig. Die Projektionen von Klimamodellen haben sich bekanntlich nicht besser als Kaffeesatzleserei erwiesen (s. unter anderem hier). Zur Frage der restlichen Themen, angefangen von Meeresspiegeln bis hin zu Gletschern bezeugt die Fachliteratur, dass sich bis heute und nirgendwo auf der Erde über das historisch bekannte Maß hinausgehende Veränderungen haben nachweisen lassen. Im Gegenteil, viele Veränderungen der Klimavergangenheit waren ungleich stärker.

Die dritte „bequeme Unwahrheit“ nach Schellnhuber

„Es gibt gefährlichen Klimawandel, aber der Kampf dagegen ist längst verloren.“

Richtig ist….

WER sagt so etwas? Zunächst bestreitet sicher niemand, dass es gefährlichen Klimawandel gibt. Die Historie der Menschheit belegt unzählige Klimakatastrophen – logischerweise ohne die „Mithilfe“ des anthropogenen CO2. Es waren übrigens stets Abkühlungs-, niemals Erwärmungskatastrophen! Falsch ist dann die den Klimaskeptikern in den Mund geschobene Behauptung, der Kampf gegen solch eine zukünftige Katastrophe sei verloren. Deiche gegen Sturmfluten, solidere Häuser in tropischen Regionen gegen die gefährlichen Taifune und vieles weitere mehr sind wichtige Hilfen in einem Kampf, der keineswegs verloren ist. Die Technik gibt uns immer bessere Mittel in die Hände. Von keinem Zeitgenossen oder gar Klimaskeptiker, der einigermaßen klar im Kopf ist, wird man Schellnhubers dritte „bequeme Unwahrheit“ vernehmen.

Zu den weiteren Behauptungen Schellnhubers

Uns ist kein seriöser Klimaskeptiker bekannt, der – so Schellnhuber – „das System der Wissenschaft angreift“. Das genaue Gegenteil ist der Fall. Klimaskeptiker fordern eine objektive, freie Wissenschaft, so wie es die Aufklärung propagierte. Angegriffen werden lediglich und völlig zu recht wissenschaftliche Vertreter eines Zweiges der Klimaforschung, die mit fragwürdigen Methoden ihre Ergebnisse für politische Zwecke instrumentalisieren und damit in WIRKLICHKEIT die von Schellnhuber zitierte „ANTIAUFKLÄRUNG“ betreiben. Zur Aufklärung und „Antiaufklärung“ Schellnhubers ist eine Anmerkung erforderlich: In der empfehlenswerten Biographie über Voltaire von Jean Orieux ist eine Kernaussage des Vaters der Aufklärung zu lesen. Voltaire schrieb seinem erbittertsten Gegner in einem offenen Brief: Sire, Eure Auffassung bekämpfe ich, würde aber mein Leben dafür hingeben, dass Ihr sie öffentlich äußern dürft“. Ob Schellnhuber und seine Kollegen vom PIK Rahmstorf, Edenhofer, Gerstengarbe etc. diesen Brief Voltaires verstehen können?

Echte Wissenschaft ist grundsätzlich immer WERTFREI, stellt sich stets in Frage und ist prinzipiell gegen jede, auch die eigenen Resultate SKEPTISCH. Ohne Skepsis gibt es gar keine Wissenschaft. Wissenschaft darf sich niemals außerwissenschaftlichen Zwecken zur Verfügung stellen und mögen diese noch so ehrbar daherkommen. Ohne eine Verbindung mit der AGW-Hypothese herstellen zu wollen, darf an die Biologen und Mediziner des dritten Reichs erinnert werden, die auf der Basis ungesicherter wissenschaftlicher Erkenntnisse eine Rassenlehre zum Dogma erklärten und mit Hilfe der Politik zum Kanon machten. Die in die Millionen gehenden Opfer dieses Irrtums sind bekannt.

Trotz Schellnhubers unzureichender Diskussionsbasis gibt es aber doch Hoffnung auf mehr Substabtielles. Wir ergreifen nun nämlich die Gelegenheit, detaillierter auf seinen Mythos vom wissenschaftlichen Konsens einzugehen. Schellnhuber versteigt sich zu der Behauptung „Dabei ist gerade in diesem Fall das System Wissenschaft so einig wie sonst selten“. Trifft dies zu? Prüfen wir seine Behauptung nach!

Der Mythos vom wissenschaftlichen Konsens

Es ist eine Sache, eine andere Meinung zu haben. Es ist aber etwas völlig anderes, vorzutäuschen, andere als die eigene Meinung würden gar nicht existieren, oder zu behaupten, solche Meinungen verdienten keine Aufmerksamkeit (Zitat Donna Laframboise).

Der Begriff “Konsens der Wissenschaft“ ist mit Vorbehalt zu verwenden. Zunächst sagt er nichts darüber aus, ob eine wissenschaftliche Hypothese oder Theorie zutrifft. Dies haben immer wieder Forscher belegt, die sich – meist unter Anfeindungen – mit anderer Auffassung über Jahrzehnte gegen eine übermächtige Phalanx von Fachkollegen durchsetzten. Oft folgten auf solche wissenschaftlichen Siege die verdienten Nobelpreise. Dennoch würde ein Konsens von vielleicht mehr als 95% aller Forscher eines Fachgebiets eine hohe Wahrscheinlichkeit beinhalten, dass diese Mehrheitsauffassung sachlich zutrifft.
Da es hier nur um die Frage eines maßgebenden Einflusses des menschgemachten CO2 auf Globaltemperaturen geht, können wir die “Konsenfrage“, wie folgt, eingrenzen. Ausgangspunkt ist der heutige Stand der Klimaforschung, dokumentiert in unzähligen Fachpublikationen, die zumindest in folgendem Punkt absolut keinen Zweifel lassen: Die Frage nach einem messbaren anthropogenen Einfluss auf Klimawerte muss bis heute mit einem “noch nicht aufgefunden“ beantwortet werden. Daher verbleiben jetzt nur noch die im hier interessierenden Zusammenhang entscheidenden zwei Fragen:

– Wie viele Klimaforscher teilen den Klima-Alarmismus des IPCC?
– Wie viele Klimaforscher (nennen wir sie “Klimaskeptiker“) widersprechen?

Aber zuerst, welche Naturwissenschaftler sind eigentlich Klimaforscher? Eine Definition könnte sein: Solche, die Klimaforschung betreiben und in begutachteten Fachzeitschriften publizieren. Falls man hiermit einverstanden sein kann, gehört auch der Autor – obwohl nicht von der Pike auf in der Klimaforschung tätig – zur Gruppe der Klimaforscher (hier, hier, hier, hier); Pardon, gemäß Kollegen Schellnhuber ist er allerdings zur Gruppe der „eifrig-eifernden Pensionisten“ zu zählen, denn er befindet sich schließlich im Ruhestand.

Klimaforscher kommen aus vielen Disziplinen, vorwiegend der Physik, denn
Klimawissenschaft, wie die eng verwandte Meteorologie, verwendet das
Handwerkszeug der Physik. Unter den Klimaforschern finden sich
neben den Physikern Meteorologen, Chemiker, Biologen, Mathematiker und Ingenieure. Schauen wir jetzt gemäß unserer Definition zunächst nach, wie viele Klimapublikationen, die dem IPCC widersprechen, in internationalen begutachteten Fachjournalen aufzufinden sind! Sie sind bereits unter der ersten bequemen Unwahrheit von uns in der Richtigstellung genannt worden. Momentan werden über 1100 Publikationen explizit aufgeführt, und es kommen laufend neue hinzu. Infolgedessen sind die Verlautbarungen von Medien, Politik und schlussendlich von Schellnhuber über einen wissenschaftlichen Konsens und die angeblich fehlenden Gegenstimmen falsch.
Die Klimaskeptiker übertreffen die Klima-Alarmisten in Anzahl und wissenschaftlichem Ansehen um Längen. Zu den Skeptikern gehören die beiden Physik-Nobelpreisträger Ivar Glaever und Robert Laughlin, einen Physiker aus dem IPCC-Lager als Nobelpreisträger gibt es dagegen nicht. Ferner sind die weltberühmten Physiker Freeman Dyson, Edward Teller, Frederick Seitz, Robert Jastrow und William Nierenberg Klimaskeptiker, eine ähnliche Reputation ist von den dem IPCC nahe stehenden Forschern unbekannt. Die beiden Links (hier und hier) auf die ausführlichen Zusammenstellungen sind auf unserer Replik zu der ersten „bequemen Unwahrheit“ bereits genannt worden.

Auf Anhieb können 9000 promovierte Naturwissenschaftler und Hunderte fachnahe Professoren der klimaskeptischen Seite benannt werden. Es handelt sich hierbei allein um das Oregon Petitition Project (hier und hier). Betrachten wir nun die Gegenseite! Das IPCC benennt gerade einmal 62 Personen, die das kritische Kapitel 9 des IPCC-Berichts von 2007 “Understanding and Attributing Climate Change“ begutachteten, darunter viele, die nichts anders taten, als ihren eigenen Beitrag zu bestätigen.

Die Unterzeichner der vielen, nachfolgend aufgeführten Petitionen und Manifeste gegen die IPCC-Politik sind freilich nicht immer Klimawissenschaftler. Ist es hier gerechtfertigt, auch andere Naturwissenschaftler als kompetente Skeptiker zuzulassen? Die Antwort muss “Ja“ lauten. Die meisten Klima-Fachpublikationen decken nämlich physikalische Bereiche ab, die auch von physikalischen Nebenfächlern, wie beispielsweise Chemikern oder Ingenieuren, nach entsprechender Einarbeitung verstanden und nachvollzogen werden können. Das physikalische Abstraktionsniveau ist hier in der Regel nicht von einer nur für Spezialisten zugänglichen Höhe, wie etwa in der Quantenfeld-, allgemeinen Relativitäts- oder Stringtheorie. Dies heisst natürlich nicht, dass nicht auch in der Klimaforschung schwer zugängliche Spezialgebiete existieren.

Die historische Entwicklung der klimaskeptischen Verlautbarungen klärt über die wahren Verhältnisse auf. Es beginnt 1992 in Rio de Janeiro mit der ersten großen UN-Umweltkonferenz. Hier haben die Vertreter von 170 Regierungen und weiteren Nichtregierungsinstitutionen (NGO) vor einer gefährlichen globalen Erwärmung durch die steigende Emission von CO2 in der Atmosphäre infolge Nutzung der fossilen Brennstoffe gewarnt. Drastische Maßnahmen, Energiesteuern und Umweltabgaben wurden gefordert.

1) Als erste Antwort auf die Forderungen von Rio de Janeiro haben 425 Wissenschaftler, darunter 62 Nobelpreisträger den „Heidelberg Appeal“ unterschrieben. Sie fordern, die wissenschaftliche Ehrlichkeit nicht dem politischen Opportunismus und einer irrationalen Ideologie zu opfern. Inzwischen sind diesem Appell mehr als 4000 Wissenschaftler, darunter inzwischen insgesamt 72 Nobelpreisträger aus 106 Ländern beigetreten (hier).

2) Das Global Warming Petition Project, auch als Oregon Petition
bekannt, wurde bereits oben erwähnt. Es führt über 30.000 akademische Unterzeichner auf, davon rund 9000 promovierte Personen, meist Naturwissenschaftler. Der Internet-Link wurde oben bereits angegeben.

3) Das „Leipziger Manifest“ ging aus einem internationalen Symposium über die Treibhauskontroverse in Leipzig im November 1995 und 1997 hervor. Es wurde 2005 überarbeitet. Die Unterzeichner, 80 Wissenschaftler aus dem Bereich der Forschung zum Zustand der Atmosphäre und des Klimas sowie 25 Meteorologen, bekunden: “Auf der Basis aller vorhandenen Messungen können wir eine politisch inspirierte Weltsicht nicht akzeptieren, die Klimakatastrophen vorhersagt und überstürzte Aktionen verlangt… In einer Welt, in der die Armut die größte soziale Verschmutzung darstellt, sollte jegliche Einschränkung an Energie, die das ökonomische Wachstum verhindert (in diesen Ländern), mit äußerstem Bedacht vorgenommen werden.“ (hier).

4) Im Dezember 2008 und ergänzt im März 2009 wendeten sich über 700
Wissenschaftler mit dem sogenannten „U.S. Senate Minority Report“ (auch als Inhofe Report bezeichnet) an den Senat der USA. Die Unterzeichner wehrten sich gegen den vorgeblichen Konsens, dass der Mensch für die Erwärmung hauptsächlich verantwortlich gemacht werden kann. Der Report stellt fest, dass die 700 Wissenschaftler die Zahl der an der “Zusammenfassung für Politiker“ des IPCC beteiligten Wissenschaftler (52) um das mehr als 13-fache übersteigt. Sie führten insbesondere Messungen an, die die alarmistischen, von Modellen unterstützten Prophezeiungen widerlegen (hier).

5) In einem offenen Brief vom Juli 2007 an die Physikerin und Kanzlerin Angela Merkel forderten 410 Wissenschaftler und engagierte kompetente Bürger, “die Kanzlerin möge ihre Position zum Klimakomplex gründlich überdenken und ein vom Potsdamer Institut für Klimafolgenforschung unabhängiges ideologiefreies Gremium einberufen.“ (hier). Dieser Brief wurde bemerkenswerterweise nicht einmal einer Eingangsbestätigung des Bundeskanzleramts für würdig erachtet, obwohl in §17 des deutschen Grundgesetzes Bürgern ausdrücklich das Recht eingeräumt wird, sich bei drängenden Problemen oder Fragen an die zuständigen Stellen und an die Volksvertretung zu wenden (hier).

6) Gegen die Aussage des US-Präsidenten Barrack Obama “Wenige Herausforderungen denen sich Amerika und die Welt gegenübersieht, sind wichtiger als den Klimawandel zu bekämpfen. Die Wissenschaft ist jenseits aller Diskussion und die Fakten sind klar“ wendeten sich mehr als 150 fachnahe Wissenschaftler mit dem Protest: “With all due respect Mr. President, that is not true“ (hier).

7) In einem offenen Brief an den kanadischen Ministerpräsidenten, am 11.4.2008 in der National Post veröffentlicht, wendeten sich 60 Klimawissenschaftler gegen die Unterzeichnung eines neuen Kyoto Vertrages. Sie heben hervor, dass “es keine beobachtbaren Nachweise gibt, die die Computermodelle verifizieren. Deshalb gibt es keinen Grund, den Vorhersagen der Computermodelle zu vertrauen…. Wir schlagen vor, eine ausgewogene, umfassende, öfentliche Sitzung abzuhalten, um die wissenschaftliche Basis zu Plänen der Regierung in Bezug auf den Klimawandel zu schaffen“ (hier).

8) Im Jahre 2007 veröffentlichten die Klimawissenschaftler Hans von Storch und Dennis Bray (GKSS Forschungszentrum Geesthacht) eine anonyme Umfrage unter ca. 1250 Klimawissenschaftlern, von denen 40% antworteten (hier), was für derartige Umfragen als eine sehr hohe Antwortrate bezeichnet werden darf. Die Frage “Ist der gegenwärtige Stand der Wissenschaft weit genug entwickelt, um eine vernünftige Einschätzung des Treibhausgaseffektes zu erlauben?“ beantworteten nur 69% mit Zustimmung. Die Frage “Können Klimamodelle die Klimabedingungen der Zukunft voraussagen?“ beantworteten 64% ablehnend! Da die Vorhersagen der Klimakatastrophe alleine auf Klimamodellen beruhen und damit ebenfalls ein theoretisches Konstrukt sind, darf dieses Ergebnis für die Vertreter eines Klimakatastrophen-Konsens zutreffend als Schlag ins Gesicht bezeichnet werden. Denn umgekehrt ausgedrückt: Es besteht ein Konsens von 64%, dass die Vorhersage eines die Menschheit gefährdenden Klimawandels durch eine von Menschen gemachte
Temperaturerhöhung infolge der anthropogenen CO2 Emissionen auf der Basis von Klimamodellen wissenschaftlich unzulässig ist.

9) Im September 2008 veröffentlichten Hans M. Kepplinger und Senja Post von der Universität Mainz in deren Forschungsmagazin eine Online-Umfrage unter den 239 identifizierten deutschen Klimawissenschaftlern. 133 (44%) von ihnen nahmen an der Befragung teil. Kepplinger: “Die Mehrheit der Wissenschaftler war der Ansicht, dass die Voraussetzungen für eine Berechenbarkeit des Klimas gegenwärtig noch nicht gegeben ist. Dies betrifft die Menge und Qualität der empirischen Daten, die Qualität der Modelle und Theorien sowie die Kapazität der verfügbaren Analysetechniken. Nur eine Minderheit von 20% glaubt, dass die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon gegeben seien“ (hier und hier).

10) Am 30.Nov.2012 veröffentlichte die kanadische Financial Post einen offenen Brief von 125 Wissenschaftlern an den UN Generalsekretär H.E. Ban Ki-Moon. Die FP führt dabei alle Namen, Fachgebiete und Forschungsschwerpunkte der Unterzeichner detailliert auf (hier). Es handelt sich in der weit überwiegenden Anzahl um Klimawissenschaftler. Der Originaltext des offenen Briefs lautet:

On November 9 this year you told the General Assembly: “Extreme weather due to climate change is the new normal – Our challenge remains, clear and urgent: to reduce greenhouse gas emissions, to strengthen adaptation to – even larger climate shocks – and to reach a legally binding climate agreement by 2015 – This
should be one of the main lessons of Hurricane Sandy.“ On November 13 you said at Yale: “The science is clear; we should waste no more time on that debate.“ The following day, in Al Gore’s “Dirty Weather“ Webcast, you spoke of “more severe storms, harsher droughts, greater floods“, concluding: “Two weeks ago, Hurricane Sandy struck the eastern seaboard of the United States. A nation saw the reality of climate change. The recovery will cost tens of billions of dollars. The cost of inaction will be even higher. We must reduce our dependence on carbon emissions.“ We the undersigned, qualified in climate-related matters, wish to state that current scientific knowledge does not substantiate your assertions.

Danach folgt eine ausführlichere sachliche Widerlegung der Behauptungen von Ki-Moon. Auf die Wiedergabe dieses Teils des offenen Briefs wird hier verzichtet.

Alle hier aufgeführten Manifeste, Petitionen und Umfragen wurden von den deutschen Medien bis heute nicht zur Kenntnis genommen, geschweige denn veröffentlicht. Und dies angesichts von Kosten der CO2-Vermeidung, die in Hunderte Milliarden Euro gehen.

Eine Diktatur beginnt nicht mit dem Einsperren der Meinungsgegner, sondern mit der Unterdrückung ihrer Meinung.

Related Files




EU Klimapolitik steht kurz vor dem Kollaps! Grüne Politik erleidet schwere Niederlage

Der Stern schreibt:….Das Europaparlament hat die geplante Reform des Handels mit Verschmutzungsrechten abgelehnt. Eine knappe Mehrheit des Parlaments sprach sich am Dienstag dagegen aus, die Emissionszertifikate angesichts rapide sinkender Preise zu verknappen und damit wieder teurer zu machen. Die Vorlage soll nun in die zuständigen Ausschüsse zurückverwiesen werden.Die Abgeordneten stimmten damit gegen den Gesetzentwurf der EU-Kommission. Dieser sah vor, Verschmutzungsrechte zeitweise vom Markt zu nehmen. Der federführende Umweltausschuss hatte im Februar knapp dafür gestimmt. (Weiterlesen hier)

Im britischen Telegraph ist zu lesen:

Die Klimapolitik der Europäischen Union steht am Rande des Zusammenbruchs nachdem heute die Abgeordneten Europas Flaggschiff, den CO2-Emissionshandels durch Abstimmung gegen eine Maßnahme, um den Preis von CO2-Zertifikaten zu unterstützen, torpediert haben. Der Preis der CO2-Zertifikate stürzte bis zu 45 Prozent auf ein Rekordtief 2,63 € pro Tonne ab, nachdem das Europäische Parlament einen Vorschlag zur Änderung der EU Emissionshandel Gesetze zu ändern, ablehnte, um den Verkauf von 900 Mio CO2-Zertifikaten auf den weltweit größten CO2-Zertifikate Märkten zu verzögern .

Die Grünen haben mit Zorn auf diese Abstimmung reagiert und beschuldigten Abgeordneten die Arbeitsplätze vor den Bedürfnissen der Umwelt zu stellen…

Die Maßnahme der Europäischen Kommission als „Rückstaus“ (backloading) bekannt, plante die EU CO2-Zertifikaten durch die Beschränkung des Angebots künstlich zu verteuern, nachdem sie aufgrund des wirtschaftlichen Abschwungs und Kontraktion im verarbeitenden Gewerbe in ganz Europa auf ein Rekordtief im Januar gesunken waren.

Die Ablehnung der Maßnahme wird voraussichtlich einen weiteren Preisverfall von CO2 Emissionsrechten auslösen, evtl. bis auf 1 € und könnte das Ende eines EU-Systems bedeuten, welches auf die Förderung von Investitionen in „saubere“ Technologien abzielte, indem hohe Preise für CO2-Emissionen aus den Schornsteinen der  Industrie zu bezahlen wären, die gedacht waren, Kohle befeuerte Kraftwerke dadurch aus dem Markt zu drängen.

Die Abgeordneten waren tief über den Vorschlag gespalten. Sie stimmten mit 334 Stimmen dagegen und mit 315 Stimmen dafür, in einer Debatte, bei der es um die Unterstützung des Wirtschaftswachstums während einer Rezession gegen Verteidiger der Klimaschutzpolitik, die die verarbeitende Industrie für die Herstellung von CO2 bestrafen wollte, ging.

„In der derzeitigen wirtschaftlichen Situation, die Entscheidung für den Rückstau wäre ein falsches Signal für Haushalte und Industrie gleichermaßen. Die Last steigender Kosten würden jetzt nicht benötigt“, sagte Eija-Riitta Korhola, eine Mitte-Rechts finnische Abgeordnete…“Es ist empörend, dass das Parlament mehr Wert auf umweltbelastenden Industrie zu legen scheint als auf eine grüne Zukunft Europas“, sagte Julia Michalak von Climate Action Network Europe.

Hier der Diskussionsbeitrag des britischen Abgeordneten Godfrey Bloom UKIP zum Thema CO2 und Klimawandel (mit Dank an Spürnase Urbahn).

‚Man-made global-warming hypothesis‘ is dead in the water – Godfrey Bloom ME

Leider funktioniert die automatische deutsche Untertitelung nicht.

Weitere Pressemeldungen (mit Dank übernommen von WUWT)

EU_carbon_prop

Story here: http://www.environmentalleader.com/2013/04/16/eu-carbon-prices-plunge-to-record-lows/

Related articles(bloomberg.com)

Carbon in Worst Quarter Since 2011 Set for Rescue Vote

(businessweek.com)

Why Europe’s Carbon Market is Crashing

(ntv meldet soeben;  Dank an Leser D. Köhler)


Handel mit CO2-Zertifikaten- Hedegaard hofft auf zweite Chance

Auszug:

Hedegaard hat einen prominenten Mitstreiter. Auch Bundesumweltminister Peter Altmaier (CDU) setzt weiter auf eine Reform des europäischen Handels mit CO2-Verschmutzungsrechten. „Es ist nicht tot, aber es ist in einer Krise“, sagte Altmaier im Deutschlandfunk zum Handelssystem.




CO2: Ein Geschenk des Himmels

Heutzutage ist es in Mode, über die Ausdehnung der polaren Eiskappen zu lamentieren, aber diejenigen, die das tun, sind naiv, wenn sie zu wissen glauben, welches Level der Eisausdehnung „normal“ ist. Geologische Beweise zeigen, dass sich Meereis im Zuge des aufblühenden und komplexen Lebens auf der Erde mindestens zweimal bis fast zum Äquator ausgedehnt hat. Dass unser Planet fast oder ganz vollständig von Pol zu Pol gefroren war, wird von Klimawissenschaftlern als Schneeball-Erde-Hypothese bezeichnet. In „Dynamics of a Snowball Earth ocean” beziehen sich Yosef Ashkenazy et al. auf die Möglichkeit, dass ozeanische Zirkulationen und Durchmischungsprozesse die Schmelz- und Gefrierraten beeinflusst haben, die die Eisdicke bestimmen, was wiederum das Überleben photosynthetischen Lebens beeinflusst hätte.

Ihr in der Zeitschrift Nature erschienener Bericht erklärt nicht, warum es zur Entwicklung des Schneeballs Erde gekommen war, sondern wie es das Leben fertig gebracht hat, ein solches Gefrieren zu überstehen. Man beachte, dass das Meereis, über das sie reden, nicht das die Arktische See überdeckende oder die Antarktis umgebende kümmerliche Packeis ist. Auf einem Schneeball Erde sind die Ozeane von 200 m dicken fließenden Gletschern bedeckt. Hier folgt ein Abschnitt aus dieser Studie, der die Motivation der Autoren beschreibt:

Der Fluss dicken Eises über einen Schneeball-Erde-Ozean („Meeresgletscher“, charakterisiert durch eine Dynamik, die sich sehr von der dünneren Eises unterscheidet), hat während der letzten Jahre erhebliche Aufmerksamkeit erhalten. In gleicher Weise wurden die Rolle und die Dynamik der atmosphärischen Zirkulation und des Wärmetransportes, der CO2-Konzentration, Wolken-Rückkopplungen und Anordnung der Kontinente untersucht, ebenso wie die Rolle des Staubes über der Eisdecke auf dem Schneeball Erde. Im Gegensatz dazu wurde den ozeanischen Zirkulationen während der Schneeball-Phase trotz ihrer Bedeutung nur wenig Aufmerksamkeit zuteil. Die wenigen Studien, in denen Generelle Zirkulationsmodelle des ganzen Ozeans zur Anwendung kamen, konzentrierten sich hauptsächlich auf die Rolle der Ozeane bei der Entwicklung hin zum Schneeball und nach dessen Auftauen. Es gibt keine Studien, in denen die kombinierten Auswirkungen dicker Eisbedeckung und Eisströme untersucht worden ist, und auch nicht die Antriebe durch geothermisches Aufheizen.

Man beachte, dass die Dinge auf dem Planeten Erde vor 700 Millionen Jahren anders lagen als heute: Das Leben in den Ozeanen war nicht das gleiche wie heute, und die kontinentalen Landmassen lagen anders. Und doch hat das Leben überlebt – vielleicht wegen des Typs dynamischer Zirkulation, der von den Autoren vorgeschlagen worden ist – bis das Eis zu schmelzen begann. Was Ashkenazy et al. nicht erklären ist, wie es überhaupt zu einem Schneeball Erde kommen konnte und – noch wichtiger – wie es zu Ende ging.

 

Für wissenschaftliche Spekulationen hinsichtlich des Entstehens und der Abschwächung [schwer übersetzbares Wortspiel: waxing and waning] solcher planetarischen Erfrierungen betrachte man den Artikel „A ’snowball Earth‘ climate triggered by continental break-up through changes in runoff“ von Yannik Donnadieu et al., der 2004 in Nature erschienen war. Das Abstract dieser Studie lautet:

Geologische und paläomagnetische Studien zeigen, dass die Eisschilde den Äquator zum Ende des Proterozoischen Zeitalters vor 800 bis 550 Millionen Jahren erreicht haben könnten, was zu dem Bild einer vollständig von Eis bedeckten ‚Schneeball Erde’ führte. Klimamodell-Simulationen zeigen, dass dieser Schneeball-Status von außerordentlich geringen atmosphärischen CO2-Konzentrationen abhängt, zusätzlich zu der verglichen mit heute um 6% schwächeren Sonneneinstrahlung. Allerdings bleiben die Mechanismen für diesen geringen CO2-Gehalt kontrovers. Hier vermuten wir die Auswirkungen paläogeographischer Änderungen vor der Sturtischen Vereisungsperiode vor 750 Millionen Jahren auf die langzeitliche Evolution des atmosphärischen CO2-Gehaltes, die wir mit dem gekoppelten Klima- und geochemischen Modell GEOCLIM berechnet haben. In unserer Simulation führt das Zerbrechen [des Urkontinents] Rodinia zu einer Zunahme des Wasserabflusses und in der Folge zum Verbrauch von Kohlendioxid durch kontinentale Alterung, die die atmosphärischen Kohlendioxidkonzentrationen um 1320 ppm haben abnehmen lassen. Dies zeigt, dass tektonische Änderungen während des Neoproterozoischen Zeitalters einen fortschreitenden Übergang von einem ‚Treibhaus’ zu einem ‚Eishaus’ ausgelöst haben. Wenn wir diese Ergebnisse mit den begleitenden Alterungseffekten der voluminösen Basaltformationen kombinieren, die während des Auseinanderbrechens von Rodinia ausbrachen, kommen unsere Modelle zu einem Schneeball.

Man sollte auch erwähnen, dass es damals viel mehr Kohlendioxid in der Atmosphäre gegeben hat, und dass das auch eine gute Sache war. Ein mächtigerer Treibhauseffekt war erforderlich, um das planetarische Gefrieren unter der Voraussetzung eines schwächeren Outputs der noch jungen Sonne zu verhindern. Rodinia war ein antiker Superkontinent, der fast die gesamte kontinentale Landmasse des Planeten enthalten hatte.

Rodinia war für mindestens 350 Millionen Jahre die dominierende Landmasse der Erde, bevor sie vor etwa 750 Millionen Jahren begann auseinanderzubrechen. Dieses Auseinanderbrechen veränderte den Kohlenstoffzyklus derart, dass CO2 mit steigender Rate der Atmosphäre entzogen wurde, was den Gehalt um 1320 ppm reduzierte (Heute befinden sich lediglich 390 ppm CO2 in der Atmosphäre). Mit dem Rückgang des CO2 folgten die Temperaturen. Schon bald sah die Erde aus wie auf dem Bild unten.

Schneeball-Bedingungen dauerten zehn oder mehr Millionen Jahre, verursacht durch das abrupte Entfernen von CO2 aus der Atmosphäre – vielleicht eine Lektion für diese im Entstehen begriffenen Geo-Engineering-Typen, die die heutige Erdatmosphäre durch das Entfernen des Kohlendioxids „reinigen“ wollen. Was hat die Erde aus diesem eisigen Zustand zurückgeholt? Die meisten Wissenschaftler glauben, dass Vulkane eventuell das CO2 in die Atmosphäre zurück gebracht haben, und zwar genug, um das Eis um den Äquator schmelzen zu lassen. Danach feierte das photosynthetische Leben ein rauschendes Comeback.

Mit der Zeit bildeten die Kontinente erneut eine einzige riesige Landmasse mit der Bezeichnung Pangäa, und der Rest ist Geschichte. Was waren die Ursachen für Auftreten und Verschwinden dieser Super-Eiszeiten? Donnadieu et al. fassen das in einem einzigen Satz zusammen: „Die langzeitliche Evolution (länger oder gleich 106 Jahre) des Partialdrucks des atmosphärischen CO2 (pCO2) wird bestimmt durch die relative Bedeutung des Ausgasens vulkanischer Prozesse und dem CO2-Verbrauch durch kontinentale Silikat-Alterung“.


Wissenschaftler glauben, dass Vulkane die Super-Eiszeiten des Schneeballs Erde beendet haben

Aber ist das nicht genau das, was die Klimaalarmisten seit vier Jahrzehnten hinauslabern, dass nämlich das CO2 zu Temperaturanstieg führt, was uns alle gefährdet? Kaum. Das Niveau atmosphärischen CO2-Gehaltes, über das wir hier reden, ist viele Male höher als selbst in den wildesten Projektionen des IPCC. Während eindeutig ist, dass der Kohlenstoffzyklus hilft, die Temperaturen auf der Erde zu regulieren, waren die Niveaus von in die dramatischen Ereignisse der Vergangenheit involvierten Treibhausgasen viel größer als die heutigen Variationen. Die Schneeball-Erde-Studie hat Folgendes ergeben:

Mit Hilfe eines komplexen Modells und Quantifizierung des Effektes des Auseinanderbrechens sagen wir eine markante Reduktion der Konzentration von CO2 in der Atmosphäre vorher auf einen persistent niedrigen Wert im Bereich 400 bis 630 ppm in Zeiträumen über 10 Myr [= Millionen Jahre]. Wir finden auch, dass sich die vom Modell vorhergesagten Werte im Bereich der Strahlungsantriebe befinden, was zu Bildung von Eisschilden in Breiten über 30° führt. Diese CO2-Konzentrationen liegen gerade über den Werten, die erforderlich sind, um eine Schneeball-Erde zu erzeugen und betragen dem GEOCLIM-Modell zufolge 250 ppm.

Dieser Studie zufolge liegt die untere Bandbreite, die zu einer Eiszeit führen kann, zwischen 400 und 630 ppm – man erinnere sich noch einmal daran, dass das gegenwärtige „angehobene“ Niveau um 390 ppm liegt. Man beachte, dass das Gefahren-Niveau, d. h. der Punkt, die Erde in einen Schneeball fallen zu lassen, bei 250 ppm liegt, nicht weit unter dem „vorindustriellen“ Niveau von 280 ppm, das von den Klimaalarmisten oftmals als wünschenswert propagiert wird. Die folgende Graphik aus der Studie zeigt Änderungen des atmosphärischen CO2-Niveaus während der fraglichen Zeit:


Atmosphärischer CO2-Verlauf während der Zeit vor dem Sturtischen Schneeball-Ereignis

In dieser Graphik steht SC für Supercontinent Configuration und DC für Dispersed Landmass Configuration. Gezeigt werden stationäre Zustände atmosphärischer CO2-Niveaus nach dem GEOCLIM-Modell für SC-Läufe, weil SC mit der Inklusion basaltischer Gebiete (angezeigte SC-Senke) läuft und DC auch mit basaltischen Gebieten läuft (angezeigte DC-Senke). Die horizontalen gestrichelten Linien kennzeichnen die genauen CO2-Werte, die von dem Modell in den Standardläufen erreicht werden. Der vertikale Pfeil zeigt die Änderung des Strahlungsantriebs aus direkten CO2-Effekten allein. Der dunkelblaue Bereich zeigt die CO2-Niveaus, die für einen global vergletscherten Zustand erforderlich sind bei den Klimasimulationen vor 750 Myr, die von den Forschern verwendet werden. Die gepunktete Linie verkörpert die Bandbreite des CO2-Niveaus, die für Vereisungen in niedrigen Breiten erforderlich sind, wie von verschiedenen Klimamodellen vorhergesagt. Sie stehen hier zum Vergleich mit den Wertebereichen des GEOCLIM-Modells.*

[* Ich bitte um Verständnis – bei diesem Abschnitt habe ich nur ‚Bahnhof’ verstanden! A. d. Übers.]

Während es stimmt, dass der Mensch zur Zunahme des atmosphärischen CO2-Niveaus beigetragen hat, lag die Zunahme nicht einmal ansatzweise in der Nähe solcher Ereignisse in der Vergangenheit. Und angesichts des geringen Umfangs von Treibhausgasen, um die es heutzutage geht, ist CO2 nicht der einzige Klimarückkopplungs-Mechanismus, der zur Klimaänderung beiträgt. Einem Bericht zufolge, der in Nature Geoscience veröffentlicht werden soll, hat das Meereis um die Antarktis während der letzten Jahre etwas zugenommen. Eine Kombination von Beobachtungen und Modellsimulationen zeigt, dass die Abkühlung der Ozeanoberfläche durch Schmelzwasser der antarktischen Eisschilde signifikant zu dieser Ausdehnung beigetragen hat. R. Bintanja et al. zufolge hat sich das antarktische Meereis ausgedehnt mit einem Maximum im Jahr 2010.

„Wir präsentieren Beobachtungen, die zeigen, dass Schmelzwasser der antarktischen Eisschilde in einer kühlen Schicht Süßwasser an der Oberfläche akkumuliert und die Ozeanoberfläche von den die Eisschilde schmelzenden wärmeren Wassern in größerer Tiefe abschirmt“, berichten sie. „Diese starke negative Rückkopplung wirkt der Erwärmung der Südhemisphäre entgegen“.

Gezeigt werden hier die Trends der Meereis-Ausdehnung (a) basierend auf einer Kombination von Daten aus der finalen Analyse, der vorläufigen Analyse und Echtzeit-Daten (2009 bis 2012) aus Bintanja et al. SST-Daten (b) stammen aus von den National Cetres for Environmental Prediction (NCEP) abgeleiteten Satellitendaten und dem in situ-SST-Datensatz SST OIv2. Die grüne Linie repräsentiert das 10-jährige jahresübergreifende Mittel. Sieht das für irgendjemanden wie globale Erwärmung aus? Tatsächlich stützt es das weit verbreitete Eingeständnis, dass die globale Erwärmung seit 15 Jahren zum Stillstand gekommen ist.

Das Fehlen globaler Erwärmung trotz unvermindert steigenden CO2-Gehaltes war eine bittere Pille für die Angst erzeugenden Klimaalarmisten. Selbst globale Anführer der globalen Erwärmung wie der Telegraph in UK und der Economist waren gezwungen zuzugeben, dass die Dinge nicht so laufen, wie sie es den Schriften der Klimaalarmisten zufolge tun sollten. Wie der Economist schreibt:

„Während der vergangenen 15 Jahre waren die Temperaturen an der Erdoberfläche flach verlaufen, während die Treibhausgasemissionen unverändert anhielten. Die Welt fügte der Atmosphäre zwischen den Jahren 2000 und 2010 etwa 100 Milliarden Tonnen Kohlenstoff hinzu. Das ist etwa ein Viertel des anthropogen erzeugen CO2’ seit 1750. Und doch, wie James Hansen, Leiter des GISS beobachtet, „die fünfjährige mittlere Globaltemperatur ist seit einem Jahrzehnt flach verlaufen“.

Der Artikel fährt fort, das Missverhältnis zu beschreiben zwischen steigenden Treibhausgas-Emissionen und nicht steigenden Temperaturen, was eines der größten Rätsel der Klimawissenschaft sein soll. „Flach wie sie sind, verharrten die Temperaturen in der ersten Dekade des 21. Jahrhunderts fast 1°C über dem Niveau der ersten Dekade des 20. Jahrhunderts“, ereifern sich die Anti-Kohlenstoff,Aspiranten. „Aber das Rätsel muss nicht erklärt werden“.

Teil des Puzzles ist, warum irgendjemand denken sollte, dass die Temperaturen während des ersten Jahrzehnts des 20. Jahrhunderts in irgendeiner Weise „normaler“, richtiger waren als die heutigen Temperaturen. Warum nimmt man nicht das Mittel der Temperatur während der Mittelalterlichen Warmzeit oder dem Höhepunkt der Eem-Zeit oder dem Ende des Jura? Wenn man beliebige Standards zum Vergleich wählt, kann man immer mit jedem fabrizierten gewünschten Ergebnis kommen.

Ed Hawkins von der University of Reading weist darauf hin, dass die Temperaturen bereits seit 2005 am unteren Ende der Bandbreite der aus 20 Klimamodellen abgeleiteten Projektionen liegen (siehe Graphik). Wenn sie weiterhin flach verlaufen, werden sie innerhalb weniger Jahre ganz aus dieser Bandbreite herausfallen. Da die Modelle, entwickelt in Jahrzehnten, auf der Mainstream-Klimatheorie basieren, würde das bedeuten, dass die Theorie auch falsch ist. Dann stehen all jene, die die Gefahren der anthropogenen globalen Erwärmung an die Wand gemalt haben, entweder als Narren oder als Scharlatane da.

Nicht dass sie das Handtuch werfen – der Glaube der wirklich Gläubigen an die Klimaänderung ist stärker als das. Natürlich, egal was die Klima-Alarmisten glauben oder sagen, hat auf das tatsächliche Verhalten des Klimas den Einfluss Null.

Das Klima der Erde ist ein dynamischer Balanceakt, mit einigen Mechanismen, die versuchen, den Planeten zu erwärmen, und anderen, die versuchen ihn abzukühlen. Während der letzten 30 Millionen Jahre oder so war die Abkühlung im Anstieg begriffen, und wenn nicht alles täuscht, werden wir in der Zukunft wieder Gletscherbedingungen haben. Die Wiederbelebung von Eiszeitbedingungen wird Last genug sein für die Lebewesen der Erde und die menschliche Zivilisation. Falls der Planet wirklich irgendwann in eine neue Schneeball-Phase wechseln sollte, würde keine Spezies der heutigen Flora und Fauna überleben.


Das könnte Tahiti sein in einer weiteren Schneeball-Phase

Anstatt dämonisiert zu werden, sollte das CO2 gefeiert werden! Es hält unseren Planeten belebbar und nährt das Pflanzenleben, das die Luft atembar und alle anderen Lebensformen möglich macht. Das heutige Niveau von Kohlendioxid ist weit entfernt davon, gefährlich hoch zu sein, sondern es ist gefährlich niedrig. Alle Lebewesen der Erde, die sich gegenwärtig an der gemäßigten Wärme des Holozäns erfreuen, sollten Gott danken für das CO2. Und wenn die Historie unsere Anleitung ist, müssen wir weiterhin diese fossilen Treibstoffe verbrennen, wenn wir zukünftigen Generationen nicht eine eisige Hölle hinterlassen wollen.

Bleiben Sie sicher, freuen Sie sich über die Zwischeneiszeit und bleiben Sie skeptisch!

Link: http://theresilientearth.com/?q=content/thank-god-co2

Übersetzt von Chris Frey EIKE