1

Treibhauseffekt oder adiabatische Theorie der Erderwämung? (I)

EIKE möchte den Lesern die Arbeit eines russischen Forschers vorstellen bzw. zur Kenntnis und Diskussion stellen, der bei einer Erhöhung von Treibhauskonzentrationen in der Atmosphäre von einer globalen Abkühlung ausgeht. Warum auch immer fand diese Betrachtungsweise in der westlichen Fachwelt wenig Aufmerksamkeit, die sich weder ernsthaft kritisch oder ebenso ernsthaft befürwortend damit auseinandersetzte.

Oleg Sorochtin kann auf ein langes Forscherleben zurückblicken. Er war Teilnehmer an mehreren Arktis- und Antarktisexpeditionen und zahlreichen ozeanologischen Expeditionen. Als Geophysiker und Mitarbeiter bzw. späterer Direktor des Instituts für Ozeanologie an der sowjetischen / russi­schen Akademie der Wissenschaften beschäftigte er sich näher mit der Tektonik ozeanischer Plat­ten. In dieser Hinsicht ist er Autor vieler wissenschaftlicher Arbeiten, die die Evolution der Hydro­sphäre und Atmosphäre  innerhalb der Erdgeschichte u. a. im Zusammenhang mit Ausgasungspro­zessen aus dem Erdinneren sowie dem oberen Erdmantel abhandeln.

Als studierter Geophysiker verfügt Sorochtin von Hause aus über ein solides mathematisch-­physikalisches Wissen. Er ist Prof. Dr. d. math.-phys. Wiss. (nach russischer Nomenklatur akade­mischer Grade) und ordentliches Mitglied der Russischen Akademie der Naturwissenschaften.

Anhand der Lektüre des vorgestellten Artikels wird ersichtlich, welcher Denkrichtung Sorochtin an­gehört, die nicht untypisch für einen großen Teil von Geowissenschaftlern ist, in sofern, dass Än­derungen des Erdklimas hauptsächlich auf geogene und kosmische, weniger auf anthropogene Ur­sachen zurückgeführt werden.

Im hier vorgestellten Artikel erläutert Sorochtin die „adiabatische Theorie des Treibhauseffektes“, die im Einzelnen so neu nicht erscheint. Sorochtin meint hier, dass die mittlere Temperatur auf je­dem Niveau einer hinreichend dichten Troposphäre eines Planeten (mit Drücken über 200 mbar) eindeutig von der Intensität der Sonneneinstrahlung, dem Luftdruck auf bestimmten Höhenniveau, der Wärmekapazität der Troposphäre, der Feuchtigkeit der Luft und ihrer Fähigkeit Infrarotstrah­lung zu absorbieren bestimmt wird. Jedoch je intensiver die Absorption von Infrarotstrahlung durch die Troposphäre ist, um so geringer erweist sich die Temperatur auf der Planetenoberfläche. Diese auf den ersten Blick paradox erscheinende Schlussfolgerung erklärt Sorochtin damit,  dass dabei der Temperaturgradient in der Troposphäre kleiner wird und sich gleichzeitig die Intensität des Wärmeaustrags aus der Troposphäre in die Stratosphäre erhöht.  Diese Gesetzmäßigkeit, so So­rochtin, erlaube es, eine Reihe prognostischer Berechnungen durchzuführen. Auf diese Weise sin­ke beispielsweise bei einer virtuellen Auswechselung der Erdatmosphäre gegen eine reine CO2-At­mosphäre bei gleichem Druck von 1 atm die Temperatur in Bodennähe um fast 2 °C. Sorochtin folgert danach, dass eine Anreicherung der Erdatmosphäre mit Kohlendioxid, unabhängig von sei­ner Fähigkeit Infrarotstrahlung  absorbieren zu können, nicht zu einer Erhöhung, sondern aus­schließlich zu einer Minderung sowohl  des Treibhauseffektes als auch der mittleren Oberflächen­temperatur eines Planeten. Sorochtin glaubt, dies mit einer in sich schlüssigen Beweiskette (bei ei­ner ersten Betrachtung erscheint dies auch so) bewiesen zu haben.

In einer zweiten weitaus kürzeren Rubrik äußert sich Sorochtin über die Genese von Ozonlöchern. Hier sind für den Leser Ausführungen über die geogene Herkunft von Fluorkohlenwasserstoffen und anderen Gasen möglicherweise neu.

Der vorliegende Artikel wurde dem russischsprachigen Internet entnommen (http://fiz.1september.ru/articlef.php?ID=200501111) und enthält die Kernaussage unten genannter Publikationen. In so weit stellt die vorliegende Abhandlung eine Ergänzung bzw. Modifikation u. g. Artikel dar.

Weitere Quellen (russ. z. T. eng.) aus dem Internet:

http://www.scgis.ru/russian/cp1251/dgggms/1-98/par_eff.htm#p2

(Sorochtin, O.G.; Uschakow, S.A.: Die Natur des Treibhauseffektes…)

Die Kernaussage wurde in der Arbeit

Sorokhtin O.G., Ushakov S.A. Adiabatic theory of greenhouse effect of atmosphere. Bulletin MGU, ser. 5, Geographic, 1996, ?5, p. 27-37.

formuliert.

Die Veröffentlichungen

Sorokhtin O.G. Greenhouse effect atmospheres in a geological history of the Earth. – Dokl. AN USSR, 1990, v. 315, ? 3, p. 587-592.

Sorokhtin O.G., Ushakov S.A. Global evolution of the Earth.-M.: Isdat. MGU, 1991. – 446 pp.

sind Vorläufer der o. g. Arbeit von 1996. Sie sind allesamt im Verlag der Staatlichen Moskauer Uni­versität in russischer Sprache als Mitteilung o. ä. erschienen. Sehr wahrscheinlich liegen sie, wie leider sehr oft der Fall, nur zum Teil in englischer Übersetzung vor.

Spätere Publikationen in englischsprachigen Zeitschriften lediglich unter der Mitautorschaft von Sorochtin beispielsweise von 2008 (Chilingar et. al) haben höchstens nur randlich mit den fast ausschließlich die adiabatische Theorie abhandelnden Artikel zu tun.

Dr. B. Hartmann für EIKE

Den vollständigen Artikel finden Sie als pdf im Anhang

Related Files




Auf der Schwarzen Liste der Klimaforscher!

Wer tatsächlich der Meinung ist, die sog. “Climategate”-Affäre wäre durch den halbherzigen Untersuchungsbericht der britischen Regierung aus der Welt geschaffen, der sollte sich Ross McKitricks Geschichte über seine Odyssee durch den Review-Prozess der Klimafachjournaillee einmal etwas genauer anschauen.

Dem kanadische Umweltökonomen Ross McKitrick war zu Beginn dieses Jahrzehnts aufgefallen, dass die für die Modellierung von Klimaveränderungen sowie die Darstellung der jüngsten Klimageschichte extrem wichtigen Temperaturdatenbestände der britischen Climate Research Unit (CRU) keine methodisch zufrieden stellende Antwort auf die Frage gaben, ob die Temperaturmesswerte der globalen Landoberfläche tatsächlich nur das eigentlich gesuchte Klimasignal reflektierten. Unklar war, inwiefern menschliche Einflüsse wie Abholzung, Bauaktivitäten, landwirtschaftliche Nutzung und andere zivilisatorische Veränderungen den Temperaturverlauf verfälschten. Da er feststellen musste, dass in den IPCC-Berichten diese Frage nur mit empirisch unbelegten Vermutungen beantwortet und überdies angesichts praktischer Erfahrungen an vielen globalen Messpunkten unrealistisch niedrig eingeschätzt wurde, machte er sich gemeinsam mit dem US-Klimatologen Patrick Michaels an daran, der Sache auf den Grund zu gehen. Bereits 2004 veröffentlichten sie ihre Ergebnisse in dem klimawissenschaftlichen Fachjournal Climate Research und stellten fest, dass die Temperaturdaten für den IPCC-Bericht nur unzureichend von den o.g. Einflüssen bereinigt waren und daher zu starke Temperaturanstiege für die globalen Landmassen aufwiesen. Diese Erkenntnis hatte weitreichende Konsequenzen, bildeten die Temperaturdaten doch die Basis so ziemlich jeder abgeleiteten Aussage des IPCC zum Klimawandel. Auch ein anderes niederländisches Forscherteam war zu einem ähnlichen Ergebnis gekommen. Da dieses Ergebnis der klimawissenschaftlichen Orthodoxie zu widersprechen schien, entspann sich unmittelbar nach der Veröffentlichung im Internet ein heftiger Streit über die Qualität des Aufsatzes, in dessen Folge es den Autoren gelang einige Fehler auszuräumen und die Validität ihrer Ergebnisse zu bestätigen. Doch ein erneuter Versuch eine verbesserte Version in einem Fachjournal zu veröffentlichen, um sich damit zur Berücksichtigung im 4. Sachstandsbericht des IPCC zu qualifizieren, endete in einer dreijährigen Odyssee durch den Review-Prozess von acht Fachmagazinen.

Dabei stellte sich heraus, dass der Review-Prozess des Aufsatzes nicht nur aufgrund der Wagenburgmentalität einflussreicher Klimaforscher systematisch verzögert wurde, sondern es auch zur Ablehnung aufgrund von Referees kam, denen für eine adäquate Bewertung der Arbeit schlichtweg die fachliche Expertise fehlte. Sogar unzulässige Tricks, wie etwa die Blockierung zuvor zugelassener Referees, kamen in dieser Zeit ans Tageslicht.  Mehrfache Hinweise und Mahnungen an leitende Editoren einzelner Zeitschriften diesbezüglich liefen zumeist ins Leere. Trotzdem die Autoren sämtliche geforderten Korrekturen in immer neuen Versionen des Aufsatzes an unterschiedliche Fachzeitschriften übermittelten, kam es auch in der Folgezeit nicht zu einer Veröffentlichung. In einigen Fällen wurde der Aufsatz unter fadenscheinigen Begründungen ohne vorherige Begutachtung sogar von vorn herein abgelehnt. Obgleich von sieben Fachblättern mit sieben Reviews sechs die fachliche Qualität der Arbeit bestätigten und die Veröffentlichung empfahlen, gelang es erst vor einem halben Jahr den Aufsatz in der hochkarätigen, doch eher fachfremden StatistikzeitschriftStatistics, Politics and Policy zu platzieren.

In diesem Prozess spielte auch der Chef der Climate Research Unit Phil Jones, dem jetzt offiziell die Verantwortung für jegliche Art wissenschaftlicher Verfehlungen abgesprochen wurde, eine unrühmliche Rolle. Jones gelang es, als führender Autor eines Kapitels des IPCC-Berichts, indem er vornehmlich seine eigene Arbeit für die Politikberatung verwendete, die für ihn kritischen Ergebnisse durch eine Hinhaltetaktik in dem Bericht ignorieren. Der für die Wissenschaftlerkorrespondenz im Zuge des “Climategate”-Skandals so charakteristische Satz von Jones, “Ich will keinen dieser Aufsätze im nächsten IPCC-Bericht sehen. Kevin (Trenberth) und ich werden sie irgendwie heraus halten – auch wenn wir dafür den Review-Prozess neu definieren müssen.” deutet darauf hin, wie unverhüllt hinter der wissenschaftlichen Fassade manipuliert wurde.

Das Schicksal der Arbeit von Ross McKitrick und Patrick Michaels ist symptomatisch für die derzeitige Sackgasse der wissenschaftlichen Beurteilung des Klimawandels. Es ist nicht das erste Mal, dass die politisierte Institution IPCC, in der nach politischen Kriterien handverlesene Wissenschaftler, die wissenschaftliche Rechtfertigung für eine bereits im Vorab feststehende klimapolitische Strategie abliefern sollen, in ihrer ursprünglichen Aufgabe als neutraler Politikberater versagt. Auch der als Hockeystick-Affäre bekannte wissenschaftliche Streit um die Validität der paläoklimatologischen Forschungsergebnisse um den amerikanischen Klimaforscher Michael Mann hat schon dunkle Schatten auf die Neutralität der Klimaforschung und ihre politische Instrumentalisierung in öffentlich bestellten Wissenschaftsgremien geworfen (Eindrucksvoll beschrieben in A.W. Montfords Buch “The Hockey Stick Illusion”). Obgleich Wissenschaft, Medien und Politik derzeit eifrig dabei sind jegliche Zweifel an der Zuverlässigkeit der IPCC-Berichte zu zerstreuen, ist das Vertrauen in die bestehenden Institutionen der Klimaforschung nachhaltig beschädigt. Nur eine institutionelle Reform des IPCC, die in der Lage ist transparente Strukturen zu schaffen, die einen ungefilterten wissenschaftlichen Diskurs zulässt und die weitestgehend frei von politischer Manipulation ist kann dieses Vertrauen wieder herstellen. Inwiefern die öffentliche Wahrnehmung und damit auch der klimapolitische Prozess angesichts der Einseitigkeit der aktuellen Medienberichterstattung hiervon allerdings profitiert, steht auf einem ganz anderen Blatt.

Steffen Hentrich Liberales Institut 




GISS-Eskapaden; die merkwürdigen Statistiktricks des US Klimainstitutes GISS

Angeregt durch diesen Web-Beitrag über das Fehlen von Daten im Polarmeer, habe ich nachgeschaut, wie das GISS Daten erzeugt, wenn es gar keine gibt.

Das GISS ist das Goddard Institute for Space Studies und gehört zur NASA. Der Direktor des GISS ist Dr. James Hansen. Dr. Hansen ist ein unbefangener Wissenschaftler, der meint, man müsse Menschen, die nicht an seine apokalyptischen Visionen der Zukunft glauben, wegen „Hochverrats an der Menschlichkeit“  vor Gericht stellen.   Das GISS erzeugt die GISTEMP genannte Historie der Erdoberflächentemperaturen. Hier ist seine Historie der Temperatur-Anomalie für Dez-Jan-Feb 2010 :

 

Abb. 1. GISS Temperatur-Anomalien DJF 2010. Für graue Gebiete gibt es keine Temperaturdaten.

Was stimmt mit dieser Darstellung nicht? 

Das Kuriose an dieser Darstellung ist, daß uns Temperaturdaten geliefert werden, wo gar keine existieren. Vom Polarmeer haben wir zum Beispiel sehr wenig Messungen. Dennoch zeigt die GISS-Karte radikale Erwärmung im Polarmeer. Wie kommt das zustande?

Das Verfahren ist in einem  Papier von 1987  von Hansen und Lebedeff skizziert. In jenem Papier schreiben sie, dass die jährlichen Temperaturänderungen über weite Strecken wohlkorreliert sind, über bis zu 1200 Km.

Aufgrund der von Hansen und Lebedeff entdeckten guten Korrelation (+0.5 und mehr) bis zu 1200 km von einer gegebenen Messstation, zeigt GISS die vermuteten Temperaturtrends innerhalb 1200 km von den Küstenstationen und 1200 km von den Stationen auf den Inseln. Gebiete außerhalb sind in grau dargestellt. Mit diesem 1200 km Radius können sie den “Temperaturtrend” des gesamten Polarmeers zeigen, wie in Abb. 1 dargestellt. Damit ist das Problem der sehr geringen Abdeckung im Polarmeer erledigt. Hier ist ein kleiner Teil des Problems dargestellt, die Abdeckung der Fläche nördlich 80° Nord:

(„Korrelation“ ist ein mathematisches Maß für die Ähnlichkeit zweier Datenbestände. Sie rangiert von „null“, d. h. keine Ähnlichkeit, bis plus oder minus “eins”, d. h. völlig gleich. Ein negatives Vorzeichen bedeutet Gleichheit, aber wenn der Wert eines Datenbestandes nach oben geht, nimmt der andere ab.)

 

Abb. 2. Temperaturmessstationen bei 80° nördlicher Breite. Die Kreise um die Stationen haben 250 km Durchmesser. Man beachte, dass der Kreis bei 80°N einen Radius von etwa 1200 km hat, eine Größe, innerrhalb derer wir laut Hansen Temperaturtrends extrapolieren können.

Können wir wirklich annehmen, dass eine einzelne Station für ein derart großes Gebiet repräsentativ sein könnte? Sehen Sie sich Abb. 1 an, dort sind Trends angegeben für das gesamte Polarmeer, obschon es keine Messdaten gibt. Hier ist eine größere Ansicht, die das gesamte Polarmeer zeigt.

 

Abb. 3. Temperatur-Messstationen um das Polarmeer herum. Die Kreise um die Stationen haben etwa 250 km Durchmesser. Man beachte, dass die Fläche nördlich von of 80°N (gelber Kreis) etwa die dreifache Größe von Alaska hat.

Was die Dres. Hansen und Lebedeff 1987 nicht bemerkten, und niemand scheint es seither bemerkt zu haben, ist, dass ihre Erkenntnisse in Bezug auf die Korrelation von weit entfernten Messstationen sehr problematisch sind. Das zeigt die folgende Graphik.

 

Abb. 4. Fünf Pseudo-Temperatur-Historien. Man beachte die Unterschiede in der Form der Historien und in den Trends. 

Merkwürdigerweise gleichen sich diese Pseudo-Temperatur-Historien trotz ihren offensichtlichen Unterschieden in einem, der Korrelation. Die Korrelation zwischen jeder einzelnen Pseudo-Temperatur-Historie und den anderen Pseudo-Temperatur-Historien ist größer 90%.

 

Abb. 5. Korrelation zwischen den Pseudo-Temperatur-Historien aus Abb. 3.

Die unausweichliche Folgerung daraus ist, dass hohe Korrelationswerte zwischen Temperatur-Historien nicht bedeuten, dass deren Trends sich ähneln.

In Ordnung, ich kann schon hören, was Sie denken: „Ja, stimmt, für einige imaginäre kurze 20-jährige Pseudo-Temperatur-Historien kann man einige wilde Daten finden, die unterschiedliche Trends aufweisen. Doch was ist mit den realen 50-jährigen Temperatur-Historien, wie sie Hansen und Lebedeff benutzten?“

Gut, dass diese Frage kommt … hier sind neunzehn 50-jährige Temperatur-Historien von Alaska. Alle korrelieren mit Anchorage höher als 0,5 (max 0.94, min 0.51, Durchschnitt 0.75).

 

Abb. 6. Trends von Temperatur-Historien von Alaska-MessStationen. Foto stammt aus Pioneer Park, Fairbanks.

Man sieht, die Trends rangieren von etwa einem Grad in 50 Jahren bis nahe drei Grad. Trotz dieser riesigen Spannweite (ca. 300%) bei den Trends haben alle eine gute Korrelation (größer +0,5) mit Anchorage. Das zeigt klar, dass eine gute Korrelation zwischen den Temperatur-Historien nichts aussagt über deren korrespondierende Trends.

Und schließlich ist meines Wissens dieses Extrapolationsverfahren von Hansen und dem GISTEMP einmalig. Es wird von keinem anderen Erzeuger von globalen oder regionalen Datenhistorien benutzt, wie z. B. vom CRU oder USHCN. Wie Kevin Trenberth in den CRU-Emails über die Diskrepanz zwischen GISTEMP und den anderen Datenhistorien sagte (Hervorhebung durch den Verf.):

Nach meinem Verständnis ist die größte Quelle dieser Diskrepanz [zwischen globalen Datenhistorien] die Art und Weise, wie die Arktis analysiert wird. Wir wissen, dass das Meereis auf Rekordniedrigständen war, 22% weniger als im vorhergehenden Niedrigjahr 2005. Einige Meer- und Lufttemperaturen waren bis zu 7C höher als Normal. Aber meistens gibt es keine konventionell ermittelten Daten. Bei der NASA [GISTEMP] extrapoliert man und baut die hohen Temperaturen in der Arktis ein. In anderen Datenreihen tut man das nicht. Nur verfügbaren Daten werden benutzt, das Übrige fehlt.

Keine Daten verfügbar? Kein Problem, baue einfach einige hohe Temperaturen ein 

Was ergibt sich daraus?

Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

[Nachfolgend zwei Berichtigungen aus dem Kommentarbereich der Originalquelle]

[Aktualisierung 1] Fred N. merkte an, dass GISS eine polare Sicht auf die gleichen Daten zeigt. Man beachte den Anspruch der Gültigkeit für das gesamte Polarmeer. Danke.

[Aktualisierung 2] JAE wies darauf hin, dass Abb. 1 keine Trends zeigt, sondern Anomalien. BOBALLAB verwies mich auf die Karte mit den tatsächlichen Trends. Beiden Lesern meinen Dank. Hier ist die zutreffende Darstellung:

 

Erschienen am 25. 03. 2010 als  Gastbeitrag von Willis Eschenbach auf der Watts Up Seite. Die Übersetzung besorgte dankenswerterweise Hellmut Jäger für EIKE