1

Die Medien haben eine Verantwortung, unabhängige Analysen des Klima-‚Konsens‘ zu veröffentlichen

Sollte man Kritikern der erneuerbaren Energien erlauben, ihre Einwände in den Meinungsspalten der Zeitungen artikulieren? Konterkarieren die Proteste gegen Ökosteuern oder die Angriffe auf Subventionen für Wind- und Solarenergie (und die daraus folgende Umverteilung von Wohlstand von den Armen zu den Reichen) nicht das Kernprinzip der Medien von „genauer, fairer und ausgewogener Berichterstattung?“, wie Lobbyisten grüner Energie beklagen?

Und was ist mit den Klimaskeptikern? Sollte man ihnen erlauben, ihren Zweifeln in den Kommentarspalten der Zeitungen Ausdruck zu verleihen? Schließlich haben die grünen Aktivisten das konventionelle Wissen über die globale Erwärmung als „bewusst irreführend“ bezeichnet. Sie behaupten, dass jeder Skeptizismus hinsichtlich des Konsens’ des IPCC das Prinzip des eigenen Verhaltenskodex’ der Medien verletzt.

Der frühere Berater zur Klimaänderung Ross Garnaut hat sich darüber beklagt, dass eine ausgewogene Berichterstattung zur Klimaänderung den Antrieb für politische Maßnahmen massiv unterminiert hätte: „Schaut man sich die Mainstream-Medien an, scheint es oft so, als ob die Medien eine gewisse Balance herstellen wollen zwischen Leuten, deren Ansichten auf der Mainstream-Wissenschaft beruhen und solchen, bei denen das nicht der Fall ist. Das ist eine sehr seltsame Art der Ausgewogenheit. Es ist die Ausgewogenheit von Worten und nicht eine Ausgewogenheit der wissenschaftlichen Autorität“.

Eine wachsende Zahl von Klimawissenschaftlern und Umweltaktivisten führen eine organisierte Kampagne gegen die Prinzipien eines fairen und ausgewogenen Journalismus durch, der die offene und pluralistische Gesellschaften verkörpert.

Politische Aktivisten sorgen sich, dass irgendwelche in den Medien angesprochene Zweifel, Ungewissheiten und Einwände drastische politische Maßnahmen verhindern. Da ist es kein Wunder, dass Aktivisten Strategien entwickeln, um Herausgeber davon abzuhalten und sie einzuschüchtern, damit sie keinen Kritikern zur Erklärung ihrer Einwände Raum geben. Gelegentlich wagt es ein nachforschender Herausgeber oder Kolumnist, diese Form der Nötigung herauszufordern, trotz der Drohungen von Protest und Einschüchterung. In diesem Fällen wird eine ganze Armee von Aktivisten und Bloggern aktiviert, den ungehorsamen Journalisten anzugreifen.

Auf „Konsens” basierende Wissenschaft ist ein heikles Geschäft. Ich glaube nicht daran, weil uns die Geschichte der Wissenschaft sagt, dass der heutige Konsens die widerlegte Theorie von morgen sein kann – und häufig auch ist.

Es gibt bestimmte Arten allgemeiner Übereinstimmung in der Wissenschaft, die überzeugender und dauerhafter als andere sind. In einigen Gebieten der empirischen Wissenschaft, wie z. B. der Astronomie des Sonnensystems, gibt es mehr Übereinstimmung, weil die Daten viel robuster und die Methoden weniger komplex sind. Je komplexer die Wissenschaft und je weniger zuverlässig die Daten, umso mehr wissenschaftliche Kontroversen sollte man zu finden erwarten. Andererseits wissen wir auch, dass die Wissenschaft dazu tendiert – und sie tatsächlich auch braucht – wissenschaftliche Paradigmen zu erzeugen, was vielleicht ein besseres Wort ist als Konsens.

Darum habe ich wirklich kein Problem mit der Tatsache, dass eine Mehrheit der Klimawissenschaftler glaubt, die wesentlichen Antriebe der Klimaänderung zu verstehen.

Aber die Wissenschaft würde sehr schnell in einer Sackgasse landen ohne die steten und notwendigen Versuche, das führende Paradigma des Tages eingehend zu prüfen und zu falsifizieren, vor allem solche, die schwach daher kommen und auf umstrittenen Daten, fragwürdigen Methoden und gescheiterten Computermodellen beruhen. Tatsächlich weisen einige Kritiker darauf hin, dass die Wissenschaft fast eine solche Sackgasse erreicht hat.

Die wissenschaftlichen Bemühungen involvieren sowohl die Protektoren als auch die Herausforderer jedes einzelnen Paradigmas. Beide sind für die Gesundheit und die Dynamik eines hoch konkurrenzbetonten Abenteuers unabdingbar, das Wissenschaft ist. Kein Konsens ist sakrosankt.

Und es ist die innerste Natur eines fairen und ausgewogenen Journalismus’, dass alle vernünftigen Positionen und Gegenargumente gehört werden sollten.

Während grüne Aktivisten versuchen, selbst die Debatten um Energie und Wirtschaft in das traditionelle Schema eines Konfliktes zwischen Zustimmung und Ablehnung zu pressen, geht es in der politischen Diskussion nicht mehr um den Gegensatz zwischen Aktionen und Tatenlosigkeit.

Das wirkliche Thema heute dreht sich um die kosteneffektivsten Wege, der Klimaänderung zu begegnen: revolutionäre Transformation der globalen Ökonomie, wie sie von Klimaalarmisten befürwortet wird, oder graduelle Übernahme von allem und Anpassung an alles, was die Natur in der Zukunft für uns bereit halten könnte, wie es von moderaten Umweltaktivisten vorgeschlagen wird.

Trotz der Mehrheitsmeinung unter den Klimawissenschaftlern, wissenschaftlichen Organisationen und Regierungen gibt es eine große Minderheit von Forschern, Ökonomen und politischen Beobachtern, die sich Sorgen über die apokalyptische Natur des Klimahypes und das wachsende Risiko machen, dass diese Form der kollektiven Hysterie für die politische und wirtschaftliche Stabilität darstellt. Skeptische Forscher werden weiterhin kritische Studien veröffentlichen, und kritische Kolumnisten werden Kommentare veröffentlichen, die den sog. Klimakonsens in Frage stellen.

Sollten die Mainstream-Medien eine Plattform für diese Kritiker zur Verfügung stellen? Sollten sie das Gewicht ihrer Beweise und die Gültigkeit ihrer Argumente zur Disposition stellen? Oder sollten die Medien Herausforderungen des Status quo einfach ignorieren?

Die Integrität der westlichen Medien hängt davon ab, ob sie Kritiker oder Analysen zur Fehlerfindung ermutigen – oder ob sie mehr und mehr in einen leichtgläubigen Kampagnenjournalismus abgleiten.

Benny Peiser, The Australian

Benny Peiser is the director of the Global Warming Policy Foundation, an all-party and non-party think tank based in London.

The Australian, 2 June 2012

Link: http://thegwpf.org/opinion-pros-a-cons/5867-benny-peiser-media-has-a-responsibility-to-publish-independent-analysis-of-climate-consensus.html

Übersetzt von Chris Frey EIKE




Das Mysterium von Gleichung 8 oder John v. Neumanns Elefant*

„Warum versuchen Sie alle nicht, unsere WUNDERgleichung zu widerlegen, anstatt Ihre Köpfe gegen die Wand zu schlagen bei dem Versuch, zu beweisen oder zu widerlegen, wer was weiß und zu betonen, dass Sie mit diesem oder jenem Probleme haben? Die Frage lautet, wie wir das haben machen können – keine Frage ist, dass unsere Gleichungen funktionieren – wenn Sie nicht verifiziert haben, dass sie funktionieren, warum haben Sie nicht? (…) Warum denken Sie nicht „hmmmm, N&Z haben uns eine Gleichung gegeben. Wenn man darin den gemessenen Druck eingibt und Tgb wie vorgeschlagen berechnet, erhält man einen berechneten Wert von Ts, der selbst zu gemessenen Werten passt! Sie können die Gleichung nicht widerlegen? Also kochen wir vielleicht irgendwie die richtigen Daten?“

Dies soll der Beweis sein, dass ihre Theorie korrekt ist, und Leute sagen mir immer wieder ‚aber sie haben einen wirklichen Beweis, sie können planetarische Temperaturen vorhersagen, schau mal nach!‘ Außerdem fällt es schwer, eine Einladung nach Art von Dr. Zeller zu ignorieren, also habe ich nachgeschaut.

Abbildung rechts: Es sind nicht diese Gleichungen, nach denen Sie suchen.

Zuerst postulieren sie etwas, das sie den „Atmospheric Thermal Enhancement“- oder „ATE“-Effekt nennen, der die Erde wärmer macht, als sie ohne Atmosphäre wäre.

Der ATE-Effekt”  wird durch etwas gemessen, das Nte(Ps) genannt wird, was in ihrer Studie wie folgt definiert und abgeschätzt worden ist.

Darin ist Nte(Ps) ein Maß für den „oberflächennahen Atmospheric Thermal Enhancement“-Effekt.

Nte(Ps) wird definiert als die tatsächliche mittlere Lufttemperatur des Planeten Ts geteilt durch die theoretische „Graukörper“-Temperatur des Planeten Tgb, berechnet aus der totalen solaren Einstrahlung So des Planeten. Nte(Ps) wird abgeschätzt durch Verwendung einer angepassten Funktion des Bodendrucks des Planeten Ts.

Lassen Sie mich das ein wenig vereinfachen. Symbolisch lässt sich der rechte Teil der Gleichung (7) schreiben als

Nte(Ps) = e^(t1 * Ps ^ t2 + t3 * Ps ^ t4)       (7Sym)

worin „e“ die Basis des natürlichen Logarithmus‘ und Ps der Bodendruck des Planeten oder Mondes ist. Es gibt vier regelbare Parameter (t1 bis t4), die an die Daten „angepasst“ oder danach ausgerichtet werden. Mit anderen Worten, diese Werte werden wiederholt justiert und ausgerichtet, bis die gewünschte Anpassung erreicht ist. Diese Anpassung kann leicht in Excel mit dem Menüpunkt „Löse…“ vorgenommen werden. Wie zu erwarten war, ist die Anpassung mit vier Parametern und nur acht Datenpunkten ziemlich gut, und ihre Schätzung kommt dem tatsächlichen Wert von Nte(Ps) ziemlich nahe.

Lustigerweise wird das Ergebnis von Gleichung (7) danach in einer anderen angepassten Gleichung verwendet, Nummer (8). Sie lautet:

wobei So die Gesamtsolarstrahlung ist.

Dies ist ihre WUNDERgleichung, von der sie sagen, dass man damit die Oberflächentemperatur von acht verschiedenen Planeten und Monden mit nur zwei Variablen berechnen kann – Pr, der Bodendruck und So, die Gesamtsolarstrahlung. Das ist es, was die Menge der Leute so fasziniert, dass sie mir schreiben, dass es „Beweise“ gibt, dass N&Z recht haben.

Offensichtlich gibt es einen weiteren angepassten Parameter in Gleichung (8), so dass wir sie symbolisch umschreiben können zu:

Ts = t5 * (Solar + adjustment ) ^ 1/4 * Nte(Ps).        (8Sym)

Halten wir hier mal einen Moment inne und gestatten uns eine Bemerkung zu Gleichung (8). Die gesamte Sonneneinstrahlung reicht von über 9000 W/m² für den Merkur bis 1,51 W/m² für Triton. Man betrachte Gleichung (8). Wie wird der Faktor 0,0001325 auf jeden dieser Werte vor dem Ziehen der vierten Wurzel im Ergebnis auch nur einen winzigen Unterschied machen? Das ist einfach bizarr. Sie sagen, dass sie es in die Formel einbringen, damit die Formel richtig ist, wenn keine Solarstrahlung vorhanden ist, so dass eine Hintergrundstrahlung von 3 Kelvin herauskommt. Wen kümmert das? Wirklich, es verändert Ts maximal durch ein Tausendstel Grad für Triton. Also wollen wir es für den Moment entfernen, da es keinen praktischen Unterschied und die Dinge nur konfuser macht.

Zurück zu unserer Geschichte. Entfernt man die Anpassung und setzt Gleichung (7) in Gleichung (8) ein, erhält man:

Ts = t5 * Solar^0.25 * e^(t1 * Ps ^ t2 + t3 * Ps ^ t4) (eqn 9)

Das ist faszinierend. Diese Burschen behaupten allen Ernstes, dass sie mit nur acht Datenpunkten und nicht weniger als fünf veränderbaren Parametern die Oberflächentemperatur der acht Planeten berechnen können, nur mit Kenntnis des Bodendrucks und der Sonneneinstrahlung. Und mit so vielen Drehknöpfen bin ich auch sicher, dass sie das tun können. Ich habe es selbst unter Verwendung ihrer Zahlen gemacht. Ich bekomme die gleichen Werte für alle Zahlen von t1 bis t5. Aber das beweist überhaupt nichts.

Ich meine … ich kann nur mit Bewunderung vor der schieren Unverfrorenheit dieser Behauptung stehen. Sie benutzen nur acht Datenpunkte und fünf veränderbare Parameter mit einer speziell gebildeten ad-hoc-Gleichung ohne physikalische Grundlage. Und sie denken nicht im Mindesten daran, wie merkwürdig dies ist.

Ich werde auf diese Frage der Anzahl der Parameter gleich noch einmal zurückkommen, denn obwohl es verblüffend ist, was sie hier gemacht haben, ist es nicht der Höhepunkt der Geschichte. Wir können Gleichung (7) auch auf etwas andere Art in Gleichung (8) einsetzen, indem wir den mittleren Term von Gleichung (7) verwenden. Das ergibt:

Ts = t5 * Solar^0.25 * Ts / Tgb  (eqn 10)

Dies bedeutet: wenn wir mit der Kenntnis der Bodentemperatur Ts auf der rechten Seite der Gleichung anfangen, können wir Ts auf der linken Seite berechnen … erschreckend, ich weiß, wer hätte das gedacht. Wir wollen den Rest der Mathematik in Gleichung 10 checken, um zu sehen, warum das herauskommt.

Man kann bei näherem Hinsehen erkennen, dass der erste Teil der rechten Seite von Gleichung (10)

t5 * Solar^0.25

eine andere Form der bekannten Stefan-Boltzmann-Gleichung ist, die den Zusammenhang von Strahlung und Temperatur beschreibt. Diese S-B-Gleichung kann auch geschrieben werden als

T = (Solar / c1) ^ 0.25.

wobei T die Temperatur ist und c1 eine Konstante, die gleich ist der S-B-Konstanten multipliziert mit der Emissivität. Wir können das umschreiben zu

T = 1/(c1^0.25) * Solar^0.25

Setzt man eine andere Konstante c2 = 1/(c1^0.25) ergibt sich die Stefan-Boltzmann-Gleichung zu:

T = c2 * Solar^0.25

Aber das ist genau die Form des ersten Teils der rechten Seite von Gleichung (10). Oder auf den Punkt gebracht, es ist eine Approximation der Graukörper-Temperatur des Planeten Tgb.

Wir können das prüfen, und zwar wenn wir die Emissivität mit 0,9 annehmen, dann beträgt die Konstante c1 5,103E-8, und c2 daher 66. Allerdings reduziert sich dieser Wert durch die Rotation des Planeten. Mit Hilfe der N&Z-Formel in ihrem jüngsten Beitrag ergibt sich ein Wert um 27.

Ihr angepasster Wert ist 25, nicht weit vom tatsächlichen Wert. Also kommt komischerweise heraus, dass sie nichts anderes getan haben als die Stefan-Boltzmann-Konstante mit einer bizarren Methode der Kurvenanpassung abzuschätzen. Und das haben sie gut gemacht. Tatsächlich sogar ziemlich eindrucksvoll, wenn man die Anzahl der Rechenschritte und der involvierten Parameter bedenkt.

Aber da  t5  * Solar^0.25 eine Schätzung der Graukörper-Temperatur des Planeten Tgb ist, bedeutet das, dass sich die Gleichung (10) reduziert, und zwar von

Ts = t5 * Solar^0.25 * Ts / Tgb (eqn 10)

zu

Ts = Tgb * Ts / Tgb.

Und schließlich zu

Ts = Ts

TA-DA!

Schlussfolgerung

Lassen Sie mich den zugrunde liegenden Effekt dessen wiederholen, was sie getan haben. Sie betrachteten acht Planeten und Monde.

1.      Sie haben eine Gleichung verwendet

e^(t1 * Ps ^ t2 + t3 * Ps ^ t4)

mit vier freien Parametern für eine Abschätzung von Ts/Tgb, basierend auf dem Bodendruck. Wie man unter der Tatsache erwarten würde, dass es halb so viele freie Parameter wie Datenpunkte gibt und dass sie freie Auswahl haben, irgendeinen davon für ihre Gleichung unbegrenzt auszusuchen, ist das überhaupt kein Problem und kann mit fast jeden Datensatz durchgeführt werden.

2.      Sie haben eine Gleichung verwendet

t5 * Solar^0.25

mit einem freien Parameter, um eine Schätzung von Tgb zusammenzubekommen, die auf der Gesamteinstrahlung des Planeten basiert. Da Tgb unter anderem von der planetarischen Einstrahlung abhängt, gibt es auch hier kein Problem.

3. Sie haben die beiden Schätzungen miteinander multipliziert. Da das Ergebnis eine Schätzung nach der Gleichung Tgb mal einer Schätzung von Ts/Tgb ist, hat das natürlich zur Folge, dass diese Operation Tgb aus der Gleichung hinauswirft.

4. Sie merken an, dass der Rest Ts ist, und erklären das zu einem WUNDER.

Sehen Sie, es wird Ts vorhergesagt, indem man bei Ts anfängt? Überhaupt nicht schwierig, und mit fünf freien Parametern und der Auswahl irgendeiner Gleichung, egal wie nicht-physischer Natur, ist das überhaupt kein WUNDER irgendeiner Art, sondern lediglich ein weiterer Fall einer zügellosen Kurvenanpassung…

Schließlich gibt es eine berühmte Geschichte in der Wissenschaft über diese Art der pseudowissenschaftlichen Verwendung von Parametern und Gleichungen, erzählt von Freeman Dyson:

Wir begannen mit der Berechnung der Mesonen-Protonen-Verteilung unter Verwendung einer Theorie der starken Kräfte, die als pseudoskalare Mesonentheorie bekannt ist. Im Frühjahr 1953 haben wir nach heroischen Bemühungen theoretische Graphen der Mesonen-Protonen-Verteilung geplottet. Wir haben mit Freuden festgestellt, dass unsere berechneten Zahlen ziemlich gut mit den von Fermi gemessenen Zahlen übereinstimmten. Also vereinbarte ich mit Fermi ein Treffen und zeigte ihm unsere Ergebnisse. Stolz fuhr ich im Greyhound-Bus [Greyhound, das führende nationale Busunternehmen in den USA. A. d. Übers.] von Ithaca nach Chicago mit einem Packen unserer theoretischen Graphen, um sie Fermi zu zeigen.

Als ich in Fermis Büro ankam, übergab ich ihm sofort die Graphen, aber er warf kaum einen Blick darauf. Er bat mich, Platz zu nehmen und fragte mich dann freundlich nach der Gesundheit meiner Frau und unseres neugeborenen Sohnes, der heute fünfzig Jahre alt ist. Dann gab er sein Urteil mit einer ruhigen Stimme ohne Höhen und Tiefen ab. Es gibt zwei Möglichkeiten, Berechnungen in theoretischer Physik durchzuführen“, sagte er. „Ein Weg, und zwar der, den ich bevorzuge, besteht darin, ein klares physikalisches Bild des Prozesses vor Augen zu haben, den man berechnet. Der zweite Weg besteht darin,  einen präzisen und einen in sich widerspruchsfreien mathematischen Formalismus zu haben. Sie haben keins von beiden“.

Ich war ein wenig geschockt, wagte es aber, ihn zu fragen, warum er die pseudoskalare Mesonentheorie nicht als widerspruchsfreien mathematischen Formalismus sieht. Er erwiderte: „Die Quanten-Elektrodynamik ist eine gute Theorie, weil die Kräfte schwach sind, und wenn der Formalismus mehrdeutig ist, haben wir ein klares physikalisches Bild, das uns leitet. Hinsichtlich der pseudoskalaren Mesonentheorie gibt es kein klares physikalisches Bild, und die Kräfte sind so stark, dass nichts konvergiert. Um Ihre berechneten Ergebnisse zu erlangen mussten Sie frei wählbare Prozeduren [cut-off procedures] einführen, die weder auf solider Physik noch auf solider Mathematik basieren“.

Verzweifelt fragte ich Fermi, ob er nicht wegen der Übereinstimmung zwischen unseren berechneten Zahlen und seinen gemessenen Werten beeindruckt sei. Er erwiderte: „Wie viele frei wählbare Parameter haben Sie für Ihre Berechnungen verwendet?“

Ich dachte einen Moment nach und sagte: „Vier“.

Er sagte: Ich erinnere mich, wie mein Freund Johnny von Neumann zu sagen pflegte, mit vier Parametern kann ich einen Elefanten anpassen, und mit fünf kann ich ihn dazu bringen, mit seinem Rüssel zu wackeln“. Damit war die Unterhaltung beendet. Ich dankte Fermi für seine Zeit und seine Bemühungen und nahm traurig den nächsten Bus zurück nach Ithaca, um den Studenten die schlechten Nachrichten zu überbringen.

Die Gleichung von Nikolov und Zeller enthält fünf Parameter und nur acht Datenpunkte. Wenn ich sagte, dass es kein WUNDER ist, dass sie den Elefanten mit seinem Rüssel wackeln lassen, sondern ein zu erwartendes und triviales Ergebnis ihrer betrügerischen Prozeduren ist, dann habe ich damit alles gesagt.

P.S. – Es gibt natürlich eine technische Bezeichnung für das, was sie getan haben, da es keine neuen Fehler unter der Sonne gibt. Man nennt es „Überanpassung“. Laut Wikipedia: „Überanpassung erfolgt immer dann, wenn ein Modell exzessiv komplex ist, zum Beispiel wenn man zu viele Parameter im Verhältnis zur Anzahl der Beobachtungen hat.“ Fünf Parameter ist ein viel, viel zu großes Verhältnis zu acht Datenpunkten, das ist garantiert überangepasst.

P.P.S. – Ein Problem mit der WUNDERgleichung von N&Z liegt darin, dass sie sie in keiner Weise statistisch getestet haben.

Ein Weg, um zu sehen, ob ihre Anpassung wenigstens vage gültig ist, besteht darin, einige Datenpunkte außen vor zu lassen und die Anpassung noch einmal vorzunehmen. Natürlich ist das mit nur acht Datenpunkten problematisch… aber in jedem Falle kommen die angepassten Parameter radikal unterschiedlich heraus, wenn man das macht, und das weckt viele Zweifel an der Anpassung. Ich ermutige N&Z, das zu tun und über die Ergebnisse zu berichten. Ich werde es tun, aber sie glauben mir nicht, also was soll das?

Ein anderer Weg, ihre Anpassung zu überprüfen, besteht darin, den Datensatz zu halbieren und die eine Hälfte anzupassen und die Ergebnisse mit der anderen Hälfte zu überprüfen. Dies ist so, weil angepasste Gleichungen von der Art, wie sie N&Z verwendet haben, dafür bekannt sind, „außerhalb des Bereichs“ nur sehr bedingt gültig zu sein, das heißt auf Daten, die nicht verwendet wurden, um die Parameter anzupassen. Hat man lediglich acht Datenpunkte und vier Parameter in Gleichung (7), ist dies natürlich wieder problematisch, weil man bei der Teilung des Datensatzes durch zwei genauso viele Parameter wie Datenpunkte hat … nun könnte man denken, dass dies ein Hinweis darauf ist, dass das Verfahren lückenhaft ist, aber was  weiß ich schon, ich wurde gestern geboren. In jedem Falle ermutige ich N&Z, auch diesen Test durchzuführen. Meine Ergebnisse eines solchen Tests sagen, dass ihre Anpassung bedeutungslos ist, aber vielleicht sind ja ihre Testergebnisse unterschiedlich.

Aktualisierung Einer der Kommentatoren unten sagte:

Willis – mach weiter – passe einen Elefanten an. Bitte!

Ernsthaft, N&Z zeigen nur mit Hilfe der Algebra, was in Experimenten beobachtet worden ist, nämlich dass das Erwärmen eines Gases in einem geschlossenen Behälter zur Erhöhung sowohl des Drucks als auch der Temperatur führt.

OK, hier kommt meine Nachbildung der Oberflächentemperatur unter Verwendung von nichts weiter als den Daten in der Darstellung von N&Z bzgl. der Eigenschaften planetarischer Körper:

Abbildung 1: Willis’ Nachbildung der Oberflächentemperatur planetarischer Körper.

Meine Gleichung enthält eine Variable mehr und zwei Parameter weniger als die Gleichung von N&Z. Zur Erinnerung, ihre Gleichung lautete:

Ts = 25.3966 * Solar^0.25 * e^(0.233001 * Pressure ^ 0.0651203 + 0.0015393 * Pressure ^ 0.385232)

Meine Gleichung andererseits sieht so aus:

Ts = 25.3966 * Solar^0.25 * e^(0.233001 * Pressure ^ 0.0651203 + 0.0015393 * Pressure ^ 0.385232)

Man beachte, dass ich absolut nicht behaupte, dass die Temperatur durch Dichte und Schwerkraft bestimmt wird. Ich zeige lediglich, dass die Anpassung einiger Punkte mit einigen Variablen und einigen Parametern überhaupt nicht schwierig ist. Es zeigt auch, dass man die Antwort auch ganz ohne Verwendung des Bodendrucks erhalten kann. Und schließlich zeigt es, dass weder meine Nachbildung noch die Nachbildung planetarischer Temperaturen von N&Z auch nur einen Pfifferling wert ist!*

*Im Original steht hier ein Kraftausdruck, den ich lieber nicht direkt übersetzen möchte! A. d. Übers.

2. Aktualisierung Ich habe mir gedacht, dass ich nach den Wundern, die ich mit der Wundergleichung von N&Z angestellt hatte, hier nicht aufhören sollte. Ich sollte schauen, ob ich sie nicht mit ihren eigenen Spielregeln schlagen könnte und ein einfacheres Wunder zu tun. Hier nochmal ihre Gleichung:

Ts = 25.3966 * Solar^0.25 * e^(0.233001 * Pressure ^ 0.0651203 + 0.0015393 * Pressure ^ 0.385232)

Meine vereinfachte Version ihrer Gleichung sieht so aus:

Ts = 25.394 * Solar^0.25 * e^(0.092 * Pressure ^ 0.17)

Komischerweise enthält meine vereinfachte Version einen etwas geringeren RMS-Fehler als die Version von N&Z, also habe ich sie wirklich mit ihren eigenen Spielregeln geschlagen. Meine Gleichung ist nicht nur einfacher, sie ist auch genauer. Es steht ihnen frei, meine vereinfachte Wundergleichung zu benutzen, ohne Honorar. Hier sind die Anpassungen:


Abbildung 2 Eine einfachere Version der Gleichung 8 von N&Z

Wieder behaupte ich nicht, dass dies die Dinge verbessert. Die bloße Tatsache, dass ich das mit zwei einstellbaren Parametern weniger tun kann (drei anstatt fünf), heißt nicht, dass sie nicht überangepasst ist.

Sowohl die vereinfachte als auch die kompliziertere Form der Gleichungen von N&Z sind nichts weiter als eine Kurvenanpassung. Dies wird durch die Tatsache belegt, dass wir bereits drei einfache und sehr unterschiedliche Gleichungen haben, die die planetarischen Temperaturen bestimmen. Das ist das Gute an einer angepassten Gleichung – wenn man schlau ist, kann man Vieles mit nur etwas finden … aber DAS HEISST NICHT, DASS DER DRUCK DIE TEMPERATUR BESTIMMT .

Zum Beispiel kann ich das gleiche tun, ganz ohne den Druck, sondern stattdessen die Dichte zu verwenden. Diese Gleichung sieht so aus:

Ts = 25.491 * Solar^0.25 * e^(0.603 * Density ^ 0.201)

Und hier sind die Ergebnisse:

Abbildung 3: Eine Nachbildung der planetarischen Temperaturen unter Verwendung der Dichte anstelle des Drucks.

Heißt das jetzt, dass die planetarische Temperatur wirklich von der Dichte abhängt? Natürlich nicht, das Ganze ist eine Übung zur Anpassung von Kurven.

Link: http://wattsupwiththat.com/2012/01/23/the-mystery-of-equation-8/

Eine ausführliche Erwiderung samt Klarstellung der von W. Eschenbach angegriffenen Autoren finden Sie hier http://tallbloke.wordpress.com/2012/02/09/nikolov-zeller-reply-eschenbach/

Mit Dank an Leser Kieser!

Übersetzt von Chris Frey

* Der berühmte Mathematiker und Erfinder der modernen Computerarchitektur John v. Neumann pflegt zu sagen:"Geben Sie mir vier Variable und ich baue ihnen damit einen Elefanten. Geben Sie mir eine fünfte, dann wackelt er auch noch mit dem Rüssel".




Romneys Chance – Billige Energie belebt US-Wirtschaft

Romney’s Historic Opportunity: Low-Cost Energie Fuels Economic Recovery

Gastbeitrag von Dr. Fred Singer (auf WUWT)

Energie, das Lebenselixier der Wirtschaft, ist Präsident Barack Obamas Achillesferse. Mitt Romney kann die Wahl im November gewinnen, wenn er seinen Wahlkampf auf eine vernünftige Energiepolitik konzentriert.

“Mr. Romney wird sich nicht nur mit Mr. Obamas Fehlern beschäftigen müssen, sondern auch mit einem besseren Plan zur Wiederherstellung der Prosperität.” [WSJ 4-26-12] Und mit einer “…optimistischen konservativen Vision, welche der Partei Zuversicht und den Wählern einen Anstoß zum Undenken gibt.  Er muss sein Regierungsprogramm ankündigen für den Fall, dass er im November gewinnt …”. (NYT)

Als Kandidat für die US-Präsidentschaft sollte Romney nun eine zusammenhängende Politik für billige und sichere Energie formulieren, welche der US-Wirtschaft einen Schub gibt und die Menschen aus der Armut befreit. Im Grunde muss er zusammen mit seinen Anhängern die Öffentlichkeit überzeugen und inspirieren.

Es sollte deutliche Ziele nennen: Niedrigere Benzinpreise; billigeren Strom; billigeren Dünger für die Farmer und niedrigere Nahrungsmittelpreise für jedermann; billigeren Treibstoff für den Luftverkehr und für das Speditionsgewerbe; niedrigere Rohstoffpreise für die Chemische Industrie. Auch sollte er nun die Köpfe benennen, die er in seiner Mannschaft haben möchte zur Besetzung der entscheidenden Posten, um seine Politik zu machen. Sein Partner für die Vizepräsidentschaft sollte sich zur Unterstützung dieser Ziele bereits bekannt haben.

Obama hat es Romney leicht gemacht

Romney kann gewinnen, Obama hat ihm schon das meiste an Munition geliefert:

**Unter Obama hat sich der Benzinpreis mehr als verdoppelt, von $1.80 (US-Durchschnitt) nähert er sich nun $5 pro Gallone. Sein Energieminister, Dr. Chu, wollte die Preise auf Europäischer Höhe von $8 – $10 sehen.” Das tut der Mittelschicht wirklich weh, besonders den Paaren mit zwei Autos, die zur Arbeit pendeln müssen. Aber alles, was Obama getan hat und noch tut, verschlimmert die Situation.

**Er hat sein Veto gegen die Keystone Pipeline eingelegt, die immer mehr Öl von Kanada zu den Raffinerien am Golf von Mexiko leiten sollte, die sofort verfügbare Jobs geschaffen und die Energiesicherheit erhöht hätte.

**Er hat eine Menge Gebiet in Bundesbesitz der Öl und Gasproduktion entzogen – besonders in Alaska und vor den Küsten. Die Alaska-Pipeline ist in Gefahr, auszutrocknen. Sogar dort, wo die Exploration erlaubt ist, können Fördergenehmigungen nur schwer erlangt werden wegen bürokratischer Hindernisse.

**Für Obama ist Öl ein “Treibstoff der Vergangenheit;” das ist nicht so bei den Millionen von Autofahrern. Er möchte ihnen gerne Algen in die Benzintanks füllen – das ist die letzte Bio-Treibstoff-Idee! In seinem 2008er Wahlkampf hat Obama versprochen, dass unter seiner Regierung die Strompreise durch die Decke schießen würden. Dieses Versprechen hat er eingehalten – mit Hilfe des fehlgehenden ‘Standards für Erneuerbare Elektrizität,’ welcher die Energieversorger verpflichtet, teure ‘Grüne ’ Energie von den Solar- und Windprojekten einzukaufen und so indirekt zu Steuer-Einnehmern zu werden.

**Er hat auch versprochen, dass potentielle Erbauer von kohlebefeuerten Kraftwerken pleite gehen würden. Das würde noch so kommen wegen der extrem belastenden Regulierungen aus der Umweltschutzbehörde EPA. Dem jüngsten EPA-Plan zufolge soll der Bau neuer kohlebefeuerter Kraftwerke gestoppt werden, indem unmöglich zu erreichende Emissionsgrenzwerte für Kohlendioxid gesetzt werden. Allerdings will die EPA Ausnahmen zulassen, wenn das Kraftwerk das CO2 abscheidet, die Technik dafür ist aber nicht da und die Kosten werden prohibitiv sein.

**Falls Obama wiedergewählt wird, wird wahrscheinlich seine EPA mit der CO2-Begründung auch bestehende Kohlekraftwerke schließen – und vermutlich überhaupt keinen Neubau von fossil-befeuerten Kraftwerken mehr zulassen, sogar die Erdgasbefeuerten, die nur etwa die Hälfte CO2 im Vergleich zu Kohle ausstoßen. Die kalifornische PUC hat schon Gaskraftwerke verboten (am 19. April 2012), um das unrealistische Ziel von 33% Grüner Elektrizität zu erreichen.

**Die Zeichen drohender EPA Maßnahmen zur Verhinderung der Ausbeutung der Schiefergaslager durch das Horizontalbohren stehen schon an der Wand. Man behauptet, dass vom ‘fracking’ das Wasser verschmutzt würde.

Es gibt nur eine Erklärung für derartiges irrationales Vorgehen: Die Obama-Regierung scheint von Kopf bis Fuß von der pathologischen Angst katastrophaler Erderwärmung besessen zu sein, ohne an die Zukunft der Wirtschaft oder der Arbeitsplätze zu denken. Die CO2-Emission muss gestoppt werden!

Die stärkste Bestätigung dafür ergab sich aus Obamas Aussagen zum Klimawandel, als er versprach dieses Glaubensbekenntnis der (amerikanischen politischen) Linken zu einem zentralen Punkt im kommenden Wahlkampf zu machen. Das mag sich gut bei der Leserschaft von Rolling Stone machen. Aber angesichts der wachsenden Skepsis unter den normalen Amerikanern über das ideologische Kauderwelsch, das hierzu von den Mainstream Medien und aus dem Weißen Haus ständig herausgespuckt worden ist, könnte das für Obama keine Hilfe bei den Wechselwählern und den Wählern aus der Arbeiterschaft werden, die er im November ebenso braucht, wie die gebildete Elite, die ihn dazu gedrängt hat, den Bau der Keystone XL Pipeline zu stoppen. Dieser Konflikt offenbart einen Widerspruch im Zentrum seines Präsidentschaftswahlkampfes. (Commentary Magazine)

Die Situation ist wie gemacht für Romney, um eine angriffslustige Kampagne gegen die derzeitige Energiepolitik zu starten –  die noch übler würde, wenn Obama wiedergewählt wird.

Was Romney tun muss, um im November zu gewinnen

Romney muss den Wählern ganz klar machen, warum billige Energie absolut nötig für eine wirtschaftliche Erholung ist, für neue Arbeitsplätze, für einen Anstieg der Durchschnittseinkommen. Dies besonders für die Familien der Mittelschicht, die derzeit zu viel ihres Budgets für die notwendige Energie ausgeben müssen. Romney sollte auf die völlig realistische Aussicht auf amerikanische Energie-Unabhängigkeit setzen. Das ist oft versprochen, aber nie zuvor erreicht worden. Ja, er kann sogar darauf setzen, dass die USA zu einem Exporteur von Energie werden können.

**Romney kann mit Aussicht auf Erfolg versprechen, den Benzinpreis auf $2.50 pro Gallone oder noch weniger zu reduzieren, und dabei kann er Newt Gingrich dankbar sein, der dieses Ziel in einer seiner Wahlkampfreden vorgeschlagen hatte. Um es zu erreichen, müsste der Weltmarktpreis für Öl unter $60 pro Barrel von gegenwärtig $110 fallen.

**Dieses glänzende Energieversprechen ist möglich wegen des niedrigen Preises für Erdgas, der auf $2 pro mcf (1000 cubic feet) von seiner Spitze von $13 (2008) gefallen ist – mit  einer Tendenz nach unten. Alles, was Romney tun muss, ist, die Hindernisse aus der gegenwärtigen Regulierung so weit wie nur möglich zu beseitigen.

Drei wichtige Wirtschaftstatsachen sind zu bedenken:

**Da viele der neuen Bohrlöcher hochwertiges Öl liefern und flüssiges Erdgas (NGL – natural gas liquids) als Nebenprodukt, kann letzteres gewinnbringend zu noch niedrigeren Preisen verkauft werden.

**Erdgas wird derzeit für weniger als 15% vom Durchschnittspreis für Rohöl verkauft, bezogen auf Energie/BTU Basis. Das heißt, dass der Ersatz von öl-basierten Treibstoffen wie z. B. Diesel und Benzin, entweder mit Flüssig-Erdgas (Liquid Natural Gas – LNG) oder komprimiertem Erdgas (Compressed Natural Gas – CNG) gewinnbringend ist. Das kann der wirtschaftlichste und schnellste Ersatz für schwere Straßenfahrzeuge, Erdbewegungsmaschinen, diesel-elektrische Lokomotiven, Busse und Flottenfahrzeuge sein.

**Es wird auch profitabel, Erdgas direkt in Benzin oder Diesel durch chemische Prozesse ähnlich wie in Raffinerien zu wandeln. Methanol, Wasserstoff und andere Exoten kann man vergessen. Die direkte Konversion könnte die existierende Infrastruktur nutzen; sie ist kommerziell sinnvoll, die Technik ist erprobt, und das Gewinnpotential ist offensichtlich – selbst wenn die Konversions-Effizienz bei bescheidenen 50% liegt.

Dank des billigen Erdgases wird Romneys Versprechen auf niedrigere Benzinpreise leicht erfüllbar sein: durch sinkende Nachfrage und weltweit steigendes Angebot wird der Weltmarktpreis fallen und damit auch der Preis für die treibstoffabhängigen Transportkosten. Durch Absenken des Bedarfs für Treibstoff für den Transport müsste es möglich sein, rasch die Ölimporte aus Übersee zu senken; derzeit beträgt der Öl-Anteil 60% (in $) am gesamten Importvolumen. Zugleich kann die Ölförderung in ganz Nordamerika gesteigert werden. Die USA würden sich dann auf dem Weg in die Energie-Unabhängigkeit befinden und dazu noch Treibstoffe exportieren – mit der Folge einer gewaltigen Verbesserung der Zahlungsbilanz.

Der Öl-Milliardär Harold Hamm, Vorstandssprecher von Continental Resources und Entdecker der ausgiebigen Bakken Ölfelder in den nördlichen Great Plains, beklagt die derzeitige Energiepolitik als entwicklungshemmend. “Präsident Obama sitzt bei  der Energie auf dem falschen Pferd,” sagte er in einem Interview mit Stephen Moore. Angesichts des Ausmaßes der Energieerzeugung können wir überhaupt nicht an das Ziel einer Energie-Unabhängigkeit herankommen, wenn wir Steuerdollars in „Grüne  Energie” Quellen versenken, wie z. B. Wind und Solar. Sie (die Energie-Unabhängigkeit) muss aus dem Öl und Gas kommen. Hamm ist Energieberater für Romney. Gleichermaßen klagte Gouverneur Bob McDonnel, der beabsichtigt, Virginia durch die Entwicklung von offshore Öl und Gas zum Hauptsitz der Energie-Erzeugung an der Ostküste zu machen, in einem Gastbeitrag im Wall Street Journal, dass Obamas Worte „meilenweit von seinen Taten entfernt seien.”

Und noch ein Versprechen kann Romney zuversichtlich geben, nämlich, dass er den Preis für Elektrizität um die Hälfte senken kann – oder noch darunter. Das Versprechen kann erfüllt werden nicht nur aufgrund des niedrigen Erdgaspreises sondern auch wegen der viel höheren Energie-Effizienz von 60% und höher der Gaskraftwerke im Vergleich zu den derzeitigen Kohle- und Kernkraftwerken von 35-40%. Höhere Effizienz reduziert nicht nur die Brennstoffkosten (pro Kilowattstunde) sondern senkt auch deutlich die Kapitalkosten (pro Kilowatt).

Die Effizienz kann noch höher gesteigerte werden, wenn Elektrizität in einem verteilten Erzeugungssystem produziert wird: Wenn nämlich Gaskraftwerke in den verstädterten Zentren stehen und dabei die Kraft-Wärme-Kopplung eingesetzt wird. Dabei wird die Niedertemperatur-Abwärme genutzt, die normalerweise in die Umwelt abgeht und somit verschwendet wird. Sie liefert dann warmes Wasser für Raumheizungen, für das Abtauen von Schnee und Eis, für Wäschereien und sogar für Klima- und Entsalzungsanlagen. Auch das ist erprobte Technik und die Gesichtspunkte der Wirtschaftlichkeit können sehr vorteilhaft sein. Verteilte Energie-Erzeugung erhöht auch die Sicherheit (gegen Terrorismus) und vereinfacht das Problem der Ableitung von Abwärme.

Billiges Erdgas kann Grundstoff für billige Dünger für die Farmer sein: Damit gingen die Nahrungsmittelpreise nach unten, auch Rohstoff für chemische Fabriken, die Plastik und andere Vorprodukte herstellen. Dann könnten Industrien zurück in die Vereinigten Staaten kommen und heimische Arbeitsplätze bereitstellen – anstatt im Ausland zu sein, wo das Erdgas billig ist.

Die Zukunft wird noch glänzender aussehen als heute, wenn erst einmal die Technik zur zukünftigen Ausbeutung der riesigen Gashydrat-Lagerstätten zur Verfügung steht. Das muss Romney in einem optimistischen Ausblick der Wählerschaft vermitteln.

“Naturgas ist ein Eingangsrohstoff zu eigentlich jedem Industrie-Prozess,” und der Gaspreis in den USA ist nur ein Bruchteil dessen in Europa und Asien. Unser Land hat einen unglaublichen Vorsprung, wenn die Arbeitskosten in Asien ansteigen, wenn die Güter-Transportkosten von Asien nach den USA steigen, wenn der Ölpreis steigt, da die amerikanischen Arbeitskosten stagnierten oder gar heruntergegangen sind während der vergangenen 10 Jahre. Wir haben eine wirklich wunderbare Möglichkeit, eine industrielle Wiedergeburt in den USA zu entfesseln.” [Aubrey McClendon, CEO of Chesapeake Energie, WSJ 4-26-12]

Den „Grünen Drachen“ töten

Romney sollte deutliche Aussagen machen zur “Fopperei” (Senator Inhofes Wort) mit Klimakatastrophen aufgrund ansteigender CO2-Pegel. Er sollte klar sagen, dass kein Bedarf an einem hohen Umfang von Windenergie oder Sonnenenergie besteht – sogar der Bau neuer Kernkraftwerke kann aufgeschoben werden. Viele Umweltschützer werden erleichtert sein, wenn die Landschaft nicht mehr mit Sonnenpaneelen, Windmühlen und – auch das – Hunderten von Meilen von Überlandleitungen verunstaltet wird.

In seinem Buch „Werft sie alle raus“ (Throw Them All Out) berichtete Peter Schweizer, dass 80% der Multi-milliardenschweren Grünen Anleihen, Anleihegarantien und Zuwendungen an Obama-Unterstützer gingen. Romney sollte erklären, dass es fortan keine Solyndras oder andere Wohltaten mehr geben wird und keine weiteren Regierungssubventionen für ‚Grüne Energie’ und den Kumpelkapitalismus. Die Märkte sollen in Zukunft über neue Techniken entscheiden, wie z.B. über Elektroautos, Sonnenenergie usw. Viele Washingtoner Lobbyisten werden ihre gutdotierten Pöstchen verlieren.

Es gibt absolut keinen Bedarf für Bio-Kraftstoff. Ja, das gilt auch für Algen wie für Ethanol, das derzeit etwa 40% der amerikanischen Maisernte verbraucht. Der Weltmarktpreis für Mais hat sich in den vergangenen fünf Jahren verdreifacht – auch weil die EPA den Ethanol-Anteil am Treibstoff von 10% auf 15% erhöhen will. Echte Umweltschützer wissen um die vielen Rückwirkungen von Bio-Treibstofffen, die Schäden, die sie an den Ackerflächen und Wäldern anrichten, in Amerika und anderswo, und um die weiten Gebiete, die natürlichen Lebensräumen gewidmet werden könnten.

Schließlich sollte Romney klarmachen, dass er im Falle seiner Wahl Minister für Energie, für das Innere, Leiter der NOAA, der EPA ernennen wird, die seine Überzeugungen in Energiefragen teilen. Und am wichtigsten: er sollte seine Mannschaft im Weißen Haus einschließlich seines Wissenschaftsberaters so zusammenstellen, dass sie das Versprechen billiger und sicherer Energieversorgung für die amerikanische Wirtschaft erfüllen.

Vielleicht wurde das am treffendsten im Wall Street Journal (27. April) formuliert: “Wenn Ihnen die vergangenen vier Jahre gefallen haben, dann können Sie noch mal vier davon haben”

——————-

S. Fred Singer ist Professor Emeritus der University of Virginia und Vorsitzender des Science & Environmental Policy Project (SEPP). Sein Spezialgebiet ist die Atmosphären- und Weltraumphysik. Als Experte auf dem Gebiet der Fernerkundung und der Satelliten war er Gründungsdirektor des US Weather Satellite Service und später Stellvertretender Leiter des US National Advisory Committee on Oceans & Atmosphere. Er ist Senior Fellow am Heartland Institute und am Independent Institute. Obgleich er Physiker ist, hat er Wirtschaftswissenschaft für Ingenieure gelehrt und ein Buch über den Welterdölpreis geschrieben. Er arbeitete in verschiedenen Regierungspositionen und war Berater für Finanzminister Wm. Simon. Er war Mitautor am New York Times Bestseller “Unstoppable Global Warming: Every 1500 years.”  Im Jahre 2007 gründete er das NIPCC (Nongovernmental International Panel on Climate Change), das viele wissenschaftliche Berichte veröffentlichte. [Siehe www.NIPCC.org]. Zu seinen jüngsten Veröffentlichungen siehe  „http://www.americanthinker.com/s_fred_singer/“ und Google Scholar.

Originalbeitrag hier.

Übersetzung: Helmut Jäger, EIKE




Wie es um den Wahrheitsgehalt der Aussagen von IPCC-Leitautoren steht

Im Dezember 2011 veröffentlichte der Biologe Prof. Andreas Fischlin von der ETH Zürich im Magazin schweizer monat eine Kritik an den Klimathesen des US-amerikanischen Atmosphärenphysikers Prof. Fred Singer. Fischlin war am zweiten und vierten IPCC Bericht jeweils als Leitautor beteiligt und verteidigt in seinem Text die Arbeit des Weltklimarats vehement. Sein Artikel ist dabei in einem hochemotionalen, teilweise aggressiven Stil abgefasst, der eine fruchtbare wissenschaftliche Diskussion eher behindert.

Wir haben uns einmal erlaubt, Fischlins Argumentation einem Faktencheck zu unterziehen. Sind seine harten Vorwürfe gegen Singer wirklich gerechtfertigt? Das Ergebnis der wissenschaftlichen Überprüfung von Fischlins Beweisführung ist ernüchternd. Alles deutet darauf hin, dass sich der ehemalige IPCC-Autor kräftig verrannt hat. Im Folgenden bringen wir eine detaillierte Analyse ausgewählter Passagen aus Fischlins Schmähschrift.

Nr. 1: Passage im Artikel von Andreas Fischlin;

Ich schicke an dieser Stelle bereits voraus, dass Herr Singer erstens kein aktiver Klimaforscher ist […]

Nr. 1: Fakten-Check

Prof. Fred Singer ist ein US-amerikanischer Atmosphärenphysiker. Im Jahre 1948 schloss er seine Promotion in Physik an der Princeton University ab. 1953 wurde er Professor für Physik an der University of Maryland und Direktor des dortigen Zentrums für Atmosphären- und Weltraumphysik. 1962 wechselte er als Direktor in die Abteilung für Wettersatelliten im US-Handelsministerium (heute bei NOAA) und kehrte 1964 in die Wissenschaft zurück als Gründungsdekan des Fachbereichs Umwelt- und Planetenwissenschaft an der University of Miami. Von 1967 bis 1971 arbeitete er erneut in der Bundesadministration, bis 1970 im US-Innenministerium als Deputy Assistent Secretary in der Abteilung für Wasserversorgung, die damals auch für die Atmosphären- und Ozeanographie-Aktivitäten zuständig war. 1970 bis 1971 war er Deputy Assistant Administrator (Policy) an der US-Bundes-Umweltbehörde. 1971 übernahm er die Professur für Umwelt-Wissenschaften an der University of Virginia wo er 1994 emeritierte (Quelle: Wikipedia). Eine von Singers neuesten Publikationen ist z.B. Singer (2011). Fischlin ist Biologe. Seine Forschungsinteressen sind die Modellierung von Ökosystemen. Die Frage sei erlaubt: Welcher der beiden Wissenschaftler hat wohl gemäß seiner Ausbildung und Berufserfahrung die größere Erfahrung im Themenkomplex Atmosphäre, Ozeanographie, Wetter und physikalische Klimamechanismen? Einen weiteren Punkt gilt es unbedingt zu beachten: Aufgrund der zahlreichen offensichtlichen Widersprüche und Probleme in den Klimawissenschaften, ist eine Evaluierung durch externe Auditoren dringend angezeigt. Da die in diesem Bereich „aktiven Klimaforscher“ durch vielfältige Kooperationen, Institutionszugehörigkeiten und andere Abhängigkeiten im Zuge von Fördermittbeantragungen und -bewilligungen miteinander eng verflochten sind, kann eine solche Überprüfung nur durch außenstehende Naturwissenschaftler erfolgen. Aus diesem Grund sowie wegen der großen gesellschaftlichen Bedeutung des Problems ist dem Fach dringend anzuraten, Kritiken von Personen außerhalb des Expertenzirkels ernst zu nehmen.

Nr. 2: Passage im Artikel von Andreas Fischlin

[…] und es, zweitens, gerade mit der «Ehrlichkeit und der Redlichkeit» nicht besonders genau nimmt.

Nr. 2: Fakten-Check

Starker Tobak. Um diese Frage werden wir uns am Abschluss des Faktenchecks etwas genauer kümmern. Welche Belege führt Fischlin für diese starke Behauptung an?

Nr. 3: Passage im Artikel von Andreas Fischlin

Singer behauptet, die Hockeyschlägerkurve aus dem IPCC-Bericht von 2001 sei mittlerweile von Statistikern widerlegt worden. Das ist mir nicht bekannt, und ich zweifle, dass Herr Singer hierfür irgendeinen Beleg hat. […] An der Hockeykurve waren bloss geringfügige Korrekturen erforderlich.

Nr. 3: Fakten-Check

Hier irrt Fischlin. Die Hockeyschlägerkurve ist heute in der Tat vollständig diskreditiert. Neuere Temperaturrekonstruktionen durch Michael Mann und Kollegen zeigen nun wieder deutlich die Mittelalterliche Wärmeperiode sowie die Kleine Eiszeit. Diese charakteristischen Temperaturanomalien wurden kürzlich auch von Fredrik Ljungqvist bestätigt (Ljungqvist 2010, Ljungqvist et al. 2012). Dringender Buchtip: The Hockey Stick Illusion(von Andrew Montford).Der IPCC täte gut daran, den offensichtlichen Hockeyschläger-Irrweg endlich offen einzuräumen, um einen Teil der Glaubwürdigkeit dieses Gremiums wieder herzustellen.

Nr. 4: Passage im Artikel von Andreas Fischlin

Die wesentlichen Erkenntnisse, die der Hockey Stick illustriert, sind jedoch korrekt. Sie zeigen, dass erstens die schon vor zehn Jahren messbare Erwärmung sich deutlich aus dem Bereich der langfristigen natürlichen Schwankungen heraus bewegte, und zweitens, dass die heutigen Temperaturen diejenigen vergangener, warmer Epochen – auch die der mittelalterlichen Warmzeit, mit der Herr Singer gern argumentiert – übersteigen

Nr. 4: Fakten-Check

Dies ist nicht richtig. Die Mittelalterliche Wärmeperiode (MWP) hatte ein ähnlich hohes Niveau wie die aktuelle Moderne Wärmeperiode. Was meint Fischlin nur mit „vor zehn Jahren messbare Erwärmung“? Die globale Durchschnittstemperatur ist bekanntlich seit mehr als zehn Jahren, also seit 2000, nicht mehr angestiegen! Anmerkung EIKE: Insbesondere die Proxy-Daten des Stalagmiten SPA12 zeigen, dass die MWP höhere Temperaturen aufwies, als die des 20. Jahrhunderts, s. hierzu auch die Veröffentlichungen hier und hier.

Nr. 5: Passage im Artikel von Andreas Fischlin

Relevant ist hingegen, dass ohne wirksamen Klimaschutz die Spitze des Schlägers für das Jahr 2100 Temperaturen aufweist, die auf diesem Planeten letztmals vor 3 oder 40 Millionen Jahren herrschten!

Nr. 5: Fakten-Check

Die zitierte starke Erwärmung bis 2100 basiert auf IPCC-Klimamodellen, die zu hinterfragen sind (siehe unten).

Nr. 6: Passage im Artikel von Andreas Fischlin

Herr Singer behauptet, dass Klimamodelle als Mittel zur Abschätzung zukünftiger Temperaturen nichts taugten, da sie nicht genügend überprüft seien und nicht einmal vergangene Temperaturänderungen nachrechnen könnten. Beides sind unzutreffende Behauptungen: Klimamodelle basieren auf physikalischen Gesetzen, und ihre Berechnung hat eine lange Tradition

Nr. 6: Fakten-Check

Die hier verwendeten Modelle sind nicht in der Lage, die deutlichen Klimaschwankungen (z.B. Bond-Zyklen) der letzten 10.000 Jahre zu reproduzieren. Diese Klimaschwankungen verliefen weitgehend synchron zu Änderungen der Sonnenaktivität. Laut aktuellen IPCC-Klimamodellen soll die Sonne jedoch angeblich nur eine fast zu vernachlässigend geringe Klimawirkung haben. Diese Annahme steht im krassen Gegensatz zu den geologischen Daten der nacheiszeitlichen Klimaentwicklung. Es ist davon auszugehen, dass ein signifikanter Teil der Erwärmung der letzten 150 Jahre seit Ende der Kleinen Eiszeit auf die Klimawirkung der Sonne zurückzuführen ist, ein Effekt der bislang fälschlicherweise teilweise dem CO2 zugeschlagen wurde. Auch CO2 trug zu der genannten Erwärmung bei, jedoch in einem weit geringeren Maße als von Fischlin und IPCC vorgeschlagen. Klimamodelle die die Vergangenheit nicht abbilden können, sind auch nicht in der Lage, die zukünftige Klimaentwicklung zuverlässig vorherzusagen. Es liegt ein grober Ansatzfehler vor, der dringend korrigiert werden muss.

Anmerkung EIKE:Noch im IPCC-Bericht 2001, Sec. 14.2.2.2., S. 774 heißt es „...we are dealing with a couped non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible„. Der Bearbeiter ist der Auffassung, dass zuverlässige Klimamodelle andere Eigenschaften aufweisen müssten. Den schlimmsten Missgriff leisten sich Klimamodelle immer noch, indem sie den sog. Hot Spot vorhersagen, der in zehntausenden Ballonmessungen bis heute nicht auffindbar ist.

Nr. 7: Passage im Artikel von Andreas Fischlin

[…] den städtischen Wärmeinseleffekt gibt es zwar, er ist aber vernachlässigbar (unterhalb 0.006°C pro Dekade) und kann die globalen Trends nicht erklären.

Nr. 7: Fakten-Check

Lokal spielt der städtische Wärmeinseleffekt (UHI) eine große Rolle. Aufgrund der weiten, unbesiedelten Flächen auf der Erde könnte er auf globaler Ebene vielleicht wirklich nur eine eher untergeordnete Rolle spielen. Dies suggerieren Eregbnisse der sogenannten BEST-Studie. Zusätzliche Untersuchungen hierzu sind im Gange. Die beobachtete Erwärmung der Erde seit 1850 war auf jeden Fall zu erwarten, da sie den seit 10.000 Jahren pulsierenden Temperaturzyklus fortsetzt. Immer wenn die Sonne sehr aktiv war, erwärmte sich die Erde, und wenn die Sonne schwächer wurde, kühlte die Erde ab. Die letzten Jahrzehnte gehörten zu den solar aktivsten der letzten 10.000 Jahre, wie Solanki et al. (2004)in einem Nature-Artikel zeigen konnte. Das Sonnenmagnetfeld als Maß der Sonnenaktivität hat sich in den letzten 100 Jahren mehr als verdoppelt. Obwohl die beobachtete Temperaturentwicklung der letzten 160 Jahre allgemein gut in das natürliche Grundmuster der Temperaturdynamik passt, hat wohl auch CO2den Erwärmungstrend weiter verstärkt. Hauptaufgabe der Klimawissenschaften sollte es sein, diesen anthropogenen Beitrag in realistischer Weise näher zu quantifizieren. Hierzu muss jedoch zunächst die nacheiszeitliche Klimageschichte korrekt modelliert werden.

Ergänzung von EIKE: In der Publikation wird die Wirkung des UHI quantitativ belegt.

Nr. 8: Passage im Artikel von Andreas Fischlin

Im Zeitraum zwischen der Inbetriebnahme erster mit Koks betriebener Hochöfen und der Erfindung des «iPhone» wurde eine Erhöhung der mittleren Erdtemperatur um 0.74°C gemessen, was gut mit den Erwartungen übereinstimmt, die sich also durch den CO2-Anstieg mittels Treibhauseffekt ergeben – den Herr Singer ja nicht bestreitet. Hierbei haben Schwankungen der Sonnenaktivität lediglich einen Beitrag von 7 Prozent geleistet – seit Ende der 80er-Jahre zeigt sich sogar ein gegenteiliger Effekt, die Sonnenaktivität schwächt sich ab. All das zeigt: die Sonne kann als natürliche Ursache für die beobachtete Erwärmung nicht verantwortlich gemacht werden

Nr. 8: Fakten-Check

Fischlins Annahme, dass die Sonne nur einen einstelligen Prozentanteil an der seit 1850 beobachteten Erwärmung besitzt, basiert auf theoretischen Klimamodellen, welche die Klimageschichte der vergangenen 10.000 Jahre nicht reproduzieren können (siehe oben). Die solar-synchrone Temperaturentwicklung der Nacheiszeit zeigt eindeutig, dass der vom IPCC für die Sonne angesetzte Strahlungsantrieb viel zu gering ist. Im Gegenzug ist der für das CO2angenommene Strahlungsantrieb viel zu hoch. Der Hinweis auf eine angebliche Abschwächung  der Sonnenaktivität seit den 1980er Jahren ist grob irreführend. Der 21. Und 22. Sonnenzyklus in den 1980er und 1990er Jahren bewegte sich auf einem sehr hohen Aktivitätsniveau. Wie berichtet, konnte Solanki et al. (2004) zeigen, dass die Sonnenaktivität der letzten Jahrzehnte insgesamt zu den solar aktivsten Phasen der vergangenen 10.000 Jahre zählte. Eine Bezugnahme auf Trends von wenigen Dekaden ist dabei weder zulässig noch sinnvoll. Zum einen unterschreitet es die 30-Jahres-Klima-Definition. Zum anderen müssen deutlich längere Entwicklungen von 100-200 Jahren betrachtet werden, da das Klimasystem durch die Trägheit der Ozeane nur mit starker Verzögerung vollständig auf Impulse reagiert. Es dauert mitunter mehrere Dekaden bis Gleichgewichte aufgebaut sind, teilweise sogar länger. Leider versäumt Fischlin darauf hinzuweisen, dass die Sonnenaktivität seit der Kleinen Eiszeit vor 300 Jahren stark angestiegen ist. Allein in den letzten 100 Jahren hat sich das Sonnenmagnetfeld mehr als verdoppelt. Aufgrund der empirisch bewiesenen starken Kopplung von Sonnenaktivität und Temperaturentwicklung muss von der Existenz von solaren Verstärkermechanismen ausgegangen werden, auch wenn der genaue physikalische Mechanismus noch nicht ausreichend bekannt ist. Derzeit wird an mehreren solcher Mechanismen geforscht. Die vorläufigen Ergebnisse hierzu werden regelmäßig in internationalen, begutachteten Fachzeitschriften veröffentlicht. Das Verschweigen all dieser Umstände in Fischlins Artikel könnte man – mit seinen eigenen Worten – als unredlich, pseudowissenschaftlich, verzerrend, unseriös, rosinenklauberisch oder unehrlich bezeichnen. Da wir uns hier jedoch auf die Diskussion der wissenschaftlichen Inhalte beschränken, wollen wir hierauf verzichten. Interessanterweise musste auch Alfred Wegener eine ähnlich heftige und unfaire Reaktion des wissenschaftlichen Establishments damals über sich ergehen lassen (siehe unser Blogartikel „Kontinentalverschiebung und Klimawandel: Die wundersame Wiederholung der Wissenschaftsgeschichte“). Es scheint zum guten Ton in der Wissenschaft zu gehören, Vertreter alternativer Interpretationen heftig und persönlich anzufeinden. Dies ist in höchstem Maße unethisch und einer modernen, aufgeklärten Wissenschaft unwürdig.

Nr. 9: Passage im Artikel von Andreas Fischlin

Auch in der von Singer erwähnten Arbeit von Mangini wird unzulässigerweise von einer Punktbeobachtung in einer Tropfsteinhöhle auf das Weltklima geschlossen und damit keineswegs ein Beweis für die Sonne als Ursache der heutigen Erwärmung beigebracht.

Nr. 9: Fakten-Check

Fischlin reduziert hier in unzulässigerweise die wichtigen Beobachtungen der Mangini-Gruppe auf ein angeblich lokales Phänomen. Ganz offensichtlich fehlt Fischlin hier der Überblick über die geologische Literatur. Mittlerweile gibt es eine große Anzahl von Publikationen aus den verschiedensten Teilen der Erde, in denen die solar-bedingten, synchronen Klimazyklen bestätigt wurden (siehe zum Beispiel S. 68-74 in „Die kalte Sonne“ oder unser Blogartikel-Übersichtzu diesem Thema). Neben den Ergebnissen der Mangini-Gruppe sind hier auch die Bond-Zyklen zu nennen, welche zuerst von Bond et al. (2001) beschrieben wurden. Fast im Monatstakt erscheinen heute neue Publikationen, die die Klimawirkung der Sonne im Bond-Takt bestätigen. Da die Bond-Zyklen offensichtlich nicht in Fischlins vorgefasstes Weltbild passen, spricht er unbeirrt von „Punktbeobachtungen“, was nur möglich ist, wenn man die eindeutige wissenschaftliche Faktenlage in erschreckender Weise ignoriert.

Ergänzung von EIKE: bevor man als fachfremder Biologe fragwürdige Behauptungen in die Welt entlässt, sollte man sich über den Stand der Fachliteratur informieren. Zur MWP gibt es eine sehr ausführliche Zusammenstellung, aus der hervorgeht, dass die MWP sehr wohl ein globales und kein lokales Ereignis war.

Nr. 10: Passage im Artikel von Andreas Fischlin

Schliesslich zeigt die durch Singer selbst erwähnte Abkühlung der oberen Luftschichten, dass der Treibhauseffekt wirksam ist. Nur der Anstieg der CO2-Konzentration kann erklären, wieso am Boden eine Erwärmung und in der Stratosphäre eine Abkühlung stattfindet. Wäre die Sonne verantwortlich, so müsste sich die ganze Atmosphäre gleichmässig erwärmen.

Nr. 10: Fakten-Check

Ähnlich wie Mojib Latif, unterliegt Fischlin offenbar dem Irrglauben, die Temperaturentwicklung der Stratosphäre könnte als Beweis für eine starke Klimawirkung des CO2 herangezogen werden. Dies ist aber nicht der Fall wie wir in unserem Blog-Beitrag „CO2-Fingerabdruck löst sich in Luft auf: Neue Studie belegt Ozonwirkung auf Temperatur in der mittleren Atmosphäre“ zeigen konnten. Eine neue Studie von Dr. Uwe Berger und Prof. Franz-Josef Lübken vom Leibniz-Institut für Atmosphären-Physik in Kühlungsborn belegte nun, dass der Abkühlungstrend in der hohen Atmosphäre überwiegend durch die Abnahme des stratosphärischen Ozongehalts verursacht wurde.

Nr. 11: Passage im Artikel von Andreas Fischlin

Bei der Behauptung Singers, die Erde reagiere weit weniger empfindlich auf die Verdoppelung des CO2 als durch die Klimamodelle «angenommen», übersieht er, dass diese sogenannte Klimasensitivität auch zu vergangenen Klimaänderungen passen sollte. Errechnet man ohne Klimamodelle den Zusammenhang zwischen CO2 und Gleichgewichtstemperaturen für die letzten 420 Millionen Jahre, so ergibt sich ein Wert von 2.8°C. Diese Zahl liegt nahe beim sich auf viele andere wissenschaftliche Arbeiten abstützenden, besten Schätzwert des IPCC von 3°C.

Nr. 11: Fakten-Check

Fischlin scheint übersehen zu haben, dass in der Erdgeschichte gar keine klare Korrelation zwischen CO2 und Temperatur ausgebildet war. Zudem ist unklar, in welchen Fällen die CO2-Dynamik Folge – und nicht Ursache – der Temperaturentwicklung war. Eine Berechnung der CO2-Klimasensitivität aufgrund der erdgeschichtlichen Entwicklung der letzten 420 Millionen Jahre ist daher weder sinnvoll noch möglich.

Nr. 12: Passage im Artikel von Andreas Fischlin

Ich möchte klarstellen: am letzten IPCC-Bericht haben 1369 Autoren mitgeschrieben, mehr als 2500 Gutachter haben die Texte überprüft, Zehntausende wissenschaftlicher Originalarbeiten von Zehntausenden Forschern sind berücksichtigt worden. Beim angeblichen Gegenbericht, dem NIPCC-Bericht, den Fred Singer mit Craig Idso geschrieben hat, sind es ganze 37 Personen, inklusive Gutachtern und Sekretärinnen, die mitgewirkt haben. Dieser Bericht kopiert in vermutlich bewusst verwirrender Absicht das Erscheinungsbild des letzten IPCC-Berichts, ist durch die Wiederholungen immergleicher Zitate unnötig aufgebläht, und argumentiert durchwegs rosinenklauberisch. Er genügt wissenschaftlichen Anforderungen nicht und ist aus oben genannten Gründen als pseudowissenschaftliches Machwerk zu bezeichnen.

Nr. 12: Fakten-Check

Die Kritik richtet sich nicht gegen die 1369 Autoren, sondern die kleine Gruppe von Forschern, die aus der großen Vielzahl der Daten und Interpretationsmöglichkeiten die letztendliche IPCC-Sichtweise herausarbeitet. An dieser Synthese sind nur relativ wenige Personen beteiligt, und genau an dieser Stelle werden die im Hauptteil des IPCC-Berichts durchaus erwähnten klaren Hinweise auf eine signifikante Beteiligung natürlicher Klimafaktoren wie der Sonne und Ozeanzyklen marginalisiert und kleingeredet. Entsprechend werden diese Sichtweisen auch nicht ausreichend in den Klimamodellen berücksichtigt. Solarverstärker sind in den Modellen nicht eingebaut, obwohl nur sie die Vergangenheit erklären können. Donna Laframboise konnte in ihrem wichtigen IPCC-kritischen Buch „The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert” zeigen, dass etwa ein Drittel der 34 Autoren des IPCC Summary Reports mit dem WWF und Greenpeaceverbandelt sind. Die angeblich unabhängigen IPCC-Gutachter begutachten zum Teil ihre eigenen Arbeiten für den Bericht. Interessenskonflikte sind hier vorprogrammiert.

Der NIPCC-Bericht als Gegenentwurf zum IPCC-Bericht betont gezielt die Rolle der natürlichen Klimafaktoren, da diese in der IPCC-Synthese drastisch unterschätzt wurden. Der Weltklimarat täte gut daran, den NIPCC-Bericht als konstruktiven Denkanstoß ernst zu nehmen, anstatt ihn reflexhaft als unerwünschtes Konkurrenzprodukt zu bekämpfen. Die Frage des Klimawandels ist gesellschaftlich zu wichtig, als dass hier auf dem Rücken der Bevölkerung Fehden beleidigter Autoren ausgefochten werden könnten.

Anmerkung EIKE: Wissenschaftliche Erkenntnisse sind in der Regel nicht das Ergebnis von Mehrheitsmeinungen.

Nr. 13: Passage im Artikel von Andreas Fischlin

Da Forschung höchsten wissenschaftlichen Standards genügen muss, werden Gesuche durch unabhängige Gutachter beurteilt, also von potentiellen Konkurrenten um die begrenzten Mittel. Wie wahrscheinlich ist es, dass dabei jahrzehntelang unredliche Wissenschaft nicht aufgedeckt würde?

Nr. 13: Fakten-Check

Es geht dabei nicht um Unredlichkeit, sondern um das Phänomen „Groupthink“, wobei sich eine eng verbandelte wissenschaftliche Gruppe zu sehr auf eine Richtung festgelegt hat. Gutachter prüfen dabei vor allem, ob ein Ergebnis mit der vorherrschenden IPCC-Denkweise kompatibel ist. Andere fachliche Interpretationen werden dabei blockiert bzw. auf Randschauplätze abgedrängt. Common Sense spielt nur eine untergeordnete Rolle. Es fehlt die ergebnisoffene Bewertung nach den Regeln der Logik und maximalen Plausibilität. Siehe auch unseren kürzlichen Blogartikel „Groupthink und Klimareligion: Die Psychologie der Klimadebatte“.

Anmerkung EIKE: Immerhin wurde die IPCC-Mär vom Abschmelzen der Himalaya Gletscher lange Zeit nicht nur nicht aufgedeckt, sondern von dem Gremium IPCC mit höchsten Gutachter-Standards (so Fischlin) auch noch so lange verteidigt, bis es endgültig peinlich wurde.

Nr. 14: Passage im Artikel von Andreas Fischlin

Auch behauptet Herr Singer, dass der IPCC durch eine handvoll Wissenschafter kontrolliert werde. Denkt er allen Ernstes, alle Regierungen dieser Welt liessen sich so auf der Nase herumtanzen?

Nr. 14: Fakten-Check

Das Entscheidungsgremium des IPCC ist in der Tat auf eine überschaubare Anzahl von Personen beschränkt. Erneut der Hinweis auf Donna Laframboise’s Buch „The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert“.

Anmerkung EIKE. Nicht alle Regierungen dieser Welt, denn es gibt nur noch die EU, Australien und Neuseeland, die beim „Klimaschutz“ mitmachen. Geht man daher von den weltweiten Kopfzahlen aus, ist die Menschheit also doch nicht so dumm, wie es uns Herr Fischlin weismachen möchte.

Nr. 15: Passage im Artikel von Andreas Fischlin

Er verschweigt auch hier, dass im Verlauf der Jahre den meisten seiner Behauptungen belegte Gegenargumente entgegengehalten wurden.

Nr. 15: Fakten-Check

Zwar wurden Gegenargumente vorgelegt, diese waren jedoch in der Regel nicht stichhaltig. Vielmehr wurden unbequeme Kritiker durch mediale Ächtung, Fördermittelentzug und persönliche Kampagnen aus der Klimadiskussion herausgedrängt (z.B. deutsche Bundesanstalt für Geowissenschaften und Rohstoffe, Prof. Mangini, Prof. Veizer), so dass es am Ende erschien, als hätte die IPCC-Seite durch Argumente überzeugen können. Viele der von früheren Klimaskeptikern vorgebrachten Argumente sind heute aktueller denn je und weiter gültig. Siehe z.B. FAQ unserer Webseite sowie die Kommentierung der Presseartikel zu unserem Buch „Die kalte Sonne“).

Anmerkung EIKE: Wir erlauben uns in aller Bescheidenheit, in diesem Zusammenhang auch auf die Bemühungen unserer Webseite hinzuweisen.

Nr. 16: Passage im Artikel von Andreas Fischlin

Wer angesichts dieser Sachlage unbeirrt an vorgefassten Resultaten festhält, wer wissenschaftliche Ergebnisse aus seriöser Forschung – weil nicht ins Weltbild passend – ausklammert, verschweigt, verzerrt, und haltlose Unterstellungen macht, was die mir bekannten Tätigkeiten und Veröffentlichungen von Herrn Singer seit Jahrzehnten wie ein roter Faden durchzieht, kann nicht in Anspruch nehmen ein redlicher und ehrlicher Wissenschafter zu sein.

Nr. 16: Fakten-Check

Fischlins Argumentation enthält zahlreiche schwerwiegende Fehler und Auslassungen (siehe oben). Die pauschale Abqualifizierung von Singer erscheint daher in keinster Weise gerechtfertigt. Fischlin sollte sich ernsthaft mit den vorgebrachten Argumenten auseinandersetzen und hierauf eine Antwort verfassen. Zudem sollte er in Erwägung ziehen, sich bei Fred Singer für die Entgleisungen in seinem Artikel im schweizer monat zu entschuldigen.

Anmerkung EIKE zu dieser letzten Passage von Fischlin: keine! Auch das ist ein Kommentar, denn mit solch haltlosem Unsinn disqualifiziert sich der Biologe Fischlin ganz von selber.

EIKE-Bearbeitung von

Prof. Dr. Horst-Joachim Lüdecke

(EIKE-Pressesprecher)




Neue Studie: Wasserdampf-Rückkopplung ist stark negativ

Beweise für eine negative Wasserdampf-Rückkopplung
Clive Best

Abstract: Es wird gezeigt, dass eine positive lineare Klima-Rückkopplung für kombinierte Wasserdampfeffekte mit dem Schwache-Sonne-Paradoxon unvereinbar ist. Im Besonderen führen Rückkopplungswerte von ~2,0 W/m²K, wie sie die gegenwärtigem GCMs annehmen, zu nichtphysikalischen Ergebnissen hinsichtlich der Solarstrahlung vor einer Milliarde Jahren. Ein einfaches Modell wird beschrieben, wonach erdähnliche Planeten mit großen Oberflächen flüssigen Wassers bei kleinen Änderungen der einfallenden Sonnenstrahlung die Temperatur selbst regulieren können. Das Modell nimmt an, dass sich reflektierende Wolken ausbreiten, während der Treibhauseffekt mit der heller werdenden Sonne abnimmt. Die Gesamtwasserdampf-Rückkopplung* des Modells ist stark negativ. Direkte Beweise für die negative Wasserdampf-Rückkopplung finden sich in den Stationsdaten von CRUTEM4, indem man die Temperaturanomalien in ariden Regionen (Wüsten und Polargebiete) mit jenen in feuchten Regionen (hauptsächlich in den Tropen) vergleicht. Alle 5600 Stationen wurden nach der Köppen-Geiger-Klimatologie (9) eingeordnet. Zwei separate Temperaturreihen von 1900 bis 2011 wurden für jedes Gebiet berechnet. Es ergab sich eine klare Differenz der Temperaturanomalien. Unter der Annahme, dass die Ursache der Differenz im atmosphärischen Wasserdampfgehalt zu suchen ist, kann ein Rückkopplungswert von -1,5 ±0,8 W/m²K abgeleitet werden.

[*Der Autor spricht immer von „Water feedback“. Eigentlich kann aber nur Wasserdampf  gemeint sein. A. d. Übers.]

EINFÜHRUNG

Das Schwache-Sonne-Paradoxon wurde zum ersten Mal von Carl Sagan (1) eingeführt, der darauf hingewiesen hatte, dass geologische Beweise für die Existenz flüssiger Ozeane auf der Erde vor 4 Milliarden Jahren nicht kompatibel mit einem solaren Output sind, das verglichen mit heute um 30% niedriger lag. Die Sonne ist ein Hauptstern, von deren Output bekannt ist, dass er mit der Zeit langsam zunimmt. Die Gesamtveränderung der Solarstrahlung während dieser langen Zeit ergibt sich zu riesigen rund 87 W/m². Es wurde gesagt, dass ein verstärkter Treibhauseffekt aufgrund sehr hoher CO2- und/oder CH4-Konzentrationen dieses Paradoxon auflösen kann (2). Allerdings stützen kürzliche geologische Beweise nicht die Verantwortung des CO2 dafür, sondern stattdessen führt eine größere Wasseroberfläche den Autoren zufolge zu einer niedrigeren Albedo als wahrscheinliche Lösung (3). Andere haben vorgeschlagen, dass hohe Zirruswolken die Erde effektiv erwärmt haben (4). Obwohl die Atmosphäre vor Beginn der Photosynthese ganz anders ausgesehen haben muss, setzt die Existenz großer flüssiger Ozeane immer noch voraus, dass Wolken und Wasserdampf eine ähnliche Rolle bei der Energiebilanz der Erde gespielt haben müssen wie heute.

Der Beweis besteht darin, dass sich die globale Temperatur während der Erdgeschichte nur ziemlich wenig verändert hat. Daher scheint es wahrscheinlich, dass die Rückkopplungen im Frühstadium der Erde negativ waren, um einen Runaway-Effekt der Aufheizung der Erdoberfläche im Zuge der heller werdenden Sonne zu vermeiden. Die fortgesetzte Bedeckung der Erde mit Wasser – etwa 70% – hat offensichtlich die globale Temperatur stabilisiert. Ein einfaches Modell, wie das vonstatten gegangen sein könnte, wird als Nächstes beschrieben, analog zu einem Vorschlag* von James Lovelock zur Rechtfertigung der Gaia-Theorie (7).

[*„Daisy World“ lautet dieser Vorschlag. Ich habe keine Ahnung, was damit gemeint sein könnte. A. d. Übers.]

—————

CRUTEM4-ANALYSE
Die Wasserdampf-Rückkopplung im gegenwärtigen Klima wurde durch Vergleiche zwischen Gebieten mit sehr geringem Wasserdampfgehalt (Wüsten und Polargebiete) mit Gebieten mit sehr hohem Wasserdampfgehalt (tropische Feuchtgebiete) ermittelt. Die jüngsten CRUTEM4-Daten (8) mit 5500 individuellen Stationen auf den Landgebieten der Erde wurden untersucht. Jede Station wurde klassifiziert, indem man sie in Abhängigkeit von ihrer Lage mit der Köppen-Geiger-Klimaklassifikation (9) indizierte.

„Aride” Stationen sind definiert als solche mit Niederschlagswerten ‚W’ oder mit dem Klima ‚E’ in (9). Diese befinden sich entweder in Wüsten oder in Polargebieten mit dem niedrigsten atmosphärischen Wasserdampfgehalt der Erde. „Nasse“ Stationen liegen definitionsgemäß in durch und durch humiden tropischen Gebieten – Klima ‚A’ und Niederschlag ‚f’ (9). Sie liegen in tropischen Regenwäldern oder in das ganze Jahr über feuchten Klimazonen, die den höchsten Wasserdampfgehalt weltweit aufweisen (10). Globale Anomalien wurden sowohl für aride und nasse Stationen unabhängig voneinander berechnet, und zwar mit dem gleichen Algorithmus wie für CRUTEM4. Die Ergebnisse zeigt die Abbildung:


Abbildung 4 (vergrößert): Temperaturanomalien für aride (trockene) Stationen in rot und nasse Stationen in blau. Die geglätteten Kurven wurden nach der FFT-Methode geglättet. Die schwarze gestrichelte Linie zeigt geglättet die gesamten globalen CRUTEM4-Anomalien.

Es zeigt sich ein klarer Trend in den Daten, dass sich nämlich aride Stationen schneller erwärmen und abkühlen als nasse Stationen. Sie reagieren stärker auf externe Antriebe. Die nassen humiden Stationen reagieren weniger sowohl im Vergleich mit ariden als auch mit dem gesamten globalen Mittel.

Dies ist mit den Werten kompatibel, die man braucht, um das Schwache-Sonne-Paradoxon aufzulösen. Wie von Lindzen (11) und anderen schon erwähnt, wird vieles der Erdwärme durch Verdunstung und Konvektion in die obere Atmosphäre [= Troposphäre] transportiert, wo die Undurchlässigkeit für IR gering ist, und danach ins Weltall abgestrahlt. Daher hängen Effekte der Wasserdampf-Rückkopplung zumeist vom Wasserdampfgehalt in der oberen Atmosphäre ab. Dies ist ein möglicher Mechanismus für negative Rückkopplung in den Tropen. Solche Effekte würden in ariden Gebieten weitgehend fehlen, in denen es keine lokalen Quellen der Verdunstung gibt.

SCHLUSSFOLGERUNGEN
Das Schwache-Sonne-Paradoxon schließt effektiv konstante positive Klimarückkopplungen durch Wasserdampf aus. Die Beweise stützen die Hypothese, dass die Ozeane der Erde den Temperaturverlauf der letzten 4 Milliarden Jahre stabilisiert haben. Hier wird vorgeschlagen, dass die Gesamtauswirkung einer Oberfläche, die zu 70% mit Wasser bedeckt ist, die Selbstregulierung des Erdklimas ist. Ein einfaches Modell, die diesen Zusammenhang zeigt, wurde beschrieben. Dieses Modell führt zu einem Temperaturanstieg von lediglich 5 Grad während 4 Milliarden Jahren. Dies führt zu den Werten der vorhergesagten negativen Rückkopplungen durch Wasserdampf von etwa -2 W/m²C. Direkte Beweise dafür, dass die Reaktionen der Temperatur in ariden und humiden Gebieten unterschiedlich sind, wurden in den CRUTEM4-Daten identifiziert. Unter der Annahme, dass diese Unterschiede ausschließlich wegen des atmosphärischen Wasserdampfes auftreten, ergibt sich eine gemessene negative Rückkopplung für Wasserdampf mit 1,5 ±0,8 W/m²C. Dies stimmt mit dem überein, was man zur Erklärung des Schwache-Sonne-Paradoxons braucht.

Clive Best, Hockey Schtick

REFERENCES
1. Sagan, C.; Mullen, G. (1972). “Earth and Mars: Evolution of Atmospheres and Surface Temperatures”. Science 177 (4043): 52–56. 1972

2. Pavlov, Alexander A.; Kasting, James F.; Brown, Lisa L.; Rages, Kathy A.; Freedman, Richard (May 2000). “Greenhouse warming by CH4 in the atmosphere of early Earth”. Journal of Geophysical Research 105

3. Hsien-Wang Ou, Possible Bounds on the Earth’s Surface Temperature, Journal of Climate, Vol 14, 2976, 2000.

4. Roberto Rondanelli and Richard Lindzen (2010) Can thin cirrus clouds in the tropics provide a solution to the faint young Sun paradox, Journal Geophys Research Vol 115, D02108

5.  Myhre et al, New estimates of radiative forcing due to well mixed greenhouse gases, Geophysical Research Letters (1998)

6. S. Bony et al. How well do we understand and evaluate Climate Change Feedback Processes, Journal of Climate, Vol 19, P. 3445, 2006

7. Lovelock, J. E. (1983b), Daisy world—A cybernetic proof of the Gaia hypothesis, CoEvol. Q., Summer, 66 – 72

8. Jones, P.D., Lister, D.H., Osborn, T.J., Harpham, C., Salmon, M. and Morice, C. 2012:  Hemispheric and large-scale land-surface air temperature variations: An extensive revision and an update to 2012.  J. Geophys. Res. 117, D05127

9.  Rubel, F., and M. Kottek, 2010: Observed and projected climate shifts 1901-2100 depicted by world maps of the Köppen-Geiger climate classification. Meteorol. Z., 19, 135-141

10. H. Schrijver, A. M. S. Gloudemans, C. Frankenberg, and I. Aben, Water vapour total columns from SCIAMACHY spectra in the 2.36µm window, Atmos. Meas. Tech., 2, 561–571, 2009

11. Richard Lindzen, Some uncertainties with respect to water vapor’s role in climate sensitivity. Proceedings NASA workshop on the role of Water Vapor in Climate Processes, 1990.

Nachtrag: Obige Studie wurde an das Journal Geophysics Research Letters am 25. April eingereicht. Der Herausgeber lehnte sie später ab mit der Begründung, dass „die Arbeit anscheinend nur einen kleinen Schritt zu unserem Verstehen eines Problems beiträgt, dass bereits in der begutachteten Literatur ausführlich behandelt worden ist, und die präsentierten Ergebnisse liegen jenseits dessen, was durch Forschungsmethoden und Ergebnisse unterstützt wird“. Wir fordern Sie auf, für sich selbst zu entscheiden, ob das stimmt oder nicht.

Link: http://icecap.us/index.php/go/political-climate vom 25. Mai 2012

Übersetzt von Chris Frey EIKE




WWF will Zensur; Buchhändler nehmen „Schwarzbuch WWF“ aus dem Sortiment!

"Mit ungewöhnlicher Schärfe geht die Naturschutzstiftung WWF Deutschland gegen ein Buch vor, das sich kritisch mit dem „World Wildlife Fund“ auseinandersetzt. In seinem Auftrag hat eine Anwaltskanzlei bei großen Buchhändlern wie Amazon oder Libri interveniert und Unterlassungsansprüche geltend gemacht. Zahlreiche Buchhändler haben daraufhin das „Schwarzbuch WWF“ des Journalisten Wilfried Huismann aus ihrem Programm genommen, obwohl der WWF vor Gericht bislang keine einstweilige Verfügung gegen den Titel erreichen konnte. Das Landgericht Köln will erst nach einer mündlichen Verhandlung am 15. Juni darüber entscheiden. Somit bleibt das Buch vorerst erlaubt und ist dennoch praktisch vom Markt verschwunden. Über den Verlag kann es noch bezogen werden." Lesen Sie den ganzen Artikel hier

Der Inhalt des Buches:  Wenn der Naturschutz auf der Strecke bleibt – Greenwashing, Vetternwirtschaft und Co.

"Es ist leichter, in die Geheimnisse der CIA einzudringen, als in die des WWF"  ( Raymond Bonner, New York Times)   

Die Welt bringt in ihrer Ausgabe vom 2.6.12 ebenfalls eine ausführliche Besprechung des Buches von Wilfried Huismanns. Unter der Überschrift

Die Macht hinter dem Panda

Nachhaltig beschädigt: Wilfried Huismanns Reportagen über den WWF bringen Licht in die dunklen Machenschaften der hoch angesehen Naturschutzorganisation schreibt  Marion Lühe

Laut Marktforschung zählt der Panda des WWF zu den glaubwürdigsten Markenzeichen der Welt. Kein Wunder, dass Firmen wie Coca-Cola, Unilever und Shell sich darum reißen, ihre Produkte mit dem sympathischen Wappentierchen zu schmücken. Dafür verpflichten sie sich nicht nur, "nachhaltig" und ressourcenschonend zu produzieren, sondern zahlen dem WWF auch hohe Summen. Die weltgrößte Naturschutzorganisation mit Hauptsitz in Genf und einem jährlichen Spendenaufkommen von 500 Millionen Euro betont immer wieder Sinn und Zweck einer solch engen Kooperation mit führenden Industrieunternehmen: "Man kann die Welt nicht mit Nein-Sagen verändern." Ihr Projekt "Green Economy" verspricht vollmundig mehr Wachstum und Konsum bei gleichzeitigem Erhalt der natürlichen Ressourcen…

Lesen Sie den ganzen Artikel hier

Die Website des Autors erreichen Sie hier: Dort finden Sie auch Bezugsquellen.

Passend dazu unser Bericht vom 5.11.2011

Geld stinkt nicht: WWF lässt sich von Coca Cola 2 Mio $ anweisen.

Wie immer misst die grüne Ökolobby mit zweierlei Maß. Während sich die grünen Lobbyisten medial über alle Kanäle hinweg heftig darüber erregen, dass die vermeintliche böse Öllobby Institutionen wie EIKE und andere Geld zukommen lässt, allerdings ohne auch nur den Hauch eines Beweises dafür vorzulegen, wird freudig hingenommen, dass sich das Aushängeschild der weltweiten Ökologiebewegung WWF (World Wide Fund for Nature) ungerührt von Coca Cola mal so eben 2 Millionen Dollar zuschieben lässt. Natürlich für einen vermeintlich guten Zweck: Die Rettung der Eisbären vor dem anthropogenen Klimawandel!

hier




Vom Menschen verursachter Anstieg des Meeresspiegels ist Folge künstlicher globaler Anpassungen

Schon die erste Graphik in Frank Lansners Gastbeitrag hat mich überrascht. Worüber ich wirklich erstaunt war: die erste Aufzeichnung des Meeresspiegels durch den Satelliten Poseidon-Topex zeigte von 1993 bis 2001 fast keinen Anstieg. Sicher nicht, dachte ich. Ich fragte den Meeresspiegelexperten Nils-Axel Mörner, und er bestätigte mir: „Ja, genauso schlimm ist es!“ Also, da auch der Satellit Envisat (der europäische Satellit) von 2003 bis 2011 keinen Anstieg zeigte (bis er angepasst wurde), bedeutet das, dass die Rohdaten der Satelliten seit 20 Jahren nur einen sehr geringen Anstieg zeigen.

Wir dachten, dass die Satelliten uns endlich eine definitive Antwort zum Meeresspiegel geben. Stattdessen scheinen die Satelliten den Anstiegstrend systematisch zu unterschätzen, genau wie Tidenmessungen und jedes andere, den Menschen zur Verfügung stehendes Verfahren. Und obwohl die Lichtgeschwindigkeit ziemlich hoch ist, kann es Jahre dauern, bis die Daten schließlich ankommen. Manchmal „entdecken“ die Wissenschaftler erst nach 4 oder 5 (oder 10 Jahren), dass sie falsch waren.

Natürlich kann es für all diese Anpassungen sehr gute Gründe geben, und sie können uns Ergebnisse liefern, die näher bei der Wahrheit liegen. Aber die Anpassungen bringen die Daten immer näher an den modellierten Trend. Sie sind entschieden gezielt. Entweder gibt es irgendwo einen Gott, der glaubt, dass das Ärgern von Klimawissenschaftlern schick ist, oder es geht etwas Verdächtiges vor, und einige Journalisten müssten einige bohrende Fragen stellen. Steigt der Meeresspiegel nun aufgrund der globalen Erwärmung oder aufgrund globaler Anpassungen?

Jo Nova

————————————————————————————————————-

Gastbeitrag von Frank Lansner

Herausgegeben von Jo Nova

Meeresspiegel – die Daten werden immer nach oben korrigiert

Die Rohdaten zum Meeresspiegel werden immer „nach oben“ korrigiert. 

Abbildung 1: Die Daten der letzten Jahre wurden signifikanten Änderungen unterzogen. Bei Mörner (2004) werden die Satelliten-Rohdaten mit der Originalneigung gezeigt (die graue Linie mit Punkten mit der Bezeichnung “Topex/Poseidon as of 2001” oben).

Die Daten stammen aus einem begutachteten Artikel von Mörner aus dem Jahr 2004. Es scheint so, als ob Mörner einfach die Daten zum Meeresspiegel gezeigt hat, wie sie damals bekannt waren. Außerdem scheinen auch die Daten von Holgate aus den Jahren 2006 und 2007 nach 1994 einen ähnlich flachen Trend zu zeigen.

Der flache Graph von Holgate zum Meeresspiegel endet im Jahr 2004 – als Envisat mit einem anderen, ebenfalls einen flachen Trend zeigenden Datensatz begann. Die Envisat-Daten sind gestrichelt, so dass sie sich in den Jahren von 2004 bis 2006 mit den Satellitendaten überlappen. (Aber sie können an die Original-Rohdaten von Topex/Poseidon abgeglichen worden sein, so dass Envisat dort weitermacht, wo Holgate 2007 aufhört).

Abbildung 2: Der originale rote Graph stammt aus dem IPCC-AR4-Datensatz (Church und White 2006). Andere Datensätze des Meeresspiegelanstiegs sind hinzugefügt worden, um die Trends zu zeigen, wie sie zum Zeitpunkt ihrer Erstveröffentlichung im jeweiligen Jahr ausgesehen haben.

Anscheinend ist um die Jahre 2004 oder 2005 etwas mit den Meeresspiegeldaten von den Satelliten passiert, weil Mörner 2005 darauf hingewiesen hat, dass die Satellitendaten signifikant verändert worden waren. Die Trends sehen anders aus als vor dem Jahr 2004.

Abbildung 3: Der Meeresspiegel zeigt einen Trend aufwärts. Die Änderungen des Meeresspiegels im Maßstab eines Jahrhunderts hatten 2006 und 2007 immer noch ein Problem: die Daten des Meeresspiegels stützten das Argument der globalen Erwärmung nach wie vor nicht.

Selbst die Ergebnisse von Jevrejeva (2006) sind für die Theorie der anthropogenen globalen Erwärmung ein Problem. Der jährliche Anstieg des Meeresspiegels in den neunziger Jahren war ähnlich dem jährlichen Anstieg in den vierziger Jahren. Dies würde auf den gleichen globalen Temperaturtrend während dieser beiden Perioden hinweisen. Das unterstützt nicht den Alarmismus hinsichtlich der globalen Erwärmung.

Schließlich erzeugten Vermeer und Rahmstorf im Jahr 2009 einen Datensatz zum Meeresspiegelanstieg, der tatsächlich annimmt, dass der jährliche Anstieg des Meeresspiegels in den neunziger Jahren schneller erfolgt ist als in den vierziger Jahren, dass also die Erwärmung jetzt schneller zunimmt als damals. Dies war das erste Mal, dass ein Datensatz zum Meeresspiegelanstieg aufgetaucht war, der das Argument der globalen Erwärmung wirklich stützte.

Inzwischen kommen weitere Daten von Envisat zum Meeresspiegel, und es scheint, als hätten die neuen Mitarbeiter an dem Projekt keine Ahnung, wie sie an die globale Erwärmung angepasste Daten erzeugen können:

Abbildung 4: Der europäische Satellit brauchte ebenfalls eine aufwärts gerichtete „Korrektur“. Wie immer gibt es eine Art von Adjustierung, die die Daten ein wenig mehr in Richtung globale Erwärmung verschiebt, aber immer noch zeigt die adjustierte Version einen kleinen Anstieg von etwa 6 bis 7 cm pro Jahrhundert… (die nicht adjustierten Daten zeigen einen solchen von 3 cm pro Jahrhundert).

Europäische Satelliten brauchen ebenfalls aufwärts gerichtete Korrekturen

Abbildung 5: Der von Envisat aufgezeichnete Meeresspiegel wurde Anfang 2012 dramnatisch korrigiert. Hier sieht man die europäischen Envisat-Daten vor (Schwarz) und nach (rot) der Korrektur.

Nach dem Ende der Envisat-Messungen wurde die gesamte Reihe dramatisch verändert. Zusätzlich wird jetzt die gesamte Länge der Aufzeichnungen mit Beginn im Jahr 2002 gezeigt. Es scheint, als zeigten die Envisat-Daten von 2002 bis 2004 ein Fallen des Meeresspiegels, aber dieser Rückgang zeigte sich bis jetzt nicht, wenn der neue stärkere Anstieg des Meeresspiegels das Bild dominiert.

Zusatz von Jo Nova: Die Rechtfertigungen für diese aufwärts gerichteten Korrekturen strapazieren die Gutgläubigkeit. Eine der Anpassungen zum Meeresspiegel, die den Trend zunehmen lässt, ist eine „Korrektur“ des sich hebenden Landes (global) – ernsthaft: 10% des aufgezeichneten Meeresspiegelanstiegs sind eine Kompensation dafür, dass sich das Land ebenfalls hebt. Wie auch immer, selbst wenn der Meeresspiegel immer noch steigt (kann sein), dann hat das schon lange angefangen, bevor wir Kohle zur Stromerzeugung verbrannt haben; siehe It wasn’t CO2: Global sea levels started rising before 1800. Und im Falle von Australien: Australian sea level rises exaggerated by 8 fold (or maybe ten).

REFERENCES

Gornitz V, Lebedeff S. 1987. Global sea-level changes during the past century. In Sea-level Fluctuation and Coastal Evolution, Nummedal D, Pilkey OH, Howard JD (eds). The Society for Sedimentary Geology: Tulsa, Oklahoma; 316, (SEPM Special Publication No.41).(1987) [Data]

IPCC Assessment Report 4, Working Group I, Chapter 9. [pdf]

http://ruby.fgcu.edu/courses/twimberley/EnviroPhilo/PastRecords.pdf

Stoddart, D.R. and  Reed, D.J. (1990) Sea-level rise as a global geomorphic issue, Progress in Physical Geography December 1990 14: 441-445, doi:10.1177/030913339001400401  [PDF]

Mörner. N.A.  Estimating future sea level changes from past records, Global and Planetary Change 40 (2004) 49–54  doi:10.1016/S0921-8181(03)00097-3 [PDF]

Holgate 2006 (poster version): [PDF]

Holgate, S.J. 2007. On the decadal rates of sea level change during the twentieth century. Geophysical Research Letters 34: 10.1029/2006GL028492 GRL: [PDF]

Mörner N.A.: Memorandum by Professor Nils-Axel Mörner, Head of Paleogeophysics & Geodynamics, Stockholm University, Sweden President, (1999-2003) of the INQUA Commission on Sea Level Changes and Coastal Evolution, Leader of the Maldives Sea Level Project http://www.publications.parliament.uk/pa/ld200506/ldselect/ldeconaf/12/12we18.htm

Jevrejeva, S., Grinsted, A., Moore, J. C., and Holgate, S. (2006) Nonlinear trends and multiyear cycles in sea level records, J. Geophys. Res., 111, C09012, doi:10.1029/2005JC003229. [Source] [PDF]

Church, J.A. and White, N.J. 2006. A 20th-century acceleration in global sea-level rise. Geophysical Research Letters 33: 10.1029/2005GL024826. [eea.europa.eu]

Vermeer, M., and S. Rahmstorf, 2009. Global sea level linked to global temperature. Proceedings of the National Academy of Sciences. 106:6. PNAS (PDF)

Steven Goddard on Envisat:[real-science.com]

Watts/Goddard on Envisat: [WattsUpWithThat-April-2012]

 Frank Lansner writes HideTheDecline, from Denmark.

Link: http://joannenova.com.au/2012/05/man-made-sea-level-rises-are-due-to-global-adjustments/

Übersetzt von Chris Frey EIKE




BDL Präsident Siegloch: Die Luftverkehrssteuer muss abgeschafft werden

Seit dem 1. Januar 2011 müssen Fluggesellschaften eine Steuer für Passagiere entrichten, die ihren Flug auf deutschen Flughäfen beginnen. Der deutsche Gesetzgeber belastet mit der LuftVSt willkürlich Mobilität und schadet somit dem Standort Deutschland. Die Luftverkehrswirtschaft, die ohnehin ihre Infrastruktur‐ und Betriebskosten selbst trägt, wird seitdem doppelt zur Kasse gebeten. Den Fluggesellschaften werden somit wichtige Finanzressourcen entzogen, die sonst für weitere Investitionen in leiseres und effizienteres – d.h. Kerosin sparendes – Fluggerät zur Verfügung stünden. Der nationale Alleingang bei der Luftverkehrsteuer führt überdies zu vielfältigen Wettbewerbsverzerrungen, die Unternehmen der deutschen Luftverkehrswirtschaft nachhaltig schwächen.

Lesen Sie die ganze PM des BDL dazu hier

Ganz auf Parteilinie sind natürlich die üblichen Verhinderer jeglicher modernen Mobilität – mit Ausnahme der eigenen, versteht sich – und Befürworter einer Gartenlaubenwirtschaft frei nach Hedwig Courts-Mahler. Lesen Sie was sich die "Klimaretter" dazu ausgedacht haben.

Aber wir greifen die bestechende BDL-Logik gern auf.

Erstens bedeutet sie: Die Bundesregierung hat offenbar ein Lenkungsinstrument entwickelt, das fünf Millionen Menschen auf klimafreundlichere Verkehrsmittel umgeleitet hat – wir gratulieren!

Zweitens funktioniert es leider nicht so gut, dass es den klimaschädlichen Wahnsinn am Himmel vom weiteren Wachsen abhält. Es flogen ja trotz Steuer fast zehn Millionen mehr Passagiere als 2010, die Flugbranche hätte sogar gern 15 Millionen mehr gehabt. Die Luftverkehrssteuer muss also

drittens deutlich erhöht werden, um noch besser in Richtung klimafreundliche Mobilität zu steuern. Gelegenheit zur Korrektur hat die Bundesregierung, will sie doch bis 30. Juni einen Evaluationsbericht zur Steuer vorlegen.

Alle weiteren Details der Klimaretter hier




Fukushima hat unabsehbare Folgen – aber nur für die deutsche Wirtschaft!

Obwohl die deutschen Kernkraftwerke erheblich sicherer als die in Japan sind, zusätzlich sowohl ein ähnliches Erdbeben als auch ein Tsunami bei uns praktisch undenkbar sind und die Katastrophe von Fukushima von allen (Wähler-) Blut aus Chaos saugenden Linken, Grünen, Genossen, Freiheitlichen und ‚Christlichen‘ als „der Super-GAU“ apostrophiert wurde, sind also keine nennenswerten Schäden an Leib und Leben zu beklagen. Schließlich verkraft(te)en Krebskranke bei der Tumorstrahlung das Zig-Fache der Arbeiter im havarierten Japan-Meiler. Aber unsere Alternativlos-Kanzlerin – die als Physikerin, wenn sie nicht auch alles abgekupfert hat, diese Relationen kennen müsste – lässt sich von den Weltuntergang-Gurus wie die Sau durchs Dorf treiben, krempelt unsere gesamte Energieversorgung um, so dass wir den höchsten – und demnächst in noch ganz andere Dimensionen wachsenden – Strompreis in Europa zu zahlen haben, rüstet nicht einmal die Forschung nach noch sichererer Kernkraft und Lösung des Müllproblems auf, greift massiv in unsere Freiheitsrechte ein, gefährdet unsere Industrie im Wettbewerb mit derjenigen klügerer Nationen und verschuldet uns und kommende Generationen so gewaltig, dass der Wohlstand der letzten Jahrzehnte bald vollendete Vergangenheit sein wird.

Pressekontakt:

Uwe Kremer

Pressesprecher ‚markt intern‘-Verlag

Tel.: 0211/66 98 – 255

presse@markt-intern.de

‚markt intern‘ ist mit 38 Wirtschaftspublikationen Europas größter Branchenbriefverlag.

Anmerkung der Redaktion dazu:

Gregor Gysi, Fraktionsvorsitzender Linksfraktion 
„Wir dürfen nicht die Bevölkerung acht Jahre länger dem Fukushima-Risiko aussetzen.” (2011)

 Mit Dank übernommen von ACHGUT: Die talkende  (schwatzende?) Klasse




Baumring-Temperaturbestimmung: Die Summe von Yamal ist größer als die Einzelteile

Und im Mittelpunkt der neuesten Story steht einer der Klimagate-Wissenschaftler: Keith Briffa, ein Experte bei der Rekonstruktion historischer Temperaturverläufe anhand von Baumringdaten. Im Einzelnen involviert der jüngste Skandal eine Baumringaufzeichnung, die Briffa für eine abseits gelegene Region in Nordrussland aufbereitet hat. Der Name dieser Region: Yamal.

Viele Jahre lang haben Wissenschaftler Baumringdaten ausgewertet um zu versuchen, Temperaturen aus sehr viel früheren Zeiten zu messen, aber das Verfahren ist aus sich selbst heraus problematisch. Warum? Weil Baumringdaten neben der Temperatur auch viele andere Variablen reflektieren. Das Wachstum von Bäumen in Russland reflektiert ebenso wie alle Bäume weltweit auch Änderungen der Feuchtigkeit, des Niederschlags, der Nährstoffe, des Wettbewerbs um Ressourcen neben anderen Bäumen und Pflanzen, im Verhalten von Tieren sowie von Erosion und Bewölkung, und so weiter und so fort. Aber nehmen wir für den Moment einmal an, und sei es nur um des Arguments Willen, dass wir die mittlere Temperatur vor 1000 Jahren oder mehr zuverlässig aus Baumringdaten in einer entfernt gelegenen Gegend in Russland bestimmen können. Die zentrale Frage, die sich hier stellt, lautet: Wie wählt man die Bäume aus?

Es war die Art und Weise, mit der Briffa die Bäume ausgewählt hat, deren Daten Eingang in seine Analyse gefunden hatten, die das Interesse von Steve McIntyre erregte, einem Außenseiter-Amateurklimatologen aus Kanada. Die Klimagate-E-Mails haben klar gemacht, dass McIntyre den öffentlichen Zorn der mächtigsten UN-Klimawissenschaftler auf sich gezogen hatte, einschließlich James Hansen, Michael Mann und Phil Jones, während er insgeheim gleichzeitig deren Furcht und Respekt erhielt.

McIntyre waren ein paar Probleme bei der Art und Weise aufgefallen, wie Briffa die Beispiele der russischen Bäume ausgewählt hat, und er hat an Briffa geschrieben und von ihm die Daten verlangt, die Briffa in seiner veröffentlichten Baumringstudie verwendet hatte. Briffa lehnte das ab. Und so begann eine vier Jahre dauernde Saga, die viele begutachtete Journale, Hinter-den-Kulissen-Aktionen von Briffa und seinen Vertrauten sowie eine Anforderung nach dem Freedom of Information Act auf McIntyres Seite einschloss. Diese Anforderung McIntyres scheint am Rande der Genehmigung zu stehen. Aber selbst ohne den finalen Datensatz hat McIntyre über jeden Zweifel erhaben gezeigt, das Briffa eine der schlimmsten Sünden der Wissenschaft begangen haben könnte, wenn nicht sogar die Schlimmste im Bereich Klimatologie – nämlich die, Daten willkürlich ausgewählt zu haben – als er seinen Datensatz zusammen gefügt hatte, die seine Gesinnungsgenossen und sehr mächtigen Fachkollegen ebenfalls in einer Studie nach der anderen verwendet hatten.

Bekannt war bereits, dass die Yamal-Reihe eine lächerlich geringe Datenmenge umfasste. Schon dies allein führte zu einer Reihe von Fragen: Warum hat Briffa nur die Hälfte der Baumbohrkerne benutzt, die die angenehme Mittelalterliche Warmzeit abdecken, die ein anderer Wissenschaftler gesammelt hatte, einer, mit dem Briffa bekannt war? Und warum gab es in Briffas 20. Jahrhundert nur so wenige Baumbohrkerne? Bis 1988 waren nur zwölf Bohrkerne in einem Jahr benutzt worden, eine erstaunlich kleine Zahl aus einer Zeit, in der man am einfachsten Daten hätte sammeln können. Bis 1990 waren es nur noch zehn, bis 1995 nur noch fünf. Ohne jede Erklärung, wie diese seltsame Datensammlung zustande gekommen war, drängte sich der Verdacht der willkürlichen Auswahl förmlich auf, vor allem seit der scharfe Aufwärtsknick im 20. Jahrhundert fast ausschließlich auf einem einzigen Baum beruhte.

Der Datensatz aus zehn Baumbohrkernen von 1990. Erkennbar ist der Kern YAD061, dargestellt in gelb, der eine einflussreichste Baum der Welt.

Das alles wurde noch verdächtiger, als eine der Klimagate-E-Mails enthüllte, dass Briffa bereits im Jahr 2006 einen viel umfassenderen und damit verlässlicheren Datensatz aus dem Yamal-Gebiet präpariert hatte. Aber seltsamerweise hat er sich entschlossen, diesen Datensatz beiseite zu legen und stattdessen den viel schwächer besetzten Datensatz zu verwenden.

Die Yamal-Frage tauchte genau dann auf, als Briffa von Klimagate-Ermittlern befragt worden ist. Er sagte ihnen, dass er niemals daran gedacht hätte, eine umfangreichere Sammlung zu verwenden als die, welche er dann schließlich untersucht hatte, weil er nicht genug Zeit für eine umfangreichere Untersuchung gehabt hätte. Allerdings scheint das spezielle Thema der beiseite geschobenen Aufzeichnungen von dem Ausschuss weitgehend übergangen und wie so viele andere Antworten auf die Klimagate-Untersuchungen ohne Gegenfrage akzeptiert worden zu sein.

Aber der Trick wurde mittlerweile zu Krümeln zerrieben, und zwar durch den kürzlichen Beschluss des UK-information commissioner, dass Briffa die Liste der Orte nicht länger zurückhalten darf, die er in seiner beiseite geschobenen Regionalaufzeichnung für das Yamal-Gebiet verwendet hatte. Die Bekanntgabe dieser Stellen hat es McIntyre ermöglicht zu berechnen, wie die umfangreichere Reihe ausgesehen hätte, wenn Briffa diese zur Veröffentlichung ausgewählt hätte. Er hat gezeigt, dass sich darin keine Spur einer Hockeyschläger-Kurve befand, wie es aus Briffas willkürlich ausgewählten Daten hervorgegangen war.

McIntyres jüngste Graphik. Die willkürlich ausgewählte Reihe ist rot und zeigt die Form eines Hockeyschlägers. Die grüne, mit mehr Daten aktualisierte Reihe zeigt kein solches Aussehen.

Briffas Entscheidung, eine alarmistische, aber unzuverlässige Version der Yamal-Reihe zu veröffentlichen – anstatt einer verlässlicheren und durchaus wenig bemerkenswerten Reihe – war Gesprächsthema der Klima-Blogosphäre, mit vielen Kommentatoren, die offen das Wort Unehrlichkeit in den Mund genommen hatten.

Zweieinhalb Jahre nach der ersten Enthüllung der Klimagate-E-Mails tauchen immer neue Kontroversen seitens des Teils der Wissenschaftler und der Ermittler auf. Viele der Beteiligten versuchen verzweifelt, den Skandal unter den Teppich zu kehren. Allerdings bestand ihr einziger Erfolg darin, dass ihrer fragwürdigen Wissenschaft neue Aufmerksamkeit zuteil wurde, ebenso wie Schwindeleien hinter den Kulissen, die die Hoffnung beflügeln, dass vollständigere und unabhängigere Ermittlungen – auf beiden Seiten des Atlantiks – durchgeführt werden.

Climategate Continues

Von Andrew Montford und Harold Ambler

Andrew Montford is the author of The Hockey Stick Illusion and the proprietor of the Bishop Hill blog. Harold Ambler is the author of Don’t Sell Your Coat and the operator of the blog talkingabouttheweather.com.

Link: http://wattsupwiththat.com/2012/05/24/the-sum-of-yamal-of-greater-than-its-parts/#more-64217

Übersetzt von Chris Frey EIKE