1

HadCRUT5 zeigt seit 1850 eine um 14% stärkere globale Erwärmung als HadCRUT4

Dies war nicht genug. Wie die endlos angepassten GISS-, RSS- und NCEI-Datensätze hebt HadCRUT5 den Trend an – und zwar um erschreckende 14%. Die übliche Methode wird angewandt: Man korrigiert die früheren Temperaturen nach unten (wir wissen so viel besser, wie die Temperatur vor anderthalb Jahrhunderten war, als die Inkompetenten, die die Messungen damals durchgeführt hatten) und korrigiert die späteren Temperaturen nach oben, mit dem Effekt, dass der Trend steiler wird und die scheinbare Erwärmung zunimmt.

Natürlich werden ausführliche Begründungen für die Änderungen geliefert. Es liegt jenseits meiner Gehaltsklasse, diese zu bewerten. Es ist jedoch bezeichnend, dass die stark manipulierten GISS-, HadCRUT-, RSS- und NCEI-Datensätze von Klimafanatikern verwaltet werden, während der UAH-Datensatz – der einzige der großen Fünf, der in die andere Richtung gegangen ist – von Klimaskeptikern verwaltet wird.

Ich kenne die beiden Skeptiker, die den UAH-Datensatz aufbewahren. Sie sind ehrenwerte Männer, deren einziges Ziel es ist, so gut sie können, die wahre Rate der globalen Erwärmung zu zeigen. Aber ich traue dem GISS-Datensatz nicht, der wiederholt und verwerflich von seinen Bewahrern manipuliert wurde. Ich traue auch RSS nicht: Als Ted Cruz unser Diagramm zeigte, das die 18 Jahre und 9 Monate der letzten großen Pause in der globalen Temperatur zum sichtbaren Unbehagen der „Demokraten“ im Senat belegte, sagte ich voraus, dass der Verwalter des RSS-Datensatzes, der Skeptiker als „Klimaleugner“ bezeichnet, ihn manipulieren würde, um die Pause verschwinden zu lassen. Ein oder zwei Monate später kündigte er an, dass er genau das tun würde, und genau das tat er dann auch. Was HadCRUT betrifft, lesen Sie einfach die Harry-Read-Me-Datei, um zu sehen, in welch hoffnungslosem Zustand sich das befindet.

Und der NCEI-Datensatz stand viele Jahre lang unter dem Einfluss des unseligen Tom Karl. Ich habe einmal neben ihm im Repräsentantenhaus ausgesagt, wo er versuchte zu behaupten, dass meine Behauptung, dass es fast ein Jahrzehnt der globalen Abkühlung gegeben habe, unbegründet sei – obwohl sein eigener Datensatz (wie auch alle anderen) genau das zeigte.

HadCRUT5 zeigt einen Trend von 1,04 K von 1850-2020, oder drei Fünftel Grad pro Jahrhundert, was einem Anstieg von 14% gegenüber dem Trend von 0,91 K der HadCRUT4-Daten entspricht:

Aus dem HadCRUT5-Trend kann man berechnen, wie viel Erwärmung letztendlich zu erwarten wäre, wenn wir das CO2 in der Luft im Vergleich zu 2020 verdoppeln würden. Man muss auch den anthropogenen Nettoantrieb seit 1850 kennen (2,9 W/m²); das planetarische Energie-Ungleichgewicht, das durch die Verzögerung der Rückkopplung verursacht wird (0,87 W/m²); den verdoppelten CO2-Strahlungsantrieb (3. 52 W/m² als Mittelwert in den CMIP6-Modellen); den anthropogene Anteil der beobachteten Erwärmung (70 %); der exponentielle Wachstumsfaktor, der mehr Wasserdampf in wärmerer Luft erlaubt (7 % pro Grad direkter Erwärmung); und der Planck-Sensitivitäts-Parameter (0,3 K/Wm²).

Alle diese Werte sind recht aktuell, weil alle damit beschäftigt waren, die Daten für die nächste mehrtausendseitige Horrorgeschichte des IPCC auf Vordermann zu bringen, die später in diesem Jahr erscheinen soll. Die Berechnungen sind in der Tabelle zusammengefasst. Die sieben Eingangsparameter habe ich nach drei Kriterien ausgewählt: Sie sollten aktuell sein, im mittleren Bereich liegen und dem Mainstream entsprechen, d.h. aus Quellen stammen, die die Klimafanatiker akzeptieren würden.

Das Industriezeitalter von 1850-2020 ist der Basiszeitraum für die Berechnung der Rückkopplungsreaktion pro Grad Referenzsensitivität über den Zeitraum. Diese stellt sich als 0,065 heraus. Dann findet man die Einheitsrückkopplungsantwort für den 100- bis 150-Jahres-Zeitraum von 2020 (415 ppmv CO2) bis 830 ppmv CO2, indem man die Einheitsrückkopplungsantwort erhöht, um zusätzlichen Wasserdampf in wärmerer Luft zu berücksichtigen.

Schließlich multipliziert man die Referenzsensitivität von 1,053 K bei verdoppeltem CO2 mit dem Systemgewinnfaktor, der die Rückkopplungsreaktion der Einheit plus 1 ist: Die mittlere Gleichgewichtsempfindlichkeit bei verdoppeltem CO2, bekannt als ECS, stellt sich als nur 1,1 K heraus. Wenn man den HadCRUT4-Erwärmungstrend verwenden würde, wäre ECS weniger als 1 K. Ich hatte zuvor vermutet, dass der HadCRUT5-Trend 1,1 K betragen würde, was 1,2 K ECS impliziert.

Man vergleiche diese kleinen und harmlosen Werte im mittleren Bereich mit den offiziellen CMIP6-Vorhersagen: untere Grenze 2 K; mittlere Grenze 3,7 K; obere Grenze 5,7 K; ujtopischer Rand 10 K.

Man kann sich ausrechnen, um wie viel größer die Einheitsrückkopplung nach 2020 im Vergleich zur Einheitsrückkopplung von 1850-2020 wäre, wenn diese absurd überhöhten Vorhersagen der neuesten Modellgeneration richtig wären: untere Grenze 14, mittlere Grenze 19, obere Grenze 67, utopische Grenze 130.

Diese aufschlussreichen Zahlen zeigen, wie wahnsinnig und ungeheuerlich übertrieben die offiziellen Vorhersagen zur globalen Erwärmung sind. Es gibt keine physikalische Grundlage für die Annahme, dass die Einheitsrückkopplung ab 2020 auch nur das 14-fache der Einheitsrückkopplung von 1850-2020 betragen wird. Sie könnte höchstens etwa das 1,1-1,2-fache der früheren Einheitsrückkopplung betragen. Daher ist sogar die von den Modellen vorhergesagte untere Grenze der globalen Erwärmung von 2 K, die X = 14 impliziert, weit übertrieben.

Dies ist der einfachste Weg, um zu zeigen, dass die Vorhersagen der Modelle zur globalen Erwärmung ohne einen Funken Legitimität oder Glaubwürdigkeit sind. Sie sind ausgeklügelte Fiktionen. Sie leiden unter zwei Mängeln: Sie sind grob überzogen und entsprechend schlecht berechnet.

Denn, wie die Grafik zeigt, ist die ECS-Antwort auf Rückkopplungsanteile rechteckig-hyperbolisch. Der in den lächerlichen Vorhersagen der Modelle implizit enthaltene Rückkopplungsanteil (der Anteil des ECS, der durch die Rückkopplungs-Reaktion repräsentiert wird), übersteigt im Allgemeinen 0,5: aber es gibt absolut unmöglich, dass der Rückkopplungsanteil in einem nahezu perfekt thermostatischen Klima auch nur annähernd 0,5 betragen könnte. Als ich diese Grafik zum ersten Mal einer Gruppe von IPCC-Leitautoren zeigte, hörten sie plötzlich mit dem Spott auf, dem sie den größten Teil meines Vortrags unterworfen hatten. Plötzlich verstummte der führende Spötter und sagte dann: „Haben Sie das veröffentlicht?“

Nein, sagte ich, denn zu diesem Zeitpunkt hatte ich noch nicht herausgefunden, was die Klimatologen falsch gemacht hatten. „Nun, Sie müssen veröffentlichen“, sagte er. „Das ändert alles.“

Das tut es auch. Aber die Veröffentlichung wird sehr schwierig werden, nicht weil wir falsch liegen, sondern weil wir richtig liegen. Wenn es nur wenig mehr als 1 K anthropogene Erwärmung im nächsten Jahrhundert oder so geben wird, gibt es absolut keine Notwendigkeit, etwas zu tun, um dies zu verhindern. Die Abwanderung wichtiger Produktionsindustrien nach China, das mächtig von dem Klimabetrug profitiert, der im Westen von den dies subventionierenden katzbuckelnden Frontgruppen verführerisch gefördert wird, kann und sollte rückgängig gemacht werden.

Wir unternehmen Schritte, um die britische Regierung zu zwingen, der Wahrheit Beachtung zu schenken, dass die globale Erwärmung nicht mehr als ein Drittel der gegenwärtigen offiziellen Vorhersagen im mittleren Bereich betragen wird und dass daher kein Netto-Schaden daraus entstehen wird. Man verfolge, wie das jetzt weitergeht..

Link: https://wattsupwiththat.com/2021/02/21/hadcrut5-shows-14-more-global-warming-since-1850-than-hadcrut4/

Übersetzt von Chris Frey EIKE

 




Klimawissen­schaftler übertreiben das Klimanot­stands-Narrativ immer stärker

Wolkendaten: Worst-caseSzenarien könnten zu schwach sein.

Modellierungen legen nahe, dass das Klima deutlich sensitiver auf Kohlenstoff-Emissionen reagiert als bisher gedacht.

Jonathan Watts @jonathanwatts
Sat 13 Jun 2020 16.00 AEST

Modellergebnisse von über 20 Institutionen werden für den Sechsten Zustandsbericht des IPCC berücksichtigt, dessen Veröffentlichung für das nächste Jahr geplant ist.

Verglichen mit der letzten Bewertung im Jahr 2014 zeigen 25% von ihnen eine starke Verschiebung der Klimasensitivität von 3°C zu 5°C nach oben – dem Ausmaß der Erwärmung, das von einer Verdoppelung des atmosphärischen Kohlendioxids gegenüber dem vorindustriellen Niveau von 280 Teilen pro Million ausgeht. Dies hat viele altgediente Beobachter schockiert, da die Annahmen zur Klimasensitivität seit den 1980er Jahren relativ unverändert geblieben sind.

„Das ist eine sehr tiefe Besorgnis“, sagte Johan Rockström, der Direktor des Potsdam-Instituts für Klimafolgenforschung. „Klimasensitivität ist der heilige Gral der Klimawissenschaft. Sie ist der wichtigste Indikator für das Klimarisiko. Seit 40 Jahren liegt sie bei 3°C. Jetzt sehen wir plötzlich große Klimamodelle auf den besten Supercomputern, die zeigen, dass es schlimmer kommen könnte, als wir dachten“.

Timothy Palmer, Professor für Klimaphysik an der Universität Oxford und Mitglied des Beirats des Met Office, sagte, die hohe Zahl mache die Wissenschaftler zunächst nervös. „Sie lag weit außerhalb früherer Schätzungen. Die Leute fragten, ob es einen Fehler im Code gab“, sagte er. „Aber es lief auf relativ kleine Änderungen in der Art und Weise hinaus, wie die Wolken in den Modellen dargestellt werden“.

Mehr hier.

[*Bemerkung: Diesen Unsinn habe ich – anders als die übrigen Passagen von Worrall in diesem Beitrag! – dem Linguee-Übersetzer anvertraut. Anm. d. Übers.]

Klima-Sensitivitäten der CMIP6-Modelle. Quelle: Carbon Brief

Vor einem Monat berichtete WUWT hier von einer Studie, die nachwies, dass die neuen Projektionen höchster Klima-Sensitivität (vor allem CESM2) inkompatibel mit historischen Aufzeichnungen sind.

CESM2, eines der neuen Modelle, simuliert im Nachhinein [„Nachhersage“] Temperaturen in den Tropen über 55°C im frühen Eozän. Das sind Temperaturen, bei denen Photosynthese nicht mehr möglich ist, was leblose tropische Wüsten zur Folge gehabt hätte.

Die fossilen Aufzeichnungen sagen jedoch etwas gänzlich anderes; das frühe Eozän war eine Ära mit üppigem und blühendem tropischen Leben.

Einige der neuesten Modelle, die zur Erstellung von Zukunftsprognosen verwendet werden, reagieren möglicherweise zu empfindlich auf den Anstieg des atmosphärischen Kohlendioxids und prognostizieren daher eine zu starke Erwärmung„, sagte Chris Poulsen von der U-M, Professor im Department of Earth and Environmental Sciences der U-M und einer der drei Autoren der Studie.— Quelle: Science Daily

Poulsens Team besteht nicht aus Klimaskeptikern. Sie legten nahe, dass CESM1.2, der Vorgänger von CESM2, „bemerkenswert gut“ bei der Simulation der Temperatur im frühen Eozän war. CESM1.2 geht von einer Gleichgewichts-Klimasensitivität von 4,2°C aus, CESM2 von einer solchen von 5,2°C.

Link: https://wattsupwiththat.com/2020/06/13/climate-scientists-step-up-the-climate-emergency-narrative/

Übersetzt von Chris Frey EIKE




Stefan Rahmstorf wehrt sich gegen seine mediale Verdrängung durch das Virus: katastrophale Prognosen von CMIP6

Rahmstorf hatte im März bereits Furore gemacht, als er sich in einem Artikel in Scilogs-Spektrum in die Debatte um „Coronaleugner“ oder „Wissenschaftsleugner“ wie Wolfgang Wodarg einschaltete. Die Pointe: Wodarg hatte 2010 mit seiner Kritik an Seuchen-Alarmisten wie Christian Drosten absolut recht behalten; während politiknahe Wissenschaftler wie Rahmstorf oder Drosten von der Realität wiederholt Lügen gestraft werden.

Unter seinem Spektrum-log-Artikel erntete Rahmstorf denn auch ordentlich Kritik, bis er entnervt die Kommentarfunktion abschaltete. Dafür durfte er im Mai nun einen eigenen Artikel bei Relotius online schreiben. Darin beklagt er zwischen den Zeilen den Aufmerksamkeitsverlust für seine Panikmache zur Klimakatastrophe durch die Panikmache zum SARS2-Virus.

Schon heute feststellen läßt sich allerdings, dass Corona in der öffentlichen Wahrnehmung fast alle anderen Themen verdrängt. Dabei hat die Dringlichkeit des Klimaschutzes nichts an Aktualität eingebüßt, im Gegenteil.

Um die Notwendigkeit der üppigen Weiterfinanzierung des „grünen Umbau(s)“, also auch von Rahmstorfs Institut PIK, zu unterstreichen, behauptet er nun wieder einmal eine „deutlich stärkere globale Erwärmung“ vorher. Den „Beweis“ liefern die berüchtigten Klimamodelle bzw. die Modellsammlung CMIP6 der An-Institute des Weltklimarates IPCC, die zu den „wichtigsten Werkzeugen der Klimaforschung“ gehörten.

Eher das einzige, sollte Rahmstorf sagen, denn andere Methoden lassen sich nicht so schön für die Sage vom Weltuntergang manipulieren. Zur Erinnerung der Funktionsweise eines Klimamodells: Es handelt sich um eine nicht-lineare, also chaotische Berechnung, die auf Annahmen beruht.

Diese Annahmen werden natürlich so gewählt, daß etwas möglichst Katastrophales herauskommt. Denken Sie an den berühmten „Schmetterlings-Effekt“, nach dem der Flügelschlag eines kleinen Flattermanns in der Sahara einen Wirbelsturm vor Peking auslösen kann. Das ist aber nur mathematisch möglich und wird in der Realität mit an Sicherheit grenzender Wahrscheinlichkeit nicht geschehen. Genauso gut könnten Sie einen Stapel Skatkarten in die Luft werfen und darauf hoffen, daß die Asse, Zahlen und Figuren sich genau in der richtigen Reihenfolge auf dem Boden einfinden.

Natürlich bemüht Rahmstorf auch wieder seine geliebte „Klimasensitivität“, die finanzpraktisch natürlich sehr hoch ist, was heißen soll, daß ein bissel CO2 mehr in der Luft sofort zu einer gewaltigen Erhitzung der bodennahen Luftschichten führe. Nach „neuester Analyse“ liege sie im Bereich von mehr als 4,5°; um diesen Betrag stiege also die mittlere Lufttemperatur. Im abgeschlossenen Experiment ohne jede andere Einflußgröße mag das funktionieren; allerdings mit jedem Gas, das mehr als zwei Atome hat. Daß die Erdatmosphäre ein gewaltiges nicht abgeschlossenes System mit etlichen Einflußgrößen ist, wird ignoriert. Womit die Klimamodelle aus dem CMIP6-Topf obsolet werden.

Interessanterweise gibt Rahmstorf ein paar Schwächen der Modelle zu und fragt, welches „näher an der Wahrheit“ liege. Tatsächlich geht es dabei aber nur um die Frage, wie schlimm die Katastrophe ausfalle. Denn:

„Auch auf der Basis der bisherigen, etwas weniger hohen Abschätzung der Klimasensitivität brauchen wir sehr rasch eine ganz erheblich ambitioniertere Klimapolitlitk, um die Paris-Ziele noch einzuhalten und teure Folgeschäden, massives menschliches Leid und unwiederbringliche Verluste von Tier- und Pflanzenarten zu verhindern.“

Es ist nicht zu fassen. Die Corona-Volksquarantäne, die eine Ahnung auf die dekarbonisierte Wirtschaft nach Rahmstorfs Geschmack vermittelt, erzeugt durch sinnlose Isolation und Arbeitsplatz-Vernichtung „massives menschliches Leid“, und dieser Mann will noch mehr davon!

 

 




Nir Shaviv & Henrik Svensmark – DEUTSCHE VERSION – Welche Rolle spielt die Sonne im Klimawandel?

Prof. Shaviv erklärt mit einem Schaubild die Einflußfaktoren in der Atmosphäre und zweifelt dabei die Sicht des Weltklimarates an, daß die Klimasensitivität (viel CO2, starke Erhitzung) hoch sei. Er betont, daß das Argument, die Erwärmung im 20. Jahrhundert sei einzigartig gewesen, falsch sei. Er weist auf die beiden „Klimagates“ und die dabei aufgedeckten Manipulationen hin. Die oft kolportierte Information, „97% aller Wissenschaftler“ seien für die Treibhaus-Klimatheorie, sei irrelevant, weil Wissenschaft keine demokratische Abstimmung sei.

Prof. Svensmark zeigt, wie die kosmische Hintergrundstrahlung, sehr schnelle Teilchen aus dem Weltall, das Klima beeinflussen. Treffen solche Partikel auf die Atmosphärenluft, werden verschiedene teils radioaktive Produkte erzeugt, wie C14, Al26, Be10. Die Teilchen aggregieren nach und nach zu rund 50 Nanometer großen Aerosolen und dienen dann als Kondensationskeime für Luftfeuchtigkeit und erzeugen so Wolken in den oberen Schichten der Atmosphäre, welche das Sonnenlicht reflektieren und somit die Erde kühlen.
In Zeiten, in denen die Sonne zyklusgemäß gering aktiv ist (wie aktuell), wird die Hintergrundstrahlung kaum solar beeinflußt und kann so viele Wolken hervorbringen.


 




13. IKEK in München: Nir Shaviv & Henrik Svensmark – Welche Rolle hat die Sonne im Klimawandel gespielt?

Prof. Shaviv erklärt mit einem Schaubild die Einflußfaktoren in der Atmosphäre und zweifelt dabei die Sicht des Weltklimarates an, daß die Klimasensitivität (viel CO2, starke Erhitzung) hoch sei. Er betont, daß das Argument, die Erwärmung im 20. Jahrhundert sei einzigartig gewesen falsch sei. Er weist auf die beiden „Klimagates“ und die dabei aufgedeckten Manipulationen hin. Die oft kolportierte Information, „97% aller Wissenschaftler“ seien für die Treibhaus-Klimatheorie, sei irrelevant, weil Wissenschaft keine demokratische Abstimmung sei.

Prof. Svensmark zeigt, wie die kosmische Hintergrundstrahlung, sehr schnelle Teilchen aus dem Weltall, das Klima beeinflussen. Treffen solche Partikel auf die Atmosphärenluft, werden verschiedene teils radioaktive Produkte erzeugt, wie C14, Al26, Be10. Die Teilchen aggregieren nach und nach zu rund 50 Nanometer großen Aerosolen und dienen dann als Kondensationskeime für Luftfeuchtigkeit und erzeugen so Wolken in den oberen Schichten der Atmosphäre, welche das Sonnenlicht reflektieren und somit die Erde kühlen.
In Zeiten, in denen die Sonne zyklusgemäß gering aktiv ist (wie aktuell), wird die Hintergrundstrahlung kaum solar beeinflußt und kann so viele Wolken hervorbringen.


 




Was Sie schon immer über CO2 wissen wollten: Teil 4 – die Klimasensitivität

CO2 ist für sichtbares Licht durchlässig und somit unsichtbar. Es absorbiert in bestimmten Frequenzbereichen Infrarotstrahlung (IR), trägt daher zum sogenannten Treibhauseffekt bei und wird infolgedessen als „Treibhausgas“ bezeichnet. Aus physikalischen Gründen müssen Treibhausgasmoleküle aus mindestens drei Atomen bestehen. CO2 ist solch ein Molekül. Es ist linear, die beiden Sauerstoffatome und das Kohlenstoffatom liegen auf einer Linie. CO2 ist kein Dipol. Bei Stößen oder Infrarotabsorption schwingt aber das CO2-Molekül, wobei „temporäre“ Dipole entstehen.

Die Eigenschaften der wichtigsten Treibhausgase wurden bereits in Tabelle 1 von Teil 1 gezeigt. Die Treibhauswirkung eines Gases ergibt sich aus seiner Konzentration in der Atmosphäre und der Stärke seiner IR-Absorption. Nur Wasserdampf, CO2, Ozon und CH4 sind maßgebende Treibhausgase. Den Löwenanteil des Treibhauseffekts verursacht der Wasserdampf. Der „Treibhauseffekt“ ist einerseits ein einfacher, zugleich aber auch ein extrem komplexer Mechanismus.

Komplex, weil Details und genaue Stärke, insbesondere was den Einfluss des menschgemachten CO2 betrifft, kaum zugänglich sind. Nun die Erklärung in zwei Stufen, je nach Geschmack und Vorkenntnis des Lesers.

In der einfachsten Erklärung stellen wir uns als Analogie eine wärmende Bettdecke vor. Alle Treibhausgase zusammen vertreten die Bettdecke. Leser mit technisch/physikalischen Kenntnissen werden hier zu Recht protestieren. Die Wärmewirkung der Bettdecke erfolgt durch Konvektionsverhinderung, denn die vom Körper erwärmte Luft kann nicht entweichen. Nicht zuletzt aus diesem Grunde wärmt auch Winterkleidung (Wärmestau). Aus diesem Bild stammt aber tatsächlich die etwas unglückliche Bezeichnung „Treibhauseffekt“. Ein Gärtnertreibhaus oder ein mit geschlossenen Scheiben in der Sonne stehendes Auto erwärmen sich im Inneren, weil Sonneneinstrahlung den Innenboden und die Innenwände erwärmt. Die durch Wärmeleitung im Treibhaus oder Auto erwärmte Luft kann nicht entweichen – dies ist der Treibhauseffekt eines Gärtnertreibhauses.

Die Bezeichnung „Treibhauseffekt“ ist natürlich schief, weil die Atmosphäre keine physischen Begrenzungen nach oben aufweist. Daher nun eine detailliertere, aber immer noch anschauliche Erklärung: Die kurzwellige Sonneneinstrahlung durchquert praktisch ungehindert die Atmosphäre und erwärmt das Wasser der Ozeane und den Erdboden. Die Ozeane und der erwärmte Erdboden geben ihre Wärme durch Kontaktleitung an die angrenzende Atmosphäre ab und strahlen zusätzlich Wärme als Infrarot ab. Die Treibhausgase in der Atmosphäre, welche die kurzwellige Sonnenstrahlung noch durchließen, absorbieren dagegen zu Teilen (Linienspektren) das langwellige Infrarot und strahlen diese Energie in den ihnen eigenen Linienspektren wieder ab. Der zum Erdboden gerichtete Teil dieser Abstrahlung wird als „Gegenstrahlung“ bezeichnet.

Nun kommt der berühmte Energieerhaltungssatz zum Zuge. Die von der Sonne kommende und von der Erde aufgenommene Gesamtenergie muss, ausreichend lange zeitgemittelt, in gleicher Energiemenge wieder ins Weltall abgestrahlt werden. Wäre dies nicht so, würde die Erde entweder verglühen oder zu einem Eisklumpen werden. Durch die Infrarot-Absorption der Treibhausgase ist dieses Energiegleichgewicht gestört. Die Natur – in Befolgung ihrer eigenen Gesetze – stellt das Energiegleichgewicht wieder her, indem sie die Bodentemperatur und damit auch die Temperatur der tiefen Atmosphäre erhöht, was das Abstrahlungsdefizit infolge Gegenstrahlung wieder ausgleicht.

Es handelt sich um gleichzeitig ablaufende dynamische Prozesse von Erwärmung durch eine Wärmequelle, hier die Sonne und von gleichzeitig ablaufender Abkühlung, hier von Infrarot ins Weltall. Das Gleichgewicht dieser beiden gegenläufigen Prozesse bestimmt die Erdtemperatur. Wer es genauer wissen will, sei verwiesen auf das Physiklehrbuch von W. Roedel und T. Wagner, Physik unserer Umwelt: Die Atmosphäre [1] oder den Beitrag „Atmospheric Radiation and the Greenhouse effect“ von Science of Doom (SOD) [10].

Manche Zeitgenossen haben allerdings mit der zweiten Erklärung Probleme und verweisen auf den 2. Hauptsatz der Wärmelehre, der besagt „ein kälterer Körper (kalte Atmosphäre) kann keinen wärmeren Körper (Ozean/Erdboden) weiter erwärmen„. Doch, kann er, wenn an Stelle von Kontakt-Wärmeleitung elektromagnetische Strahlung ins Spiel kommt. Die ist im 2. Hauptsatz nicht berücksichtigt. Jeder Festkörper, egal welcher Temperatur, strahlt IR in einem kontinuierlichen Spektrum ab [2]. Trifft diese Strahlung auf einen wärmeren Köper und wird sie nicht reflektiert, so erwärmt sie auch einen wärmeren Körper. Schließlich verschwinden die vom kälteren Körper kommenden und in den wärmeren Körper eindringenden IR-Photonen nicht wirkungslos im Nirwana, und sie „wissen“ auch nicht, woher sie stammen. Der Wärmehaushalt des wärmeren Körper wird durch die IR-Strahlung des kälteren Körpers erhöht.

Die Details dieses auf IR-Absorption von Treibhausgasen beruhenden Treibhauseffekts sind zwar komplex, aber die moderne Messtechnik bestätigt die Einzelheiten des geschilderten Mechanismus. So ist die Messung der von den Treibhausgasen erzeugten Gegenstrahlung, die den Auskühlungsvorgang des Erdbodens abschwächt und damit seinen Wärmehaushalt erhöht, heute Standard. Die Stärke des atmosphärischen Treibhauseffekts, die der direkten Messung nicht zugänglich ist, wird theoretisch und mit unvermeidbar hohen Fehlern zu über 30 °C berechnet. An diesen 30 °C hat das CO2, wie Tabelle 1 in Teil 1 zeigt, einen maßgebenden Anteil. Der Erdboden und die bodennahe Atmosphäre wären also im Mittel von Tag/Nacht, Jahreszeiten und Erdoberfläche ohne die Treibhausgase um diesen Wert kälter.

Bei all dem interessiert aber vorrangig die Treibhauswirkung des menschgemachten (anthropogenen) CO2. Und diese gibt die Fachliteratur und das IPCC mit etwas mehr als 1 °C bei jeder hypothetischen Verdoppelung der atmosphärischen CO2-Konzentration an, also bei Anstieg von 0,04% auf 0,08% und von 0,08% auf 0,16% etc. Das erscheint zunächst seltsam. Schließlich wurde doch oben der Erwärmungswert aller Treibhausgase von 30 °C genannt? Daran, so kann man vermuten, sollte gemäß Tabelle 1 (in Teil 1) das CO2 zwischen 9% bis 26% Anteil haben, also zwischen 3 und 8 °C? Warum trifft dies nicht zu?

Die Antwort: Der Zusammenhang von Temperatur und CO2-Konzentration ist nicht linear sondern logarithmisch, Details dazu beim IPCC [10] und insbesondere in einer AGU-Publikation [11]. Die Erwärmung ist daher bei Anstieg der CO2-Konzentration von von 0,04% auf 0,08% die gleiche wie von 0,08% auf 0,16%, obwohl 0,16% das Vierfache von 0,04% ist. Stark vereinfacht wird manchmal auch von „spektraler Sättigung“ gesprochen. Die Absorptionslinien des CO2 werden bei zunehmender Konzentration breiter und an den Flanken des Spektrums beginnen neue aufzutauchen.

Wer es lieber anschaulich möchte, vergleiche den Infrarot-Effekt der Treibhausgase mit dem Abdunkeln eines Fensters durch ein dunkles Tuch. Ein zweites Tuch darüber gehängt, dunkelt nur noch unwesentlich stärker ab. Für eine katastrophale Erderwärmung reicht also die berechnete Erwärmung durch anthropogenes CO2 nicht aus. Woher kommen dann die Warnungen?

 

Wasserdampfrückkoppelung

Die bisherigen Ausführungen lassen weitere entscheidende Effekte unberücksichtigt. Einer davon ist als Wasserdampfrückkoppelung bekannt. Bei Erwärmung der Atmosphäre durch zunehmendes anthropogenes CO2 sollte aus den Weltmeeren – insbesondere im Tropengürtel der Erde – mehr Wasserdampf ausgegasen. Wasserdampf ist das weitaus stärkste Treibhausgas. Die ursprünglich geringe Erwärmung durch CO2, so die der Wasserdampfrückkoppelung zugrunde liegende Idee, erhöht sich damit.

In einer entgegengesetzten Hypothese freilich führt mehr Wasserdampf bei ausreichend vorhandenen Kondensationskeimen zu mehr Wolken. Wolken, also kondensierende oder bereits kondensierte Flüssigkeitströpfchen, die nicht mit dem Gas „Wasserdampf“ oder gar mit Treibhausgasen zu verwechseln sind, schirmen die Sonnenstrahlung ab und wirken abkühlend. Die primäre Erwärmung infolge ansteigendem CO2 wird daher abgeschwächt, man spricht von Gegenkoppelung. Welchen Weg bevorzugt die Natur, Gegen- oder Rückkoppelung?

Auswertungen von Ballon-Radiosonden und Satellitenmessungen haben diese Frage bereits beantwortet. Alle bisher verfügbaren Messungen zeigen, dass Gegenkoppelungen überwiegen. Hierzu sagt der Klimaforscher und Leibniz-Preisträger Prof. Jan Veizer: „Bei beinahe jedem ökologischen Prozess und auf jeder Zeitskala sind der Wasserkreislauf und der Kohlenstoffkreislauf aneinander gekoppelt, aber Wasser ist nun einmal um Größenordnungen verfügbarer. Es ist nicht einfach nur da, um auf Impulse vom Kohlenstoffkreislauf zu warten, ganz im Gegenteil, es formt diesen aktiv“. Im Klartext sagt damit J. Veizer nur, dass das CO2 immer dem Wasserdampf folgt und damit auch keine durch ihn bedingte globale Temperaturänderung auslösen kann. In Vorträgen drückt Veizer er es noch plastischer aus: „Der Hund, Wasserdampf, wedelt mit dem Schwanz, CO2, nicht umgekehrt„.

Bis Ende des Jahres 2008 lagen keine veröffentlichten Messungen vor, die die Wasserdampfrückkopplung oder die Wasserdampfgegenkoppelung bestätigen oder widerlegen konnten. Diese unbefriedigende Situation änderte sich mit zwei grundlegenden Arbeiten, die beide in 2009 erschienen. Inzwischen sind weitere bestätigende Publikationen hinzugekommen.

Die Autoren G. Paltridge et al. zeigten als erste, dass die spezifische und relative Feuchte in der mittleren und oberen Troposphäre, also oberhalb 850 hPa Luftdruck, im Gegensatz zu den Annahmen der Klimamodelle des IPCC, in den Jahren 1973 bis 2007 mit den steigenden Temperaturen dieser Zeit abnahmen, was mit Wasserdampfrückkoppelung unvereinbar ist [3]. Lediglich die wenig rückkopplungswirksame Feuchte der unteren Troposphäre nahm in dieser Zeit zu und selbst dies nur in gemäßigten Breiten signifikant.

Die zweite Arbeit wurde von dem weltbekannten Klimaforscher Prof. R. L. Lindzen und seinem Mitautor Y.-S. Choi verfasst [4]. Sie wiesen ebenfalls nach, dass Gegenkoppelung vorliegen muss, konnten aber zudem noch den Effekt quantifizieren. Hierzu untersuchten sie die Empfindlichkeit des Klimas auf externe Störungen und benutzten dafür die Messdaten von ERBE (Earth Radiation Budget Experiment), geliefert vom ERBE-Satelliten, der 1984 vom Space-Shuttle aus gestartet wurde. Hieraus konnten sie die externen Einwirkungen auf das Strahlungsgleichgewicht extrahieren, wie sie zum Beispiel durch natürliche Oszillationen, wie El Niño, La Niña oder aber durch Vulkanausbrüche (Pinatubo), hervorgerufen werden.

Da die Wirkung von CO2 ebenfalls über die Störung des Strahlungsgleichgewichts abläuft, ist die analoge Übertragung physikalisch korrekt. Unter weiteren Belegen, die gegen eine Wasserdampfrückkoppelung sprechen, soll hier nur noch der sogenannte Hot-Spot erwähnt werden, eine bei Wasserdampfrückkoppelung unabdingbar zu erwartende Erwärmung in mehreren km Höhe über dem Tropengürtel der Erde. Vom Hot-Spot gibt es aber bis heute keine Spur [5]!

Die Klimasensitivität

An dieser Stelle ist es jetzt an der Zeit, den mehr politischen als physikalischen Begriff „Klimasensitivität“ zu beschreiben. Es gibt keine andere Maßzahl, in welche soviel über die Erwärmungswirkung des CO2 hineingepackt ist. Sie bezeichnet die Änderung der globalen Mitteltemperatur der Erde in Folge einer (hypothetischen) Verdoppelung des atmosphärischen CO2. Unterscheidungen zwischen spektralem Effekt oder Wasserdampfrück- bzw. Wasserdampfgegenkoppelung kennt die „Klimasensitivität“ nicht. Es geht bei ihr nur um einen einzigen, vor allem politisch brauchbaren Zahlenwert.

Technisch gibt es allerdings zwei Arten von Klimasensitivitäten. Aufgrund der thermischen Trägheit der Weltmeere reagiert das globale Klimasystem grundsätzlich nur extrem langsam auf Veränderungen des Strahlungsantriebs. Daher wird zwischen Equilibrium Climate Sensitivity (ECS) und Transient Climate Response (TCR) unterschieden. Die ECS beschreibt den Temperaturanstieg, der zu beobachten wäre, nachdem das Klimasystem nach einer Veränderung des Strahlungsantriebs den neuen Gleichgewichtszustand erreicht hat, wofür Jahrtausende nötig sind.

Um den Einfluss des Menschen auf das Klima zu quantifizieren, ist dagegen die Transient Climate Response (TCR) geeigneter. Letztere ist definiert als der Temperaturanstieg, der zum Zeitpunkt einer Verdoppelung der CO2-Konzentration in einem Szenario beobachtet wird, bei dem diese Verdoppelung pro Jahr um 1 % anwächst. Meist wird der Unterschied zwischen ECS und TCR vernachlässigt.

Die Klimasensitivität ist, wie schon erwähnt, eine politisch brauchbare Größe und spielt daher auch die maßgebende Rolle beim Pariser Klima-Abkommen [6]. In der Fachliteratur wird die Klimasensitivität in einem weiten Bereich von fast Null bis hin zu 4,5 °C angegeben. Man kann dies auch prosaischer ausdrücken – der Wert der Klimasensitivität ist unbekannt! Diesen unbefriedigenden Sachverhalt bestätigt insbesondere auch das IPCC, wenn auch nur sehr verschämt und gedrechselt, in folgender Fußnote

No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies“ [7].

Was sagt aber nun die Klima-Fachliteratur zur Klimasensitivität, denn die Fachliteratur sollte schließlich die ultimative Basis sein. Die Antwort lautet ähnlich wie die Antwort des bekannten Börsianers Kostany, der einmal, nach seiner Erwartung der kommenden Börsenkurse gefragt, antwortete, „sie fluktuieren„. Etwas mehr Information über die Klimasensitivität als dieser weltbekannte Börsen-Guru über die zukünftigen Börsenkurse gibt es glücklicherweise schon.

Der französische Klimaforscher Francois Gervais hatte in einer seiner Fachpublikationen alle Fachveröffentlichungen über die Zahlenwerte von ECS und TCR gegen ihre Veröffentlichungszeiten aufgetragen. Dabei zeigte sich ein interessanter Trend. Die Wissenschaft gibt im Großen und Ganzen  immer kleinere Werte bei immer jüngeren Veröffentlichungen an. Hier die inzwischen von F. Gervais aktualisierte Abbildung

Bild 1: Klimasensitivitätswerte von ECS und TCR in Abhängigkeit vom Veröffentlichungsdatum. Der TCR-Trend hin zu tieferen Werten als 1 °C ist unverkennbar [8], [9]. Damit wäre übrigens das 1,5 °C – Ziel des Pariser Klima-Abkommens längst erreicht und das Abkommen überflüssig geworden.

 

Auf die Methoden zur Berechnung der Klimasensitivität ECS und/oder TCR einzugehen, übersteigt den hier gesteckten Rahmen. Vielleicht kann man sehr grob drei Wege unterscheiden: durch theoretische Betrachtung, durch Analyse von Proxydaten, wie zum Beispiel Eisbohrkernen und aus Klima-Computermodellen. Am fragwürdigsten sind dabei zweifellos Klimamodelle, denn diese können bislang noch nicht einmal die Klimavergangenheit ohne künstliche Nachhilfen wiedergeben. Monokausale CO2-Abhängigkeit, wie in Klimamodelle hineingesteckt, liefert nur „rubbish in, rubbish out“. Gemäß Bild 1 jedenfalls darf man mit hoher Wahrscheinlichkeit von einer Klimasensitivität TCR von 0,5 °C bis höchstens 1,5 °C ausgehen.

Fazit: Obwohl die spektrale Erwärmungswirkung des CO2 theoretisch gut bekannt ist, ist dennoch die Erwärmungswirkung des anthropogenen CO2 eine unsichere Größe. Zu groß ist die Anzahl der beteiligten Prozesse (stellvertretendes Beipiel: durch das Sonnenmagnetfeld modulierte Wolkenbildung), zu hoch sind ihre Berechnungsunsicherheiten. Verlässt man sich auf die begutachtete Fachliteratur, so zeigt diese mit immer jüngeren Veröffentlichungszeiten ein stetiges Abnehmen der TCR-Klimasensitivitätswerte. Die zur Zeit beste TCR-Wert liegt zwischen 0,5 und 1 °C.  Dieser Wertebereich ist unbedenklich. Er liegt zudem weit innerhalb der natürlichen Temperaturschwankungen. Es ist also nicht verwunderlich, dass man aus dem natürlichen Klimarauschen keinen anthropogenen Beitrag heraushören kann.

Zu Katastrophenwarnungen über die Erwärmungswirkung des anthropogenen CO2 besteht jedenfalls nicht der geringste Anlass.

Bisherige Teile der Serie „Was Sie schon immer über CO2 wissen wollten“:

  1. Teil 1 – der CO2-Untergrund (27.Juni 2019)
  2. Teil 2 – CO2-Anstieg menschgemacht oder nicht?
  3. Teil 3 – der globale CO2-Kreislauf

 

Quellennachweise

[1] W. Roedel und T. Wagner, Physik unserer Umwelt: Die Atmosphäre, Springer, 5. Auflage.

[2] https://de.wikipedia.org/wiki/Plancksches_Strahlungsgesetz

[3] G. Paltridge et al., Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, 2009

[4] R. Linzen and Y.-S. Choi, On the determination of climate feedbacks from ERBE data, 2009

[5] Joanne Nova

[6] Pariser Klimaabkommen

[7] SPM, Summary for Policymakers, IPCC, S. 16, Fußnote, 2013

[8] F. Gervais, Anthropogenic CO2 warming challenged by 60-year cycle, 2016

[9] F. Gervais, Vortrag bei der EIKE-Klimakonferenz in Düsseldorf, 2018

[10] Science of Doom

[11] IPCC Climate Change 2001, The scientific basis, Chapter 06, S. 358, Tab. 6.2

[12] Y. Huang and M. B. Shahabadi, Why logarithmic? A note on the dependence of radiative forcing on gas concentration

 

 




12. IKEK am 23. und 24.11.18 Hermann Harde – Wieviel tragen CO2 und die Sonne zur globalen Erwärmung bei?

Die Weltklimarat(IPCC)-Wissenschaftler behaupten eine grundsätzliche Sensibilität unseres Klimas gegenüber den Treibhausgasen. Eine Verdopplung des CO2-Gehaltes der Luft bedeute einen Anstieg der globalen mittleren Temperatur von 1,5 bis 4,5°C, so genau wisse man das auch nicht.

Prof. Dr. Hermann Harde analysiert die Berechnungsverfahren der etablierten Klimatologen und stellt deren Ergebnisse eigenen Resultaten, basierend auf einem erweiterten Zwei-Lagen-Modell, gegenüber.

Dieses Modell beschreibt Erdoberfläche und Atmosphäre als zwei Schichten, die langwellige (lw) oder kurzwellige (kw) Strahlung absorbieren, und selber als Strahler im langwelligen Bereich wirken. Die jeweilige Lage gebe dabei im Gleichgewicht so viel Leistung ab, wie sie aufgenommen habe. Daraus erhalte man ein „gekoppeltes Bilanzgleichungssystem“. Eine „Störung“ von außen, also erhöhte Sonnenaktivität oder Änderung der Konzentration von Treibhausgasen, führe im Modell zu einer Veränderung des Gleichgewichtes und somit zu einer Veränderung der mittleren Temperaturen von Erdoberfläche und Luft.

Video des Vortrages von Prof. Hermann Harde anlässlich der 12. IKEK in München

Hardes Modell berücksichtige dabei auch Streuprozesse (lw, kw) an der Atmosphäre und an der Wolkendecke; außerdem alle üblichen thermisch bedingten Rückkoppelungen wie Änderung der Wasserdampf-Konzentration, Albedo oder thermische Wolken-Rückkopplung; zusätzlich Wärmeflüsse durch Konvektion und Evaporation. In seinem Modell rechnete Prof. Harde 14 verschiedene Konzentrationen atmosphärischen Kohlendioxids durch (0-770 parts per million, ppm). In seinen Simulationen konnte er die Ergebnisse der IPCC-Klimamodelle nur zum geringen Teil reproduzieren. Besonders die negativen (also kühlenden) Rückkoppelungseffekte wie Verdampfung verminderten die mittlere Temperatur im Modell erheblich und wirkten somit klimastabilisierend. Erstaunlicherweise erwähne der Weltklimarat im aktuellen Sachstandsbericht (AR5) diese negativen Rückkoppelungen gar nicht. Prof. Harde favorisiert die Klima-Theorie der Solaraktivität.

Die Tätigkeit der Erdsonne habe sich zwischen 1950 und 2000 erhöht, was sich auf die Temperatur der Atmosphäre verstärkend auswirke; ähnlich wie der vom IPCC behauptete CO2-abhängige Treibhauseffekt. Auch die Sonnenstrahlen seien mit der Wolkenbildung negativ rückgekoppelt. Erhöhe sich also die solare Aktivität, vermindere sich die Wolkendecke. Der Referent schloß mit dem Fazit, dass 65% der mittleren Temperaturerhöhung in 100 Jahren auf die Sonnenaktivität zurückgehen (0,48°C), aber nur 35% auf das in der Luft vorhandene Kohlenstoffdioxid (0,26°C); in der Summe 0,74°C.




Sensibles Klima? – Harte Zahlen! Klimasymposium am 7.3.19 in Amsterdam

Liebe realistische Freunde,

Ich freue mich, Ihnen mitteilen zu können, dass wir am 7. März in Amsterdam ein interessantes Symposium zur Klima- und Klimapolitik abhalten. https://ontgroeningsdag.nl/
Das Timing (13.00 Uhr bis 18.00 Uhr) ist optimal für einen eintägigen Auslandsaufenthalt.

Die erste Stunde (einschließlich meines Vortrags) über die Entwicklungen in Holland wird auf Niederländisch sein, um die älteren Besucher entgegen zu kommen, die in der Regel nicht sehr fließend Englisch sprechen. Danach werden Benny Peiser, Richard Tol und Nic Lewis auf Englisch sprechen.
Nic Lewis wird die Hauptredner zu seiner neuesten Arbeit über die Klimasensibilität halten, und die Ergebnisse werden so durchdacht sein, wie wir sie von ihm gewohnt sind!

Wir hoffen, Sie in Amsterdam zu sehen!

Theo Wolters

 

Anmelden hier https://ontgroeningsdag.nl

Dear realistic Friends,

I am happy to inform you that we are having an interesting symposium on climate and climate policies in Amsterdam on March 7th.  https://ontgroeningsdag.nl/
Timing (1pm till 6pm) is optimal for a one day visit from abroad.

The first hour (including my talk) about developments in Holland will be in Dutch, to accomodate the older visitors, who are usually not very fluent in English. But after that, Benny Peiser, Richard Tol and Nic Lewis will speak in English.
Nic Lewis will have the keynote speach on his latest work om climate sensitivity, and the results will be as thourough as meaningful, as we are used from him!

Hope to see you in Amsterdam!

 

Theo Wolters




Klimasensitivität –  Wer rechnet hier falsch ? 

Diese Annahme wird auch bei den Klimamodellen verwendet.  Neuere Studienergebnisse zu diesem  Thema mit einem wesentlich geringeren Anstieg wurden vom IPCC ignoriert. Wie auch jüngst wieder durch PIK Professor Anders Levermann beim öffentlichen Fachgespräch im Umweltausschuss des Deutschen Bundestages am 28.11.18.

Doch auch Prof. Marotzke (MPI) gab kürzlich zu, dass die bisherige Annahme offenbar zu hoch ist. Dies wird  durch den Vergleich des berechneten Temperaturanstieges mit der Realität der letzten 20 Jahre bestätigt. Bis heute konnte der angebliche CO2-Effekt auf die Globaltemperatur nicht durch historische Fakten belegt werden, sondern ist laut IPCC-Bericht eine Sache von „confidence“, d.h. von Glauben oder Vertrauen.

Die Milchmädchen-Rechnung, die Klima-Politiker, Journalisten und etliche Klimatologen nicht machen können oder  wollen, lautet wie folgt:

Bis zur Verdoppelung des CO2-Gehaltes von heute 400 auf 800 ppm vergehen bei den aktuellen Emissionen mit einem Anstieg von ca. 2 ppm pro Jahr noch 200 Jahre. Das bedeutet real in 100 Jahren ca. + 1,5°C – genau das, was sich Politiker bei der Pariser Konferenz so vorgestellt haben, aber ohne kostspielige und risikoreiche CO2-Verminderungsmaßnahmen.

Das international anerkannte Modtran-Programm der Atmosphärenphysik zeigt zwischen 400 und 800 ppm einen Temperaturanstieg von nur 1,7°C (anstelle von den 3°C des IPCC) mit Berücksichtigung des Sättigungseffektes, der ansonsten oft ignoriert wird. Das wäre dann in 100 Jahren nur ein Anstieg um ca. +0,85°C.

 

Tatsächlich ist aber kein weiterer Anstieg der mittleren Globaltemperatur zu erwarten, sondern das Gegenteil: sie wird in den nächsten 400 Jahren aller Wahrscheinlichkeit nach wieder um ca. 1,5°C absinken – so, wie dies schon seit 8000 Jahren regelmäßig alle 1000 Jahre der Fall war, zuletzt in der mittelalterlichen Kaltzeit (auch „ Little Ice Age“ genannt). Dieser natürliche Klimazyklus basiert auf solaren und astrophysikalischen Faktoren und kann von Menschen nicht beeinflusst werden – genauso wenig wie andere Natur-Ereignisse wie Erdbeben und Vulkanausbrüche.




Jüngste Studie mit der Prophe­zeiung „könnte noch viel schlimmer sein als prophe­zeit“ ist massen­haft heiße Luft

Der Artikel wird eingeleitet durch Doyles charakteristisches „Das Ende ist nahe herbeigekommen“ – Banner mit den Worten „Kollabierende polare Eiskappen, eine grüne Sahara, ein Meeresspiegelanstieg um 20 Fuß“ [ca. 6 Meter].

Nehmen wir uns mal Doyles Müll vor, Punkt für törichten Punkt:

Kollabierende polare Eiskappen: Doyle hat vergessen zu erwähnen, dass sich bis auf die letzten Jahre das antarktische Meereis ausgeweitet hat, oder das sowohl in der Antarktis (die 90% der weltweiten Eismasse besitzt) als auch in Grönland (5%) eine auffallende Korrelation zwischen Gebieten mit untermeerischer Vulkanaktivität und Gebieten mit Eisverlust besteht, oder dass in der Antarktis jüngst ein neuer globaler Kälterekord gemessen worden ist.

Eine grüne Sahara: Irgendwie hat es Doyle fertig gebracht, ebenfalls nicht zu erwähnen, dass die Ergrünung einer Wüste (bereits 1981 gab es erste Berichte über eine Ergrünung der Sahara, das ist also nichts Neues) etwas Gutes ist, ebenso wie ein Rückgang des Permafrostes in Russland und Nordkanada etwas Gutes ist, würden sich dadurch doch riesige neue Flächen für den Ackerbau erschließen.

Ein Meeresspiegelanstieg um 20 Fuß: Direkt gesagt, die Welt langweilt sich immer mehr durch diesen ,kalten Kaffee‘. Das IPCC hat uns Anstiege des Meeresspiegels um 20 Fuß seit Jahrzehnten eingehämmert, aber niemand kümmert sich noch darum, weil der Meeresspiegel mit 8 Inches [ca. 20 cm] pro Jahrhundert und nicht mit 20 Fuß steigt. Sogar noch in Al Gores Science-Fiction-Horrorkomödie A Profitable Fiction wurde diese idiotische 20-Fuß-Berhauptung erhoben. Aber genau in jenem Jahr, als Gore den Film drehte, kaufte er sich eine Villa im Wert von 4 Millionen Dollar auf – Moment – richtig, Fisherman’s Wharf, San Francisco, nicht einmal einen Meter entfernt vom vermeintlich steigenden Ozean. Folge dem Geld, geliebter Doyle!

Eine Weltkarte in Falschfarben-Darstellung: Immer wieder – das haben wir doch alles schon gesehen:

In der Bildinschrift heißt es: „Diese Karte zeigt die globale mittlere Temperatur der Erde von 2013 bis 2017 im Vergleich zur Referenzperiode 1951 bis 1980 und ist eine Analyse des GISS der NASA. Gelbe, orange und rote Regionen waren wärmer als die Referenzperiode“.

Aber ja doch, schon gut. Färben wir die Karte einmal anders ein: Neue Bildinschrift: Grüne Regionen sind die Gebiete, in denen die Welt von dem geringfügig wärmeren Wetter profitiert hat“.

Mit ermüdender Impertinenz betont Doyle, dass die „globale Erwärmung zweimal so stark ausfallen könnte als die Klimamodelle prophezeien“. Oder es könnte aber auch halb so schnell eintreten als die Modelle prophezeien – genau wie es seit den siebziger Jahren der Fall war – nur das Doyle das unter den Tisch fallen lässt. Ich komme gleich noch einmal auf diesen Punkt zurück.

Des Weiteren sagt Doyle: „Auch die Rate der Erwärmung ist bemerkenswert: Die Änderungen, die wir heute sehen, gehen viel schneller vonstatten als irgendwann sonst in der Erdgeschichte. Ausgedrückt als Änderungsrate bewegen wir uns in fremden Gewässern. Das sagte die Mitautorin der Studie Katrin Meissner von der University of New South Wales in Australien“.

Und zeigte er ihr – oder den wenigen, noch bei USA Today verbliebenen Lesern – die folgende Graphik der Temperaturaufzeichnung von Zentral-England CET) über den Zeitraum 1694 bis 1733? Äh, nein. Die CET-Aufzeichnung ist eine ziemlich respektable Proxy für globale Temperaturänderungen, und sie zeigt – wie viele andere Beweislinien vom Ende der Kleinen Eiszeit an – dass 40 Jahre lang die Änderung äquivalent war zu 4,33 K pro Jahrhundert – das war etwa zweimal so schnell als die höchste Rate, die jemals in einem 40-Jahre-Zeitraum aufgetreten war, seit der Mensch im Jahre 1950 begann, das Klima zu beeinflussen[?].

Doyle gräbt noch weiter in die Tiefe: „Dies könnte bedeuten, dass der Eckpfeiler Pariser Klima-Abkommen – welcher verlangt, die globale Erwärmung auf 2°C über dem vorindustriellen Niveau zu begrenzen – nicht ausreichen könnte, um die Katastrophe abzuwenden“.

Wie jedoch die jährliche statistische Übersicht von BP für das Jahr 2018 zeigt, ist das Wachstum des BIP und des Energieverbrauchs ein gutes Stück stärker als in den Nicht-OECD-Ländern, auf die der „Eckpfeiler“ Paris-Abkommen nur in wenigen Fällen zutrifft. In den OECD-Ländern gilt es dagegen allgemein.

Und sagt Doyle seinen Lesern, dass nach 20 Jahren politisierter Berichterstattung durch Leute wie ihn der Anteil der Kohle an der globalen Energieerzeugung 38% ausmacht und damit genau so hoch liegt wie vor 20 Jahren? Nein, sagt er nicht!

Einer plappert dem langweiligen Doyle noch langweiliger nach: „Selbst mit nur 2 Grad Erwärmung – und potentiell 1,5 Grad – sind bedeutende Auswirkungen auf die Erde tiefgreifend“, sagt der Mitautor der Studie Alan Mix, ein Wissenschaftler an der Oregon State University. „Wir können erwarten, dass der Anstieg des Meeresspiegel unaufhaltbar für Jahrtausende wird, was einen Großteil der Erdbevölkerung, Infrastruktur und Ökonomie betreffen würde“.

Prof. Nils-Axel Mörner, welcher den Meeresspiegel seit nunmehr einem halben Jahrhundert studiert und über 650 Studien hierzu geschrieben hat, sagt, dass der mittlere Anstieg des Meeresspiegels im vorigen Jahrhundert 8 Inches [ca. 20 cm] betragen hatte und in diesem Jahrhundert 6 Inches [ca. 15 cm ±2 cm] betragen wird. Vieles des offensichtlichen „Meeresspiegel-Anstiegs“ in den offiziellen Aufzeichnungen ist künstlich hinein expediert worden mittels Bearbeitungen wie etwa der fiktiven „glazialen isostatischen Adjustierung“ (siehe Diagramm oben).

Und jetzt zu diesem „schlimmer als wir dachten“-Narrativ: „Der Leitautor der Studie Hubertus Fischer von der University of Bern in der Schweiz und sein Team fanden heraus, dass unsere derzeitigen Klima-Prophezeiungen die langfristige Erwärmung um einen Faktor bis zu zwei unterschätzen könnten“, sagt Katrin Meissner. „Klimamodelle scheinen bzgl. kleinen Änderungen vertrauenswürdig wie etwa bei Szenarien geringer Emissionen über kurze Zeiträume wie etwa die nächsten Jahrzehnte bis zum Jahr 2100. Aber mit der immer größer werdenden Änderung … scheint es so, als ob sie den Klimawandel unterschätzen“.

Hat Doyle irgendetwas von diesem Unsinn gecheckt, bevor er es einfach nachplapperte? Natürlich nicht! Alles was er gecheckt hat war, ob diese „Ergebnisse“ der Parteilinie folgten. Und das war es dann.

Wir haben bereits gesehen, dass das Statement von Doyle, die jüngste Erwärmung sei beispiellos, absoluter Quatsch ist. Schauen wir jetzt einmal auf seine Wiederholung der Aussage, dass „gegenwärtige Klima-Prophezeiungen die langfristige Erwärmung um einen Faktor bis hin zu zwei unterschätzen könnten“.

Wir wollen dieses Statement in zwei Richtungen unter die Lupe nehmen: erstens, geht die gegenwärtige Erwärmung über bestehende Prophezeiungen hinaus, und zweitens, ob es wahrscheinlich ist, dass sich die Erwärmung viele Male beschleunigen wird, um den neuen „Schlimmer-als-wir-dachten“-Prophezeiungen zu folgen.

Das sehr große Intervall der IPCC-Prophezeiungen aus dem Jahr 1990 wird markiert durch die gelbe Fläche in der Graphik oben. Die hellblaue Trendlinie ist der Trend der linearen Regression kleinster Quadrate des Mittels der globalen Temperatur-Anomalien der Datensätze von NCEI und UAH im Zeitraum 1990 bis Mai 2018. Die beobachtete Rate der globalen Erwärmung liegt vollständig unter den Original-Prophezeiungen des IPCC und nicht viel über der Hälfte von dessen mittelfristiger Prophezeiung.

Um über doppelt so hoch zu werden wie die mittelfristige Prophezeiung des IPCC müsste die Erwärmungsrate um mehr als das Dreifache zunehmen, von 1,55 K pro Jahrhundert auf ein Äquivalent zu 5,55 K pro Jahrhundert.

Was ist mit den Computermodellen? Im CMIP5-Ensemble beträgt die mittlere Schätzung der Gleichgewichts-Sensitivität bei einer CO2-Verdoppelung 3,35 K (abgeleitet von Andrews 2012). Dieser Wert liegt nahe demjenigen, der sich ergibt, wenn man die Erwärmung im 21. Jahrhundert bei Verbrauch aller vom Menschen genutzten Quellen schätzt. Um die mittlere Rate der CMIP5-Modelle zu verdoppeln, müsste sich die Erwärmungsrate mehr als vervierfachen, nämlich von 1,55 K pro Jahrhundert auf ein Äquivalent von 6,7 K pro Jahrhundert.

Das wird sicher nicht geschehen – oder, falls doch, wird der winzige Einfluss des Menschen auf das Klima nicht dafür verantwortlich sein. Um dem arithmetisch unbedarften Doyle aufzuzeigen, warum die globale Erwärmung weniger als halb so hoch anstatt doppelt so hoch sein wird wie prophezeit, wollen wir mal die Mathematik für ihn durchgehen.

Aus Andrews 2012 geht hervor, dass der Strahlungsantrieb eines verdoppelten CO2-Gehaltes etwa 3,464 W/m² beträgt. Der Planck’sche Sensitivitäts-Parameter beträgt 0,299 K pro Watt pro m² (Schlesinger 1985). Folglich beträgt die Referenz-Sensitivität bei CO2-Verdoppelung vor Berücksichtigung der Rückkopplung das Produkt aus beidem: also 1,035 K.

Da die Differenz zwischen der Referenz- und der Gleichgewichts-Sensitivität allein durch den Rückkopplungs-Faktor zustande kommt (d. h. dem Bruchteil der Gleichgewichts-Temperatur, der durch Rückkopplung bestimmt wird), müssen wir lediglich jenen Rückkopplungs-Faktor herausfinden. Das ist der Heilige Gral der Studien zur Klimasensitivität.

Das IPCC erwähnt „Rückkopplung“ [feedback] über 1000 mal in seinem 5. Zustandsbericht 2013, hat aber keinerlei Ahnung über dessen wahren Wert. Warum nicht? Weil Hansen bei der NASA im Jahre 1985 einen haarsträubenden physikalischen Fehler gemacht hat, welchen Klimatologen seitdem immer wieder sehr profitabel kopiert haben.

James Hansen, Ex-Chef des NASA GISS, hätte man vielleicht verhaften sollen wegen schlechter Wissenschaft.

Nach Lacis et al. 2010 beträgt die Albedo beim Fehlen von Treibhausgasen 0,418 verglichen mit dem heutigen Wert von 0,293. Die Einstrahlung beträgt derzeit 1364,625 W/m² (Mekaouni et al. 2010). Hierzu sollten wir den direkten Antrieb von etwa 38,6 W/m² aus der Existenz nicht kondensierender Treibhausgase addieren. Mit diesen Daten sagt uns die grundlegende Gleichung des Strahlungstransports, dass die Emissionstemperatur, welche auf der Oberfläche beim Fehlen von Treibhausgasen herrschen würde, 254,3 K betragen würde vor irgendwelcher Berücksichtigung von Temperatur-Rückkopplungen.

Allerdings betrug die Oberflächen-Temperatur im Jahre 1850 vor irgendeiner anthropogenen Beeinflussung 287,55 K (HadCRUT4). Aus diesen Werten können wir direkt den bislang schwer fassbaren Rückkopplungs-Faktor ableiten. Er beträgt einfach 1 – 254,3/287,55 oder 0,116. Und nicht die von den üblichen Verdächtigen ins Spiel gebrachten 0,6 bis 0,9. Seit Hansens katastrophaler Studie aus dem Jahr 1984 hat die Klimawissenschaft im Endeffekt eine Gleichung zur Repräsentation des Einflusses von Rückkopplungen auf die Temperatur benutzt, die – obgleich nicht falsch – unvollständig ist und die daher den Rückkopplungs-Faktor gar nicht korrekt bestimmen kann.

Wie die offizielle Klimatologie die Sonne fälschlich hinaus expedierte und hinsichtlich der globalen Erwärmung falsch lag. Dessen Variante ist die Differenz zwischen zwei Gleichgewichts-Zuständen der vollständigen Mainstream-Gleichung.

Die falsche Variante der System-Erhaltungs-Gleichung [system-gain equation] der Klimatologie, welche in der Kontroll-Theorie allgemein ist – das Studium von Rückkopplungen in dynamischen Systemen (Systeme, die ihren Zustand mit der Zeit ändern) – ist im Grunde die Differenz zwischen zwei Gleichgewichts-Zuständen in der vollständigen Mainstream-Gleichung.

Da die Emissionstemperatur in allen Gleichgewichts-Zuständen die Gleiche ist, subtrahiert Hansens Anwendung einer Gleichung, welche diese Differenz beschreibt, die Sonnenwärme hinaus – der grundlegende Input, von welchem die Rückkopplungs-Reaktion abhängt. Darum ist der Rückkopplungs-Faktor bis jetzt um das Sechsfache und die Klima-Sensitivität um das Vierfache übertrieben worden.

Wie hat sich alles nun verändert seit dem Jahr 1850? Nun, es gab 2,29 W/m² gesamt-anthropogenen Antrieb (IPCC 2013, Abb. SPM.5). Man multipliziere diesen Wert mit dem Planck-Parameter 0,299, um die Referenz-Erwärmung von 1850 bis 2011 zu erhalten, welche dem Menschen zugeordnet werden kann: etwa 0,7 K. Aber es gab eine Erwärmung um 0,75 K von 1850 bis 2011 (wieder HadCRUT4), und dazu können wir noch 0,25 K addieren, so dass sich insgesamt 1 K ergibt, um dem „Strahlungs-Ungleichgewicht“, das man sich vorgestellt hat (und das vielleicht imaginär ist) von 0,6 W/m² über diesen Zeitraum, Rechnung zu tragen.

Also beträgt der Rückkopplungs-Faktor für das Jahr 2011 1 – (254,3 + 0,7) / (287,55 + 1,0) = 0,116. Das ist genau der gleiche Wert wie im Jahre 1850. Bis auf drei Dezimalstellen handelt es sich also um den gleichen Rückkoplungs-Faktor wie 1850. Warum nur so eine geringe Änderung? Der Grund ist, dass die Referenz-Erwärmung von 0,7 K durch den Einfluss des Menschen so winzig ist im Vergleich zu den 254,3 K Beitrag durch die Sonne und durch die schon immer vorhandenen Treibhausgase.

Da wir jetzt den Rückkopplungs-Faktor kennen, können wir die Gleichgewichts-Sensitivität bei einer Verdoppelung der CO2-Konzentration ableiten. Es ist einfach das Verhältnis der Referenz-Erwärmung von 1,035 K bei einer CO2-Verdoppelung auf (1 – 0,116), welche weniger als 1,2 K ausmacht. Es sind mit Sicherheit nicht die vom IPCC prophezeiten 1,5 bis 4,5 K und auch nicht die von den CMIP5-Modellen prophezeiten 2,1 bis 4,7 K – und mit Sicherheit nicht die 6,7 K, auf denen Doyles dummer, extremistischer Artikel fußt. Die Parteilinie kann die Mathematik nicht ersetzen.

Link: https://wattsupwiththat.com/2018/07/09/latest-paper-predicting-global-warming-could-be-far-worse-than-predicted-is-so-much-hot-air/

Übersetzt von Chris Frey EIKE




CO2-Klima­sensitivität im Sinkflug: Neues aus der Fachlite­ratur

ECS: Equilibrium climate sensitivity

bis zu 6°C Proistosescu & Huybers 2017
Pressemitteilung hier; ein wirklich heftiges Alarmpaper, das es wohl darauf anlegt, im 6. IPCC-Bericht zitiert zu werden und den Mittelwert aller Studien nach oben zu ziehen. Nic Lewis hat das Ganze detailliert auf Climate Audit auseinandergenommen.

3,7°C  Brown & Caldeira 2017
Auch dies wohl eher ein Ausreißer nach oben. Das gibt kräftig Fördergelder.

2,8°C Cox et al. 2018; Eingrenzung auf 2.2-3.4°C
Pressemitteilung hier. Die deutsche Presse berichtete eifrig über diese Studie: FAZ, Tagesspiegel, Spektrum

1,79°C Mauritsen & Pincus 2017
Siehe auch Beitrag im Kalte-Sonne-Blog.

1,4°C Orssengo 2018

1,3°C Spencer 2018
Szenario, dass nur 70% der Erwärmung der letzten 150 Jahre anthropogenen Ursprungs sind. Die mögliche Klimawirkung der Sonne ist in den meisten Berechnungen der Klimasensitivität gar nicht enthalten.

0°C Nikolov & Zeller 2017
CO2 ohne Klimawirkung?

Zum Vergleich: In unserem Buch ‘Die kalte Sonne’ stellten wir ein 1,5°C-Szenario dar. Das liegt am unteren Ende der Spannbreite des IPCC AR5-Berichts, 1,5-4,5°C.

TCR: Transient Climate Response

1,32 °C Mauritsen & Pincus 2017
Kalte-Sonne-Beitrag dazu ist hier.

1,29°C Bosse 2017

1,10°C Christy & McNider 2017
Bericht hierzu auf WUWT.

Zum Vergleich: Der TCR Durchschnitt aller Klimamodelle im IPCC AR5-Bericht betrug 2.31 °C.

Alles deutet auf eine seismische Verschiebung im Verständnis der CO2-Klimasensitivität im gerade entstehenden 6. IPCC-Bericht hin. Der ‘beste Schätzwert’ wird sich auf jeden Fall deutlich nach unten bewegen. Das bereitet eingefleischten Klimakämpfern natürlich bereits jetzt schon Bauchschmerzen. Sie bereiten die Welt bereits auf die Veränderungen behutsam vor. So schrieben Knutti et al. 2017 in Nature Geoscience, dass man auf jeden Fall die Treibhausgasemissionen weiter einschränken müsse, egal ob der Wert der CO2-Klimasensitivität nun möglicherweise niedriger liegt:

Jenseits der Gleichgewichts-Klimasensitivität ECS

Die Gleichgewichts-Klimasensitivität charakterisiert die langzeitliche Reaktion der globalen Temperatur auf eine gestiegene atmosphärische CO2-Konzentration. Sie hat als Einzelzahl fast den Status einer Ikone erreicht als Maßzahl, wie ernst die Klimaänderung sein wird. Der Konsens der „wahrscheinlichen“ Bandbreite der Klimasensitivität von 1,5°C bis 4,5°C von heute ist die Gleiche, welche Jule Charney schon im Jahre 1979 genannt hatte, doch basiert sie heute auf quantitativen Beweisen aus dem gesamten Klimasystem und über die gesamte Klima-Historie. Der Kreuzzug bzgl. der Klimasensitivität hat bedeutende Einsichten in die Zeitmaßstäbe der Reaktion des Klimasystems vermittelt, der natürlichen Variabilität und Grenzen von Beobachtungen und Klimamodellen. Aber es ergaben sich auch Bedenken hinsichtlich der einfachen Konzepte, welche der Klimasensitivität und dem Strahlungsantrieb zugrunde liegen. Dies wiederum ebnet den Weg zu einem besseren Verständnis der Klima-Reaktion auf Antriebe. Schätzungen der Transient Climate Response TCR sind eher abhängig von der beobachteten Erwärmung und sind relevanter für die Prognose der Erwärmung während der kommenden Jahrzehnte. Neuere Verknüpfungen, welche globale Erwärmung in direkte Relation zum insgesamt emittierten CO2 setzen zeigen, dass wenn man die Erwärmung unter 2°C halten will man die zukünftigen CO2-Emissionen stark limitieren muss, unabhängig davon, ob die Klimasensitivität hoch oder niedrig ist.

[Übersetzt von Chris Frey EIKE]

Dabei verschleiern die Autoren, dass Werte am unteren Ende des Spektrums eine deutlich weniger dramatische Lage repräsentieren als die höheren Werte, die uns vielleicht wirklich in eine Klimakatastrophe gestürzt hätten. Die Zeit der Rechtfertigungen hat begonnen, “wir haben es ja nur gut mit Euch gemeint”. Ebenfalls erst vor ein paar Monaten mussten Millar et al. 2017 einräumen, dass die Klimamodelle wohl in der Tat viel zu heiß laufen und das 1,5-Gradziel auch mit der dreifachen Menge an CO2-Emissionen erreicht werden kann.  

Andere wollen die neuen Realitäten immer noch nicht wahr haben. Ein Team um Kate Marvel (darunter auch der bekennende Klimaaktivist Gavin Schmidt) behauptete im Februar 2018 in den Geophysical Research Letters, dass die reale Temperaturentwicklung der letzten Jahrzehnte gar nicht dazu taugt, die CO2-Klimasensitivität zu berechnen. Korrekt wären vielmehr die theoretischen Simulationen aus dem Computer. Das hinterlässt einen schon ziemlich sprachlos. Nic Lewis analysierte das Paper und entdeckte eine Vielzahl von Problemen. Die Vorphase zum 6. IPCC-Bericht treibt wundersame Blüten. Beide Seiten laufen zu Höchstleistungen auf, um ihre Sichtweise zitierbar zu dokumentieren. Da scheinen auch die absurdesten Publikationen jetzt durchzukommen, wenn Gutachter mit ähnlicher Gesinnung gefunden werden können.

Link: http://www.kaltesonne.de/co2-klimasensitivitat-im-sinkflug-neues-aus-der-fachliteratur/




Schock-Studie: Formel berechnet präzise planeta­rische Tempera­turen OHNE Treibhaus­effekt und CO2

In einer neuen begutachteten wissenschaftlichen Studie, veröffentlicht im vorigen Dezember (2017) im Journal Earth Sciences sagt ein Student der Wissenschaft und des Ingenieurswesens an der Federation University (Australien) namens Robert Holmes, dass er vielleicht den Schlüssel gefunden habe, um uns verstehen zu lassen, wie Planeten mit einer dichten Atmosphäre (wie die Erde) eine bestimmte Temperatur von 288 K (Venus 740 K, Jupiter 165 K) „konstant“ [fixed] halten können, ohne dass ein planetarischer Treibhauseffekt oder Änderungen des atmosphärischen CO2-Gehaltes nötig sind.

Das ,Gedankenexperiment‘ Treibhauseffekt

Die vielleicht grundlegendste Konzeptualisierung in der Klimawissenschaft ist das „Gedankenexperiment“, mit dem man sich vorstellen kann, welche Temperatur auf der Erde vielleicht herrschen würde, falls es keinen Treibhauseffekt oder keine Atmosphäre gibt.

Dr. Gavin Schmidt, NASA  

Die Größe des Treibhauseffektes wird oftmals als die Differenz geschätzt zwischen der tatsächlichen globalen Temperatur und der Temperatur, die auf dem Planeten herrschen würde ohne jede atmosphärische Absorption, aber mit genau der gleichen planetarische Albedo, rund 33°C. Dies ist mehr ein ,Gedankenexperiment‘ als ein messbarer Zustand, aber es ist eine nützliche Grundlinie“.

Vereinfacht kann die global gemittelte Temperatur mit 288 K angegeben werden. Im „Gedankenexperiment“, in welchem eine imaginäre Erde keine Atmosphäre hätte (und folglich auch keine Treibhausgase absorbieren und die Wärme von der Oberfläche wieder emittieren kann), betrüge die Temperatur nur 255 K. Die Differenz zwischen der Temperatur auf der realen und der imaginären Erde ohne Atmosphäre beträgt 33 K, was bedeutet, dass es auf der Erde viel kälter (und diese damit unbewohnbar) wäre ohne die Gegenwart der Treibhausgase, welche die hypothetische „Wärmefalle“ bilden.

Von jenen 33 K Treibhauseffekt leiten sich der Vorstellung zufolge 20,6 K aus Wasserdampf-Teilchen in der Atmosphäre ab (1000 bis 40.000 ppmv), während man 7,2 K der „natürlichen“ (oder vorindustriellen) atmosphärischen CO2-Konzentration von 200 bis 280 ppm zuschreibt (Kramm et al., 2017).

Als „Gedankenexperiment“ fehlt es der entscheidenden Rolle der Erwärmung durch Wasserdampf-Teilchen und der CO2-Konzentrationen an Validierungen in der realen Welt. Zum Beispiel enthalten die Ozeane der Erde bereits 93% der Wärmeenergie des Planeten (Levitus et al., 2012), und bis heute gibt es keine physikalischen Messungen in der realen Welt, die zeigen, wie viel Erwärmung oder Abkühlung variierenden CO2-Konzentrationen geschuldet ist über einer Wasserfläche mit Volumen-Inkrementen von parts per million (0,000001). Konsequenz: Der CO2-Treibhauseffekt ist eine hypothetische, modellbasierte Konzeptualisierung.

Und während der letzten Jahre sind viele wissenschaftliche Studien veröffentlicht worden, welche nicht nur die Grundlagen des hypothetischen Treibhauseffektes auf der Erde in Frage stellen, sondern auch die Rolle von Treibhausgasen auf anderen Planeten mit dichten Atmosphären (wie der Venus) (Hertzberg et al., 2017Kramm et al., 2017Nikolov and Zeller, 2017 Allmendinger, 2017Lightfoot and Mamer, 2017Blaauw, 2017Davis et al., 2018). Die hier behandelte Studie von Holmes könnte vielleicht die jüngste derartige Studie sein.

,Extrem genaue‘ planetarische Temperatur-Berechnungen mit der Druck-Dichte-Massen-Formel

Holmes argumentiert, dass die mittlere Temperatur von 8 planetarischen Körpern mit dichten Atmosphären (0,1 bar oder mehr) präzise mit „extremer“ Genauigkeit vermessen werden kann – mit einer Fehler-Bandbreite von lediglich 1,2% – mittels Anwendung einer Formel, die von der Kenntnis von drei Parametern abhängt: 1) des mittleren atmosphärischen Drucks an der Oberfläche, 2) der mittleren atmosphärischen Dichte an der Oberfläche und 3) der mittleren molaren Masse der oberflächennahen Atmosphäre.

Holmes zog die Werte der abgeleiteten Druck/Dichte/Masse für jeden planetarischen Körper heran. Dann berechnete er mit diesen Zahlen die Temperaturen der Planeten.

Die berechnete Temperatur der Venus ergab sich mit dieser Formel zu 739,7 K. Die gemessene Temperatur dort beträgt 740 K. Dies zeigt, dass die Genauigkeit der Formel für die Venus eine Fehlerbandbreite von lediglich 0,04% aufweist.

Mit den Werten von Druck/Dichte/Masse auf der Erde errechnet sich mit Holmes‘ Formel eine Temperatur von 288,14 K. Die gemessene Temperatur der Erde beträgt 288 K, passt also genau.

Die berechnete Temperatur auf dem Saturn beträgt 132,8 K. Die gemessene Temperatur dort beträgt 134 K – eine Fehlerbandbreite von nur 0,89%.

Die eindrucksvolle Genauigkeit der Formel wird in der folgenden Zusammenstellung illustriert (Tabelle 1 und Abbildung 2):

Atmosphärischer Druck/Dichte und Temperatur nahe der Oberfläche

Zum größten Teil ist die Dichte einer Planetenatmosphäre eine primäre Bestimmungsgröße von deren Temperatur. Planeten mit dichten Atmosphären sind wärmer, solche mit dünnen Atmosphären kälter. Je weiter man sich von der Oberfläche entfernt, umso geringer sind Druck und Gravitation und umso kälter wird es. Und umgekehrt.

Sciencing.com

Im Allgemeinen ist die Atmosphäre eines Planeten umso dünner, je schwächer dessen Gravitation ist. Ein Planet mit schwacher Gravitation neigt dazu, weniger Masse zu haben und mehr seiner Atmosphäre in den Weltraum entweichen zu lassen. Folglich hängt die Dichte einer Atmosphäre von der Stärke der Gravitation ab. Beispiel: Die Gravitation des Planeten Jupiter ist 318 mal stärker als die der Erde, und folglich ist die Atmosphäre viel dichter als die irdische Atmosphäre. Die Gravitation wird umso schwächer, je weiter man von einem Planeten entfernt ist, und darum wird die Atmosphäre an der Oberfläche am dichtesten sein“.

Eine mühelose Illustration der Effekte des atmosphärischen Luftdrucks auf die Temperaturen eines Planeten wie die Erde kann man im Grand Canyon im Südwesten der USA finden. Der nördliche Rand liegt etwa 305 Meter höher als der südliche Rand. Interessanterweise ist es auch am nördlichen Rand rund 5°C kälter als am südlichen Rand – geschuldet dem Einfluss des atmosphärischen Drucks und der Gravitation. Am Grund des Canyons ist es rund 11 bis 14°C wärmer als an den oberen Rändern. Dieser erhebliche Temperaturgegensatz ist völlig unabhängig von irgendwelchen Treibhausgas-Konzentrationen an beiden Stellen, und es hängt auch nicht vom Sonnenlicht ab. Es ist der Unterschied in der Gravitation, welcher die Wärmedivergenz erzeugt.

Subia, 2014

Höhe über NN und Jahreszeit bestimmen die mittleren Temperaturen im Grand Canyon. Die mittlere Höhe der oberen Ränder am südlichen Ende beträgt etwa 2100 m ü. NN, am nördlichen Ende etwa 2400 m ü. NN. Je höher, desto kälter. Zu jeder gegebenen Zeit wird es am nördlichen Ende rund 4 bis 5 Grad kälter sein als am südlichen Ende. … Direkt am Grund des Canyons kann es rund 11 bis 14°C wärmer sein als auf den jeweiligen oberen Rändern“.

Sensitivität bzgl. Änderungen der CO2-Konzentration „extrem gering“

Holmes weist darauf hin, dass die Implikationen seiner präzisen Berechnung planetarischer Temperaturen unabdingbar zu der Schlussfolgerung führen, dass es keinerlei Treibhauseffekten oder Existenz von Treibhausgasen bedarf, um eine hypothetische „Wärmefalle“ zu erzeugen. Stattdessen, so schreibt er, „können planetarische Körper mit dichten Atmosphären nicht durch den ,Treibhauseffekt‘ bestimmt werden, sondern höchstwahrscheinlich durch Auswirkungen von Strömungsdynamik und namentlich adiabatischer Autokompression“.

Der Effekt schließt die Möglichkeit aus, dass CO2 ein vorherrschender Klimatreiber ist.

Tatsächlich beträgt Holmes‘ Berechnung der CO2-Klimasensitivität (bei einer Verdoppelung von 0,03% auf 0,06%) -0,03°C.

Wie er in seiner Schlussfolgerung offensichtlich untertrieben schreibt: „Diese Klimasensitivität ist schon so gering, dass es unmöglich ist, sie in der realen Atmosphäre aufzuspüren oder zu messen“.

Holmes, 2017

Molare-Masse-Version der Gasgleichung für ideale Gase weist auf eine sehr geringe Klimasensitivität

Introduction

Hier wird ein einfaches und zuverlässiges Verfahren gezeigt, mit dem man die mittlere atmosphärische Temperatur nahe der Oberflächen planetarischer Körper berechnen kann, welche an der Oberfläche einen atmosphärischen Druck von über 10 kPa (eine dichte Atmosphäre mit 0,1 bar oder mehr) aufweisen. Dieses Verfahren erfordert eine Gaskonstante und Kenntnis von lediglich drei Parametern: 1) des mittleren atmosphärischen Drucks an der Oberfläche, 2) der mittleren atmosphärischen Dichte an der Oberfläche und 3) der mittleren molaren Masse der oberflächennahen Atmosphäre. Die angewendete Formel ist eine molare Version der Zustandsgleichung für ideale Gase.

Hier wird gezeigt, dass die Informationen in diesen drei Gas-Parametern allein ein extrem guter Prädiktor für Temperaturen auf Planeten mit einem atmosphärischen Druck über 10 kPa sind. Dies zeigt, dass alle Informationen über die effektive plus die oberflächennahe atmosphärische Temperatur auf Planeten mit dichten Atmosphären automatisch von diesen drei Gas-Parametern festgelegt wird.

Diese Formel erweist sich nicht nur als viel genauer als jedes andere bisher angewendete Verfahren, sondern ist auch viel einfacher zu berechnen. Man braucht keinen Input von Parametern, die man früher als essentiell erachtete: solare Einstrahlung, Albedo, Treibhausgasgehalt, ozeanische Zirkulation und Wolkenbedeckung neben vielen Weiteren.

Damit wird hier gezeigt, dass kein einzelnes Gas anomale Auswirkungen auf atmosphärische Temperaturen hat, die stärker sind als bei jedem anderen Gas.

Kurz gesagt: Es kann keinen 33°C-,Treibhauseffekt‘ auf der Erde geben oder irgendwelche signifikanten ,Treibhauseffekte‘ auf irgendwelchen anderen planetaren Körpern mit einer Atmosphäre von über 10 kPa.

Die Formel: Ein ,extrem genauer Prädiktor‘ planetarischer Temperaturen

Die hier vertretene Hypothese lautet, dass im Falle der Erde die Sonneneinstrahlung die ,ersten‘ 255 K liefert – in Übereinstimmung mit der Schwarzkörper-Gleichung (11). Adiabatische Auto-Kompression liefert die ,übrigen‘ 33 K, so dass die bekannte und gemessene mittlere globale Temperatur von 288 K erreicht wird. Diese ,anderen‘ 33 K können nicht dem Treibhauseffekt geschuldet sein, weil wenn das doch so wäre die molare-Masse-Version der Gleichung für ideale Gase dann nicht herangezogen werden könnte, um planetarische Temperaturen genau zu berechnen, wie es hier eindeutig mit dieser Gleichung möglich ist.

Es ist offensichtlich, dass sich mit dieser einfachen Gleichung die ,Oberflächen‘-Temperaturen vieler planetarer Körper in unserem Sonnensystem genau berechnen lassen (Abbildung 2).

Dies gilt besonders für Körper, deren Atmosphären dicht genug sind, um eine Troposphäre entstehen zu lassen (d. h. einen atmosphärischen Druck über 10 kPa oder 0,1 bar aufweisen). Dazu zählen: Venus Erde, Jupiter, Saturn, Titan, Uranus und Neptun. Alle für diese Planeten berechneten Temperaturen liegen innerhalb einer Fehlerbandbreite von 1,2% bzgl. den von der NASA gemessenen ,Oberflächen‘-Temperaturen (außer beim Mars, der hier ausgeschlossen ist: sein atmosphärischer Druck ist viel geringer als 10 kPa). Diese Genauigkeit wird erreicht ohne Anwendung der Stefan-Boltzmann-Schwarzkörpergleichung und ohne die Einbeziehung von Termen für Parameter wie TSI-Niveau, Albedo, Wolken, Treibhauseffekt oder adiabatische Auto-Kompression. Alles was man braucht, um die oberflächennahe Temperatur genau zu berechnen, ist die relevante Gaskonstante und die Werte der drei variablen Gas-Parameter.

Die Implikationen: CO2-Klimasensitivität (-0,03°C) ist ,extrem gering‘

Ein paar Überlegungen hinsichtlich der Einfachheit und Genauigkeit dieser Ergebnisse werden einem unvoreingenommenen Menschen die offensichtlichen Implikationen dieser Arbeit vor Augen führen – als da wären, dass die residualen oberflächennahen Temperaturen auf planetaren Körpern mit dichten Atmosphären nicht durch den ,Treibhauseffekt‘ bestimmt werden können (residual bedeutet hier den Unterschied zwischen den Ergebnissen aus der Stefan-Boltzmann-Gleichung und der tatsächlichen Temperatur). Stattdessen sind dafür höchstwahrscheinlich Effekte durch Strömungsdynamik, namentlich adiabatische Autokompression ursächlich.

Eine weitere Implikation führt direkt zu der Schlussfolgerung, dass die Klimasensitivität bei einer beispielsweisen Verdoppelung der atmosphärischen CO2-Konzentration augenblicklich Auswirkungen zeigen müsste und auch extrem gering wäre. Diesem Szenario zufolge kann die Klimasensitivität bzgl. CO2 kaum anders sein als durch das Hinzufügen irgendeines anderen Gases in ähnlicher Quantität.

Vor allem die hier gezeigten Formeln 5 (und 6) schließen jedwede Möglichkeit komplett aus, dass ein Treibhauseffekt von 33°C von der Art, wie er vom IPCC in dessen Berichten kolportiert wird (23), in der realen Atmosphäre überhaupt existieren kann. Grund hierfür ist, dass das IPCC in seinen Berichten schreibt, dass eine Zunahme des atmosphärischen CO2-Gehaltes um 0,03% (300 ppm), also eine Verdoppelung, zu einem globalen Temperaturanstieg von ~3°C führen muss (mit einer Bandbreite von 1,5°C bis 4,5°C, was sich seit 1990 kaum geändert hat) (24). Das ist die so genannte ,Klimasensitivität‘. Dass diese Größenordnung der Erwärmung durch eine so geringe Änderung des Gasgehaltes verursacht wird, ist nach der Molaren-Masse-Version der Zustandsgleichung für ideale Gase ausgeschlossen.

Rechnung für eine Verdoppelung des CO2-Gehaltes seit vorindustrieller Zeit von 0,03% (300 ppm):

Berechnete Temperatur nach einer Verdoppelung des CO2-Gehaltes auf 0,06% ≈ 288,11 K.

Klimasensitivität bzgl. CO2 288,14 – 288,11 -0,03 K.

Die Änderung wäre tatsächlich extrem klein und schwierig genau abzuschätzen und würde eine Größenordnung von -0,03°C aufweisen. Das ist einhundert mal kleiner als die ,wahrscheinliche‘ Klimasensitivität von 3°C, wie sie vom IPCC in seinen Berichten genannt ist, und vermutlich auch mit umgekehrtem Vorzeichen (Abkühlung). Aber selbst diese geringe Zahl wäre wahrscheinlich schon die maximale Änderung. Werden nämlich fossile Treibstoffe verbrannt, welche das CO2 emittieren, wird auch atmosphärischer Sauerstoff (O2) verbraucht, was dieses Gas in der Atmosphäre reduziert – und was jede durch zusätzliches CO2 erzeugte Temperaturänderung ausgleicht. Die Klimasensitivität ist bereits so gering, dass es unmöglich ist, sie in der realen Atmosphäre aufzuspüren oder zu messen, selbst vor irgendeiner Berücksichtigung des Verbrauchs atmosphärischen Sauerstoffs.

Link: http://notrickszone.com/2018/02/05/shock-paper-cites-formula-that-precisely-calculates-planetary-temps-without-greenhouse-effect-co2/#sthash.4XRRV5WA.dpbs

Übersetzt von Chris Frey EIKE

Anmerkung der Redaktion: Dieser Beitrag wird wieder heftige Kontroversen auslösen. Und das ist im Sinne der Wissenschaft. Als Anregung mag dieser Artikel von Willis Eschenbach dienen der sich mit dem Verhalten des idealen Gases in Bezug auf die Ergebnisse des Autors bezieht.




Und noch eine Schätzung einer sehr geringen Klima-Sensitivität

Wie versprochen schreiben wir hier etwas über eine weitere veröffentlichte Schätzung der Gleichgewichts-Klimasensitivität der Erde, welche am unteren Ende der vom IPCC genannten Bandbreite der Möglichkeiten liegt.

Man erinnere sich, dass die Gleichgewichts-Klimasensitivität bestimmt, wie stark die Temperatur der Erde steigen wird bei einer Verdoppelung der vorindustriellen atmosphärischen CO2-Konzentration. Als solcher ist es möglicherweise DER wichtigste Faktor bei der Entscheidung, ob wir „etwas tun müssen“, um einen zukünftigen Klimawandel abzuschwächen. Geringere Sensitivität bedeutet geringere Dringlichkeit, und falls die Sensitivität gering genug ist, ergeben sich aus CO2-Emissionen insgesamt nur Vorteile.

Und trotz der allgemeinen Behauptung, dass „die Wissenschaft settled“ sei, wenn es um die globale Erwärmung geht, erfahren wir immer noch täglich mehr über das komplexe Klimasystem der Erde – und je mehr wir erfahren, umso schwächer scheint die Reaktion der Temperatur auf menschliche CO2-Emissionen zu sein.

Die jüngste Studie, in der eine geringe Klimasensitivität berechnet wird, stammt von dem unabhängigen Wissenschaftler Nic Lewis. Die Veröffentlichung der Studie im Journal of Climate ist geplant. Lewis‘ Studie ist eine mathematisch ziemlich komplizierte Reanalyse einer früheren, ebenfalls mathematisch komplizierten Analyse, welche die gemesse globale Temperaturänderung in Übereinstimmung bringt mit der simulierten Temperaturänderung eines einfachen Klimamodells mit einem konfigurierbaren Satz von Parametern, deren tatsächliche Werte weitgehend unbekannt sind, die aber in Modellsimulationen eingehen können: Indem man die Werte dieser Parameter in den Modellen variiert und dann schaut, wie gut die sich ergebende Temperatur zu den Beobachtungen passt, kann man Hinweise darauf bekommen, welches die Werte dieser Parameter in der realen Welt sind. Und der am meisten interessierende Parameter ist die Gleichgewichts-Klimasensitivität. Lewis‘ Studie enthält auch zusätzliche Modelljahre und zusätzliche Jahre mit Messungen einschließlich vieler Jahre während des gegenwärtigen Temperatur-„Stillstandes“.

Wir haben nun etwas in ähnlichem Stil gemacht und es bereits im Jahre 2002 veröffentlicht. Wir waren damals zu dem gleichen Ergebnis gekommen wie Lewis heute: eine substantiell geringere Erwärmung. Wir wurden angemessen „belohnt“ ob unserer Bemühungen seitens der Klimagate-Mafia. Diese hatte versucht, 1) die Studie zurückzuziehen, 2) die Herausgeber zu feuern – nicht nur von dem Journal, sondern gleich von der Auckland University und 3) eine Nachuntersuchung anzustrengen meines (Michaels) PhD von der University of Wisconsin.

Lewis folgert, dass die mittlere Schätzung der Gleichgewichts-Klimasensitivität 1,6°C beträgt

mit einer Bandbreite von 90% zwischen 1,0°C und 3,0°C. (Das ist fast genau der gleiche Wert, zu dem wir vor 11 Jahren gekommen waren).

Auf der Grundlage dieses Ergebnisses heißen wir die Studie von Lewis (2013) auf der wachsenden Liste von Ergebnissen willkommen, welche in der wissenschaftlichen Literatur seit dem Jahr 2010 veröffentlicht worden waren und die eine Klimasensitivität am unteren Ende der vom IPCC genannten Bandbreite zeigen. Gott weiß, welche Inhalte die Climategaters jetzt austauschen.

Abbildung 1 illustriert alle neuen Ergebnisse ebenso wie die vom IPCC genannten Werte:

Man beachte besonders die neuen Ergebnisse (und deren Mittel) in Relation zu dem schwarzen Balken oben mit der Bezeichnung „IPCC AR5 Climate Models”. Von den 19 hypermodernen Klimamodellen, welche in den neuesten, noch im Entwurfsstadium befindlichen Zustandsbericht Eingang finden, zeigen genau NULL Modelle eine Gleichgewichts-Klimasensitivität, die ähnlich niedrig ist wie der mittlere Wert der Schätzungen in der neuen Literatur, die wir in unserer Abbildung zeigen.

Auf der Grundlage der in Abbildung 1 gezeigten Sammlung von Ergebnissen ergibt sich: die Projektionen zukünftiger Klimaänderungen, die demnächst vom IPCC veröffentlicht werden, weichen im Mittel um atemberaubende 70% vom IPCC-Wert ab.

Kein Wunder, dass das IPCC so zögerlich ist, ihr Best Estimate des tatsächlichen Wertes der Gleichgewichts-Klimasensitivität der Erde zu senken. Falls es das tun würde, würden sie einräumen, dass die von ihnen gewählte Masse der Klimamodelle zur Projektion des zukünftigen Klimas der Erde – nun, sollen wir es so sagen – falsch! sind … was bedeutet, dass dies auch für die Rate gilt, mit welcher der Himmel herabfällt, jedenfalls nach USGCRP und der EPA in den USA.

Wir am Cato Center for the Study of Science werden fortfahren mit unseren Bemühungen, den sich entwickelnden Zustand der Klimawissenschaft zu beleuchten und die Möchtegern-Mächte zu überzeugen versuchen, dass nationale und internationale Abschätzungen, auf denen die EPA-Vorschriften beruhen, (ebenso wie verrückte Forderungen nach einer Kohlenstoff-Steuer), so grandios falsch sind. Wir haben es in unserer Begutachtung vom 12. April der „National Assessment“ der USGCRP so ausgedrückt: „Die Nationale Klima-Abschätzung wird am Tag ihrer offiziellen Veröffentlichung obsolet sein“.

References:

Aldrin, M., et al., 2012. Bayesian estimation of climate sensitivity based on a simple climate model fitted to observations of hemispheric temperature and global ocean heat content. Environmetrics, doi: 10.1002/env.2140.

Annan, J.D., and J.C Hargreaves, 2011. On the genera­tion and interpretation of probabilistic estimates of climate sensitivity. Climatic Change, 104, 324-436.

Hargreaves, J.C., et al., 2012. Can the Last Glacial Maximum constrain climate sensitivity? Geophysical Research Letters, 39, L24702, doi: 10.1029/2012GL053872

Intergovernmental Panel on Climate Change, 2007. Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Solomon, S., et al. (eds). Cambridge University Press, Cambridge, 996pp.

Lewis, N. 2013. An objective Bayesian, improved approach for applying optimal fingerprint techniques to estimate climate sensitivity. Journal of Climate, doi: 10.1175/JCLI-D-12-00473.1.

Lindzen, R.S., and Y-S. Choi, 2011. On the observational determination of climate sensitivity and its implica­tions. Asia-Pacific Journal of Atmospheric Science,47, 377-390.

Michaels, P.J., et al., 2002. Revised 21st century temperature projections. Climate Research, 23, 1-9.

Ring, M.J., et al., 2012. Causes of the global warming observed since the 19th century. Atmospheric and Climate Sciences, 2, 401-415, doi: 10.4236/acs.2012.24035.

Schmittner,  A., et al. 2011. Climate sensitivity estimat­ed from temperature reconstructions of the Last Glacial Maximum. Science, 334, 1385-1388, doi: 10.1126/science.1203513.

van Hateren, J.H., 2012. A fractal climate response function can simulate global average temperature trends of the modern era and the past millennium. Climate Dynamics,  doi: 10.1007/s00382-012-1375-3.

Link: https://www.cato.org/blog/still-another-low-climate-sensitivity-estimate-0

Übersetzt von Chris Frey EIKE




10. IKEK – Das Experiment Teil II: Auswertung des 2-tägigen „Al-Gore Experiment“

Dann wiederholte man das „Al Gore – Experiment “ in einem Behältnis mit (auch infrarot-durchlässiger) Plastikabdeckung (Wrap – Plastikfolie einer Küchenrolle) und 100 % CO2 Füllung und versuchte im Anschluss, mittels Feindosierung des CO2 Gehaltes im Behälter mit Verdopplung und Vervierfachung des CO2 Gehaltes die sog. Klimasensitivität zu bestimmen. Für die Erwärmung des Inhaltes wurden alternativ verschiedene Quellen, wie die Sonne, Halogenleuchten bzw. Heizwendeln, verwendet.

Video des Vortrags zum 2. Teil des „Al Gore-Experimentes“ von Jan Eric Solheim mit anschließender Fachdiskussion

100 % CO2

Ein weiterer Vor-Versuch (Min. 3:31) diente der Klärung ob sich eine 100 % CO2 Füllung anders erwärmt als eine solche mit Luft. Ein Unterschied – so Solheim – sei nicht erkennbar. (Anm. der Redaktion: Man sieht aber am Ende der rosa Kurve eine Abweichung von – 0,4 bis -0,5 °C; diese wurde nicht erklärt, es wurde auch nicht danach gefragt)

Außenmessung

Ein weitere Versuchsreihe wurde außen durchgeführt um Unterschiede zwischen den Halogenleuchten auszuschließen. Das war jedoch in Norwegen mit den wenigen Sonnentagen äußerst schwierig.

Klimasensitivität.

Es wurde dann versucht die Klimasensitivität ECS zu bestimmen. Dazu wurde die der CO2 Anteil der inneren Luft verdoppelt, vervierfacht und verachtfacht und jeweils erneut der Anstieg der Temperatur gemessen.
Daraus errechnet sich unter sonnengleichen Erwärmung der (verblüffende) negative Wert unter von – 0,11 ± 0,11 °C.
Das bedeutet, dass das Zuführen von CO2 statt zu Erwärmung zu führen, die Innenatmosphäre kühlt. Eine Erklärung dafür hatte Eric Solheim nicht anzubieten, sondern überließ das dem Publikum.
Um all das zu überprüfen wurde nochmals eine neue Reihe von Kästen gebaut, die kurz vor der Reise nach Berlin in Betrieb gingen. Dabei wurde während eines Versuchs, die Plastikabdeckung durch eine Glasabdeckung ersetzt. Nach der Rückerwärmung zeigte sich, dass die Temperatur im Kasten mit der Glasabdeckung niemals die der Plastikabdeckung überstieg.

Dann wurde der Innenluft CO2 in 100 ml Dosierung zugeführt mit dem Ergebnis, dass die Innentemperatur sank.

CO2 kühlt die Luft im Innern der Kästen.

Auch der nächste Versuch zeigt deutlich sowohl die Kühlwirkung einer Glasabdeckung (gegenüber Plastik) als auch einer 100 % CO2 Füllung (Al Gore Experiment)

Diskussion

Im Folgenden geht Prof. Solheim detaillierter auf das Experiment zur Bestimmung der Klimasensitivität ein. Bei mit präzis bestimmten Energiemengen die mittels Heizwendeln zugeführt werden, ergibt sich ebenfalls eine negative Klimasensitivität, diesmal aber mit einem Wert von -0,3± 0,1 °C. „In diesen Kästen..“ wie der Vortragende nicht vergisst zu erwähnen.

Anschließend begann sofort eine heftige Diskussion. Es gab viele kluge, meist Kontra-Stellungnahmen, aber eine endgültige Erklärung wurde mangels Zeit ggf. unter veränderten Bedingungen den Versuch zu wiederholen, verständlicherweise nicht erreicht.




Interview mit Prof. William Happer

TheBestSchools

Prof. Happer: Vielen Dank, dass Sie sich für dieses Interview bereit erklärt haben und an einer Diskussion mit dem australischen Physiker David Karoly teilnehmen. Die Kontroverse um die globale Erwärmung ist sowohl außerordentlich kompliziert und hoch emotional aufgeladen. In diesem Interview werden wir das Ganze aus verschiedenen Blickwinkeln betrachten, die sowohl wissenschaftlicher als auch politischer Natur sind.

Im Folgenden beschreibt Happer, Jahrgang 1939, seinen Lebenslauf, der ihn nach dem 2. Weltkrieg in die JASON-Gruppe führte, eine Gruppe von Wissenschaftlern, die für die US-Regierung geheime und nicht geheime Studien durchführte. Dabei wurde er auch ins Energieministerium berufen. Hier wurde er später konfrontiert mit der regierungsamtlichen Propaganda bzgl. Klimawandel, der er zunächst folgte, bis ihn die schrillen Dissonanzen in der Argumentation störten. So kam es, dass er von seinem vieljährigen Posten am Energieministerium gefeuert wurde nach Amtsantritt der Bill Clinton/Al Gore-Regierung, weil er die Al Gore-Behauptungen zu hinterfragen gewagt hatte. Seitdem wurde er zu einem Vertreter der Klimaskeptiker, und als solcher wurde er auch interviewt.

————————————–

Gleich bei der ersten Frage des Interviews beschreibt Happer, wie die Destruktiv-Organisation Greenpeace gegen ihn vorgegangen war. Weil dies beispielhaft stehen kann für das, was viele ehrliche und der wirklichen Wissenschaft verpflichteten Forscher widerfahren kann, wird Happers Antwort hier in ganzer Länge übersetzt:

TheBestSchool

Wir haben erfahren, dass Sie jüngst Opfer einer von Greenpeace organisierten „verdeckten“ Operation geworden sind. Verleumderische Behauptungen darüber, wie sie da herausgekommen sind, gibt es im Internet zuhauf, selbst in Ihrem Wikipedia-Beitrag. Würden Sie uns vielleicht kurz Ihre Seite der Story erzählen?

William Happer

Greenpeace ist eine der vielen Organisationen, die mit dem Alarmismus hinsichtlich einer vermeintlichen Bedrohung durch globale Erwärmung sehr gut leben kann. Sie sind nicht in der Lage, die auf extrem schwachen Füßen stehende Wissenschaft zu verteidigen. Darum dämonisieren sie nicht nur den vermeintlichen „Verschmutzer“, also das atmosphärische CO2, sondern auch sämtliche Wissenschaftler, die ihre Propaganda effektiv widerlegen.

Ich glaube, ich sollte mich geschmeichelt fühlen, eines ihrer Opfer zu sein: je mehr Feinde, je mehr Ehre [das steht so im Original, gefolgt von einer sinngemäßen Übersetzung ins Englische! Anm. d. Übers.], wie es in einem alten Sprichwort aus Deutschland heißt. Aber meine Erfahrungen in dieser Hinsicht verblassen doch sehr im Vergleich zu dem, was man Wissenschaftlern wie Willie Soon, Patrick Michaels und anderen angetan hat, welche nicht nur verunglimpft, sondern gleich von ihren Arbeitsstellen vertrieben wurden.

Die Schmierenkampagne begann im Jahre 2015, als ich eine E-Mail von einem Greenpeace-Agenten erhielt, der sich als ein Repräsentant eines „Kunden“ in Nahost ausgab. Er wollte, dass ich etwas über die Vorteile von CO2 schreibe. Wie ich weiter unten ausführen werde, habe ich schon sehr lange die Ansicht vertreten, dass mehr CO2 vorteilhaft für die Erde ist, hauptsächlich weil die Pflanzen damit effektiver gedeihen und ihre Widerstandskraft gegen Dürren stärken, und weil die Erwärmung durch mehr CO2, wie es von den Modellen des Establishments prophezeit wird, um einen Faktor drei oder mehr übertrieben wird.

Seit Jahren habe ich jeden nur denkbaren Weg benutzt, um die guten Nachrichten über die Vorteile von CO2 zu verbreiten. Daher rannte man bei mir offene Türen ein, ein Op-Ed oder einen Beitrag zu diesem Thema für den Kunden zu schreiben. So weit es mich betraf, benutzte ich den Kunden, nicht vice versa. Ich empfehle jedem geneigten Leser mit Interesse an dieser Episode, den vollständigen E-Mail-Austausch zwischen mir und dem Greenpeace-Agenten zu lesen. Er ist im Internet einsehbar.

In einer der ersten E-Mails mit Datum 3. 11. 2015 stellte ich fest:

Ich würde sehr gerne helfen, falls meine Standpunkte, umrissen in den Anhängen, auf einer Linie liegen mit denen Ihres Kunden.

Der Satz macht klar, dass ich lediglich daran interessiert war, dem „Kunden“ zu helfen, meine schon lange gehegten Ansichten zu publizieren und nicht hausieren zu gehen damit, was auch immer der „Kunde“ im Sinn hatte.

Man beachte auch die Bemerkungen in meiner E-Mail-Antwort vom 5. 11. 2015:

Um sicherzustellen, dass Ihr Kunde durch meine Ansichten nicht in die Irre geführt wird, stelle ich klar, dass es sehr wohl reale Verschmutzer im Zusammenhang mit der Verbrennung fossiler Treibstoffe gibt, als da wären Oxide von Schwefel und Stickstoff, fliegende Asche und Schwermetalle bei Kohle, volatile organische Stoffe bei Benzin, usw. Ich stehe voll hinter Vorschriften für die kosteneffektive Kontrolle dieser realen Verschmutzer. Aber die Klimagespräche in Paris basieren auf der Prämisse, dass CO2 selbst ein Verschmutzer ist. Das ist komplett falsch. Mehr CO2 wird der Welt zum Vorteil gereichen. Der einzige Weg, CO2 zu limitieren, wäre es, keine fossilen Treibstoffe mehr zu verwenden. Das jedoch, so glaube ich, wäre eine ausgesprochen unmoralische und irrationale Politik.

Der Schlussabschnitt meiner Mail vom 5. 11. 2015 lautet:

Meine Aktivitäten, den Klima-Extremismus zurückzudrängen, führe ich als ein Herzensanliegen meinerseits durch, um die in Ehren gehaltenen Ideale der Wissenschaft zu verteidigen, die so stark korrumpiert sind durch den Klimawandel-Kult. Falls Ihr Kunde überlegt, mich zu entlohnen, falls ich etwas schreibe, würde ich fordern, dass eine wie auch immer geartete Entlohnung direkt an die CO2-Koalition geht. Dies war das Arrangement, welches ich mit den Anwälten vereinbart hatte, die die Peabody Coal Company bei den Anhörungen in Minnesota vertraten. Die Entlohnung, die ich erhalten hätte, wurde nicht an mich gezahlt, sondern an die CO2-Koalition, einer von Steuern befreiten, uneigennützigen Bildungsorganisation. Die CO2-Koalition deckt mitunter Reisekosten von mir ab, zahlt mir aber darüber hinaus keinerlei Gehalt.

Ich habe niemals auch nur einen Penny für irgendeine meiner Aktivitäten zur Aufklärung der Öffentlichkeit bzgl. der Vorteile von CO2 für die Welt genommen.

Daran kann man erkennen, dass ich etwas gratis schreiben würde als eine „Arbeit des Herzens“, solange nur gewährleistet war, dass meine Botschaft (nicht die Botschaft des „Kunden“) noch mehr Menschen erreicht. Die erwähnte CO2-Koalition ist eine neue, von Steuern befreite nichtkommerzielle Organisation, welche meine Freunde zusammen mit mir ins Leben gerufen hatten, um die guten Nachrichten über CO2 noch weiter zu verbreiten. Ich denke, man könnte es eine „Anti-CO2-Diffamierungs-Liga“ bezeichnen. Die Koalition führt eine Von-Der-Hand-In-Den-Mund-Existenz, mit einem Jahresbudget unter 200.000 Dollar pro Jahr. Selbst ein paar tausend Dollar von dem „Kunden“ würden helfen, die Lichter nicht ausgehen zu lassen. Als ich es zum letzten Mal gecheckt hatte, verfügt Greenpeace über ein Jahresbudget von 350 Millionen Dollar, das ist über 300 mal so viel wie das Budget der Koalition.

Noch einmal, ich habe niemals auch nur einen Penny genommen für meine Aktionen, der Öffentlichkeit nahezubringen, dass mehr CO2 der Welt zum Vorteil gereicht. Ich habe sogar Tausende Dollar meines mäßigen Universitäts-Gehaltes für diesen Zweck geopfert. Falls irgendein Leser dieses Interviews der Koalition helfen möchte, kann er weitere Informationen und wie man spenden kann auf der Website der CO2-Koalition finden.

Unter den Folgen der Greenpeace-Schmähkampagne waren viele böse, obszöne Telefonanrufe und E-Mails, in denen ich, meine Familie und sogar meine Enkelkinder bedroht wurden*. George Orwell hat diese Taktiken in seinem Roman 1984 beschrieben, in dem er die täglichen obligatorischen „Zwei Minuten Hass“ auf Emmanuel Goldstein (Leo Trotzky) und seine Agenten beschrieb, die die Feinde von Big Brother (Stalin) und seinen Schergen waren.

[*Hervorhebung vom Übersetzer!]

Greenpeace und weitere, sogar noch fanatischere Elemente der Globale-Erwärmung-Bewegung stehen in vollem Umfang hinter der historischen Lüge, dass ihr ideologisches Ziel – die Eliminierung fossiler Treibstoffe – jedwede Mittel rechtfertigt, einschließlich der Verfälschung wissenschaftlicher Daten und Rufmord ihrer Gegner.

Aber Kipling hat recht: wir werden siegen:

If you can bear to hear the truth you’ve spoken
Twisted by knaves to make a trap for fools,
Or watch the things you gave your life to, broken,
And stoop and build ’em up with worn-out tools.

[Die nächste Frage von TheBestSchools befasst sich mit dem allgemeinen CO2-Narrativ, welches in Politik und Medien auf und ab kolportiert wird. Happer sagt dazu:]

William Happer

Lassen Sie mich zunächst auf die Stichworte eingehen, die Sie genannt haben. Ja, das CO2-Niveau ist gestiegen, und zwar um etwa zwei ppm pro Jahr während der letzten Jahre. Ja, CO2 ist ein „Treibhausgas“. Das heißt, es ist teilweise undurchlässig für die thermische Infrarotstrahlung der Erdoberfläche, aber transparent für das meiste Sonnenlicht. Die weitaus größten Anteile der Atmosphäre, Stickstoff und Sauerstoff, sind sowohl bzgl. Sonnenlicht als auch thermische Strahlung durchlässig und daher keine Treibhausgase.

Die Aussage „wegen des gestiegenen CO2-Gehaltes muss die Erdatmosphäre wärmer werden“, ist nicht gut formuliert. Wie man weiß hat die Atmosphäre keinen einzelnen Temperaturwert. Das approximierte vertikale Temperaturprofil der Atmosphäre sieht so aus:

Abbildung 1: Vertikales Temperaturprofil der Erdatmosphäre. Man geht davon aus, dass mehr CO2 die Stratosphäre abkühlt und die Troposphäre erwärmt. Der Betrag der Erwärmung an der Erdoberfläche wird wahrscheinlich um 1°C liegen bei einer Verdoppelung der CO2-Konzentration in der Atmosphäre. Quelle: Astrobites.

Obwohl es bedeutende Ausnahmen gibt, ist die Atmosphäre normalerweise nahe der Oberfläche am wärmsten und kühlt sich mit zunehmender Höhe ab. Eine repräsentative Abkühlungsrate über die ersten 10 km oder so ist etwa 6,5°C pro km. Darum suchen die Menschen im Sommer die Berge auf, um der Hitze zu entkommen. Ich besuchte die Hochschule in der kleinen Stadt Lenoir in North Carolina auf einer Seehöhe von etwa 400 m, wo es üblicherweise um etwa 8°C wärmer war als im beliebten Erholungsort Blowing Rock auf einer Seehöhe von etwa 1100 m, etwa 20 Meilen [ca. 32 km] entfernt von der Gipfelkette der Blue Ridge Mountains.

[Es folgt eine Erklärung der Vorgänge in Troposphäre und Stratosphäre. Darauf aufbauend führt Happer weiter aus:]

Mit jedem weiteren Jahr, das vorübergeht, gibt es aus Beobachtungen weniger Unterstützung für diese „positive Rückkopplung“ der direkten Erwärmung durch CO2.

Die Troposphäre, also die unteren 11 km der Luft – unterscheidet sich deutlich von der Stratosphäre. Nahe der Erdoberfläche erfolgt der weitaus größte Beitrag zum Wärmeaustausch durch Konvektion feuchter Luft und nicht durch Strahlung. Nur bei dieser könnte CO2 jedoch einen direkten Unterschied ausmachen. Mehr CO2 kann möglicherweise die Troposphäre und die Erdoberfläche erwärmen. Aber hinsichtlich die Größenordnung dieser Erwärmung weiß man kaum etwas. Mein Schätzung lautet, dass sich die Erdoberfläche bei einer Verdoppelung der CO2-Konzentration um etwa 1°C erwärmen wird und in der mittleren Troposphäre vielleicht um 1,2°C. Diese Zahlen lassen sich aus den direkten Auswirkungen von mehr CO2 berechnen. Die vom IPCC genannte wesentlich höhere „Gleichgewichts-Klimasensitivität“, etwa 3°C pro Verdoppelung der Konzentration, stammt aus der Annahme, dass die relativ geringe direkte Temperaturzunahme durch mehr CO2 erheblich verstärkt wird durch Änderungen er Eigenschaften von Wasserdampf und Wolken. Mit jedem weiteren Jahr, das vorübergeht, gibt es immer weniger Stützung durch Beobachtungen für diese „positive Rückkopplung“ der direkten Erwärmung durch CO2.

Lassen Sie mich jetzt zu den vier offiziellen IPCC-Positionen Stellung nehmen, die Sie erwähnt hatten:

Globale Erwärmung ist eine fundierte Tatsache. Diese Feststellung ist nur zur Hälfte richtig. Ein korrekteres Statement wäre „globale Erwärmung und globale Abkühlung sind beides fundierte Tatsachen“. Die Erde ist ständig Schauplatz von Erwärmung und Abkühlung. Seit dem Jahr 1800 hat sich die Erde um etwa 1°C erwärmt, wobei der größte Teil dieser Erwärmung vor einer stärkeren Zunahme des atmosphärischen CO2 stattgefunden hat. Es gab eine ziemlich substantielle Abkühlung von 1940 bis 1975. Es gab praktisch keine Erwärmung während der letzten 20 Jahre, obwohl das CO2-Niveau schneller denn je zugenommen hat. Dieser Wechsel zwischen Erwärmung und Abkühlung war während der gesamten geologischen Historie ein Charakteristikum des Erdklimas.

Die Erwärmung ist anthropogen. Nein! Der größte Teil der Erwärmung ist natürlichen Ursachen geschuldet. Aber vieles der CO2-Zunahme von etwa 280 ppm im Jahr 1800 auf etwa 400 ppm im Jahre 2015 ist möglicherweise anthropogenen Ursprungs, obwohl Ozeane und Festland durch die Erwärmung etwas CO2 freigesetzt haben. Die Erwärmung der Städte korrelierte sehr gut mit dem zunehmenden CO2-Gehalt. Dies ist dem gut erforschten Städtischen Wärmeinseleffekt sich ausbreitender Städte geschuldet. Aber nicht der zunehmende CO2-Gehalt ist Ursache der Erwärmung in den Städten, sondern das Verschwinden von Grünland und Wäldern mit ihrer Verdunstungs-Abkühlung sowie der Ausbau von Straßen und Gebäuden, die keinen Wasserdampf verdunsten. Natürlich hat auch das CO2-Niveau gleichlaufend mit der städtischen Erwärmung zugenommen, aber das zusätzliche CO2 ist nicht Ursache der Erwärmung in Verbindung mit Verstädterung. Korrelation heißt nicht Kausalität! Die Sonne geht morgens nicht deswegen auf, weil der Hahn kräht. Außerhalb städtischer Gebiete der Erde ist die Korrelation zwischen CO2-Niveau und Temperatur praktisch nicht erkennbar.

Unter den mächtigen natürlichen Einflüssen auf das Klima sind relativ kurzzeitige periodische Phänomene der Änderungen von Meeresströmen wie El Nino und längerzeitliche periodische Änderungen wie die PDO oder die NAO. Von großen Vulkanausbrüchen weiß man, dass sie das Klima ein paar Jahre lang abkühlen. Es gibt immer mehr Beweise, dass Änderungen der Sonnenaktivität irgendwie das Klima beeinflussen, und vermutlich gibt es noch viele andere Einflüsse, die wir noch gar nicht entdeckt haben.

Ein geringer Anteil der Erwärmung von 1°C während der letzten beiden Jahrhunderte muss dem gestiegenen CO2-Gehalt geschuldet sein, welches in der Tat ein Treibhausgas ist. Im Gleichgewicht sollte die Temperaturzunahme ΔT=S log2 (400 ppm/280 ppm) betragen haben, wobei S die Gleichgewichts-Klimasensitivität ist. Ohne Rückkopplung kann die theoretische Sensitivität berechnet werden mit nahe S = 1°C, und der Logarithmus zur Basis 2 ist log2 (400/280) = 0,51. Also hätte die rückkopplungs-freie Erwärmung ΔT = 0,51° C betragen sollen, also etwa halb so groß wie die beobachtete Erwärmung sein müssen. Die andere Hälfte der Erwärmung wäre dann natürlichen Ursachen geschuldet, vielleicht wegen der Erholung der Erde aus der „Kleinen Eiszeit“, über die wir weiter unten noch sprechen werden.

Die vom IPCC genannte Gleichgewichts-Sensitivität beträgt S = 3°C, also etwa drei mal so viel wie der rückkopplungsfreie Wert von S = 1°C. Folglich hätte die CO2-induzierte Erwärmung den IPCC-Modellen zufolge drei mal größer sein müssen, also ΔT = 1,54° C, was substantiell mehr ist als beobachtet. Um diese blamable Überschätzung zu rechtfertigen, nehmen die Modelle des Establishments an, dass ein großer Teil dieser Erwärmung durch Abkühlung durch Aerosole aufgefangen worden ist – beispielsweise durch kleine Schwefelpartikel aus der Verbrennung stark schwefelhaltiger Kohle und Öl. Tatsächlich weiß man, dass bei großen Vulkanausbrüchen freigesetzte Schwefelpartikel wie beim Ausbruch des indonesischen Vulkans Tambora im Jahre 1815 mehrere Jahre lang zu einer weltweiten Abkühlung geführt hatten. Aber der Teufel steckt im Detail, und viele Wissenschaftler, die sorgfältig die Physik dahinter untersucht hatten, betrachten die Aerosol-Korrekturen größten teils als einen Schummel-Faktor, ins Spiel gebracht seitens des Globale-Erwärmung-Establishments, um zu vermeiden zugeben zu müssen, dass der Gleichgewichts-Temperaturanstieg durch eine Verdoppelung des CO2-Gehaltes viel weniger als S = 3°C beträgt.

Aus all dem folgt, dass mehr CO2 für die Menschheit erheblich von Vorteil ist.

Es ist ein großes Problem für die Menschheit. Falsch, das genaue Gegenteil ist der Fall: Mehr CO2 wird ein Vorteil für die Menschheit sein. Die prophezeite Erwärmung durch CO2 ist erheblich übertrieben. Die Gleichgewichts-Erwärmung durch eine CO2-Verdoppelung beträgt nicht 3°C, was man marginal vielleicht als Problem ansehen könnte, sondern eher etwa 1°C, was vorteilhaft wäre. Man sollte nicht vergessen, dass „globale Erwärmung“ ein Mittelwert ist. In den Tropen wird es kaum Erwärmung geben, ebenso über Mittag. Irgendeine Erwärmung wird es hauptsächlich in gemäßigten und polaren Gebieten geben sowie nachts. Dies wird die landwirtschaftliche Saison in vielen Ländern wie Kanada, Skandinavien und Russland verlängern. Außerdem verstärkt mehr CO2 die Effizienz der Photosynthese der Pflanzen und macht diese dürreresistenter. Fazit: Alles in allem wird mehr CO2 für die Menschheit ein großer Vorteil sein.

Eine gemeinsame globale Anstrengung ist erforderlich, um die Erwärmung zu bekämpfen. Angesichts der Kommentare oben ist dies blanker Unsinn. Maßnahmen der Regierung, um das gar nicht existierende Problem zu bekämpfen, haben die Landschaft mit Windparks und Solarfarmen verschandelt. Sie haben den Strompreis stark steigen lassen, was unverhältnismäßig die Ärmsten der Gesellschaft getroffen hat. Maßnahmen der Regierung haben die Wissenschaft korrumpiert, sie wurde mit Geld überflutet, damit sie zu politisch korrekten Ergebnissen kommt. Es ist endlich an der Zeit für Regierungen, die Wahrheit über globale Erwärmung zuzugeben. Erwärmung ist nicht das Problem. Die Maßnahmen der Regierung sind das Problem.

[Es folgt eine längere Passage zu Klimamodellen. Dann folgen längere Passagen zu den Themen Satellitenbeobachtrungen und Datenmanipulation. All dies ist ebenfalls schon in verschiedenen Beiträgen auf dieser Website zur Sprache gekommen.]

[Hier folgt im Interview eine ausführliche Beschreibung und Diskussion zu allen Aspekten bzgl. globale Erwärmung, als da wären die fabrizierte „Nichtexistenz“ des Stillstands, der Hockeyschläger, Datenmanipulationen usw. Das war alles wiederholt und seit Längerem Thema von Beiträgen auf diesem Blog, so dass dieser teil übersprungen wird. Dann aber geht es darum, ob wirklich Grund zum Alarm besteht, wobei die Ausführungen Happers sehr interessant sind. Im letzten Teil geht es dann noch um den sog. „Konsens“, zu dem Happer ebenfalls treffende Bemerkungen abgibt:]

TheBestSchools

Lassen Sie uns jetzt zum nächsten Punkt kommen, nämlich: Selbst unter der Annahme, dass die globale Erwärmung eine etablierte Tatsache und durch menschliche Aktivitäten verursacht ist (im Besonderen durch Verbrennung fossiler Treibstoffe), beharren Kritiker immer noch darauf, dass man mit Fug und Recht hinterfragen kann, ob es irgendwelche Gründe für Alarm angesichts dieser Fakten gibt. Oftmals werden Gründe angeführt, warum globale Erwärmung so schlecht nicht ist, darunter:

Die Mittelalterliche Warmzeit zeigt, dass eine globale Erwärmung um ein paar Grad keine Katastrophe ist.

Die mögliche Existenz verschiedener negativer Rückkopplungseffekte zeigt, dass sich die Erwärmung sehr gut selbst begrenzen könnte. Unter diesen negativen Rückkopplungen sind:

verstärkte Wolkenbildung, welche mehr Sonnenenergie reflektieren

Zunehmende Vegetation, welche mehr CO2 absorbiert

Unterstützer des Konsens‘ würden sagen, dass die Größenordnung des gegenwärtigen anthropogenen Antriebs zu Erwärmungen führen muss, welche jene aus früheren historischen Epochen marginalisiert.

Was meinen Sie dazu?

William Happer

Ich bin davon überzeugt, dass der größte Teil der Erwärmung natürlichen Gründen geschuldet ist, auf welche die Regierungen keinerlei Einfluss haben.

Wie ich oben erläutert habe, stelle ich nicht in Frage, dass sich die Erde nach dem Ende der Kleinen Eiszeit erwärmt hat, aber ich bin überzeugt, dass der größte Teil der Erwärmung natürliche Ursachen hat. Schon jetzt sehen wir mehr Vegetation auf der Erde, die mehr CO2 absorbiert. Aber wie ich in der Antwort auf Ihre nächste Frage ausführen werde denke ich, dass mehr CO2 gut für die Welt ist, dass diese seit Zehner-Millionen Jahren in einer CO2-Armut gesteckt hat und dass 1000 oder 2000 ppm ideal wären für die Biosphäre. Ich bin perplex angesichts der hysterischen Versuche, das CO2-Niveau unter 350 ppm zu drücken, ein Wert, den man aus einem Blick in die Glaskugel gefunden hat, der aber in keiner Weise auf Wissenschaft beruht.

TheBestSchools

Jetzt gehen Sie weiter als viele andere Kritiker des Konsens-Standpunktes, wenn Sie nicht nur betonen, dass gesteigerte atmosphärische CO2-Konzentrationen und globale Erwärmung keine Katastrophe seien, sondern dass sie sogar in großem Umfang vorteilhaft für die Menschheit seien.

Können Sie das bitte näher ausführen?

William Happer

Wir verdanken unsere Existenz grünen Pflanzen, die Kohlendioxid-Moleküle (CO2) und Wasser-Moleküle (H2O) mit Hilfe des Sonnenlichts in Kohlehydrate umwandeln. Ein Sauerstoff-Molekül (O2) wird für jedes CO2-Molekül freigesetzt, welches zu einem Kohlehydrat wird. Viel Sauerstoff ist ein Lebenselixier für die meisten Tiere. Aber wegen des derzeit sehr geringen CO2-Nivaus setzt Sauerstoff der photosynthetischen Effizienz von C3-Pflanzen ernsthafte Grenzen. Dies betrifft alle Bäume und viele landwirtschaftlich genutzte Pflanzen.

Pflanzen an Land bekommen den benötigten Kohlenstoff aus dem CO2 in der Luft. Die meisten Pflanzen ziehen andere Nährstoffe – Wasser, Stickstoff, Phosphor, Kalium – aus dem Boden. Genau wie Pflanzen besser wachsen auf gedüngten und gut bewässerten Böden, wachsen sie auch besser in der Luft mit CO2-Konzentrationen, die viele Male höher liegen als gegenwärtig.

[Es folgen ein paar Absätze, in denen er oben gesagtes näher erläutert und wie der geringe CO2-Gehalt das Pflanzenwachstum beeinträchtigt. Alle Absätze, die hier in der wörtlichen Übersetzung übersprungen werden, listet er am Ende konzentriert auf. Als nächstes jedenfalls geht es um den „Konsens“. Das folgt hier wieder in der direkten Übersetzung:]

TheBestSchools

Als nächstens wollen wir uns dem so genannten „Konsens“ zuwenden, von dem es heißt, dass er unter den Wissenschaftlern weltweit bzgl. globaler Erwärmung existiert.

Wir haben diesen Terminus der Bequemlichkeit halber verwendet, und es sieht mit Sicherheit so aus, als ob die Mehrheit der Wissenschaftler, die sich zu diesem Thema zumindest öffentlich äußern, dazu neigen, die offizielle IPCC-Position zu stützen. Andererseits wird die Behauptung, dass der Konsens „überwältigend“ ist (häufig wird die Zahl „97 Prozent“ genannt) von deren Befürwortern herangezogen, um Diskussionen und abweichende Meinungen abzuwürgen. Aus diesem Grund war die Behauptung der Kritik einiger Konsens-Kritiker ausgesetzt.

Beispiel: In ihrem Buch Taken by Storm (Key Porter Books, rev. ed. 2007) behaupten Christopher Essex und Ross McKitrick, dass ein solcher „Konsens“ nur wegen etwas besteht – falls das überhaupt so ist – was sie einen „perfekten Sturm“ nennen, in welchem übertriebene Behauptungen durch NGO-Propagandisten (wie Greenpeace) aufgenommen und von den Medien noch weiter aufgebauscht werden, was den Politikern (die normalerweise kein wissenschaftliches Hintergrundwissen haben) das Gefühl vermittelt, dass sie etwas tun müssen, was man bemerkt. All dies, behaupten sie, hat einen dämpfenden Effekt auf Wissenschaftler, die nicht den Konsens-Standpunkt teilen, die dies jedoch nicht offen sagen, weil sie Nachteile für ihre Laufbahn befürchten. In diesem Sinne wird der „Konsens“ zu einer sich selbst erfüllenden Prophezeiung.

Wie sehen Sie das? Gibt es einen Konsens bzgl. globaler Erwärmung? Ist er überwältigend? Falls ja, sind die Gründe dafür das, was Essex und McKitrick anführen, oder andere?

William Happer

Essex und McKitrick sind zur Zielscheibe geworden in ihrem Buch Taken by Storm. Es ist verblüffend, dass viele Skeptiker wie ich selbst im Ruhestand sind. Abgesehen von Rufmord gibt es nicht viel, was uns die Angriffshunde des Klimakonsens‘ tun können, zumindest bisher. Aber junge Akademiker wissen genau, dass sie ihre Karriere aufs Spiel setzen, wenn sie irgendwelche Zweifel an der Parteilinie bzgl. globaler Erwärmung verlauten lassen.

Was den Konsens in der Wissenschaft betrifft, kann niemand eloquenter sein als Michael Crichton in seinem Vortrag „Aliens Cause Global Warming“ (PDF) am California Institute of Technology im Jahre 2003:

[Es folgt ein Ausschnitt aus diesem Vortrag, der in der berühmten Aussage kulminiert:]

In der Wissenschaft ist ein Konsens irrelevant. Relevant sind ausschließlich reproduzierbare Ergebnisse. Die größten Wissenschaftler in der Geschichte sind genau aus dem Grunde die größten, weil sie mit dem Konsens gebrochen haben.

Es gibt so etwas wie Konsens in der Wissenschaft nicht. Falls es Konsens ist, ist es keine Wissenschaft. Falls es Wissenschaft ist, ist es kein Konsens. Punkt!“ Soweit Crichton.

TheBestSchools

Hier klangen schon schwierige moralische, gesellschaftliche und politische Dinge an, zusätzlich zu den rein wissenschaftlichen Dingen. Darum wollen wir jetzt in den Teil des Interviews einsteigen, in dem wir direkt einige der gesellschaftlichen Dinge ansprechen, die für die öffentliche Diskussion über globale Erwärmung relevant sind.

Im Einzelnen möchten wir Ihnen vier spezielle Fragen stellen:

Sind konzertierte Maßnahmen der Regierung auf globaler Ebene wünschenswert?

Falls ja, welchem Prinzip der Fairness sollte bei jenen Maßnahmen Rechnung getragen werden?

Wenn die Hürden sehr hoch sind und es einen breiten wissenschaftlichen Konsens gibt, sollten Kritiker der Mainstream-Standpunkte nichtsdestotrotz aufgefordert werden, ihre Standpunkte frei benennen zu können?

Ist politisches Eintreten durch Wissenschaftler überhaupt etwas Gutes?

[Die Frage wird dann noch näher ausgeführt und alle wesentlichen Punkte angesprochen, die auch hier in vielen Beiträgen auf diesem Blog schon angeklungen waren. Daher folgt hier gleich Happers Antwort:]

William Happer

Lassen Sie mich beginnen mit ihren oben aufgelisteten Fragen:

Sind konzertierte Maßnahmen der Regierung auf globaler Ebene wünschenswert? Nein! Mehr CO2 ist gut für die Welt, nicht schlecht. Konzertierte regierungsamtliche Maßnahmen können trotzdem ergriffen werden, wie schon so oft in der traurigen Historie menschlicher Dummheit. Ein Beispiel sind die Kreuzzüge, als die Anführer des „Westlichen Christentums“ sich zusammengeschlossen haben, um die Völker des östlichen Mittelmeergebietes zu bestrafen. Die Ära der Prohibition in den USA ist ein lokaleres Beispiel eines idiotischen Kreuzzuges, der sich als verheerend herausgestellt hatte. Einige wenige Opportunisten werden erheblich profitieren, falls konzertierte Maßnahmen bzgl. Klima ergriffen werden, aber die meisten Menschen und auch die Umwelt werden leiden.

Werden unsere allmächtigen Regierungen die Zunahme oder die Abnahme der Sonnenaktivität bekämpfen? Wo ist Owen Glendower (Bild 31 links), wenn wir ihn brauchen, um die „Geister aus der dunklen Tiefe“ zu beschwören, oder King Canute, um die Gezeiten zu stoppen? Ich bin nicht erpicht darauf, mich wahnwitzigen, von der Regierung gesponserten Geoengineering-Programmen eines flüchtigen Dr. Strangelove zu unterwerfen. Auch ist die Reduktion der menschlichen Population von derzeit sieben Milliarden Menschen auf nicht mehr als 1 Milliarde nicht sehr anziehend für mich, obwohl dies durch einflussreiche Klimaberater von Politikern und sogar des Papstes befürwortet wird. Sind wir gezwungen, Strohhalme zu ziehen, um zu entscheiden, welche sechs der sieben Menschen vom Angesicht der Erde verschwinden müssen?

Bzgl. CO2 sollten keinerlei Maßnahmen ergriffen werden. Aber ich stehe enthusiastisch hinter Maßnahmen gegen die wirkliche Verschmutzung von Luft, Boden oder Wasser durch Flugasche, Oxide oder Schwefel sowie Stickstoff aus der schlampigen Verbrennung von Kohle, oder Wasserverschmutzung durch sorglosen Umgang mit Düngern und Pestiziden, oder auch Plastikmüll in den Ozeanen infolge menschlicher Schlampigkeit.

Falls ja, welchem Prinzip der Fairness sollte bei jenen Maßnahmen Rechnung getragen werden? Ich betrachte den Krieg gegen den verantwortungsvollen Umgang mit Kohle und anderen fossilen Treibstoffen als zutiefst unmoralisch. Er wird die meisten Menschen verarmen lassen infolge steigender Energiekosten. Er wird kumpelhaft Kapitalisten bereichern, die den Rückhalt der Regierung haben, wenn sie die Menschen zwingen, ihre ineffiziente, kostspielige und unzuverlässige Energie aus Windmühlen und Solarparks zu kaufen. Es ist wie die französische Adlige, die als man ihr sagte, dass die Diner kein Brot mehr hätten geantwortet hatte: „Dann lasst sie Kuchen essen!“. Bei verantwortungsvoller Verwendung setzen fossile Treibstoffe nur vernachlässigbare Mengen an Verschmutzern frei wie Flugasche, Schwefel- und Stickoxide usw. Das so stark dämonisierte CO2, das zusammen mit H2O freigesetzt werden muss, ist tatsächlich ein Vorteil für die Erde, und nicht ein Verschmutzer.

Wenn die Hürden sehr hoch sind und es einen breiten wissenschaftlichen Konsens gibt, sollten Kritiker der Mainstream-Standpunkte nichtsdestotrotz aufgefordert werden, ihre Standpunkte frei benennen zu können? Jawohl! Dies ist die unveräußerbare Antwort für eine freie Gesellschaft, für welche ich und viele andere kämpfen, genau wie unsere Vorfahren es getan haben.

Ist politisches Eintreten durch Wissenschaftler überhaupt etwas Gutes? Jawohl! Wissenschaftler sollten sich auf jeder Seite eines kontroversen Themas äußern dürfen. Beispiel: Andrei Sacharov, einer meiner Helden, war ein leidenschaftlicher Verfechter eines Teststopps von Kernwaffen in der Atmosphäre. Er war davon überzeugt, dass der radioaktive Fallout der Bevölkerung der ganzen Welt große Schäden zufügen würde. Mein Onkel Karl Morgan, Gründer des Bereiches Gesundheits-Physik war ein leidenschaftlicher politischer Gegner, die Bevölkerung sorglos Strahlung auszusetzen.

[Als Nächstes führt Happer aus, dass er von Jugend auf für die Demokraten in den USA aktiv war. Es war zutiefst schmerzhaft für ihn zu sehen, wie sehr die Demokraten „sich genauso massiv der globalen Erwärmung verschrieben haben wie früher die Puritaner in Massachussetts den Hexen“.

Bei der nächsten Frage geht es darum, wie man am besten CO2-Emissionen reduzieren könnte. Dafür sieht Happer keinerlei Notwendigkeit, vielmehr würden solche Maßnahmen große Belastungen und keinerlei Vorteile bringen („All pain – no gain“). Weiter geht es dann mit „Freedom of Speech“, also der Redefreiheit. Dazu führt Happer aus:]

William Happer:

In der Wissenschaft kann es ohne Kontroversen keinerlei Fortschritt geben!

Fortschritte in der Wissenschaft sind ohne Kontroversen nicht möglich. Beispielsweise gab es Jahrzehnte Lang hitzige Debatten um die Theorie von Alfred Wegener bzgl. der Kontinentalverschiebung. Stanley Prusiner musste erbitterten Widerstand hinnehmen bzgl. seiner Theorie von Prionen und Rinderwahnsinn, weil diese Theorie gegen das Dogma stand, dass DNA oder RNA Auslöser von Infektionskrankheiten sein müssen, und nicht ein Protein.

Der Unterschied zur Kontroverse um die globale Erwärmung ist diesmal die direkte Involvierung von Regierungen auf einer Seite. Wie Sie sagen, Forderungen des Kongresses, denen zufolge Klimaskeptiker dunkler Machenschaften angeklagt werden sollten, sind in den USA beispiellos, obwohl es einen ominösen Präzedenzfall gibt in Gestalt des Lysenkoismus, über den wir vorhin gesprochen haben.

Bernie Sanders sagt, er wird „Klimaleugner vor Gericht bringen“, falls er zum Präsidenten der USA gewählt werden würde. Was hätten Menschen wie ich von einem Präsidenten Sanders zu erwarten? Ein Konzentrationslager? Das Erschießungskommando?

Und was geschah mit dem Ersten Artikel der US-Verfassung?

Es gibt viele ehrliche Wissenschaftler, die mit dem Thema Klima der Regierung zuarbeiten. … Ich bewundere diese Wissenschaftler und mache sie nicht verantwortlich für die aggressiven Wenigen, die mich und andere diffamieren als vermeintliche Prostituierte der Industrie fossiler Treibstoffe.

Während des Großen Terrors unter Stalin waren die Äquivalente zu bösen fossilen Treibstoffen Leon Trotzki und seine Anhänger. Sie waren eine direkte Bedrohung für Stalins Kontrolle über die weltweite kommunistische Bewegung, genau wie heute Klimaskeptiker angesehen werden als eine existentielle Bedrohung des Globale-Erwärmung-Establishments.

Ich wäre überrascht, wenn die Förderung von Klimaskeptikern insgesamt über 2 oder 3 Millionen Dollar pro Jahr hinausgehen würde, und selbst diese Schätzung könnte noch viel zu hoch sein. Dagegen beliefen sich während der letzten Jahre die Ausgaben der US-Regierung für die Klimaforschung (PDF) etwa 20 Milliarden Dollar pro Jahr – über 1000 mal mehr als die Förderung von Skeptikern. Aber selbst dieser gewaltige finanzielle Vorteil ist nicht ausreichend, um den beklagenswert schwachen wissenschaftlichen Fall zu stützen, dass die Welt durch mehr CO2 in Gefahr ist.

TheBestSchools:

Dann gibt es da noch die Frage, ob sich Wissenschaftler in die Politik einbringen sollten, und zwar bis zu dem Grad, den wir bei der Episode globale Erwärmung erlebt haben. Argumentiert wird mit zwei Gründen:

a) Politiker könnten faul werden und ihre Verantwortung, sich zu informieren, von sich wegzuschieben, selbst besser das Thema zu verstehen.

b) Wissenschaftler könnten die Integrität wissenschaftlicher Forschung selbst kompromittieren bis zu einem Grad, in dem sie sich selbst schädigt, wenn es in Zukunft erneut kontroverse Themen geben sollte.

William Happer:

Viele diesbezügliche Dinge haben wir schon angesprochen. Ich denke, dass der Wissenschaft allgemein bereits sehr großer Schaden zugefügt worden ist durch den Wahnsinn um die globale Erwärmung während der letzten Jahrzehnte. Vor zwanzig Jahren haben vermeintliche Experten-Wissenschaftler feierlich erklärt, dass unsere Kinder und Enkel nicht mehr wissen werden, was Schnee ist. Vor ein paar Wochen musste sich Washington D.C. mühsam aus 3 Fuß Schnee [ca. 90 cm] herauswühlen – vielerorts ein neuer Rekord.

Bei der Entgegennahme seines Friedensnobelpreises (der auch Yassir Arafat verliehen worden war), sagte Al Gore, dass die Arktis bis 2013 sommers eisfrei sein könnte infolge der CO2-Emissionen. Ich ersuche jeden Leser, sich auf der entsprechenden Daten-Site umzusehen. Nur wenige Minuten der Betrachtung des Links zum „Meereis“ dürften ausreichen zu erkennen, dass sich seit dem Jahr 2007 das Meereis kaum verändert hat.Mit allem Respekt gegenüber Al Gore, es gab sehr viel Sommereis im Jahre 2013.

Ich hoffe, wenn der Globale-Erwärmung-Skandal einmal hinter uns liegt, dass man der Wissenschaft dann vergibt, dass sie sich so lange diesem Vorgang verschrieben hat. Die Biologie der Sowjetunion brauchte Jahrzehnte, um sich von dem durch den Lysenkoismus angerichteten Schaden zu erholen.

TheBestSchools:

Zum Schluss möchten wir Sie bitten – im Telegrammstil, wenn Sie mögen – uns die fünf stärksten Argumente gegen den Konsens-Standpunkt zu nennen, ebenso wie die fünf schwächsten Argumente, die die Befürworter allgemein pro dieses Konsens-Standpunktes anführen.

William Happer:

Klimamodelle haben weit mehr Erwärmung prophezeit als den Beobachtungen zufolge tatsächlich eingetreten ist. Dies ist ein ganz starker Beweis dafür, dass die aus einer Verdoppelung des CO2-Gehaltes resultierende Gleichgewichts-Temperatur nicht 3°C bis 3,5°C beträgt, wie es den meisten Klimamodellen zufolge der Fall sein soll, sondern viel weniger, möglicherweise nahe 1°C.

Der Konsens hat weitgehend die enormen positiven Auswirkungen von mehr CO2 in der Luft ignoriert.

Zu den starken Temperaturänderungen der Mittelalterlichen Warmzeit und der Kleinen Eiszeit war es lange vor dem großmaßstäblichen Verbrauch fossiler Treibstoffe nach der Industriellen Revolution gekommen.

Es gibt eine starke Korrelation zwischen Temperatur und Sonnenaktivität.

Rasende persönliche Angriffe auf glaubwürdige Gegner zeigen, dass Unterstützer des Konsens‘ eine sehr schwache wissenschaftliche Grundlage haben. Man braucht keine potentiell kontraproduktiven persönlichen Angriffe, wenn man starke wissenschaftliche Argumente auf seiner Seite hat.

Schwächste Argumente pro Konsens-Standpunkt:

97 Prozent aller Wissenschaftler stimmen dem Konsens zu.

Die Temperatur ist während des vorigen Jahrhunderts gestiegen, das CO2-Niveau auch. Darum wurde der Temperaturanstieg durch CO2 verursacht.

zunehmendes CO2.

Von der Regierung finanzierte, den Konsens unterstützende Forscher befinden sich nicht in einem Interessenkonflikt.

Wissenschaftliche Opponenten des Konsens‘ sind Prostituierte der bösen Fossile-Treibstoffe-Industrie.

TheBestSchools

Vielen Dank, Prof. Happer, für dieses Interview!

William Happer ist Cyrus Fogg Brackett Professor der Physik, Emeritus, im Fachbereich Physik der Princeton University. Als langzeitliches Mitglied von JASON, einer Gruppe von Wissenschaftlern, die der US-Regierung als unabhängige Berater zur Verfügung stehen für die Bereiche, Wissenschaft, technik und nationale Sicherheit, war Happer Direktor des Office of Science im Energieministerium von 1991 bis 1993.

Am ehesten ist er der Öffentlichkeit bekannt als Stimme der Kritik des UN-IPCC-Konsens‘ bzgl. der globalen Erwärmung. Er wurde häufig gerufen, um als Experte auszusagen vor verschiedenen Komitees des US-Kongresses zum Thema globale Erwärmung (Klimawandel). Im Jahre 2015 fand er sich im Zentrum einer Kontroverse, bei der eine so genannte „verdeckte“ Operation involviert war, die Greenpeace organisiert hatte.

Eine Liste mit einigen Forschungsergebnissen von Prof. Happer findet sich hier.

Link: http://www.thebestschools.org/special/karoly-happer-dialogue-global-warming/william-happer-interview/

—————————————————

So weit Ausschnitte aus diesem Interview. Inzwischen geht es aber weiter! Der Washington Post zufolge wird sich Prof. Happer mit dem gewählten Präsidenten Trump zu einem Gespräch treffen. Im jüngsten Rundbrief der GWPF vom 16.1.2017 wird folgendermaßen darauf hingewiesen:

Trump trifft den Priceton-Physiker der sagt, dass CO2 gut für uns ist

Ja, Donald Trump hat sich mit Al Gore getroffen. Aber vor ein paar Tagen traf sich dem Transitions-Team von Trump zufolge der gewählte Präsident auch mit William Happer, einem Professor der Physik an der Princeton University, welcher eine prominente Stimme war beim Hinterfragen, ob wir uns wegen des vom Menschen verursachten Klimawandels Sorgen machen müssten. Bei einer Anhörung vor dem Senat im Jahre 2015 argumentierte Happer, dass „die Vorteile von mehr Kohlendioxid in der Luft die Nachteile weit überwiegen, beispielsweise durch eine Steigerung landwirtschaftlicher Erträge“. Happer ist ein hervorragender Physiker (und Mitglied des Beratungsgremiums der GWPF), der prominente Stellungen im Energieministerium bekleidet hatte, ebenso wie an seiner Universität, und der auf 200 wissenschaftliche Veröffentlichungen mit seinem Namen zurückblicken kann. – Chris Mooney, The Washington Post, 13 January 2017

——————————————–

Die Aussagen Happers bzgl. Treibhausgase werden in dem Rundbrief ebenfalls angesprochen:

William Happer: Die Wahrheit über Treibhausgase

Thema des Autors war es, die bemerkenswertesten Beispiele jener Moral-Epidemien zu sammeln, welche mal aus dem einen, dann aus einem anderen Grund so begeistert kolportiert worden sind. Außerdem sollte er damit zeigen, wie einfach sich die Massen haben in die Irre führen lassen, und wie nachahmend und gesellig Menschen sind, sogar noch hinsichtlich ihrer Verblendung“, schrieb Chalres Mackay im Vorwort der ersten Ausgabe seiner Extraordinary Popular Delusions and the Madness of Crowds [etwa: Außerordentlich populäre Wahnvorstellungen und die Verrücktheit der Massen]. Ich möchte über eine zeitgemäße Moral-Epidemie sprechen, nämlich über das Narrativ, dass eine zunehmende atmosphärische Konzentration von Treibhausgasen, insbesondere Kohlendioxid, katastrophale Folgen für die Menschheit und den Planeten haben wird. Dieser moderne „Klima-Kreuzzug“ hat viel gemein mit den Kreuzzügen des Mittelalters, die Mackay beschreibt, gibt es doch auch hier wahre Gläubige, Opportunisten, Zyniker, geldhungrige Regierungen, Manipulateure aller Art und sogar Kinder-Kreuzzüge. – William Happer: The Truth about Greenhouse Gases, Global Warming Policy Foundation (PDF)

Alles übersetzt und aufbereitet von Chris Frey EIKE