1

Das totalitäre Klimagebäude (2): Zehn fragwürdige Kernbehauptungen

Damit man auch nur in die Nähe einer solchen Vorstellung käme, müsste das komplette Narrativ der totalitären Klimabewegung zweifelsfrei zutreffen, das im Wesentlichen aus den nachfolgend skizzierten zehn Punkten besteht:

  1. Die globalen Temperaturen (auf der Erdoberfläche, wo die Menschen leben, sowie Tiere und Pflanzen) steigen in bedeutender Weise an, schon seit vielen Jahrzehnten, und dies ist eine ungewöhnliche, „unnatürliche“ Entwicklung.
  2. Dieser Anstieg beruht auf dem „Treibhauseffekt“, der durch zunehmende Umfänge von CO2 in der Atmosphäre hervorgerufen wird.
  3. Das zusätzliche CO2 ist verschuldet durch die industrialisierte Menschheit und ihre Verbrennung von fossilen Energieträgern: Kohle, Gas, Öl vor allem.
  4. Der (eigentlich eher geringe) „Treibhauseffekt“ des CO2 ist trotzdem gefährlich und Ursache der Temperaturanstiege, weil es einen „Feedback“-Effekt durch Wasserdampf gibt, der die Sache um ein Vielfaches schlimmer macht.
  5. Natürliche Ursachen für Klimawandel / veränderliche globale Durchschnitts-Temperaturen sind praktisch irrelevant: keine Ausreden für die Menschheit.
  6. Die immer höheren Temperaturen „bringen das ganze Klima durcheinander“, führen zu massiven Naturkatastrophen weltweit, die Menschenleben bedrohen. [Darunter auch ein bedrohlicher Anstieg der Meeresspiegel und die „Übersäuerung“ der Ozeane.]
  7. Wie es mit dem CO2-Anstieg und den Folgen für das Klima weitergeht, kann in den Computer-Modellen der „Klimawissenschaft“ seriös nachvollzogen und auf viele Jahrzehnte hinaus vorhergesagt werden.
  8. Selbst wenn es noch gewisse Unsicherheiten geben sollte: es gilt das „Vorsorgeprinzip“, also besser heute schon aktiv werden, ehe die Dinge ganz außer Kontrolle geraten.
  9. Dieser „Klimawandel“ ist also hochgefährlich und muss unbedingt verhindert werden.
  10. Der Prozess kann signifikant gebremst und schlimme Folgen vermieden werden, wenn vor allem die westlichen Industrienationen auf fossile Energie-Erzeugung verzichten und „dekarbonisieren“.

Damit ganz klar wird, was diese Liste bedeutet: Das sind nicht etwa „zehn gute Argumente“ dafür, warum „Klimaschutz“ notwendig ist, unabhängig voneinander. Es ist vielmehr eine Beweis- oder Indizienkette, die nur so stark ist wie ihr schwächstes Glied. Jeder der zehn Punkte ist eine Achillesferse, sodass es sich bei dem ganzen Narrativ um eine höchst wackelige Angelegenheit handelt, um ein argumentatives Kartenhaus: Selbst wenn nur einer der zehn Punkte falsch wäre, würde es in sich zusammenfallen.

Tatsächlich müssen hinter jeden der zehn Punkte Fragezeichen gesetzt werden. Manche Einzelbeobachtung oder Theorie hat womöglich etwas für sich, aber das meiste ist mindestens fragwürdig und vieles ist schlicht und einfach falsch, nachweisbar. Wenn juristische Maßstäbe eines Gerichtsverfahrens gelten würden: Hier gibt es nicht nur „vernünftige Zweifel“ daran, dass die gesamte Aussage zutrifft. Diese „Beweisführung“ ist dermaßen wackelig, dass eine nüchterne Staatsanwaltschaft schon darauf verzichten würde, überhaupt Klage zu erheben, um sich nicht vor einem seriösen Gericht in Grund und Boden zu blamieren.

Was man dazu wissen muss

Zu jedem der zehn Punkte ließe sich eine lange (wissenschaftliche) Abhandlung produzieren, und viele kluge Darstellungen kursieren ja schon längst im Internet, in Form von Aufsätzen, Büchern, Vorträgen, Videos. (Ja, es ist ein ziemlich unübersichtliches Themenfeld, das einen naturwissenschaftlichen Laien auch leicht verunsichern kann. Wenn die Dinge ganz simpel wären, hätten wir das Problem nicht.) Nachfolgend, auch als Startpunkt für jedermanns eigene weitere Befassung mit dem Thema, kritische Hinweise zu den zentralen zehn Punkten der Klima-Aktivisten:

  1. („Global warming“ als „unnatürliche“ Entwicklung). Das Temperaturniveau auf der Erde lässt sich nicht so leicht aussagekräftig auf Zehntel-Celsius-Grade genau messen (um die es aber überhaupt nur geht!), erst recht kennen wir die Zustände der Vergangenheit nicht präzise, schon für das 19. Jahrhundert nicht, außerhalb kleiner Teile der (bewohnten) Erdoberfläche. Es hat aber immer schon deutliche Temperaturschwankungen gegeben, auch viel massivere. So hat die Erde zuletzt mehrere Eiszeiten erlebt. Wir sind gegenwärtig – in geologischen Maßstäben – immer noch am Ausgang der letzten Eiszeit und in kürzeren Maßstäben immer noch am Ende der „kleinen Eiszeit“ der frühen Neuzeit.
  2. (CO2-Treibhauseffekt als Ursache)
    Schon die Korrelation (der synchrone Verlauf) zwischen Temperaturen und CO2-Gehalt der Atmosphäre ist in geologischen Maßstäben nicht nur fraglich, sondern weitgehend nicht-existent; soweit in jüngerer Erdzeit die Korrelation existiert, scheint die Temperatur dem CO2-Gehalt voranzugehen; jedenfalls kann die Korrelation auch auf einen dritten Faktor zurückgehen oder die Kausalität kann sogar „andersrum“ funktionieren:
  3. (Zusätzliches CO2 in der Atmosphäre durch Menschheit verursacht)
    Wenn es wärmer wird, können die Ozeane weniger CO2 binden, sie „gasen aus“. In den Ozeanen sind unvergleichlich größere Mengen CO2 „gespeichert“ als in der Atmosphäre (etwa Faktor 50). Biologisch und geologisch spricht man von einem (kleinen und großen) Kohlenstoff-Kreislauf, der auch die Gebirge und Gesteinsformationen (aus Calcium-Carbonat / Kalkstein) umfasst, sowie natürlich das gesamte Pflanzen- und Tierleben auf der Erde.
  4. (Treibhauseffekt massiv verstärkt durch „Feedback“)
    Der tatsächliche, physikalisch unstreitig vorhandene „Treibhauseffekt“ von CO2 ist nach neueren, experimentell-labormäßig gestützten Berechnungen geradezu lächerlich gering. Ob das angebliche „Feedback“ durch Wasserdampf die ihm zugeschriebene massive Verstärkung bewirken kann, ist sehr zweifelhaft, denn mehr Wasserdampf führt auch zu mehr Wolken, die die Erde beschatten und damit abkühlen. Es spricht aus meteorologischer Sicht vieles dafür, dass die Wolkenbildung in der Atmosphäre eine Art natürlichen „Thermostaten“ ergibt, der Klima-Auswüchse verhindert, anstatt sie zu verstärken. Wenn schon die geringste – wodurch auch immer hervorgerufene – Erwärmung irgendwo im regionalen Wetter einen „Feedback“-Effekt durch Wasserdampf anstoßen kann, warum dann nicht auch ohne den (minimalen) Anstoß durch etwas mehr CO2? Noch dazu ist Wasserverdunstung ein sehr effektiver Weg für die Erdoberfläche, Wärme-Energie abzugeben.
  5. (Keine relevanten natürlichen Ursachen)
    Das Klima hat erdgeschichtlich gewaltige Veränderungen vollzogen, um Größenordnungen stärker als gegenwärtig vielleicht messbar. Es muss also massive natürliche Ursachen geben – und warum sollten diese gerade jetzt vollständig „still“ und unauffällig sein? Alles Leben und alle Energie auf der Erde werden von der Sonne angetrieben, die aber nicht „perfekt gleichmäßig“ funktioniert, wie wir teilweise schon seit Jahrhunderten wissen („Sonnenflecken“ – auch kreist die Erde nicht perfekt gleichmäßig und stabil um die Sonne.) Zu behaupten, die Sonne hätte mit unserem Klima oder seiner Veränderung nichts zu tun, ist absurd.
  6. (Immer mehr Naturkatastrophen)
    Es gibt für die bei diesem Thema überhaupt nur relevanten letzten fünf bis sieben Jahrzehnte (seit der CO2-Ausstoß der Industrienationen weltweit nennenswerte Umfänge erreicht) keinen Nachweis, dass Naturkatastrophen häufiger oder schlimmer würden. Wir werden jetzt quasi täglich mit Katastrophenmeldungen überschüttet, um das Narrativ zu belegen, aber ein seriöser statistischer Beleg existiert nicht, wie sogar in IPCC-Kreisen und -Papieren zugegeben wird. (Noch ganz unabhängig von der Frage, ob zunehmende Naturkatastrophen, soweit es sie gäbe, überhaupt von veränderten Temperaturen verursacht wären.) Der Anstieg der Meeresspiegel ist konstant, unabhängig vom CO2, und noch eine Folge der auslaufenden Eiszeiten; die angebliche „Übersäuerung“ der Ozeane ist reine Propaganda und wissenschaftlich unhaltbar.
  7. (Computer-Modelle aussagekräftig)
    Die GCM-Computermodelle („general circulation model“) gießen nur in Zahlen, was die Anhänger der Klimapanik an Theorien – vorläufigen Behauptungen, Hypothesen – entwickelt haben. Sie werden so justiert, dass sie (und nur sehr unvollkommen) frühere Klima-Entwicklungen nachbilden können. Das ist kein Beweis für die Richtigkeit der Theorien. Vor allem haben die Modelle bisher regelmäßig komplett versagt bei ihren Prognosen. Sie haben keine größere wissenschaftliche Validität als Wettervorhersagen in einer Boulevardzeitung für den Sommer nächsten Jahres. Insgesamt haben die „wissenschaftlichen“ Klimapanik-Produzenten seit Jahrzehnten, auch über die Modellberechnungen hinaus, groteske Fehlprognosen veröffentlicht und sich als lächerlich falsche Propheten erwiesen, Scharlatane durch und durch.
  8. („Vorsorgeprinzip walten lassen“)
    „Vorsorge“ kann nicht heißen, einseitig Risiken des „Klimawandels“ maßlos zu über- und Kosten seiner „Bekämpfung“ ignorant zu unterschätzen. Es ist auch nicht per se der einzig richtige Weg, ein Problem „an der Ursache“ zu bekämpfen – es kann viel klüger sein, sich auf Unvermeidliches einzustellen und vorzubereiten. Ein steigender Meeresspiegel, selbst wenn er durch CO2 verursacht wäre, kann mit Deichbau wirksam „eingedämmt“ werden. Holland, wie wir es kennen, würde sonst nicht existieren. Auf den Malediven, die angeblich schon längst untergegangen sein sollten, werden Milliarden in Tourismus investiert. Ein schwerer Sturm, selbst wenn er von „globaler Erwärmung“ verursacht wäre, bringt ungeschützte Menschen um, aber nicht Bewohner von stabilen Betonhäusern. Armut bringt Menschen um, und vor der Natur nicht geschützt zu sein. Dieser Schutz ist leicht möglich, wenn genug materieller Wohlstand vorhanden ist. In 30 oder 50 Jahren können Weltgegenden, die heute noch von Armut geprägt sind, weit zu unserem Wohlstand aufgeschlossen haben und brauchen vor der Natur keine Angst mehr zu haben.
  9. (CO2-Emissionen lebensgefährlich für die Menschheit)
    Der „Klimawandel“ mag existieren oder nicht, er mag durch CO2 verursacht sein oder nicht, aber sicher ist: Der CO2-Gehalt der Atmosphäre war mit knapp 300 ppm vor der Industrialisierung gefährlich niedrig; Pflanzen haben sich aus solcher Luft kaum noch vernünftig ernähren können. Die heutigen Lebensformen haben sich erdgeschichtlich entwickelt, als es tausende ppm an CO2-Gehalt gab. Weltweit ergrünen riesige Flächen durch die „Düngung“ mit mehr CO2 in der Luft, auch das ist unbestritten. Mit mehr CO2 in der Luft können Pflanzen auch in trockenen Regionen besser überleben, weil sie nicht mehr so viel Wasser verlieren – das ist Basis-Biologie. Das alles kann auch helfen, mehr Menschen weltweit anständig zu ernähren.
  10. („Dekarbonisierung“ der Industriestaaten als Lösung)
    Es spielt selbst nach Projektionen des IPCC praktisch keine Rolle, ob Deutschland, ob der Rest Europas, ob dauerhaft die USA ihre CO2-Produktion mindern, denn China und Indien verfeuern so viel fossile Brennstoffe, um ihren Wohlstand aufzubauen, dass der Zug längst abgefahren ist. Wenn wir Konsumgüter nicht bei uns produzieren, „für den Klimaschutz“, aber dafür aus China kaufen, wird der CO2-Ausstoß sogar größer, denn unser Kraftwerkspark ist effizienter als der chinesische. Die Menschheit ist nicht bereit, „zurück in die Höhle“ zu wechseln oder gar „zurück auf die Bäume“, und mit Solar und Wind lässt sich der Energiebedarf einfach nicht decken. Das ganze CO2-Minderungsregime von Paris dient nur der Selbstverstümmelung der bisher reichen Länder, es ändert nichts am Weltklima. Selbst wenn die Theorien der Klimapaniker über die Erwärmung durch CO2 weitgehend stimmen würden: Es geht nur darum, ob eine fiktive Katastrophe schon im Januar 2100 eintritt oder erst im Februar 2100.

Man sieht, selbst wenn die kritischen Hinweise zu den Nummern eins bis neun völlig gegenstandslos wären, nur eine „Verschwörungstheorie“ von „Klimaleugnern“: Schon Punkt zehn beweist, dass die Aktivisten und mit ihnen jetzt auch amtlich das Bundesverfassungsgericht auf einem Holzweg sind, und nicht auf einem „nachhaltigen“. Punkt zehn ist übrigens auch ungefähr das, was Bjørn Lomborg seit vielen Jahren unermüdlich – und sehr überzeugend – vorträgt. Er ist ausdrücklich kein „Klimaleugner“, er nimmt die IPCC-Theorien weitgehend als akzeptable Diskussionsgrundlage, und dennoch wendet er sich vollständig gegen den Panik-Aktivismus, der die Politiker ergriffen hat.

Renommierte Umweltschützer gegen Panik

Es ist angeblich moralisch geboten, den Planeten vor uns Menschen zu retten, um jeden Preis. Aber nicht nur ist der Planet gar nicht wirklich in Not; selbst wenn es Probleme gäbe, ihre „Lösung“ sollte nicht schlimmer sein als das Problem. Man amputiert kein Bein wegen eines blauen Flecks, man erschießt einen Ladendieb nicht zur Strafe und Vorbeugung. Die Klimapanik lebt von der völligen Abstraktion und Verabsolutierung, von der Absage an gesunden Menschenverstand, Pragmatismus, Verhältnismäßigkeit. Und sie lebt davon, die Bedürfnisse der Menschen zu verachten, die angeblich das perfekte „natürliche Gleichgewicht“ auf der Erde zerstören. Wie wahnhaft diese Weltsicht ist, lässt sich daran ablesen, dass sich ihr längst langjährige wirkliche Umweltschützer widersetzen, wie zum Beispiel Michael Shellenberger, ebenso in aller Deutlichkeit der Greenpeace-Mitbegründer  Patrick Moore.

Dass die „Klimawissenschaft“ keine Panik rechtfertigt, erläutert ganz aktuell mit einem Bestseller der Physiker Steve Koonin, der unter Obama (!) die US-Regierung beraten hat. Zu den Autoren sehr bemerkenswerter, wirklich wissenschaftlich basierter Abhandlungen gehören auch weitere Amerikaner wie Roy W. Spencer und Patrick J. Michaels, der Kanadier Ross McKitrick, der Skandinavier Henrik Svensmark, der Brite Matt Ridley, der deutsche Professor Horst-Joachim Lüdecke; bemerkenswerte Hinweise gegen die vorherrschende Propaganda präsentiert in unnachahmlicher Weise per Videoclip Tony Heller; die aktuelle Forschung wird lebhaft diskutiert in einem Blog von Anthony Watts. Prof. Fritz Vahrenholt und Sebastian Lüning sind dem hiesigen Publikum ohnehin vertraut (Buch).

Das sind Ausschnitte einer in Wahrheit alles andere als „erledigten“ weltweiten Debatte; das sind auch nicht „Verschwörungstheoretiker“, die in ihrem Keller als Pseudo-Privatgelehrte an Physik und Naturgesetzen zweifeln, sondern das sind im Gegenteil arrivierte Funktionsträger und solide Selbst-Denker, die das Narrativ „hinterfragen“ und sich nicht von Politaktivisten mundtot machen lassen. Auf der „Gegenseite“, bei den angeblich wissenschaftlichen Größen hinter der Klimapanik, steht ein Michael „Hockeystick“ Mann, der seine Kritiker gerichtlich mundtot zu machen versucht, aber nicht bereit ist, seine Methoden offenzulegen – womit er sich gegen kollegiale Versuche der Replikation sträubt und damit als Wissenschaftler disqualifiziert; es gibt den „climategate“-Skandal rund um ein für die Klima-Beobachtung zentrales Institut in England, dessen ans Tageslicht gekommener E-Mail-Austausch klar politisch-taktische Motive für die „Forschung“ belegt; letztlich ist nicht auszuschließen, dass an den angeblichen „Fakten“ über die Temperaturentwicklung massiv und ungeniert herummanipuliert wird.

Ein zentraler Urheber der ganzen Panik, der mit seinem Auftritt vor einem Gremium des US-Parlaments vieles ins Rollen gebracht hat, ist James Hansen, dessen angeblich wissenschaftliche Prognosen sich beinahe vollständig als lächerliche, wahnwitzige Horrorvisionen herausgestellt haben. Die Panik-Propheten reihen sich nahtlos ein in eine lange Reihe von Untergangs-Denkern, die es schon mit anderen Themen und schon Jahrzehnte früher gegeben hat; so hat sich ein gewisser Paul Ehrlich mit seinen apokalyptischen Szenarienzur Überbevölkerung ebenso gründlich blamiert wie der „Club of Rome“ mit seinen düsteren Prognosen. All diese Wichtigtuer haben zwar irgendwie Thesen und Theorien von „wissenschaftlicher“ Seite aufgegriffen, aber sie haben einzelne Trends verabsolutiert und gegenläufige Erkenntnisse ausgeblendet, die ihnen den Auftritt vermasselt hätten – genau keine Wissenschaft, denn diese setzt Selbstkritik, regelrecht Selbstzweifel und offene Debatte voraus.

Lesen Sie morgen Teil 3: „Klimawissen für jedermann“

Teil 1 finden Sie hier.

Der Beitrag erschien zuerst bei ACHGUT hier




Warum Modelle keine Temperatur prognosti­zieren können: Ein Kaleidoskop des Scheiterns

Allerdings hatte er sich dabei auf – wie sich herausstellte – fehlerhafte Mondspektraldaten verlassen. Als er dies erkannte, rechnete er zehn Jahre später nach und veröffentlichte 1906 eine zweite Arbeit, in der er das tat, was sich Klima-„Wissenschaftler“ heute zu tun strikt weigern: Er widerrief seine erste Arbeit und veröffentlichte eine revidierte Schätzung, diesmal in deutscher Sprache, die von wahrhaft gläubigen Thermageddonisten nur selten zitiert wird:


Seine korrigierte Berechnung, die in dem damals neu gegründeten Journal of the Royal Nobel Institute veröffentlicht wurde, schlug 1,6 C° ECS vor, einschließlich der Wasserdampf-Rückkopplung.

Guy Stewart Callendar, ein britischer Dampfingenieur, veröffentlichte 1938 seine eigene Berechnung und präsentierte sein Ergebnis vor der Royal Society (die anschließende Diskussion in der Gesellschaft ist sehr lesenswert). Auch er sagte 1,6 C° ECS voraus, wie die gestrichelten Linien zeigen, die ich seiner Grafik hinzugefügt habe:

Dann gab es einen plötzlichen Sprung in der vorhergesagten ECS. Plass (1956) sagte 3,6 C° ECS voraus. Möller (1963) sagte eine direkte oder Referenz-CO2-Verdoppelungssensitivität (RCS) von 1,5 C° voraus, die auf bis zu 9,6 C° anstieg, wenn sich die relative Feuchte nicht veränderte. Er fügte einen wichtigen Zusatz hinzu: „…die Veränderung des Strahlungsbudgets durch eine veränderte CO2-Konzentration kann vollständig ohne Veränderung der Oberflächentemperatur kompensiert werden, wenn die Bewölkung um +0,006 erhöht wird.“ Es überrascht nicht, dass er zu dem Schluss kam, dass „die Theorie, dass klimatische Variationen durch Variationen des CO2-Gehalts bewirkt werden, sehr fragwürdig wird.

[Hervorhebung im Original]

Manabe & Wetherald (1975), die ein frühes radiativ-konvektives Modell verwendeten, sagten 2,3°C ECS voraus. Hansen (1981) gab eine mittlere Schätzung von 2,8°C° ECS an. Im Jahr 1984 kehrte er zu dem Thema zurück und führte zum ersten Mal die Rückkopplungsformel aus der Regelungstheorie ein, dem Studium der Rückkopplungsprozesse in dynamischen Systemen (Systeme, die ihren Zustand über die Zeit verändern). Er sagte 1,2°C RCS und 4°C ECS voraus, was einen Rückkopplungsanteil von 0,7 impliziert.

Im Jahr 1988 sagte er in seiner inzwischen berüchtigten Aussage vor dem US-Senat in einem Juni, der so heiß war, wie es in Washington DC seither nicht mehr der Fall war, 3,2°C pro Jahrhundert voraus (was in etwa dem ECS entspricht), bei einem Business-as-usual-Szenario (und es ist das Business-as-usual-Szenario, das seither eingetreten ist), aber die tatsächliche Erwärmung beträgt kaum mehr als ein Drittel der von ihm vorhergesagten Business-as-usual-Rate:

Im Jahr 1988 kehrte der verstorbene Michael Schlesinger zum Thema Temperaturrückkopplung zurück und fand heraus, dass in einem typischen allgemeinen Zirkulationsmodell der Rückkopplungsanteil – d. h. der Anteil der Gleichgewichtsempfindlichkeit, der durch die Rückkopplungsreaktion beigetragen wird – ein absurd hoher Wert von 0,71 war, was einen Systemgewinnfaktor (das Verhältnis der Gleichgewichtsempfindlichkeit nach der Rückkopplung zur Referenzempfindlichkeit davor) von 3,5 und somit, unter der Annahme von 1,05 RCS, einen ECS von 3,6 C° bedeutet.

Gregory et al. (2002) stellten eine vereinfachte Methode zur Ableitung der ECS unter Verwendung einer Energiebilanzmethode vor. Energiebilanzmethoden gab es schon seit einiger Zeit, aber erst in den frühen 2000er Jahren wurden die Satelliten- und Ozeandaten zuverlässig und umfassend genug, um diese einfache Methode anzuwenden. Gregory generierte eine Wahrscheinlichkeitsverteilung, die stark rechts-verschoben ist (aus einem Grund, der später deutlich wird), mit einer mittleren Schätzung von 2 C° ECS:

Auf Gregorys Ergebnis folgten viele weitere Arbeiten, die die Energiebilanzmethode verwendeten. Die meisten von ihnen finden, dass ECS 1,5-2 C° beträgt, ein Drittel bis die Hälfte des mittleren Bereichs von 3,7-4 C°, den die aktuellen allgemeinen Zirkulationsmodelle vorhersagen.

Im Jahr 2010 schrieben Lacis et al. in Anlehnung an die Methode der GCMs:

Für den verdoppelten CO2-Einstrahlungsantrieb, … für den die direkte, nicht rückgekoppelte Antwort der globalen Oberflächentemperatur 1,2 C° beträgt …, impliziert die ~4 C° Oberflächenerwärmung [einen] … [Systemverstärkungsfaktor] von 3,3. …“

Lacis et al. fuhren fort zu erklären, warum sie dachten, dass es einen so großen Systemverstärkungsfaktor geben würde, der einen Rückkopplungsanteil von 0,7 impliziert:

Nicht kondensierende Treibhausgase, die 25 % des gesamten terrestrischen Treibhauseffekts ausmachen, … sorgen für die stabile Temperaturstruktur, die das derzeitige Niveau des atmosphärischen Wasserdampfs und der Wolken über Rückkopplungsprozesse aufrechterhält, die die restlichen 75 % des Treibhauseffekts ausmachen.

Leider wird in der obigen Passage explizit ein außerordentlicher, in der gesamten Klimatologie universeller Fehler begangen, der der Grund dafür ist, dass die Modellierer eine weitaus größere Erwärmung erwarten – was daher auch ihre Modelle simulieren – als es die direkte und einfache Energiebilanzmethode nahelegen würde. Das einfache Blockdiagramm unten demonstriert den Fehler, indem es die fehlerhaften (rot) mit den korrigierten (grün) Werten in der gesamten Schleife vergleicht:

Werfen wir einen Blick auf die Rückkopplungsschleife für das vorindustrielle Zeitalter. Wir untersuchen die vorindustrielle Ära, denn als die Modellierer zum ersten Mal versuchten, den Einfluss des Wasserdampfs und anderer Rückkopplungen abzuschätzen, von denen keine direkt und zuverlässig durch Messung oder Beobachtung quantifiziert werden kann, begannen sie mit der vorindustriellen Ära.

Zum Beispiel sagt Hansen (1984):

… diese Voraussetzung der Energiebilanz ergibt eine [Emissionstemperatur] von etwa 255 K. … die Oberflächentemperatur ist etwa 288 K, 33 K wärmer als die Emissionstemperatur. … Die gleichgewichtige globale mittlere Erwärmung der Oberflächenluft beträgt etwa 4°C … Dies entspricht einem [Systemgewinnfaktor] von 3-4, da die zur Wiederherstellung des Strahlungsgleichgewichts mit dem Weltraum erforderliche rückkopplungsfreie Temperaturänderung 1,2-1,3°C beträgt.“

Lassen Sie uns zunächst den Kreislauf der Klimatologie durchlaufen. Die direkte Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase (das kondensierende Gas Wasserdampf wird als Rückkopplung behandelt) beträgt etwa 8 K, aber der gesamte natürliche Treibhauseffekt, die Differenz zwischen der 255 K hohen Emissionstemperatur und der 287 K hohen mittleren globalen Oberflächentemperatur im Jahr 1850, beträgt 32 K. Daher ist der Systemgewinnfaktor der Klimatologie 32 / 8 oder 4, so dass ihr imaginärer Rückkopplungsanteil 1 – 1/4 oder 0,75 beträgt – wiederum absurd hoch. Somit würde aus 1 K RCS 4 K ECS werden.

Gehen wir nun den Weg der Regelkreistheorie, der zuerst von Black (1934) in den Bell Labs in New York bewiesen und in der Praxis lange und schlüssig verifiziert wurde. Man muss nicht nur die vorindustrielle Referenzsensitivität gegenüber nicht kondensierenden Treibhausgasen über den summativen Ein-/Ausgangsknoten am Scheitelpunkt der Schleife in die Schleife eingeben: man muss auch die 255 K Emissionstemperatur (gelb) eingeben, die als Eingangssignal bekannt ist (der Hinweis steckt im Namen).

Es ist die Sonne, Dummkopf!

Dann ist der Ausgang des Kreislaufs nicht mehr nur der natürliche Treibhauseffekt von 32 K: Es ist die globale mittlere Oberflächentemperatur im Gleichgewicht von 287 K im Jahr 1850. Der Systemgewinnfaktor ist dann 287 / (255 + 32), oder 1,09, weniger als ein Drittel der Schätzung der Klimatologie. Der Rückkopplungsanteil ist 1 – 1 / 1,09, oder 0,08, also um eine Größenordnung kleiner als die Schätzung der Klimatologie.

Daher gibt es im Gegensatz zu dem, was Hansen, Schlesinger, Lacis und viele andere sich vorstellen, keinen guten Grund in den vorindustriellen Daten zu erwarten, dass die Rückkopplung auf der Erde in ihrer Größenordnung einzigartig im Sonnensystem ist, oder dass ECS so etwas wie das imaginäre Drei- oder Vierfache von RCS sein wird.

Wie aus dem Zitat von Lacis et al. ersichtlich ist, geht die Klimatologie in der Tat davon aus, dass der System-Gain-Faktor im Industriezeitalter etwa gleich groß sein wird wie der für das vorindustrielle Zeitalter. Daher ist das übliche Argument gegen die korrigierte vorindustrielle Berechnung – dass sie keine Inkonstanz der Rückkopplungsantwort der Einheit mit der Temperatur berücksichtigt – nicht relevant.

Darüber hinaus kommt eine einfache Energiebilanzberechnung des ECS unter Verwendung aktueller Mainstream-Daten aus der Industriezeit in einem Verfahren, das sich völlig von der vorindustriellen Analyse unterscheidet und in keiner Weise von ihr abhängig ist, zu demselben Ergebnis kommt wie das korrigierte vorindustrielle Verfahren: ein vernachlässigbarer Beitrag der Rückkopplungsreaktion. Demnach ist die Rückkopplungsreaktion der Einheit annähernd konstant mit der Temperatur, und ECS ist kaum mehr als die 1,05 K RCS.

Warum also liegen die Modelle mit ihren Vorhersagen so falsch? Mittelfristig (oben im Diagramm unten) betrug die mittelfristig projizierte anthropogene Erwärmung pro Jahrhundertäquivalent 3,4 K, wie vom IPCC 1990 vorhergesagt, aber die beobachtete Erwärmung betrug nur 1,65 K, wovon nur 70% (Wu et al. 2019) oder 1,15 K anthropogen waren. Die Vorhersage des IPCC war also etwa dreimal so hoch wie die nachträgliche Beobachtung, was mit dem Fehler, aber nicht mit der Realität übereinstimmt.

Da der gegenwärtig geschätzte verdoppelte CO2-Strahlungsantrieb in etwa dem vorhergesagten Strahlungsantrieb aus allen anthropogenen Quellen für das 21. Jahrhundert entspricht, kann man in der neuesten Generation von Modellen die gleiche dreifache Übertreibung im Vergleich zu den 1,1 K ECS beobachten, die sich aus den aktuellen Klimadaten (untere Hälfte des obigen Diagramms) ableiten lassen, einschließlich der realen Erwärmung und des Strahlungsungleichgewichts, und zwar über die Energiebilanzmethode.

Der Fehler, die große Rückkopplungsreaktion auf die Emissionstemperatur zu vernachlässigen und sie somit effektiv zu der eigentlich winzigen Rückkopplungsreaktion auf die direkte Treibhausgas-Erwärmung zu addieren und falsch zu zählen, ist elementar und schwerwiegend. Dennoch scheint es in der gesamten Klimatologie universell zu sein. Hier sind nur ein paar Aussagen davon:

[Es folgen diese Statements, auf deren Übersetzung hier verzichtet wird. Sie gehen alle in die gleiche Richtung und untermauern Moncktons Vorwurf. A. d. Übers.]

Die Auswirkung des Fehlers ist in der Tat drastisch. Der Systemgewinnfaktor und damit der ECS wird um das Drei- bis Vierfache überschätzt; der Rückkopplungsanteil wird um das Zehnfache überschätzt; und die Einheitsrückkopplung (d.h. die Rückkopplungsantwort pro Grad direkter Erwärmung vor Berücksichtigung der Rückkopplung) wird im mittleren Bereich um das 30-fache und am oberen Rand der Modellvorhersagen um das 100-fache überschätzt.

[Hervorhebungen im Original]

Der Fehler kann sehr einfach verstanden werden, wenn man sich anschaut, wie die Klimatologie und die Regelungstheorie den Systemverstärkungsfaktor auf der Grundlage vorindustrieller Daten berechnen würden:

Da RCS kaum mehr als 1 K beträgt, ist ECS, nachdem die Sonnenscheintemperatur von 255 K zur Glättung von Zähler und Nenner der Klimatologie hinzugefügt wurde, kaum mehr als der Systemgewinnfaktor. Und das ist das Ende des „Klimanotstands“. Es war alles ein Irrtum.

Natürlich wird die Rückkopplungsformel in den Modellen nicht direkt berücksichtigt. Rückkopplungen werden ex post facto aus ihren Outputs diagnostiziert. Kürzlich sagte ein angesehener skeptischer Klimatologe mit Blick auf unser Ergebnis, dass wir aus der Diskrepanz zwischen den ECS-Schätzungen der Modelle und unseren eigenen hätten erkennen müssen, dass wir falsch liegen müssen, weil die Modelle das Klima perfekt abbilden.

Es erweist sich sicherlich als nicht weniger schwierig, den Skeptikern den Fehler der Regelungstheorie zu erklären als der totalitären Fraktion, die von diesem Fehler so mächtig profitiert. Hier ist also, wie unser angesehener Co-Autor, ein führender Professor für Regelungstheorie, es ausdrückt:

Natürliche Größen sind, was sie sind. Eine Größe als die Summe aus einem Basissignal und dessen Störung zu definieren, ist ein vom Beobachter geschaffenes Modell. Wenn das Basissignal – analog zum Eingangssignal in einer elektronischen Schaltung – willkürlich gewählt wird, hört die Störung (die Differenz zwischen der willkürlich gewählten Basislinie und der Größe, die die Summe aus Basislinie und Störung ist) auf, eine reale, physikalische Größe zu sein: Sie ist lediglich ein Artefakt eines Konstrukts, das eine physikalische Größe willkürlich in mehrere Komponenten aufteilt. Das reale System kümmert sich jedoch nicht um die Modelle, die von seinem Beobachter erstellt werden. Dies lässt sich leicht an der wichtigsten Rückkopplungsschleife von allen demonstrieren, der Wasserdampf-Rückkopplung, bei der die Erwärmung dazu führt, dass Wasser verdunstet und der entstehende Wasserdampf, ein Treibhausgas, eine zusätzliche Erwärmung erzwingt.

Die Klimatologie definiert die Rückkopplung so, dass nur die Störung – nicht aber auch das Basissignal, die Emissionstemperatur – die Rückkopplung auslöst. Die Implikation ist, dass in der Sicht der Klimatologen die Sonne kein Wasser verdunstet. In ihren Modellen verdunstet die gesamte Sonneneinstrahlung von 1363,5 W/m² kein einziges Wassermolekül, während die Erwärmung, die durch nur 25 W/m² des vorindustriellen Antriebs durch nicht kondensierende Treibhausgase verursacht wird, allein für die gesamte natürlich vorkommende Verdunstung von Wasser auf der Erde verantwortlich ist. Dies ist offensichtlicher Unsinn. Wasser kümmert sich weder um die Quelle der Wärme, die es verdunstet, noch um die fehlerhaften Definitionen der Klimatologie für Rückkopplungen. Im Modell der Klimatologie würde die Wasserdampf-Rückkopplung aufhören zu funktionieren, wenn alle Treibhausgase aus der Atmosphäre entfernt würden. Die Sonne würde durch ihre Emissionstemperatur kein einziges Wassermolekül verdampfen, denn nach der Definition der Klimatologen verdampft Sonnenschein kein Wasser.

Wärme ist immer die gleiche physikalische Größe, unabhängig von der Quelle der Wärme. Der Zustand eines Systems kann durch die darin enthaltene Wärmeenergie beschrieben werden, unabhängig von der Quelle der Wärme. Temperatur-induzierte Rückkopplungen werden durch verschiedene Wärmequellen ausgelöst. Die Sonne ist die größte dieser Quellen. Die Wärme aus der Sonneneinstrahlung folgt genau den gleichen Naturgesetzen wie die Wärme aus dem Treibhauseffekt. Alles, was bei der Analyse des Verhaltens eines physikalischen Systems zählt, ist der Gesamtwärmeinhalt, nicht seine ursprüngliche Quelle oder Quellen.

Die Modelle der Klimatologie spiegeln diese Tatsache nicht wider. Ein Modell eines natürlichen Systems muss die inneren Abläufe dieses Systems widerspiegeln, die nicht durch irgendeinen „Konsens“ wegdefiniert werden dürfen. Der Maßstab für ein gutes Modell eines realen Systems ist nicht „Konsens“, sondern die objektive Realität. Die Funktionsweise eines Rückkopplungs-Verstärkers in einem dynamischen System wie dem Klima (ein dynamisches System ist ein System, das seinen Zustand im Laufe der Zeit ändert) ist seit langem theoretisch bewiesen und wurde wiederholt in realen Anwendungen demonstriert, wie z. B. in den Steuerungssystemen für Kraftwerke, Space Shuttles, den Fliegen auf den Saphirwellen von Kirchturmuhren, den Reglern von Dampfmaschinen und der erhöhten spezifischen Luftfeuchtigkeit bei wärmerem Wetter im Klima und den Systemen, die uns zum Mond gebracht haben.

Jeder Regelungstheoretiker, dem wir unsere Ergebnisse gezeigt haben, hat die Sache sofort kapiert. Jeder Klimatologe – ob Skeptiker oder Thermagedonist – hat sich unangenehm verrenkt. Denn die Regelungstheorie liegt genau außerhalb der Kompetenz und Komfortzone der Klimatologie.

Lassen Sie uns also mit einer Untersuchung darüber enden, warum die „perfekten“ Modelle in Wirklichkeit und formal völlig unfähig sind, uns irgendetwas Nützliches darüber zu sagen, wie viel globale Erwärmung unsere Industrien und Unternehmen verursachen könnten.

Die Modelle versuchen, die Navier-Stokes-Gleichungen mithilfe der numerischen Strömungsmechanik für Zellen von typischerweise 100 km x 100 km x 1 km in einer Reihe von Zeitschritten zu lösen. In Anbetracht der Erdoberfläche und der Tiefe der Troposphäre müssen die Gleichungen immer und immer wieder, Zeitschritt für Zeitschritt, für jede von etwa einer halben Million solcher Zellen gelöst werden – in denen viele der relevanten Prozesse, wie z. B. die Bildung von Kondensationskernen nach der Svensmark-Theorie, auf der Sub-Grid-Skala stattfinden und von den Modellen überhaupt nicht erfasst werden.

Nun sind die Navier-Stokes-Gleichungen notorisch widerspenstige partielle Differentialgleichungen: tatsächlich so widerspenstig, dass noch keine Lösungen in geschlossener Form gefunden wurden. Sie können nur numerisch gelöst werden, und gerade weil es keine Lösungen in geschlossener Form gibt, kann man nicht sicher sein, dass die numerischen Lösungen keine Fehler enthalten.

Es gibt eine weitere große Schwierigkeit mit Modellen, die in einer Reihe von Zeitschritten ablaufen. Wie Pat Frank vor zwei Jahren in einem bahnbrechenden Papier von großer Genialität und Auffassungsgabe zum ersten Mal dargelegt hat – ein Papier übrigens, das bisher noch keine von Fachleuten begutachtete Widerlegung erfahren hat – macht die Ausbreitung der Unsicherheit durch die Zeitschritte der Modelle sie formal unfähig, uns irgendetwas darüber zu sagen, wie viel oder wie wenig globale Erwärmung wir verursachen könnten. Was auch immer die Modelle sonst noch für einen Nutzen haben mögen, ihre Vorhersagen zur globalen Erwärmung sind reine Vermutungen und völlig wertlos.

Ein Problem ist, dass die Unsicherheiten in den Schlüsselvariablen so viel größer sind als das winzige mittlere anthropogene Signal von weniger als 0,04 Watt pro Quadratmeter und Jahr. Zum Beispiel unterliegt der wolkenarme Anteil einer jährlichen Unsicherheit von 4 Watt pro Quadratmeter (abgeleitet durch Mittelwertbildung über 20 Jahre). Da die Ausbreitung von Unsicherheiten in Quadratur erfolgt, breitet sich diese eine Unsicherheit so aus, dass sie für sich allein eine Unsicherheits-Bandbreite von ±15 bis ±20 °C über ein Jahrhundert ergibt. Und es gibt viele, viele solcher Unsicherheiten.

Daher ist jede Vorhersage auf der Hundertjahresskala, die in diesen Bereich der Unsicherheit fällt, nichts weiter als eine aus der Luft gegriffene Vermutung. Hier sieht man, wie die Unsicherheitsausbreitung dieser einen Variable in nur einem Modell aussieht. Das gesamte Intervall der CMIP6 ECS-Projektionen liegt deutlich innerhalb der Unsicherheits-Bandbreite und sagt uns daher nichts – gar nichts – darüber, wie viel Erwärmung wir verursachen könnten.

Pat hatte die gleichen Schwierigkeiten wie wir, Skeptiker und Thermageddonisten gleichermaßen von seiner Richtigkeit zu überzeugen. Als ich ihn das erste Mal sah, wie er einen erstklassigen Vortrag zu diesem Thema hielt, auf dem Treffen der World Federation of Scientists in Erice auf Sizilien im Jahr 2016, wurde er von Wissenschaftlern auf beiden Seiten in einer skandalös bösartigen und ignoranten Art und Weise niedergebrüllt, die an die grobe Misshandlung von Henrik Svensmark durch die profitgierigen Rohlinge der einst so angesehenen Royal Society vor einigen Jahren erinnert.

Hier sind nur einige der unsinnigen Antworten, mit denen Pat Frank in den letzten paar Jahren seit der Veröffentlichung zu tun hatte, und davor von Gutachtern bei mehreren Zeitschriften, die einfach nicht bereit waren, ein so bahnbrechendes Ergebnis zu veröffentlichen:

Fast alle Gutachter von Dr. Franks Arbeit a) kannten den Unterschied zwischen Genauigkeit und Präzision nicht; b) verstanden nicht, dass eine Temperaturunsicherheit kein physikalisches Temperaturintervall ist; c) erkannten nicht, dass die Ableitung einer Unsicherheit zur Bedingung einer projizierten Temperatur nicht impliziert, dass das Modell selbst zwischen Eishaus- und Treibhaus-Klimavorhersagen oszilliert [ein tatsächlicher Einwand eines Gutachters]; d) behandelte die Fortpflanzung der Unsicherheit, eine statistische Standardmethode, als ein fremdes Konzept; e) verstand nicht den Zweck oder die Bedeutung eines Kalibrierungsexperiments; f) verstand nicht das Konzept der instrumentellen oder Modellauflösung oder deren empirische Grenzen; g) verstand überhaupt nicht die physikalische Unsicherheitsanalyse; h) erkannte nicht einmal, dass ±n nicht dasselbe ist wie +n; i) erkannte nicht, dass die Unsicherheit von ± 4 W/m² im Wolkenantrieb ein jährlicher Mittelwert war, der aus den Daten von 20 Jahren abgeleitet wurde; j) verstand nicht den Unterschied zwischen dem Basiszustandsfehler, dem räumlichen Effektivwertfehler und dem globalen Netto-Mittelwertfehler; k) erkannte nicht, dass die Bildung des Mittelwerts der Unsicherheiten die Vorzeichen der Fehler aufhebt und das wahre Ausmaß der Unsicherheit verbirgt; l) erkannte nicht, dass die Gewohnheit der Klimamodellierer, Differenzen gegenüber einem Basiszustand zu bilden, die Unsicherheit nicht abzieht; m) stellte sich vor, dass ein Simulationsfehler im troposphärischen Wärmeinhalt keine falsche Lufttemperatur erzeugen würde; verstand nicht, dass die Unsicherheit des geringen Wolkenanteils, auf der die Analyse basierte, weder eine Basiszustandsunsicherheit, noch ein konstanter Fehler, noch ein zeitinvarianter Fehler war; n) stellte sich vor, dass die angeblich korrekte Temperaturprojektion von Hansen (1988) für 1988-2020 die Analyse ungültig machte.

Pah! Wir haben dieselbe Art von Unsinn ertragen müssen, und zwar aus demselben Grund: Die Klimatologen sind mit den relevanten Bereichen der Mathematik, Physik und Wirtschaft außerhalb ihres eigenen engen und allzu oft stumpfsinnig engstirnigen Spezialgebiets nur unzureichend vertraut, und sie sind höchst unwillig zu lernen.

Die Quintessenz ist, dass die Klimatologie einfach falsch liegt, was das Ausmaß der zukünftigen globalen Erwärmung angeht. Keine Regierung sollte dem, was sie sagt, auch nur die geringste Aufmerksamkeit schenken.

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2021/05/09/why-models-cant-predict-temperature-a-history-of-failure/

Übersetzt von Chris Frey EIKE

 




Treibhauseffekt oder nur „bodennahe Gasstrahlung“?

  1. Es gibt keinen Treibhauseffekt, der aus größerer Höhe wirkend den Erdboden zusätzlich zur Solareinstrahlung erwärmt. Das, was als Treibhauseffekt bezeichnet wird, ist eine bodennahe Wärmestrahlung bzw. IR-Strahlung infrarotaktiver Spurengase wie CO2, N2O, CH4, Wasserdampf und andere.
  2. Die von Nimbus 4 aufgenommenen Satellitenspektren (Hanel et al.) repräsentieren nicht den aus großer Höhe auf den Erdkörper treffenden Treibhauseffekt. Dies gilt auch für Messungen mit einem zenital ausgerichteten Pyrgeometer.
  3. Anders als angeregte Atome strahlen „Treibhausgase“ nicht bei einer bestimmten Wellenlänge (z. B. Linienspektrum des Natriums bei 369 nm = Nanometer), vielmehr emittieren sie in breiten Bandenspektren. Die Breite der Bandenspektren hängt von der sogenannten Rotationsquantenzahl J Bsp.: CO2–Bande bei 15 µm (Mikrometer) hat breite „Seitenbanden“ (IR-Banden), die theoretisch bis unendlich gehen. In der Praxis begnügt man sich mit dem Bereich 15 µm ± 3,5 µm. Die zentrale Bande bei 15 µm ist sehr stark. Sie wird zum gleichen Zeitraum von der überwiegenden Zahl der Moleküle emittiert. Je schwächer die Seitenbande, desto weniger Moleküle emittieren diese. Beispielsweise kommen auf 1000 bei 15,00 µm strahlende CO-Moleküle ganze 0,6 Moleküle, die bei 16,74 µm emittieren.
  4. Genau so wenig wie die Schildbürger Licht (elektromagnetische Strahlung)in Säcken in ihr fensterloses Rathaus tragen konnten, kann Wärmestrahlung nicht einfach als solche in der Atmosphäre vorkommen. Sie ist immer an Materie gebunden, die eine bestimmte Temperatur hat. Deshalb stammen schwache „Wärmestrahlungsbereiche“ (schwache IR-Banden) zur gleichen Zeit immer nur von wenigen Molekülen.
  5. Für die bei einer bestimmten Wellenlänge emittierte Strahlung gilt das Planck’sche Strahlungsgesetz. Die sogenannte Stefan-Boltzmann-Gleichung erfasst das gesamte Spektrum eines homogenen Körpers und nicht eine bestimmten Spektralbereich. Wasser, Wald, Wiese, Savanne und Wüstensand emittieren Wärmestrahlung in verschiedenen Spektralbereichen. Deshalb ist es eine unzulässige Vereinfachung, die Stefan-Boltzmann-Gleichung mit einer variabel angepassten Albedo auf den gesamten Erdkörper anzuwenden und zu behaupten, ohne „Treibhausgase“ hätte dieser eine Mitteltemperatur von minus 18 °C. Dies ist eine reine Phantasiezahl, die auf unzulässigen Vereinfachungen beruht.
  6. Sogenannte „Treibhausgase“ absorbieren und emittieren IR-Strahlung. Die Emission erfolgt entweder spontan oder wird vom Strahlungsfeld induziert. Sie ist abhängig von der Temperatur und nicht von Reflektionen („Treibhausgase“ sind kein Spiegel!). Was von den Radiometern der Satelliten registriert wird, sind die von den optisch aktiven Gasen auf Grund der herrschenden Temperaturverteilung in der Atmosphäre emittierten Strahldichten.
  7. Energie (genauer: Gibbs-Energie bzw. freie Energie) fließt immer von einem höheren Niveau zu einem niedrigeren. Deshalb kann kälteres CO2 in beispielsweise 1000 m Höhe nicht durch Strahlung den wärmeren Erdboden erwärmen. Das wäre ein Perpetuum mobile 2. Art. Dies ist genauso unmöglich, wie ein Ozeandampfer seine Antriebsenergie unter Abkühlung des Wassers aus dem Meer gewinnen kann.
  8. Auch die sogenannte Strahlungstransportgleichung kehrt den Energiefluss nicht um. Vielmehr gilt auch hier, dass die Strahlung netto immer von einem wärmeren Körper zu einen kälteren fließt.

Der ganze ausführliche Beitrag kann hier ( Bodennahe Gasstrahlung oder Treibhauseffekt ) als pdf herunter geladen werden. Ein Vorgänger Artikel kann hier gelesen werden.

 




Klimaschau 16 – die Tagesschau von Sebastian Lüning




Die falschen Propheten – wie manche „Wissenschaftserklärer“ ihr Publikum einfach belügen

Albert Arnold „Al“ Gore ist nicht als zuverlässiger Prophet bekannt. Seine düsteren Vorhersagen, dass bis zum Jahr 2012 alle Gletscher im Glacier National Park verschwunden sind oder die Gipfel des Kilimandscharo 2016 keinen Schnee mehr haben, wollten sich einfach nicht erfüllen (Taylor, 2020).

Aber ein Labor-Experiment, wonach CO2 angeblich die Atmosphäre aufheizt, hat bis heute viel Aufmerksamkeit gefunden und hat zu einer erheblichen Verwirrung geführt. Alles begann mit einem YT-Video (eine halbe Millionen Klicks)  vom 21.09.2011 mit Gores Mitarbeiter Bill Nye als Erzähler (CLIMATE 101). Der Moderator erklärt, dass die Luft-Temperatur ansteigt, wenn man CO2  in einer, von außen beleuchteten, gläsernen Keksdose einleitet.
Dieses Video war von Anfang an heftig umstritten. Anthony Watts, der aufwendig versuchte, das nur mangelhaft beschriebene Experiment nachzumachen, fand keine Erwärmung, sondern sogar eine geringe Abkühlung (Watts, 2011). In der Folge berichteten verschiedene Klima-Skeptiker auf der deutschen Internet-Plattform „EIKE“, dass auch sie keine Erwärmung gefunden hatten (Solheim, 2017).

Video Der Treibhauseffekt: Sendung Hoimar von Ditfurths aus dem Jahre 1978

Diese negativen Reproduktionen stehen im Widerspruch  zu einem sehr spektakulären Experiment des deutschen Autors und Fernsehmoderator Dr. Hoimar von Ditfurth† aus dem Jahre 1978 (Ditfurth, 1978).
Der Autor war todesmutig in einen großen Plastik-Zylinder gestiegen und hatte am eigenen Leibe eine Erwärmung von 24 °C (75 °F)  auf 35 °C (95 °F) beim Einleiten von CO2 erlitten. Gerade in Deutschland wurde dieses YT-Video Vorbild für immer neue Versuchs-Variationen, womit man die angebliche CO2-Gefahr demonstrieren wollte (Quaschning, 2019).Die Realität – physikalische Erkenntnisse gewinnt man nur durch Messen und Vergleichen

In dieser widersprüchlichen Situation, in der Aussage gegen Aussage stand, kontaktierte mich Dr. Michael Schnell im Dez. 2017. Bis dahin war er für mich ein völlig unbekannter Wissenschaftler, aus der ehemaligen DDR, der mich zu einem Besuch in seinem Haus einlud. Ein schmuckes Einfamilienhaus in einem ruhigen Stadtteil von Berlin. Als ich sein Keller-Labor betrat verschlug es mir den Atem, in einer Ecke eine große Röhre, bis fast zur Decke, ein Gewirr von Instrumenten, Stromkabeln, Schläuchen, Computer. Ich fühlte mich an Billy Gates und seinem Anfang in einer Garage erinnert.
Dr. Schnell, erzählte mir dass er einen völlig neuen experimentellen Ansatz verfolge, wonach man die Strahlung der Treibhausgase, nur vor einem kalten Hintergrund messen könne. Er brachte seine Argumente in ruhiger und verständlicher Argumentation vor, doch ich spürte, dass Herr Schnell, als ehemaliger Chemiker, in der Klimatologie noch unerfahren ist. Ich schlug ihm deshalb vor, seine Ergebnisse mit Fachkollegen zu diskutieren und lud ihn ein, seine Ergebnisse auf unserer jährlichen Internationalen Konferenz „Energie und Klima – IKEK“ vorzutragen.
Im Nov. 2019 überraschte er die Kongressteilnehmer der 13. IKEK in München mit dem kühnen Anspruch, dass er das Rätsel der widersprüchlichen CO2-Experimente weitgehend gelöst hat (Schnell, 2019). Aber es vergingen noch weitere 6 Monate bis ein Schlussstrich gezogen werden konnte und nun alle Puzzlesteine perfekt zusammen passen.

Es ist nicht der Treibhauseffekt, der entscheidet ob CO2 den relativ kleinen Luftraum bei einem Laborversuch erwärmt, sondern die experimentellen Randbedingungen. CO2 hat eine wesentlich kleinere Wärmeleitung von 14,3 mW/(m∙K) als Luft mit 24,1 mW/(m∙K). Es ist also kein Wunder, dass sich die Wärmeleitung bemerkbar macht, wenn man Temperatur-Messungen bei hohen CO2-Konzentrationen vornimmt und Messungen unter 1 Vol.-% CO2 keinen Temperatur-Effekt verursachen.
Eigentlich nichts Neues, dass hatten bereits viele Skeptiker vorgebracht. Aber der eigentliche Clou kommt erst! Noch wichtiger als die Wärmeleitung der reinen Gase ist die Art wie das CO2 in das Versuchsgefäß eingeleitet wird. Da CO2 ein schweres Gas ist (Dichte = 1,98 kg/m3), wurde es bevorzugt immer von unten eingeleitet. Es bildete sich ein „CO2-See“, der sich langsam nach oben durch Diffusion ausbreitet. Dabei entsteht ein Konzentrations-Gefälle, das eine viel geringere Wärmeleitung aufweist als eine gleichmäßig verteilte CO2-Luft-Mischung. Es ist dieser spezielle Effekt, der erklärt, warum bei einigen Experimenten eine ungewöhnliche Erwärmung beobachtet werden kann. Ein einfaches Umrühren hätte gereicht und diese Temperatur-Erwärmung hätte sich in Luft aufgelöst.
In der Natur gibt es CO2-Schichten nur in speziellen Höhlen oder auf der Oberfläche von CO2 ausgasenden Seen. In der Atmosphäre sind Luft und CO2 gleichmäßig vermischt. CO2 hat hier eine sehr kleine Konzentration (0,04 Vol.-%) und somit auch keinen Einfluss auf die Wärmeleitung. Letztendlich wurde die Öffentlichkeit mit den Experimenten der Alarmisten getäuscht und manipuliert, denn die CO2-Wärmeleitungs-Effekte haben absolut nichts mit dem CO2-Treibhauseffekt zu tun.

Mit diesem Urteil deckt sich auch H. Harde‘s 1) Erkenntnis, dass sich der CO2-Einfluss viel stärker auf den Boden als auf die Luft auswirkt, die er durch Strahlungstransfer-Rechnungen auf der Basis eines Zwei-Schichten Modelles gewonnen hatte.
Es war also von vornherein der falsche Ansatz, den Treibhauseffekt anhand der Lufttemperatur feststellen zu wollen.

Sorry, Al Gore, aber auch diese ihrer Prophezeiungen, der angeblichen Luft-Erwärmung  durch CO2, ging nach hinten los.

Der Beitrag von Dr. Schnell wurde auf der deutschen Internetseite  „EIKE“ zum ersten Mal am 28. Jun. 2020 veröffentlicht (Schnell, 2020). Eine englische Übersetzung befindet sich hier Experimental review of the CO2 greenhouse effect.

 

———

1) Hermann Harde, „Radiation and Heat Transfer in the Atmosphere: A Comprehensive Approach on a Molecular Basis“, International Journal of Atmospheric Sciences, Volume 2013, Article ID 503727, 26 pp.

 




Kritisches Hinterfragen des IPCC Basis Modell KT97, seines atmosphärischen Treibhauseffektes, seiner Ableitung von CO2 mit einem Strahlungsantrieb von 32 W/m² und seiner politischen Dimension

Ein seit ca. 1850 von Klimawissenschaftlern weltweit beobachteter Temperaturanstieg von ca. 1.2 K wird auf den Ausstoß von Treibhausgasen, allen voran auf CO2 zurückgeführt.

Vom IPCC gesammelt veröffentliche Computer Szenarien basieren auf Modellen mit einem atmosphärischen Treibhauseffekt von 33 K. Diesen formulierte als einer der ersten in den 1980-ziger Jahren der NASA Wissenschaftler B. Barkstrom mit Kollegen auf Grundlage von selektiv ausgesuchten Satellitenmesswerten (ERBE Satellitenprogramm der NASA, Messung der ein/abgestrahlten Energie).

In ihrer energetischen Bilanzbetrachtung der Erde wurde die solare Einstrahlung von 1368 W/m² der Sonne, wie so oft, auf die gesamte Erdhülle über den Faktor 1/4 (da die Sonne auf eine virtuelle Kreisfläche strahlt, und die Kugeloberfläche mit dem gleichen Radius 4 x größer ist) verteilt. Die Wissenschaftler Kiehl und Trenberth übernehmen das Modell und verfeinern es.

Bei diesem Vorgehen kann aber nur etwa die Hälfte der vorhandenen Messwerte (BSP. ERBS Satellit des ERBE Programm) im Modell dargestellt werden. Aber selbst die wenigen im Modell verwendeten Werte, weichen zusätzlich noch von den Satellitenwerten in erheblichen Umfang ab, beispielsweise Modellwert und Messwert der Albedo, obwohl sich ihre Modelle auf Satellitenmesswerte, insbesondere das ERBE NASA Programm berufen.

Bereits kleine Abweichungen haben aber große Auswirkungen. Die Folge des Ansatzes von nur eines Teils, weil lediglich der Hälfte der Messwerte, verursacht daher in derartigen Bilanzmodellen ein erhebliches Energiedefizit. Die fehlende Energie führt zu einer sehr geringen Abstrahleistung der Erde von nur 235 W/m². Diese entspricht über das Stefan Boltzmann Gesetz einer Temperatur von -18 Grad Celsius in der oberen Atmosphäre. Gibt es keine Strahlungsbehinderung in der Atmosphärenhülle, so müssste die Erdoberfläche auch auf -18 Grad Celsius abkühlen und die Erde ein Eisball sein. Wir „messen“ aber global ca. +15 Grad Celsius.

 

Um diesen offensichtlichen Widerspruch logisch aufzulösen, postulierte oder rief Barkstorm einen sogenannten atmosphärischen Treibhauseffekt von 33 Grad Celsius aus. Dieser soll von unsymmetrischen Gas-Molekülen durch eine Gegenstrahlung von 324 W/m² verursacht werden. Tatsächlich werden in geringem Maße unsymmetrische atmosphärische Molekühle von Strahlung angeregt. Durch Stöße oder auch Abstrahlung geben sie diese Energie wieder ab.

Man kann zeigen, um +15 Grad Celius im Modell als Oberflächentemperatur zu erreichen, verändern Kiehl und Trenberth jedoch hierzu die physikalisch/chemischen Eigenschaften von CO2. Sie machen aus einem Gas, ein diskontinuierlicher Abstrahler, einen Kontinuums- oder Festkörperstrahler mit einer Abstrahlleistung von bis zu 32 W/m². Dies ist nach Meinung des Autors nicht richtig, da hierbei nicht strahlende Bereiche für den gesamten Temperaturbereich von -18 bis +15 Celsius im Abstrahlspektrum mit eingerechnet wurden.

Schematische Darstellung der 1/4 Verteilung der solaren Einstrahlung auf die Erdkugel. Bild EIKE

Außerdem bezieht die 1/4 Verteilung der solaren Einstrahlung auf die gesamte Atmosphärenhülle stets die kalte Nachtseite mit ein und entspricht einem solaren Modell mit 2 Sonnen, halber Abstrahleistung und die Erde in Ihrer Mitte. Zusätzlich widerspricht dies der korrekten Anwendung des Stefan-Boltzmann Gesetzes.

Ein Modell mit dem Verteilungsfaktor 1/2, auf Basis der Energiebeträge der gesamten Messreihe des Satelliten ERBS im 5-jährigen Durchschnitt, liefert hingegen eine deutlich höhere Abstrahlleistung der Erde von durchschnittlich 500 W/m². Es gibt bei diesem Verteilungsansatz daher keine Strahlungsbehinderung der Atmosphäre, wie von Barkstorm seinerzeit postuliert. Damit entfällt die Notwendigkeit eines Treibhauseffektes von 33K und die Kopplung der Temperatur an den CO2 Gehalt.

CO2 strahlt, aber vernachlässigbar wenig. Da IPCC Szenarien den barkstormschen Treibhauseffektes nachmodellieren, errechnen diese am Computer zwangsläuffig Horrorszenarien mit weitreichenden, politischen Auswirkungen. Ein Modell mit dem Verteilungsfaktor 1/2 führt die globale Erwärmung von ca. 1.2 Grad Celsius auf eine langfristige Bewölkungsänderung von ca. 3.6 % zurück. Dies zeigen die Messwerte der Satelliten TERRA und AQUA und finden in den langen Zeitreihen der Albedo für Europa (Quelle Deutscher Wetterdienst) auch für Europa ihre Bestätigung.

Setzte man dann in das Modell von Kiehl und Trenberth, 1997, mit 1/4 Verteilung und unter Ansatz der Gegenstrahlung von 324 W/m², statt der Modellalbedo von 0.31, den Albedo Satellitenmesswert von ERBS mit 0.27 ein, so errechnete sich, statt 14.8 Grad Celsius, eine mittlere Globaltemperatur von 17,6 Grad Celsius. Dies aber wäre falsch und führt bereits den Pariser Klimaakkord ad absurdum, obwohl dort keine eine Bezugstemperatur für die Begrenzung der Erderwärmung genannt ist.

Die obige Darstellung wird mit umfangreichen mathematisch physikalischen Nachweisen im angehängten  Artikels Verlinkung zur PDF Datei ausführlich begründet

Langversion des Artikels Kritisches Hinterfragen des IPCC Basis Modell KT97 von A.Agerius 2020.

Folgt man dieser, dann besteht für Klima Alarmismus nach Meinung des Autors kein Anlass.




13. IKEK in München: Michael Schnell – Welchen Einfluß haben Treibhausgase auf die Lufttemperatur?

Die Idee des Treibhauseffektes stammt ursprünglich von dem französischen Wissenschaftler Joseph Fourier, der sie bereits 1827 publizierte.
Michael Schnell baute für seine Klimaforschung eine Versuchs-apparatur, die die Auswirkungen der erdnahen Infrarotstrahlung (IR), einem Teilaspekt des Treibhauseffektes, nachstellt.


 




13. IKEK in München: Michael Limburg – Was Sie schon immer über den Treibhauseffekt wissen wollten ….

Dabei untersucht er die Grundlagen der Hypothese vom Treibhauseffekt und weist auf eine grundsätzlich unwissenschaftliche Herangehensweise sowohl bei der Definition der Randbedingungen, ebenso wie bei der Bestimmung der Unsicherheiten bei Modellen und deren Eingangs-Daten hin, die eine völlige Ahnungslosigkeit vieler Klimaforscher in Bezug auf Fehlerfortpflanzung und Meßtechnik vermuten lassen, wenn sie beispielsweise eine systematische Fehlerbetrachtung unterlassen.


 




Die apokalyptischen Reiter der Klimapolitik – zum ersten

Wer sich seinen eigenen Weg in der großen Klima-Verwirrung finden will, kommt nicht umhin sich ein paar grundsätzliche Gedanken über Wissen und Bildung zu machen und sich beispielsweise den kleinen Unterschied zwischen Fakten und Daten klar zu machen. Beginn einer kleinen Serie zur geisteswissenschaftlichen Ertüchtigung des staunenden Publikums im großen Klima-Theater.

„Der anthropogene (durch den Menschen verursachte) Treibhauseffekt ist seit über drei Jahrzehnten zunehmend Gegenstand wissenschaftlicher Untersuchungen und öffentlicher Diskussionen. Trotz der mittlerweile fundierten wissenschaftlichen Basis melden sich immer wieder Skeptiker zu Wort, die den anthropogenen Treibhauseffekt anzweifeln oder sogar leugnen.“ (Umweltbundesamt)

„Es kommt die Zeit, da wir alle fort und vergessen sind, und das Einzige, was dann von uns übrig ist, sind die Treibhausgase, die wir mehr oder weniger unwissentlich in die Atmosphäre gepustet haben.“ (Szenen aus dem Herzenvon Greta Thunberg, Svante Thunberg, Malena Ernman, Beata Ernman)

Fanatismus, meine Damen und Herren, Fanatismus … – Kennen Sie Greta? Alle kennen Greta, „wir alle“ kennen sie, vielleicht nicht gerade in Person, aber ganz gewiss ihr Medien-Abziehbild. Dieses Bild, über das separat zu sprechen wäre, hat, so scheint es mittlerweile, durch die Heftigkeit des New Yorker UN-Auftritts vom 23. September einen Knacks bekommen. Das muss nicht schlecht sein. Der Ikone der Klimabewegung widerfährt damit nur, was schon Andere vor ihr hinnehmen mussten. Sie spaltete die Wohlmeinenden, und die Bewegung geht über sie hinweg. Genug ist nicht genug. Der Leitsatz der Bewegung gilt nicht bloß im Reich der PS-Boliden und Fernreisen, er gilt genauso für Exponenten einer Weltsicht, in der für derlei Luxus kein Platz vorgesehen ist.

Der Star, der, wie man hier und da lesen konnte, „seine Emotionen nicht im Griff hat“, ist plötzlich wieder Kind: Wer sind die Eltern? Wo sind die Eltern? Die seriöse Welt, in der Entscheidungen gefällt und Mehrheiten organisiert werden müssen, trennt sich, die Gelegenheit nutzend, ostentativ von den lunatics, den überspannten Rebellen des Weltgewissens, das bekanntlich bei Bedarf in jedem Mainstream-Politiker tickt. Und die Rebellen? Sagen wir, die Situation kommt ihnen entgegen, nachdem „Greta“ erfolgreich die Botschaft vom drohenden Untergang in den Köpfen der Mehrheitsgesellschaft und der ihr verpflichteten Politik verankert hat. Konkurrenz belebt das Geschäft und Feindschaft gegen das System garantiert einen langen Atem. Währenddessen wird die Ikone, ausstaffiert mit allerlei Auszeichnungen, ins öffentliche Nirwana all der Kämpfer für eine bessere Zukunft entrückt, an die von Zeit zu Zeit ein bebilderter Zeitungsartikel erinnert.

Fanatismus der Unwissenheit

Die junge Dame, die, wie sie bereits mehrfach andeutete, ihre Bildung auf dem Altar der Menschheit opfert, da sie etwas weiß oder zu wissen glaubt, das keinen Aufschub duldet, weiß offenbar nicht, dass Bildung und Wissen in einem engen Zusammenhang stehen oder, um es weniger schlicht zu formulieren, einander bedingen: keine Bildung ohne Wissen, kein Wissen ohne Bildung. Vor allem der letzte Teil dieses Satzes verdient Beachtung. Man muss wissen – oder eine Ahnung davon haben –, was Wissen heißt und wie es zustande kommt, um sich seiner halbwegs angemessen bedienen zu können. Es gibt einen Fanatismus der Unwissenheit und des Wissens, die einander in ihren Folgen nicht nachstehen – allein schon deshalb nicht, weil letzterer gleichfalls auf Unwissenheit beruht (den Fall der wissentlichen Unwissenheit, des Selbstbetrugs oder der bösen Absicht einmal beiseitegesetzt).

Daher kann keine Unterrichtseinheit den Bildungsgang ersetzen, innerhalb dessen sie angesetzt wurde: Eine Banalität unter Pädagogen, zusehends ausgehebelt durch die grassierende Bildungsverachtung von Leuten, die der Ansicht sind, sie wüssten genug, um die Welt von ihrem schlimmen Tun abhalten zu müssen – hier und jetzt, denn die Sache selbst duldet … siehe oben. Die Sache selbst. Ganz recht, die sechzehnjährige Greta kann es nicht wissen, da eine skrupellos agierende Umgebung ihr ein Dasein als Medium nahelegt, dazu verurteilt, anderer Leute Wahrheiten unter die Leute zu bringen – flächige Projektionen eines „Wissens“, das in seinem Kern vielleicht Wissenschaft, vielleicht ein Hoax (oder ein guter Mix aus beidem) ist, in jedem Fall aber über eine Tiefendimension verfügt, die sich ihr und ihren Mitkämpferinnen entzieht.

Falls dieses Kind, das kein Kind mehr ist, ein „Missbrauchsopfer“ genannt zu werden verdient, so weniger wegen einer ausgeplauderten Asperger-Diagnose als deswegen, weil ihm die akklamierende Erwachsenenwelt, in der es sich offensichtlich bewegt, das Recht auf Bildung abschneidet. Damit scheint es das Schicksal einer Generation von Jugendlichen zu teilen, deren Erzieher und Lehrer es vorziehen, einem wahnhaften Purismus die Ehre zu geben, statt ihren Schützlingen die elementare Kenntnis dessen zu vermitteln, was eine frühere Generation „la condition humaine“ nannte, die menschliche Weise, in der Welt zu sein und, unter anderem, eine Flut widersprüchlicher Gewissheiten zu generieren, deren Schicksal darin besteht, wieder kassiert zu werden, sobald es an der Zeit ist. Denn noch immer ist der Mensch das Tier, das tief in seinem Inneren weiß, dass es nichts weiß, während es fest zu wissen glaubt, was Andere ihm suggerieren.

Fakten werden gemacht

Die Berufung auf Fakten besitzt, zumindest in der Wirkung auf Laien, etwas Furchteinflößendes. Sie erscheinen ihnen unumstößlich gegeben: „Widerstand zwecklos!“ Das freut die Blender unter den Wissenschaftlern, die sich gern im Licht der Öffentlichkeit sonnen. Denn sie wissen: Nichts in ihren Disziplinen ist so umkämpft wie just diese „Fakten“. Wie das Wort bereits andeutet: Fakten werden gemacht. Sie sind das Ergebnis einer praktischen („Fakten schaffen!“) oder theoretischen Anstrengung. Das unterscheidet sie von „Daten“, die erhoben und interpretiert werden müssen, um auf irgendeine Weise (zum Beispiel in Archiven, etwa zum Klimawandel, wo sie, rein theoretisch, auch zurechtgebogen werden könnten) auf Abruf gegeben zu sein.

Wer demnach, öffentlich sein Renommee als Wissenschaftler in Anspruch nehmend,  behauptet, jene einer wissenschaftsfernen Umgebung aufs Auge gedrückten „Fakten“ seien – bloß gleichsam für Laien verständlich aufbereitet – die Daten selbst, der beurlaubt sich – an dieser Stelle wenigstens – aus dem wissenschaftlichen Diskurs. Manche seiner Kollegen dürften es mit Erleichterung quittieren. Einige allerdings auch mit verstecktem oder offenem Groll, weil sie gern beides hätten: die wissenschaftliche Reputation und das öffentliche Etikett des/der „führenden Forscher(s)*in“.

Wie eine Probe auf diesen Mechanismus liest sich die Karriere der neueren Klimaforschung, deren „führende Vertreter“ seit Jahr und Tag einer dankbar-betroffenen Öffentlichkeit ihre unumstößlichen Fakten präsentieren und dabei nicht selten auf ihre Vergesslichkeit spekulieren, da gerade die furchterregendsten unter den aufgebotenen „Fakten“ alle naslang nachjustiert werden müssen.

Immerhin könnte die Behauptung der Forschesten unter ihnen, irgendwer habe „das Schlimmste“ schon seit Jahrzehnten vorhergesagt, bei klügeren Zeitgenossen eher Zweifel am Fleiß und an der Gewissenhaftigkeit der über allerlei Disziplinen verstreuten, aber im politischen Impetus vereinten Zunft erwecken. Also wird ein gewisser Teil der durch Forschungsfortschritte notwendig werdenden Korrekturen am obligaten Horrorszenario mit der Maßgabe publiziert, in Wahrheit sei alles viel schlimmer, als bisher angenommen. Das imponiert aufmerksameren Zeitgenossen zwar nicht sonderlich. Aber angesichts der allgemeinen Betroffenheit verschließt es ihnen den Mund.

Dies ist der erste Teil einer vierteiligen Serie. Zuerst veröffentlicht auf der Achse des Guten. Mit freundlicher Genehmigung des Autors.




Weltuntergang durch Treibhaus-Effekt ?

Hier  – vorab  – die uralte(!) physikalische Erkenntnis, daß zusätzliches (anthropogenes) COnur noch eine geringfügige Wirkung hat – anhand eines IPCC-Zitates(!) [1]:

“In der idealisierten Situation, daß die Klima-Reaktion auf eine Verdopplung des atmosphärischen COnur aus einer gleichmäßigen Temperaturzunahme besteht, ohne Rückkopplungen … würde die (maximale) globale Erwärmung nach den Modellen [GCMs] etwa 1,2 °Cbetragen”

(1)  Begriffs-Bestimmungen

Die Treibhaus-Gase

Es gibt einige (Spuren-)Gase in der Atmosphäre, welche selektiv Infrarot-Strahlung von der Erdoberfläche in Linien-Spektren absorbieren, und in den Kugel-Raumwieder abstrahlen, folglich zu 50% Richtung Erde. Damit verzögern … behindern sie teilweise die natürliche Strahlungs-Abkühlung der Erde. Den weit überwiegenden Anteil an diesem Effekt hat der Wasser-Dampf. Die Reihenfolge der Treibhaus-Gase bezüglich ihres Effektes in der Atmosphäre [2]: Wasserdampf 62%, CO22%, Ozon(O3) 7%, Lachgas (N2O) 4%, Methan (CH4) 3%.

Wasser-Dampf

Das ist die gasförmige Phase des Wassers. Diese Bezeichnung ist physikalisch unglücklich,

weil sie allgemein verwechselt wird mit „Waschküchen-Dampf „, „Wiesen-Nebel“, Wolken … Die vorstehend aufgeführten Erscheinungs-Formen jedoch sind physikalisch etwas ganz anderes, nämlich die flüssige Phase (Aggregat-Zustand) des Wassers in Form von Tröpfchen. Der Durchmesser der Wasser-Tropfen in der Atmosphäre erstreckt sich über einen Bereich von mehr als drei Zehner-Potenzen (mm – mm). Daraus folgt: Auch Nebel und Wolken bestehen aus Wasser-Tröpfchen, sie sind kein Wasserdampf!

Der Treibhaus-Effekt

Dieser physikalisch gesicherte Effekt läßt sich anschaulich durch die folgende Graphik darstellen :

Abbildung 1  Treibhaus-Effekt – JA oder NEIN ?

Der hier unter [3] dargestellte Schwingungs-Effekt gilt nur für Moleküle mit  >/= 3 Atomen. Das bedeutet, daß z.B. die in der Atmosphäre zu 99% dominierenden Gase Stickstoff und Sauerstoff keine(!) Treibhausgase sind. Wäre es anders, dann hätte Leben auf der Erde kaum eine Chance.

Der „Begriff Treibhaus-Effekt“

Dieser Begriff ist aus der Gewächshaus-Klimatologie entlehnt, jedoch für die Atmosphäre physikalisch verwirrend und letztlich falsch gewählt – ähnlich unglücklich wie „Wasserdampf“ (s.w.o.) : CO2– ein Glasdach über unseren Köpfen ?

Noch im Herbst 2007 erklärte der durch die Medien recht bekannter Klima-Professor LATIF den vermutlich aus seiner Sicht etwas wissenschafts-fernen Bauern und Handwerkern in Bad Bederkesa die Ursache für die (angeblich) bevorstehende Klima-Katastrophe so: “Was das Glasdach im Gewächshaus ist, das ist CO2 in der Atmosphäre“. Man muß nicht Physik studiert haben, um das als Zumutung zu empfinden :

Die Atmosphäre hat kein Dach, weder aus Glas noch aus Gas. Durch eigene Beobachtung hat jeder diese Erkenntnis vielfach schon selbst gewonnen: Jede sommerliche Quellwolke steigt viele Kilometer ungebremst in die Höhe, einschließlich aller enthaltenen Gase – ohne an irgend ein „Dach“ zu stoßen (Abb.2) :

A n d e r e r s e i t s :

In einem Gewächshaus/Treibhaus ist der weit überwiegende Erwärmungs-Effekt nicht die „Strahlenfalle“, sondern die “Luft-Falle“, die es in der Atmosphäre nicht gibt. Die durch die Gewächshaus-Heizung oder am Tage auch durch die Sonne erwärmte Luft im Glashaus kann nicht entweichen. Jedoch  –  öffnet bzw. lüftet man das Glasdach, so fällt die Temperatur in kurzer Zeit auf das Temperaturniveau der Außenluft.

Die Treibhaus-Wirkung der Spurengase in der Atmosphäre :

Abbildung 3  Die partielle Wirkung der Treibhaus-Gase

Das Klima-System

Das Klima-System der Erde besteht aus Atmosphäre, Hydrosphäre (insbes. Ozeane), Kryosphäre (Eis), Biosphäre und Lithosphäre (Gesteine). Bei den Umsetzungen von Energie und Gasen im Klimasystem gibt es stets eine Fülle von physikalischen und chemischen Prozessen und Rückkopplungen, die im Detail unüberschaubar sind. Genau  d a s  ist das Problem der Klima-Modelle, die sich folglich mit einer Vielzahl von Annahmen, Näherungs-Lösungen (Aproximationen), Parametrisierungen etc. behelfen müssen. Daher steht auch im IPCC-Bericht 2001 [4]:

„In climate research and modelling we should recognize, that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible„.

Abbildung 4  Das Klima-System

Betrachtet man diese vielen gewichtigen Klima-Elemente, so wirkt es absurd, daß die derzeitige hysterische Klimadebatte nahezu „monokausal“ in der Atmosphäre mit dem anthropogenen CO2-Eintrag geführt wird. Das Zeitalter der Aufklärung ist zu Ende.

Klimasensitivität                                                                                                         

Als Maß für einen abgeschätzten Summen-Effekt von direkter Strahlungs-Wirkung und indirekten Rückkopplungs-Mechanismen im Klima-System wurde die so genannte Klimasensitivität konstruiert. z.B. für CO2 [5]:

„Die Klimasensitivität  ist eine Größe, die die globale Erwärmung der Erdatmosphäre durch die Wirkung von Treibhausgasen ins Verhältnis zu einer Strahlungseinheit setzt. Man kann sie in °C/(Watt/m²) angeben. Geläufiger ist jedoch die Angabe der Klimaerwärmung bei Verdoppelung der CO2-Konzentration. Das heißt, dass die Durchschnittstemperatur der Erde um diesen Betrag ansteigt, wenn sich die CO2-Konzentration von den vorindustriellen 280 ppm auf dann 560 ppm erhöht. …. Das IPCC gibt in seinem 2007 erschienenen Vierten Sachstandsbericht Werte zwischen 2 und 4,5 °C als „wahrscheinlich“ an. Der beste mittlere Schätzwert liege bei 3 °C …“.

Diese auch von den Klima-Instituten und vom IPCC verbreitete Definition ist für einen physikalisch weniger gebildeten Leser kaum überschaubar, kaum begreifbar. Sie „vernebelt“ auch von Anfang an, daß die vom IPCC in die Medien transportierten Temperatur-Prognosen von 2…5 Grad auch nicht annähernd alleine durch den „anthropogenen Treibhaus-Effekt“ zu erzielen sind, sondern daß es dazu spekulativer und fragwürdiger und im Detail unbekannter Rückkopplungs-Annahmen bedarf [6]:

„Zur genauen Feststellung dieser Sensitivität gibt es leider kein eindeutiges und allein richtiges Verfahren“.

Es handelt sich also bei der „Klima-Sensitivität“  um ein von Anfang an unüberschaubares physikalisches Konstrukt, um eine Hypothese.

(2)  WAS kann CO?

Die Treibhaus-Wirkung von CO2ist aus Labor-Untersuchungen sowie auch aus Berechnungen der Wirksamkeit des spektralen CO2-Absorptions-Vermögens hinreichend bekannt :

Abbildung 5 [7]  Logarithmischer Treibhaus-Effekt; LAMBERT-BEER’sches Gesetz (Textfelder eingefügt)

D a z u   einige Belege aus peer-reviewten wissenschaftlichen Publikationen :

()  Paul Crutzen (Nobelpreis Chemie) [8]:

“ Es gibt bereits so viel CO2in der Atmosphäre, daß in vielen Spektralbereichen die Aufnahme durch CO2  fast vollständig ist, und zusätzliches COspielt keine große Rolle mehr„,

() H. Hinzepter (eh. Leiter MPI HH ) [9]:

„Eine Verdoppelung der Kohlendioxid-Konzentrationen in der Atmosphäre allein (bewirkt)nur eine geringfügige Erhöhung der mittleren bodennahen Temperatur um wenige Zehntelgrade„.

() IPCC [10]:

„In der Mitte des 15-μm-Absorptions-Bereiches hat zusätzliches CO2nahezu keinen Effekt…“

()  WIKIPEDIA [11]:

„Bei ausschließlicher Betrachtung der im Labor messbaren Strahlungswirkung von COergibt sich eine Klimasensitivität von 1,2 °C. Es existieren jedoch Rückkopplungs-Effekte, darunter im Wesentlichen die Wasserdampf-Rückkopplung, die Eis-Albedo-Rückkopplung und Wolken. Daher liegen die möglichen und als wahrscheinlich angenommenen Werte höher, ein Wert um 3° wird heute als am wahrscheinlichsten angenommen.“

()  Richard J. Betschauer (Physiker) [12] :

„New calculations show that doubling of carbon dioxide (CO2)will increase average global temperature by only about 1°F (degrees Fahrenheit) or 0,55°C (degrees Centigrade), much less that the range of  2°C to 4.5°C estimated by the United Nations International Panel on Climate Change (IPCC). These new calculations are based on NASA supported spectral calculations available on the Internet relating to greenhouse gases.“ 

Bei den in der vorstehend zitierten Literatur genannten CO2-Erwärmungs-Raten von meist unter 1 Grad ist zusätzlich zu berücksichtigen, daß es sich dabei um Berechnungen für eine Atmosphäre ohne Wasserdampf  handelt. Eine solche Atmosphäre gibt es jedoch in der Natur nicht. Da sich jedoch die Absorptions-Banden von CO2 und Wasserdampf teilweise überlappen, verringert der Wasserdampf in nicht unwesentlichem Ausmaß das CO2-Treibhaus-Potential noch um etliche Zehntel Grade [13]:

„Wegen des stets vorhandenen Wasserdampfes ist die Wirkung der CO2-Verdoppelung in der Natur aber noch erheblich kleiner.“

Und genau das steht manchmal sogar schon in einer deutschen Zeitung ( [14], FAZ) :

„Die Paläoklimatologie liefert immer öfter die entscheidenden Daten und Hinweise, mit denen Unsicherheiten verkleinert und die Schwächen der grobskaligen Modelle gemindert werden – die unvermeidliche „Parametrisierung“ etwa, das Setzen fester Parametergrößen als mathematischer Näherung von kleinskaligen Prozessen, die mit einem vernünftigen Aufwand rechnerisch nicht aufzulösen sind. So wurde in „Science“ (doi: 10.1126/science.1214828) kürzlich gezeigt, dass eine fundamentale Größe aller Prognosen, die Klimasensitivität, bei der Analyse langer Datenreihen tatsächlich etwas geringer ausfällt als bislang geglaubt.“

Genau das sagt auch eine 2013 erschienene Publikation sehr deutlich [15]:

„Global warming less extreme than feared ?“ : „Policymakers are attempting to contain global warming at less than 2°C. New estimates from a Norwegian project on climate calculations indicate this target may be more attainable than many experts have feared.“

Internationally renowned climate researcher Caroline Leck of Stockholm University has evaluated the Norwegian project and is enthusiastic. “These results are truly sensational,”  says Dr Leck. “If confirmed by other studies, this could have far-reaching impacts on efforts to achieve the political targets for climate.”

F a z i t :

Die Treibhaus-Wirkung von zusätzlichem anthropogenem COist marginal, und liegt im Rauschen der natürlichen Klima-Temperaturen.

(3)  Wenn nicht CO2  – wer dann ?

Im zweiten Teil des vorstehend angeführten WIKIPEDIA-Zitats wird schon etwas deutlicher, daß die dramatische „Überhitzung“ der Erdatmosphäre in den Klima-Modellen nicht mit COerzielt werden kann, sondern nur mit hypothetischen Rückkopplungen, wie es in der begutachteten wissenschaftlichen Literatur in Dutzenden von Publikationen auch geschrieben steht ist, z.B. :

() H.Hinzpeter (eh. Leiter MPI HH) [16]:

Da „…die Verdoppelung (von CO2nur die von den Flanken der Kohlendioxidbanden herrührende Gegenstrahlung erhöhen würde, führt diese Temperaturerhöhung jedoch in der Folge zu einer Vermehrung der Wasserdampfkonzentration in der Atmosphäre, die zu einer wesentlich höheren Zunahme der Gegenstrahlung und damit zu der bekannten angenommenen Erhöhung der Mitteltemperatur um zwei bis drei Grad Celsius führen würde.“

() IPCC [17]:

“In the idealised situation that the climate response to a doubling of atmospheric COconsisted of an uniform  temperature change only, with no feedbacks operating … the global warming from GCMs would be around 1.2 °C.”

() IPCC [18]:

Der Wasserdampf-Feedback ist nach wie vor der durchweg wichtigste Rückkopplungs-Effekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdoppelung vorhergesagte globale Erwärmung verursacht“.

Die physikalische Begründung für diese Hypothese ist zunächst durchaus plausibel, mit der folgenden Argumentations-Kette:

o „Eine Verdoppelung der Kohlendioxid-Konzentrationen in der Atmosphäre allein (bewirkt) nur eine geringfügige Erhöhung der mittleren bodennahen Temperatur um wenige Zehntelgrade„. [19]

o    Damit erhöht sich das Aufnahme-Vermögen der Atmosphäre für Wasserdampf: [20]

„Der Sättigungsdampfdruck eines Reinstoffes in einem geschlossenen System ist von der Temperatur abhängig.“  (Sättigungs-Dampfdruckkurve),

o  Die Atmosphäre kann mehr Wasserdampf aufnehmen, weil das o.a. physikalische Gesetz es zuläßt,

o  Der „zusätzliche“ Wasserdampf wiederum erhöht die Lufttemperatur weiter, weil der Wasserdampf das Haupt-Treibhaus-Gas ist (Abb.3),

o  Dieser Prozeß schaukelt sich auf zu immer höheren Temperaturen,

o  Die Modelle müssen eine „Bremse einbauen“, um ein „runaway“ … „running over“ zu vermeiden.

Ü b e r s i c h t :

Abbildung 6  Die Wasserdampf-Hypothese

Soweit die Theorie.

Realisiert die Natur diese Hypothese ? [21]:

„In diesem Kapitel [22] wird weiter argumentiert, dass große positive Rückkopplungen, hauptsächlich durch Wasserdampf, diesen Effekt wahrscheinlich verstärken. Aber während es einen guten Konsens über die 1,2 °C gibt, existiert überhaupt kein Konsensüber den Nettoeffekt der positiven Rückkopplungen, wie das IPCC auch offen zugibt.“

F a z i t :

Die Treibhaus-Eigenschaften von CO2 können bei Konzentrations-Verdoppelung in einer realen, also Wasserdampf-haltigen Atmosphäre nur etwa ein halbes Grad Erwärmung bewirken. Die Klima-Modelle „benötigen“ für ihre spektakulären Temperatur-Prognosen hypothetische Verstärkungs-Prozesse, allen voran die Wasser-Dampf-Verstärkung.

Allerdings – die Natur macht etwas anderes !  s.w.unten.

(4)  Wasserdampf-Messungen in der Troposphäre

Ein Autoren-Team [23] hat die globalen Daten von Radiosonden („Wetter-Ballone“) ausgewertet, über einen Zeitraum von 35 Jahren: 1973-2007 :

Abbildung 7  Auswertung von Radiosonden 1973-2007 (Paltridge et al. 2009)

Auch neuere Messungen zeigen keine Wasserdampf-Zunahme :

Abbildung 8  Wasserdampf-Messungen in verschiedenen Höhen

W e i t e r h i n :

Die Klima-Modelle rechnen damit, daß die Erwärmung der Tropen dazu führt, daß konvektiv Wärme und Wasserdampf in die obere Troposphäre geführt wird („Hotspot„). Dadurch „soll“ eine erhebliche Verstärkung des Treibhaus-Effektes erfolgen. Meteorologische Messungen widerlegen das [24]:

„Thus, the small OLR (Outgoing Longwave Radiation) feedback from ERBE (Earth Radiation Budget Experiment) might represent the absence of any OLR feedback; it might also result from the cancellation of a possible positive water vapor feedback due to increased water vapor in the upper troposphere [Soden et al. , 2005] and a possible negative iris cloud feedback involving reduced upper level cirrus clouds [Lindzen et al. , 2001]“

Abbildung 9  „hot-spot“ ? : Fehlanzeige

In dem Buch „COund Klimaschutz“  [25] steht zu den o.a. Publikationen folgende Zusammenfassung :

„Unter der Voraussetzung, daß die von Lindzen et al. sowie von Paltridge et al. mitgeteilten Meßergebnisse und Schlussfolgerungen korrekt sind, bedeutet dies nicht mehr und nicht weniger als das wissenschaftliche Ende einer vom Menschen verursachten Klima-Katastrophe.“

F a z i t :

Die Messungen der Wasserdampf-Konzentration in der Troposphäre widersprechen den Annahmen und Ergebnissen der Klima-Modelle !

(5)  Wasserdampf in der Stratosphäre

Abbildung 10

Eine 2010 veröffentlichte Studie [26] auf der Basis von Satelliten-Daten zeigt, daß in der Stratosphäre ein „auf+ab“ des Wasserdampf-Gehaltes gemessen wird:

„Observations from satellites and balloons show that stratospheric water vapor has had its ups and downs lately, increasing in the 1980s and 1990s, and then dropping after 2000.“ 

Die Ursache dafür ist unbekannt (a.a.O.) : „Since 2000, water vapor in the stratosphere decreased by about 10 percent. The reasonfor the recent decline in water vapor is unknown.“

Temperatur und Wasserdampf  – WER folgt hier WEM ? Die Unsicherheiten erscheinen nach dieser Studie größer, als bisher angenommen (a.a.O.) :

„The new study used calculations and models to show that the cooling from this change caused surface temperatures to increase about 25 percent more slowly than they would have otherwise, due only to the increases in carbon dioxide and other greenhouse gases.“

…und w.a.a.O.:

„The stratosphere is a region of the atmosphere from about eight to 30 miles above the Earth’s surface. Water vapor enters the stratosphere mainly as air rises in the tropics. Previous studies suggested that stratospheric water vapor might contribute significantly to climate change. The new study is the first to relate water vapor in the stratosphere to the specific variations in warming of the past few decades.“

Wie unsicher alle diese Annahmen und damit letztlich die Klima-Modelle selbst sind, das zeigen auch die Temperatur-Messungenin der oberen Troposphäre und in der Stratosphäre, denn es gibt nach den meteorologischen Messungen die von den Klima-Modellen vorhergesagte Effekte dort nicht [27]:

Weder gibt es den vorhergesagten „Hotspot“ in der oberen Troposphäre (vgl.w.o.), noch die von den Modellen berechnete langsame Abkühlung der oberen Stratosphäre !

(6)  Wassergehalt in der Atmosphäre – total

In einem NASA-Projekt wird der Total-Wasserdampf-Gehalt der Atmosphäre untersucht [28]:

„The NASA Water Vapor Project (NVAP) dataset is a global (land and ocean) water vapor dataset created by merging multiple sources of atmospheric water vapor to form a global map of total and layered precipitable water vapor.“

Abbildung 11

In den Folgerungen ihres Papers schreiben die Forscher:

„Zu diesem Zeitpunkt können wir das Vorhandensein eines robusten Trends in der globalen Wasserdampf-Entwicklung weder beweisen noch widerlegen.“

In einer Übersicht wird das so zusammen gefaßt [29]:

„Während das COdie letzten Jahrzehnte lang monoton angestiegen ist, hat der Wasserdampf seit nunmehr 14 Jahren offenbar eine Pause eingelegt und stagniert bzw. fällt sogar leicht ab. Eine Kopplung von COund Wasserdampf ist in dieser Zeit nicht erkennbar.

Auch eine soeben (2018) erschiene Arbeit zeigt in dem über alle Atmosphären-Schichten gemessenen „Totalen Wassergehalt“ keinerlei signifikante Trends :

Abbildung 12  Wassergehalt der Atmosphäre: Keine signifikanten Trends

Mit alledem sind die Klima-Modelle widerlegt !

(7)  Kritik an der Modellierung der Wasserdampf-Verstärkung

Es gibt sehr viele namhafte Wissenschaftler, welche die hohe Wichtung der „Wasserdampf-Verstärkung“in den Klima-Modellen kritisieren, z.B. :

()  Roy W. Spencer, Ph. D. [30]:

“While it seems rather obvious intuitively that a warmer world will have more atmospheric water vapor, and thus positive water vapor feedback, I’ve just listed the first 5 reasons that come to my mind why this might not be the case. …..    At a minimum, I believe the water vapor feedback issue is more complicated than most mainstream researchers think it is.“

()  Meteorologie-Professoren H. Kraus und U. Ebel [31]:

„Mit einer Erwärmung der Atmosphäre kann auch der Wasserdampfgehalt zunehmen, und man könnte erwarten, daß sich der hydrologische Zyklus intensiviert…; ob sich Folgen wirklich einstellen, läßt sich selbst durch sehr komplexe Modellrechnungen nicht zuverlässig herausfinden.“ 

()  Dr. Miklós Zágoni (Prominent Hungarian Physicist) [32]:

„Contrary to the common wisdom, there is no positive H2O-Temperature feedback on global scale;  in Earth-type atmospheres uncontrolled runaway warming is not possible…“.

()  Walter Cunningham (Astronaut) [33] :

NASA’s Aqua satellite is showing that water vapor, the dominant greenhouse gas, works to offset the effect of carbon dioxide (CO2). This information, contrary to the assumption used in all the warming models, is ignored by global warming alarmists.“

()  Prof. Dr. C.O. Weiss (eh. Dir. und Prof. an der PTB) [34] :

„Der direkte Einfluss von CO2 auf die Erdtemperatur beträgt nur einen kleinen Bruchteil von 1 Grad Celsius und ist damit praktisch völlig unwichtig. Hierin stimmen fast alle Wissenschaftler überein. Die Alarmmeldungen über Erderwärmung basieren auf ANNAHMEN ( keineswegs Kenntnissen ) über die Wirkung von Wolken. In den Modellen auf die sich die Voraussagen des „Internationalen Ausschusses für Klimawandel“ (IPCC). stützen wird (recht willkürlich) ANGENOMMEN, dass Wasserdampf und Wolken die geringfügigen Temperaturerhöhungen durch CO2 in katastrophaler Weise verstärken, und somit die „Klimakrise“ hervorrufen. …“

Obwohl dies die alles entscheidende Frage der Klimaforschung ist, sind zur Klärung dieser entscheidenden Annahmen von Seiten der „offiziellen“ Klimaforschung bisher keine Anstrengungen unternommen worden. Zwar wurden Vergleiche von Modellergebnissen mit Strahlungsmessungen von Satelliten gemacht. Da die Messungen den Modellen aber widersprachen wurden die Ergebnisse ignoriert und behauptet, die Messungen seien nicht ‚verlässlich‘.“

()  Clive Best  (Physiker, PhD) [35]:

„Es wird gezeigt, dass eine positive lineare Klima-Rückkopplung für kombinierte Wasserdampfeffekte mit dem Schwache-Sonne-Paradoxon unvereinbar ist. Im Besonderen führen Rückkopplungswerte von ~2,0 W/m²K, wie sie die gegenwärtigem GCMs annehmen, zu nicht-physikalischen Ergebnissen hinsichtlich der Solarstrahlung vor einer Milliarde Jahren. Ein einfaches Modell wird beschrieben, wonach erdähnliche Planeten mit großen Oberflächen flüssigen Wassers bei kleinen Änderungen der einfallenden Sonnenstrahlung die Temperatur selbst regulieren können. Das Modell nimmt an, dass sich reflektierende Wolken ausbreiten, während der Treibhauseffekt mit der heller werdenden Sonne abnimmt. Die Gesamtwasserdampf-Rückkopplung des Modells ist stark negativ. Direkte Beweise für die negative Wasserdampf-Rückkopplung finden sich in den Stationsdaten von CRUTEM4, indem man die Temperaturanomalien in ariden Regionen (Wüsten und Polargebiete) mit jenen in feuchten Regionen (hauptsächlich in den Tropen) vergleicht. Alle 5600 Stationen wurden nach der Köppen-Geiger-Klimatologie (9) eingeordnet. Zwei separate Temperaturreihen von 1900 bis 2011 wurden für jedes Gebiet berechnet. Es ergab sich eine klare Differenz der Temperaturanomalien. Unter der Annahme, dass die Ursache der Differenz im atmosphärischen Wasserdampfgehalt zu suchen ist, kann ein Rückkopplungswert von -1,5 ±0,8 W/m²K abgeleitet werden.“

()  Universität Bremen [36]:

„Wasserdampfkarte hilft, Klimamodelle zu korrigieren“„Ein deutsch-niederländisches Forscherteam hat nach Angaben der Universität Bremenerstmals globale Karten der Isotopenzusammensetzung von Wasser in der unteren Atmosphäre gemessen. Die Messungen des  europäischen  Umweltsatelliten Enivsat eröffnen die Möglichkeit, heutige Klimamodelle und damit Vorhersagen über Regenmengen und Überschwemmungsgefahren zu verbessern.

Die Wissenschaftler verglichen die Messungen in der Sahelzone und bei Spitzbergen  mit Modellrechnungen. Beides Mal waren die Messwerte nicht durch die Modelle reproduzierbar, so die Universität. Dies weise darauf hin, dass der tropische und arktische Wasserkreislauf in den Modellen bisher nicht vollständig korrekt erfasst seien.“                    

()  Prof. Dr. Richard Lindzen [37] (zur „Wasserdampfverstärkung“) :

Das ist physikalisch vollkommen absurd. In der Natur geht eine höhere Verdunstung immer mit mehr Niederschlag einher. Zudem kann eine höhere Verdunstung niemals zu einem höheren Wasserdampfgehalt in Lufthöhen von drei Kilometern führen. Und genau dort ist die kritische Grenze, da Wasserdampf zwischen 3 km und der Tropopause den Treibhauseffekt dominiert.“

()  Hans von Storch (eh. Director of Institute for Coastal Research, HH) [38]:

 „Wir Klimaforscher können nur mögliche Szenarien anbieten; es kann also auch ganz anders kommen“.

… damit ist das Entscheidende in einem Satz gesagt :

Die Natur macht was Anderes, als die Modelle vorhersagen.

Bei alledem ist es auch interessant und wichtig, wie eine soeben peer-review’te Publikation (2019) die „Klima-Modell-Szene“ aufmischt [39]:

„The reliability of general circulation climate model (GCM) global air temperature projections is evaluated for the first time, by way of propagation of model calibration error. …  The unavoidable conclusion is that an anthropogenic air temperature signal cannot have been, nor presently can be, evidenced in climate observables.“

(8)  Zusammenfassung

Bei CO2-Verdoppelung in einer realen, Wasserdampf-haltigen Atmosphäre beträgt der zusätzliche Treibhaus-Effekt von COauf der Basis von Labor-Messungen nur etwa ½ Grad. Die Modelle der IPCC-nahen Institute erzielen daher die ständig propagierten 2 … 5 Grad globaler Erwärmung nicht mit CO2, sondern mit Verstärkungs-Hypothesen, insbesondere mit der Wasserdampf-Verstärkung. Daraus folgt: Nach der (mäßigen!) säkularen Erwärmung im 20. Jahrhundert um ca. 0,7 Grad müsste einerseits die Wasserdampf-Gehalt der Atmosphäre schon messbar zugenommen haben, andererseits müsste die Temperatur von Jahrzehnt zu Jahrzehnt beschleunigt ansteigen. Beides wird von den meteorologischen Messungen widerlegt: Weder in der Troposphäre noch in der Stratosphäre sind solche Trends zu beobachten, eher ein leichter Trend zu weniger Wasserdampf, und auch zu weniger Verdunstung am Boden. Auch stagnierte die Global-Temperatur zwischen 2000 und 2015 (IPCC-„hiatus“).

—————————————————————————————————————-

A n m e r k u n g e n :

(1)  Das vorstehend abgehandelte Thema ist anschaulich in einem youtube-Vortrag dagelegt :  https://www.youtube.com/watch?v=5HaU4kYk21Q

(2)  Der vorstehende Aufsatz ist am gleichen Tage erschienen auf: https://wetterklima.wordpress.com/2019/10/20/der-treibhauseffekt/  ; eine ebenfalls neutrale und interessante Web-Seite zu „Wetter & Klima“,

(3)  Der vorstehende Artikel hier mit besserer Qualität der Abbildungen zum download als PDF :

Puls.19.10.THE


Q u e l l e n :

[1] IPCC-Rep. (2007), Chapt. 8.6.2.3

[2] SCHÖNWIESE. promet. 1996

[3] http://www.wetter-foto.de/foto-26306-haufenwolken.html; Lizenzfreie Fotos

[4] IPCC, 3. Ass.Rep., 2001, Sect. 14.2.2.2,  S. 774

[5] Quelle: WIKIPEDIA

[6] http://www.pik-potsdam.de/~stefan/alvensleben_kommentar.html

[7]  www.lavoisier.com.au/articles/greenhouse-science/solar-cycles/ArchibaldLavoisierAGM.pdf

[8]  P.J.Crutzen (Nobelpreis Chemie); T.E.Graedel: Chemie der Atmosphäre, Spektrum Akad.Vlg,, Berlin, 1993, S.414

[9]  H. Hinzpeter, (eh. Leiter MPI HH), promet, 15, Heft 2/3, 1985, S.49)

[10] Quelle: IPCC-Bericht 1994

[11] WIKIPEDIA zu Wasserdampf-Verstärkung

[12] Richard J. Petschauer „Carbon Heat Trapping: Merely A Bit Player in
Global Warming“ http://www.junkscience.com/jan08/Global_Warming_Not_From_CO2_20080124.pdf

[13] Dietze 2001; Carbon Model Calculations, nachzitiert nach: http://www.pik-potsdam.de/~stefan/alvensleben_kommentar.html

[14] FAZ, 06.12.2011 : Der kostbare Kaffeesatz in den Klimamodellen

[15] Published: 24.01.2013 : http://www.forskningsradet.no/en/Newsarticle/Global_warming_less_extreme_than_feared/1253983344535/p1177315753918

[16] H. Hinzpeter, eh. Dir. MPI HH, promet, 15, Heft 2/3, (1985), S.49

[17] IPCC-Rep.(2007), Chapt. 8.6.2.3

[18] IPCC, Climate Change 2001, Working Group I: The Scientific Basis, Contr.Wok.Gr.I, 3rd Ass.Rep.IPCC, Ch.7.2.1.1).

[19] H. Hinzpeter,(eh. Leiter MPI HH), promet, 15, Heft 2/3, 1985, S.49)

[20] WIKIPEDIA; zu: Sättigungs-Dampfdruck

[21] Matt Ridley: Wissenschafts-Ketzerei ; Vortrag bei der Royal Society of the Arts, Edinburgh, 31. Okt. 2011;  http://www.science-skeptical.de/blog/matt-ridley-uber-wissenschafts-ketzerei/005957/

[22] IPCC-Rep. (2007), Chapt. 8.6.2.3

[23] PALTRIDGE ,  ARKING & POOK: Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data,  Theor Appl Climatol, DOI 10.1007/s00704-009-0117-x Springer-Verlag (2009)

[24] Richard S. Lindzenand Yong-Sang Choi;On the determination of climate feedbacks from ERBE data;Geophys. Res. Lett., VOL. 36, L16705, doi:10.1029/2009GL039628, (2009)

[25] H.-J. Lüdecke: CO2und Klimaschutz, BOUVIER (2007), S. 105

[26] Susan Solomon et al.: Stratospheric Water Vapor is a Global Warming Wild Card ; January 28, 2010; http://www.noaanews.noaa.gov/stories2010/20100128_watervapor.html

[27] http://www.eike-klima-energie.eu/news-cache/temperatur-prognosen-der-klima-modelle-bis-heute-fuer-alle-atmosphaeren-schichten-falsch/  ; 05.10.2012

[28] Vonder Haar et al.: Weather and climate analyses using improved global water vapor observations; Geoph.Res.Lett., doi:10.1029/2012GL052094;  http://www.agu.org/pubs/crossref/pip/2012GL052094.shtml

[29] http://www.kaltesonne.de/?p=4803; 23. Juli 2012

[30] http://www.icecap.us/Sep 14, 2010: Roy W. Spencer, Ph. D.: Five Reasons Why Water Vapor Feedback Might Not Be Positive

[31] Kraus, H. u. Ebel, U.: Risiko Wetter, Springer-Verlag, (2007)

[32] in: Marc Morano, Communications Director, Senate Environment and Public Works Committee (EPW) ; Inhofe Staff, Rundschreiben 02.05.2008

[33] W.Cunningham: In Science, Ignorance is not Bliss, Launch Magazin Online ;

http://waltercunningham.com/Ignorance.html

[34] http://www.eike-klima-energie.eu/climategate-anzeige/die-klimasensitivitaet-von-co2/22.07.2010 ;  u n d

http://www.eike-klima-energie.eu/climategate-anzeige/rueckkopplung-im-klimasystem-der-erde/   10.08.2010

[35] Evidence for Negative Water FeedbackPosted on May 23, 2012 by Clive Best; deutsch: http://www.eike-klima-energie.eu/news-cache/neue-studie-wasserdampf-rueckkopplung-ist-stark-negativ/; 03.06.2012

[36] in: VDI Nachrichten, 18. September 2009, Nr. 38, swe

[37] Prof. Richard Lindzen, Bild der Wissenschaft, 11/1993, S.73

[38] DER SPIEGEL, 11/2007, S.56

[39]  „Propagation of Error and the Reliability of Global Air Temperature Projections“, Patrick Frank; 06.09.2019; https://www.frontiersin.org/articles/10.3389/feart.2019.00223/full

===================================================================




Was Sie schon immer über CO2 wissen wollten: Teil 4 – die Klimasensitivität

CO2 ist für sichtbares Licht durchlässig und somit unsichtbar. Es absorbiert in bestimmten Frequenzbereichen Infrarotstrahlung (IR), trägt daher zum sogenannten Treibhauseffekt bei und wird infolgedessen als „Treibhausgas“ bezeichnet. Aus physikalischen Gründen müssen Treibhausgasmoleküle aus mindestens drei Atomen bestehen. CO2 ist solch ein Molekül. Es ist linear, die beiden Sauerstoffatome und das Kohlenstoffatom liegen auf einer Linie. CO2 ist kein Dipol. Bei Stößen oder Infrarotabsorption schwingt aber das CO2-Molekül, wobei „temporäre“ Dipole entstehen.

Die Eigenschaften der wichtigsten Treibhausgase wurden bereits in Tabelle 1 von Teil 1 gezeigt. Die Treibhauswirkung eines Gases ergibt sich aus seiner Konzentration in der Atmosphäre und der Stärke seiner IR-Absorption. Nur Wasserdampf, CO2, Ozon und CH4 sind maßgebende Treibhausgase. Den Löwenanteil des Treibhauseffekts verursacht der Wasserdampf. Der „Treibhauseffekt“ ist einerseits ein einfacher, zugleich aber auch ein extrem komplexer Mechanismus.

Komplex, weil Details und genaue Stärke, insbesondere was den Einfluss des menschgemachten CO2 betrifft, kaum zugänglich sind. Nun die Erklärung in zwei Stufen, je nach Geschmack und Vorkenntnis des Lesers.

In der einfachsten Erklärung stellen wir uns als Analogie eine wärmende Bettdecke vor. Alle Treibhausgase zusammen vertreten die Bettdecke. Leser mit technisch/physikalischen Kenntnissen werden hier zu Recht protestieren. Die Wärmewirkung der Bettdecke erfolgt durch Konvektionsverhinderung, denn die vom Körper erwärmte Luft kann nicht entweichen. Nicht zuletzt aus diesem Grunde wärmt auch Winterkleidung (Wärmestau). Aus diesem Bild stammt aber tatsächlich die etwas unglückliche Bezeichnung „Treibhauseffekt“. Ein Gärtnertreibhaus oder ein mit geschlossenen Scheiben in der Sonne stehendes Auto erwärmen sich im Inneren, weil Sonneneinstrahlung den Innenboden und die Innenwände erwärmt. Die durch Wärmeleitung im Treibhaus oder Auto erwärmte Luft kann nicht entweichen – dies ist der Treibhauseffekt eines Gärtnertreibhauses.

Die Bezeichnung „Treibhauseffekt“ ist natürlich schief, weil die Atmosphäre keine physischen Begrenzungen nach oben aufweist. Daher nun eine detailliertere, aber immer noch anschauliche Erklärung: Die kurzwellige Sonneneinstrahlung durchquert praktisch ungehindert die Atmosphäre und erwärmt das Wasser der Ozeane und den Erdboden. Die Ozeane und der erwärmte Erdboden geben ihre Wärme durch Kontaktleitung an die angrenzende Atmosphäre ab und strahlen zusätzlich Wärme als Infrarot ab. Die Treibhausgase in der Atmosphäre, welche die kurzwellige Sonnenstrahlung noch durchließen, absorbieren dagegen zu Teilen (Linienspektren) das langwellige Infrarot und strahlen diese Energie in den ihnen eigenen Linienspektren wieder ab. Der zum Erdboden gerichtete Teil dieser Abstrahlung wird als „Gegenstrahlung“ bezeichnet.

Nun kommt der berühmte Energieerhaltungssatz zum Zuge. Die von der Sonne kommende und von der Erde aufgenommene Gesamtenergie muss, ausreichend lange zeitgemittelt, in gleicher Energiemenge wieder ins Weltall abgestrahlt werden. Wäre dies nicht so, würde die Erde entweder verglühen oder zu einem Eisklumpen werden. Durch die Infrarot-Absorption der Treibhausgase ist dieses Energiegleichgewicht gestört. Die Natur – in Befolgung ihrer eigenen Gesetze – stellt das Energiegleichgewicht wieder her, indem sie die Bodentemperatur und damit auch die Temperatur der tiefen Atmosphäre erhöht, was das Abstrahlungsdefizit infolge Gegenstrahlung wieder ausgleicht.

Es handelt sich um gleichzeitig ablaufende dynamische Prozesse von Erwärmung durch eine Wärmequelle, hier die Sonne und von gleichzeitig ablaufender Abkühlung, hier von Infrarot ins Weltall. Das Gleichgewicht dieser beiden gegenläufigen Prozesse bestimmt die Erdtemperatur. Wer es genauer wissen will, sei verwiesen auf das Physiklehrbuch von W. Roedel und T. Wagner, Physik unserer Umwelt: Die Atmosphäre [1] oder den Beitrag „Atmospheric Radiation and the Greenhouse effect“ von Science of Doom (SOD) [10].

Manche Zeitgenossen haben allerdings mit der zweiten Erklärung Probleme und verweisen auf den 2. Hauptsatz der Wärmelehre, der besagt „ein kälterer Körper (kalte Atmosphäre) kann keinen wärmeren Körper (Ozean/Erdboden) weiter erwärmen„. Doch, kann er, wenn an Stelle von Kontakt-Wärmeleitung elektromagnetische Strahlung ins Spiel kommt. Die ist im 2. Hauptsatz nicht berücksichtigt. Jeder Festkörper, egal welcher Temperatur, strahlt IR in einem kontinuierlichen Spektrum ab [2]. Trifft diese Strahlung auf einen wärmeren Köper und wird sie nicht reflektiert, so erwärmt sie auch einen wärmeren Körper. Schließlich verschwinden die vom kälteren Körper kommenden und in den wärmeren Körper eindringenden IR-Photonen nicht wirkungslos im Nirwana, und sie „wissen“ auch nicht, woher sie stammen. Der Wärmehaushalt des wärmeren Körper wird durch die IR-Strahlung des kälteren Körpers erhöht.

Die Details dieses auf IR-Absorption von Treibhausgasen beruhenden Treibhauseffekts sind zwar komplex, aber die moderne Messtechnik bestätigt die Einzelheiten des geschilderten Mechanismus. So ist die Messung der von den Treibhausgasen erzeugten Gegenstrahlung, die den Auskühlungsvorgang des Erdbodens abschwächt und damit seinen Wärmehaushalt erhöht, heute Standard. Die Stärke des atmosphärischen Treibhauseffekts, die der direkten Messung nicht zugänglich ist, wird theoretisch und mit unvermeidbar hohen Fehlern zu über 30 °C berechnet. An diesen 30 °C hat das CO2, wie Tabelle 1 in Teil 1 zeigt, einen maßgebenden Anteil. Der Erdboden und die bodennahe Atmosphäre wären also im Mittel von Tag/Nacht, Jahreszeiten und Erdoberfläche ohne die Treibhausgase um diesen Wert kälter.

Bei all dem interessiert aber vorrangig die Treibhauswirkung des menschgemachten (anthropogenen) CO2. Und diese gibt die Fachliteratur und das IPCC mit etwas mehr als 1 °C bei jeder hypothetischen Verdoppelung der atmosphärischen CO2-Konzentration an, also bei Anstieg von 0,04% auf 0,08% und von 0,08% auf 0,16% etc. Das erscheint zunächst seltsam. Schließlich wurde doch oben der Erwärmungswert aller Treibhausgase von 30 °C genannt? Daran, so kann man vermuten, sollte gemäß Tabelle 1 (in Teil 1) das CO2 zwischen 9% bis 26% Anteil haben, also zwischen 3 und 8 °C? Warum trifft dies nicht zu?

Die Antwort: Der Zusammenhang von Temperatur und CO2-Konzentration ist nicht linear sondern logarithmisch, Details dazu beim IPCC [10] und insbesondere in einer AGU-Publikation [11]. Die Erwärmung ist daher bei Anstieg der CO2-Konzentration von von 0,04% auf 0,08% die gleiche wie von 0,08% auf 0,16%, obwohl 0,16% das Vierfache von 0,04% ist. Stark vereinfacht wird manchmal auch von „spektraler Sättigung“ gesprochen. Die Absorptionslinien des CO2 werden bei zunehmender Konzentration breiter und an den Flanken des Spektrums beginnen neue aufzutauchen.

Wer es lieber anschaulich möchte, vergleiche den Infrarot-Effekt der Treibhausgase mit dem Abdunkeln eines Fensters durch ein dunkles Tuch. Ein zweites Tuch darüber gehängt, dunkelt nur noch unwesentlich stärker ab. Für eine katastrophale Erderwärmung reicht also die berechnete Erwärmung durch anthropogenes CO2 nicht aus. Woher kommen dann die Warnungen?

 

Wasserdampfrückkoppelung

Die bisherigen Ausführungen lassen weitere entscheidende Effekte unberücksichtigt. Einer davon ist als Wasserdampfrückkoppelung bekannt. Bei Erwärmung der Atmosphäre durch zunehmendes anthropogenes CO2 sollte aus den Weltmeeren – insbesondere im Tropengürtel der Erde – mehr Wasserdampf ausgegasen. Wasserdampf ist das weitaus stärkste Treibhausgas. Die ursprünglich geringe Erwärmung durch CO2, so die der Wasserdampfrückkoppelung zugrunde liegende Idee, erhöht sich damit.

In einer entgegengesetzten Hypothese freilich führt mehr Wasserdampf bei ausreichend vorhandenen Kondensationskeimen zu mehr Wolken. Wolken, also kondensierende oder bereits kondensierte Flüssigkeitströpfchen, die nicht mit dem Gas „Wasserdampf“ oder gar mit Treibhausgasen zu verwechseln sind, schirmen die Sonnenstrahlung ab und wirken abkühlend. Die primäre Erwärmung infolge ansteigendem CO2 wird daher abgeschwächt, man spricht von Gegenkoppelung. Welchen Weg bevorzugt die Natur, Gegen- oder Rückkoppelung?

Auswertungen von Ballon-Radiosonden und Satellitenmessungen haben diese Frage bereits beantwortet. Alle bisher verfügbaren Messungen zeigen, dass Gegenkoppelungen überwiegen. Hierzu sagt der Klimaforscher und Leibniz-Preisträger Prof. Jan Veizer: „Bei beinahe jedem ökologischen Prozess und auf jeder Zeitskala sind der Wasserkreislauf und der Kohlenstoffkreislauf aneinander gekoppelt, aber Wasser ist nun einmal um Größenordnungen verfügbarer. Es ist nicht einfach nur da, um auf Impulse vom Kohlenstoffkreislauf zu warten, ganz im Gegenteil, es formt diesen aktiv“. Im Klartext sagt damit J. Veizer nur, dass das CO2 immer dem Wasserdampf folgt und damit auch keine durch ihn bedingte globale Temperaturänderung auslösen kann. In Vorträgen drückt Veizer er es noch plastischer aus: „Der Hund, Wasserdampf, wedelt mit dem Schwanz, CO2, nicht umgekehrt„.

Bis Ende des Jahres 2008 lagen keine veröffentlichten Messungen vor, die die Wasserdampfrückkopplung oder die Wasserdampfgegenkoppelung bestätigen oder widerlegen konnten. Diese unbefriedigende Situation änderte sich mit zwei grundlegenden Arbeiten, die beide in 2009 erschienen. Inzwischen sind weitere bestätigende Publikationen hinzugekommen.

Die Autoren G. Paltridge et al. zeigten als erste, dass die spezifische und relative Feuchte in der mittleren und oberen Troposphäre, also oberhalb 850 hPa Luftdruck, im Gegensatz zu den Annahmen der Klimamodelle des IPCC, in den Jahren 1973 bis 2007 mit den steigenden Temperaturen dieser Zeit abnahmen, was mit Wasserdampfrückkoppelung unvereinbar ist [3]. Lediglich die wenig rückkopplungswirksame Feuchte der unteren Troposphäre nahm in dieser Zeit zu und selbst dies nur in gemäßigten Breiten signifikant.

Die zweite Arbeit wurde von dem weltbekannten Klimaforscher Prof. R. L. Lindzen und seinem Mitautor Y.-S. Choi verfasst [4]. Sie wiesen ebenfalls nach, dass Gegenkoppelung vorliegen muss, konnten aber zudem noch den Effekt quantifizieren. Hierzu untersuchten sie die Empfindlichkeit des Klimas auf externe Störungen und benutzten dafür die Messdaten von ERBE (Earth Radiation Budget Experiment), geliefert vom ERBE-Satelliten, der 1984 vom Space-Shuttle aus gestartet wurde. Hieraus konnten sie die externen Einwirkungen auf das Strahlungsgleichgewicht extrahieren, wie sie zum Beispiel durch natürliche Oszillationen, wie El Niño, La Niña oder aber durch Vulkanausbrüche (Pinatubo), hervorgerufen werden.

Da die Wirkung von CO2 ebenfalls über die Störung des Strahlungsgleichgewichts abläuft, ist die analoge Übertragung physikalisch korrekt. Unter weiteren Belegen, die gegen eine Wasserdampfrückkoppelung sprechen, soll hier nur noch der sogenannte Hot-Spot erwähnt werden, eine bei Wasserdampfrückkoppelung unabdingbar zu erwartende Erwärmung in mehreren km Höhe über dem Tropengürtel der Erde. Vom Hot-Spot gibt es aber bis heute keine Spur [5]!

Die Klimasensitivität

An dieser Stelle ist es jetzt an der Zeit, den mehr politischen als physikalischen Begriff „Klimasensitivität“ zu beschreiben. Es gibt keine andere Maßzahl, in welche soviel über die Erwärmungswirkung des CO2 hineingepackt ist. Sie bezeichnet die Änderung der globalen Mitteltemperatur der Erde in Folge einer (hypothetischen) Verdoppelung des atmosphärischen CO2. Unterscheidungen zwischen spektralem Effekt oder Wasserdampfrück- bzw. Wasserdampfgegenkoppelung kennt die „Klimasensitivität“ nicht. Es geht bei ihr nur um einen einzigen, vor allem politisch brauchbaren Zahlenwert.

Technisch gibt es allerdings zwei Arten von Klimasensitivitäten. Aufgrund der thermischen Trägheit der Weltmeere reagiert das globale Klimasystem grundsätzlich nur extrem langsam auf Veränderungen des Strahlungsantriebs. Daher wird zwischen Equilibrium Climate Sensitivity (ECS) und Transient Climate Response (TCR) unterschieden. Die ECS beschreibt den Temperaturanstieg, der zu beobachten wäre, nachdem das Klimasystem nach einer Veränderung des Strahlungsantriebs den neuen Gleichgewichtszustand erreicht hat, wofür Jahrtausende nötig sind.

Um den Einfluss des Menschen auf das Klima zu quantifizieren, ist dagegen die Transient Climate Response (TCR) geeigneter. Letztere ist definiert als der Temperaturanstieg, der zum Zeitpunkt einer Verdoppelung der CO2-Konzentration in einem Szenario beobachtet wird, bei dem diese Verdoppelung pro Jahr um 1 % anwächst. Meist wird der Unterschied zwischen ECS und TCR vernachlässigt.

Die Klimasensitivität ist, wie schon erwähnt, eine politisch brauchbare Größe und spielt daher auch die maßgebende Rolle beim Pariser Klima-Abkommen [6]. In der Fachliteratur wird die Klimasensitivität in einem weiten Bereich von fast Null bis hin zu 4,5 °C angegeben. Man kann dies auch prosaischer ausdrücken – der Wert der Klimasensitivität ist unbekannt! Diesen unbefriedigenden Sachverhalt bestätigt insbesondere auch das IPCC, wenn auch nur sehr verschämt und gedrechselt, in folgender Fußnote

No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies“ [7].

Was sagt aber nun die Klima-Fachliteratur zur Klimasensitivität, denn die Fachliteratur sollte schließlich die ultimative Basis sein. Die Antwort lautet ähnlich wie die Antwort des bekannten Börsianers Kostany, der einmal, nach seiner Erwartung der kommenden Börsenkurse gefragt, antwortete, „sie fluktuieren„. Etwas mehr Information über die Klimasensitivität als dieser weltbekannte Börsen-Guru über die zukünftigen Börsenkurse gibt es glücklicherweise schon.

Der französische Klimaforscher Francois Gervais hatte in einer seiner Fachpublikationen alle Fachveröffentlichungen über die Zahlenwerte von ECS und TCR gegen ihre Veröffentlichungszeiten aufgetragen. Dabei zeigte sich ein interessanter Trend. Die Wissenschaft gibt im Großen und Ganzen  immer kleinere Werte bei immer jüngeren Veröffentlichungen an. Hier die inzwischen von F. Gervais aktualisierte Abbildung

Bild 1: Klimasensitivitätswerte von ECS und TCR in Abhängigkeit vom Veröffentlichungsdatum. Der TCR-Trend hin zu tieferen Werten als 1 °C ist unverkennbar [8], [9]. Damit wäre übrigens das 1,5 °C – Ziel des Pariser Klima-Abkommens längst erreicht und das Abkommen überflüssig geworden.

 

Auf die Methoden zur Berechnung der Klimasensitivität ECS und/oder TCR einzugehen, übersteigt den hier gesteckten Rahmen. Vielleicht kann man sehr grob drei Wege unterscheiden: durch theoretische Betrachtung, durch Analyse von Proxydaten, wie zum Beispiel Eisbohrkernen und aus Klima-Computermodellen. Am fragwürdigsten sind dabei zweifellos Klimamodelle, denn diese können bislang noch nicht einmal die Klimavergangenheit ohne künstliche Nachhilfen wiedergeben. Monokausale CO2-Abhängigkeit, wie in Klimamodelle hineingesteckt, liefert nur „rubbish in, rubbish out“. Gemäß Bild 1 jedenfalls darf man mit hoher Wahrscheinlichkeit von einer Klimasensitivität TCR von 0,5 °C bis höchstens 1,5 °C ausgehen.

Fazit: Obwohl die spektrale Erwärmungswirkung des CO2 theoretisch gut bekannt ist, ist dennoch die Erwärmungswirkung des anthropogenen CO2 eine unsichere Größe. Zu groß ist die Anzahl der beteiligten Prozesse (stellvertretendes Beipiel: durch das Sonnenmagnetfeld modulierte Wolkenbildung), zu hoch sind ihre Berechnungsunsicherheiten. Verlässt man sich auf die begutachtete Fachliteratur, so zeigt diese mit immer jüngeren Veröffentlichungszeiten ein stetiges Abnehmen der TCR-Klimasensitivitätswerte. Die zur Zeit beste TCR-Wert liegt zwischen 0,5 und 1 °C.  Dieser Wertebereich ist unbedenklich. Er liegt zudem weit innerhalb der natürlichen Temperaturschwankungen. Es ist also nicht verwunderlich, dass man aus dem natürlichen Klimarauschen keinen anthropogenen Beitrag heraushören kann.

Zu Katastrophenwarnungen über die Erwärmungswirkung des anthropogenen CO2 besteht jedenfalls nicht der geringste Anlass.

Bisherige Teile der Serie „Was Sie schon immer über CO2 wissen wollten“:

  1. Teil 1 – der CO2-Untergrund (27.Juni 2019)
  2. Teil 2 – CO2-Anstieg menschgemacht oder nicht?
  3. Teil 3 – der globale CO2-Kreislauf

 

Quellennachweise

[1] W. Roedel und T. Wagner, Physik unserer Umwelt: Die Atmosphäre, Springer, 5. Auflage.

[2] https://de.wikipedia.org/wiki/Plancksches_Strahlungsgesetz

[3] G. Paltridge et al., Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, 2009

[4] R. Linzen and Y.-S. Choi, On the determination of climate feedbacks from ERBE data, 2009

[5] Joanne Nova

[6] Pariser Klimaabkommen

[7] SPM, Summary for Policymakers, IPCC, S. 16, Fußnote, 2013

[8] F. Gervais, Anthropogenic CO2 warming challenged by 60-year cycle, 2016

[9] F. Gervais, Vortrag bei der EIKE-Klimakonferenz in Düsseldorf, 2018

[10] Science of Doom

[11] IPCC Climate Change 2001, The scientific basis, Chapter 06, S. 358, Tab. 6.2

[12] Y. Huang and M. B. Shahabadi, Why logarithmic? A note on the dependence of radiative forcing on gas concentration

 

 




Experimen­telle Verifi­kation des Treibhaus­effektes 5. Mitteilung: Die IR-Strahlung der Spuren­gase

Eine Beurteilung der Strahlungsfähigkeit ist zunächst schwierig, da hier viele Parameter wie Konzentration, Temperatur, Hintergrund oder Anzahl der beteiligten Moleküle (Abb. 1) berücksichtigt werden müssen. Um dennoch die IR-aktiven Gase mit einer einzigen Kennziffer charakterisieren und bewerten zu können, wurde ein molarer Emissionsgrad εm eingeführt. Dabei wird die IR-Strahlungsdichte von 1 mol eines IR-Gases mit der eines Schwarzkörpers verglichen (Tab. 1). Setzt man den molaren Emissionsgrad εm von CO2 =1, erhält man den relativen Emissionsgrad εrel von IR-aktiven Gasen im Vergleich zum CO2.

Tatsächlich zeigt Lachgas mit einem relativen Emissionsgrad εrel von 1,26 eine etwas höhere Strahlungsfähigkeit als CO2, aber bei weitem nicht das angeblich 265-mal stärkere Treibhauspotential. Beim Methan bahnt sich sogar eine kleine Sensation an. Methan, angeblich 28-mal wirksamer als CO2, kommt nur auf 66 % der CO2-Strahlung. Ist das IPCC einer frechen Lüge überführt? Nein, soweit würde ich nicht gehen! M.E. wurde das IPCC mit einem klaren politischen Auftrag gegründet. Die Industriegesellschaft sollte als Verursacher eines angeblich gefährlichen „Global Warming“ angeprangert werden, wodurch Zielrichtung und Schuldfrage vorgegeben waren. Vor allem sollen Ängste geschürt werden, um Konsumverzicht und De-Industrialisierung zu rechtfertigen. In den folgenden Kapiteln wird nachgewiesen, dass der „Treibhauseffekt“ real aber relativ klein ist und IPCC mit fragwürdigen Methoden eine Klimahysterie entfacht, die einer sachlichen Prüfung nicht standhalten.

  1. Was sind Emissionsgrade und wie werden sie ermittelt?

Jeder (feste und flüssige) Körper, dessen Temperatur über dem absoluten Nullpunkt liegt, sendet Wärmestrahlung aus. Der Emissionsgrad eines Körpers (ε) gibt an, wie viel Strahlung er im Vergleich zu einem idealen Wärmestrahler, einem schwarzen Körper, abgibt.“ „Ein schwarzer Körper ist ein hypothetischer idealisierter Körper, der jegliche auf ihn treffende elektromagnetische Strahlung bei jeder Frequenz vollständig absorbiert (ε = 1).“ [3]

Oder mit einfachen Worten: Der Emissionsgrad charakterisiert die Fähigkeit eines Körpers, Wärmestrahlung zu erzeugen. Emissionsgradtabellen zeigen die Emissionsgrade ε von verschiedenen Stoffen im Bereich zwischen 0,02 bis 0,98 [4]. Dabei spielt die Oberfläche eine wesentliche Rolle. Sehr gute Strahler haben schwarze, raue Oberflächen und können Emissionsgrade ε nahe 1 erreichen, während weiße, glatte oder sogar polierte Oberflächen nur geringe Emissionsgrade nahe 0 haben.
Man unterscheidet verschiedene Emissionsgrade, die sich auch untereinander kombinieren lassen:

  • Gerichtet: Die Strahlung wird in eine bestimmte Richtung pro Raumwinkel abgestrahlt
  • Hemisphärisch: Der gesamte Halbraum wird pro Flächeneinheit bestrahlt
  • Spektral: Die Strahlungsleistung bei einer bestimmten Wellenlänge
  • Gesamt: Die Strahlungsleistung aller verfügbaren Wellenlängen

Dabei gilt: „Nach dem kirchhoffschen Strahlungsgesetz ist für jeden Körper der gerichtete spektrale Emissionsgrad gleich dem gerichteten spektralen Absorptionsgrad.“ [3]

Bei den Gasen können nur bestimmte, die sogenannten IR-aktiven Gase, Wärmestrahlung (IR-Licht) absorbieren oder emittieren.

Gase absorbieren und emittieren elektromagnetische Strahlung, anders als andere Aggregatzustände von Materie: bei Gasen sind diese Effekte abhängig von der Wellenlänge λ der Strahlung („Strahlungsband“)… Das Strahlungsverhalten des Gasgemisches Luft ist nicht trivial zu bestimmen…und es kann auch kein gemittelter Emissionsgrad angegeben werden.“ [5]

Anders als bei Festkörpern und Flüssigkeiten ist der Emissionsgrad der IR-Gase keine Eigenschaft einer Oberfläche, sondern die eines Volumens. Dabei sind alle IR-aktiven Gasmoleküle, die sich in einem Luftpaket befinden, in einer bestimmten Art und Weise beteiligt. Dadurch sind die Emissionsgrade der Gase auch keine Konstanten, sondern von der Anzahl der beteiligten IR-aktiven Gasmoleküle abhänge Variablen (Abb. 1). Um dennoch die Strahlungsfähigkeit IR-aktiver Gase miteinander vergleichen zu können, habe ich einen molaren Emissionsgrad εm definiert. Es ist der Vergleich der IR-Strahlung von einem 1 mol (6,022 * 1023 Moleküle; Avogadro-Konstante) eines IR-aktiven Gases in einem Luftpaket mit der Strahlung eines Schwarzstrahlers. Da die IR-aktiven Gase als Linienstrahler nur ausgewählte Wellenlängen emittieren, sind ihre molaren Emissionsgrade εm deutlich kleiner als 1.
Weiter ist festzustellen, dass die IR-inaktiven Atmosphärengase, Stickstoff und Sauerstoff, Wärmestrahlung praktisch nicht streuen und auch nicht absorbieren. Die bekannte Streuung des Sonnenlichtes an den Luftmolekülen unserer Atmosphäre ist nur für das sichtbare, kurzwellige Licht relevant:
Der Streuquerschnitt σ der Rayleigh-Streuung ist proportional zur vierten Potenz der Frequenz der elektromagnetischen Welle…. Die frequenzabhängig unterschiedlich starke Streuung von Sonnenlicht an den Teilchen der Erdatmosphäre bewirkt das Himmelsblau am Tag, und die Morgenröte wie die Abendröte während der Dämmerung“. [6]
Ohne IR-aktive Gase (und ohne Aerosole) könnten Wärmestrahlen die Erd-Atmosphäre ungehindert passieren. Ein kleiner molarer Emissionsgrad εm bedeutet somit eine hohe Transparenz und ist der Grund, dass bei einer Strahlungsmessung IR-Gase und Hintergrund immer gemeinsam gemessen werden.

Zur Messung der Emissionsgrade wird die gleiche Apparatur (Abb. 2) und Prozedur verwendet, die bereits für die Messung der CO2-Strahlung vorgestellt wurde [7]. Im Wesentlichen geht es dabei um Wärmeübertragung von parallelen, geschwärzten Oberflächen für E = 1 (wenn ε1, ε2 = 1) mittels IR-Strahlung für die Josef Stefan Gl. 1 vorgeschlagen hatte [8].

E (Strahlungsaustauschgrad) ist hier der griechische Großbuchstabe Epsilon. Bitte nicht verwechseln mit E = Bestrahlungsstärke: „Die Bestrahlungsstärke E (engl.: irradiance, radiant flux density; auch Strahlungsstromdichte) ist der Begriff für die gesamte Leistung der eingehenden elektromagnetischen Energie, die auf eine Oberfläche trifft, bezogen auf die Größe der Fläche.“
Die Stefan Gleichung wurde experimentell abgeleitet und ist der Vorläufer des berühmten Stefan-Boltzmann-Gesetzes. Gl. 1 ist die theoretische Grundlage für den erdnahen „Treibhauseffekt“. Sie sagt aus, dass ein Körper nur dann Energie (Wärme) durch Strahlung
abgibt, wenn T1 > T2 ist. Das bedeutet, dass auch beim Strahlungstransport die Energie immer von „warm nach kalt“ übertragen wird. Ein Widerspruch zum II. Hauptsatzes der Thermodynamik liegt somit nicht vor. Der Begriff „Treibhauseffekt“ leitet sich von der ursprünglichen aber falschen Vorstellung ab, dass die unterschiedliche Durchlässigkeit von Glas für Sonnen- und Wärmestrahlen die Erwärmung eines Gewächshauses verursacht. Ich verwende diesen (irreführenden) Begriff im Sinne von Gl. 1 & 2 weil er sich eingebürgert hat.
Die durch IR-Strahlung übertragbare netto Strahlungsleistung P (Power) ist demnach nicht nur von der Temperatur der warmen Erd-Platte TE, sondern auch von der Temperatur der kalten Aerosol-Platte TA abhängig. Die IR-Strahlung der kalten Platte vermindert die Wärmeübertragung P (wenn TA > 0)und kann auch als Gegenstrahlung (eigentliche Ursache des erdnaher Treibhauseffektes) bezeichnet werden.
Diese harmlos klingende These ist eine fundamentale Kritik der Klimahysterie. Die Aerosol-Platte simuliert die Strahlungen von Wolken/Aerosolen. Auch ohne Treibhausgase würden Wolken/Aerosole einen Basis-Treibhauseffekt erzeugen. Die Wirkung der Treibhausgase ist letztlich nur eine geringe Verstärkung dieser allgegenwärtigen Hintergrundstrahlung.

Die elektrische Heizung der Erd-Platte (Wärmestromdichte Q/m2; im Folgenden nur als Heizung QE bezeichnet) und der Strahlungsverlust P sind gleich groß, da der warmen Erd-Platte genauso viel Energie (pro Zeiteinheit) zugeführt werden muss wie sie durch Strahlung verliert. Mechanische Wärmeströme werden durch die Konstruktion der Apparatur minimiert (Abb. 2) bzw. gehen als eine konstante Störung in einen Startwert ein.
Befindet sich zwischen Erd- und Aerosol-Platte ein IR-aktives Gas, kommt zur Gegenstrahlung der kalten Platte noch die Gegenstrahlung des IR-Gases hinzu. In der 3. Mitteilung wurde experimentell nachgewiesen, dass sich die Erd-Platte erwärmt, wenn bei konstanter Heizung QE IR-Gase zugesetzt werden [9]. Um die Strahlung der IR-Gase zu quantifizieren, wird nun nach jeder IR-Gas-Zugabe die Heizung QE für eine konstante Erd-Platten-Temperatur verringert. Aus den Veränderungen der Heizung QE werden die Emissionsgrade der IR-aktiven Gase berechnet. Allerdings muss zuvor noch die Strahlung der Seitenwand ermittelt werden, da sie die Wärmeübertragung beeinflusst. Hierzu wird vor Zugabe der IR-Gase die Heizung QE(0) als ein Startwert festgestellt und hieraus der Emissionsgrad der Seitenwand abgeleitet. Details zu diesen Rechnungen und Ableitungen sind in der 4. Mitteilung [7] ausführlich beschrieben, und eine Schritt für Schritt Anleitung befindet sich in Kap. 4. Der Treibhauseffekt der IR-Gase EGas(n) lässt sich für die Laborapparatur nach Gl. 2 berechnen. Dabei beschreibt EGas(n) die Bestrahlungsstärke der Erd-Platte in W/m2 durch ein IR-Gas mit der Vordergrund-Temperatur TV, der Hintergrund-Temperatur der Aerosol-Platte TH (beide in Kelvin) und einer Molmenge n (Anzahl der Mole).

εGas(n) sind die Emissionsgrade der unterschiedlichen IR-Gase, die nur noch von der Molmenge n abhängen (Abb. 1). Wird die Hintergrundstrahlung ignoriert (TH = 0), lässt sich mit Gl. 2 die theoretische Strahlung eines IR-aktiven Gases berechnen und bei TV = TH wird der Treibhauseffekt null.
Die Rechnungen beziehen sich auf die absolute Zahl der IR-Gas-Moleküle in einem wasserdampffreien Luftvolumen beliebiger Größe. Dabei wird vorausgesetzt, dass tatsächlich alle IR-Moleküle einen Beitrag zur Gegenstrahlung leisten. Bei sehr starken IR-Strahlern wie Freone/SF6 oder sehr langen Apparaturen könnte das problematisch sein, da hier schon nach einer gewissen Ausbreitungsstrecke (Volumentiefe) Sättigung eintritt. In diesen Fällen muss IR-Gas-Konzentration verringert werden.

In der Atmosphäre wird die Hintergrundstrahlung durch Wolken/Aerosole verursacht, wobei TH ihre Strahlungstemperatur ist. Da IR-Gase in der Regel eine höhere Temperatur als Wolken/Aerosole haben, führt ihre Anwesenheit zu einer Erhöhung der Gegenstrahlung (Gl. 2). Aber ob und wie sich dabei die Erd-Temperatur TE verändert ist eine ganz andere Frage, die von den örtlichen Gegebenheiten abhängt:
Bei einer warmen, trockenen Oberfläche (z.B. in einer Trockenwüste) würde CO2, besonders bei klarem Himmel, einen Anstieg der Erd-Temperatur TE verursachen, wie auch die Labor-Experimente gezeigt haben [9].
Wird auch die Luft durch den CO2-Treibhauseffekt erwärmt? Diese Frage ist nicht leicht zu beantworten und ist Gegenstand meiner aktuellen Untersuchungen. Wäre die CO2-Schicht sehr dünn und mittig in der Atmosphäre würde sich ihre Temperatur nicht ändern, denn die Schicht verliert Wärme (durch die CO2-Strahlung) aber gewinnt auch Wärme (durch die zusätzliche IR-Strahlung der erwärmten Erde). Der Treibhauseffekt würde unter solchen Bedingungen nur eine Erwärmung der Erde, aber nicht die der Luft bewirken! Nun ist CO2 aber keine dünne Schicht, sondern in der gesamten Atmosphäre vorhanden und zwar als ein Vermittler zwischen warmen und kalten Strahlern. Die Folge ist ein auf Strahlungsaustausch beruhender Temperatur-Gradient, wobei auf der warmen Seite (Erdnähe) die Temperatur ansteigt, auf der kalten Seite (Stratosphäre) aber sinkt. Letzteres ist m.E. im Bereich der CO2-Wellenlängen von Wettersatelliten (den sogenannten Ausstrahlungstrichtern bei den IR-Emissions-Spektren) bereits nachgewiesen. Bei der erdnahen Atmosphäre sollte sich der Gradient jedoch nicht bemerkbar machen, da hier die Temperaturen hauptsächlich von mechanischen Wärmeströmen, Luftdruck und Luftströmungen bestimmt werden.

Feuchtgebiete, Wälder oder Wasseroberflächen (⅔ der Erdoberfläche!) können auf die zusätzliche CO2-Strahlung mit verstärkter Verdunstung von Wasser reagieren und dadurch den Temperaturanstieg TE dämpfen. In diesen Fällen würde sich der Strahlungstransport P gemäß Gl. 1 verringern. Vermehrte Verdunstungswärme und Konvektion feuchter Luft könnten allerdings das Defizit ausgleichen. Dafür spricht, dass 60 % der Erdoberflächenwärme durch Evapotranspiration und nur 40 % durch Strahlung an die Atmosphäre abgeführt werden [10]. Sollte die zusätzliche Wasser-Verdunstung zu einem größeren Wolkenbedeckungsgrad führen, würde CO2 paradoxerweise sogar zu einer globalen Abkühlung wegen Zunahme der Wolkenalbedo beitragen (negative CO2-Wolken-Rückkopplung)!
In der kalten Antarktis, wo Luftschichten in großer Höhe wärmer als der Boden sein können, verursacht CO2, wie Satelliten festgestellt haben, eine Verstärkung der IR-Ausstrahlung an das Weltall, was zur Abkühlung des Südpols beiträgt.
Viele dieser angesprochenen Mechanismen scheinen mir z.Z. noch nicht ausreichend verstanden und untersucht. Angesichts dieser Komplexität bewerte ich die IR-Gase nur auf der Basis ihrer unbestreitbaren, messbaren IR-Strahlungen (in W/m2) und überlasse es zukünftigen Untersuchungen, hieraus eine Klimasensitivität (Temperaturanstieg in °C) abzuleiten.
Die Klimahysterie der Alarmisten beruht auf der Annahme, dass sich die Welt in einem sensiblen Gleichgewicht befindet, das durch kleinste Störungen unwiderruflich in eine Katastrophe mündet. Es zeigt sich jedoch, dass Systeme in Natur und Technik immer dann stabil und robust sind, wenn zu jeder Steuergröße ein Gegenspieler vorhanden ist (Sympathikus/Parasympathikus, Insulin/Glucagon, positive/negative Rückkopplung), wodurch ein Regelkreis entsteht. Schnelle und langfristige Regelkreise sollten auch auf der Erde existieren. Sie könnten eigenständig agieren oder sich mit planetaren Ursachen für Klimaschwankungen wie z.B. den Milankovitch‐Zyklen [11] überlagern. So ist auch ein langfristiger Wolkeneffekt als Antagonist zur Eisalbedo denkbar:
Bei einer Eiszeit verringern sich Wasserverdunstung und Aerosol-Konzentration (
Wasserdampf-Kondensationskeime!) durch Vereisung von Wasseroberflächen und durch Eis-Ablagerung auf den Kontinenten. Die Folge sollte ein Rückgang der Wolkenschicht und eine zunehmend größere Sonnenbestrahlung der Erdoberfläche sein, wodurch der Eispanzer langsam wieder auftauen kann. Bei einer Warmzeit ist es genau umgekehrt. Durch die Zunahme der Wolken wird die Sonnenstrahlung stärker reflektiert und verhindert eine extreme Erwärmung. Es wäre wünschenswert, wenn Klimatologen nach solchen oder ähnlichen Regelkreisen suchen würden, die erklären, warum sich die Erd-Temperatur, trotz erheblicher Schwankungen, immer wieder „normalisiert“ hat, was einem sensiblen Gleichgewicht widerspricht und auf ein robustes Klima-System hinweist.

Die Strahlung der IR-Gase ist in allen Richtungen gleich groß. Deswegen wird nicht nur die Gegen- sondern auch die Ausstrahlung (in Richtung Aerosol-Platte) von den IR-Gasen beeinflusst. Tatsächlich ließ sich eine Zunahme der Ausstrahlung experimentell nachweisen (Kap. 4). Hierzu wurde die Thermoelektrizität Pt von Peltier-Elemente gemessen, die sich auf der Aerosol-Platte befinden(Abb. 2). Allerdings ist dieser Effekt nicht so eindeutig wie die Gegenstrahlung, die mit der Heizung QE nachgewiesen wird. In der Umgebung der Aerosol-Platte gibt es (anders als bei der Erd-Platte) einen großen Temperatur-Gradienten von 30 K zwischen Tp4 und TA, wodurch die Peltier-Elemente auch durch die Wärmeleitung der Gasphase beeinflusst werden. Für die These einer zusätzlichen IR-Strahlung durch IR-Gase spricht, dass bei allen Versuchen eine Zunahme der Pt-Spannung beobachtet wird. Das ist insofern bemerkenswert, da nur Methan eine höhere, die anderen IR-Gase aber eine kleinere spezifische Wärmeleitung als Luft haben, was hier eine Abnahme der Pt-Spannung verursachen müsste.
Eine Übertragung dieses Ausstrahlungs-Effektes auf die Erd-Atmosphäre ist nicht zulässig. Die Erd-Platte hat im Experiment (anders als die Erdoberfläche) nur einen kleinen Einfluss auf die Ausstrahlung.
Nach Gl. 2 verursachen IR-Gase einen Treibhauseffekt (Zunahme der Gegenstrahlung), wenn ihre Temperatur TV höher als die des Hintergrundes TH ist. Diese Aussage ist nur gültig, wenn sich beide Strahlungsquellen auf die gleiche Strahlungsfläche beziehen. Für die Gegenstrahlung trifft das zu, da Aerosol-Platte und Gasphase den gleichen Querschnitt haben und die Erd-Platte nur ein Sensor für die Gegenstrahlung ist. Im Falle der Ausstrahlung ist die Erd-Platte aber Strahlungsquelle, wobei Erd-Platte und Gasphase (fast) die gleiche Temperatur haben und der Ausstrahlungseffekt null sein sollte. Da die Gasphase aber eine größere Strahlungsfläche als die Erd-Platte hat, kommt es zu einer Zunahme der Ausstrahlung nach Zugabe von IR-Gasen.

  1. Emissionsgrade der atmosphärischen Spurengase

Abbildung 3 zeigt die Emissionsgrade εGas(n) von Methan, CO2 und Lachgas im Molmengenbereich n von 0 bis 1 mol. Die Beziehung zwischen Emissionsgrad εGas und Molmenge n hat keinen einheitlichen Verlauf. Bei sehr kleinen Molmengen wird ein steiler, linearer Anstieg registriert, der bei größeren Mengen in eine logarithmische Progression übergeht. Bei noch größeren Molmengen tritt zusätzlich noch ein Konzentrationseffekt auf. Dieses komplexe Verhalten führt dazu, dass mit drei verschiedenen Formeln Y1, Y2 und Y3 die Beziehung zwischen Emissionsgrad εGas(n) und Molmenge n beschrieben werden. Zur besseren Übersicht werden die 3 Progressionskurven in den Farben Blau, Rot und Grün gezeichnet.

Formel Y1, der blaue Bereich bis 0,12 mol: Schon geringe Änderung der Molmenge führen zu einem starken, linearen Anstieg des Emissionsgrades εGas(n). Es wird vermutet, dass hier die IR-Strahlung hauptsächlich von der zentralen Vibrationsbande der IR-Gase, dem sogenannten Q-Zweig verursacht wird (Abb. 4). Da es sich um eine sehr starke Bande handelt, führt die Erhöhung der Molmenge schnell zu einer Sättigung [12].
Formel Y2, der rote Bereich bis 0,5 mol: Die weitere Zunahme der Emissionsgrade εGas(n) kann nur noch durch die wesentlich kleineren Rotationsbanden, den R- (abnehmend) und P-(zunehmend) Zweigen (branch), erfolgen (Abb. 4). Der rote Bereich und sein weiterer, theoretischer Verlauf gemäß Formel Y2 (schwarze Linie bis 1,0 mol) charakterisiert die maximal mögliche Strahlung der atmosphärischen Spurengase bei hohen Molmengen. Y2 ist somit die Rechenbasis für die CO2-Strahlungen. Auch die molaren Emissionsgrade εm für n = 1 mol werden mit Y2 berechnet (Tab. 1). Danach ist Methan ein deutlich schwächerer IR-Strahler als CO2.
Formel Y3, der grüne Bereich oberhalb von 1 Vol.-%: Ab einer Konzentration von 1 Vol.-% tritt ein sprunghafter Anstieg der Emissionsgrade εGas(n) auf, der die logarithmische Progression zu höheren Werten verschiebt. Dieser Konzentrations-Effekt wird auch in der IR-Spektroskopie beobachtet und wird dort als Bandenverbreiterung bezeichnet [13], [7]. Für die Beurteilung des atmosphärischen Treibhauseffektes spielt die Bandenverbreiterung keine Rolle, da die Atmosphären-Konzentrationen von Methan, CO2 und Lachgas viel kleiner als 1 Vol.-% (10.000 ppm) sind. Werden jedoch bei Labormessungen die IR-Gase bei Konzentrationen > 1 Vol.-% untersucht, werden unrealistisch hohe Werte erhalten, die nicht die Atmosphäre widerspiegeln, was (auch bei der Auswertung von HITRAN-Spektren) zu beachten ist.

Wasserdampf kann aus physikalischen Gründen (Gefrierpunkt = 0 °C) mit der Apparatur nicht untersucht werden. In der Atmosphäre führt Wasserdampf aufgrund seiner vielen Absorptionslinien und seiner sehr großen Menge (bis zu 100-mal größer als CO2) zu einem weiteren Wirkungsverlust der Spurengase. Eine 1:1 Übertragung der Labor-Experimente ist deshalb bestenfalls auf Trockenwüsten zulässig. Hierzu könnte man einwenden, dass mit der Apparatur nur die Emissionsgrade εGas(n) der IR-aktiven Gase ermitteln werden und eine Übertragung auf die Atmosphäre unzulässig ist. M.E. sollte es aber grundsätzlich möglich sein, aus diesen Laborergebnissen gewisse Rückschlüsse zu ziehen. Der Strahlungstransport P in der erdnahen Atmosphäre unterliegt den gleichen physikalischen Gesetzen von Vorder- und Hintergrundstrahlung und die Apparatur modelliert diese Mechanismen in einem bestimmten Maßstab (Kap. 3). Allerdings muss man sich auch den Einschränkungen bewusst sein, die beim Klima der Erde eine Rolle spielen, wie beispielsweise der erdferne Treibhauseffekt, der Druckgradient der Atmosphäre, die Erdrotation oder die bereits erwähnte Evapotranspiration, die von der Apparatur nicht nachgebildet werden.

  1. Emissionsgrade der gesättigten Kohlenwasserstoffe

Da mir für die vorherigen Untersuchungen kein reines Methan zur Verfügung stand, wurde an seiner Stelle Erdgas eingesetzt. Der Gasversorger gibt im Sicherheitsdatenblatt einen Methangehalt von 80-99 % und als mögliche Verunreinigungen Ethan (0-12 %) und Propan (0-4 %) an. Man könnte nun argumentieren, dass der geringe molare Methan-Emissionsgrad εm möglicherweise durch die Verunreinigungen im Erdgas verursacht wird. Um diesem Einwand nachzugehen, wurden neben Methan auch noch Propan und nButan untersucht (Abb. 5). Diese drei Substanzen gehören derselben chemischen Familie, den Alkanen, an. Sie sind homologe Verbindungen, die sich nur durch weitere CH2-Gruppen unterscheiden und deshalb bei den Emissionsgraden εGas(n) einen Trend ergeben sollten.
Die gemessenen Emissionsgrade εGas(n) der drei Alkane zeigen erneut eine doppelte Abhängigkeit sowohl von der Molmenge n als auch von der Konzentration (Y1: Blau, Y2: Rot und Y3: Grün). Auffällig ist eine Verlängerung des blauen, linearen Y1-Bereiches, von 0,12 auf 0,23 mol. Eine größere Anzahl von Vibrationsschwingungen im Q-Zweig könnte hierfür die Ursache sein.
Die molaren Emissionsgrade εm wurden mit der Y2-Formel für n = 1 mol berechnet. Trägt man die εm Werte über die Anzahl der C-Atome auf, zeigt sich, dass die Strahlungsfähigkeit der Alkane von ihrer Kettenlänge abhängig ist: εm = 0,0367 ∙ ln(x)+0,0291 (x = Anzahl der C-Atome) (Abb. 6). Mit dieser Formel lässt sich auch der molare Emissionsgrad für das fehlende Ethan berechnen. Die Kurve zeigt eine logarithmische Progression, die Methan als den Strahler mit dem kleinesten molaren Emissionsgrad εm ausweist. Wenn also Erdgas mit Ethan/Propan verunreinigt sein sollte, wäre dadurch der molare Emissionsgrad εm des reinen Methans sogar noch etwas kleiner als 0,029.

  1. Treibhauspotential – eine Mogelpackung?

Wikipedia: „Das (relative) Treibhauspotential (englisch: greenhouse warming potential, GWP) oder CO2-Äquivalent einer chemischen Verbindung ist eine Maßzahl für ihren relativen Beitrag zum Treibhauseffekt, also ihre mittlere Erwärmungswirkung der Erdatmosphäre über einen bestimmten Zeitraum (in der Regel 100 Jahre). Sie gibt damit an, wie viel eine bestimmte Masse eines Treibhausgases im Vergleich zur gleichen Menge CO2 zur globalen Erwärmung beiträgt. Beispielsweise beträgt das CO2-Äquivalent für Methan bei einem Zeithorizont von 100 Jahren 28: Das bedeutet, dass ein Kilogramm Methan innerhalb der ersten 100 Jahre nach der Freisetzung 28-mal so stark zum Treibhauseffekt beiträgt wie ein Kilogramm CO2. Bei Distickstoffmonoxid beträgt dieser Wert 265“ [14].
Wie bitte? Hatten wir nicht gerade die geringere Strahlungsfähigkeit des Methans im Vergleich zum CO2 festgestellt? Hat IPCC getrickst? Ja eindeutig! Das Treibhauspotential ist ein typisches Beispiel für einen Apfel- und Birnenvergleich. Zunächst zur Masseneinheit Kilogramm. Die IR-Strahlung eines Gases leitet sich nun mal von der der Molmenge (mol) und nicht vom Kilogramm ab. Ein Kilogramm CO2 (1000/44,01) entsprechen 22,7 mol CO2, während 1 kg Methan (1000/16,04) 62,3 mol sind, also 2,7-mal mehr als beim CO2. Das ist allerdings nur ein kleiner Trick, der auch nur beim Methan richtig funktioniert. Der eigentliche Trick ist, dass die Emissionsgrade εGas(n) Variablen sind, die extrem von ihren Molmengen n abhängen, wie in allen gezeigten Grafiken zu sehen ist. Das atmosphärische CO2 beendet bereits bei rund 100 ppm den steilen Y1 Anstieg und folgt nun einer flachen logarithmischen Weiterentwicklung im „roten“ Y2-Bereich [15]. Demgegenüber verbleiben Methan (1,8 ppm) und Lachgas (0,3 ppm) im „blauen“ Y1 Bereich, mit relativ großen Strahlungszunahmen bei geringen Mol-Änderungen. Die Strahlungen der Spurengasen folgen also völlig unterschiedlichen Gesetzen (Y1 vs. Y2). Ein Apfel- und Birnen- Vergleich ist nicht Wissenschaft, sondern Populismus und Panikmache wie folgende Überschlagsrechnungen zeigen.

Der für die Strahlung maßgebliche Emissionsgrad εGas(n) hängt von der Anzahl der IR-Gas-Moleküle n unter einer Wolkenschicht ab und ist bei Methan/Lachgas sehr viel kleiner als beim CO2. Tab. 4 zeigt die Strahlungsanstieg von Methan, Lachgas und CO2 von 1750 bis 2018.
Die Berechnung der atmosphärischen CO2-Strahlung wurde bereits in der 4. Mitteilung vorgestellt [7]. Es stellte sich heraus, dass Luftschichten oberhalb von 1.000 m den CO2-Treibhauseffekt nicht mehr erhöhen. Diese Grenze wurde nun aus Vergleichsgründen für alle Spurengase zugrunde gelegt. Die Rechnungen erfolgen in drei Schritten:
Im ersten Schritt wird die Molmenge n aus der IR-Gas-Konzentration errechnet wie in Kap. 4 angegeben. Aus der Molmenge n werden die Emissionsgarde
εGas(n) gemäß Tab. 3 ermittelt. Dabei werden für Methan und Lachgas die Y1-Formeln und für CO2, wegen seinen hohen Konzentration, die Y2-Formel verwendet. Mit Gl. 2 wird dann die Gegenstrahlung EGas(n) der einzelnen Spurengase berechnet.
Diese Rechnungen sind aus verschiedenen Gründen nur grobe Näherungen: So wurde die Hintergrund-Temperatur TH der Wolken/Aerosole nur geschätzt, für die Vordergrund-Temperatur TV Durchschnittswerte verwendet und die Wasserdampf-Strahlung nicht berücksichtigt. Die gefundenen Strahlungswerte EGas(n) können somit nach oben oder unten von den tatsächlichen Werten abweichen. Dennoch wurden mit diesen sehr einfachen Rechnungen erstaunliche gute Übereinstimmungen mit Strahlungstransfer-Rechnungen erzielt, die H. Harde [16] mit modifizierten Schwarzschild-Gleichungen durchgeführt hatte und die zu folgenden Kernaussagen führten:
„Kontinuierliche Prozesse wandeln in der Atmosphäre Wärme in Strahlung und Strahlung in Wärme um.
CO2 allein könnte 24,1 % der IR-Strahlung der Erde absorbieren. In Gegenwart anderer IR-Gase, hauptsächlich Wasserdampf, verringert sich dieser Wert auf 4,6 %. Die zentrale CO2-Absorptionsbande ist bereits nach 1 m Ausbreitungslänge gesättigt und eine weitere Absorptionszunahme durch R- und P-Seitenbänder endet bei rund 1 km. Bei klarem Himmel würde eine Verdopplung von CO2 die Gesamtabsorption um 1,2 % erhöhen, aber unter Wolken wird der CO2-Beitrag unter 1 % gesenkt.“
Eine weitere Übereinstimmung findet sich in einer vereinfachten IPCC-Formel, die für
CO2 (400 ppm) eine Strahlungsdichte von 32,1 W/m2 errechnet. Dieser Wert stimmt sehr gut mit 30,7 W/m2 überein, wenn die CO2-Strahlung nach Gl. 2 ohne Hintergrundstrahlung (TH = 0) ermittelt wird [7].
Die guten Übereinstimmungen sind eine gegenseitige Bestätigung von theoretischen Berechnungen und experimentell gefunden Werten und sie erhärten den Verdacht, dass das IPCC von zu großen
CO2-Strahlungswerten ausgeht und die Wirkungen von Wasserdampf und Wolken/Aerosole vernachlässigt.

Beim Lachgas (N2O) lässt sich kaum eine Veränderung von EN2O(n) ablesen, womit sich eine weitere Diskussion erübrigt. Die Methanstrahlung ECH4 erhöhte sich um 0,40 W/m2 (Faktor 2,3), während die CO2-Strahlung ECO2 um 0,55 W/m2 (Faktor 1,07) zunahm. Mit dem Trick der leichten Vervielfachung kleiner Zahlen lässt sich jetzt trefflich ein hohes Methan-Treibhauspotential postulieren. Geht man aber zu den absoluten Zahlen über, erzeugen Methan und Lachgas zusammen 1 W/m2, das ist nur ein Bruchteil der CO2-Strahlung von 9,5 W/m2. Und wenn man jetzt noch die gesamte atmosphärische Gegenstrahlung von 333 W/m2 [10] zugrunde legt, ist die Summe aller drei Spurengase mit rund 11 W/m2 nur ein Zwerg innerhalb der erdnahen IR-Strahlungen. Da sollte schon die Frage erlaubt sein, welchen Einfluss die restlichen 322 W/m2 haben, die durch Wolken, Wasserdampf und Aerosole verursacht werden und wie sich ihr Anteil seit 1750 entwickelt hat?

Nun gut, Kleinvieh macht auch Mist, und so könnte der CO2-Anstieg sogar ein Glücksfall für die Menschheit sein. Eiszeiten sind unvermeidlich und die nächste sogar überfällig. Bei der letzten Vereisung sank die CO2-Konzentration auf 180 ppm, nur 30 ppm von Ernährungsnot bzw. Erstickungstod der Pflanzenwelt entfernt und das wäre dann wirklich das Ende, wenn man P. Moore und J. Lovelock glauben mag [17]:
„Vor 140 Millionen Jahren hatte die Erde noch eine
CO2-Konzentration von 2.500 ppm. Offensichtlich war diese Konzentration kein Nachteil und erst recht keine Katastrophe, denn es gab eine üppige Flora und die größten jemals auf der Erde lebenden Landtieren. Seitdem hat sich die CO2-Konzentration kontinuierlich verringert, hauptsächlich durch die Bildung von Kalkstein und Kreide (CaCO3) und hat vor 18.000 Jahren das o.g. Minimum erreicht. Anschließend haben Erd-Erwärmung und industrielle Revolution die CO2-Konzentration wieder auf 400 ppm erhöht. So können sich die Pflanzen heute über 850 Gt Kohlenstoff in der Atmosphäre freuen, aber die ferne Zukunft ist düster. Planktonische Muscheln, Korallen und Schalentiere wandeln zwar langsam aber unaufhörlich CO2 in CaCO3 um, ein Nettoverlust von 14.000 Gt Kohlenstoff in den letzten 550 Millionen Jahren. Wie lässt sich dieser lebensgefährdende Trend aufhalten? Vulkanismus als wichtigste CO2-Quelle in der Vergangenheit verliert zunehmend an Bedeutung und die fossilen Brennstoffe sind nun mal endlich. Langfristig wäre demnach CO2-Mangel und nicht der geringe CO2-Treibhauseffekt eine Bedrohung. So gesehen sind Energiewende und ‚Fridays For Future‘ der falsche Weg“.

Und was passiert mit dem Methan in der Atmosphäre? Nun es wird unter dem Einfluss von Sonnenlicht und Sauerstoff zu CO2 oxidiert und hat nach Wikipedia eine sehr kurze Verweildauer von 9–15 Jahren [1]. Ich kann nicht beurteilen, ob diese Angabe korrekt ist oder genauso falsch wie die CO2-Verweildauer, die vom IPCC mit 50-200 Jahren angegeben wird (oder sogar tausendende von Jahren nach S. Solomon) [18]. Die CO2-Verweildauer leitet sich von einem dynamischen System, dem Kohlenstoffzyklus ab. Dabei sind die Geschwindigkeiten der CO2-Freisetzung (Emission) und der CO2-Senkung (Absorption) die entscheidenden Kriterien. Die Verweildauer ist ein zentraler Punkt der Klimahysterie und soll vor Beginn der industriellen Entwicklung 3 Jahre betragen haben. In dieser Zeit sollen Emissions- und Absorptions-Geschwindigkeit gleich groß gewesen sein. Es wird nun angenommen, dass der CO2-Anstieg seit 1750 fast ausschließlich anthropogenen Ursprungs sei und die Senkung dieses zusätzlichen CO2 viel langsamer verläuft als im sogenannten natürlichen Kreislauf. H. Harde widerspricht der Hypothese der ungleichen Geschwindigkeiten und geht von einem leichten Anstieg der Verweildauer (4 Jahre) aus [19]. Seine Thesen und nachvollziehbaren Rechnungen stützen sich auf der Annahme, dass nicht der Mensch sondern die Erd-Temperatur die Geschwindigkeit beider Prozesse, Emission und Absorption, mit nur leicht unterschiedlichen Koeffizienten beeinflusst. Und auch der anthropogene Anteil an der CO2-Erhöhung ist mit 15 % (17 ppm von 113 ppm seit 1750) deutlich geringer als vom IPCC angenommen.

Die angeblich lange IPCC-CO2-Verweildauer ist allerdings ein Eigentor, denn dadurch ist die Methan-Verweildauer von nur 9-15 Jahren kein zusätzliches Argument für eine Klimagefährdung durch Methan.

  1. Experimentelle Daten

Vor Durchführung eines Experimentes wird die Innenluft der Apparatur 24 Stunden über feste Natronlauge mit einer Geschwindigkeit von 1 l/min zur Entfernung von Wasserdampf und CO2 geleitet. Aus Sicherheitsgründen (Erhöhen der unteren Explosionsgrenze) wird im Falle von Propan und nButan der Sauerstoffgehalt durch Zumischung von 30 % Argon auf rund 14 % gesenkt. Nach jeder Zugabe eines IR-aktiven Gases wird die Spannung für die Heizfolie unter der Erd-Platte (Abb. 2) solange verringert, bis die Start-Temperatur der Erd-Platte von 16,09 °C gerade wieder erreicht ist. Da das System von Heizung und Temperatur-Messung eine gewisse Trägheit besitzt, wird das Mittel von zwei Messungen im Abstand von 0,01 bis 0,02 Volt gebildet, die beide 16,09 °C ergeben. Die Versuche wurden 2 bis 5-mal wiederholt und als Durchschnitt ausgewertet.
Die Erd-Platte hat einen Durchmesser von 16,7 cm und eine Fläche AE= 219,04 cm2. Zur Ermittlung der Wärmestromdichte QE wird die gemessene Stromleistung (Spannung mal Stromstärke) durch Multiplikation mit 45,654 auf einen Quadratmeter umgerechnet. Der Abstand zwischen Erd- und Aerosol-Platte beträgt 1,11 m. Die Rechnungen beziehen sich auf ein fiktives Luft-Volumen der Apparatur von 1,11 m3. Die Molmenge n wird aus der allgemeinen Gasgleichung n = p∙V/R∙TLuft abgeleitet. Dabei ist p der Luftdruck in hPa, R ist die Gaskonstante (8,31448 J/mol∙K), V ist der Volumenanteil des IR-Gases am fiktiven Volumen von 1,11 m3 in Liter (aus der Konzentration Vol.-%) und TLuft ist die Durchschnitts-Temperatur der Luftschicht von Tp1-Tp4 in Kelvin.
Im ersten Schritt wird die theoretische Wärmeübertragung E zwischen Erd- und Aerosol-Platte analog zu Gl. 1 ETheo = σ ∙ A ∙ (TE4-TA4) als Schwarzkörper-Strahlung berechnet (σ = 5,670367∙10-8 W/(m2 ∙ K4), A = 1 m2, T = Temperatur in Kelvin). Die Gegenstrahlung wird gemeinsam von Aerosol-Platte und Seitenwand erzeugt. Das Verhältnis von QE(0)/ETheo = εA(0) ist der effektive Emissionsgrad der Aerosol-Platte (sein Anteil an der Gegenstrahlung) ohne IR-Gase. Mit diesem ersten Messwert wird nach εW =1- εA(0) der Emissionsgrad der Seitenwand εW als eine Art Tageswert bestimmt. Nach der gleichen Prozedur wird nach jeder Zugabe des IR-Gases aus dem Verhältnis QE(n)/ETheo = εA(n) und εW+Gas =1- εA(n)der gemeinsame Emissionsgrad von Wand + IR-Gas errechnet und hiervon εW als eine Konstante abgezogen, wodurch εGas(n) erhalten wird.
Mit der Abkürzung Pt(n) wird die Spannung von 5 in Reihe geschalteten Peltier-Elementen angegeben. Während sich die Heizung QE(0) sehr gut reproduzieren lässt, unterliegt die Spannungsmessung Pt(0) einer stärker abweichenden Tagesform. Allerdings zeigt sich innerhalb einer Messung stets ein stetiger Anstieg der Pt(n) Werte ohne „Ausreißer“.

    1. Methan Emissionsgrade

    1. CO2 Emissionsgrade

    1. Lachgas Emissionsgrade

    1. Propan Emissionsgrade

    1. Butan Emissionsgrade

Literaturverzeichnis

[1] „Methan,“ 15 März 2019. [Online]. Available: https://de.wikipedia.org/wiki/Methan .
[2] „Distickstoffmonoxid,“ 9 April 2019. [Online]. Available: https://de.wikipedia.org/wiki/Distickstoffmonoxid .
[3] „Emissionsgrad,“ 27 Juni 2018. [Online]. Available: https://de.wikipedia.org/wiki/Emissionsgrad .
[4] „Emissionsgradtabelle,“ [Online]. Available: https://static-int.testo.com/media/b5/14/6481a245e502/Emissivity-table-DE.pdf .
[5] „Gasstrahlung,“ 15 Oktober 2018. [Online]. Available: https://de.wikipedia.org/wiki/Gasstrahlung .
[6] „Rayleigh-Streuung,“ März 20 2019. [Online]. Available: https://de.wikipedia.org/wiki/Rayleigh-Streuung .
[7] M. Schnell, „Die erdnahe CO2-Strahlung,“ 27 Jan. 2019. [Online]. Available: https://eike.institute/2019/01/27/experimentelle-verifikation-des-treibhauseffektes-4-mitteilung-die-erdnahe-co2-strahlung/ .
[8] „Strahlungsaustausch,“ 05 Aug. 2018. [Online]. Available: https://de.wikipedia.org/wiki/Strahlungsaustausch .
[9] M. Schnell, „ Labor-Experimente zur Demonstration des CO2-Treibhauseffektes,“ 17 Juli 2018. [Online]. Available: https://eike.institute/2018/07/17/experimentelle-verifikation-des-treibhauseffektes-2/ .
[10] K. Trenberth et al., „EARTH’S GLOBAL ENERGY BUDGET,“ 19 Juli 2008. [Online]. Available: https://www.klimamanifest-von-heiligenroth.de/wp/wp-content/uploads/2016/09/Trenberth_Jones_Treibhauseffekt_TFK_bams_2009_15Grad_390Watt_SBG_gelbMark.pdf .
[11] „Milanković-Zyklen,“ 13 04 2019. [Online]. Available: https://de.wikipedia.org/wiki/Milankovi%C4%87-Zyklen .
[12] H. Hug, „Der anthropogene Treibhauseffekt – eine spektroskopische Geringfügigkeit,“ 20 August 2012. [Online]. Available: https://eike.institute/2012/08/20/der-anthropogene-treibhauseffekt-eine-spektroskopische-geringfuegigkeit/ .
[13] H. Harde et al., „Lineshape Transition of Collision Broadened Lines,“ Physical Review Letters, pp. 1308-1310, 20 Feb. 1995.
[14] „Treibhauspotential,“ 4 April 2019. [Online]. Available: https://de.wikipedia.org/wiki/Treibhauspotential .
[15] M. Schnell, „Experimentelle Verifizierung des Treibhauseffektes,“ 12. Internationale Klima- und Energiekonferenz (IKEK-12), München, 2018.
[16] H. Harde, „Radiation and Heat Transfer in the Atmosphere: A Comprehensive Approach on a Molecular Basis,“ 2013. [Online]. Available: http://dx.doi.org/10.1155/2013/503727 .
[17] P. Moore, „Die positiven Auswirkungen der menschlichen CO2-Emissionen,“ 12 06 2019. [Online]. Available: https://eike.institute/2019/06/12/die-positiven-auswirkungen-der-menschlichen-co2-emissionen-auf-das-ueberleben-des-lebens-auf-der-erde/ .
[18] „Verweildauer von CO2: Henne oder Ei?,“ 3 Dez. 2013. [Online]. Available: https://eike.institute/2013/12/03/zur-verweildauer-von-co2-henne-oder-ei/ .
[19] H. Harde, „What Humans Contribute to Atmospheric CO2: Comparison of Carbon Cycle Models with Observations,“ Earth Sciences, Bd. 8/3, pp. 139-159, 2019.



Was CO2 tatsächlich bewirkt. Fakten aus dem Lehrbuch der Physik!

Die von der anthropogenic global warming (AGW)-Hypothese postulierte Erwärmung der Erdoberfläche durch „Back Radiation“ der in der Atmosphäre enthaltenen CO2-Moleküle ist aufgrund des 2.HS physikalisch ausgeschlossen.

Die Erdoberfläche ist resultierend aus der Sonneneinstrahlung  wärmer als die darüber liegende Atmosphäre und damit der darin enthaltenen, strahlenden CO2-Moleküle. Für die Wärmebilanz zwischen Körpern unterschiedlicher Temperatur hat Rudolf Clausius den 2.HS formuliert: „Wärme kann nicht von selbst aus einem kälteren in einen wärmeren Körper übergehen.“(1)

Dabei hat Clausius betont, dass nicht nur der warme Körper dem kalten, sondern auch umgekehrt der kalte Körper dem warmen Wärme zustrahlt. Quantitativ wird diese Aussage durch das Planck`schen Strahlungsgesetz beschrieben, das besagt, dass jeder Körper mit einer Temperatur größer als der absolute Nullpunkt elektromagnetische Strahlung aussendet, die in Relation zur Temperatur des Körpers und zur Wellenlänge steht. Die Erdoberfläche und die in der Erdatmosphäre enthaltenen CO2-Moleküle, deren Temperatur mit der Temperatur der Erdatmosphäre identisch ist, strahlen sich gegenseitig an. Die Energiedichte der Erdstrahlung ist jedoch aufgrund des Planck`schen Gesetzes größer als die Energiedichte der Strahlung aus der Atmosphäre, da die Erde eine höhere Temperatur hat. Die Gesamtbilanz des durch Strahlung verursachten Wärmetransports geht also in Richtung Atmosphäre. Eine Erwärmung der Erdoberfläche durch IR-Strahlung aus der Atmosphäre ist damit ausgeschlossen.

Es stellt sich aber die Frage, welchen energetischen Effekt eine Verdoppelung der derzeitigen CO2-Konzentration in der Erdatmosphäre zur Folge hat, wenn eine Erwärmung durch Rückstrahlung nicht möglich ist. Wie aus dem Lehrbuch der Physik bekannt, thermalisieren die durch IR-Strahlung angeregten CO2-Moleküle unter den Bedingungen der bodennahen Atmosphäre, sie geben die durch Strahlung aufgenommene Energie in Form von kinetischer Energie praktisch quantitativ an andere Luftmoleküle ab.

Um die Folgen der Thermalisierung zu ermitteln, wird zunächst die kinetische Energie eines Mols Luft – betrachtet als ideales Gas – berechnet. Für ein Mol eines idealen Gases gilt das „Allgemeine Gasgesetz“ p*V = R*T. Aus der statistischen Mechanik erhält man die Gleichung p*V = 2/3*N*E°, wobei N die Avogadro-Konstante und E° die kinetische Energie eines idealen Gasmoleküls ist. Das Produkt N*E° ist folglich der kinetische Energieinhalt eines Mols eines idealen Gases. Aus dem „Allgemeinen Gasgesetz“ ergibt sich dann R*T = 2/3*N*E°. Damit errechnet sich die kinetische Energie eines Mols eines idealen Gases zu N*E° = 3/2*R*T. Für die „mittlere Erdtemperatur“ von 15°C, entsprechend 288 K, ergibt sich dann ein Gehalt an kinetischer Energie für 1 Mol Luft, gerechnet als ideales Gas, von N*E° = 3.592 J/mol.

Eine Verdoppelung der CO2-Menge bedeutet Hinzufügung von 400 ppm CO2. Die hinzugefügten CO2-Moleküle ersetzen – da das System offen ist – die entsprechende Zahl Luftmoleküle, sodass die Menge von 1 Mol erhalten bleibt. 400 ppm eines Mols entsprechen 2,4*10^20 Moleküle CO2, enthalten in 1 Mol Luft.

Die CO2-Moleküle strahlen bei einer Wellenlänge Lambda = 15 Mikrometer. Mithilfe des Planck´schen Gesetzes E = h*c/lambda errechnet sich daraus ein Energieinhalt von 1,325*10^-20 J für ein Strahlungsquant eines CO2-Moleküls. Für 2,4*10^20  CO2-Moleküle ist das eine Gesamt-Energie von 3,18 J, die durch 400 ppm CO2 in 1 Mol Luft eingetragen werden und dort als kinetische Energie zur Wirkung kommen.

400 ppm CO2 tragen via Strahlung 3,18 J als kinetische Energie in 1 Mol Luft ein, das einen kinetischen Energie-Inhalt von 3.592 J besitzt. Das entspricht 3,18 J / 3.592 J = 0,09 %. Als Summe ergibt sich durch Bestrahlung von 400 ppm CO2 von der Erdoberfläche und nachfolgender Thermalisierung in der bodennahen Atmosphäre folglich eine Energiezunahme von 3.592 J auf 3.595 J. Diese Energiemenge ergibt gemäß N*E° = 3/2 R*T eine Temperatur von T = 2/3*3.595J/mol  /  8,314 J/K *mol = 288,27 K. Nachdem eine Strahlungswirkung durch „Back Radiation“ physikalisch ausgeschlossen ist, erzeugt eine Verdoppelung der heutigen atmosphärischen CO2-Konzentration um 400 ppm auf dem Weg kinetischen Energietransports eine Erhöhung der „mittleren Erdtemperatur“ von 15 °C auf 15,27 °C in der bodennahen Luftschicht. Das ist das Ergebnis, das man durch Anwendung physikalischer Gesetze, wie sie im Lehrbuch der Physik stehen, erhält.

Die Erhöhung um 0,27 °C kann allerdings nur dann eintreten, wenn alle zusätzlichen CO2-Moleküle die von der Erdoberfläche ausgehende IR-Strahlung bei 15 Mikrometer absorbieren. Dem ist jedoch nicht so. Wie mittels FT-IR-Spektrometrie gemessene IR-Spektren belegen, nimmt die Absorption bei einer Verdoppelung der CO2-Menge in der Luft lediglich in der Größenordnung von 1% zu. Aufgrund dieser Messergebnisse steht fest, dass bei Erhöhung der CO2-Konzentration in der irdischen Atmosphäre eine relevante zusätzliche Absorption ausgeschlossen ist. Die schon jetzt in der Atmosphäre vorhandene CO2-Konzentration übersteigt ganz offensichtlich die Menge an CO2, die nötig ist, die von der Erdoberfläche abgestrahlte 15-Mikrometer-Strahlung quantitativ zu absorbieren. Bei konstanter IR-Strahlung von der Erdoberfläche ist somit jegliche Erhöhung der CO2-Konzentration ohne Effekt.

Nachdem durch FT-IR-Messung eine zusätzliche IR-Absorption durch zusätzliches CO2 ausgeschlossen ist, ist folglich die oben errechnete Temperaturzunahme von 0,27 °C, die auf Basis einer Absorption errechnet wurde, hinfällig. Anders ausgedrückt heißt das: Zusätzliches CO2 übt keinerlei, wie auch immer gearteten, Einfluss auf die bodennahe Erdatmosphäre aus.

Anders liegt der Fall in der oberen Troposphäre, wo das Strahlungsvermögen des CO2 aufgrund der geringen Luftdichte den Thermalisierungseffekt überwiegt, bzw. ganz zurückdrängt. Mehr CO2 kann hier die aus der Atmosphäre auf kinetischem Weg übernommene Energie in Form von Strahlung – statistisch zu 50% – in den Weltraum abstrahlen und so die Atmosphäre zusätzlich abkühlen.

Es ist doch mehr als erstaunlich, dass 97% der „Klimawissenschaftler“ ganz offensichtlich den Inhalt des Lehrbuchs der Physik nicht kennen.




Die positiven Auswirkungen der menschlichen CO2-Emissionen auf das Überleben des Lebens auf der Erde

KURZFASSUNG

Diese Studie untersucht die positiven Umweltauswirkungen von Kohlendioxid (CO2)-Emissionen, ein Thema, das in der wissenschaftlichen Literatur gut verankert ist, in der aktuellen Diskussion über die Klimapolitik aber viel zu oft ignoriert wird.

Alles Leben basiert auf Kohlenstoff, und die Hauptquelle dieses Kohlenstoffs ist das CO2 in der globalen Atmosphäre. Noch vor 18.000 Jahren, auf dem Höhepunkt der jüngsten großen Vereisung, sank das CO2 mit 180 ppm auf den niedrigsten Stand der Geschichte, niedrig genug, um das Pflanzenwachstum zu bremsen. Das sind nur 30 ppm über einem Niveau, das zum Tod von Pflanzen durch CO2-Hunger führen würde. Es wird berechnet, dass, wenn der Rückgang des CO2-Gehalts in der gleichen Geschwindigkeit wie in den letzten 140 Millionen Jahren anhalten würde, das Leben auf der Erde bereits in zwei Millionen Jahren zu sterben beginnen und langsam fast vollständig untergehen würde, da weiterhin Kohlenstoff an die Sedimente der Tiefsee verloren geht.

Die Verbrennung fossiler Brennstoffe zur Energiegewinnung für die menschliche Zivilisation hat den Abwärtstrend beim CO2 umgedreht und verspricht, es wieder auf ein Niveau zu bringen, das einen erheblichen Anstieg der Wachstumsrate und der Biomasse von Pflanzen, einschließlich Nahrungspflanzen und Bäumen, fördern dürfte. Die menschlichen CO2-Emissionen haben den globalen Kohlenstoffkreislauf wieder ins Gleichgewicht gebracht und damit die langfristige Fortsetzung des Lebens auf der Erde sichergestellt.

Dieser äußerst positive Aspekt der menschlichen CO2-Emissionen muss gegen die unbewiesene Hypothese abgewogen werden, dass die menschlichen CO2-Emissionen in den kommenden Jahren zu einer katastrophalen Erwärmung des Klimas führen werden.

Die einseitige politische Behandlung von CO2 als Schadstoff, der radikal reduziert werden sollte, muss im Hinblick auf die unbestreitbaren wissenschaftlichen Beweise, dass er für das Leben auf der Erde unerlässlich ist, korrigiert werden.

INHALTSVERZEICHNIS

EINFÜHRUNG

Es besteht die weit verbreitete Ansicht, dass die CO2-Emissionen aus der Verbrennung fossiler Brennstoffe zur Energiegewinnung eine Bedrohung für das Klima der Erde darstellen und dass die Mehrheit der Arten, einschließlich der Spezies Mensch, stark leiden wird, wenn diese Emissionen nicht drastisch reduziert oder sogar beseitigt werden. [1]

Dieses Papier bietet eine radikal andere Perspektive, die auf der geologischen Geschichte des CO2 basiert. CO2 ist einer der wichtigsten Nährstoffe für Leben auf der Erde. Es hat sich in den letzten Perioden der großen Vereisung in der Eiszeit des Pleistozäns einem gefährlich niedrigen Niveau angenähert, und die menschlichen CO2-Emissionen können das Aushungern und den letztendlichen Tod des meisten Lebens auf dem Planeten aufgrund eines CO2-Mangels verhindern. [2] Dies ist nicht in erster Linie eine Diskussion über den möglichen Zusammenhang zwischen CO2 und der globalen Erwärmung oder dem Klimawandel, obwohl einige Erwähnungen davon gemacht werden müssen. Es gab viele Diskussionen zu diesem Thema, und es ist sowohl im wissenschaftlichen als auch im politischen Bereich heftig umstritten. Es steht außer Frage, dass sich das Klima in den letzten 300 Jahren seit dem Höhepunkt der Kleinen Eiszeit erwärmt hat. Es steht auch außer Frage, dass CO2 ein Treibhausgas ist und unter ansonsten gleichen Bedingungen würden die Emissionen zu einer gewissen Erwärmung führen, wenn der CO2-Anteil in der Atmosphäre auf ein höheres Niveau stiege. Es gibt jedoch keinen eindeutigen wissenschaftlichen Beweis dafür, dass CO2 ein wesentlicher Faktor für den Einfluss auf das Klima in der realen Welt ist. Das Erdklima ist ein chaotisches, nichtlineares, multivariantes System mit vielen unvorhersehbaren Rückkopplungen, sowohl positiven als auch negativen. In erster Linie geht es hier um die Rolle des atmosphärischen CO2 bei der Erhaltung des Lebens auf der Erde und die positive Rolle der menschlichen Zivilisation bei der Verhinderung dessen, dass CO2 auf ein Niveau absinkt, das die Existenz von Leben überhaupt bedroht.

DIE GESCHICHTE VON CO2 IN DER GLOBALEN ATMOSPHÄRE

Es ist eine unbestrittene Tatsache, dass alles Leben auf der Erde auf Kohlenstoff basiert und dass die Quelle dieses Kohlenstoffs CO2 ist, das durch die globale Atmosphäre strömt. Als ursprüngliche CO2-Quelle in der Atmosphäre gelten massive Vulkanausbrüche in der Frühgeschichte der Erde, deren extreme Hitze die Oxidation von Kohlenstoff im Erdinneren zu CO2 verursacht hat. [3] Heute durchdringt CO2 als Nebengas mit 0,04 Prozent die gesamte Atmosphäre und wird von den Ozeanen und anderen Gewässern (der Hydrosphäre) aufgenommen, wo es die Nahrung für photosynthetische Arten wie Phytoplankton und Kelp liefert. Wenn es kein CO2 oder einen unzureichenden CO2-Gehalt in der Atmosphäre und der Hydrosphäre gäbe, gäbe es kein Leben, wie wir es auf unserem Planeten kennen.

Auf relativ kurzfristiger Basis (Jahre bis Hunderte von Jahren) ist der Kohlenstoffkreislauf eine komplexe Serie von Austauschvorgängen zwischen der Atmosphäre, der Hydrosphäre, lebenden Arten und dem Abbau organischer Substanz in Böden und Sedimenten. Langfristig (Millionen bis Milliarden von Jahren) ist der größte Teil des Kohlenstoffs, der von den Pflanzen aus der Atmosphäre aufgenommen wurde, für den Kreislauf in tiefe Lagerstätten von fossilen Brennstoffen und kohlenstoffhaltigem Gestein (Mineralien) wie Kreide, Kalkstein, Marmor und Dolomit verloren gegangen. Der weitaus größte Teil des langfristig gebundenen Kohlenstoffs liegt in Form von kohlenstoffhaltigem Gestein vor.

Wir haben keine gute Schätzung der Gesamtmenge an CO2, die durch vulkanische Aktivitäten in die globale Atmosphäre ausgestoßen wurde. Wir kennen nicht die Gesamtmenge an Kohlenstoff, die durch die langfristige Sequestrierung in fossilen Brennstoffen und kohlenstoffhaltigem Gestein verloren gegangen ist, aber wir haben Schätzungen der Größenordnung. Wir verfügen über quantitative Schätzungen des CO2-Gehalts in der Atmosphäre, die mehr als 600 Millionen Jahre zurückreichen, d.h. das Nettoergebnis von Zugängen durch vulkanische Ereignisse, Verluste durch tiefe Ablagerungen in kohlenstoffhaltigen Gesteinen und fossilen Brennstoffen, die Biomasse lebender Arten und den Abbau organischer Substanz. Diese Schätzungen werden umso genauer, je näher sie an der Gegenwart liegen. Dieses Papier wird sich auf die letzten 540 Millionen Jahre und insbesondere auf die letzten 140 Millionen Jahre konzentrieren.

Die beste Schätzung der CO2-Konzentration in der globalen Atmosphäre vor 540 Millionen Jahren liegt bei 7.000 ppm, mit einer großen Fehlerquote. (Siehe Abbildung 1). Um der Diskussion willen werden wir diese Zahl akzeptieren, die eine Masse von mehr als 13.000 Milliarden Tonnen (Gigatonnen, Gt) Kohlenstoff in der Atmosphäre angibt, 17‐mal so hoch wie heute, während der Kambrischen Explosion, als sich das multizelluläre Leben entwickelte. Dies gilt als das Aufkommen des modernen Lebens, als sich sowohl Pflanzen‐ als auch Tierarten in warmen Meeren rasch diversifizierten und später bei warmem Erdklima das Land besiedelten. [4] Davor war das Leben mehr als drei Milliarden Jahre lang weitgehend einzellig, mikroskopisch klein und auf das Meer beschränkt.

Abbildung 1. Grafik der globalen Temperatur und der CO2-Konzentration in der Atmosphäre über die letzten 600 Millionen Jahre. Beachten Sie, dass sowohl Temperatur als auch CO2 heute niedriger sind als zu den meisten Zeiten des modernen Lebens auf der Erde seit dem Kambrium. Beachten Sie auch, dass dies nicht auf eine Ursache‐Wirkungs‐Beziehung zwischen den beiden Parametern in direkter Folge hinweist. [5]

Die Entstehung terrestrischer hölzerner Pflanzen

Eine der wichtigsten Entwicklungen bei der Etablierung terrestrischer Pflanzenarten war die Evolution von Holz, einem Komplex aus Cellulose und Lignin, der einen starren Stamm bildete. Dadurch konnten die Pflanzen ihre photosynthetischen Strukturen höher zur Sonne hin platzieren und sich so einen Wettbewerbsvorteil verschaffen. Die Entwicklung von Lignin bot auch Schutz vor Angriffen durch Bakterien und Pilzen, da noch keine Art Enzyme entwickelt hatte, die Lignin verdauen konnten. Im Devon folgte die Ausbreitung riesiger Wälder von Baumfarnen, Bäumen und Sträuchern, was zu einem massiven Anstieg der lebenden Biomasse im Vergleich zur tief gelegenen Vegetation vor der holzigen Ära führte. Diese Größenzunahme der Biomasse führte zu einem unvermeidlichen CO2-Abbau aus der Atmosphäre, da Holz fast 50 Prozent Kohlenstoff enthält. Von damals bis heute übertrifft die Biomasse von Bäumen und anderen Gehölzen bei weitem die Summe aller anderen Arten zusammen. [6]

Es war zu erwarten, dass, sobald die lebende Biomasse einen viel höheren, aber relativ stabilen Zustand erreicht hatte, dieser den Nettoentzug von CO2 beenden und bei einer Konzentration, die etwas niedriger ist als die etwa 4.000 ppm (7.600 Gt Kohlenstoff) im mittleren Devon, abflachen würde. Dies war jedoch nicht der Fall. Der CO2-Gehalt sank in den nächsten 80 bis 100 Millionen Jahren bis in die Mitte des Karbons hinein, bis er ein Niveau von etwa 400 ppm (760 Gt Kohlenstoff) erreichte, ähnlich dem heutigen Niveau. Deshalb wurde in dieser Zeit der CO2-Gehalt in der Atmosphäre um etwa 90 Prozent reduziert. Viele der massiven Kohlelagerstätten, die wir heute abbauen, sind in dieser Zeit entstanden.

Es gibt zwei konkurrierende Hypothesen über die Entstehung von Kohle in dieser Zeit. Eine Hypothese geht davon aus, dass Kohleablagerungen entstanden sind, als Bäume starben und in riesige Sümpfe fielen, wo sie konserviert, schließlich durch tiefe Sedimente begraben und im Laufe der Zeit durch Hitze und Druck in Kohle verwandelt wurden. [7] Eine alternative Erklärung ist, dass die Zersetzerarten von Bakterien, Pilzen und Insekten noch nicht den komplexen Satz von Verdauungsenzymen entwickelt hatten, der für die Holzverdauung notwendig ist. Deshalb stapelten sich die toten Bäume in den Wäldern einfach übereinander und neue Bäume wuchsen auf einer immer tiefer werdenden Schicht toter Bäume, bis sie schließlich begraben wurden, und Hitze und Druck verwandelten sie in Kohle. [8]

Abbildung 2. Die in Abbildung 1 dargestellte Grafik von CO2 und Temperatur mit dem Trend der CO2-Konzentration in der globalen Atmosphäre, dargestellt durch den grünen Pfeil. Beachten Sie den Anstieg ganz rechts in der Grafik, der die Umkehrung des Abwärtstrends von 600 Millionen Jahren darstellt, der vor allem auf die CO2-Emissionen aus der Nutzung fossiler Brennstoffe für Energie zurückzuführen ist. Beachten Sie, dass das CO2 auch heute noch mit 400 ppm weitaus geringer ist als in den meisten Jahren dieser 600 Millionen Jahre Geschichte.

Das Ende des Karbon und der Beginn des Perm markierten eine Umkehrung des Abwärtstrends bei CO2, und in den nächsten 125 Millionen Jahren stieg CO2 auf etwa 2.500 ppm in der Jurazeit. Während dieser Zeit entwickelten Pilzarten Enzyme, die das Lignin im Holz verdauen konnten. [9] Es ist plausibel, dass diese Arten oberflächennahe Totholzvorräte mit der damit verbundenen Freisetzung von CO2 in die Atmosphäre aufnahmen. Gleichzeitig mit der Entwicklung von Zersetzern, die Lignin verdauen konnten, wurde die Kohlebildung deutlich reduziert. Vulkanische Aktivitäten und die Ausgasung von CO2 aus den Ozeanen könnten ebenfalls dazu beigetragen haben, den CO2-Gehalt zu erhöhen.

Unabhängig davon, welche kohlebildende Hypothese man favorisiert, und eine Kombination aus beidem ist plausibel, wenn Pilze und andere Arten sich nicht entwickelt hätten, um die Enzyme zu produzieren, die für die Verdauung von Lignin notwendig sind, wäre es wahrscheinlich, dass das atmosphärische CO2 weiter zurückgegangen wäre, bis es die 150 ppm‐Schwelle für das Überleben von Pflanzen erreicht hätte. Zu diesem Zeitpunkt würden Pflanzenarten an CO2-Mangel sterben, und da mehr Kohlenstoff als Holz und als Kalziumkarbonat in Meeresablagerungen gebunden wurde, würde lebende Biomasse stetig schrumpfen, bis sie ganz oder zum größten Teil stirbt. Es war daher ein höchst glücklicher Zufall, dass Weißfäulepilze und andere Arten die Enzyme zum Verdauen von Lignin entwickelten, sonst wäre die Geschichte des Lebens auf der Erde wesentlich kürzer gewesen.

Die zweite grosse Reduktion des CO2-Gehaltes

Vor diesem historischen Hintergrund werden wir uns nun auf den Zeitraum von vor 140 Millionen Jahren bis heute konzentrieren. Mit einer Erholung auf etwa 2.500 ppm sank die CO2-Konzentration allmählich und stetig auf das wahrscheinlich niedrigste Niveau in der Erdgeschichte. Die Eiskerne, die in der Wostok‐Station in der Antarktis gebohrt wurden, zeigen, dass auf dem Höhepunkt des letzten großen Vergletscherungsereignisses, vor 18.000 Jahren, das CO2 auf etwa 180 ppm gesunken ist (siehe Abbildung 3). [10]Dies liegt nur 30 ppm über dem Hungerniveau der meisten Pflanzenarten, das 150 ppm beträgt. [11]

Vor hundertvierzig Millionen Jahren bei 2.500 ppm hielt die Atmosphäre 4.750 Gt Kohlenstoff als CO2. Bei 180 ppm hielt die Atmosphäre 342 Gt Kohlenstoff als CO2, was über den Zeitraum von 140 Millionen Jahren einen Verlust von 4.530 Gt Kohlenstoff oder 92,8 Prozent des atmosphärischen CO2 bedeutete. Obwohl wir keine genauen Schätzungen der vulkanischen CO2-Emissionen oder der Tiefseesequestrierung von CO2 in diesem Zeitraum haben, haben wir eine sehr gute Repräsentation der Nettoauswirkungen auf den atmosphärischen CO2-Spiegel. Aufgrund dieses Rückgangs ist das CO2 während der gegenwärtigen Eiszeit des Pleistozäns mehrmals auf ein gefährlich niedriges Niveau gesunken, verglichen mit den Bedürfnissen der Pflanzen für ihr Wachstum und Überleben. Bei 180 ppm besteht kein Zweifel daran, dass das Wachstum vieler Pflanzenarten erheblich eingeschränkt war. [12]

Abbildung 3. Grafik der Temperatur und CO2-Konzentration aus den Wostok‐Eiskernen in der Antarktis, die zeigt, dass die atmosphärische CO2-Konzentration bei 18.000 YBP (Jahre zuvor) um fast 180 ppm gesunken ist. Beachten Sie, dass der CO2-Gehalt tendenziell den Temperaturschwankungen hinterherhinkt. [14]

Die Löslichkeitspumpe und die biologische Pumpe entfernen kontinuierlich Kohlendioxid aus der Atmosphäre. [13] Die Löslichkeitspumpe verweist auf die hohe Löslichkeit von CO2 im kalten Meerwasser in höheren Breitengraden, wo es durch sinkendes kaltes Meerwasser in die Tiefe des Ozeans getragen wird. Die biologische Pumpe bezieht sich auf die Abscheidung von Kohlenstoff aus Biomasse und Calciumcarbonat (CaCO3) aus planktonischen Muscheln, Korallen und Schalentieren in die Sedimente der Tiefsee. In den letzten 140 Millionen Jahren haben diese Prozesse mehr als 90 Prozent des CO2 aus der Atmosphäre entfernt. Die stetige Reduktion des CO2 aus der Atmosphäre in den letzten 140 Millionen Jahren von 2.500 ppm auf 180 ppm vor der Zwischeneiszeit des Holozäns und vor erheblichen menschlichen CO2-Emissionen bedeutet einen Nettoverlust aus der globalen Atmosphäre von 32.000 Tonnen (Kt) Kohlenstoff pro Jahr. Wir können mit Fug und Recht vermuten, dass die Hauptursache für diesen Abwärtstrend die CaCO3-Ablagerung aus Plankton‐ und Korallenriffen in marinen Sedimenten war. [15] Während der großen Vereisungen können kühlende Ozeane auch zusätzliches CO2 aufgenommen haben.

CO2 steigt über die Schwelle

Nachdem die jüngste große Vergletscherung vor 18.000 Jahren ihren Höhepunkt erreichte, begann der CO2-Gehalt in der Atmosphäre zu steigen und erreichte vor 10.000 Jahren 260 ppm und vor der industriellen Revolution 280 ppm, als fossile Brennstoffe für die Energieerzeugung zu dominieren begannen. Die plausibelste Erklärung für den größten Teil dieses Anstiegs ist die Ausgasung von CO2 aus den Ozeanen, während sie sich mit einem sich erwärmenden Klima erwärmten. [16] Seitdem haben menschliche CO2-Emissionen dazu beigetragen, den Wert auf etwa 400 ppm anzuheben, ein Wert, der vielleicht in den letzten 10 bis 20 Millionen Jahren nicht erreicht wurde. Seit Beginn des Industriezeitalters ist CO2 in etwas mehr als 100 Jahren um 120 ppm oder etwa 230 Gt Kohlenstoff gestiegen, während der geringere “natürliche” Anstieg von 180 ppm auf 280 ppm etwa 15.000 Jahre dauerte. Der Anstieg im Industriezeitalter ist wahrscheinlich auf eine Kombination aus Verbrennung fossiler Brennstoffe, Landnutzungsänderung, Zementherstellung und möglicherweise Ausgasung von CO2 aus den Ozeanen aufgrund der steigenden globalen Temperatur zurückzuführen. Dieser letzte Punkt ist Gegenstand vieler Diskussionen und Auseinandersetzungen, ist aber im Rahmen dieser Arbeit nicht von grundlegender Bedeutung. [11]

DIE HEUTIGE VERTEILUNG DES KOHLENSTOFFS

Die globale Atmosphäre enthält heute bei etwa 400 ppm CO2 etwa 850 Gt Kohlenstoff im Vergleich zu den Ozeanen, die etwa 38.000 Gt Kohlenstoff enthalten, von denen die meisten zunächst als CO2 aus der Atmosphäre aufgenommen wurden. (Siehe Abbildung 4) Daher würde die Emission oder Absorption von 1 Prozent CO2 aus oder in die Ozeane eine 45‐prozentige Änderung des CO2-Gehalts in der Atmosphäre bei der gegenwärtigen CO2-Konzentration bewirken.

Abbildung 4. Darstellung des globalen Kohlenstoffhaushalts in Gt Kohlenstoff. Blaue Werte sind Kohlenstoffvorräte, rote Werte sind Jahresströme. Beachten Sie, dass der Ozean fast 50 mal so viel Kohlenstoff enthält wie die Atmosphäre, und der Ozean und die Atmosphäre sind in ständigem Fluss. [17]

Die wahrhaft erstaunliche Zahl ist die Schätzung von 100.000.000.000 Gt (hundert Millionen Milliarden Tonnen, auch bekannt als 100 Quadrillionen Tonnen) Kohlenstoff in kohlenstoffhaltigen Gesteinen, die ganz oder größtenteils aus CO2 in der globalen Atmosphäre stammen. Wäre das gesamte CO2 in der Atmosphäre geblieben, würde es gewichtsmässig etwa 70 aktuelle globale Atmosphären bei 100 Prozent CO2 darstellen. Dies unterstreicht die Tatsache, dass in der Frühzeit der Erde riesige Mengen an CO2 aus dem Vulkanismus ausgegast wurden. In den letzten 3,5 Milliarden Jahren wurde die überwiegende Mehrheit (etwa 99,5 Prozent) des Kohlenstoffs dadurch gebunden, dass CO2in kohlenstoffhaltigen Gesteinen und in viel geringerem Maße in fossilen Brennstoffen gebunden wurde.Es ist interessant festzustellen, dass unsere nächsten Nachbarplaneten, Venus und Mars, Atmosphären haben, die vom CO2 dominiert werden, wahrscheinlich aus frühen Vulkanausbrüchen. Keiner von beiden entwickelte ein Leben, das das CO2 in CaCO3 umwandeln konnte, um es in marinen Sedimenten zu vergraben.

CO2 in den Ozeanen

Die Löslichkeit von CO2 in den Ozeanen ist abhängig von der Salinität und Temperatur der Ozeane und von der CO2-Konzentration in der Atmosphäre. Der Salzgehalt variiert zwischen 30 Teilen pro Tausend und 38 Teilen pro Tausend und ist im Laufe der Zeit relativ konstant. Die Ozeane haben sich seit dem Höhepunkt der Kleinen Eiszeit erwärmt, so dass es wahrscheinlich ist, dass in den letzten 300 Jahren eine Nettoausgasung aus ihnen stattgefunden hat, zumindest bis die vom Menschen verursachten CO2-Emissionen ernsthaft begannen. Aus der Literatur geht hervor, dass wir keine endgültigen quantitativen Daten über das Schicksal der derzeitigen 10 Gt Kohlenstoffemissionen haben, die jährlich durch menschliche Aktivitäten entstehen. Wir können den Anstieg der CO2-Konzentration in der Atmosphäre messen, aber ein Teil davon kann auf die Ausgasung aus den sich erwärmenden Ozeanen und nicht auf vom Menschen verursachte Emissionen zurückzuführen sein. Viele Wissenschaftler kommen zum Schluss, dass die Ozeane etwa 25 Prozent der menschlichen CO2-Emissionen absorbieren und damit die Möglichkeit einer Nettoausgasung von CO2 ausschließen. Es ist allgemein anerkannt, dass die globale pflanzliche Biomasse aufgrund des erhöhten CO2-Ausstoßes in der Atmosphäre zunimmt, aber es ist schwierig, dies genau zu quantifizieren. Ein kürzlich erschienenes Papier kam zum Schluss, dass der größte Teil der kurzfristigen CO2-Aufnahme von terrestrischen Pflanzen stammt und dass sehr wenig, wenn überhaupt, von den Ozeanen aufgenommen wird. [18]

In den letzten Jahren gab es eine Fülle von Papieren, die davor warnten, dass bei anhaltenden CO2-Emissionen und weiter steigenden CO2-Werten in der Atmosphäre ein Phänomen eintreten wird, das als “Ozeanversauerung” bezeichnet wird und die gesamte marine Nahrungskette bedroht. Einige postulieren, dass die Abnahme des pH‐Wertes der Ozeane es unmöglich macht, dass verkalkende Arten wie Korallen, Muscheln und verkalkende Planktonarten wie Coccolithophore und Foraminiferen ihre Schalen aus CaCO3 herstellen können. Der Autor hat kürzlich ein ausführliches Papier zu diesem Thema veröffentlicht. Das Papier kommt zum Schluss, dass die “Ozeanversauerung” eine Fabrikation ist und liefert fünf Schlüsselfaktoren, die ein solches Ergebnis verunmöglichen. [19]

CO2 in der modernen Zeit

Die wichtigste Frage, mit der sich eine Spezies heute auf der Erde konfrontiert sieht, ist, wie lange es ohne vom Menschen verursachte CO2-Emissionen gedauert hätte, bis der allmähliche Abbau von CO2 in der Atmosphäre auf ein Niveau gefallen wäre, das aufgrund von CO2-Hunger die Biomasse zu verringern beginnt und damit den Beginn des Endes des Lebens auf der Erde signalisierte?

Es wird allgemein angenommen, dass vulkanische Aktivität zu massiven CO2-Emissionen führt, die mit den vom Menschen verursachten Emissionen vergleichbar oder größer sind. Dies ist nicht der Fall. Während das ursprüngliche atmosphärische CO2 das Ergebnis einer massiven Ausgasung aus dem Erdinneren war, gibt es keine Hinweise darauf, dass der Atmosphäre während des 140 Millionen Jahre andauernden Rückgangs, der bis zur Gegenwart anhielt, große Mengen an neuem CO2 zugeführt wurden. Der Ausbruch des Pinatubo, des größten in der jüngeren Geschichte, hat schätzungsweise 2 Prozent der jährlichen vom Menschen verursachten CO2-Emissionen verursacht. Daher könnte man ohne vom Menschen verursachte Emissionen vernünftigerweise davon ausgehen, dass der CO2-Gehalt wie in den letzten 140 Millionen Jahren weiter gesunken wäre. [20]

Nach dem Timing der vielen glazialen und interglazialen Perioden während der pleistozänen Eiszeit zu urteilen, könnte die nächste große Eiszeit jederzeit beginnen. Interglaziale Perioden waren im Allgemeinen von 10.000 Jahren Dauer, und die jetzige holozäne Interglazialperiode begann vor fast 12.000 Jahren. Ohne vom Menschen verursachte CO2-Emissionen und andere Umweltauswirkungen besteht kein Grund zu bezweifeln, dass eine weitere große Vergletscherung stattgefunden hätte, die dem Muster folgt, das seit mindestens 800.000 Jahren besteht, wie es das Europäische Projekt für Eiskerne in der Antarktis (EPICA) [21] festgestellt hat, und das vermutlich seit 2,5 Millionen Jahren der Pleistozän‐Eiszeit besteht. Diese Gletscher haben mit den Milankovitch‐Zyklen übereingestimmt. [22] (Siehe Abbildung 5) Die Milankovitch‐Zyklen werden durch Schwankungen in der Erdumlaufbahn und durch Zyklen der Neigung der Erde zur Sonne bestimmt. Die starke Korrelation zwischen dem Beginn großer Eiszeiten in den letzten 800.000 Jahren und den Milankovitch‐Zyklen hat die Mehrheit der Geowissenschaftler und Klimatologen veranlasst, die Hypothese zu akzeptieren, dass die großen Eiszeiten in einer Kausalwirkungsbeziehung mit den Milankovitch‐Zyklen verbunden sind.

90 Millionen Jahre lang, von der späten Jurazeit bis zum frühen Tertiär, stieg die globale Temperatur erheblich an, während der CO2-Spiegel stetig zurückging.

Abbildung 5. Grafik, die die atmosphärische CO2-Konzentration und Temperatur in der Antarktis für die letzten vier Interglazialperioden zeigt, eng verbunden mit den Milankovitch‐Zyklen von 100.000 Jahren. Diese Grafik basiert auf Daten aus den 420.000-Jahres-Aufzeichnungen, die aus den von russischen Wissenschaftlern gebohrten Wostok‐Eiskernen gewonnen wurden. [23] Beachten Sie die allmähliche Entwicklung des Beginns kälterer Temperaturen und der schnellen Erwärmung am Ende des Zyklus. Es ist zu beachten, dass die Spitzenerwärmung während der letzten Interglazialperiode (Holozän) geringer ist als in den letzten drei Interglazialperioden. [24]

Dann, nach dem thermischen Maximum des Paläozän‐Eozän, begann ein 50 Millionen Jahre dauernder Abklingtrend der globalen Temperatur bis in die heutige Zeit. (Siehe Abbildung 6) Das Paläozän‐Eozän‐Thermomaximum wies eine durchschnittliche globale Temperatur auf, die bis zu 16°C über der heutigen Temperatur lag. Doch die Vorfahren aller heute lebenden Arten müssen diese Zeit überlebt haben, da sie auch in früheren, viel kälteren Klimazonen überlebt hatten. Es ist lehrreich festzustellen, dass trotz der zahlreichen Perioden extremer klimatischer Bedingungen und katastrophaler Ereignisse jede heute lebende Art von Arten abstammt, die diese Bedingungen überlebt haben. Dies führt dazu, die Vorhersagen über das Massenaussterben von Spezies und den Zusammenbruch der menschlichen Zivilisation in Frage zu stellen, wenn die globale Durchschnittstemperatur einen Anstieg von 2°C über das heutige Niveau hinaus übersteigt. [25]Es mag überraschen, dass die durchschnittliche globale Temperatur in früheren Zeiten 16°C höher gewesen sein könnte, da dies Teile der Erde, die heute warm sind, praktisch unbewohnbar zu machen scheint. Der Schlüssel zum Verständnis dessen ist, dass die Erde, wenn sie sich erwärmt, dies je nach Breitengrad unterschiedlich tut. Während sich die Arktis und Antarktis erheblich erwärmen, gibt es in den Tropen viel weniger Erwärmung. So bleiben die tropischen Regionen bewohnbar, während sich die hohen Breiten von polar zu gemäßigt verschieben, und während der wärmsten Zeiten verschieben sie sich zu einem tropischen Klima.

Abbildung 6. Die globale Oberflächentemperatur von 65 Millionen YBP zeigt den größten Kältetrend der letzten 50 Millionen Jahre. Während die Pole deutlich wärmer waren als heute, gab es in den Tropen eine deutlich geringere Erwärmung, die durchgehend bewohnbar blieben. Die Erde befindet sich in einer der kältesten Perioden der letzten 600 Millionen Jahre. [26]

Aus der 800.000 Jahre alten Aufzeichnung der antarktischen Eiskerne geht hervor, dass die kältesten Perioden während der großen Vergletscherungen mit den niedrigsten CO2-Werten in der Atmosphäre zusammenfallen. (siehe Abbildung 5) Die Korrelation ist in diesem Zeitraum sicherlich stark genug, um einen kausalen Zusammenhang zwischen CO2und Temperatur nahezulegen. In der Literatur gibt es jedoch Meinungsverschiedenheiten darüber, was die Ursache und was die Wirkung ist. Diejenigen, die die Erwärmung im vergangenen Jahrhundert auf Treibhausgasemissionen, insbesondere CO2, zurückführen, stimmen auch eher mit der Position überein, die in Al Gores Eine unbequeme Wahrheit: Der planetarische Notstand der globalen Erwärmung und was wir dagegen tun können, dargelegt ist, dass die Erwärmung während der Zwischeneiszeit durch steigende CO2-Werte verursacht wird. [27] Es ist jedoch problematisch zu postulieren, wie die Milankovitch‐Zyklen einen Anstieg oder Rückgang des atmosphärischen CO2-Gehalts verursachen könnten, während es plausibel ist, dass die Milankovitch‐Zyklen aufgrund von Veränderungen der Sonneneinstrahlung zu einer Schwankung der globalen Temperatur führen könnten, was wiederum entweder zur Ausgasung oder Absorption von CO2 aus den Ozeanen führen könnte. Tatsächlich zeigen beide Datensätze von Eiskerndaten aus der Antarktis, dass Temperaturänderungen in der Regel Änderungen des CO2-Gehalts vorausgehen, was darauf hindeutet, dass Temperaturänderungen die Ursache für Veränderungen des CO2-Gehalts sind. [28] Manche haben vorgeschlagen, dass der Beginn der Erwärmung nach einer Vergletscherung zwar durch die Milankovitch‐Zyklen verursacht wird, die anschließende Ausgasung von CO2 aus dem Ozean dann aber der vorherrschende Treiber für eine weitere Erwärmung wird. [29] Vermutlich wäre auch anzunehmen, dass die zur Vergletscherung führende Kühlung durch den Milankovitch‐Zyklus ausgelöst und dann durch einen reduzierten CO2-Spiegel aufgrund der Meeresabsorption angetrieben wird. Diese Hypothese ist nicht bewiesen.

Es ist äußerst unwahrscheinlich oder vielleicht unmöglich sich vorzustellen, wie CO2 von vorindustriellen 280 ppm auf 400 ppm ohne vom Menschen verursachte Emissionen hätte steigen können. Keine andere Spezies, die in naher Zukunft existiert oder sich präsentiert, ist in der Lage, die massiven Lagerstätten fossiler Brennstoffe zu graben, zu bohren und dann zu verbrennen, um CO2 wieder in die Atmosphäre freizusetzen, aus der es ursprünglich stammt. Viele Wissenschaftler denken, dass dieser Anstieg des atmosphärischen CO2 die Hauptursache für die leichte Erwärmung (0,5°C) der Atmosphäre in den letzten 65 Jahren ist. Nur die Zeit wird zeigen, ob dies der Fall ist. Seit dem Höhepunkt der Kleinen Eiszeit um 1700 erwärmt sich das Klima seit etwa 300 Jahren. Es ist möglich, dass die jüngste Erwärmung eine Fortsetzung der längeren Erwärmungsphase ist, die bereits lange bevor menschlich verursachte CO2-Emissionen eine Rolle spielen konnten, begonnen hatte.

HÖHERE CO2-KONZENTRATIONEN WERDEN PFLANZENWACHSTUM UND BIOMASSE ERHÖHEN

Es ist gut nachgewiesen, dass der Anstieg des CO2-Ausstoßes in der Atmosphäre für ein erhöhtes Pflanzenwachstum auf globaler Ebene verantwortlich ist. Viele Studien deuten darauf hin, dass fast 25 Prozent der vom Menschen verursachten CO2-Emissionen oder 2,5 Gt Kohlenstoff pro Jahr von Pflanzen aufgenommen werden, was die globale pflanzliche Biomasse erhöht. Eine aktuelle Studie geht davon aus, dass bis zu 50 Prozent der CO2-Emissionen des Menschen durch vermehrtes Pflanzenwachstum absorbiert werden. [30] Dies wurde als “Ergrünen der Erde” bezeichnet, da CO2-Konzentrationen erreicht werden, die weit über dem nahezu verhungerten Niveau liegen, das während der großen Vergletscherungen des Pleistozäns erreicht wurde. [31] Der renommierteste australische Wissenschaftsverband, die Commonwealth Scientific and Industrial Research Organisation (CSIRO), hat gezeigt, dass CO2 vor allem Pflanzen zugute kommt, die an trockene Klimazonen angepasst sind. In Umgebungen mit höherem CO2-Gehalt werden sie bei der Photosynthese effizienter und wachsen schneller, ohne mehr Wasser zu verbrauchen. [32]

Eine der beeindruckendsten Aufzeichnungen stammt aus einem Versuchswald in Deutschland, in dem das Waldwachstum seit 1870 kontinuierlich dokumentiert ist. Seit 1960, als die CO2-Emissionen rasant zu steigen begannen, ist die Wachstumsrate der einzelnen Bäume um 32 Prozent auf 77 Prozent gestiegen. Während ein Teil davon auf den leichten Temperaturanstieg seit 1960 zurückzuführen ist, steht die viel höhere Wachstumsrate im Einklang mit Labor‐ und Feldstudien über die Auswirkungen eines erhöhten CO2-Gehalts auf Pflanzen. [33]

Abbildung 7. Craig Idso, CO2-Experte und Autor der CO2Science‐Website [34], die die Wachstumsrate von Kiefern unter Umgebungsbedingungen gegenüber der Zugabe von 150 ppm, 300 ppm und 450 ppm CO2 demonstriert. In einer CO2-höheren Welt wird das Wachstum von Nahrungsmitteln, Wäldern und wilden Landschaften auf der ganzen Welt stark zunehmen. Studien zeigen auch, dass höhere CO2-Werte in den Ozeanen zu einem verstärkten Wachstum von Phytoplankton und anderen Meerespflanzen führen. [35]

Abbildung 8. Veränderung der Netto‐Primärproduktivität der Vegetation 1982 bis 2010. Die trockensten Regionen wie Westaustralien, Subsahara‐Afrika, Westindien und die Great Plains Nordamerikas weisen den größten Anstieg des Pflanzenwachstums auf. [36]

Es ist nicht allgemein bekannt, dass Treibhausgärtner weltweit zusätzliches CO2 in ihre Gewächshäuser einspritzen, um das Wachstum und den Ertrag ihrer Pflanzen zu steigern. Unter Gartenbauern ist es bekannt, dass diese Praxis das Wachstum um 40 Prozent oder mehr steigern kann. Denn der optimale CO2-Gehalt für das Pflanzenwachstum liegt zwischen 1.000 ppm und 3.000 ppm in der Luft, viel höher als die 400 ppm in der globalen Atmosphäre heute. [37] Jede Art auf der Erde, auch unsere eigene, stammt von Vorfahren ab, die in Klimazonen mit viel höheren CO2-Gehalten als heute gediehen sind.

Diskussion

Die Debatte über den Klimawandel hat eine Seite, die darauf besteht, dass die “Wissenschaft geregelt ist”. Es gibt jedoch keinen wissenschaftlichen Beweis dafür, dass ein erhöhter CO2-Ausstoß zu einer Katastrophe führen wird, da das CO2 in den meisten Zeiten des Lebens auf der Erde höher war als heute. Andererseits kann man ohne Zweifel sagen, dass, wenn CO2 wieder auf das Niveau von vor 18.000 Jahren oder darunter fällt, eine Katastrophe eintreten würde, wie sie in der Geschichte der Menschheit unbekannt ist. Wir werden von vielen Wissenschaftlern darauf hingewiesen, dass wir uns Sorgen machen sollten, dass der CO2-Gehalt höher steigt, während wir uns eigentlich Sorgen machen sollten, dass der CO2-Gehalt sinken könnte.

Atmosphärische CO2-Konzentrationen in der Zukunft

Wenn der Mensch nicht begonnen hätte, fossile Brennstoffe zur Energiegewinnung zu nutzen, ist davon auszugehen, dass die CO2-Konzentration in der Atmosphäre so weiter gesunken wäre wie in den letzten 140 Millionen Jahren. Es ist auch anzunehmen, dass das Erdklima weiterhin zwischen relativ langen Perioden der Vergletscherung und relativ kurzen Perioden des interglazialen Klimas ähnlich dem heutigen Klima schwanken würde. Angesichts des anhaltenden Rückzugs von Kohlenstoff aus der Atmosphäre in die Sedimente der Ozeane wäre es nur eine Frage der Zeit, bis das CO2 während einer Eiszeit auf 150 ppm oder weniger sinkt. Bei einer durchschnittlichen Rate von 32 Kt Kohlenstoffverlust pro Jahr würde dies in weniger als zwei Millionen Jahren geschehen. Mit anderen Worten, der Beginn des Endes des meisten Lebens auf dem Planeten Erde würde in weniger Jahren in der Zukunft beginnen, als unsere Gattung der Primaten, der Homo, als eigenständige taxonomische Einheit existiert hat.

Es ist lehrreich festzustellen, dass es sich bei unserer Spezies um eine tropische Spezies handelt, die sich am Äquator in Ökosystemen gleich warm oder wärmer als heute entwickelt hat. Wir konnten die Wärme des tropischen Klimas nur durch die Nutzung von Feuer, Kleidung und Gebäudeunterkünften verlassen. Dies ermöglichte es uns, uns in gemäßigten Klimazonen und sogar in der Arktis am Meer niederzulassen, wo sowohl domestizierte Hunde als auch Meeressäuger einem sehr kleinen Bestand das Leben ermöglichen. Allerdings können wir keine Nahrungspflanzen im Überfluss auf Gletschern oder in gefrorenem Boden anbauen. Außerdem könnten wir nirgendwo viel von allem anbauen, wenn der CO2-Gehalt unter 150 ppm sinkt. Es besteht die klare Möglichkeit, dass keine zusätzliche Menge an CO2 das Klima aus der nächsten großen Eiszeit herausverschiebt. Das ist kein Grund, die Hoffnung aufzugeben, sondern sich darüber zu wundern, dass wir tatsächlich eine Umkehrung des langfristigen CO2-Trends herbeiführen können, der jetzt durch menschliche CO2-Emissionen erreicht wurde. Es besteht kein Zweifel, dass sich das Erdinnere in seinem rund 4,6 Milliarden Jahre alten Bestand deutlich abgekühlt hat. Dies macht den massiven Vulkanismus zu einer immer geringer werdenden Wahrscheinlichkeit. Es gibt keinen anderen plausiblen natürlichen Mechanismus, um Kohlenstoff in Form von CO2 der globalen Atmosphäre zuzuführen.

Abbildung 9. Rekonstruierte Grönland‐Mitteltemperaturanomalien (oben) und antarktische CO2-Konzentration (unten). Die Halbierung der Temperaturanomalien zur Berücksichtigung der polaren Verstärkung ergibt eine angemessene Annäherung an die globale Temperaturänderung im Holozän. Seit Beginn des Holozän‐Optimums etwa 9.000 Jahre vor der Gegenwart (ka BP) ist die globale Temperatur um ~1°C gesunken, obwohl die CO2-Konzentration durchweg gestiegen ist. [38]

Die heutige Holozän Zwischeneiszeit hat bereits länger gedauert als einige frühere Zwischeneiszeitperioden. Das Holozän ist auch etwas kühler als frühere interglaziale Perioden. Dringender als der mögliche Hunger des Lebens in zwei Millionen Jahren ist, was zu Beginn der nächsten Vergletscherung geschehen wird, möglicherweise in relativ kurzer Zeit. Ohne die CO2-Emissionen des Menschen wären sowohl die Temperatur als auch das CO2 auf ein Niveau gesunken, das zu einer kontinuierlichen Verringerung des Pflanzenwachstums führen würde, was zu ähnlichen oder vielleicht sogar schwereren klimatischen Bedingungen führen würde als bei früheren Vereisungen. Dies würde sicherlich zu einer weit verbreiteten Hungersnot und wahrscheinlich zum Zusammenbruch der menschlichen Zivilisation führen. Dieses Szenario würde keine zwei Millionen Jahre dauern, sondern möglicherweise nur ein paar tausend. Selbst wenn die Bedingungen der Kleinen Eiszeit in den nächsten hundert Jahren mit einer Bevölkerung von neun Milliarden oder mehr Menschen wieder auftauchten, können wir sicher sein, dass die Bevölkerung nicht lange Zeit neun Milliarden betragen würde. Es gibt ein starkes Argument dafür, dass sich die Erde bereits in einem Abkühlungstrend befindet, der in den nächsten 100.000 Jahre dauernden Zyklus der Hauptvergletscherung absinkt. Siehe Abbildung 5 und stellen Sie fest, dass in den drei vorangegangenen interglazialen Perioden ein scharfer Höhepunkt erreicht wurde, gefolgt von einem stetigen Abwärtstrend der Temperatur. Die Spitzentemperatur in dieser holozänen Interglazialzeit lag während des Holozän‐Optimums vor 5.000 bis 9.000 Jahren. Seitdem nehmen die Erwärmungsspitzen ab, und die Kälteperioden sind kälter geworden. Die Kleine Eiszeit, die vor etwa 300 Jahren ihren Höhepunkt erreichte, war wahrscheinlich die kälteste Klimaperiode seit dem Holozän‐Optimum. [39]

Ein Paradigmenwechsel in der Wahrnehmung von CO2

Der unabhängige Wissenschaftler James Lovelock liefert ein interessantes Beispiel für diese beiden gegensätzlichen Vorhersagen von zukünftiger Katastrophe versus Errettung durch CO2, einem Teil des für das Leben benötigten CO2 zurück in die Atmosphäre und gleichzeitigem Genuss von reichlich Energie aus fossilen Brennstoffen zu günstigen Preisen. In den letzten 550 Millionen Jahren ist es zu einem allmählichen Netto‐CO2-Verlust aus der Atmosphäre gekommen, von etwa 14.000 Gt auf etwa 370 Gt auf dem niedrigsten Niveau während des Höhepunkts der letzten Eiszeit. Das ist eine Reduktion um fast 98 Prozent eines der wichtigsten Nährstoffe für das Leben auf der Erde. Wenn die CO2-Emissionen des Menschen im vergangenen Jahrhundert fehlen, ist es schwer vorstellbar, wie dieser Prozess der kontinuierlichen CO2-Abscheidung unterbrochen werden könnte. Für neue Emissionen wäre ein massiver Vulkanismus in einem Ausmaß erforderlich, das seit mehr als 200 Millionen Jahren nicht mehr zu beobachten war. Er ist zweifellos einer der führenden Experten in der Atmosphärenchemie, [40] weshalb ihn die NASA beauftragte, einen Teil der Lebenserkennungsausrüstung für die ersten US‐Marslander zu entwickeln. [41] Aus den Ergebnissen schloss er, dass es kein Leben auf dem Mars gibt.

Seit der Veröffentlichung seines ersten Buches über die Gaia‐Hypothese im Jahr 1979 beschäftigte sich Lovelock mit den Auswirkungen der menschlichen Zivilisation auf die globale Atmosphäre. [42] Er wurde ein starker Befürworter der Reduktion der CO2-Emissionen und erklärte, dass der Mensch eine “Schurkenspezies” gegen Gaia (die Erde) geworden sei. Er ging so weit, 2006 zu erklären:

Bevor dieses Jahrhundert vorbei ist, werden Milliarden von uns sterben, und die wenigen Brutpaare, die überleben, werden in der Arktis sein, wo das Klima erträglich bleibt… ein gebrochener Pöbel unter der Führung brutaler Warlords.” [43]

Nur vier Jahre später, in einer öffentlichen Rede im Londoner Science Museum im Jahr 2010, widerrief Lovelock:

Es lohnt sich zu bedenken, dass das, was wir bei der Schaffung all dieser Kohlenstoffemissionen tun, weit entfernt von etwas Schrecklichem, den Beginn einer neuen Eiszeit stoppt.

 

Wenn wir nicht auf der Erde erschienen wären, wäre es an der Zeit, eine nächste Eiszeit zu durchlaufen, und wir können uns unseren Teil anrechnen, das aufgehalten zu haben.

 

Ich hasse dieses ganze Getue mit dem sich schuldig fühlen für das, was wir tun.” [44]

Diese abrupte Umkehrung von Lovelocks Interpretation von CO2 ist genau das, was allgemein erforderlich ist, um die Tragödie zu vermeiden, dass Milliarden von Menschen eine preiswerte und zuverlässige Energie entzogen wird, insbesondere solche, die sich aus der Armut befreien müssen. Es muss ein totaler Paradigmenwechsel stattfinden, von der Verteufelung fossiler Brennstoffe und der Angst vor CO2 als giftigem Schadstoff hin zur Feier des CO2 als Lebensspender, während gleichzeitig die fossilen Brennstoffe immer effizienter genutzt werden. Wie bei Lovelock sollten wir hoffen, dass sich CO2 als der moderate Erwärmungseinfluss erweisen wird, der in der Theorie vorhergesagt wird. Eine etwas wärmere Welt mit einem höheren CO2-Gehalt in der Atmosphäre würde zu einer grüneren Welt mit mehr pflanzlicher Biomasse, höheren Erträgen von Nahrungsmitteln und Bäumen, einem gastfreundlicheren Klima in hohen nördlichen Breitengraden und einer möglichen Verringerung der Wahrscheinlichkeit einer weiteren großen Vereisung führen. Es ist höchst wahrscheinlich und ironisch, dass die Existenz des Lebens selbst sein eigenes Ende vorbestimmt haben könnte, vor allem durch die Entwicklung von CaCO3 als Panzerung in marinen Organismen. [45] Die Tatsache, dass Menschen in der Lage zu sein scheinen, dieses Schicksal vorübergehend umzukehren, weil wir CO2 durch die Verbrennung fossiler Brennstoffe zur Energiegewinnung in die Atmosphäre zurückführen, grenzt an das Wunderbare. Dennoch gibt es nur eine begrenzte Menge fossiler Brennstoffe, die nach der Verbrennung kurz‐ bis mittelfristig nicht mehr erneuerbar sind. Der größte Teil des Kohlenstoffs wird in kohlenstoffhaltige Gesteine, hauptsächlich als CaCO3, gebunden. Heute stammen etwa 5 Prozent der menschlichen CO2-Emissionen aus der Umwandlung von CaCO3 mit Wärme in CO2 und CaO (Kalk) zur Herstellung von Zement. Wenn also fossile Brennstoffe in den kommenden Jahrhunderten knapp werden und das CO2 wieder zu schwinden beginnt, haben wir die Möglichkeit, zusätzliches CO2 zu erzeugen, indem wir Kalkstein mit Atom‐ oder Solarenergie verbrennen, wobei Kalk für Zement als nützliches Nebenprodukt entsteht. Dies hat das Potenzial, die Existenz einer hochproduktiven lebenden Erde in die ferne Zukunft zu verlängern.

Aus der vorangegangenen Diskussion geht hervor, dass die menschlichen CO2-Emissionen nicht zu katastrophalen klimatischen Bedingungen führen, sondern dazu dienen, ein Gleichgewicht im globalen Kohlenstoffkreislauf wiederherzustellen. Indem wir den 140 Millionen Jahre dauernden Rückgang des atmosphärischen CO2 umkehren, tragen wir dazu bei, den Fortbestand des kohlenstoffbasierten Lebens auf der Erde sicherzustellen.

SCHLUSSBETRACHTUNG

CO2 ist lebensnotwendig, und zweimal in der Geschichte des modernen Lebens gab es Perioden mit einem starken Rückgang der CO2-Konzentration in der globalen Atmosphäre. Hätte sich dieser Rückgang in Zukunft in gleichem Maße fortgesetzt, würde CO2 schließlich auf ein Niveau sinken, das zur Unterstützung der Pflanzenwelt unzureichend ist, möglicherweise in weniger als zwei Millionen Jahren. Besorgniserregender ist die Möglichkeit, dass in naher Zukunft während einer zukünftigen Vereisung das CO2 auf 180 ppm oder weniger sinken kann, was das Wachstum von Nahrungsmitteln und anderen Pflanzen stark reduziert. Die menschlichen CO2-Emissionen haben diese Möglichkeit verhindert, so dass zumindest während einer Eiszeit das CO2 hoch genug wäre, um eine produktive Agrarindustrie aufrechtzuerhalten.

Ein 140 Millionen Jahre dauernder Rückgang des CO2 auf Werte, die einer Bedrohung des Überlebens jeglichen Lebens auf der Erde nahe kamen, kann kaum als “das Gleichgewicht der Natur” bezeichnet werden. Insofern stellen die menschlichen Emissionen einen Ausgleich zum globalen Kohlenstoffkreislauf her, indem sie einen Teil des CO2wieder in die Atmosphäre zurückführen, der durch Photosynthese und CaCO3-Produktion entzogen und anschließend an tiefe Sedimente verloren wurde. Dieser äußerst positive Aspekt der menschlichen CO2-Emissionen muss sicherlich gegen die unbewiesene Hypothese abgewogen werden, dass die menschlichen CO2-Emissionen in den letzten Jahren hauptsächlich für die leichte Erwärmung des Klimas verantwortlich sind und in den kommenden Jahrzehnten eine katastrophale Erwärmung verursachen werden. Die Tatsache, dass die gegenwärtige Erwärmung vor etwa 300 Jahren während der Kleinen Eiszeit begann, deutet darauf hin, dass sie zumindest teilweise die Fortsetzung der gleichen Naturkräfte sein könnte, die das Klima im Laufe der Zeiten verändert haben.

Trotz vieler gegenteiliger Beweise ist ein Großteil der westlichen Gesellschaft davon überzeugt, dass eine globale Erwärmung und eine Klimakrise bevorstehen. Die Idee des katastrophalen Klimawandels ist stark, da sie alles und jeden auf der Erde umfasst. Vor der “Kohlenstoffbelastung” kann man sich nirgendwo verstecken. Es gibt auch die Kombination aus Angst und Schuld: Wir haben Angst, dass das Fahren mit unseren Autos unsere Enkelkinder umbringt, und wir fühlen uns dafür schuldig. Eine starke Interessenkonvergenz zwischen den wichtigsten Eliten unterstützt und treibt das Klimakatastrophennarrativ voran. Umweltschützer verbreiten Angst und sammeln Spenden ein; Politiker scheinen die Erde vor dem Untergang zu retten; die Medien haben einen Feldtag mit Sensation und Konflikten; Wissenschaftler und wissenschaftliche Institutionen sammeln Milliarden von öffentlichen Zuschüssen, gründen völlig neue Institutionen und betreiben einen Nährbodenrausch für beängstigende Szenarien; Unternehmen wollen grün aussehen und erhalten riesige öffentliche Zuschüsse für Projekte, die sonst wirtschaftliche Verlierer wären, wie große Windparks und Solaranlagen. Selbst der Papst der katholischen Kirche hat sich mit einem religiösen Blickwinkel eingemischt.

Bei all diesen Machenschaften geht die unbestreitbare Tatsache verloren, dass das Wichtigste an CO2 darin besteht, dass es für alles Leben auf der Erde unerlässlich ist und dass die atmosphärische Konzentration von CO2 vor der Verbrennung fossiler Brennstoffe sehr lange Zeit in eine sehr gefährliche Richtung ging. Sicherlich wäre der “gefährlichste” Klimawandel auf kurze Sicht einer, der nicht genügend Nahrungsmittel produziert, um unsere eigene Bevölkerung zu ernähren. Die aktuelle “Pause” in der globalen Erwärmung, die von zwei Satelliten und Tausenden von Wetterballonen, jetzt fast zwei Jahrzehnte später, aufgezeichnet wird, unterbricht die Hypothese, dass ein höheres CO2 unweigerlich zu höheren Temperaturen führen wird. [46] Während dieser Periode ohne nennenswerte Erwärmung wurden etwa ein Drittel aller menschlichen CO2-Emissionen seit Beginn des Industriezeitalters in die Atmosphäre abgegeben. Das beste Ergebnis wäre, dass CO2 eine gewisse Erwärmung verursacht, aber etwas niedriger als in extremen Vorhersagen angenommen. [47]

Wir sollten diejenigen, die einen katastrophalen Klimawandel voraussagen, einschließlich des Zwischenstaatlichen Ausschusses der Vereinten Nationen für Klimaänderungen (IPCC), einige dringende Fragen nach dem Ergebnis stellen, wenn der Mensch nicht in den Kohlenstoffkreislauf eingegriffen hätte.

  • Welche Beweise oder Argumente gibt es, dass das Weltklima nicht in Übereinstimmung mit den Milankovitch‐Zyklen in eine nächste Eiszeit zurückkehren würde, wie es zumindest in den letzten 800.000 Jahren wiederholt der Fall war?
  • Welche Beweise gibt es, dass wir die globale Höchsttemperatur während dieser holozänen Interglazialzeit nicht bereits überschritten haben?
  • Wie können wir sicher sein, dass die nächste Abkühlperiode ohne menschliche Emissionen nicht strenger wäre als die jüngste Kleine Eiszeit?
  • Welchen Sinn macht es, angesichts der Tatsache, dass der optimale CO2-Gehalt für das Pflanzenwachstum über 1.000 ppm liegt und CO2 den größten Teil der Geschichte des Lebens über diesem Wert lag, eine Senkung des CO2-Gehalts zu fordern, wenn es keine Anzeichen für einen katastrophalen Klimawandel gibt?
  • Gibt es ein plausibles Szenario, das ohne menschliche Emissionen die allmähliche Erschöpfung des CO2 in der Atmosphäre beenden würde, bis es das Hungerniveau für Pflanzen und damit für das Leben auf der Erde erreicht?

Diese und viele andere Fragen zu CO2, Klima und Pflanzenwachstum erfordern unser ernsthaftes Nachdenken, wenn wir vermeiden wollen, einige sehr kostspielige Fehler zu machen.


FUSSNOTEN

  • [1] IPCC AR5. Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Eds. T.F. Stocker, D. Qin, G.-K. Plattner et al. Cambridge: Cambridge University Press, 2013.
  • [2] Christopher Monckton, Willie W.-H. Soon, David R. Legates, William M. Briggs. “Why models run hot: results from an irreducibly simple model.” Science Bulletin 60 (2015): 122–135.
  • [3] D.J. Stevenson in Earth’s Earliest Biosphere: It’s Origin and Evolution. Ed. J. William Schopf. Princeton, NJ: Princeton University Press, 1983, 32.
  • [4] D.Y.C. Wang, S. Kumar and S.B. Hedges. “Divergence time estimates for the early history of animal phyla and the origin of plants, animals and fungi.” Proceedings of the Royal Society of London: Biological Sciences 266, no. 1415 (1999): 163–171.
  • [5] Nasif Nahle. “Cycles of Global Climate Change.” Biology Cabinet Journal Online, July 2009. Referencing C.R. Scotese, Analysis of the Temperature Oscillations in Geological Eras, 2002; W.F. Ruddiman, Earth’s Climate: Past and Future, New York, NY: W.H. Freeman and Co., 2001; Mark Pagani et al., “Marked Decline in Atmospheric Carbon Dioxide Concentrations during the Paleocene.” Science 309, no. 5734 (2005): 600–603.
  • [6] R.H. Whittaker. “Primary Production and Plant Biomass for the Earth.” Quoted in Peter Stiling, Ecology: Theories and Applications, Prentice Hall, 1996.
  • [4] Matthew P. Nelsen, William A. DiMichele, Shanan E. Peters and C. Kevin Boyce. “Delayed fungal evolution did not cause the Paleozoic peak in coal production.” PNAS Early Edition, December 2015.
  • [8] David Biello. “White Rot Fungi Slowed Coal Formation.” Scientific American, 2012.
  • [9] Floudas, D. et al. “The Paleozoic Origin of Enzymatic Lignin Decomposition Reconstructed from 31 Fungal Genomes.” Science 336 (2012): 1715–1719.
  • [10] J.R. Petit et al. “Four Climate Cycles in Vostok Ice Core.” Nature 387 (1997): 359–360.
  • [11] J.K. Ward et al. “Carbon starvation in glacial trees recovered from the La Brea tar pits, southern California.” Proceedings of the National Academy of Sciences of the United States of America 102 (2005): 690–694.
  • [12] J.K. Ward. “Evolution and growth of plants in a low CO2 world.” In A History of Atmospheric CO2 and Its Effects on Plants, Animals, and Ecosystems. Eds. J. Ehleringer, T. Cerling and D. Dearing, 232–257. Springer‐Verlag, 2005.
  • [13] I. Marinov. The Ocean Carbon Pumps – How do the Oceanic Carbon Pump [sic] Control Atmospheric pCO2? Theory and Models, 2011.
  • [14] Joanne Nova. “The 800 year lag in CO2 after temperature – graphed.” JoNova.
  • [15] G. Santomauro et al. “Formation of Calcium Carbonate Polymorphs Induced by Living Microalgae.” Journal of Biomaterials and Nanobiotechnology vol. 3 no.4 (2012): 413–420.
  • [16] J.B. Pedro, S.O. Rasmussen and T.D. van Ommen. “Tightened constraints on the time‐lag between Antarctic temperature and CO2 during the last deglaciation.” Climate Past 8 (2012): 1213–1221.
  • [17] GLOBE Carbon Cycle Project. “Global Carbon Cycle.” 2010. Adapted from R.A. Houghton, “Balancing the Global Carbon Budget,” Annu. Rev. Earth Planet, obtained from NASA. Author updated atmospheric CO from 750 to 850 and fossil fuel CO2 emissions from 7.7 to 10 to reflect current levels.
  • [18] P. Peylin et al. “Global atmospheric carbon budget: results from an ensemble of atmospheric CO2 inversions.” Biogeosciences 10 (2013): 6699–6720.
  • [19] Patrick Moore. “Ocean Acidification ‘Alarmism’ in Perspective.” Frontier Centre for Public Policy, November 2015.
  • [20] U.S. Geological Survey. “Which produces more CO2, volcanic or human activity?” February 2007.
  • [21] EPICA Community Members. “Eight glacial cycles from an Antarctic ice core.” Nature 429 (2004): 623–628.
  • [22] J.D. Hays, J. Imbrie, N.J. Shackleton. “Variations in the Earth’s Orbit: Pacemaker of the Ice Ages.” Science 194 (4270) (1976): 1121–1132.
  • [23] J.R. Petit, J. Jouzel, D. Raynaud, N.I. Barkov, J.M. Barnola, et al. “Climate and Atmospheric History of the Past 420,000 years from the Vostok Ice Core Antarctica.” Nature 399 (1999): 429–436.
  • [24]CO2 Concentrations and Temperature Have Tracked Closely Over the Last 300,000 Years.” Southwest Climate Change Network. Credits the Marian Koshland Science Museum of the National Academy of Sciences.
  • [25] M. Fischetti. “2‐Degree Global Warming Limit is Called a ‘Prescription for Disaster.’” Scientific American, 2011.
  • [26] Ned Nikolov and Karl Zeller. “Unified Theory of Climate: Expanding the Concept of Atmospheric Greenhouse Effect Using Thermodynamic Principles: Implications for Predicting Future Climate Change.” USFS Rocky Mountain Research Station, Fort Collins, CO, 2011.
  • [27] Al Gore. An Inconvenient Truth: The Planetary Emergency of Global Warming and What We Can Do about It. New York: Rodale, 2006.
  • [28] J.B. Pedro, S.O. Rasmussen and T.D. van Ommen. “Tightened constraints on the time‐lag between Antarctic temperature and CO2 during the last deglaciation.” Climate of the Past 8 (2012): 1213–1221.
  • [29] John Cook. “Why Does CO2 Lag Temperature?” Skeptical Science, January 9, 2010.
  • [30] P. Peylin et al. “Global atmospheric carbon budget: results from an ensemble of atmospheric CO2 inversions.” Biogeosciences 10 (2013): 6699–6720.
  • [31] Randall J. Donohue, Michael L. Roderick, Tim R. McVicar, Graham D. Farquhar. “Impact of CO2 fertilization on maximum foliage cover across the globe’s warm, arid environments.” Geophysical Research Letters 40 (2013): 3031–3035.
  • [32] CSIRO Australia. “Deserts ‘greening’ from rising carbon dioxide: Green foliage boosted across the world’s arid regions.” ScienceDaily, July 8, 2013.
  • [33] H. Pretzsch et al. “Forest stand growth dynamics in Central Europe have accelerated since 1870.” Nature Communications 5 (2014): 4967.
  • [34] CO2 Science, Center for the Study of Carbon Dioxide and Global Change, Tempe, Arizona.
  • [35] M.D. Iglesias‐Rodriguez et al., “Phytoplankton Calcification in a High‐CO2 World,” Science 320 (5847) (April 2008): 336–340.
  • [36] CSIRO Australia. “Deserts ‘greening’ from rising carbon dioxide.”
  • [37] R.L. Garcia, S.B. Idso and B.A. Kimball. “Net photosynthesis as a function of carbon dioxide concentration in pine trees grown at ambient and elevated CO2.” Environmental and Experimental Botany 34: (1994): 337–341; J.A. Teixeira da Silva, D.T.T. Giang and M. Tanaka. “Micropropagation of Sweetpotato (Ipomoea
    batatas) in a novel CO2-enriched vessel.” Journal of Plant Biotechnology 7 (2005): 67–74.
  • [38] Michael Pacnik. “Does CO2 correlate with temperature history? – A look at multiple timescales in the context of the Shakun et al. paper.” Watts Up With That? crediting this graph.
  • [39] Dr. Robert G. Brown. Quoted in Anthony Watts, “A response to Dr. Paul Bain’s use of ‘denier’ in the scientific literature,” Watts up With That, June 22, 2012.
  • [40] J.E. Lovelock. “A Physical Basis for Life Detection Experiments.” Nature 207 (1965): 568–570.
  • [41] D.R. Hitchcock and J.E. Lovelock. “Life detection by atmospheric analysis.” Icarus 7 (1967): 149–159.
  • [42] J.E. Lovelock. Gaia: A New Look at Life on Earth. New York: Oxford University Press, 1979.
  • [43] Michael McCarthy. “Environment in crisis: ‘We are past the point of no return’.” The Independent, January 15, 2006.
  • [44] Donna Bowater. “How carbon gases have ‘saved us from a new ice age.”’ Daily Express, March 11, 2010.
  • [45] Peter Ward and Donald Brownlee. The Life and Death of Planet Earth: How the New Science of Astrobiology Charts the Ultimate Fate of Our World. New York: Henry Holt and Company, 2004.
  • [46] Roy W. Spencer, John R. Christy, and William D. Braswell. “Version 6.0 of the UAH Temperature Dataset Released.” April 28, 2015; Christopher Monckton, Willie Soon and David R Legates. “The Profiteers of Doom Were Wrong About Climate.” Breitbart News, February 9, 2016.
  • [47] J. Hansen et al. “Ice melt, sea level rise and superstorms: evidence from paleoclimate data, climate modeling, and modern observations that 2˚C global warming is highly dangerous.” Atmos. Chem. Phys. Discuss 15 (2015): 20059–20179.

BIBLIOGRAPHIE

  • Biello, David. “White Rot Fungi Slowed Coal Formation.” Scientific American, 2012.
  • Bowater, Donna. “How carbon gases have ‘saved us from a new ice age.’” Daily Express, March 11, 2010.
  • Brown, Robert G. Quoted in Anthony Watts, “A response to Dr. Paul Bain’s use of ‘denier’ in the scientific literature.” Watts up With That, June 22, 2012.
  • CO2 Concentrations and Temperature Have Tracked Closely Over the Last 300,000 Years,” Southwest Climate Change Network.
  • CO2 Science. Center for the Study of Carbon Dioxide and Global Change. Tempe, Arizona.
  • Cook, John. “Why Does CO2 Lag Temperature?” January 9, 2010.
  • CSIRO Australia. “Deserts ‘greening’ from rising carbon dioxide: Green foliage boosted across the world’s arid regions.” ScienceDaily, July 8, 2013.
  • Donohue, Randall J., Michael L. Roderick, Tim R. McVicar and Graham D. Farquhar. “Impact of CO2 fertilization on maximum foliage cover across the globe’s warm, arid environments.” Geophysical Research Letters 40 (2013): 3031–3035.
  • EPICA Community Members. “Eight glacial cycles from an Antarctic ice core.” Nature 429 (2004): 623–628.
  • Fischetti, M. “2‐Degree Global Warming Limit is Called a ‘Prescription for Disaster.’” Scientific American, 2011.
  • Floudas, D. et al. “The Paleozoic Origin of Enzymatic Lignin Decomposition Reconstructed from 31 Fungal Genomes.” Science 336 (2012): 1715–1719.
  • Garcia, R.L., S.B. Idso and B.A. Kimball. “Net photosynthesis as a function of carbon dioxide concentration in pine trees grown at ambient and elevated CO2.” Environmental and Experimental Botany 34: (1994): 337–341.
  • GLOBE Carbon Cycle Project. “Global Carbon Cycle,” 2010, adapted from R.A. Houghton, “Balancing the Global Carbon Budget,” Annu. Rev. Earth Planet, obtained from NASA.
  • Gore, Al. An Inconvenient Truth: The Planetary Emergency of Global Warming and What We Can Do about It. New York: Rodale, 2006.
  • Hansen, J. et al. “Ice melt, sea level rise and superstorms: evidence from paleoclimate data, climate modeling, and modern observations that 2˚C global warming is highly dangerous.” Atmos. Chem. Phys. Discuss 15 (2015): 20059–20179.
  • Hays, J.D., J. Imbrie and N.J. Shackleton. “Variations in the Earth’s Orbit: Pacemaker of the Ice Ages.” Science 94(4270) (1976): 1121–1132.
  • Hitchcock, D.R. and J.E. Lovelock. “Life detection by atmospheric analysis.” Icarus 7 (1967): 149–159.
  • Ilesias‐Rodriguez, M.D., et al. “Phytoplankton Calcification in a High‐CO2 World.” Science 320 (5847) (April 2008): 336–340.
  • IPCC AR5. Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Eds. T.F. Stocker, D. Qin, G.-K. Plattner et al. Cambridge: Cambridge University Press, 2013.
  • Lovelock, J.E. “A Physical Basis for Life Detection Experiments.” Nature 207 (1965): 568–570.
  • ———. Gaia: A New Look at Life on Earth. New York: Oxford University Press, 1979.
  • Marinov, I. The Ocean Carbon Pumps – How do the Oceanic Carbon Pump [sic] Control Atmospheric pCO2? Theory and Models, 2011.
  • McCarthy, Michael. “Environment in crisis: ‘We are past the point of no return.’” The Independent, January 15, 2006.
  • Monckton, Christopher, Willie Soon and David R Legates. “The Profiteers of Doom Were Wrong About Climate.” Breitbart News, February 9, 2016.
  • Monckton, Christopher, Willie W.-H. Soon, David R. Legates and William M. Briggs. “Why models run hot: results from an irreducibly simple model.” Science Bulletin 60 (2015):122–135.
  • Moore, Patrick. “Ocean Acidification ‘Alarmism’ in Perspective.” Frontier Centre for Public Policy, November 2015.
  • Nahle, Nasif. “Cycles of Global Climate Change.” Biology Cabinet Journal Online, July 2009. .
  • Nelsen, Matthew P., William A. DiMichele, Shanan E. Peters and C. Kevin Boyce. “Delayed fungal evolution did not cause the Paleozoic peak in coal production.” PNAS Early Edition, December 2015.
  • Nikolov, Ned and Karl Zeller. “Unified Theory of Climate: Expanding the Concept of Atmospheric Greenhouse Effect Using Thermodynamic Principles: Implications for Predicting Future Climate Change.” USFS Rocky Mountain Research Station, Fort Collins, CO, 2011.
  • Nova, Joanne. “The 800 year lag in CO2 after temperature – graphed.” JoNova.
  • Pacnik, Michael. “Does CO2 correlate with temperature history? – A look at multiple timescales in the context of the Shakun et al. paper,” Watts Up With That? obtained from this graph.
  • Pagani, Mark et al. “Marked Decline in Atmospheric Carbon Dioxide Concentrations during the Paleocene.” Science 309, no. 5734 (2005): 600–603.
  • Pedro, J.B., Rasmussen, S.O. and van Ommen, T.D. “Tightened constraints on the time‐lag between Antarctic temperature and CO2 during the last deglaciation.” Climate Past 8 (2012): 1213–1221.
  • Petit, J.R. et al. “Four Climate Cycles in Vostok Ice Core.” Nature 387 (1997): 359–360.
  • Petit, J.R., J. Jouzel, D. Raynaud, N.I. Barkov, J.M. Barnola, et al. “Climate and Atmospheric History of the Past 420,000 years from the Vostok Ice Core Antarctica.” Nature 399 (1999): 429–436.
  • Peylin, P. et al. “Global atmospheric carbon budget: results from an ensemble of atmospheric CO2 inversions.” Biogeosciences 10 (2013): 6699–6720.
  • Pretzsch, H. et al. “Forest stand growth dynamics in Central Europe have accelerated since 1870.” Nature Communications 5 (2014): 4967.
  • Ruddiman, W.F. Earth’s Climate: Past and Future. New York, NY: W.H. Freeman and Co., 2001.
  • Santomauro, G. et al. “Formation of Calcium Carbonate Polymorphs Induced by Living Microalgae.” Journal of Biomaterials and Nanobiotechnology vol. 3 no.4 (2012): 413–420.
  • Scotese, C.R. Analysis of the Temperature Oscillations in Geological Eras, 2002.
  • Spencer, Roy W., John R. Christy, and William D. Braswell. “Version 6.0 of the UAH Temperature Dataset Released.” April 28, 2015.
  • Stevenson, D.J. In Earth’s Earliest Biosphere: Its Origin and Evolution. Ed. J. William Schopf. Princeton, NJ: Princeton University Press, 1983.
  • Teixeira da Silva, J.A., D.T.T. Giang and M. Tanaka. “Micropropagation of Sweetpotato (Ipomoea batatas) in a novel CO2-enriched vessel.” Journal of Plant Biotechnology 7 (2005): 67–74.
  • U.S. Geological Survey. “Which produces more CO2, volcanic or human activity?” February 2007.
  • Wang, D.Y.C., S. Kumar and S.B. Hedges. “Divergence time estimates for the early history of animal phyla and the origin of plants, animals and fungi.” Proceedings of the Royal Society of London: Biological Sciences 266, no. 1415 (1999): 163–171.
  • Ward, J.K. “Evolution and growth of plants in a low CO2 world.” In A History of Atmospheric CO2
    and Its Effects on Plants, Animals, and Ecosystems. Eds. J. Ehleringer, T. Cerling and D. Dearing, 232–257. Springer‐Verlag, 2005.
  • Ward, J.K. et al. “Carbon starvation in glacial trees recovered from the La Brea tar pits, southern California.” Proceedings of the National Academy of Sciences of the United States of America 102 (2005): 690–694.
  • Ward, Peter and Donald Brownlee. The Life and Death of Planet Earth: How the New Science of Astrobiology Charts the Ultimate Fate of Our World. New York: Henry Holt and Company, 2004.
  • Whittaker, R.H. “Primary Production and Plant Biomass for the Earth.” Quoted in Peter Stiling, Ecology: Theories and Applications, Prentice Hall, 1996.

Dr. Patrick Moore

Dr. Patrick Moore ist Senior Fellow des Programms Energy, Ecology and Prosperity am Frontier Centre for Public Policy. Seit über 40 Jahren ist er führend im internationalen Umweltbereich. Dr. Moore ist Mitbegründer von Greenpeace und war neun Jahre lang Präsident von Greenpeace Kanada und sieben Jahre lang Direktor von Greenpeace International. Nach seiner Zeit bei Greenpeace trat Dr. Moore der Forest Alliance of British Columbia bei, wo er zehn Jahre lang an der Entwicklung der Prinzipien der nachhaltigen Forstwirtschaft arbeitete, die inzwischen von einem Großteil der Industrie übernommen wurden. Im Jahr 2013 veröffentlichte er Confessions of a Greenpeace Dropout – The Making of a Sensible Environmentalist, das seine 15 Jahre bei Greenpeace dokumentiert und seine Vision für eine nachhaltige Zukunft beschreibt.

Der Beitrag erschien  zuerst hier




Wie Sven Plöger einfach 1 Grad Erwärmung verschwinden ließ!

In der Politik streitet man sich über das 1,5-Grad-Ziel; nicht mehr darf angeblich die Erde sich erwärmen. Aber wenn ARD-Meteorologe Sven Plöger im TV den angeblich natürlichen Treibhauseffekt um ein ganzes Grad nach unten „korrigiert“, dann scheint das ok zu sein!?

Video nicht mehr verfügbar
Kurzer Ausschnitt aus der Sendung „Ihre Meinung“ im WDR-Fernsehen, vom 11.04.2019, von FMD´s TV Channel kommentiert (13.04.2019); inspiriert durch das Medienkritik-Video von ‚Klima Manifest Heiligenroth’, „Sven Plöger lässt 1°C beim Treibhauseffekt verschwinden !!“.

► Weitere Infos zum Thema Klimawandel: ▪ YouTube-Playlist ‚Klimawandel / CO2-These‘: https://www.youtube.com/playlist?list… ▪ Günter Ederer auf welt.de: „Die CO2-Theorie ist nur geniale Propaganda“ http://www.welt.de/debatte/kommentare…