1

Ist der Klimawandel eine Bedrohung für den Panamakanal ?

Im Einleitungstext des Artikels heisst es:

„Wegen der schlimmsten Dürre seit mehr als hundert Jahren ist am Panamakanal der Wasserspiegel so stark gesunken, dass Beschränkungen für Schiffe nötig geworden sind.“

Weiter schreibt der (anonyme) Autor:

„Panama leidet seit Längerem unter den Auswirkungen des sich ändernden Klimas. So droht seine idyllische Inselkette San Blas wegen des steigenden Meeresspiegels innerhalb der kommenden Jahrzehnte im Karibischen Meer zu versinken. Doch die Bedrohung des Panamakanals fügt dem Problem nun eine neue Dimension hinzu. Denn die Wirtschaft des Landes hängt stark von einem reibungslosen Funktionieren des Kanals ab“.

Die DWN darüber hinaus:

„Im Jahr 2016 wurde der Kanal erweitert, um größere Schiffe aufnehmen zu können. Doch nur drei Jahre später sind bereits weitere Modernisierungen in Form eines dritten Sees notwendig, um das durch den Klimawandel zu erwartende extreme Wetter zu meistern.“

Die DWN notieren:

„Die neue Bedrohung für den Kanal kommt in einer Zeit, in der die Handelsbeziehungen zwischen den USA und China eskalieren. Das weltweite Wachstum hat sich verlangsamt und die Aussichten für die weltweite Seefracht haben sich deutlich verschlechtert.“

Der Bericht klingt besorgniserregend. Eine Bedrohung des Panamakanals durch den Klimawandel? Im IFHGK haben wir uns daher ´pro bono publico´ mit diesem Thema befasst. Denn, käme das von den DWN aufgegriffene Szenario tatsächlich auf Panama zu (oder hätte es Panama bereits erreicht?), könnte die Meldung für den internationalen Handel und die Containerschifffahrt tatsächlich ein sehr Ernst zu nehmendes Problem auf die Tagesordnung setzen. Wie gesagt, wenn die Recherche der DWN auf Fakten beruht, die diese brisanten Schlüsse zulassen.

 

 

Niederschlag

Beim Thema ´Klimawandel und Panamakanal´ geht es im Kern und in erster Linie um das zur Verfügung stehende Wasserangebot, welches für Schiffspassagen zwischen Atlantik und Pazifik hinreichend zur Verfügung stehen muss. Die Reservoirs u.a. des Gatunsees müssen jederzeit ausreichend gefüllt sein, um einerseits die Schleusungen selbst durchführen zu können und zum weiteren den notwendigen Wasserstand (die Wassertiefe) innerhalb der Kanalstrecke zu gewährleisten.

Zunächst betrachten wir die Niederschlagsentwicklung zwischen 1901 und 2016 anhand der Daten der WELTBANK. Mit Blick auf Abb. 1 ist bereits leicht zu erkennen, dass über die letzten 100 Jahre keine signifikante Veränderung des Gesamtniederschlags eingetreten ist … und vor allem auch keine negative Tendenz zu beobachten ist.

Abb. 1 : Gesamtniederschläge zwischen 1901 und 2016 in PANAMA (nach Daten der WELTBANK)

 

Die Abb. 1 zeigt für die Jahre 2013-2016 zwar leicht unterdurchschnittliche Niederschlagsmengen, indem die Regenvolumina in den Monaten zwischen April und November  gegenüber jenen der Jahre zuvor etwas geringer ausgefallen sind. Dies ist allerdings und ganz gewiss kein Zeichen für „Klimawandel“, sondern die Werte bewegen sich absolut im zu erwartenden Spektrum dessen, was nun einmal als ´natürliche Varianz´ bezeichnet werden muss … schon zwischen 1929 und 1933 war beispielsweise eine ganz ähnliche Depression der Niederschläge zu beobachten (1929-1933 = 179mm/Monat und 2013-2016 = 175mm/Monat.

Die DWN führen nun aber für das Jahr 2019 die „schlimmste Dürre seit 100 Jahren“ an, die für ein absinken des Kanal-Wasserspiegels verantwortlich sei. Da die Daten des WELTBANK-Archivs momentan leider nur bis zum Jahr 2016 reichen, haben wir daher die aktuellen Werte aus https://www.worldweatheronline.com/panama-city-weather-averages/panama/pa.aspx hinzugezogen, die in der Abb. 2 Verlauf und Intensität der monatlichen Niederschläge von 2009 bis Anfang 2019 zeigen. Hier müssten die im DWN-Artikel benannten Probleme erkennbar werden.

In der Tat war der Winter 2018-2019 (Dezember 2018 – März 2019) ein vergleichsweise regenärmerer Zeitraum, welcher mit 4 Monaten (statt sonst „üblicher“ 3 Monate) gegenüber den vergangenen Jahren sogar leicht verlängert war … wofür allerdings die Niederschläge der anschliessenden Monate April und Mai 2019 jedoch überdurchschnittlich hoch ausfielen, so, wie auch bereits die Monate Oktober und November 2018 überdurchschnittliche Regenmengen brachten, sodass die vorübergehende „Dürre“ mehr als kompensiert wurde!

Es scheint also wahrhaftig kein Grund zur Sorge um die Schiffbarkeit des Panamakanals zu bestehen. Und, nochmals, von einer „Dürre“ zu sprechen, die seit 100 Jahren noch nicht so schlimm ausgefallen sei, darüber verliert der Autor lieber erst gar kein Wort … .

Abb. 2 : Monatliche Niederschläge in Panama City zwischen 2009 und 05-2019 (Daten aus worldweatheronline)

 

Auch ein zusätzlicher Blick auf die mittlere Verteilung der monatlichen Niederschläge (siehe Abb. 3) bestätigt, dass der Winter 2018-2019 letztlich kein Sonderfall war: Die Monate Januar bis April (4 Monate) sind ganz regulär genau jene Zeit des Jahres, die im Mittel grundsätzlich die regenärmsten im Bereich des Panamakanals ist.

Abb. 3 : Verteilung der monatlichen Niederschlagshöhen bzw. der Regentage zwischen den Monaten Januar und Dezember eines Jahres (Mittelwerte)

 

Um das Bild abzurunden, haben wir uns natürlich auch die spezifischen Niederschlagsdaten für den Zentralbereich des Panamakanals angeschaut. Es wurden die Aufzeichnungen der seit über 100 Jahren betriebenen Station „ISLA BARRO COLORADO“ verwendet (Lage der Meßstelle siehe Abb. 4).

Abb. 4 : Lage der meteorologischen Meßstation „Isla Barro Colorado“  (roter Punkt) im Zentralbereich der Strecke des Panamakanals (Gatun-See).    Blauer Punkt  = Lage der Pegel BALBOA, CRISTOBAL und COCO SOLO. Gepunktete Linie = Streckenverlauf des Panamakanals. Karte: Ausschnitt ´google-maps´.

 

Der Gatunsee und sein Einzugsgebiet versorgen den Panamakanal und seine Schleusen zu ganz überwiegendem Teil mit dem notwendigen Wasser. Die Abb. 5 zeigt, dass die Niederschläge im Bereich des Gatunsees in den letzten rd. 100 Jahren zwar (ganz normal) jährlichen Schwankungen unterliegen, jedoch nahezu keinen Trend besitzen. Zwar ist im Zeitraum 1925 bis 1975 ein ganz leichter Rückgang der Niederschläge zu beobachten (Grafik b), der jedoch danach und bis heute wieder auf das vorherige Niveau zurück gekehrt ist (Grafik c). Auffällig sind zwar die bis 1975 im Vergleich zum Zeitraum 1975-2017 geringeren Amplituden der jährlichen Niederschlagsmengen. Dies jedoch ist mit grosser Wahrscheinlichkeit allein auf natürliche Fluktuationen im System ´Atmosphäre-Ozean´ zurückzuführen (El Nino / PDO / ENSO-Zyklen). Fakt ist auch, dass im Zeitraum 2013-2015 vorübergehend geringere Jahresniederschläge auftraten … hier ist das Phänomen eines „El Nino“ zu beachten. Diese (und andere) mehr oder weniger zyklischen Veränderungen treten im Wetter- und Klimasystem immer und überall fast regelmässig auf. Alle, die beispielsweise mit dem Fischfang Perus zu tun haben (um ein im wahrsten Sinne des Wortes für Panama naheliegendes Beispiel zu bringen), können davon ein Lied singen.

5a:

5b:

5c:

Abb. 5 : Jährliche Niederschlagsmengen 1925-2017, Station „Isla Barro Colorado“ (Panama/Gatunsee). Grafik ´a´ = Gesamtzeitraum, Grafik ´b´ = Zeitraum 1925-1975, Grafik ´c´ = Zeitraum 1975-2017. Daten: Smithonian Tropical Research Institute,„2017 Meteorological and Hydrological Summary for Barro Colorado Island“

 

Abb. 6 : Darstellung der typischen Verteilungsmuster von Wassertemperaturen im Pazifik, die sich bei einem vorübergehenden „kippen“ der Strömungsverhältnisse im Zuge eines „El Nino“ einstellen … mit Wirkung auf die atmosphärischen Verhältnisse weltweit

 

Ein sogenannter ´El Nino´ tritt alle paar Jahre im Pazifik in Erscheinung: Der für den Fischreichtum vor Peru vor allem verantwortliche Humboldstrom, der vor der Südamerikanischen Küste kühleres und nährstoffreiches Wasser aufquellen lässt (siehe in Abb. 6 die Grafik ´b´), bricht dann vorübergehend zusammen und warmes Wasser verbunden mit einem deutlich verringerten Nahrungsangebot für alle Lebewesen im östlichen Pazifik (Fische etc. ) und ´über´ dem Pazifik vor der Peruanischen Küste (Vögel) lässt alle darben … inklusive der davon z.B. abhängigen Fischindustrie.  Aber das geht auch wieder vorüber, ein El Nino tritt in Abständen von meist 4-7 Jahren auf. Es darf am Rande vermerkt werden, dass solche zyklischen Vorgänge nahezu das gesamte Weltklima beeinflussen: Selbst die im Zeitraum 2014-2016 in Europa/in Deutschland (!) zu beobachtenden relativ hohen Lufttemperaturen sind nachweislich auf diese zyklischen Vorgänge im Pazifik (und dem Atlantik) zurückzuführen … mit dem Anstieg des CO2 haben diese Vorgänge jedenfalls absolut nichts zu tun. Es mag als Warnung verstanden werden, wenn wir darauf hinweisen, dass aufgeregte Kommentare gerade in deutschen Medien solche Zusammenhänge eher aussparen … .

Fazit aus Sicht des IFHGK: Die im DWN-Bericht für den Panamakanal genannten Probleme, die sich aus angeblichen Veränderungen des natürlichen Wasserangebots ergeben sollen, sind für uns nicht nachvollziehbar bzw. erkennbar.

 

Meeresspiegel

Der nächste Punkt des DWN-Berichts erwähnt den angeblichen Anstieg des Meeresspiegels vor Panama bzw. an Panamas Küsten. Dazu haben wir zwei sogenannte Pegelmeßstellen ausgewertet. Beide, BALBOA für den Pazifik und CRISTOBAL für den Atlantik (Lage siehe Abb. 4 , Daten siehe Abb. 7) zeigen, dass tatsächlich der Meereswasserspiegel ansteigt: Für den Pazifik (BALBOA) sind es durchschnittlich +1,5mm/Jahr, im Atlantik (CRISTOBAL) +1,87mm/Jahr. Beide Werte liegen absolut im üblichen Rahmen der weltweit zu beobachtenden Veränderungen bzw. Zunahmen. Dieser Anstieg des Wasserspiegels ist, wie gesagt,  ein weltweites Phänomen. Regional können die Werte (auch vorübergehend!) mal geringer aber auch mal höher ausfallen. Der Anstieg ist grundsätzlich nicht neu, sondern besteht seit Ende der letzten Eiszeit (siehe Abb. 9 aus www.climate4you.com ). Ein Resultat allein des sogenannten aktuellen Klimawandels ist es nicht.

Interessant ist, dass die in den Niederschlagsdaten für die Jahre 2013-2015 sichtbare „Delle“ auch in den Werten bzw. dem Verlauf des Meereswasserspiegels am Pegel  BALBOA erkennbar wird: Hier lassen sich die Auswirkungen der zyklischen ozeanischen (und damit klimatischen) Varianzen gut herauslesen.

7a:

7b:

Abb. 7 : Veränderung des Meereswaserspiegels an den panamaischen Messtationen BALBOA (Pazifik) und CRISTOBAL (Atlantik), je seit rd. 100 Jahren. Die Trendlinie in rot zeigt einen Anstieg zwischen 1,87mm/Jahr (CRISTOBAL) und 1,5mm/Jahr (BALBOA). Daten: www.psmsl.org

 

Anmerkung: Für die Station CRISTOBAL sind gemäss www.psmsl.org die Pegeldaten nach 1995 möglicherweise nicht ordnungsgemäss aufgzeichnet bzw. von den lokalen Behörden nicht korrekt ausgewertet worden. Daher wurde auf die Fortschreibung der Daten ab/nach 1995 verzichtet.

Rd. 5 Kilometer auseinanderliegend, zeigen die Wasserstandsverläufe des Atlantiks bei CRISTOBAL und COCO SOLO sehr ähnliche Grundmuster: Wie am herausgestellten Beispiel der Jahre 1991-1995 (siehe Abb. 8) erkennbar, sind die Verläufe sehr ähnlich. Man darf also davon ausgehen, dass beide Stationen zwar nicht unbedingt in allen Fällen immer zweifelsfrei ´absolut´ richtig aufzeichnen, jedoch die Tendenzen hinreichend genau erfasst werden. Damit sollte klar sein, dass der in den DWN für die „kommenden Jahrzehnte“ postulierte Untergang der ´idyllischen´ Inselkette SAN BLAS zumindest nicht wegen eines ´steigenden Meeresspiegels´ stattfinden wird … .

 

8a:

8b:

Abb. 8 : Pegelmessstellen CRISTOBAL (oben) und COCOSOLO (unten), je panamaische Atlantikküste, Zeitraum Januar 1991 bis Dezember 1995 (Daten: www.psmsl.org)

 

Ergänzend seien an dieser Stelle der mittlere Verlauf bzw. die Veränderungen des weltweiten Meeresspiegels dargestellt (Abb. 9). Die Berechnung erfolgte nach HOLGATE (2007). Es handelt sich um 9 Stationen mit monatlichen Gezeitenmessdaten aus dem PSMSL Data Explorer. Holgate schlug die neun im Diagramm aufgeführten Stationen vor, um die Variabilität zu erfassen, welche in einer größeren Anzahl von Meßstellen im Laufe der letzten 100 Jahre stattgefunden hat bzw. dort zu beobachten ist.

Abb. 9 : Anstieg des weltweiten Meeresspiegels seit 1900 nach Auswertung von 9 weltweiten repräsentativen Pegelstationen (sogenannte „Holgate-9“-Daten, Grafik aus www.climate4you.com )

 

Bei den blauen Punkten der Abb. 9 handelt es sich um die einzelnen monatlichen Werte der zusammengefassten neun Pegel, die violette Linie repräsentiert das 10-jährige übergreifende Mittel. Die beiden unteren Panels zeigen die jährliche Meeresspiegeländerung, berechnet für 1 bzw. 10 Jahre- Zeitfenster. Die letzte Aktualisierung des Diagramms stammt vom 23. Juni 2018 (www.climate4you.com). In den letzten 100 Jahren stieg hiernach der weltweite mittlere Meeresspiegel um 17 cm bzw. 17 mm/Jahr an. Dies ist sogar mehr (wenn auch geringfügig) als jener bei BALBOA, wo er im gleichen Zeitraum nur um 15 mm zulegt … hiernach hätten die idyllischen SAN BLAS Inseln nicht viel zu befürchten, die Gefahr für diese aus Korallen bestehende Gruppe kommt aus anderer Richtung, die mit ziemlicher Sicherheit nicht klimatisch begründet ist.

 

Temperaturen

Zur Beurteilung eines möglichen Klimawandels gehört natürlich immer auch die Entwicklung der Temperaturen. Der Bericht der DWN geht hierauf zwar nicht ein, dennoch sollen der Vollständigkeit halber die Werte für PANAMA dargestellt werden.

Die Abb. 10 zeigt, dass zwischen 1915 und 2016 (wiederum nach Werten der WELTBANK) die Lufttemperaturen PANAMAS in diesen 100 Jahren um rd. 0,5 Grad C angestiegen sind. Zum Vergleich: In Deutschland kletterten die Temperaturen im gleichen Zeitraum um rd. 1,0 Grad C nach oben … . . Was für Panama bemerkenswert ist: Während in den letzten 20 Jahren die Temperaturen im Mittel auf 25,59 Grad C lagen, war dies während der Zeit zwischen 1925 und 1942 bereits einmal genau so viel, damals lag die mittlere Temperatur bei 25,60 Grad C ! Wir sehen daran, dass die Aussage „der“ Klimawandel beschleunige sich und der zunehmende CO2-Gehalt der Atmosphäre/der Mensch seien ´ausschliesslich´ für den Anstieg der weltweiten Temperaturen verantwortlich, in dieser Form (und zumindest für Panama) nicht gelten kann. Denn: Während der atmosphärische CO2-Gehalt in den 30er Jahren des letzten Jahrhunderts bei rd. 310ppm lag, beträgt der Wert heute bereits über 400ppm … ein Plus von rd. 30% für´s CO2 innerhalb von rd. 90 Jahren, aber (in Panama) so ziemlich die gleichen Wärmeverhältnisse (als Temperaturen in Grad C) wie damals.

Abb. 10 : Lufttemperaturen PANAMA zwischen 1915 und 2016 (nach Daten der WELTBANK)

 

Wind, Sonne, Wolken

Die DWN schreiben: „ … (für den Panamakanal) sind bereits weitere Modernisierungen in Form eines dritten Sees notwendig, um das durch den Klimawandel zu erwartende extreme Wetter zu meistern“. Wir schauen also auch einmal auf´s Wetter. Aber was ist „Wetter“ eigentlich? Und wieso kommt Wetter nach Klima? Dazu später noch einiges! Zunächst ein Blick auf Faktoren, die beim „Wetter“ eine Rolle spielen und die auch für den Bereich des Panamakanals aufgezeichnet werden. Hier 3 davon:

  1. Strahlung (Sonne)

 

  1. Wolken und Feuchte

 

  1. Wind

 (alle Grafiken bzw. Daten aus https://www.worldweatheronline.com/panama-city-weather-averages/panama/pa.aspx )

 

Es führt an dieser Stelle zu weit, alle Daten, die in den o.a. Grafiken zusammengefasst sind, im Detail zu analysieren bzw. zu kommentieren. Mit Blick auf die drei Abbildungen genügt es, festzustellen, dass sich seit 2009 bei allen Parametern nicht wirklich etwas verändert hat bzw. dass nichts in einem Trend liegt, der Anlass zur der Annahme geben könnte, in diesen „Bestandteilen“ des Wetters hätte sich wirklich etwas geändert/verändert … ob zum Negativen (Klimawandel) oder was auch immer. Da ist nichts! Die sichtbaren Schwingungen in den Werteverläufen stellen das absolut normale Mass dessen dar, was die Natur nun mal so bereithält: Da ist mal ein bisschen mehr an Wolken oder Wind, und dann auch mal eine Portion weniger, alles im Verlauf des üblichen Jahresgangs (!), es gibt keinerlei  Anlass zur Besorgnis. Wetter eben … .

Gewiss: ´Extremes´ Wetter gab und gibt es immer mal wieder. Es handelt sich aber immer um Vorgänge, die sozusagen im System verankert sind … sie kommen und gehen, periodische Vorgänge addieren (oder subtrahieren) sich. Wellenförmige „Fernwirkungen“ aus ENSO oder PDO modulieren das Wetter darüber hinaus. Es gibt dabei Zeiten von Ruhe, und es gibt Zeiten mit für den Menschen (und seine Behausungen) gefährlichen Konstellationen. Hinweise auf die Zunahme von Extremwetter finden sich für Panama jedoch nicht … nicht einmal bei Hurricans (siehe kaltesonne).

Es muss klar festgestellt werden: Klima ist sozusagen das mittlere Wetter einer Region! Wetter findet statt als ein dynamischer Prozess, der aus unzähligen physikalischen Parametern besteht und der sich chaotisch (!) und nicht deterministisch im (fast) offenen Raum der Atmosphäre abspielt. Wetter als Oberbegriff des Zusammenspiels unterschiedlichster atmosphärischer  Faktoren (die eigentlich alle miteinander in Beziehung stehen und oftmals sogar ´rückgekoppelt´ sind) wird gemessen in Form von „Temperatur“, „Niederschlag“ oder „Wind“ u.a.m. und dabei (teils!) dokumentiert. Dies geschieht an bestimmten Punkten/Messstellen (!), aber niemals in der Fläche … obwohl Wetterkarten dies suggerieren. Alles das geschieht von Tag zu Tag, von Woche zu Woche, von Monat zu Monat … und dann über Jahre.

Erst nach 30 Jahren und der statistischen Mittelung aller in diesem Zeitraum aufgezeichneten Werte bekommen wir einen Begriff vom Klima eines Ortes! Erst dann, nach Ablauf eines (gerade für uns Menschen!) sehr langen Zeitraums können wir uns einen ersten (aber auch nur einen allerersten!) Eindruck vom mittleren Wetter oder (eben) dem Klima machen. Und die Entwicklung dieses Klimas, welches wiederum überall auf der Erde unterschiedlich ist (ein „Welt“-Klima gibt es nicht!) erkennt man erst dann, wenn viele Dekaden mit „Wetter“ stattgefunden haben … zu mutmassen, dass man bereits auf einen nachhaltigen Klimawandel schliessen könne, wenn man auf den Zeitraum zurück nur bis 1850 schaut, ist zwar inzwischen üblich geworden, kann aber ganz gewiss nicht seriös ausreichen, um einen wirklichen „Wandel“ beurteilen zu können. Klima verläuft nicht von heute auf morgen, Klima unterliegt langfrístigen Zyklen, Klimawandel kann man erst dann feststellen, wenn … Zeit vergangen ist.

Der Irrtum der in den Medien ganz überwiegend zitierten Klimaexperten besteht darin, dass man glaubt, aus der bisherigen Klimavergangenheit (die wir Menschen in Zahlen (!) erst seit Mitte des 19.Jahrhunderts zu Papier gebracht haben) auf die Zukunft hochrechnen zu können, indem man Szenarien auf Grosscomputern ´laufen´ lässt. Doch dahinter steckt ein Irrtum. Ein Irrtum, der davon ausgeht, dass wir die Natur und das Klima schon umfassend kennen würden bzw. ´verstanden´ hätten und damit ´systematisch´ beurteilen könnten. Und das wir dieses Klima mit Mass und Zahl tatsächlich berechnen können oder, anders ausgedrückt, dass das Klima eine berechenbare Grösse sei.

Sagen wir es offen: Das ist nicht nur Hybris, es ist erwiesenermassen auch mehr als nur ungenau … ein einziger Blick auf die Ergebnisse bisheriger Klimaprognosen, die mittels unterschiedlicher Rechenmodelle erstellt wurden, zeigt, dass bisher weder eine auch nur annähernde Übereinstimmung der Modelle besteht noch überhaupt eine Nähe zu den tatsächlich beobachteten Naturdaten erreicht werden konnte.

Dies ist möglichweise ein sehr folgenschwerer Irrweg und Irrtum, mit dem für oftmals vollkommen ungeeignete Massnahmen zur „Vermeidung von Klimawandel“ (?)Milliarden von Euro oder Dollar ausgegeben werden, nur damit man eventuell am Ende feststellt … die Erde dreht sich weiter, die Sau, die man durch´s Dorf getrieben hat, ist gestorben, aber nichts hat sich wirklich verändert. Und schon gar nicht das Klima. Oder besser: Das Klima  ändert sich durchaus, aber eben nicht nur in eine Richtung, wie man momentan glaubt sehen zu können. Es wird sich zeigen, was kommt … aber für Klima-Panik besteht definitiv kein Grund. Greta for Nobel Prize ? Wir warnen vor dieser Erhöhung.

 

Der Panamakanal … neue Schleusen und Technik seit 2016

Nun stellt sich jedoch die Frage, was sich denn dann hinter den sicherlich nicht zu leugnenden Problemen der Wasserstrasse verbergen könnte. Was könnte zu den ohne Frage eher ungewöhnlichen (Tiefgangs-) Beschränkungen für die Schifffahrt geführt haben, die die Kanalverwaltung aussprechen musste. Denn Tatsache ist: Beim Panamakanal handelt es sich um ein Wirtschaftsunternehmen; hier Einschränkungen im laufenden Betrieb auszusprechen bedeutet auf Einnahmen zu verzichten. Das macht man nicht freiwillig.

Den wirklichen Ursachen kommt folgender Bericht vermutlich näher auf die Spur (https://www.bluewin.ch/de/news/wissen-technik/extreme-duerre-am-panama-kanal-veranschaulicht-klimawandel-sorgen-244862.html ): „Die Beschränkungen betreffen (…) die Schleusen Cocoli und Agua Clara, (beide) entstanden im Rahmen des 2016 in Betrieb genommenen, milliardenschweren Ausbauprojekts, das den grösseren Neopanamax-Schiffen die Passage ermöglicht. Im Durchschnitt durchfahren täglich siebeneinhalb Schiffe diese Schleusen, zuweilen auch bis zu zwölf“.

Nun, da gäbe es einen Verdacht, und der hat nichts mit den Klimawandel zu tun, sondern fusst auf den erst 2016 abgeschlossenen baulichen Erweiterungen mit den erheblich vergrösserten Schleusen des ´neuen´ Panamakanals (siehe Abb. 11). Man muss wissen, dass bei jeder Schleusung Wasser sozusagen verbraucht wird. Das liegt daran, dass beim füllen bzw. entleeren von Schleusen immer auch Wasser dem Schleusenabstieg/-gefälle entsprechend in Richtung Meer abläuft. Der Kanal verliert also (Frisch-)Wasser an den Atlantik bzw. den Pazifik. Mit den alten, vergleichsweise kleinen Schleusenkammern war dies kein grosses Problem. Die seit 2016 im Betrieb befindlichen erheblich grösseren Schleusenkammern jedoch verursachen (neben den auch weiterhin betriebenen alten Schleusenkammern!) einen grösseren Durchsatz an Oberflächenwasser, das natürlich immer noch „nur“ aus dem Einzugsgebiet bzw. dem Niederschlagsgebiet des Gatunsees stammt. Während der Regenzeit ist der ´Verlust´ an Wasser kein Problem. Wenn allerdings (und ganz normal!) eine etwas längere Phase geringerer Niederschläge eintritt, dann kommt die Vorratshaltung des aktuellen Panamakanals, zusammen mit dem Weiterbetrieb der alten Schleusen, offenbar an Grenzen.

Abb. 11: Panamakanal, Schleusenanlage „Gatun“/Colon, neue Schleusen (seit 2016) mitte-rechts im Bild, „alte“ Schleusenkammern mitte-links. Gut erkennbar die grossen Vorratsbecken für Schleusungswasser bei den neuen Schleusenkammern (Bildquelle:GOOGLE EARTH)

 

Das ist, man muss es ausdrücklich betonen, also kein Klimaproblem … sondern „man made“. Wie die Abb. 11 zeigt, hat man bereits ganz bewusst die neuen Schleusen des Panamakanals mit deutlich grösseren Vorratsbecken für Schleusungswasser ausgestattet. Auch ein „Recycling“ von Wasser ist durch eine neue Technik eingeführt worden. Allein die Grössenverhältnisse der Schleusenkammern, die einem schon mit einfachem vergleichenden Blick zwischen „altem“ und „neuem“ Bereich in´s Auge springen (siehe Abb. 11), lassen ahnen, welche Volumina an Wasser täglich benötigt werden … auch in den natürlichen jährlich wiederkehrenden Trockenphasen der Monate Januar bis April. Mit anderen Worten: Die Anzahl der tatsächlichen Schleusungen während der Trockenzeit kommt an die Grenzen der Wasserbereitstellung bzw. der Wasserstand im Gatunsee (dem Lieferanten des Schleusungswassers) sinkt markant ab. Da trägt, nochmals gesagt, der „Klimawandel“ keine Schuld … .

Aber der Hinweis in den DWN, dass nun „nur drei Jahre später (…) bereits weitere Modernisierungen in Form eines dritten Seesnotwendig (sind)“ lässt immerhin aufhorchen: Genau dies ist nämlich nichts anderes als ein Eingeständnis der Kanalverwaltung, dass die Wasserreservoirs in der Praxis nicht ausreichen … jedenfalls in den üblichen (!) Trockenzeiten des tropischen Panamaischen Klimas nicht, während der Regenzeit besteht ohnehin kein Problem.

Leider ist der Hinweis auf aktuelle Nutzungseinschränkungen des Panamakanals, die mit dem Bau der neuen Schleusen verbunden sind, offenbar nur von BLUEWIN übernommen worden. Alle deutschsprachigen Berichte entstammen gemeinsam einem einzigen AP-Bericht von Juan Zamorano und Arnulfo Franco. Die Autoren haben zwar, wie es aussieht, tatsächlich auch auf das Problem der vergrösserten Schleusenvolumen hingewiesen, wenn auch nur nebenbei.  Vom AP-Gesamttext  übernommen haben jedoch nahezu alle Presseorgane (einschliesslich der DWN, dem ZDF u.a.) ausschliesslich das Thema „Klimawandel“ … und das ist im Sinne der Kanal-Probleme irrelevant!

Fairerweise muss man sagen, dass zumindest der Fachinformationskanal  THB (Täglicher Hafenbericht,  https://www.thb.info/rubriken/single-view/news/wassermangel-im-panamakanal.html) nicht in die Spekulationen einstimmt, sondern nüchtern über unzureichende Wasserversorgung bzw. die Passageeinschränkungen beim Panamakanal berichtet, ohne hierfür den Klimawandel verantwortlich zu machen. Auch RAonline berichtet, ohne den Klimawandel anzuführen, über das El Nino-Phänomen, welches zu verringerten Niederschlägen in Panama führt (https://www.raonline.ch/pages/edu/st4/wawakanal03a6.html ).

Dennoch ist dies alles ein zum Nachdenken anregendes Fallbeispiel, da die allermeisten Presseorgane ungeprüft einen AP-Bericht übernommen haben, der primär den Klimawandel als Grundlage einer Bedrohungsthese sieht … auf die Fehlplanung, die bei „mehr“ Schleusen aber gleicher Wassermenge ein „weniger“ an Schleusungskapazität in Trockenzeiten ergibt, hat niemand bzw. einer und dort auch nur sehr, sehr versteckt hingewiesen.

´Fake news´ sind nicht zwingend immer böse Absicht, oft sind sie schlicht und einfach unzureichender bzw. (auch schon mal bewusst?) einseitiger Recherche geschuldet.

 

Fazit

Was bleibt vom Bericht „Beschränkungen für die Schifffahrt – Klimawandel ist Bedrohung für den Panamakanal“? Es ist die Feststellung, dass nicht nur (aber auch) die DWN offenbar einer (zumindest) oberflächlichen Recherche Platz gegeben haben. Man ist sogar versucht „Fake news“ dazu zu sagen.

Woher auch immer die Neigung selbst eigentlich als seriös einzustufender Medien kommt, dem Schlagwort Klimawandel aufgeregt aber faktenarm hinterher zu laufen, bleibt der Spekulation eines jeden überlassen. Tatsache ist jedenfalls, dass zumindest der Zustand von „Wetter“ und Klima im Bereich des Panamakanals keinerlei Anlass zur Sorge bietet.

Fakt ist ohne Frage, dass weltweit Handelskonflikte, manche würden sogar Handelskriege dazu sagen, stattfinden. Den vermeintlichen oder echten wirtschaftlichen und politischen Gegner dabei zu täuschen oder zumindest gehörig zu verwirren gehört zu diesen Auseinandersetzungen dazu. Selbst scheinbare Randdaten können hierbei eingesetzt werden … auch beim Klima handelt es sich inzwischen um einen Faktor, der strategisch genutzt werden kann bzw. der tatsächlich auch gezielt eingesetzt wird.

Einen interessanten Hinweis darauf, dass diese Aussage nicht aus der Luft gegriffen ist, liefert ein aktueller Artikel aus SPON (Spiegel-online, https://www.spiegel.de/politik/ausland/klimawandel-wettlauf-um-erdgas-oel-und-seltene-erden-in-der-arktis-a-1274371.html ) vom 27.Juni 2019, der sich mit dem Klimawandel (sic!) und den Perspektiven einer zukünftigen Befahrbarkeit der arktischen Nordroute (Nordwestpassage) beschäftigt. Hier heisst es u.a.: „Die langfristige Strategie Russlands besteht darin, diese arktische Wasserstraße zu nutzen, um seine Rohstoffe ganzjährig nach Europa zu schaffen“ und, das sei angemerkt, darüber hinaus einen Seeweg als Ersatz bzw. Ergänzung für die Routen anzubieten, die bisher den Panamakanal bzw. den Suezkanal durchfahren.

 

 

 

Weiter schreibt SPON:

„Das bedeutet sicherlich nicht, dass der (Panama)Kanal durch die konkurrierende Route am Pol in absehbarer Zeit bedeutungslos würde“.

Man ist hier geneigt einzufügen „Nein, aber “. Man darf sicher feststellen, dass es durchaus dem einen (Staat) oder anderen (Handelsorganisation) gut zu Pass käme, sollte der Panamakanal z.B. aus „klimatischen“ Gründen an Reputation verlieren … mögen ´Düren´ und steigende Temperaturen dem Panamakanal schaden, für den arktischen Seeweg wäre ein „Klimawandel“ gewiss sehr nützlich.

Man kann es beklagen, aber, zum ersten genannt, verwenden ganze Länder den vermeintlichen Klimawandel (und die angeblich dadurch entstehenden Schäden an Natur und Gesellschaft) auch, um einem breiten aber uninformierten Publikum vorzuhalten, es kümmere sich offenbar keiner genügend um die „belasteten“ Länder dieser Welt.

Zum zweiten setzen viele Länder den sogenannten Klimawandel ganz gezielt ein, um zu demonstrieren, dass es in diesem angeblichen Desaster ohne die finanzielle Unterstützung der wohlhabenden Europäer ganz einfach „nicht geht“ … auch ein Panamakanal kann danach quasi zusammenbrechen und Wirtschaftswege verelenden, wenn man ´den´ Klimawandel nicht berücksichtigt. Aber wer zahlt den Preis dafür … denn ´kosten´ tut es ganz gewiss!?

Zum dritten haben auch Unternehmen, nicht nur aber vor allem auch die weltweit vernetzten, erkannt, dass mittels Klimawandel-Argumenten Profite generiert werden können, die man ansonsten vielleicht nicht einbringen könnte … zumindest alles das, was aufgrund eines angeblichen Klimawandels sozusagen unvermeidbare zusätzliche Kosten verursacht, kann man mit dem Argument „wir geben nur weiter, was die Gesellschaft auf dem Gewissen hat“ in die Kalkulationen einpflegen.

Das ist nützlich … und die Leser von DWN/ZDF u.a. sind in diesem Sinne ´nützliche Idioten´ (Lenin zugeschrieben)? ´Fake news´ als Mittel zum Zweck? Aber vielleicht ist alles auch viel trivialer: Schlechte Recherche bei unkritisch übernommenen Agentur-Artikeln, hier von AP: Auch so kommen Artikel zustande, die mehr Schaden anrichten als Nutzen bringen.

Für seriöse Unternehmen, seien es Reedereien oder Handelsorganisationen, sollte jedoch gelten, sich auf wirklich belastbare Informationen zu stützen und politisch fehldeutbare Veröffentlichungen zumindest kritisch zu sehen bzw. diese, sachkundig unterstützt, zu hinterfragen. Die Tatsache, dass der „neue“ Panamakanal mit seinen deutlich grösseren Schleusenkammern (im Zusammenspiel mit den weiter in Betrieb stehenden alten Schleusen) auch erheblich mehr Wasser verbraucht, sollte nicht vergessen gehen. Hierauf hinzuweisen wäre Pflicht einer seriösen Veröffentlichung. Das die DWN wie auch fast alle anderen deutschsprachigen Publikationen versäumt haben, den offenbar von AP (Associated Press, New York) stammenden Grundbericht zu prüfen, ist kein Ausweis von gutem Journalismus.

 

Dr. Hans-J. Dammschneider

IFHGK

 

Über das IFHGK
(Inst. f. Hydrographie, Geoökologie und Klimawissenschaften;  Aegeri/Zug, Schweiz; www.ifhgk.org ):

Das IFHGK steht für Rückfragen gerne zur Verfügung. Bitte nehmen Sie bei Interesse am Thema oder an einer individuellen Beratung Kontakt mit uns auf. Das Institut arbeitet frei von jedweder politischen Einflussnahme. Allein auf Basis gesicherter wissenschaftlicher Daten bzw. anerkannter internationaler Veröffentlichungen übernimmt das IFHGK auf Wunsch Aus- und Bewertungen für hydrographische, geoökologische sowie klimatologische Fragen, die sich beispielweise im Rahmen von Unternehmensstrategien stellen oder auch nur der Suche nach praktischen Lösungen innerhalb von Wirtschaftsvorgängen entstammen bzw. einer eventuell notwendigen vorausschauenden „Beweissicherung“ dienen. Wir sind eine nonprofit-Organisation und arbeiten unabhängig von staatlichen sowie unternehmerischen Einflüssen und Interessen. Das IFHGK finanziert sich allein aus Mitgliederbeiträgen und Spenden.

Senden Sie uns eine email über dr.dammschneider@ifhgk.org , wir werden Ihnen antworten!

Der Beitrag erschien zuerst bei die kalte Sonne hier




Frankreichs neue „heißeste jemals gemessene Tempe­ratur“ ist fragwürdig – denn wo wurde sie gemessen?

 

So viel dazu, dass nur mit korrekt aufgestellten Instrumenten in einer in offenem Gelände entfernt von unnatürlichen Heizquellen stehende Wetterhütte gemessen wird.

Hier erkennt man die Wetterhütte:

 

https://goo.gl/maps/hF4KbSoXTt6WZfLr6

Hier wird es lustig – es könnte der „Treibhaus-Effekt“ sein / sarc

 

Im Ernst jedoch, wer weiß, welche Auswirkungen jene Treibhäuser auf die hohe Temperatur gehabt haben? Was wir wissen ist, dass Treibhäuser Wärme sich akkumulieren lassen und die Temperatur erhöhen. Abhängig von der Windrichtung jenes Tages könnte die Abwärme in Richtung der Thermometerhütte geblasen worden sein. Gleiches könnte auch für die asphaltierte Autobahn gelten.

Zur Hitzewelle selbst fügt Dr. Roy Spencer hinzu:

Wenn Sahara-Luft Europa erreicht, wird es heiß. Hinsichtlich rekordhoher Messungen ist es legitim, die Platzierung von Temperatur-Messfühlern zu hinterfragen, ebenso die Länge der Zeitreihe.

Für eine Zeitreihe von, sagen wir, über 100 Jahren und KEINEM langfristigen Erwärmungstrend kann man immer noch aufgrund der Wetter-Variationen erwarten, dass von Zeit zu Zeit neue Rekorde der Temperatur gemessen werden.

Der jüngste Wärmerekord in Miami wurde mitten in einem riesigen Beton-Dschungel gemessen, der vor 100 Jahren noch gar nicht existierte. Jetzt werden dort im Mittel Temperaturwerte gemessen, die um ca. 5°C über den Werten der ländlichen Umgebung liegen.

Noch etwas anderes gilt es zu berücksichtigen – Wetterhütten, die so leicht zugänglich sind wie hier sind anfällig für Verzerrungen (oder Antriebe, wenn man will), welche „reale Klimatologen“ normalerweise nicht berücksichtigen – wie z. B. Fahrzeuge, die direkt daneben parken. Man betrachte das Satellitenbild (Messpunkt ist rot eingekreist:

 

Luftbild des Messpunktes, an welchem die „Allzeit-Rekordtemperatur“ gemessen worden ist (rot eingekreist). Man beachte, wie nahe die Hütte der Autobahn und Treibhäusern steht: Google Earth: https://www.google.com/maps/@43.746687,4.2594672,126m/data=!3m1!1e3.

Ist noch das Fiasko aus Schottland vor einigen Jahren in Erinnerung? Ein Eiscreme-Lastwagen mit konstant laufenden Generatoren war die Ursache eines „vom Menschen verursachten klimatologischen Ereignisses“ (hier, auf Deutsch beim EIKE hier):

 

Ist also der neue französische Allzeit-Rekord bzgl. hoher Temperatur valide? Ich vermute mal nein. Es gibt einfach zu viele Einflüsse, die berücksichtigt werden müssen.

Mit Sicherheit ist die Umgebung des Messpunktes hier völlig anders geartet als vor 100 Jahren. Und wer weiß? Vielleicht parkte jemand sein Fahrzeug am 28. Juni neben dem Messpunkt? Vielleicht ein Versorgungslaster?

Aktualisierung 1 (29.6.2019, 11:40 Uhr): In Kommentaren wird gefragt, ob dieser Messpunkt tatsächlich „die Station“ ist oder nicht. Unabhängig davon ist diese Wetterhütte ganz schlecht aufgestellt. Ich werde nochmal nachschauen.

Aktualisierung 2 (29.6.2019, 11:56 Uhr): Es scheint, als ob es sich nicht einmal um einen „Allzeit-Rekord“ gehandelt hat:

Link: https://wattsupwiththat.com/2019/06/29/frances-new-hottest-recorded-temperature-ever-is-in-question-guess-where-it-was-measured/




Wohlstands-Verblödung*

Schweizer Politiker wollen aus der Schweiz heraus die Erde retten.

Die Schweiz lebt im trügerischen Glück der Wohlstandsverblödung. Die Wirtschaft läuft, die Börse brummt, die Sonne scheint. Niemand macht sich ernsthaft über etwas Konkretes Sorgen. Wir haben Zeit und Musse, uns den Kopf zu zerbrechen über einen Klimanotstand, der laut Modellrechnungen am Ende des Jahrhunderts eintreten sollte. Oder auch nicht.

Wohlstandsverblödung ist kein Charakterfehler, keine angeborene oder erworbene Eigenschaft, die einige trifft und andere nicht. Wohlstandsverblödung kann alle erwischen. Sie erfasst uns, ohne dass wir es merken. Die Überlebensinstinkte schlafen ein. Wir werden übermütig. Wir glauben, uns alles leisten zu können. Plötzlich kommt der Knall.

Vom Boxer Muhammad Ali stammt der Satz: «Du gehst nur von den Schlägen k.o., die du nicht kommen siehst.» In der Politik gilt: Man geht auch durch Schläge k.o., die man kommen sieht und die man sich sogar selber zugefügt hat. Wohlstandsverblödung folgt auf den Wohlstand, den man für selbstverständlich, für naturgegeben hält.

Wohlstandsverblödet ist zum Beispiel die von Bundesrat und Parlament beschlossene Energiewende, der Ausstieg aus der Kernenergie ohne Absicherung neuer verlässlicher Quellen. Mittlerweile müssen die betroffenen Bundesämter zugeben, dass sie keine Ahnung haben, wie sie die Schweiz künftig mit Energie versorgen wollen. Die Chefbeamten ersetzen Strategie durch Hoffnung. Die Stromnot wird die Auslandabhängigkeit der Schweiz massiv erhöhen und damit ihre Erpressbarkeit.

Wohlstandsverblödet ist auch die Idee, dass die Schweiz eine anhaltende hohe Netto-Zuwanderung von über 70 000 Personen pro Jahr verkraften kann. In den letzten dreizehn Jahren kamen netto eine Million Menschen in die Schweiz. Wir haben eine höhere Pro-Kopf-Zuwanderung als die Vereinigten Staaten. Der Andrang hat die Erwerbslosenquote auf 4,9 Prozent hochschnellen lassen trotz Hochkonjunktur, während die Produktivität im gleichen Zeitraum sank.

Selbstüberschätzung und Übermut sind Rezepte für den Niedergang. Sicheres Indiz dafür ist etwa die Forderung nach Vaterschaftsurlaub und Elternzeit. Man müsste eine Statistik darüber führen, wie intensiv die Schweiz derzeit politisch darüber diskutiert, wie sich hier am schnellsten eine fremdfinanzierte Freizeitgesellschaft installieren lässt. Die Frage, wer den Kuchen macht, den alle schon vorher verteilen wollen, wird als unanständig zurückgewiesen.

Die Schweiz, lautet der Einwand, sei reich. Sie könne sich das leisten. Kann sie das? Die Freisinnigen kippten am letzten Wochenende in der Klimafrage um. Die Parteidelegierten verordneten dem Freisinn eine scharfe Öko-Wende mit Verboten, Abgaben, Steuern und staatlichen Interventionen. Es war gespenstisch, wie widerstandslos die FDP im Zuge des aktuellen Klimapopulismus zahlreiche ihrer Grundsätze einfach fallenliess.

Exemplarisch in ihrer zeitgeistverliebten Abgehobenheit war die Ansprache des Zürcher Ständerats Ruedi Noser. Nur in wohlstandsleichtsinnigen Zeiten kommen solche Sätze unwidersprochen durch, werden sie sogar beklatscht: «Die Schweiz kann es sich als reiches Land leisten, einen grösseren Effort für die Zukunft des Planeten zu leisten als andere.» Und weiter: «Wir sollten bis 2050 klimaneutral sein.»

Früher waren die Politiker zufrieden, wenn es der Schweiz einigermassen gutging. Heute muss es mindestens die Zukunft des Planeten sein. Es gibt nicht nur eine Inflation des Geldes. Es gibt auch eine inflationäre Aufblähung politischer Begriffe.

Der Klimawandel ist heute die billigste Folie, auf der man sich als Wohltäter aufspielen kann. Wer zu den Guten gehören will, gibt sich als Klimaschützer aus. Und wer zu den Guten gehört, darf alles behaupten, muss nichts mehr belegen. Das allgemein für gut Gehaltene genügt sich selbst.

Nehmen wir Noser beim Wort. Seine Freisinnigen wollen die Schweiz bis 2050 «klimaneutral» machen, also den Schweizer CO2-Ausstoss auf netto null absenken. Netto null heisst: Alles, was in der Schweiz nicht eingespart wird, muss im Ausland durch Geldzahlungen in einer Art Ablasshandel kompensiert werden.

Und wenn das Geld im Kasten klingt, die Seele in den Himmel springt.

Vermutlich wissen die Delegierten, die Noser applaudiert haben, gar nicht, worauf sie sich unseriöserweise eingelassen haben. Wer das menschengemachte CO2 abschaffen will, will die moderne Zivilisation abschaffen.

Ohne CO2 kann man keinen Zement herstellen, folglich keinen Beton, keine Gebäude und keine modernen Häuser oder Brücken bauen. Die Asphaltierung von Strassen setzt grosse Mengen an CO2 frei. Wer darauf verzichten möchte, muss zurück zu Feldwegen, Kopfsteinpflastern oder Steinplatten wie die alten Römer.

Ohne CO2-Ausstoss müssten wir auf Kunststoffe verzichten, auf Pharmaprodukte, darunter Aspirin. Stahlproduktion könnte man vergessen, also gäbe es auch keine Eisenbahnen mehr. Der Ausstieg aus dem menschengemachten CO2 würde die Energiekosten drastisch in die Höhe treiben, zahllose Industriebetriebe unprofitabel machen, Unternehmen aus der Schweiz vertreiben und Arbeitsplätze vernichten. Die erforderlichen Gebäudesanierungen, die von den Klimaschützern gefordert werden, dürften viele Rentner in den Ruin stürzen und die Mieten verteuern.

Die Forderung nach null CO2 bis 2050 ist noch verrückter als der Plan, ohne Ersatzlösung aus der Kernenergie auszusteigen. Dass solche Ideen überhaupt geäussert, ernsthaft aufgenommen und in Ansätzen sogar realisiert werden, ist nur durch das eingangs geschilderte Phänomen der Wohlstandsverblödung zu erklären.

Man fordert Dinge, die nicht durchdacht sind. Oder man meint nicht ernst, was man fordert. Politiker, die aus der kleinen Schweiz heraus den Planeten retten wollen, haben den Kontakt zur Wirklichkeit verloren. Oder wollen sie uns für dumm verkaufen?




PETITION  GEGEN EINE AUSRUFUNG DES  KLIMANOTSTANDES

Begründung:

Ein Klimanotstand impliziert eine menschlich verursachte Klimaveränderung. Die Temperaturerhöhung der letzten Jahre lässt sich so erklären: Seit dem Ende der kleinen Eiszeit 1850 ist die globale Temperatur je nach Klimazone um 1-2° gestiegen. Die Ursache dafür ist in drei  solaren Zyklen von jeweils   1003 Jahren, 463 Jahren und 188 Jahren zu finden. Die Gravitation der Planeten Jupiter und Saturn nehmen Einfluss auf die Sonnenaktivität. Diese drei Hauptzyklen bestimmen durch die solare Aktivität das Erdklima und nehmen Einfluss auf die Oszillation der Temperatur der Ozeane, die als Wärmespeicher mit Zeitverzögerung reagieren. Die derzeitige Erwärmung von bis zu 2° wird uns nicht erhalten bleiben. Denn die Temperaturkurve zeigt einen Sinusverlauf. Durch den solaren Zyklus von 188 Jahren lassen sich Schlüsse auf die zukünftige Temperaturentwicklung ziehen. Um das Jahr 2038 wird die Talsohle der Sinuskurve erreicht, d.h., die Temperaturen werden wieder sinken. Das dürfte bereits ab circa 2030/2035 zu spüren sein und bis 2070 anhalten.

 

Nach einem physikalischen Gesetz folgt der CO2 – Gehalt der Luft einer Temperaturerhöhung mit Zunahme, einer Temperaturerniedrigung mit Reduktion des CO2 – Gehaltes. Entsprechend gasen Ozeane mehr CO2 aus, wenn das Meerwasser wärmer wird.

Hier die Petitionsseiten an denen Sie die Petitionen zeichnen können

Damit ist die Behauptung der anthropogen verursachten CO2 – Klimakrise bei wissenschaftlicher Betrachtung nicht haltbar.

Einen weiteren Punkt möchte ich noch erwähnen. Deutschlands Anteil am CO2 -Ausstoß weltweit beträgt 2,13 %, der von Europa 10,21 %.

Die fossilen Brennstoffe haben einen Anteil von 10 % auf die Klimaerwärmung , das macht 0,1-0,2° aus.  2018 wurden 410 ppm  CO2  in der Luft gemessen, das ist noch ein optimaler Wert für Pflanzenwachstum. Pflanzen stehen am Anfang der Grundnahrungskette für Mensch und Tier und benötigen CO2 als essentielle Basis -Substanz bei der Assimilation und  Photosynthese zur Herstellung von Kohlenhydraten und Abgabe von Sauerstoff.

Daraus ergibt sich der logische Schluss, dass eine Decarbonisierung (d.h. CO2-Entnahme aus der Luft) verheerende Folgen durch  Inhibierung des Pflanzenwachstums hätte mit schlechten  Ernten und Hungersnöten.

Quellen:

WWW.  EIKE- Klima-Energie .eu. / 2019/06/22/warum-und-wie-ändert -sich-das-erdklima /

www. diekaltesonne.de

Karin Nagel  ( Studium Biologie und Chemie an der Ruhr -Uni Bochum, Abschluss Staatsexamen)

Taubenstr. 12

47443 Moers




Bald flächendeckende Stromausfälle in Mitteleuropa durch politisches Versagen?

Die gewaltigen Zusammenbrüche der elektrischen Energieversorgung in Argentinien, Uruguay, Brasilien, Chile und Paraguay sind auf Schlamperei zurückzuführen, da die Leitungen nicht gut gewartet wurden. Nun ist es der Natur aber gleichgültig, ob „nur“ geschlampt wurde, oder ob mehr oder weniger absichtlich falsche Richtungsentscheidungen getroffen wurden.

Tatsache ist, daß Deutschlands wackelige Stromversorgung mit einem Anteil von rund 40% an erneuerbaren/verteuerbaren Energien nur noch vom Ausland durchgehend aufrechterhalten wird. Hauptsächlich von den grenznahen französischen und tschechischen Kernkraftwerken, die alles andere als modern sind. Herrscht bei uns sogenannte Dunkelflaute (wenig Sonne, kaum Wind) wie am 24. Januar 2017, müssen die Kernkraftwerke unserer Nachbarn auf Maximum hochgefahren werden, damit der württembergisch-badischen Industrie nicht der Strom ausgeht und die Fabriken à la DDR Zwangspause einlegen müssen.

Vor kurzem entdeckte ich eine Meldung (Firefox sei Dank), daß auch die Franzosen mittlerweile gefährliche Schwächen im Netz haben. Wie der fachkundige EIKE-Leser weiß, wird die Qualität des Netzes durch die Kenngröße der Frequenz bestimmt. 50 Hertz sind normal; etwas weniger ist möglich, da unsere elektrischen Geräte eine wenn auch geringe Toleranz besitzen.

Wird die Toleranz unterschritten, bricht das Netz zusammen, und mehrere Regionen haben tagelang keinen Strom mehr. In Krankenhäusern hätte das fatale Folgen, weil die Notstromgeneratoren meist nicht viel länger als 48 Stunden durchhalten. Die Diesel-Lieferung während eines flächendeckenden Stromausfalles würde sich sehr schwer gestalten, da die Kraftstoffpumpen an Tankstellen und Großlagern Strom benötigen.

Explodierende Kriminalität und auf dem trockenen sitzende Polizeikräfte sind noch ein ganz anderes Thema.

Deutschland ist schon mehrfach am Zusammenbruch vorbeigeschrammt, was nur durch unsere zentrale Lage in Europa, unsere exzellenten Ingenieure und die gute Regelungstechnik verhindert werden konnte. Und im Januar hätte es sogar das Atomland Frankreich erwischt, wie die Energie-Regulierungskommission (CRE) knapp mitteilte. Der französische Zusammenbruch (der alle Nachbarn erwischen würde) konnte laut der Meldung nur verhindert werden, weil industrielle Großverbraucher die Anweisung erhielten, ihre Maschinen sofort herunterzufahren.

Wie kann ein Atomland Netzprobleme haben; das sind doch typische Probleme von „Energiewende“-Ländern wie Merkels Deutschland oder Australien? Nun, die französische Infrastruktur ist ähnlich wie die in Argentinien überaltert. Kohlekraftwerke werden gerne bestreikt; und im Winter heizen die Bürger ihre eher schlecht isolierten Häuser auch elektrisch. Und ab 2020 sollen besonders alte Kernkraftwerke in Elsaß-Lothringen abgeschaltet werden. Wenn man nun noch bedenkt, daß deutsche Politiker den Anteil erneuerbarer Energien weiter hochtreiben wollen, kann dem naturwissenschaftlich denken Leser nur angst und bange werden.




Experimen­telle Verifi­kation des Treibhaus­effektes 5. Mitteilung: Die IR-Strahlung der Spuren­gase

Eine Beurteilung der Strahlungsfähigkeit ist zunächst schwierig, da hier viele Parameter wie Konzentration, Temperatur, Hintergrund oder Anzahl der beteiligten Moleküle (Abb. 1) berücksichtigt werden müssen. Um dennoch die IR-aktiven Gase mit einer einzigen Kennziffer charakterisieren und bewerten zu können, wurde ein molarer Emissionsgrad εm eingeführt. Dabei wird die IR-Strahlungsdichte von 1 mol eines IR-Gases mit der eines Schwarzkörpers verglichen (Tab. 1). Setzt man den molaren Emissionsgrad εm von CO2 =1, erhält man den relativen Emissionsgrad εrel von IR-aktiven Gasen im Vergleich zum CO2.

Tatsächlich zeigt Lachgas mit einem relativen Emissionsgrad εrel von 1,26 eine etwas höhere Strahlungsfähigkeit als CO2, aber bei weitem nicht das angeblich 265-mal stärkere Treibhauspotential. Beim Methan bahnt sich sogar eine kleine Sensation an. Methan, angeblich 28-mal wirksamer als CO2, kommt nur auf 66 % der CO2-Strahlung. Ist das IPCC einer frechen Lüge überführt? Nein, soweit würde ich nicht gehen! M.E. wurde das IPCC mit einem klaren politischen Auftrag gegründet. Die Industriegesellschaft sollte als Verursacher eines angeblich gefährlichen „Global Warming“ angeprangert werden, wodurch Zielrichtung und Schuldfrage vorgegeben waren. Vor allem sollen Ängste geschürt werden, um Konsumverzicht und De-Industrialisierung zu rechtfertigen. In den folgenden Kapiteln wird nachgewiesen, dass der „Treibhauseffekt“ real aber relativ klein ist und IPCC mit fragwürdigen Methoden eine Klimahysterie entfacht, die einer sachlichen Prüfung nicht standhalten.

  1. Was sind Emissionsgrade und wie werden sie ermittelt?

Jeder (feste und flüssige) Körper, dessen Temperatur über dem absoluten Nullpunkt liegt, sendet Wärmestrahlung aus. Der Emissionsgrad eines Körpers (ε) gibt an, wie viel Strahlung er im Vergleich zu einem idealen Wärmestrahler, einem schwarzen Körper, abgibt.“ „Ein schwarzer Körper ist ein hypothetischer idealisierter Körper, der jegliche auf ihn treffende elektromagnetische Strahlung bei jeder Frequenz vollständig absorbiert (ε = 1).“ [3]

Oder mit einfachen Worten: Der Emissionsgrad charakterisiert die Fähigkeit eines Körpers, Wärmestrahlung zu erzeugen. Emissionsgradtabellen zeigen die Emissionsgrade ε von verschiedenen Stoffen im Bereich zwischen 0,02 bis 0,98 [4]. Dabei spielt die Oberfläche eine wesentliche Rolle. Sehr gute Strahler haben schwarze, raue Oberflächen und können Emissionsgrade ε nahe 1 erreichen, während weiße, glatte oder sogar polierte Oberflächen nur geringe Emissionsgrade nahe 0 haben.
Man unterscheidet verschiedene Emissionsgrade, die sich auch untereinander kombinieren lassen:

  • Gerichtet: Die Strahlung wird in eine bestimmte Richtung pro Raumwinkel abgestrahlt
  • Hemisphärisch: Der gesamte Halbraum wird pro Flächeneinheit bestrahlt
  • Spektral: Die Strahlungsleistung bei einer bestimmten Wellenlänge
  • Gesamt: Die Strahlungsleistung aller verfügbaren Wellenlängen

Dabei gilt: „Nach dem kirchhoffschen Strahlungsgesetz ist für jeden Körper der gerichtete spektrale Emissionsgrad gleich dem gerichteten spektralen Absorptionsgrad.“ [3]

Bei den Gasen können nur bestimmte, die sogenannten IR-aktiven Gase, Wärmestrahlung (IR-Licht) absorbieren oder emittieren.

Gase absorbieren und emittieren elektromagnetische Strahlung, anders als andere Aggregatzustände von Materie: bei Gasen sind diese Effekte abhängig von der Wellenlänge λ der Strahlung („Strahlungsband“)… Das Strahlungsverhalten des Gasgemisches Luft ist nicht trivial zu bestimmen…und es kann auch kein gemittelter Emissionsgrad angegeben werden.“ [5]

Anders als bei Festkörpern und Flüssigkeiten ist der Emissionsgrad der IR-Gase keine Eigenschaft einer Oberfläche, sondern die eines Volumens. Dabei sind alle IR-aktiven Gasmoleküle, die sich in einem Luftpaket befinden, in einer bestimmten Art und Weise beteiligt. Dadurch sind die Emissionsgrade der Gase auch keine Konstanten, sondern von der Anzahl der beteiligten IR-aktiven Gasmoleküle abhänge Variablen (Abb. 1). Um dennoch die Strahlungsfähigkeit IR-aktiver Gase miteinander vergleichen zu können, habe ich einen molaren Emissionsgrad εm definiert. Es ist der Vergleich der IR-Strahlung von einem 1 mol (6,022 * 1023 Moleküle; Avogadro-Konstante) eines IR-aktiven Gases in einem Luftpaket mit der Strahlung eines Schwarzstrahlers. Da die IR-aktiven Gase als Linienstrahler nur ausgewählte Wellenlängen emittieren, sind ihre molaren Emissionsgrade εm deutlich kleiner als 1.
Weiter ist festzustellen, dass die IR-inaktiven Atmosphärengase, Stickstoff und Sauerstoff, Wärmestrahlung praktisch nicht streuen und auch nicht absorbieren. Die bekannte Streuung des Sonnenlichtes an den Luftmolekülen unserer Atmosphäre ist nur für das sichtbare, kurzwellige Licht relevant:
Der Streuquerschnitt σ der Rayleigh-Streuung ist proportional zur vierten Potenz der Frequenz der elektromagnetischen Welle…. Die frequenzabhängig unterschiedlich starke Streuung von Sonnenlicht an den Teilchen der Erdatmosphäre bewirkt das Himmelsblau am Tag, und die Morgenröte wie die Abendröte während der Dämmerung“. [6]
Ohne IR-aktive Gase (und ohne Aerosole) könnten Wärmestrahlen die Erd-Atmosphäre ungehindert passieren. Ein kleiner molarer Emissionsgrad εm bedeutet somit eine hohe Transparenz und ist der Grund, dass bei einer Strahlungsmessung IR-Gase und Hintergrund immer gemeinsam gemessen werden.

Zur Messung der Emissionsgrade wird die gleiche Apparatur (Abb. 2) und Prozedur verwendet, die bereits für die Messung der CO2-Strahlung vorgestellt wurde [7]. Im Wesentlichen geht es dabei um Wärmeübertragung von parallelen, geschwärzten Oberflächen für E = 1 (wenn ε1, ε2 = 1) mittels IR-Strahlung für die Josef Stefan Gl. 1 vorgeschlagen hatte [8].

E (Strahlungsaustauschgrad) ist hier der griechische Großbuchstabe Epsilon. Bitte nicht verwechseln mit E = Bestrahlungsstärke: „Die Bestrahlungsstärke E (engl.: irradiance, radiant flux density; auch Strahlungsstromdichte) ist der Begriff für die gesamte Leistung der eingehenden elektromagnetischen Energie, die auf eine Oberfläche trifft, bezogen auf die Größe der Fläche.“
Die Stefan Gleichung wurde experimentell abgeleitet und ist der Vorläufer des berühmten Stefan-Boltzmann-Gesetzes. Gl. 1 ist die theoretische Grundlage für den erdnahen „Treibhauseffekt“. Sie sagt aus, dass ein Körper nur dann Energie (Wärme) durch Strahlung
abgibt, wenn T1 > T2 ist. Das bedeutet, dass auch beim Strahlungstransport die Energie immer von „warm nach kalt“ übertragen wird. Ein Widerspruch zum II. Hauptsatzes der Thermodynamik liegt somit nicht vor. Der Begriff „Treibhauseffekt“ leitet sich von der ursprünglichen aber falschen Vorstellung ab, dass die unterschiedliche Durchlässigkeit von Glas für Sonnen- und Wärmestrahlen die Erwärmung eines Gewächshauses verursacht. Ich verwende diesen (irreführenden) Begriff im Sinne von Gl. 1 & 2 weil er sich eingebürgert hat.
Die durch IR-Strahlung übertragbare netto Strahlungsleistung P (Power) ist demnach nicht nur von der Temperatur der warmen Erd-Platte TE, sondern auch von der Temperatur der kalten Aerosol-Platte TA abhängig. Die IR-Strahlung der kalten Platte vermindert die Wärmeübertragung P (wenn TA > 0)und kann auch als Gegenstrahlung (eigentliche Ursache des erdnaher Treibhauseffektes) bezeichnet werden.
Diese harmlos klingende These ist eine fundamentale Kritik der Klimahysterie. Die Aerosol-Platte simuliert die Strahlungen von Wolken/Aerosolen. Auch ohne Treibhausgase würden Wolken/Aerosole einen Basis-Treibhauseffekt erzeugen. Die Wirkung der Treibhausgase ist letztlich nur eine geringe Verstärkung dieser allgegenwärtigen Hintergrundstrahlung.

Die elektrische Heizung der Erd-Platte (Wärmestromdichte Q/m2; im Folgenden nur als Heizung QE bezeichnet) und der Strahlungsverlust P sind gleich groß, da der warmen Erd-Platte genauso viel Energie (pro Zeiteinheit) zugeführt werden muss wie sie durch Strahlung verliert. Mechanische Wärmeströme werden durch die Konstruktion der Apparatur minimiert (Abb. 2) bzw. gehen als eine konstante Störung in einen Startwert ein.
Befindet sich zwischen Erd- und Aerosol-Platte ein IR-aktives Gas, kommt zur Gegenstrahlung der kalten Platte noch die Gegenstrahlung des IR-Gases hinzu. In der 3. Mitteilung wurde experimentell nachgewiesen, dass sich die Erd-Platte erwärmt, wenn bei konstanter Heizung QE IR-Gase zugesetzt werden [9]. Um die Strahlung der IR-Gase zu quantifizieren, wird nun nach jeder IR-Gas-Zugabe die Heizung QE für eine konstante Erd-Platten-Temperatur verringert. Aus den Veränderungen der Heizung QE werden die Emissionsgrade der IR-aktiven Gase berechnet. Allerdings muss zuvor noch die Strahlung der Seitenwand ermittelt werden, da sie die Wärmeübertragung beeinflusst. Hierzu wird vor Zugabe der IR-Gase die Heizung QE(0) als ein Startwert festgestellt und hieraus der Emissionsgrad der Seitenwand abgeleitet. Details zu diesen Rechnungen und Ableitungen sind in der 4. Mitteilung [7] ausführlich beschrieben, und eine Schritt für Schritt Anleitung befindet sich in Kap. 4. Der Treibhauseffekt der IR-Gase EGas(n) lässt sich für die Laborapparatur nach Gl. 2 berechnen. Dabei beschreibt EGas(n) die Bestrahlungsstärke der Erd-Platte in W/m2 durch ein IR-Gas mit der Vordergrund-Temperatur TV, der Hintergrund-Temperatur der Aerosol-Platte TH (beide in Kelvin) und einer Molmenge n (Anzahl der Mole).

εGas(n) sind die Emissionsgrade der unterschiedlichen IR-Gase, die nur noch von der Molmenge n abhängen (Abb. 1). Wird die Hintergrundstrahlung ignoriert (TH = 0), lässt sich mit Gl. 2 die theoretische Strahlung eines IR-aktiven Gases berechnen und bei TV = TH wird der Treibhauseffekt null.
Die Rechnungen beziehen sich auf die absolute Zahl der IR-Gas-Moleküle in einem wasserdampffreien Luftvolumen beliebiger Größe. Dabei wird vorausgesetzt, dass tatsächlich alle IR-Moleküle einen Beitrag zur Gegenstrahlung leisten. Bei sehr starken IR-Strahlern wie Freone/SF6 oder sehr langen Apparaturen könnte das problematisch sein, da hier schon nach einer gewissen Ausbreitungsstrecke (Volumentiefe) Sättigung eintritt. In diesen Fällen muss IR-Gas-Konzentration verringert werden.

In der Atmosphäre wird die Hintergrundstrahlung durch Wolken/Aerosole verursacht, wobei TH ihre Strahlungstemperatur ist. Da IR-Gase in der Regel eine höhere Temperatur als Wolken/Aerosole haben, führt ihre Anwesenheit zu einer Erhöhung der Gegenstrahlung (Gl. 2). Aber ob und wie sich dabei die Erd-Temperatur TE verändert ist eine ganz andere Frage, die von den örtlichen Gegebenheiten abhängt:
Bei einer warmen, trockenen Oberfläche (z.B. in einer Trockenwüste) würde CO2, besonders bei klarem Himmel, einen Anstieg der Erd-Temperatur TE verursachen, wie auch die Labor-Experimente gezeigt haben [9].
Wird auch die Luft durch den CO2-Treibhauseffekt erwärmt? Diese Frage ist nicht leicht zu beantworten und ist Gegenstand meiner aktuellen Untersuchungen. Wäre die CO2-Schicht sehr dünn und mittig in der Atmosphäre würde sich ihre Temperatur nicht ändern, denn die Schicht verliert Wärme (durch die CO2-Strahlung) aber gewinnt auch Wärme (durch die zusätzliche IR-Strahlung der erwärmten Erde). Der Treibhauseffekt würde unter solchen Bedingungen nur eine Erwärmung der Erde, aber nicht die der Luft bewirken! Nun ist CO2 aber keine dünne Schicht, sondern in der gesamten Atmosphäre vorhanden und zwar als ein Vermittler zwischen warmen und kalten Strahlern. Die Folge ist ein auf Strahlungsaustausch beruhender Temperatur-Gradient, wobei auf der warmen Seite (Erdnähe) die Temperatur ansteigt, auf der kalten Seite (Stratosphäre) aber sinkt. Letzteres ist m.E. im Bereich der CO2-Wellenlängen von Wettersatelliten (den sogenannten Ausstrahlungstrichtern bei den IR-Emissions-Spektren) bereits nachgewiesen. Bei der erdnahen Atmosphäre sollte sich der Gradient jedoch nicht bemerkbar machen, da hier die Temperaturen hauptsächlich von mechanischen Wärmeströmen, Luftdruck und Luftströmungen bestimmt werden.

Feuchtgebiete, Wälder oder Wasseroberflächen (⅔ der Erdoberfläche!) können auf die zusätzliche CO2-Strahlung mit verstärkter Verdunstung von Wasser reagieren und dadurch den Temperaturanstieg TE dämpfen. In diesen Fällen würde sich der Strahlungstransport P gemäß Gl. 1 verringern. Vermehrte Verdunstungswärme und Konvektion feuchter Luft könnten allerdings das Defizit ausgleichen. Dafür spricht, dass 60 % der Erdoberflächenwärme durch Evapotranspiration und nur 40 % durch Strahlung an die Atmosphäre abgeführt werden [10]. Sollte die zusätzliche Wasser-Verdunstung zu einem größeren Wolkenbedeckungsgrad führen, würde CO2 paradoxerweise sogar zu einer globalen Abkühlung wegen Zunahme der Wolkenalbedo beitragen (negative CO2-Wolken-Rückkopplung)!
In der kalten Antarktis, wo Luftschichten in großer Höhe wärmer als der Boden sein können, verursacht CO2, wie Satelliten festgestellt haben, eine Verstärkung der IR-Ausstrahlung an das Weltall, was zur Abkühlung des Südpols beiträgt.
Viele dieser angesprochenen Mechanismen scheinen mir z.Z. noch nicht ausreichend verstanden und untersucht. Angesichts dieser Komplexität bewerte ich die IR-Gase nur auf der Basis ihrer unbestreitbaren, messbaren IR-Strahlungen (in W/m2) und überlasse es zukünftigen Untersuchungen, hieraus eine Klimasensitivität (Temperaturanstieg in °C) abzuleiten.
Die Klimahysterie der Alarmisten beruht auf der Annahme, dass sich die Welt in einem sensiblen Gleichgewicht befindet, das durch kleinste Störungen unwiderruflich in eine Katastrophe mündet. Es zeigt sich jedoch, dass Systeme in Natur und Technik immer dann stabil und robust sind, wenn zu jeder Steuergröße ein Gegenspieler vorhanden ist (Sympathikus/Parasympathikus, Insulin/Glucagon, positive/negative Rückkopplung), wodurch ein Regelkreis entsteht. Schnelle und langfristige Regelkreise sollten auch auf der Erde existieren. Sie könnten eigenständig agieren oder sich mit planetaren Ursachen für Klimaschwankungen wie z.B. den Milankovitch‐Zyklen [11] überlagern. So ist auch ein langfristiger Wolkeneffekt als Antagonist zur Eisalbedo denkbar:
Bei einer Eiszeit verringern sich Wasserverdunstung und Aerosol-Konzentration (
Wasserdampf-Kondensationskeime!) durch Vereisung von Wasseroberflächen und durch Eis-Ablagerung auf den Kontinenten. Die Folge sollte ein Rückgang der Wolkenschicht und eine zunehmend größere Sonnenbestrahlung der Erdoberfläche sein, wodurch der Eispanzer langsam wieder auftauen kann. Bei einer Warmzeit ist es genau umgekehrt. Durch die Zunahme der Wolken wird die Sonnenstrahlung stärker reflektiert und verhindert eine extreme Erwärmung. Es wäre wünschenswert, wenn Klimatologen nach solchen oder ähnlichen Regelkreisen suchen würden, die erklären, warum sich die Erd-Temperatur, trotz erheblicher Schwankungen, immer wieder „normalisiert“ hat, was einem sensiblen Gleichgewicht widerspricht und auf ein robustes Klima-System hinweist.

Die Strahlung der IR-Gase ist in allen Richtungen gleich groß. Deswegen wird nicht nur die Gegen- sondern auch die Ausstrahlung (in Richtung Aerosol-Platte) von den IR-Gasen beeinflusst. Tatsächlich ließ sich eine Zunahme der Ausstrahlung experimentell nachweisen (Kap. 4). Hierzu wurde die Thermoelektrizität Pt von Peltier-Elemente gemessen, die sich auf der Aerosol-Platte befinden(Abb. 2). Allerdings ist dieser Effekt nicht so eindeutig wie die Gegenstrahlung, die mit der Heizung QE nachgewiesen wird. In der Umgebung der Aerosol-Platte gibt es (anders als bei der Erd-Platte) einen großen Temperatur-Gradienten von 30 K zwischen Tp4 und TA, wodurch die Peltier-Elemente auch durch die Wärmeleitung der Gasphase beeinflusst werden. Für die These einer zusätzlichen IR-Strahlung durch IR-Gase spricht, dass bei allen Versuchen eine Zunahme der Pt-Spannung beobachtet wird. Das ist insofern bemerkenswert, da nur Methan eine höhere, die anderen IR-Gase aber eine kleinere spezifische Wärmeleitung als Luft haben, was hier eine Abnahme der Pt-Spannung verursachen müsste.
Eine Übertragung dieses Ausstrahlungs-Effektes auf die Erd-Atmosphäre ist nicht zulässig. Die Erd-Platte hat im Experiment (anders als die Erdoberfläche) nur einen kleinen Einfluss auf die Ausstrahlung.
Nach Gl. 2 verursachen IR-Gase einen Treibhauseffekt (Zunahme der Gegenstrahlung), wenn ihre Temperatur TV höher als die des Hintergrundes TH ist. Diese Aussage ist nur gültig, wenn sich beide Strahlungsquellen auf die gleiche Strahlungsfläche beziehen. Für die Gegenstrahlung trifft das zu, da Aerosol-Platte und Gasphase den gleichen Querschnitt haben und die Erd-Platte nur ein Sensor für die Gegenstrahlung ist. Im Falle der Ausstrahlung ist die Erd-Platte aber Strahlungsquelle, wobei Erd-Platte und Gasphase (fast) die gleiche Temperatur haben und der Ausstrahlungseffekt null sein sollte. Da die Gasphase aber eine größere Strahlungsfläche als die Erd-Platte hat, kommt es zu einer Zunahme der Ausstrahlung nach Zugabe von IR-Gasen.

  1. Emissionsgrade der atmosphärischen Spurengase

Abbildung 3 zeigt die Emissionsgrade εGas(n) von Methan, CO2 und Lachgas im Molmengenbereich n von 0 bis 1 mol. Die Beziehung zwischen Emissionsgrad εGas und Molmenge n hat keinen einheitlichen Verlauf. Bei sehr kleinen Molmengen wird ein steiler, linearer Anstieg registriert, der bei größeren Mengen in eine logarithmische Progression übergeht. Bei noch größeren Molmengen tritt zusätzlich noch ein Konzentrationseffekt auf. Dieses komplexe Verhalten führt dazu, dass mit drei verschiedenen Formeln Y1, Y2 und Y3 die Beziehung zwischen Emissionsgrad εGas(n) und Molmenge n beschrieben werden. Zur besseren Übersicht werden die 3 Progressionskurven in den Farben Blau, Rot und Grün gezeichnet.

Formel Y1, der blaue Bereich bis 0,12 mol: Schon geringe Änderung der Molmenge führen zu einem starken, linearen Anstieg des Emissionsgrades εGas(n). Es wird vermutet, dass hier die IR-Strahlung hauptsächlich von der zentralen Vibrationsbande der IR-Gase, dem sogenannten Q-Zweig verursacht wird (Abb. 4). Da es sich um eine sehr starke Bande handelt, führt die Erhöhung der Molmenge schnell zu einer Sättigung [12].
Formel Y2, der rote Bereich bis 0,5 mol: Die weitere Zunahme der Emissionsgrade εGas(n) kann nur noch durch die wesentlich kleineren Rotationsbanden, den R- (abnehmend) und P-(zunehmend) Zweigen (branch), erfolgen (Abb. 4). Der rote Bereich und sein weiterer, theoretischer Verlauf gemäß Formel Y2 (schwarze Linie bis 1,0 mol) charakterisiert die maximal mögliche Strahlung der atmosphärischen Spurengase bei hohen Molmengen. Y2 ist somit die Rechenbasis für die CO2-Strahlungen. Auch die molaren Emissionsgrade εm für n = 1 mol werden mit Y2 berechnet (Tab. 1). Danach ist Methan ein deutlich schwächerer IR-Strahler als CO2.
Formel Y3, der grüne Bereich oberhalb von 1 Vol.-%: Ab einer Konzentration von 1 Vol.-% tritt ein sprunghafter Anstieg der Emissionsgrade εGas(n) auf, der die logarithmische Progression zu höheren Werten verschiebt. Dieser Konzentrations-Effekt wird auch in der IR-Spektroskopie beobachtet und wird dort als Bandenverbreiterung bezeichnet [13], [7]. Für die Beurteilung des atmosphärischen Treibhauseffektes spielt die Bandenverbreiterung keine Rolle, da die Atmosphären-Konzentrationen von Methan, CO2 und Lachgas viel kleiner als 1 Vol.-% (10.000 ppm) sind. Werden jedoch bei Labormessungen die IR-Gase bei Konzentrationen > 1 Vol.-% untersucht, werden unrealistisch hohe Werte erhalten, die nicht die Atmosphäre widerspiegeln, was (auch bei der Auswertung von HITRAN-Spektren) zu beachten ist.

Wasserdampf kann aus physikalischen Gründen (Gefrierpunkt = 0 °C) mit der Apparatur nicht untersucht werden. In der Atmosphäre führt Wasserdampf aufgrund seiner vielen Absorptionslinien und seiner sehr großen Menge (bis zu 100-mal größer als CO2) zu einem weiteren Wirkungsverlust der Spurengase. Eine 1:1 Übertragung der Labor-Experimente ist deshalb bestenfalls auf Trockenwüsten zulässig. Hierzu könnte man einwenden, dass mit der Apparatur nur die Emissionsgrade εGas(n) der IR-aktiven Gase ermitteln werden und eine Übertragung auf die Atmosphäre unzulässig ist. M.E. sollte es aber grundsätzlich möglich sein, aus diesen Laborergebnissen gewisse Rückschlüsse zu ziehen. Der Strahlungstransport P in der erdnahen Atmosphäre unterliegt den gleichen physikalischen Gesetzen von Vorder- und Hintergrundstrahlung und die Apparatur modelliert diese Mechanismen in einem bestimmten Maßstab (Kap. 3). Allerdings muss man sich auch den Einschränkungen bewusst sein, die beim Klima der Erde eine Rolle spielen, wie beispielsweise der erdferne Treibhauseffekt, der Druckgradient der Atmosphäre, die Erdrotation oder die bereits erwähnte Evapotranspiration, die von der Apparatur nicht nachgebildet werden.

  1. Emissionsgrade der gesättigten Kohlenwasserstoffe

Da mir für die vorherigen Untersuchungen kein reines Methan zur Verfügung stand, wurde an seiner Stelle Erdgas eingesetzt. Der Gasversorger gibt im Sicherheitsdatenblatt einen Methangehalt von 80-99 % und als mögliche Verunreinigungen Ethan (0-12 %) und Propan (0-4 %) an. Man könnte nun argumentieren, dass der geringe molare Methan-Emissionsgrad εm möglicherweise durch die Verunreinigungen im Erdgas verursacht wird. Um diesem Einwand nachzugehen, wurden neben Methan auch noch Propan und nButan untersucht (Abb. 5). Diese drei Substanzen gehören derselben chemischen Familie, den Alkanen, an. Sie sind homologe Verbindungen, die sich nur durch weitere CH2-Gruppen unterscheiden und deshalb bei den Emissionsgraden εGas(n) einen Trend ergeben sollten.
Die gemessenen Emissionsgrade εGas(n) der drei Alkane zeigen erneut eine doppelte Abhängigkeit sowohl von der Molmenge n als auch von der Konzentration (Y1: Blau, Y2: Rot und Y3: Grün). Auffällig ist eine Verlängerung des blauen, linearen Y1-Bereiches, von 0,12 auf 0,23 mol. Eine größere Anzahl von Vibrationsschwingungen im Q-Zweig könnte hierfür die Ursache sein.
Die molaren Emissionsgrade εm wurden mit der Y2-Formel für n = 1 mol berechnet. Trägt man die εm Werte über die Anzahl der C-Atome auf, zeigt sich, dass die Strahlungsfähigkeit der Alkane von ihrer Kettenlänge abhängig ist: εm = 0,0367 ∙ ln(x)+0,0291 (x = Anzahl der C-Atome) (Abb. 6). Mit dieser Formel lässt sich auch der molare Emissionsgrad für das fehlende Ethan berechnen. Die Kurve zeigt eine logarithmische Progression, die Methan als den Strahler mit dem kleinesten molaren Emissionsgrad εm ausweist. Wenn also Erdgas mit Ethan/Propan verunreinigt sein sollte, wäre dadurch der molare Emissionsgrad εm des reinen Methans sogar noch etwas kleiner als 0,029.

  1. Treibhauspotential – eine Mogelpackung?

Wikipedia: „Das (relative) Treibhauspotential (englisch: greenhouse warming potential, GWP) oder CO2-Äquivalent einer chemischen Verbindung ist eine Maßzahl für ihren relativen Beitrag zum Treibhauseffekt, also ihre mittlere Erwärmungswirkung der Erdatmosphäre über einen bestimmten Zeitraum (in der Regel 100 Jahre). Sie gibt damit an, wie viel eine bestimmte Masse eines Treibhausgases im Vergleich zur gleichen Menge CO2 zur globalen Erwärmung beiträgt. Beispielsweise beträgt das CO2-Äquivalent für Methan bei einem Zeithorizont von 100 Jahren 28: Das bedeutet, dass ein Kilogramm Methan innerhalb der ersten 100 Jahre nach der Freisetzung 28-mal so stark zum Treibhauseffekt beiträgt wie ein Kilogramm CO2. Bei Distickstoffmonoxid beträgt dieser Wert 265“ [14].
Wie bitte? Hatten wir nicht gerade die geringere Strahlungsfähigkeit des Methans im Vergleich zum CO2 festgestellt? Hat IPCC getrickst? Ja eindeutig! Das Treibhauspotential ist ein typisches Beispiel für einen Apfel- und Birnenvergleich. Zunächst zur Masseneinheit Kilogramm. Die IR-Strahlung eines Gases leitet sich nun mal von der der Molmenge (mol) und nicht vom Kilogramm ab. Ein Kilogramm CO2 (1000/44,01) entsprechen 22,7 mol CO2, während 1 kg Methan (1000/16,04) 62,3 mol sind, also 2,7-mal mehr als beim CO2. Das ist allerdings nur ein kleiner Trick, der auch nur beim Methan richtig funktioniert. Der eigentliche Trick ist, dass die Emissionsgrade εGas(n) Variablen sind, die extrem von ihren Molmengen n abhängen, wie in allen gezeigten Grafiken zu sehen ist. Das atmosphärische CO2 beendet bereits bei rund 100 ppm den steilen Y1 Anstieg und folgt nun einer flachen logarithmischen Weiterentwicklung im „roten“ Y2-Bereich [15]. Demgegenüber verbleiben Methan (1,8 ppm) und Lachgas (0,3 ppm) im „blauen“ Y1 Bereich, mit relativ großen Strahlungszunahmen bei geringen Mol-Änderungen. Die Strahlungen der Spurengasen folgen also völlig unterschiedlichen Gesetzen (Y1 vs. Y2). Ein Apfel- und Birnen- Vergleich ist nicht Wissenschaft, sondern Populismus und Panikmache wie folgende Überschlagsrechnungen zeigen.

Der für die Strahlung maßgebliche Emissionsgrad εGas(n) hängt von der Anzahl der IR-Gas-Moleküle n unter einer Wolkenschicht ab und ist bei Methan/Lachgas sehr viel kleiner als beim CO2. Tab. 4 zeigt die Strahlungsanstieg von Methan, Lachgas und CO2 von 1750 bis 2018.
Die Berechnung der atmosphärischen CO2-Strahlung wurde bereits in der 4. Mitteilung vorgestellt [7]. Es stellte sich heraus, dass Luftschichten oberhalb von 1.000 m den CO2-Treibhauseffekt nicht mehr erhöhen. Diese Grenze wurde nun aus Vergleichsgründen für alle Spurengase zugrunde gelegt. Die Rechnungen erfolgen in drei Schritten:
Im ersten Schritt wird die Molmenge n aus der IR-Gas-Konzentration errechnet wie in Kap. 4 angegeben. Aus der Molmenge n werden die Emissionsgarde
εGas(n) gemäß Tab. 3 ermittelt. Dabei werden für Methan und Lachgas die Y1-Formeln und für CO2, wegen seinen hohen Konzentration, die Y2-Formel verwendet. Mit Gl. 2 wird dann die Gegenstrahlung EGas(n) der einzelnen Spurengase berechnet.
Diese Rechnungen sind aus verschiedenen Gründen nur grobe Näherungen: So wurde die Hintergrund-Temperatur TH der Wolken/Aerosole nur geschätzt, für die Vordergrund-Temperatur TV Durchschnittswerte verwendet und die Wasserdampf-Strahlung nicht berücksichtigt. Die gefundenen Strahlungswerte EGas(n) können somit nach oben oder unten von den tatsächlichen Werten abweichen. Dennoch wurden mit diesen sehr einfachen Rechnungen erstaunliche gute Übereinstimmungen mit Strahlungstransfer-Rechnungen erzielt, die H. Harde [16] mit modifizierten Schwarzschild-Gleichungen durchgeführt hatte und die zu folgenden Kernaussagen führten:
„Kontinuierliche Prozesse wandeln in der Atmosphäre Wärme in Strahlung und Strahlung in Wärme um.
CO2 allein könnte 24,1 % der IR-Strahlung der Erde absorbieren. In Gegenwart anderer IR-Gase, hauptsächlich Wasserdampf, verringert sich dieser Wert auf 4,6 %. Die zentrale CO2-Absorptionsbande ist bereits nach 1 m Ausbreitungslänge gesättigt und eine weitere Absorptionszunahme durch R- und P-Seitenbänder endet bei rund 1 km. Bei klarem Himmel würde eine Verdopplung von CO2 die Gesamtabsorption um 1,2 % erhöhen, aber unter Wolken wird der CO2-Beitrag unter 1 % gesenkt.“
Eine weitere Übereinstimmung findet sich in einer vereinfachten IPCC-Formel, die für
CO2 (400 ppm) eine Strahlungsdichte von 32,1 W/m2 errechnet. Dieser Wert stimmt sehr gut mit 30,7 W/m2 überein, wenn die CO2-Strahlung nach Gl. 2 ohne Hintergrundstrahlung (TH = 0) ermittelt wird [7].
Die guten Übereinstimmungen sind eine gegenseitige Bestätigung von theoretischen Berechnungen und experimentell gefunden Werten und sie erhärten den Verdacht, dass das IPCC von zu großen
CO2-Strahlungswerten ausgeht und die Wirkungen von Wasserdampf und Wolken/Aerosole vernachlässigt.

Beim Lachgas (N2O) lässt sich kaum eine Veränderung von EN2O(n) ablesen, womit sich eine weitere Diskussion erübrigt. Die Methanstrahlung ECH4 erhöhte sich um 0,40 W/m2 (Faktor 2,3), während die CO2-Strahlung ECO2 um 0,55 W/m2 (Faktor 1,07) zunahm. Mit dem Trick der leichten Vervielfachung kleiner Zahlen lässt sich jetzt trefflich ein hohes Methan-Treibhauspotential postulieren. Geht man aber zu den absoluten Zahlen über, erzeugen Methan und Lachgas zusammen 1 W/m2, das ist nur ein Bruchteil der CO2-Strahlung von 9,5 W/m2. Und wenn man jetzt noch die gesamte atmosphärische Gegenstrahlung von 333 W/m2 [10] zugrunde legt, ist die Summe aller drei Spurengase mit rund 11 W/m2 nur ein Zwerg innerhalb der erdnahen IR-Strahlungen. Da sollte schon die Frage erlaubt sein, welchen Einfluss die restlichen 322 W/m2 haben, die durch Wolken, Wasserdampf und Aerosole verursacht werden und wie sich ihr Anteil seit 1750 entwickelt hat?

Nun gut, Kleinvieh macht auch Mist, und so könnte der CO2-Anstieg sogar ein Glücksfall für die Menschheit sein. Eiszeiten sind unvermeidlich und die nächste sogar überfällig. Bei der letzten Vereisung sank die CO2-Konzentration auf 180 ppm, nur 30 ppm von Ernährungsnot bzw. Erstickungstod der Pflanzenwelt entfernt und das wäre dann wirklich das Ende, wenn man P. Moore und J. Lovelock glauben mag [17]:
„Vor 140 Millionen Jahren hatte die Erde noch eine
CO2-Konzentration von 2.500 ppm. Offensichtlich war diese Konzentration kein Nachteil und erst recht keine Katastrophe, denn es gab eine üppige Flora und die größten jemals auf der Erde lebenden Landtieren. Seitdem hat sich die CO2-Konzentration kontinuierlich verringert, hauptsächlich durch die Bildung von Kalkstein und Kreide (CaCO3) und hat vor 18.000 Jahren das o.g. Minimum erreicht. Anschließend haben Erd-Erwärmung und industrielle Revolution die CO2-Konzentration wieder auf 400 ppm erhöht. So können sich die Pflanzen heute über 850 Gt Kohlenstoff in der Atmosphäre freuen, aber die ferne Zukunft ist düster. Planktonische Muscheln, Korallen und Schalentiere wandeln zwar langsam aber unaufhörlich CO2 in CaCO3 um, ein Nettoverlust von 14.000 Gt Kohlenstoff in den letzten 550 Millionen Jahren. Wie lässt sich dieser lebensgefährdende Trend aufhalten? Vulkanismus als wichtigste CO2-Quelle in der Vergangenheit verliert zunehmend an Bedeutung und die fossilen Brennstoffe sind nun mal endlich. Langfristig wäre demnach CO2-Mangel und nicht der geringe CO2-Treibhauseffekt eine Bedrohung. So gesehen sind Energiewende und ‚Fridays For Future‘ der falsche Weg“.

Und was passiert mit dem Methan in der Atmosphäre? Nun es wird unter dem Einfluss von Sonnenlicht und Sauerstoff zu CO2 oxidiert und hat nach Wikipedia eine sehr kurze Verweildauer von 9–15 Jahren [1]. Ich kann nicht beurteilen, ob diese Angabe korrekt ist oder genauso falsch wie die CO2-Verweildauer, die vom IPCC mit 50-200 Jahren angegeben wird (oder sogar tausendende von Jahren nach S. Solomon) [18]. Die CO2-Verweildauer leitet sich von einem dynamischen System, dem Kohlenstoffzyklus ab. Dabei sind die Geschwindigkeiten der CO2-Freisetzung (Emission) und der CO2-Senkung (Absorption) die entscheidenden Kriterien. Die Verweildauer ist ein zentraler Punkt der Klimahysterie und soll vor Beginn der industriellen Entwicklung 3 Jahre betragen haben. In dieser Zeit sollen Emissions- und Absorptions-Geschwindigkeit gleich groß gewesen sein. Es wird nun angenommen, dass der CO2-Anstieg seit 1750 fast ausschließlich anthropogenen Ursprungs sei und die Senkung dieses zusätzlichen CO2 viel langsamer verläuft als im sogenannten natürlichen Kreislauf. H. Harde widerspricht der Hypothese der ungleichen Geschwindigkeiten und geht von einem leichten Anstieg der Verweildauer (4 Jahre) aus [19]. Seine Thesen und nachvollziehbaren Rechnungen stützen sich auf der Annahme, dass nicht der Mensch sondern die Erd-Temperatur die Geschwindigkeit beider Prozesse, Emission und Absorption, mit nur leicht unterschiedlichen Koeffizienten beeinflusst. Und auch der anthropogene Anteil an der CO2-Erhöhung ist mit 15 % (17 ppm von 113 ppm seit 1750) deutlich geringer als vom IPCC angenommen.

Die angeblich lange IPCC-CO2-Verweildauer ist allerdings ein Eigentor, denn dadurch ist die Methan-Verweildauer von nur 9-15 Jahren kein zusätzliches Argument für eine Klimagefährdung durch Methan.

  1. Experimentelle Daten

Vor Durchführung eines Experimentes wird die Innenluft der Apparatur 24 Stunden über feste Natronlauge mit einer Geschwindigkeit von 1 l/min zur Entfernung von Wasserdampf und CO2 geleitet. Aus Sicherheitsgründen (Erhöhen der unteren Explosionsgrenze) wird im Falle von Propan und nButan der Sauerstoffgehalt durch Zumischung von 30 % Argon auf rund 14 % gesenkt. Nach jeder Zugabe eines IR-aktiven Gases wird die Spannung für die Heizfolie unter der Erd-Platte (Abb. 2) solange verringert, bis die Start-Temperatur der Erd-Platte von 16,09 °C gerade wieder erreicht ist. Da das System von Heizung und Temperatur-Messung eine gewisse Trägheit besitzt, wird das Mittel von zwei Messungen im Abstand von 0,01 bis 0,02 Volt gebildet, die beide 16,09 °C ergeben. Die Versuche wurden 2 bis 5-mal wiederholt und als Durchschnitt ausgewertet.
Die Erd-Platte hat einen Durchmesser von 16,7 cm und eine Fläche AE= 219,04 cm2. Zur Ermittlung der Wärmestromdichte QE wird die gemessene Stromleistung (Spannung mal Stromstärke) durch Multiplikation mit 45,654 auf einen Quadratmeter umgerechnet. Der Abstand zwischen Erd- und Aerosol-Platte beträgt 1,11 m. Die Rechnungen beziehen sich auf ein fiktives Luft-Volumen der Apparatur von 1,11 m3. Die Molmenge n wird aus der allgemeinen Gasgleichung n = p∙V/R∙TLuft abgeleitet. Dabei ist p der Luftdruck in hPa, R ist die Gaskonstante (8,31448 J/mol∙K), V ist der Volumenanteil des IR-Gases am fiktiven Volumen von 1,11 m3 in Liter (aus der Konzentration Vol.-%) und TLuft ist die Durchschnitts-Temperatur der Luftschicht von Tp1-Tp4 in Kelvin.
Im ersten Schritt wird die theoretische Wärmeübertragung E zwischen Erd- und Aerosol-Platte analog zu Gl. 1 ETheo = σ ∙ A ∙ (TE4-TA4) als Schwarzkörper-Strahlung berechnet (σ = 5,670367∙10-8 W/(m2 ∙ K4), A = 1 m2, T = Temperatur in Kelvin). Die Gegenstrahlung wird gemeinsam von Aerosol-Platte und Seitenwand erzeugt. Das Verhältnis von QE(0)/ETheo = εA(0) ist der effektive Emissionsgrad der Aerosol-Platte (sein Anteil an der Gegenstrahlung) ohne IR-Gase. Mit diesem ersten Messwert wird nach εW =1- εA(0) der Emissionsgrad der Seitenwand εW als eine Art Tageswert bestimmt. Nach der gleichen Prozedur wird nach jeder Zugabe des IR-Gases aus dem Verhältnis QE(n)/ETheo = εA(n) und εW+Gas =1- εA(n)der gemeinsame Emissionsgrad von Wand + IR-Gas errechnet und hiervon εW als eine Konstante abgezogen, wodurch εGas(n) erhalten wird.
Mit der Abkürzung Pt(n) wird die Spannung von 5 in Reihe geschalteten Peltier-Elementen angegeben. Während sich die Heizung QE(0) sehr gut reproduzieren lässt, unterliegt die Spannungsmessung Pt(0) einer stärker abweichenden Tagesform. Allerdings zeigt sich innerhalb einer Messung stets ein stetiger Anstieg der Pt(n) Werte ohne „Ausreißer“.

    1. Methan Emissionsgrade

    1. CO2 Emissionsgrade

    1. Lachgas Emissionsgrade

    1. Propan Emissionsgrade

    1. Butan Emissionsgrade

Literaturverzeichnis

[1] „Methan,“ 15 März 2019. [Online]. Available: https://de.wikipedia.org/wiki/Methan .
[2] „Distickstoffmonoxid,“ 9 April 2019. [Online]. Available: https://de.wikipedia.org/wiki/Distickstoffmonoxid .
[3] „Emissionsgrad,“ 27 Juni 2018. [Online]. Available: https://de.wikipedia.org/wiki/Emissionsgrad .
[4] „Emissionsgradtabelle,“ [Online]. Available: https://static-int.testo.com/media/b5/14/6481a245e502/Emissivity-table-DE.pdf .
[5] „Gasstrahlung,“ 15 Oktober 2018. [Online]. Available: https://de.wikipedia.org/wiki/Gasstrahlung .
[6] „Rayleigh-Streuung,“ März 20 2019. [Online]. Available: https://de.wikipedia.org/wiki/Rayleigh-Streuung .
[7] M. Schnell, „Die erdnahe CO2-Strahlung,“ 27 Jan. 2019. [Online]. Available: https://eike.institute/2019/01/27/experimentelle-verifikation-des-treibhauseffektes-4-mitteilung-die-erdnahe-co2-strahlung/ .
[8] „Strahlungsaustausch,“ 05 Aug. 2018. [Online]. Available: https://de.wikipedia.org/wiki/Strahlungsaustausch .
[9] M. Schnell, „ Labor-Experimente zur Demonstration des CO2-Treibhauseffektes,“ 17 Juli 2018. [Online]. Available: https://eike.institute/2018/07/17/experimentelle-verifikation-des-treibhauseffektes-2/ .
[10] K. Trenberth et al., „EARTH’S GLOBAL ENERGY BUDGET,“ 19 Juli 2008. [Online]. Available: https://www.klimamanifest-von-heiligenroth.de/wp/wp-content/uploads/2016/09/Trenberth_Jones_Treibhauseffekt_TFK_bams_2009_15Grad_390Watt_SBG_gelbMark.pdf .
[11] „Milanković-Zyklen,“ 13 04 2019. [Online]. Available: https://de.wikipedia.org/wiki/Milankovi%C4%87-Zyklen .
[12] H. Hug, „Der anthropogene Treibhauseffekt – eine spektroskopische Geringfügigkeit,“ 20 August 2012. [Online]. Available: https://eike.institute/2012/08/20/der-anthropogene-treibhauseffekt-eine-spektroskopische-geringfuegigkeit/ .
[13] H. Harde et al., „Lineshape Transition of Collision Broadened Lines,“ Physical Review Letters, pp. 1308-1310, 20 Feb. 1995.
[14] „Treibhauspotential,“ 4 April 2019. [Online]. Available: https://de.wikipedia.org/wiki/Treibhauspotential .
[15] M. Schnell, „Experimentelle Verifizierung des Treibhauseffektes,“ 12. Internationale Klima- und Energiekonferenz (IKEK-12), München, 2018.
[16] H. Harde, „Radiation and Heat Transfer in the Atmosphere: A Comprehensive Approach on a Molecular Basis,“ 2013. [Online]. Available: http://dx.doi.org/10.1155/2013/503727 .
[17] P. Moore, „Die positiven Auswirkungen der menschlichen CO2-Emissionen,“ 12 06 2019. [Online]. Available: https://eike.institute/2019/06/12/die-positiven-auswirkungen-der-menschlichen-co2-emissionen-auf-das-ueberleben-des-lebens-auf-der-erde/ .
[18] „Verweildauer von CO2: Henne oder Ei?,“ 3 Dez. 2013. [Online]. Available: https://eike.institute/2013/12/03/zur-verweildauer-von-co2-henne-oder-ei/ .
[19] H. Harde, „What Humans Contribute to Atmospheric CO2: Comparison of Carbon Cycle Models with Observations,“ Earth Sciences, Bd. 8/3, pp. 139-159, 2019.



IKONE DES KLIMAWANDELS? Ein Bild lügt mehr als tausend Worte

Das den Klimawandel veranschaulichen soll. Das tut es auch. Doch nur symbolisch, wie der Urheber des Bildes betont. Die abgebildete Schmelze sei ganz normal.«

Im übernächsten Absatz korrigiert n-tv.de seine ursprüngliche Darstellung mit diesen Worten:

»Schnell verbreitet sich die Meinung, die Aufnahme dokumentiere eine rasante Schmelze des Meereseises und damit eine Facette des Klimawandels. Auch n-tv.de suggerierte das mit einer Meldung.

Inzwischen aber hat Olsen vom Dänischen Meteorologischen Institut in Kopenhagen die vermeintlich brisante Botschaft seines Fotos relativiert. Er stimme damit überein, dass das Bild „eher einen symbolischen denn wissenschaftlichen“ Wert habe, twitterte der Forscher.«

Damit es niemand überliest:

»… „eher einen symbolischen denn wissenschaftlichen“ Wert …«

Und dann kommt das:

»Ein Einheimischer aus der abgebildeten Region verwies darauf, dass Szenen wie auf dem Foto öfter geschähen. „Vor allem dort oben in Thule, wo das Foto gemacht wurde“, sagte der Jäger Apollo Mathiassen der Zeitung „Berlingske Tidende“. Demnach unterstreiche das Foto sogar, wie dick das Eis sei. „Weil das Eis so dick ist, gibt es keine Löcher, durch die das Wasser aus dem geschmolzenen Schnee laufen kann“, sagte Mathiassen.«

Sie erinnern sich, wie der Bericht von n-tv.de aufmacht?

Was vom Grönlandeis übrig ist.

Und was dann weiter unten folgt?

»Demnach unterstreiche das Foto sogar, wie dick das Eis sei. „Weil das Eis so dick ist, gibt es keine Löcher, durch die das Wasser aus dem geschmolzenen Schnee laufen kann“, sagte Mathiassen.«

Wie um den Wahrheitsgehalt des Bildes abschließend zu klären, steht bei n-tv.de:

»Das abgebildete Wasser, durch das die Schlittenhunde bei Qaanaaq wetzen, ist demzufolge also kein Eis-Schmelzwasser, sondern stammt offenbar von geschmolzenem Schnee. Auch wenn Klimaforscher Olsen erklärt, dass das dortige Eis derzeit 120 Zentimeter dick und somit 20 Zentimeter dicker als im Vorjahreszeitraum sei, so dokumentiere das Foto einen „ungewöhnlichen Tag“.«

Nicht überlesen bitte: »… kein Eis-Schmelzwasser, sondern … von geschmolzenem Schnee«…Weiterlesen bei TICHYS Einblick hier

Auch Özden Teil der Wettermann vom zdf verbreitete diese Lügenmärchen, jedoch ohne jede Korrektur.




Adjustierte „unad­justierte“ Daten: NASA nutzt den „Zauberstab“ des Frisierens und erzeugt Erwär­mung dort, wo es nie eine gab

Diese Praxis hat zur Erstellung neuer Datensätze geführt mit der Bezeichnung „adjustierte“ Daten, während die alten Datensätze mit der Bezeichnung „V3 unadjustiert“ versehen wurden. Das Problem der Gobale-Erwärmung-Aktivisten bestand jedoch darin, dass ein Blick auf die alten „unadjustierten“ V3-Daten – d. h. unverfälschte Daten – oftmals einen abwärts gerichteten Temperaturtrend zeigte. Derartige negative Trends waren natürlich für die Alarmisten unerträglich, behaupten diese doch unablässig, dass sich der Planet rapide erwärmt.

Die adjustierten „unadjustierten“ Daten

Was also war zu tun? Nun, es sieht so aus, als hätte sich die NASA entschlossen, seine „V3 unadjustierten Datensätze“ zu adjustieren und sie umzubenennen in „V4 unadjustiert“. Das stimmt – die adjustierten Daten wurden zu V4 „unadjustiert“.

Und welchen Trend zeigen nun die neuen „V4 unadjustierten“ Daten?

Richtig geraten! Die neuen V4 unadjustierten Daten zeigen Erwärmungstrends, und das sogar an Stellen, an denen einst ein Abkühlungstrend aufgetreten war.

Die NASA schwingt ihren Zauberstab des Frisierens, um eine Abkühlung in eine (Fake-)Erwärmung zu verwandeln, folgendermaßen:

6 Beispiele skandalösen Unfugs der NASA

Hier folgen 6 Beispiele aus verschiedenen Gegenden des Globus‘ und über Jahrzehnte zurückreichend. Sie demonstrieren eindrucksvoll diese skandalöse, willkürliche Veränderung von Daten:

Nr. 1

Punta Arenas, Chile: Hier sehen wir, wie ein eindeutiger Abkühlungstrend von der NASA so erwärmt wurde, dass nur noch ein sehr geringer derartiger Trend übrig blieb:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 2

Marquette, Michigan: Hier hat die NASA einen leichten Abkühlungstrend in einen robusten Erwärmungstrend verwandelt. Kein Wunder, dass der japanische Klimawissenschaftler Dr. Mototaka Nakamura [auf Deutsch beim EIKE hier] jüngst die globale Erwärmung zeigenden Daten der Experten als „nicht vertrauenswürdig“ und „gefälscht“ charakterisiert hat:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 3

Port Elizabeth, Südafrika: Hier wurde ein 109 Jahre zurück reichender Datensatz so verändert, dass ein fehlender Erwärmungstrend in einen Erwärmungstrend verwandelt wurde:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 4

Davis, Antarktis: Daten der Japan Meteorological Agency beispielsweise zeigen, dass diese Station keinen Trend aufweist, genau wie die nicht adjustierten V3-Daten der NASA. Aber die neuen V4 „unadjustierten“ Daten der NASA zeigen, dass jene Erwärmung endlich auch die Antarktis erreicht hat:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 5

Hachijojima, Japan: Die unadjustierten V3-Daten von dieser abgelegenen Inselstation zeigten keinen Trend – bevor die NASA beschloss, einen neuen, „unadjustierten“ Datensatz zu erzeugen. Und siehe da – jetzt gibt es einen Erwärmungstrend dort, wo nie einer aufgetreten war:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 6

Valentia, Irland: Hier sieht man, wie Abschnitte in der Vergangenheit kühler und jüngere Temperaturdaten wärmer gemacht worden waren. Keine Überraschung – das Ergebnis ist eine stärkere Erwärmung:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Bei der NASA scheint es so, als ob die Sonne, Ozeane, Wasserdampf usw. keine Rolle zu spielen scheinen, wenn es um globale Temperaturtrends geht. Der Nummer 1-Faktor hinter der „Erwärmung“ bei der NASA scheint nicht einmal CO2 zu sein, sondern vielmehr deren Orwell’sche Fälschung von Daten. Falls bei der NASA die Daten nicht mit den (erfundenen) Modellen übereinstimmen, dann verändere man sie einfach, bis sie passen.

Legt diesen NASA-Sumpf endlich trocken!

Link: https://notrickszone.com/2019/06/25/adjusted-unadjusted-data-nasa-uses-the-magic-wand-of-fudging-produces-warming-where-there-never-was/

Übersetzt von Chris Frey EIKE




Klimahysterie-Zeitschriften: „Spektrum“ und das CO2

Vor kurzem schrieb ich über den Artikel zum hochwissenschaftlich eingeschätzten (sic!) Meeresspiegelanstieg, der nicht nur vom unvermeidlichen Spiegel, sondern auch von Spektrum ernsthaft und wohlwollend besprochen wurde. (Was hat das Wissenschaftsmagazin eigentlich in den 70ern zur kurz bevorstehenden Eiszeit gesagt?)

Nun legt Spektrum mit einem Artikel von einem Daniel Lingenhöhl zum höchsten jemals gemessenen CO2-Monatswert in der Atmosphäre nach. „Die Menschheit bleibt ihrem Weg treu.“ „Selbstverbrennung“, wie Klimapapst Schellnhuber es etwas knackiger formuliert hat?

Gemessen hat man die aktuell 0,04148 % oder 414,8 ppm (Teile pro Million) nicht an zig Stationen rund um den Planeten, sondern auf dem hawaiianischen Vulkan Mauna Loa. Delikates Detail für den kleinen Paläologen: Vulkane sind die ursprüngliche Quelle des Kohlendioxids auf der Erde. Sicher, daß der Mauna Loa ruht und nicht aus der einen oder anderen Spalte noch CO2 ausgast? Bei den Methoden der Panikmacher, die der geneigte EIKE-Leser seit langem kennt, würde ich sagen: nein.

Angeblich hat unsere Industrie die Atmosphäre mit derart viel Killergas vollgepumpt wie zuletzt vor drei Millionen Jahre die Vulkane (etc.). Sicher ist das aber auch nicht, da die Zusammensetzung der Luft in prähistorischen Zeiten mit Hilfe von Gasblasen in Eisbohrkernen bestimmt wurde. Und ob beim Gefrierprozeß des Wassers eingeschlossene Luft ihre Zusammensetzung behält, ist durchaus umstritten.

Nach den bombensicheren Meßergebnissen unserer Klimaprofis steigt der mittlere Kohlendioxidgehalt der Luft im siebten Jahr in Folge (und vorher nicht?). Als wenn das nicht schon Hiobsbotschaft genug wäre, beschleunigt sich die Zunahme auch noch. Bis 1980 stieg die Killergas-Konzentration jährlich um 0,7ppm, stieg dann auf 1,6ppm per annum, um mittlerweile 2,2ppm p.a. zu erreichen. In den 90er Jahren allerdings fiel die Konzentration einmal auf 1,5ppm (Huch? Sowjetzusammenbruch?).

Wie „Klimaleugner“ ja wissen, gibt es auf der Erde so wenig ein „mittleres Klima“, wie es eine „mittlere Geschwindigkeit“ von Autos auf der Autobahn gibt. Es gibt Klimazonen mit erheblichen Unterschieden, es gibt auf der Nordhalbkugel Jahreszeiten, und dann auch noch den Tages- und Nachtrhythmus.

Dasselbe gilt natürlich auch für den Kohlendioxidgehalt der erdnahen Luftschichten: Im Mai ist er am höchsten, weil die Destruenten (Pilze, Bakterien…) die Biomasse aus dem Vorjahr fleißig zersetzen, und das freigesetzte CO2 aus ihrer Atmung von den winterlich ruhenden Pflanzen nur teilweise aufgenommen wird (Nadelhölzer). Durch das Frühlingserwachen im Mai und die Photosynthese der Laubpflanzen wird dann der Kohlenstoff aus der Luft herausgesaugt und zu Biomolekülen verarbeitet, so daß Anfang Herbst der geringste CO2-Gehalt erreicht wird. Der Referenzwert ist natürlich der – Sie erraten es – Maiwert, schön hoch und daher besonders nützlich für den kurz bevorstehenden Weltuntergang.

Den Katastrophenwert des CO2, wir wollen fair bleiben, führt Spektrum übrigens nicht nur auf die Industrie-Pestilenz zurück, sondern auch auf die Abholzung von Wäldern und einen kleinen El Niňo, der die Speicherfähigkeit des Meeres von Gasen senkt. Wie – es gibt natürliche Ursachen des Klimawandels?

Ich freue mich schon auf die Artikel in Spektrum in 15, 20 Jahren, wenn das Shaviv-Svensmark-Minimum einsetzt, und das Klima unerlaubt abkühlt.

 

 




Das ,Bias-Verstecken-Problem‘ der Klimawis­senschaft

Im vorherigen Beitrag war es um die absichtlichen Verzerrungen individueller Klimaforscher gegangen, stimuliert durch die Studie von Lee Jussim, Joe Duarte und Anderen mit dem Titel Interpretations and methods: Towards a more self-correcting social psychology.

Diese Studie von Jussim et al. bietet zusätzliche Einsichten , welche relevant sind hinsichtlich der absichtlichen Verzerrungen bzgl. Klimawandel. Dies wird besonders ernst und problematisch, wenn diese Verzerrungen erst einmal institutionalisiert sind. Hier folgen einige Auszüge von Jussim et al., die ich in diesem Beitrag diskutieren möchte:

Zitat: In dieser Studie betrachten wir, wie valide Schlussfolgerungen oftmals in Forschungsberichten versteckt liegen – maskiert durch plausible, aber nicht gerechtfertigte Schlussfolgerungen in jenen Studien. Diese Schlussfolgerungen involvieren nicht notwendigerweise den Gebrauch fragwürdiger Forschungspraktiken. Ungültige Schlussfolgerungen können begründet erzielt werden, nicht aufgrund fehlender Umstände, gescheiterten Studien oder insignifikanten Analysen, sondern auf selektive Interpretationen von Daten, wobei nur Daten berücksichtigt werden, welche die bevorzugten Schlussfolgerungen des Forschers stützen, während man validere Schlussfolgerungen versteckt.

Kommentar von JC: dies ist grundsätzlich das Problem, das ich mit den IPCC-Berichten habe. Tief verborgen in den Kapiteln gibt es viele gute, zuverlässige Informationen, obwohl in den Berichten so Manches ausgelassen wird. Das Problem der erzielten Ergebnisse (insbesondere in der Summary for Policymakers) besteht darin, dass diesen Ergebnissen ein viel zu hohes Vertrauensniveau zugeordnet wird.

Zitat: Wir charakterisieren Situationen, in welchen die Daten eine andere Schlussfolgerung nahelegen als in einem veröffentlichten Report beschrieben, sind doch Situationen mit diesen anderen Ergebnissen „maskiert“. Maskierte Phänomene können alternative Erklärungen für eine Reihe von Ergebnissen liefern sowie Gründe, um zu glauben, dass die veröffentlichten Interpretationen wahr, aber übertrieben sind; oder Gründe zu glauben, dass die veröffentliche Interpretation einfach falsch ist. Diese Schlussfolgerungen sind typischerweise maskiert, weil der ursprüngliche Report diese nicht einmal in Erwägung zieht oder sie überhaupt anerkennt, und weil die gezeigten Daten normalerweise eine künstlich herbeigeführte Unterstützung für die präsentierten Schlussfolgerungen liefern.

Kommentar von JC: ich berührte ein damit zusammenhängendes Thema in meiner Studie Reasoning About Climate Uncertainty im Zusammenhang mit dem ,framing error‘ [?]. In meinen letzten Berichten und meiner Aussage vor dem Kongress zitiere ich üblicherweise extensiv aus den IPCC-Berichten, und zwar im Zusammenhang mit unterschiedlichen Argumenten oder Vertrauensniveaus als jene in den IPCC-Berichten beschriebenen.

Zitat: Phänomene können oftmals maskiert sein, weil es die Forscher versäumen, Verfahren einzubeziehen, welche diese Phänomene enthüllen. Die Daten der Forscher mögen sauber (erhoben ohne irgendwelche fragwürdigen Praktiken) und statistisch ordentlich durchgeführten Analysen unterzogen worden sein – aber deren Ergebnisse können trotzdem falsch sein.

Kommentar von JC: Die gesamten Bemühungen des IPCC unter dem Mandat des UNFCCC wurden in Formulierungen gekleidet wie die Abschätzung einer ,gefährlichen anthropogenen Einmischung in das Klimasystem‘. Dies führt zu systematischer Maskierung der natürlichen internen Variabilität und zur Ignoranz anderer Prozesse (z. B. Auswirkungen solarer Effekte).

Zitat: Verzerrungen bzgl. der Bestätigung von Ergebnissen hinterlassen andere, oftmals realistischere Interpretationen, welche dadurch maskiert sind, dass sie weder überprüft noch in den wissenschaftlichen Beiträgen erwähnt werden. Bestätigungs-Verzerrungen haben zu vielen ungerechtfertigten Schlussfolgerungen geführt.

Kommentar von JC: Das Buch von Bernie Lewin über das IPCC umreißt die Politik, welche die Fabrikation des IPCC-Konsens‘ umgibt zum Zeitpunkt des AR 2. Der Fehlschlag, eine ,wahrnehmbare‘ anthropogene Erwärmung ausmachen zu können nebst den mit einer Erwärmung verbundenen Gefahren, hätte nicht nur den Einfluss des IPCC auf die Klimapolitik geschwächt, sondern auch die Auflösung desselben durch das UNEP gerechtfertigt.

Zitat: Wissenschaftler sollten nicht einfach die Literatur ignorieren, die sie nicht mögen, weil darin ihren Ansichten widersprochen wird. Trotzdem ist es unser Standpunkt, dass es immer problematisch ist, eine große Menge von Forschungsergebnissen zu übersehen, welche in direktem Konflikt mit den eigenen Schlussfolgerungen zu stehen scheinen. Aber die Lösung ist einfach – man zitiere und bearbeite sie, und falls eine davon begründeter ist als eine andere, berichte man über die Größenordnung der Auswirkungen von beiden. – Wir erkennen, dass es für einen individuellen Forscher nicht möglich ist, jede Studie aus seinem Forschungsgebiet zu kennen. – Aber wahre Wissenschaft tut nicht so, als ob Daten, die im Widerspruch zu eigenen Ergebnissen stehen, einfach nicht existieren.

Kommentar von JC: Ohne das NIPCC in irgendeiner Weise zu unterstützen (siehe meinen vorigen Beitrag) zeigt sich: falls man die Bibliographie in den Zustandsberichten von IPCC und NIPCC vergleicht, findet man kaum Überlappungen in der Liste der Literatur. Ich verstehe, dass man eine gewisse Auswahl treffen muss, aber die veröffentlichte Literatur ist ausreichend vielfältig, um multiple unterschiedliche Argumente und Narrative zu beschreiben.

Ein weiterer Punkt. Die Aktivisten unter den Wissenschaftlern (Lewandowsky, Hayhoe et al.) glauben, dass diese Studie sämtliche Studien der Skeptiker widerlegt (die sog. 3%) Those 3% of scientific papers that deny climate change?  A review found them all flawed. Ich habe keine Ahnung, wie so dummes Zeug jemals veröffentlicht werden konnte.

Jede Woche (oder alle 2 bis 3 Wochen) passen die meisten wissenschaftlichen Studien, welche ich in einem wöchentlichen Übersichten nenne, zu einem Narrativ, das einige Aspekte des so genannten Konsens‘ in Frage stellt. Ich wünschte, ich hätte die Zeit, sie alle zu bewerten.

Zitat: Die Anreize für das Vorbringen überzeugender Narrative in der Gelehrsamkeit lädt zu Rosinenpickerei ein. Bis zu einem gewissen Ausmaß führt diese Rosinenpickerei zu einem klassischen sozialen Dilemma: Während es im ureigenen Interesse individueller Wissenschaftler liegt, überzeugende Ergebnisse vorzulegen (erleichtert durch Rosinenpickerei) liegt so etwa eindeutig nicht im Interesse wissenschaftlicher Forschungsfelder, wird doch dadurch die Validität und die Glaubwürdigkeit dieses Forschungsbereiches unterminiert.

Kommentar von JC: Wissenschaftler nehmen für sich in Anspruch, einen privilegierten „Sitz am Tisch“ zu haben, geschuldet deren vermeintlich höheren Niveaus von Rationalität, welche mit der wissenschaftlichen Methode verbunden sindt. Rosinenpickerei und anderer Mumpitz negieren dieses Privileg, und Aktivisten-Wissenschaftler sind nicht besser als Lobbyisten.

Zitat: Wir erwarten verschiedene Belohnungen dafür, dass wir weit weniger überzeugende Storys verbreiten über wirre und widersprüchliche Daten. Erstens wollen wir unsere eigene wissenschaftliche Integrität erhalten. Zweitens, das gilt auch für die Integrität unseres Forschungsbereiches. Drittens, die Anerkennung miteinander im Konflikt stehender Ergebnisse und wirrer Daten bieten eine Gelegenheit für theoretische Fortschritte und neue empirische Forschungen, um diese Konflikte zu lösen – entweder mit dem Beleg, dass ein Satz von Ergebnissen nicht reproduzierbar ist, oder durch Identifikation von Bedingungen, unter welchen beide Sätze miteinander in Konflikt stehender Ergebnisse konsistent erzielt werden können. Folglich könnten die traditionelleren Belohnungen jenen Forschern zukommen, die in der Lage sind, derartige Konflikte zu lösen“.

Kommentar von JC: Brillant ausgedrückt! Aber all das scheint für Aktivisten-Wissenschaftler irrelevant, glauben sie doch, dass sie den Planeten retten; oder sie sind den finanziellen und karrieristischen Belohnungen verfallen, so dass sie bzgl. Klima dann Alarm schlagen und (schlimmer) jedwede Wissenschaft und jedweden Wissenschaftler ignorieren, der nicht diesem Narrativ folgt.

Zitat: Wir verteidigen einfach nur einen Prozess, der diejenigen Daten manipuliert, die nicht mit dem bevorzugten Narrativ der Wissenschaft konform gehen.

Es liegt in der Natur wissenschaftlichen Fortschritts, dass wir Vieles falsch machen. Eine ordentliche Wissenschaft jedoch soll: 1) derartige Fehler auf ein Minimum reduzieren und 2) sich sofort selbst korrigieren, wenn Fehler offensichtlich werden. Zu diesen Fehlern kommt es nicht wegen fragwürdiger wissenschaftlicher Verfahren, sondern wegen ungerechtfertigter Interpretationen.

Zusammenfassung von JC: Der maskierende Bias und die Rosinenpickerei sind kein Forschungs-Fehlverhalten, aber es führt die Wissenschaft und die Politiker gleichermaßen in die Irre. Das IPCC hat mittels seiner Konzentration auf eine ,gefährliche anthropogene Einmischung in das Klimasystem‘ den maskierenden Bias institutionalisiert – wobei dies bis auf nationale Geldgeber durchschlug: was man finanziert, wie man Zuwendungen und Veröffentlichungen in Journalen ausdrückt und was man in Hörsälen lehrt.

Vielfalt von Standpunkten und Erkennung alternativer Erklärungen und Hypothesen

Zitat: Wenn man zweifelt, kann man sich an Kollegen wenden, welche sehr unterschiedliche Standpunkte als unsere eigenen vertreten. Wir müssen nicht mit ihnen übereinstimmen oder uns von ihren Argumenten überzeugen lassen. Aber jene, die anderer Ansicht sind als wir, haben möglicherweise sehr viel mehr unterschiedliche blinde Flecken als wir, und sie werden normalerweise sehr gerne unsere Standpunkte auszustechen versuchen. Wenn ein Kollege behauptet, dass wir etwas Wichtiges übersehen haben, bedeutet das noch lange nicht, dass das wirklich so ist. Der Punkt ist, maskierte Ergebnisse, Studien und Erklärungen aufzuspüren, die uns wegen unseres eigenen blinden Flecks verborgen geblieben sind. Sind sie erst einmal erkannt, hindert uns nichts daran, diese ebenfalls kritisch zu evaluieren – wir können immer noch folgern, dass sie nicht so wichtig sind wie unsere Kritiker glauben. Aber zumindest haben wir dann Gelegenheit, diese anzusprechen, anstatt so weiterzumachen, als würden sie gar nicht existieren.

Idealerweise ist es so: Wenn alternative Erklärungen für ein Phänomen existieren, werden die Forscher Verfahren entwickeln, um alternative Hypothesen einander gegenüber zu stellen. Der Punkt ist nicht zu zeigen, dass das eine „wahr“ und das andere „falsch“ ist. Tatsächlich gibt es einflussreiche psychologische Lehrmeinungen, denen zufolge die meisten Hypothesen unter bestimmten Bedingungen zutreffend sind. Falls man sich diesem Standpunkt verschreibt, ist es einfach nur dumm, irgendeine Theorie zu „widerlegen“. Selbst wenn man diese Ansicht teilt, ist es unsere Perspektive, dass es immer noch unverzichtbar ist, alternative Perspektiven in bestimmten Forschungszusammenhängen miteinander zu vergleichen. Falls unter bestimmten Bedingungen alles wahr ist, dann ist irgendeine bestimmte Hypothese vielleicht nicht unter allen Bedingungen wahr. Um herauszufinden, ob Hypothese X alle oder die meisten Daten erklärt, oder unter welchen Bedingungen die Hypothese Y wahr ist, müssen wir beide austesten.

Darum haben solche Gegenüberstellungen ein erhebliches Potential, das Feld zu beherrschen. Egal wie stark wir zu einem Bias der Bestätigungen neigen und egal, wie schwierig es ist, hinsichtlich unserer Interpretationen vollständig objektiv zu sein – wir haben oftmals Kollegen, die bereit, willens und in der Lage sind, uns zu sagen wie sehr wir unrecht haben. Um diese Dinge anzusprechen schlagen wir also vor, dass Psychologen eine ihrer Stärke ausspielen. Es gab in dem Bereich lange Diversität, teils weil Personen mit diversen Hintergründen unterschiedliche Erfahrungen einbringen, mit psychologischen Problemen umzugehen. Kurz gesagt, diverse Menschen haben diverse Ideen, womit sie den „Marktplatz der Gedanken“ bereichern.

Derartiges Zusammenarbeiten ist vielleicht ziemlich schwierig, weil diejenigen auf der anderen „Seite“ irgendwelcher Debatten – seien diese nun theoretischer oder politischer Natur – oftmals der anderen Seite ziemlich feindlich gegenüberstehen. Trotzdem lautet eine der wenigen Lösungen für einen Bestätigungs-Bias, eine alternative erwünschte Schlussfolgerung zu übernehmen. Das ist vielleicht nicht einfach, aber wir prophezeien, dass es das in der Regel wert ist.

Und was ist, wenn derartige Versuche der Zusammenstellung scheitern? Ein Kritikpunkt bzgl. gegensätzlicher Zusammenwirkens ist, dass es oft nicht funktioniert, weil die Opponenten sich so feindlich gegenüberstehen, dass sie nicht zusammenarbeiten können. Dies ist eine Aussage darüber, wie mächtig der Bestätigungs-Bias eines Forschers sein kann. Die Lüge wird in das Idealbild objektiver Wissenschaftler gekleidet, dass eine Lösung durchweg auf Logik, Verfahrensweise, Statistik und Daten basierend gefunden worden ist. Beide Seiten können gleich schuldig sein oder vielleicht ist auch die eine Seite verzerrt, die andere nicht. Wie auch immer, derartige Fehlschläge sind ein starkes Signal, dass irgendetwas anderes als das objektive und leidenschaftliche Verfolgen der Wahrheit im Gange ist.

Ein kürzlich erschienener Artikel im Bereich Astronomie (Loeb 2014) enthielt wichtige Punkte über die Diversität von Gedanken. Loeb (2014) beleuchtete Beispiel für Beispiel, in welchen renommierte Astronomen „glauben“, dass etwas auf der Grundlage weniger oder gar keiner Beweise wahr ist; in welchen diese Astronomen die Fähigkeit jüngerer Wissenschaftler und anderer behindern, mit neuen Gedanken zu jenem Problem aufzuwarten, weil die Alternativen als abwegig empfunden werden. In jedem Falle wurde Jahre später ultimativ entdeckt, dass die „abwegigen“ Behauptungen sich als wahr herausstellen. Nach unserer Terminologie maskierten ungerechtfertigte, aber für vertrauenswürdig gehaltene Schlussfolgerungen die Beweise, und manchmal ist sogar die Suche nach besser passenden Beweisen. „Meinungs-Einheitlichkeit ist steril; das Nebeneinander multipler Gedanken kultiviert Wettbewerb und Fortschritt“.

Natürlich ist es schwierig, im Voraus zu wissen, welcher Weg der Erklärung Früchte tragen wird, und der Hinterhof der Astronomie steckt voller neuer Gedanken, die sich als falsch erwiesen haben. Aber um den Prozess der Entdeckungen effizienter zu machen … sollten Geld gebende Agenturen einen festgelegten Anteil ihrer Ressourcen (sagen wir mal 10% bis 20%) für riskante Erkundungen abzweigen. Dies kann als eine positive Maßnahme betrachtet werden, um die Diversität von Gedanken zu fördern.

Kommentar von JC: Der Vorschlag von Jussim et al., dass Wissenschaftler-Teams mit unterschiedlichen Perspektiven zusammenarbeiten, funktioniert in der Klimawissenschaft einfach nicht. Aktivistische Wissenschaftler werden niemals mit Klimawissenschaftlern debattieren, welche andere Perspektiven vertreten, und sie werden diese sogar auf Twitter blockieren. Falls sich ein nicht aktivistischer Wissenschaftler zu enthusiastisch mit jemandem wie mir, Christy, Pielke und so weiter zusammensetzt, werden sie von den Aktivisten-Wissenschaftlern zum Rückzug „gezwungen“.

Zensur und Maskierung durch Journale

Es gab über die Jahre viele, viele Beispiele dafür, sowohl in der Klimawissenschaft, noch verbreiteter aber in der Akademia.

Ich kenne eine neue Anekdote, welche für diesen Beitrag relevant ist, und zwar aus Begutachtungen von Studien, die ich jüngst bei einem Journal einreichte. Ohne allzu sehr auf die fragliche Studie oder irgendeine spezifische Kritik einzugehen (ich versuche immer noch zu ergründen, was ich mit dieser Studie anfangen kann), sind einige Äußerungen von Begutachtern und dem Herausgeber sehr aufschlussreich:

„Alles in allem besteht die Gefahr, dass die Studie von skrupellosen Menschen ausgenutzt wird, um Verwirrung zu erzeugen oder die Klimawissenschaft zu diskreditieren. Daher schlage ich vor, dass der Autor die Essenz seines Beitrags für die wissenschaftliche Debatte um Klimawandel noch einmal überdenkt“.

Und noch ein Juwel von Begutachter Nr. 1:

„Und schließlich sind in der Studie Fehler enthalten wie: ,unter den bekanntermaßen vernachlässigten Phänomenen bei den Szenarien des Klimawandels im 21. Jahrhundert sind: solare Variabilität und indirekte solare Effekte, vulkanische Eruptionen, die natürliche interne Variabilität der großräumigen Ozean-Zirkulationen, geothermale Wärmequellen und andere geologische Prozesse‘: Dieses Statement entbehrt jeder Rechtfertigung und ist offensichtlich falsch, war doch all dies bereits in den CMIP5-Modell-Experimenten evaluiert worden“.

Bumm! Maskieren ist voll erfolgreich; Klimawissenschaftler glauben jetzt, dass all dieses Zeug über die natürliche Variabilität (darunter geologische Prozesse, Vulkanausbrüche und solare Variabilität) in den CMIP5-Modell-Experimenten evaluiert worden sind. (JC’s Kopf platzt!)

Auf der Grundlage dieser brillianten und hart einschlagenden Begutachtungen schreibt der Herausgeber: „Wir bedauern, dass wir das Manuskript nicht zur Veröffentlichung akzeptieren können und werden es nicht weiter in Betracht ziehen“.

Selbst wenn man annimmt, dass es ernste Schwächen in der Studie gibt (was nicht der Fall ist, zumindest nicht solche, die den Falsch-Beurteilungen der Begutachter auch nur nahe kommen) – die explizite Aussage, dass sie eine Neueinreichung nicht einmal ansehen würden, ist etwas, das ich noch nie bei einem Herausgeber erlebt habe.

Ich muss ein Journal finden mit einem dreifach blinden Begutachtungssystem (einschließlich des Herausgebers).

Steve Koonin und das Red Team

Folglich ist der Gedanke von Red Teams und Ähnlichem geeignet, alternative Perspektiven bekannter zu machen. Dazu in den vorhergehenden Beiträgen mehr zum Hintergrund.

Steve Koonin war der sichtbarste und prominenteste Befürworter eines solchen Red teaming. Jüngst hielt Koonin einen Vortrag hierüber an der Purdue University.

Gavin Schmidt schrieb etwas zu Koonins Vortrag bei RealClimate. Um es höflich auszudrücken, Gavins Beitrag ist höchst abschätzig darüber, was Koonin zu sagen hat.

Da der Steve Koonin, den ich kenne, sehr intelligent und einsichtsvoll ist, vermute ich, dass Gavins Beitrag völlig am Thema vorbeiging. Dann entdeckte ich einen Beitrag von Koonin bei WUWT, welcher klarstellt, was er in Wirklichkeit in seinem Vortrag gesagt hat und wie sehr seine Ausführungen von Gavin fehlinterpretiert worden waren.

Ich denke, dass die gesamten Bedenken Koonins bzgl. der Klimawissenschaft mit diesem Gedanken des ,maskierenden Bias‘ zusammenhängen. Die Betrachtung des Themas auf diese Weise kann helfen, die verschiedenen Bemühungen von Red Teams zu rechtfertigen, die in den USA ins Leben gerufen werden.

Link: https://judithcurry.com/2019/06/21/climate-sciences-masking-bias-problem/

Übersetzt von Chris Frey EIKE




Große Transformation – der Gang in die Knechtschaft

Nicht Verelendung der Arbeiterklasse sondern Verelendung des Klimas ist diesmal das Fanal. Die Akteure sind ausgesucht und marschieren seit der ersten internationalen Klimakonferenz in Rio de Janeiro des Jahres 1992 zu ihrem Ziel. Der aktuelle Vernichtungsfeldzug, über die Köpfe der wehrlosen deutschen Bürger hinweg, belegt die kommende Diktatur. Nach Kernkraftwerken und Energieversorgern stehen deutsche Kohle und Auto-Individualverkehr als die nächsten Schritte zur Zerstörung an. Über die EU-Bande werden von der aktuellen Grossen Koalition“ Gesetze für Auto-Abgaswerte beschlossen, die technisch niemals realisierbar sind und unverhohlen der Abschaffung des Verbrennungsmotors dienen. Die wahnwitzigen EU-Bestimmungen wurden schließlich vom deutschen Parlament gehorsam-vorauseilend beschlossen. Früher noch neutral berichtende Medien sind in freiwilliger Selbstgleichschaltung zu Verfechtern der neuen Ökoideologie geworden.

Die große Transformation der Gesellschaft ….

Schärfer hinsehende Zeitgenossen haben zwar über die Richtung der geschilderten Entwicklung längst keine Zweifel mehr. Dennoch ist das ganze Ausmaß des Vernichtungsfeldzugs der breiten Öffentlichkeit noch weitgehend unbekannt. Er wurde seit Jahrzehnten vorbereitet und stetig weiterverfolgt. Inzwischen ist der erste Schritt zur Realität geworden, die rücksichtslos durchgezogene Energiewende. Diese Wende ist ein lupenreines Deindustrialisierungs-Programm unter dem fadenscheinigen Narrativ, das globale Klima sei durch konsequente CO2-Vermeidung deutscher, gerade einmal 2% globaler CO2-Emissionen zu schützen. Dieser sachliche Unsinn erfuhr bislang in der Bevölkerung Zuspruch. Dass es gar kein globales Klima gibt, nur Klimazonen von tropisch bis polar, dass unaufhörlich sich ändernde Phänomene wie Wetter und Klima nicht geschützt werden können und dass die erwärmende Wirkung des menschgemachten CO2 unbekannt (Fußnote, auf S. 16) ist, gerät zu langsam ins öffentliche Bewusstsein. Die Schäden der in der Öffentlichkeit noch unbekannten Fortsetzungen der Energiewende, von den Verantwortlichen euphemistisch als Große Transformation“ bezeichnet, werden die der Energiewende noch weit in den Schatten stellen.

Die Kunst gesellschaftlichen Wandels …..

Die Große Transformation“ basiert auf einer ökologischen, alle Menschen der Welt gleichmachenden Theorie des Umbaus der globalen Gesellschaften. Sie erinnert an das kommunistische Manifest mit all seinem begleitenden Wahnsinn. Insbesondere muss wieder ein neuer Mensch geformt werden, der sich begeistert für die ökologische Transformations-Idee einspannen lässt. Man erfährt es unmissverständlich und detailliert im Buch von Uwe Schneidewind „Die große Transformation: Eine Einführung in die Kunst gesellschaftlichen Wandels“ mit einem, vermutlich indirekt aus Steuermitteln gesponserten, Buchpreis von nur 12 € bei üppigen 500 Buchseiten. Schneidewind ist Präsident des Wuppertaler Instituts für Klima, Umwelt und Energie mit grob geschätzten 40 Mitarbeitern.

Das Institut ist mit der globalen Ökoideologie-Szene bestens vernetzt, deren Verzweigungen und Ausmaße das Literaturverzeichnis des Buchs dokumentiert. Es genießt Subventionen der deutschen Politik und nimmt neben dem wissenschaftlichen Beirat der deutschen Bundesregierung für globale Umweltveränderungen (WBGU) und dem Potsdamer Institut für Klimafolgenforschung (PIK) eine Schlüsselrolle in der großen Transformation, Öko-Agitation und Wendepolitik ein. Bei den Akteuren handelt es sich keineswegs um fehlgeleitete Spinner, sondern um Fanatiker und/oder kühl berechnende Profiteure. Außer der bereits etablierten Energiewende sind nämlich folgende weitere Wenden in der Transformations-Pipeline“ zu finden

  • die Konsumwende,
  • die Ressourcenwende,
  • die Mobilitätswende,
  • die Ernährungswende,
  • die Urbane Wende,
  • die Industriewende und schließlich eine
  • transformative Wissenschaft“ (vulgo die Abschaffung der objektive-neutralen Wissenschaft).

Von freier demokratischer Entscheidung des deutschen Bürgers ist allerdings so gut wie nichts im Buch von Schneidewind, beim WBGU oder beim PIK zu finden. Nur von Überredung, Überzeugung, Glauben, Überwachung, Kontrolle und von Pionieren, die alles etablieren sollen, ist die Rede. Was davon zu halten ist, hatte bereits im Jahre 2011 der Historiker Prof. Wolfgang Wippermann (FU Berlin) anlässlich eines Interviews des FOCUSAuf dem direkten Weg in die Klimadiktatur?“ mit Blick auf das WBGU wörtlich so formuliert.

„Die sprechen sogar von der „internationalen Allianz von Pionieren des Wandels“. Und das erinnert mich an die faschistische oder kommunistische Internationale. Ob sie da hinwollen, weiß ich nicht. Aber die Sprache ist schon mal schrecklich und das macht mir Angst. Wer so spricht, der handelt auch. Das ist eine negative Utopie, eine Dystopie. Und wenn Utopisten am Werk sind, wird es immer gefährlich.“ Wippermann weiter: „Wir haben es mit wissenschaftlichen Fanatikern zu tun, die ihre Vorstellungen durchsetzen wollen. Ich wundere mich, dass wir da zum ersten Mal drüber reden und wie wenig das in der Öffentlichkeit bisher beachtet wurde“.

Die Akteure der großen Transformation werden im Buch von Schneidewind definiert als „organisierte Akteure der Gesellschaft, organisierte Zivilgesellschaft als Antriebskraft, transformationsbewusste Unternehmer als Gestalter, Politik als Gestalter und Weiterentwicklung demokratischer Prozesse, Wissenschaft mit neuem Gesellschaftsvertrag“ und schließlich „Pioniere des Wandels, ermächtigt durch den Dreiklang von Haltung, Wissen und Fähigkeiten„. Der letztgenannte Punkt zielt vor allem auf die junge Generation, so wie im dritten Reich, oder der DDR, kurz, wie in allen Diktaturen. Erstaunlicherweise hat man noch nichts von Maßnahmen des Verfassungsschutzes gehört, der doch für Verstöße gegen die deutsche Verfassung zuständig sein soll.

Und die Argumente der neuen Diktatur?….

Im klassischen Kommunismus war es die Idee sozialer Gerechtigkeit, um eine Herrschaft von Gemeineigentum und Kollektiv zu errichten. Das Resultat, nämlich über hundert Millionen Tote, ist bekannt. Kein kommunistischer Versuch, von Stalin, über Mao Tsedong, die roten Khmer, bis hin zu Kuba, Nord-Korea und Venezuela, vermochte es, sich dem kommunistischen Ideal zu nähern. Unterdrückung, komplettes Herunterwirtschaften der betroffenen Volkswirtschaften und im Extremfall das Beseitigen von Meinungsgegnern durch Genickschuss waren die wesentlichen Folgen so gut wie aller kommunistischen Versuche.

Die große Transformation nun führt zwei neue Kernargumente für ihre Rechtfertigung an:

  1. Der Ressourcenmangel erlaube es nicht, die bisherige Lebensweise von technisch/zivilisatorischem Fortschritt beizubehalten.
  2. Die menschgemachte Änderung des „globalen“ Klimas sei wissenschaftlich belegt, sehr schädlich und könne nur mit der Klimaschutzmaßnahme der CO2-Vermeidung in noch tolerierbaren Grenzen gehalten werden (1,5 Grad Ziel des Pariser Klimaabkommens).

Wirtschaftliche Gleichheit und Gerechtigkeit für alle soll gleichzeitig mit der Lösung der Punkte 1 und 2 für die gesamte Menschheit erreicht werden, so dass in diesem Ziel klassischer Kommunismus und große Transformation identisch sind. Das Argument Klimaschutz“ ist naturgemäß primär, denn angesichts stetig ansteigender Reserven von Erdöl, Erdgas und Kohle – trotz gestiegener Förderung – kann nur noch schlecht vor Ressourcenmangel gewarnt werden. Der menschliche Erfindungsgeist hatte schon immer – und historisch stets zuverlässig – alle Ressourcenprobleme überwunden und brauchte nicht erst jüngst wieder die düsteren Vorhersagen des Club of Rome zu widerlegen. Erfindungsgeist setzt bereits bei Preissteigerungen einer Ressource ein, lange vor ihrem denkbaren Versiegen.

Er fand, findet und wird auch zukünftig stets neue und bessere Ersatzressourcen finden: Von Steinen über Kupfer, Bronze, Eisen bis hin zu Kohle, Erdöl und Uran ging bisher die Reise. Sie wird nie enden. Allein Uran aus dem Meer erlaubt mit bereits existierender Technik die komplette Energieversorgung von 10 Milliarden Menschen über viele Millionen Jahre. Es sind inhärent sichere und praktisch abfallfreie Brutreaktoren der Generation IV. Vom Kernbrennstoff Thorium aus dem Boden ist dabei noch nicht einmal die Rede.  Das Buch Kernenergie: der Weg in die Zukunft von Götz Ruprecht und Horst-Joachim Lüdecke schildert allgemeinverständlich und kurz (130 Seiten) diesen neuen Weg der Kernenergie, den inzwischen zwar die Welt anfängt zu beschreiten, den aber Deutschland in perfekter Dummheit und Eselssturheit nicht mitgehen will.

Daher verbleibt tatsächlich nur noch die freie Behauptung eines gefährlichen Klimawandels infolge zu CO2-aufwendiger“ Lebensweise. Würde dieser einzig noch verbliebene Pfeiler der großen Transformation zusammenbrechen, bleibt nur noch Lächerlichkeit übrig. Dies ist der Grund, warum das fadenscheinige Argument „Klimaschutz“ mit einer Verbissenheit verteidigt wird, die inzwischen nicht einmal mehr vor Kinderkreuzzügen halt macht. Ohne dieses Argument sind nämlich der neue diktatorische Spuk und die schon gedanklich eingestrichenen Profite der Profiteure obsolet.

Die Schriften des WBGU und das Buch von Schneidewind sind zwar überall erhältlich, ferner die Folgen der bereits etablierten Energiewende unübersehbar (Natur- und Anwohner-schädigende Windräder, teuerster Strom Europas ….). Dennoch ist der undemokratische Inhalt der Schriften des WBGU und des Wuppertaler Instituts in der Bevölkerung nahezu komplett unbekannt, ein Phänomen, welches an ein ähnliches vor knapp hundert Jahren in Deutschland erinnert. In den Jahren 2011 bis 2013 hat Philipp Rösler, Mitglied einer sich als frei und liberal bezeichnenden FDP, Wirtschaftsminister und Vizekanzler, kein Wort gegen den undemokratischen Inhalt der bereits im Jahre 2011 herausgegebene Schrift des WBGU  Hauptgutachten – Welt im Wandel, Gesellschaftsvertrag für eine große Transformationerhoben. Schließlich kennt unser Grundgesetz außer der demokratischen Willensbildung des deutschen Volkes keine andersartigen Gesellschaftsverträge“.

Ob sich Geschichte wiederholt, ist umstritten. Die charakterlichen Schwächen der geschichtlichen Akteure sind dagegen sichere Konstanten. Heute ist es die Willenslosigkeit, sich freiwillig und ohne Not der Zerstörung unserer industriellen Basis und einer kommunistisch geprägten Öko-Diktatur zu öffnen.




Klimastreik der Kinder – mittlerweile weltweit?

Unser Pressesprecher Horst-Joachim Lüdecke war letztes Jahr auf der Klimakonferenz im polnischen Kattowitz und berichtete, daß dort zum Großteil Menschen aus nichtwestlichen Ländern weilten. Man konnte den Eindruck gewinnen, daß diese Besucher die Geldquellen von UNO, EU & Co. anzapfen wollten. Quasi als zweite Entwicklungshilfe. Aber sind die Bürger dieser Länder auch genauso überzeugt wie unsere gymnasial-akademische Jugend?

Laut Spiegel offenbar schon. China, Syrien, Indien, Uganda – dort soll die FFF-Welle angeblich schon angekommen sein. Als Beweis dafür zeigen die Quantitätsjournalisten die 16jährige Chinesin Howey Ou, die wie ihr Vorbild Gretel vor einem örtlichen Regierungsgebäude der Stadt Guilin sitzt und ein selbstgemaltes Pappschild mit der Aufschrift „Klimakrise. Schulstreik“ präsentiert. In den sozialen Medien schreibt sie:

„Der erste Streiktag…ich werde vor der Volksregierung in Guilin jeden Tag streiken, bis die chinesische Regierung ein klares Klimaversprechen gibt,  jetzt handelt und sich der Herausforderung stellt.“

Eine Studentin aus Uganda tut es Ou gleich und streikt freitags in der Hauptstadt Kampala mit bis zu 180 Kommilitonen landesweit. Die Gretawelle ist also noch überschaubar; Druck auf Ungläubige können sie nicht ausüben.

„Mein Professor hat mir neulich gesagt, daß es den Klimawandel nicht gibt. Als ich ihm aufgezählt habe, welche Auswirkungen extreme Temperaturunterschiede schon jetzt auf Uganda haben, meinte er, daß sich das Klima ändert, weil es Gottes Entscheidung ist. Er hat mir gesagt, daß er älter wäre und mehr als ich weiß. Wenn ich jetzt noch einmal seine Vorlesungen am Freitag verpasse, läßt er mich durchfallen.“

Guter Mann.

Ein anderes Mädchen aus Indien (seltsam, alles Mädchen…), Asees Kandhari, 15, wurde von ihrer Mutter auf Gretas Aktionen hingewiesen und protestiert nun mit ihr und mittlerweile rund 200 anderen Kindern in der Hauptstadt Neu-Delhi. Interessanterweise geht die Initiative in Indien nicht von Schülern aus, sondern von Lehrern und Eltern.

Einen besonders grotesken Fall von FFF-Streikunwesen hat der Spiegel in – kein Witz – Nordsyrien gefunden. Ein offenbar deutscher Aktivist namens Luis Richter (der Vorname verrät, aus welchem Milieu er kommt), 25 Jahre jung, will in der Region Rojava eine „grüne Revolution“ vom Zaun brechen. Groteskerweise stand die Gegend bis vor kurzem noch unter der Terror-Herrschaft des Islamischen Staates; deswegen haben die örtlichen Araber wohl wenig Sinn für westliche Verstiegenheiten. Obwohl: In Rojava gibt es viel Landwirtschaft, die laut Richter natürlich vom Klimawandel betroffen sei. Es darf bezweifelt werden, daß die Syrer den Quatsch glauben, die kennen sich mit Hitze und Trockenheit seit Jahrhunderten aus.

Wenn es aber Sonder-Fördergelder aus Klimatöpfen der EU oder UN gibt, wird man wohl auf den Zug aufspringen, würde jeder tun.

 

 

 




Stand 2019

A. Glatzle, Planet at risk from grazing animals?, Tropical Grasslands – Forrajes Tropicales, Vol. 2, p. 60-62 (2014)

A. Glatzle, Reconsidering livestock’s role in climate change, Journal of Fisheries and Livestock Production, 3:2 (2015)

A. Glatzle, Questioning key conclusions of FAO publications ‘Livestock’s Long Shadow’ (2006) appearing again in ‘Tackling Climate Change Through Livestock’ (2013), Pastoralism, Policy and Practice, 4:1 (2014)

A. Glatzle, Severe methodological deficiencies associated with claims of domestic livestock driving climate change, Journal of Environmental Science and Engineering B 2, p. 586-601 (2014)

M. Limburg, New systematic errors in anomalies of global mean temperature time-series, Energy & Environment, 25, No. 1 (2014)

R. Link and H.-J. Lüdecke: A new basic 1-dimension 1-layer model obtains excellent agreement with the observed Earth temperature, International Journal of Modern Physics C, Vol. 22, No. 5, p. 449 (2011), doi:10.1142/S0129183111016361

H.-J. Lüdecke: Long-term instrumental and reconstructed temperature records contradict anthropogenic global warming, Energy & Environment 22, No, 6 (2011)

H.-J. Lüdecke, R. Link, and F.-K. Ewert: How natural is the recent centennial warming? An Analysis of 2249 Surface Temperature Records, International Journal of Modern Physics C, Vol. 22, No. 10 (2011)

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, Climate of the Past (European Geosciences Union), 9, 447-452 (2013)

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Paleoclimate forcing by the solar de Vries / Suess cycle, Climate of the Past Discussion (European Geosciences Union), 11, 279-305 (2015)

H.-J. Lüdecke, C.-O. Weiss, X. Zhao, and X. Feng: Centennial cycles observed in temperature data from Antarctica to central Europe, Polarforschung (Alfred Wegener Institut Bremerhafen), 85 (2), 179-181 (2016)

H.-J. Lüdecke and C. O. Weiss: Simple model for the antropogenically forced CO2 cycle, tested on measured quantities, Journal of Geography, Environment and Earth Science International, 8(4), 1-12 (2016)

H.-J. Lüdecke and C. O. Weiss: Harmonic analysis of worldwide temperature proxies for 2000 years, The Open Atmospheric Science Journal, 11, p. 44-53 (2017)

W. Weber, H.-J. Lüdecke and C.O. Weiss: A simple model of the anthropogenically forced CO2 cycle, Earth System Dynamics Discussion (European Geosciences Union), 6, 1-20 (2015)

H.-J. Lüdecke and C.O. Weiss, PPTX-Poster-Template-A0-1 auf der Konferenz der Europäischen Geophysikalischen Union in Wien (2018) in der Session CL0.00 „Past Climate“, von 9:00h bis 20:30 h am 9. 5.2018 unter Anwesenheit eines der beiden Autoren (Prof. Weiss) gezeigt und erläutert.

L. Laurenz, H.-J. Lüdecke, S. Lüning: Influence of solar activity changes on European rainfall, Journal of Atmospheric and Solar-Terrestrial Physics 185 (2019) 29-42 sowie Supplement

Die EIKE-Autoren sind: F.-K. Ewert, A. Glatzle, R. Link, M. Limburg, H.-J. Lüdecke und C.O. Weiss. Alle weiteren Autoren sind extern. Fast alle Arbeiten können in Google Scholar frei als HTML angesehen oder sogar als pdf heruntergeladen werden. Hierzu Autoren und Titel der Arbeit (jeweils mit Kommas getrennt) im Google Scholar Suchfenster eingeben und bei Bedarf unter „alle Versionen“ nachschauen.




Stand Juni 2019

A. Glatzle, Planet at risk from grazing animals?, Tropical Grasslands – Forrajes Tropicales, Vol. 2, p. 60-62 (2014) A. Glatzle, Reconsidering livestock’s role in climate

A. Glatzle, Planet at risk from grazing animals?, Tropical Grasslands – Forrajes Tropicales, Vol. 2, p. 60-62 (2014)

A. Glatzle, Reconsidering livestock’s role in climate change, Journal of Fisheries and Livestock Production, 3:2 (2015)

A. Glatzle, Questioning key conclusions of FAO publications ‘Livestock’s Long Shadow’ (2006) appearing again in ‘Tackling Climate Change Through Livestock’ (2013), Pastoralism, Policy and Practice, 4:1 (2014)

A. Glatzle, Severe methodological deficiencies associated with claims of domestic livestock driving climate change, Journal of Environmental Science and Engineering B 2, p. 586-601 (2014)

M. Limburg, New systematic errors in anomalies of global mean temperature time-series, Energy & Environment, 25, No. 1 (2014)

R. Link and H.-J. Lüdecke: A new basic 1-dimension 1-layer model obtains excellent agreement with the observed Earth temperature, International Journal of Modern Physics C, Vol. 22, No. 5, p. 449 (2011), doi:10.1142/S0129183111016361

H.-J. Lüdecke: Long-term instrumental and reconstructed temperature records contradict anthropogenic global warming, Energy & Environment 22, No, 6 (2011)

H.-J. Lüdecke, R. Link, and F.-K. Ewert: How natural is the recent centennial warming? An Analysis of 2249 Surface Temperature Records, International Journal of Modern Physics C, Vol. 22, No. 10 (2011)

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, Climate of the Past (European Geosciences Union), 9, 447-452 (2013)

H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Paleoclimate forcing by the solar de Vries / Suess cycle, Climate of the Past Discussion (European Geosciences Union), 11, 279-305 (2015)

H.-J. Lüdecke, C.-O. Weiss, X. Zhao, and X. Feng: Centennial cycles observed in temperature data from Antarctica to central Europe, Polarforschung (Alfred Wegener Institut Bremerhafen), 85 (2), 179-181 (2016)

H.-J. Lüdecke and C. O. Weiss: Simple model for the antropogenically forced CO2 cycle, tested on measured quantities, Journal of Geography, Environment and Earth Science International, 8(4), 1-12 (2016)

H.-J. Lüdecke and C. O. Weiss: Harmonic analysis of worldwide temperature proxies for 2000 years, The Open Atmospheric Science Journal, 11, p. 44-53 (2017)

W. Weber, H.-J. Lüdecke and C.O. Weiss: A simple model of the anthropogenically forced CO2 cycle, Earth System Dynamics Discussion (European Geosciences Union), 6, 1-20 (2015)

H.-J. Lüdecke and C.O. Weiss, PPTX-Poster-Template-A0-1 auf der Konferenz der Europäischen Geophysikalischen Union in Wien (2018) in der Session CL0.00 „Past Climate“, von 9:00h bis 20:30 h am 9. 5.2018 unter Anwesenheit einer der beiden Autoren (Prof. Weiss) gezeigt und erläutert.

L. Laurenz, H.-J. Lüdecke, S. Lüning: Influence of solar activity changes on European rainfall, Journal of Atmospheric and Solar-Terrestrial Physics 185 (2019= 29-42 sowie Supplement.

Die EIKE-Autoren sind: F.-K. Ewert, A. Glatzle, R. Link, M. Limburg, H.-J. Lüdecke und C.O. Weiss. Alle weiteren Autoren sind extern.
Fast alle Arbeiten können in Google Scholar frei als HTML angesehen oder pdf heruntergeladen werden. Hierzu Autoren und Titel der Arbeit (jeweils mit Kommas getrennt) im Google Scholar Suchfenster eingeben und bei Bedarf unter „alle Versionen“ suchen.




Klimawissen­schaftler am MIT: „AGW-Behaup­tungen fußen auf nicht vertrauens­würdigen, gefälschten Daten … haben keinerlei wissenschaft­lichen Wert!“

Dr. Kiminori Itoh machte jüngst auf die Kindle-Version eines klimaskeptischen Buches aus Japan aufmerksam. Es trug den Titel [übersetzt] „Alltag eines Klimawissenschaftlers – Theorie der globalen Erwärmung ist unbewiesen und lediglich eine Hypothese“* (hier). Autor des Buches ist Dr. Mototaka Nakamura, (1)der seinen Doktorgrad 1994 am MIT erwarb und da nach zeitweilig am MIT und viel en renommierten Instituten arbeitete.

[*Direktübersetzung via Google aus dem Japanischen. Anm. d. Übers.]

In seinem Buch erklärt Dr. Nakamura, warum die vermeintlich die globale Erwärmung belegenden Daten „vertrauensunwürdig“ sind und man sich nicht auf sie verlassen kann.

Nicht gestützt durch nachweisbare Daten

Er schreibt, dass zwar viele Menschen, darunter auch viele Klimaforscher, glauben, dass es eine bewiesene Tatsache ist, dass die Temperaturen seit der Industriellen Revolution gestiegen sind, dass dieser Anstieg aber „nicht durch nachweisbare Daten gestützt“ wird. Er schreibt:

Die globalen mittleren Temperaturen vor dem Jahr 1980 haben keine vertrauenswürdigen Daten zur Grundlage. Bevor die Satelliten-Überwachung des gesamten Planeten im Jahre 1980 begann, wurden die Temperaturen nur in einem kleinen Teil der Erde mit einem gewissen Grad an Genauigkeit und Häufigkeit gemessen. Vom gesamten Globus liegen nur aus Nordamerika und Westeuropa vertrauenswürdige Temperaturdaten vor, die bis zum 19. Jahrhundert zurück reichen.

Renommierte Karriere

Dr. Nakamura erwarb seinen Doktortitel (Dr. rer. nat.) am Massachusetts Institute of Technology (MIT) und spezialisierte sich über fast 25 Jahre auf anomales Wetter und Klimawandel an renommierten Institutionen, darunter auch das MIT, aber auch am Georgia Institute of Technology, NASA, Jet Propulsion Laboratory, California Institute of Technology, JAMSTEC und Duke University.

Gescheiterte Klimamodelle

Nakamuras Buch zerschlägt “die Lüge einer kritischen globalen Erwärmung infolge des zunehmenden Kohlendioxid-Gehaltes”. Er stellt die große Unsicherheit der “globalen Erwärmung während der letzten 100 Jahre bloß” und verweist auf das grandiose Scheitern der Klimamodelle.

Nur 5% der Erdoberfläche wurden während der letzten 100 Jahre adäquat vermessen

Dr. Nakamura zufolge fehlt es den Temperaturdaten an entscheidenden Inhalten, und sie gestatten in keiner Weise, irgendwelche brauchbaren Schlussfolgerungen zu ziehen:

Bildinschrift: <b>Große Unsicherheit … unmöglich, einen Trend abzuleiten</b>

Vollständige Satelliten-Überwachung erst seit 40 Jahren

Bodenstationen viel zu weit verstreut

Oberflächendaten von den Ozeanen mit entscheidenden Lücken

Daten aus der Tiefe der Ozeane nahe Null

Hemmungslose Daten-Adjustierungen und Pfusch

Gegenwärtig ist das Buch leider nur auf japanisch erhältlich. Hier folgen einige übersetzte Passagen.

So illustriert Dr. Nakamura beispielsweise, wie dünn gesät die globalen Temperaturdaten wirklich sind, und er schreibt, dass es während der letzten 100 Jahre „nur für 5 Prozent der Erdoberfläche möglich war, die mittlere Temperatur mit einem halbwegs gewissen Grad an Genauigkeit zu ermitteln“.

Extrem spärliche Ozeandaten

Dann gibt es da die völlig unzureichende Anzahl von Daten der großen Ozeane. Später beschreibt Dr. Nakamura, warum die Präzision der gemessen mittleren Temperatur auf den Ozean-Oberflächen, welche etwa 75% der Erdoberfläche bedecken, bis hin zum Extrem in Frage gestellt werden muss.

Er schreibt: „Die Temperaturdaten vor dem Jahr 1980 von Luft und Wasser sind sehr weit gestreut“. Die Verfahrensweise der Aufzeichnung derselben ist vollkommen unangemessen.

Um es in einer Nussschale auszudrücken: „Die Rohdaten der Klima-Datensätze der Wassertemperatur an der Ozeanoberfläche sind verschiedenen Adjustierungen unterzogen worden“.

1 Station pro 10.000 km² sind nahezu bedeutungslos

Dr. Nakamura belegt außerdem, dass die Anzahl der global genutzten Messpunkte kein auch nur ansatzweise genaues Temperaturbild ergeben kann. „Experten können nicht einfach entscheiden, dass 10.000 km² um jeden Messpunkt repräsentative Temperaturwerte ergeben“.

Später erklärt er: „Falls man die Erwärmung der Erdoberfläche seit der Industriellen Revolution als Wahrheit akzeptiert, bedeutet das, dass man dem Gedanken zustimmt, dass man die mittlere Temperatur an der Erdoberfläche bestimmen kann mittels einer verzerrten winzigen Region auf dem Globus. Das ist Unsinn! Betrachtet man die Regionen mit langen Zeitreihen der Temperatur, kann man sehen, dass es sich in einigen Regionen erwärmt, in anderen aber abgekühlt hat“.

Nakamuras harte Beurteilung: „Von keinerlei wissenschaftlichem Wert“

Und schließlich verurteilt Nakamura die fortgesetzten Daten-Adjustierungen: „Außerdem haben Experten erst jüngst neue Adjustierungen angebracht, welche den hilfreichen Effekt hatten, die Erde als sich weiterhin erwärmend erscheinen zu lassen“. Der talentierte Japaner verurteilt das als „Daten-Fälschung“.

Er folgert:

Daher haben die Daten der globalen mittleren Temperaturänderung jedweden wissenschaftlichen Wert eingebüßt. Sie sind nichts weiter als ein Propagandamittel, um die Bevölkerung zu betrügen.

Link: https://notrickszone.com/2019/06/21/mit-doctorate-climate-scientist-slams-gw-claims-based-on-untrustworthy-falsified-data-no-scientific-value/

Übersetzt von Chris Frey EIKE

(1) Dr. Nakamura received a Doctorate of Science from the Massachusetts Institute of Technology (MIT), and for nearly 25 years specialized in abnormal weather and climate change at prestigious institutions that included MIT, Georgia Institute of Technology, NASA, Jet Propulsion Laboratory, California Institute of Technology, JAMSTEC and Duke University.