1

Auch die Forsythien­blüte in Seesen am Harz verspätet sich

Die Forsythienblüte in Seesen:

Der Phänologe Georg von Petersdorff-Campen in Seesen./Kirchberg schickte uns ebenfalls seine Beobachtungsdaten der Forsythienblüte zu. Der Ortsteil Kirchberg hat 550 Einwohner und liegt südwestlich vom Harz. Bei der folgenden Grafik wieder beachten: Nach oben sind die Tage nach Neujahr aufgetragen. Je höher der Ausschlag, desto später der Blühbeginn. Eine steigende Trendlinie heißt Verspätung des Frühlingsbeginns.

Abb.1: Auf der x-Achse sind die Tage nach Neujahr eingetragen. Seit 34 Jahren erfolgt die Forsythienblüte auch in Seesen mit einer deutlichen Verspätung. 2019 war der Aufblühtermin der 16/17.März. Wie zu erwarten ist der Blütenbeginn im eher ländlichen Kirchberg gegenüber der großen Wärmeinsel Hamburg allgemein um gut eine Woche später. Aber sonst stimmen die Beobachtungsdaten, vor allem der Trendlinienverlauf mit der Grafik in der Innenstadt Hamburgs überein. Datenquelle: Phänologe Georg v. Petersdorff-Campen.

Der Versuch einer Deutung ist schwierig. Nicht nur die Lufttemperatur, gemessen in 2 m Höhe ist ausschlaggebend. Wie wir aus diversen Artikeln auch der Autoren Kämpfe/Kowatsch wissen, wurde es ab 1940 und erst recht nach Kriegsende in Deutschland kälter. Zum einen wegen der Umstellung der Großwetterlagen, das sind natürliche Gründe dieser Klimaabkühlung, aber auch wegen der fehlenden Wärmeinseleffekte bei den Wetterstationen: weil die Städte ausgebombt waren und das Überleben auf Sparflamme kochte, und Eistage auch in den Häusern wahrgenommen wurden. Der steigende Wohlstand, die rege Bautätigkeit und die Beheizung aller Räume nebst steigendem Warmwasserverbrauch im Haus, sowie die zunehmende Industrialisierung und das Bevölkerungswachstum brachten wieder Wärme in Deutschlands Wohnorte. Diese positive Nachkriegsentwicklung begünstigte den früheren Frühlingsbeginn, er folgte dem Wohlstand. Ein Vorgang, der in den 80-er Jahren wohl sein Ende gefunden haben dürfte, in der Innenstadt Hamburgs eher als in dem kleinen Weiler Kirchberg. Seitdem werden die Wintermonate wieder leicht kälter.

Ein ähnliches Verhalten zeigen auch die andere Frühblüher und die Tierwelt. Der Start der Krötenlaiche am Bächweiher im Heimatort des Verfassers ist diesmal der 31. März/ Anfang April, vollkommen übereinstimmend mit den Beobachtungen der letzten 3 Jahrzehnte. Die in den Medien immer wieder behauptete Wintererwärmung und einen früheren Frühlingsbeginn gibt es nicht, außer in den Medien. So wurde auch dieses Jahr in den Tageszeitungen wieder Anfang März auf die Krötenwanderung aufmerksam gemacht. Da herrschten nachts im Ostalbkreis noch deutliche Minusgrade. Der Laich wäre erfroren. Aber weil die Menschen keinen Bezug mehr zu Natur haben, bemerken sie solche Unwahrheiten nicht.

Dafür steht in den Tageszeitungen: Die Störche sind diesmal verfrüht da. Kein Wunder, denn die Störche brühten nicht in der kalten Natur, sondern auf den warme Dächern beheizter Gebäude oder Erhöhungen innerhalb der Ortschaften und ihre Nahrung finden sie auf den warmen Mülldeponien. Dort tummeln sich auch Mäuse zuhauf, denn Frösche und Kröten waren noch nicht unterwegs.

Weshalb verspäten sich die Forsythien und andere Märzfrühblüher?

Ein Blick auf die Temperaturentwicklung der beiden Monate Februar und März bringt uns der Erklärung näher. Zusammengefasst benennen wir sie mit Vorfrühling.

Abbildung 2: Die Temperaturtrendlinie der Vorfrühlingsmonate Februar und März hat seit 30 Jahren einen eindeutig fallenden Trend. Dabei sind die letzten 40-50 Tage vor Blütenbeginn maßgeblich. Die letzten 10 Märztage beeinflussen bereits die Aprilblüher.

Solange der fallende Temperaturtrend der beiden Vorfrühlingsmonate keine Änderung erfährt, wird der Verspätungstrend der Forsythienerstblüte noch weitere Jahre anhalten. Schließlich kühlt auch der Erdboden bis in 1m Tiefe zunehmend aus, somit fehlt auch das Startsignal aus dem Erdreich. Seit der Jahrtausendwende hat sich der Verspätungstrend in Hamburg und Seesen sogar leicht verstärkt. Das ist kein gutes Vorzeichen.

Die unter anderem auch bei WIKIPEDIA geäußerte Behauptung „…Hinzu kommt, dass die Forsythie, wenn kein ausreichender Kältereiz vorhanden ist, nicht unbedingt der Temperatur folgt. …“ lässt sich relativ leicht widerlegen (Quelle). Zwar bezogen sich diese Aussagen auf Hamburg. Doch setzt man die Daten von Seesen zum Temperaturmittel des Zeitraums Februar und März (01.02. bis 31.03.) in Relation, so erkennt man den engen Zusammenhang zwischen Temperatur und Blühbeginn:

Abbildung 3: Je niedriger die Temperaturwerte im Vorfrühling (Februar und März), desto mehr Tage vergehen bis zum Beginn der Forsythienblüte (deshalb die negative Korrelation; Temperaturerhöhung wirkt stark verfrühend). 76% der Variabilität der Blühtermine am Standort Seesen wurden von der Temperatur des Vorfrühlingszeitraumes bestimmt – ein erstaunlich enger, signifikanter Zusammenhang.

Logischerweise gibt es auch andere Gründe, die das Aufblühen der Erstfrühlingsblüher beeinflussen, die haben wir ausführlich auch im Artikel Forsythienblüte Hamburg, siehe link oben beschrieben.

Und ganz lange Zeiträume: Das Märzenveilchen erblühte auch dieses Jahr in der freien Fläche außerhalb der Städte in der zweiten Märzhälfte wie schon zu Goethes und Mozarts Zeiten.

Bislang sehr wechselhafter Frühling 2019 – besteht Hoffnung auf Besserung?

Zwar fiel der März wegen häufiger, sehr windiger Westwetterlagen relativ mild aus; doch bei dem eher trüben, oft sehr wechselhaften Wetter kamen keine dauerhaften Frühlingsgefühle auf. Die Ausgangslage ist eine ganz andere als 2018. Damals brach der stratosphärische Polarwirbel schon Ende Januar zusammen, und bei einer markanten QBO-Ostwindphase folgte einem bitterkalten Spätwinter ein sehr warmer, leider auch trockener Voll- und Spätfrühling. Diesmal hält sich der Polarwirbel sehr lange, was wohl auch noch im ersten Aprildrittel wechselhaftes Westwetter begünstigen könnte; ab spätestens Mitte April deuten die meisten Mittelfrist-Modelle aber den Übergang zu mehr oder weniger warmen Ostwetterlagen an. Erfahrungsgemäß hat die vorausgehende Januar-Witterung, welche diesmal von Nordwestlagen dominiert war, aber auch einen gewissen Einfluss auf die Frühjahrswitterung; einzelne Kälterückfälle aus Nordwest bis Nord sind also mit erhöhter Wahrscheinlichkeit auch in den kommenden Wochen zu erwarten. Insgesamt dürften die Monate April und Mai also zwar nicht ganz so freundlich und warm wie 2018 verlaufen – trotzdem deuten sich Temperaturen über dem Mittelwert von 1981 bis 2010 zumindest vage an.

Ergebnis: Der Frühling beginnt in Deutschland seit über 30 Jahren etwas später. Viele Märzblüher sind verspätet. Wir führen das hauptsächlich auf die seit gut 30 Jahren kälter werdenden Monate Januar, Februar und März zurück. Damit kühlt sich auch der Boden am Standort der Pflanzen aus.

Es wird Zeit, dass die deutschen Medienvertreter endlich davon Kenntnis erhalten, die drei Wintermonate kälter werden und die Erstblüher sich deshalb verspäten.

Auch die Erstblüher zeigen erneut, dass wir keinesfalls inmitten einer gefährlichen CO2-erzeugten Klimaerwärmung stehen. CO2 hat zugenommen und wirkt als Düngemittel sogar leicht verfrühend.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Wachsende Gletscher und steigende Meeresspiegel: Orwellsche Dialektik in den Massenmedien

Kollege Chris Frey wies neulich darauf hin, daß der größte Grönland-Gletscher Jakobshavn Isbræ seit zwei Jahren wieder wächst, wie statt vom Weltklimarat IPCC vorgeschrieben zu schrumpfen

Nun gibt es Nachricht, daß auch die Gletscher in den Alpen wieder etwas zulegen. Kein Wunder, da das natürliche Wärmeoptimum sich in rund zehn bis 20 Jahren verabschieden und einer erneuten mindestens einhundertjährigen Kühlphase Platz machen wird. Hätten die Klima-Märchenonkel doch lieber auf die althergebrachte Klimaforschung gehört, die von astronomischen Zyklen statt von irgendwelchen „Killer-Gasen“ in der Luft ausgeht.

Stattdessen bastelt die ARD gerade fleißig weiter an ihrer Botschaft vom nahenden Weltuntergang. Wie fleißige Leser uns gerade mitteilten, steigen zumindest in den Köpfen der GEZ-Redaktöre die Meeresspiegel gerade wieder an. Wo die ihre zur Theorie passenden Daten herhaben, weiß ich nun gerade auch nicht (geträumt?); aber die Meere steigen weltweit nicht an. Unsere Referentin Maria da Assunção Araújo, Professor für Geografie an der Universität Porto, zeigte auf unserer Konferenz im November, daß kaum eine Messstation im Meer einen Anstieg anzeige. Darüberhinaus sind die Geräte mitunter ziemlich weit draußen und messen damit nicht in der Gezeitenzone (Ebbe & Flut). Unser Referent Thomas Wysmuller zeigte zudem, daß selbst bei Abschmelzen des kontinentalen Eispanzers der Meeresspiegel nicht ansteigen muß. Gründe: Erstens drückt das schwere Eis die Landmasse herunter, so daß nach Verschwinden des Panzers das Land ansteigt. Zweitens drückt auch flüssiges Wasser im Meer dessen Boden herunter, so daß am Ende die Effekte sich ausgleichen oder der Meeresspiegel sogar fällt. Nebenbei: Wußten Sie, daß Spiegel-Oberfälscher Claas Relotius auch herzerweichend über „versinkende“ Inseln und deren Bewohner berichtete? Natürlich war er nie vor Ort, Klimajournalisten-Ehrensache.

Zur orwellschen Dialektik von Klimapapst Schellnhuber und seinen Hausmedien gehört, daß wir nicht nur ersaufen, sondern gleichzeitig auch verbrennen werden. Oder so. Damit Sie das auch glauben, vermelden mehrere Qualitätsorgane derzeit die bevorstehenden Dürrekatastrophen wie im Sommer 2018. Daß die beiden Winter vorher und nachher zum Beispiel in den USA mit gefrorenen Meereshaien und gefrorenen Tesla-E-Autos einhergingen, wird natürlich nicht erwähnt. Oder „die Extreme werden mehr“.

In meinem Diskutierclub auf Facebook haben wir überlegt, was die Weltuntergangspropheten eigentlich als nächstes prophezeien werden, um den Wähler mit Panikmache gefügig zu machen und abzukassieren. Die milden Sommer und kalten Winter ab etwa 2030/2040 werden keine weitere Heißzeit-Propaganda mehr zulassen.

Eiszeit in den 70ern, Waldsterben in den 80ern, Ozonloch Anfang der 90er, „Selbstverbrennung“ aktuell, was bleibt da? Ein Kollege meinte, das historische Gedächtnis der Menschen sei kurz und hänge zudem von der Bildung und den Medien ab. Ich wandte ein, daß die Medien und unser Gedächtnis durch Internet demokratisiert seien. Der heftige Greta-Kult zum Beispiel wird sich nicht mehr „vergessen“ lassen. „Virus“, meinte daraufhin dann der Kollege. Übers Netz verbreitet würden dann alle Server und Privat-Festplatten gelöscht. Und dieser Häck würde dann halt als „chinesischer Angriff unter Führung von Trump und Putin“ verkauft, witzelte er weiter. So irrsinnig ist die Idee aber nicht, wenn man beobachtet, wie viele Bürger den weltanschaulichen Schwachsinn rund um Klima, Asyl und Gender schlucken….

 

  • *https://www.youtube.com/watch?v=DOaV9C95Erw



Klima-Tamtam im TV: schon wieder – diesmal bei Maybrit Illner

von FMD

Zusammenschnitt der Sendung ‚Maybrit Illner’ im Zweiten, vom 28.03.2019; von mir kommentiert (28./29.03.2019).

Thema der Sendung war, „Jugend demonstriert – Politik ignoriert?“. Wie die ARD, kommt auch das ZDF bzgl. des Themas Klimawandel nach wie vor seinem Auftrag nicht nach: Ausgewogen zu berichten, wirklich verschiedene Meinungen, auch verschiedene Expertenmeinungen, in Talkrunden zuzulassen.

Wieder einmal wurden keine klimarealistischen Experten, geschweige denn überhaupt Klimarealisten, eingeladen. Und es wurden auch hier allgemein keine Klimaexperten eingeladen. Oder ist ein Mediziner und TV-Unterhalter wie Eckart von Hirschhausen neuerdings Klimaexperte?

Video nicht mehr verfügbar
 

 

 




Auto-CO2-Werte: EU beschließt Armuts-Beschaffungs-Programm

Für die, die es sich dennoch weiter leisten können, halbiere ich die Reichweite und reduziere die Zahl der Tankstellen, so dass man dort Schlange stehen muss. Mit diesen zwei einfachen Schritten erledige ich ganz nebenbei eine einstmals florierende Automobilindustrie. Damit niemand widersprechen kann, führe ich als Begründung für das Verfahren die Rettung der Menschheit an. Wer dennoch mault, ist destruktiv und moralisch verkommen, kurz ein Staatsfeind. Das Verfahren klingt eher nach Kuba oder Venezuela. Es wurde aber gestern im Europäischen Parlament beschlossen.

EU beschließt Abgas-Hammer“ titelt die Bild-Zeitung. Bis 2030 sollen Neuwagen im Schnitt 37,5 Prozent weniger Kohlenstoffdioxid in die Luft blasen als 2021. Das ist aber mit Verbrennungsmotoren unmöglich. Ein Auto müsste im Schnitt 2,6 Liter auf 100 Kilometer verbrauchen, das ist technisch nicht machbar, schon gar nicht für größere Fahrzeuge, von denen die deutschen Autohersteller leben. Sind die Werte nicht einhaltbar, was absehbar ist, kommen hohe Strafzahlungen ins Spiel. Für einen Kompaktwagen wie einen Opel Astra oder VW-Golf würden dann Beträge in bis zu fünfstelliger Größenordnung fällig.

Um das Ziel zu erreichen, müssen deshalb bis 2030 – also in etwa zehn Jahren –  40 Prozent aller Autos E-Autos sein. Die sind aber viel teurer und schwerer als die herkömmliche Technik. Eine den Tankstellen vergleichbare schnelle Lade-Infrastruktur ist nicht in Sicht. Ja, es ist noch nicht einmal ein Stromnetz in Sicht, das dies alles verkraften könnte. Ganz im Gegenteil, das Netz wackelt ja jetzt schon.

Das Zerstörungswerk der Energiewende fortsetzen

Was da in Brüssel verabschiedet wurde, läuft in Deutschland unter dem Label „Verkehrswende“ und wird das Zerstörungswerk der „Energiewende“ mit anderen Mitteln fortsetzen. Die Bild-Zeitung hätte für ihren Titel ohne Übertreibung auch das Wort „Vorschlaghammer“ benutzen können. Die Ergebnisse der Energiewende lassen sich ja bereits besichtigen: Das deutsche Stromnetz ist in den letzten Jahren immer volatiler geworden, das Risiko eines Blackouts steigt, der Strom wurde drastisch teurer und die Preise steigen weiter, die einstmals superprofitablen Energieversorger sind ruiniert und streichen zehntausende Stellen von Mitarbeitern. Und obendrein steigen auch noch die Kohlendioxid-Emissionen, das heißt, der Irrsinn ist klimapolitisch auch noch kontraproduktiv, weil wir einen fossilen Parallel-Kraftwerkspark brauchen, wenn der Wind nicht weht und die Sonne nicht scheint, was ja vorkommen soll. Wahlweise gibt’s Atomstrom von den Nachbarn. Und da packt man jetzt noch 40 Prozent Elektroautos oben drauf.

Die von der Autoindustrie eingeforderten Subventionen für Fahrzeuge und Infrastruktur werden gewiss großzügig fließen, das heißt, die Steuerzahler müssen für diesen Wahnsinn aufkommen. Genau wie die Krankenschwester und der Polizist über den Strompreis die Solarzellen auf dem Dach des Architekten-Hauses mitbezahlen, wird es auch diesmal kommen. Die S-Bahnfahrer dürfen den Elektro-Spleen der Besserverdienenden finanzieren, es wird mal wieder reichlich von unten nach oben umverteilt.

Es soll daher bitte keiner behaupten, er sei über die Konsequenzen dieser Politik nicht im Bilde gewesen. Fakt ist: Breite Bevölkerungsschichten werden auf subtile Weise von der individuellen Mobilität abgekoppelt. Das wird insbesondere Menschen auf dem Lande und Pendler betreffen, die dringend auf ihr Auto angewiesen sind. Die Zwangsverteuerung trägt entweder der Kunde, für den Autos zunehmend unerschwinglich werden, oder der Autohersteller, der durch diese Zusatzbelastung nicht mehr rentabel arbeiten kann. Was das für die Arbeitsplätze in diesem Land bedeutet, kann sich jeder selbst ausmalen.

Am Schluss werden deshalb auch die Radfahrer, oder, besser gesagt, alle bezahlen: Die gestern beschlossenen CO2-Werte sind für Deutschland nichts anderes als ein groß angelegtes Armuts-Beschaffungs-Programm. Und eine Immmobilitäts-Wende. Vielleicht teilen die Wähler ihrem Abgeordneten im Europa-Parlament ja bei der kommenden Wahl mit, dass sie das bemerkt haben.

Der Beitrag erschien zuerst bei ACHGUT




Debatte : Fakten zum Klimawandel

Menschengemachte Klimaerwärmung: Dass sich alle einig sind, die Klimaerwärmung sei hauptsächlich oder ausschliesslich menschengemacht und eine Folge des CO2-Anstiegs in der Atmosphäre, ist Unsinn. Der deutsche Klimaforscher Stefan Rahmstorf behauptet, der Mensch sei zu 100 Prozent an der Erwärmung seit 150 Jahren schuld. Diese Behauptung allerdings ist in der Fachwelt hochumstritten. Der Bericht «Klimaszenarien CH2018» zum Beispiel stellt fest, dass nur «mindestens die Hälfte der Erwärmung der letzten 50–100 Jahre anthropogenen Ursprungs» sei. Anders formuliert: Bis zur Hälfte der Erwärmung hat natürliche Ursachen. Professor Mojib Latif, Universität Kiel, sagte der Neuen Osnabrücker Zeitungam 9. Februar 2012 auf die Frage, ob eher die Sonne oder das CO2 die Erderwärmung verursache: «Es ist ein Mix aus beidem. Klar ist, dass der Mensch über die Hälfte des Temperaturanstiegs seit Beginn der Industrialisierung zu verantworten hat.»

Klimasensitivität und Kohlendioxid – Klimasensitivität heisst: Um wie viel Grad Celsius steigt die globale Temperatur bei einer Verdoppelung des Kohlendioxids (CO2) in der Atmosphäre? Studien, welche die Klimasensitivität des CO2 weit geringer einschätzen als der Weltklimarat IPCC, kommen alle paar Monate heraus, werden aber nicht beachtet. Stattdessen wird der Eindruck erweckt, Kohlendioxid sei die wichtigste und entscheidendste Treibhaussubstanz. Diesem Befund widerspricht zum Beispiel auch der renommierte Meteorologe Prof. Richard Lindzen, Massachusetts Institute of Technology, der stattdessen die Rolle von Wasserdampf und Wolken als «viel bedeutsamer» herausstreicht.

Sonne – Der Einfluss der Sonne auf die Klimaentwicklung wird möglicherweise grandios unterschätzt. Dazu hat erst im letzten Jahr der dänische Forscher Henrik Svensmark, Technische Universität Dänemarks in Lyngby, eine neue Studie vorgelegt. Seine wichtigste Aussage: «Das Klima wird stärker durch Veränderungen der kosmischen Strahlung beeinflusst als durch das Kohlendioxid.» Seiner Meinung nach führt eine Verdoppelung des Treibhausgases in der Atmosphäre zu einem Temperaturanstieg von einem Grad und nicht zwei Grad, wie es heute als Konsens dargestellt wird. Kurz: Die Klimasensitivität ist nur halb so gross wie angenommen. Mehr noch: Der CO2-Anstieg ist für Svensmark nicht Ursache, sondern eher die Folge der Erwärmung, «ein Sklave der kosmischen Strahlung sowie der durch sie bewirkten Erwärmung und nicht ihr Herrscher». Die Höhe des CO2-Anteils sei der Erwärmung gefolgt und nicht umgekehrt.

Untergehende Pazifikinseln – Ausgerechnet der als Fälscher überführteSpiegel-Reporter Claas Relotius berichtete am herzerschütterndsten über die angeblich so dramatischen Folgen des angeblich menschengemachten Klimawandels. Am 1. Dezember 2018 erschien imSpiegelseine Titelgeschichte über das Atoll Kiritimati, kiribatische Inseln, wo angeblich mehrere Städtchen, sinnigerweise mit den Namen London, Paris und Poland, wegen klimaverursachter Überflutung hätten geräumt werden müssen. Zwar korrigierte derSpiegelmittlerweile, dass Relotius jemals auf dieser Inselgruppe war, das Blatt liess aber den sachlichen Relotius-Befund stehen, wenigstens die Ortschaft Paris sei kürzlich wegen des Klimawandels verlassen worden. Doch auch dies stimmt nicht. Der Ort ragt nach wie vor deutlich aus dem Wasser, wie Videos zeigen, von Überflutung keine Spur. Das Städtchen wurde zwar verlassen. Wie aber der entsprechende Wikipedia-Eintrag zeigt, wurde Paris nicht wegen des Klimas, sondern wegen «eines fehlenden nahen Ankerplatzes» bereits vor geraumer Zeit aufgegeben. Die generelle Behauptung, dass zum Beispiel die kiribatischen Inseln wie andere Atolle wegen des Klimawandels im Meer versinken, ist unwahr. Die beiden Geowissenschaftler Arthur P. Webb und Paul S. Kench aus Neuseeland und Fidschi haben in einer aufsehenerregenden Studie festgestellt, dass von 27 kiribatischen Inseln im zentralen Pazifik in den letzten drei bis fünf Jahrzehnten nur ein geringer Anteil überhaupt ans Meer verlor, nämlich 14 Prozent. Bei 43 Prozent ist die Landfläche stabil, bei 43 Prozent sogar gewachsen. Auch der Begriff «Klimaflüchtling» aus dem pazifischen Raum muss vor diesem Hintergrund kritisch gesehen werden.

Mehr Wirbelstürme? – Was die tropischen Unwetter angeht, gibt es schlechterdings keine Daten für einen belastbaren Trend weder in der Intensität noch in der Häufigkeit. Dies kann sogar unter dem Wikipedia-Artikel «Folgen der globalen Erwärmung» nachgelesen werden. Was sich in den letzten drei, vier Jahren abgezeichnet hat: Die festgestellte Häufung von Extremereignissen ist nicht unmittelbar auf höhere Temperaturen zurückzuführen. Es handelt sich um eine Hartnäckigkeit von Wetterextremen: Trockenheit bleibt länger Trockenheit, Dauerregen bleibt länger Dauerregen. Das liegt – auch nach Meinung herkömmlicher Klimaforscher – weitgehend daran, dass der Jetstream in seiner Variabilität nachlässt und deshalb nicht so häufig für Wetterveränderungen sorgt. Es gibt zwar theoretisch Ansätze, dies auf die Erwärmung vor allem der polaren Gebiete zurückzuführen, bewiesen ist da aber noch nichts.

El Nino – Der letzte El Niño im Jahr 2016 war einer der stärksten überhaupt. El-Niño-Ereignisse tragen immer zu einer globalen Erwärmung bei. Auch hier ist nicht bewiesen, inwieweit sie ihrerseits auf die Erderwärmung zurückzuführen sind.

=================================================================

)*  Anmerkung der EIKE-RedaktionDieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : Fakten zum Klimawandel | Die Weltwoche, Nr. 12 (2019) | 21. März 2019 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und den Autoren Roger Köppel und Ulli Kulke für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




ABGEBRANNT Feuer und Flamme beim Elektroauto

2020 sollen eine Million Elektroautos auf unseren Straßen fahren, 2030 dann schon die Hälfte, also 24 Millionen Elektroautos. Mit dem ersten Ziel dürfte es kaum mehr etwas werden. Das schaffen wir nicht. Wer an das zweite Ziel glaubt, hält sicher auch den Weihnachtsmann für eine reale Figur.

Den Glauben an eine gute Weltmeisterschaft in diesem Jahr haben die Elektro-Biker verloren. Wohl zum ersten Mal muss eine Motorsport-Meisterschaft verschoben werden, weil, ja, nun, weil – die Motorsport-Geräte verbrannt sind.

Ungläubiges Staunen der Fans: Wie verbrannt? Ja, alle Motorräder, mit denen sich die Champions auf die Rennstrecke stürzen wollten, sind verbrannt.

Wieso?

Es sind Elektro-Bikes – gewesen. Auf dem Circuito de Jerez in Spanien fanden MotoE-Testfahrten statt. Über Nacht hingen die teuren und wertvollen Renn-Elektro-Motorräder in einer von allen Teams benutzen Halle an den Ladestationen. Die Batterien der elektrischen Hochleistungsmotorräder sollten kräftig mit Strom vollgepumpt werden. Gegen 0.15 Uhr fing eine der Ladestationen Feuer. Das griff im Nu auf alle 18 Hightech-Bikes über, sie brannten ab. Die Werkstatt wurde zerstört mit sämtlichen Einzelteilen, vor allem Werkzeuge und Laptops mit wichtigen Daten, die rennentscheidend sein können. Verletzt wurde niemand.

Eine kleine Gruppe von vier Beschäftigten sollte »Nachtwache« halten, das Laden überwachen und hat eher nicht daran geglaubt, dass etwas passieren kann. Plötzlich bemerkten sie, wie Rauch aus einer der Ladestationen aufstieg. Ruckzuck stand die Halle in hellen Flammen, Löschversuche scheiterten, wenn die super-Lithium-Ionen-Batterien brennen, dann brennen sie.

Der ursprünglich für den 5. Mai geplante Saisonstart muss abgesagt werden. So schnell können keine neuen Bikes hergestellt werden.

Dass Elektro-Fahrzeuge vor Flammen gefeit sind, ist ein Irrglaube. Eine Aussage, ob E-Autos häufiger brennen als Verbrenner, ist jedoch kaum möglich. Dazu gibt es zu wenig Elektroautos und die Datenlage ist zu dünn.

Die Post jedenfalls hatte geglaubt, mit tausenden von Elektro-Karren Pakete »sauberer« bis vor die Haustür transportieren zu können. Rund 9.000 rollen über die Straßen, knapp 500 vom Typ Work L von ihnen dürfen nicht fahren. Nachdem zwei fast fabrikneue Fahrzeuge abbrannten und den CO2 Fußabdruck der Post für das gesamte Jahr wieder versauten, reagierte die Post und verbannte die E-Autos in die Garage. Der Grund: Es besteht hohe Brandgefahr.

Die Feuerwehr konnte die Brände kaum unter Kontrolle bringen, weil hoch giftige Fluorwasserstoffe austraten.

Post-Sprecher Andreas Edenhofer sagte gegenüber dem MDR: »Die Brände gingen jeweils von der Batterie aus.« Die Lithium-Ionen-Hochspannungsbatterien standen in Flammen, es trat »hochtoxischer und ätzender Fluorwasserstoff aus.« »Wir haben unsere Niederlassungen angewiesen, diese Fahrzeuge bis auf weiteres außer Betrieb zu nehmen und vorläufig durch andere Fahrzeuge zu ersetzen, um unsere Zustellerinnen und Zusteller keinem Risiko auszusetzen«, erklärte die Post gegenüber der ARD-Sendung »Plusminus«. Die betroffenen Wagen sollen überprüft und gegebenenfalls überarbeitet werden.

Die Feuerwehren stehen gegenüber von Bränden bei Elektroautos vor erheblichen Problemen. Löschen geht im Gegensatz zu Benzinern oder Dieselfahrzeugen fast nicht. In den Batterien stecken – selbst wenn sie entladen sind – erhebliche Mengen an Energie bei Spannungen zwischen 600 und 800 Volt. Wenn die losgehen, ist fast nichts mehr zu löschen. Die einzelnen Zellen sind zwar durch Bleche voneinander getrennt, brennende Zellen können sich jedoch stark aufheizen, dass sie ihre Nachbarzellen so erhitzen, dass die auch anfangen zu brennen. Daher können bei Batterien noch eine längere Zeit danach immer wieder Brände aufflackern. Für die Feuerwehrleute heißt es im Zweifel: in Deckung gehen. Sie können lediglich versuchen, mit viel Wasser zu kühlen. Nicht einfach, weil die Batterie nicht gut zugänglich in einem stabilen geschlossenen Blechbehälter im Wagenboden sitzt.

Den Traum für Feuerwehrleute gibt es zwar bereits: Einen Lösch-Container für brennende Elektroautos mit bis zu 10.000 Liter Wasser, in dem das brennende Auto ertränkt werden kann. Dass der ihnen angesichts der horrenden Kosten zur Verfügung steht – daran müssen die Feuerwehren allerdings glauben.

Einfach mit der Rettungsschere die Karosserie aufschneiden, wie das die Feuerwehr bei der Befreiung von Insassen macht, empfiehlt sich bei E-Autos eher weniger. Die Gefahr eines Stromschlages ist hoch.

Rüdiger Erben rügt: »Es gibt noch immer keine einheitliche Handlungsempfehlungen, was das geeignetste Löschmittel ist und wie nach den Löscharbeiten mit dem Löschwasser und den Batterien umgegangen werden muss.« Mal so eine Brandschutzübung mit einem Tesla geht nicht wirklich, den Kaufpreis für ein Testobjekt zum Abfackeln kann keine Feuerwehr bezahlen.

Wenn Lithium-Ionen-Akkus verbrennen, entsteht auch Flusssäure, die ist tatsächlich sehr giftig. Kritisch sind Elektrofahrzeuge in Tiefgaragen. Brandsachverständige warnen dringend vor Ladestationen in Tiefgaragen, wenn, dann nur in abgetrennten Bereichen, die so gestaltet sind, dass große Hitze nach außen abgeführt werden kann. Bei einem Batteriebrand entsteht eine solche Wärmeenergie, die sogar den Beton gefährden kann. Hoch gefährlich wird es, wenn dabei tragende Teile des Gebäudes betroffen werden.

Der Beitrag erschien zuerst bei TE hier




Ausführliche Erwiderung auf einen Politikwissenschaftler zur Globalen Erwärmung

Vor kurzen lasen Sie auf Eike den Bericht über obige Angelegenheit. Die lokale Zeitung brachte verschiedene Meinungen zum Thema:
Der Pro- Kommentar wurde durch Dr. Sean Connin, den Leiter des Clean Energy Program verfasst. Der Kontra Kommentar wurde durch John Droz jr., Physiker und Umweltanwalt verfasst.

Wie üblich, wichen die Kommentare einiger Leser dann auf die Bedrohung durch Klimawandel (AGW) aus, um ihre Vorliebe für Wind und Solarenergie voranzubringen. Zum Stichwort AGW veröffentlichte die Zeitung dann ein Opposite Editorial eines Paläoklimatologen, Dr. Curt Stager [… was Klimaleugner falsch machen], der sich vor allem an dem als unwissenschaftlich abgelehnten Konsens des Kontra Autoren abarbeitete.

Einleitung durch den Übersetzer

***

 

John Droz jr.

Ich war aus mehreren Gründen ziemlich überrascht, den Kommentar von Dr. Curt Stager [gemäß angloamerikanischen Gebräuchen im Folgenden nur Curt genannt] im Adirondack Almanac zu sehen. [… was Klimaleugner falsch machen]

Weshalb?

  • Ich habe mich in der Vergangenheit mehrfach höflich mit Curt ausgetauscht und er hat nie etwas wie in der Zeitung geschrieben, direkt zu mir gesagt.
  • sein Kommentar enthält mehrere Fehlschlüsse und
  • weil er die traditionelle Wissenschaft so offen ablehnt.

Der letzte Punkt überrascht und beunruhigt mich am meisten. Überdenken Sie dieses Zitat von Curt vor acht Jahren (ich habe die wichtigsten Teile hervorgehoben):

„Wissenschaftler sind Menschen, die eine Vielfalt von Meinungen und Einstellungen widerspiegeln. Natürlich haben die meisten von uns diese lächerliche Situation satt, daher ist es nicht verwunderlich, dass Sie von so vielen hören, die diese Bedenken äußern. Ich bin es auch satt, aber ich bin auch nicht alleine in meinen Präferenzen, weil ich von „aggressiven Aktivistenhaltungen“ Abstand genommen habe. Ich tue das, weil ich Wissenschaft an sich mehr schätze als jedes einzelne Thema, das damit verbunden wird.

„Ich betrachte Wissenschaft als eine der wertvollsten Erfindungen der menschlichen Zivilisation, und ich erkenne, wie wertvoll und anfällig für Korruption sie für jemanden ist, der an die objektive Realität, die Fehlbarkeit der menschlichen Wahrnehmung und die Notwendigkeit objektiver Methoden zur Suche nach Wahrheit glaubt . Ich erkenne auch an, dass das Vertrauen der Öffentlichkeit in die Wissenschaft selbst stark vom Vertrauen in die Objektivität derer abhängt, die sie verfolgen. Wir müssen eine klare Linie zwischen der Verteidigung der Wahrheit und dem Versuch, sie anderen Menschen aufzuzwingen, gehen und ich persönlich entscheide mich dafür, diese Linie vorsichtiger zu gehen. “

Dies ist eine gut formulierte, wichtige Aussage – und ich würde jedem Wort zustimmen. Seit dieser Zeit ist Curt jedoch radikalisiert worden. Wie sein Adirondack-Almanack-Kommentar zeigt, hat er sein früheres Bekenntnis zu den Grundlagen seines Berufs im Wesentlichen aufgegeben und ist stolz ein politikwissenschaftlicher Aktivist zu sein.

————————

Auf den ganzen Unfug in seinem Kommentar korrekt zu reagieren, würde mehr Zeit und Platz in Anspruch nehmen, als es hier möglich ist.  Daher werde ich nur einige Punkte davon ansprechen. Anspruchsvolle Leser können sich den Rest hoffentlich selbst interpretieren…

Beginnen wir mit einer einfachen Definition. Was wir diskutieren, heißt „Anthropogen Globale Erwärmung “(AGW). Grundsätzlich ist dies der Glaube, dass die globale Erwärmung fast ausschließlich durch vom Menschen verursachte Einflüsse (z. B. Verbrennung fossiler Brennstoffe) verursacht wird.

Der Kern des Problems besteht darin, dass Curt sich entschieden hat, sich selbst in ein Dilemma zu bringen. Einerseits möchte er, dass wir glauben, dass seine Ansichten über die AGW auf korrekter Wissenschaft beruhen – aber andererseits möchte er nicht durch die Zwänge belastet werden, wenn man die Verfahren der wirklichen Wissenschaft einhält. Anders ausgedrückt, seine Kommentare zeigen eine klare Unterscheidung zwischen echter Wissenschaft und Politikwissenschaft. Betrachten Sie einige Beispiele:

# 1 – Wenn zwei Wissenschaftler nicht übereinstimmen, legt jeder höflich die besten empirischen (d. h. realen) Beweise vor, von denen sie glauben, dass sie ihren Fall stützen. Zu keinem Zeitpunkt wird die Motivation des anderen, frühere Assoziationen, Überzeugungen, Schwiegermutter usw. verunglimpft, da dies für die vorliegende Diskussion irrelevant ist. Wenn Curt so überzeugt von den wissenschaftlichen Beweisen seiner Behauptungen wäre, warum sollte er dann ein einziges Wort seines limitierten Textfeldes vergeuden, um mich abzulehnen? Dies ist eine politische Taktik außerhalb von Wissenschaft.

# 2 – Curt macht dann fälschlicherweise  geltend, dass die einzigen Personen, die zur Beurteilung der Gültigkeit der AGW-Angelegenheit kompetent genug seien, „nur wirklich qualifizierte Klimaforscher“ sein dürften. Ob die AGW-Hypothese korrekt ist oder nicht, beruht allein auf den Behauptungen ihrer Befürworter.

Jeder kompetente Wissenschaftler kann sehen, ob andere Wissenschaftler (auf ihrem Fachgebiet oder auf andere Weise) wissenschaftliche Regeln befolgt haben. Interessanterweise untergräbt Curt seine eigene Behauptung (das AGW der ausschließliche Bereich von Klimawissenschaftlern ist), indem er „Physik“ (d.h. mein Fachgebiet) als Grundlage für einige seiner AGW-Ansprüche zitiert.

# 3 – Curt beschreibt dann unkorrekt, was eine wissenschaftliche „Hypothese“ ist, indem er sie als „bloßes Schätzen“ bezeichnet. Hier ist eine vernünftige Definition:

„Die Formulierung und Prüfung einer Hypothese ist Teil der wissenschaftlichen Methode, mit der Wissenschaftler versuchen, Vorstellungen über Naturphänomene zu verstehen und zu testen. Die Erstellung einer Hypothese wird häufig als kreativer Prozess beschrieben und basiert auf vorhandenem wissenschaftlichem Wissen, Intuition oder Versuch. Die zwei Hauptmerkmale einer wissenschaftlichen Hypothese sind Falsifizierbarkeit und Nachweisbarkeit. “

# 4 – Curt weiß das sehr genau, ist jedoch nicht geneigt zuzugeben, dass die AGW-Angelegenheit eine Hypothese ist – da er die meisten der traditionellen, belastbaren wissenschaftlichen Methoden nicht einhalten möchte. Warum nicht? Aus verschiedenen Gründen wie:

  1. es ist zu zeitaufwändig,
  2. AGW ist zu kompliziert, um von der traditionellen Wissenschaft analysiert zu werden,
  3. AGW ist nicht falsifizierbar (siehe oben), und
  4. die traditionelle Wissenschaftsmethodik wirft erhebliche Zweifel an der AGW-Hypothese auf. Mit anderen Worten, sagt Curt, lassen Sie uns all das nervige Wissenschafts-Zeug überspringen und zur Sache kommen. Auch dies ist die Perspektive einer politisch argumentierenden Person: Lassen Sie uns die Regeln ändern!

# 5 – Die AGW-Hypothese basiert fast ausschließlich auf Computermodellen. Computermodelle sind jedoch keine Zauberei: Sie sind das Ergebnis von (selbst) ausgedachten Rechenanweisungen für den dummen Computer, um ein bestimmtes Ziel (Ergebnis) zu erreichen und von den Daten, die von den Menschen dafür als wichtig erachtet werden. Aber wenn AGW zu kompliziert ist, um von der traditionellen Wissenschaft analysiert zu werden, wie können dann bestimmte Personen überhaupt entschlüsseln, welche Daten relevant sind und wie sie miteinander in Beziehung stehen? Anders formuliert: Wenn eine genaue Beurteilung der Gültigkeit und der Ergebnisse von AGW für die traditionelle Wissenschaft zu kompliziert ist, ist sie auch für Computermodelle zu kompliziert. Übrigens, Wissenschaftler konzentrieren sich auf empirische Daten. Politikwissenschaftler bevorzugen Computermodelle als Kinderspiel, um sie zu manipulieren (ohne das die Bürger sich dessen bewusst sein sollen), sodass jedes gewünschte Ergebnis erzielt werden kann…

# 6 – Es ist bedauerlich, dass Curt nicht öffentlich eingeräumt hat, dass wir RIESIGE Wissenslücken in unserem Verständnis des Klimas haben. Zum Beispiel scheint die AGW-Angelegenheit auf einer sehr grundlegenden Gleichung zu beruhen: der globale CO2-Anteil. Auf der einen Seite befinden sich „CO2-Quellen“, die entweder natürlicher Natur oder von Menschen gemacht sind. Auf der anderen Seite gibt es „CO2-Senken“, die zumeist natürlich sind. Wenn die Zuflüsse die Abflüsse (Absorptionen) übersteigen, haben wir einen Netto-CO2-Anstieg. Eines von mehreren Problemen ist, dass bis zu 30% der Abfluss-Seite der Gleichung nicht verstanden werden. Wie genau können Computermodelle sein, wenn es so viel Unbekanntes gibt? Traditionelle Wissenschaftler wissen sehr genau, was sie / wir wissen und wissen nicht. Politikwissenschaftler überdecken die unbekannten Zusammenhänge und Daten.

# 7 – In Curts Kommentar gibt es mehrere Verweise auf „Peer-Review“. Zwei Ergänzungen dazu. Erstens ist es rätselhaft, dass Curt die Leser nicht darüber informiert, dass es rund 2000 von Experten begutachtete Artikel gibt, die seine AGW-Position in Frage stellen (hier ein Beispiel). Ein Wissenschaftler stellt beide Seiten eines Streits objektiv vor. (Beachten Sie das Zitat von Curt zu Beginn!) Ein Politikwissenschaftler befürwortet nur seine eigene Agenda und tut so, als gäbe es keine andere vernünftige Schlussfolgerung als die ihre.

# 8 – Zweitens besteht das Ziel dieser Peer-Review-Hinweise darin, den zufälligen Leser davon zu überzeugen, dass die Wissenschaft die Behauptung von Curt‘s AGW-Hypothese unterstützt. Das ist schlicht nicht so. Laien müssen wissen, dass ein Peer-Review-Prozess NICHTS mit der Feststellung der Gültigkeit der Schlussfolgerungen einer Studie zu tun hat. Im Peer-Review-Prozess beispielsweise wiederholt KEIN EINZIGER irgendeins in der Studie angeführte Versuche, um die Ergebnisse zu überprüfen.

Um ein gutes Bild davon zu bekommen, worum es bei Peer-Review geht, lesen Sie die Aussage eines der wichtigsten Akteure des Prozesses, des Herausgebers der weltberühmten medizinischen Zeitschrift Lancet:

„Der Fehler ist natürlich die Ansicht, dass Peer Review mehr als ein grobes Mittel ist, um die Akzeptanz – und nicht die Gültigkeit – eines neuen Befundes zu bestätigen.

Redakteure und Wissenschaftler bestehen gleichermaßen auf der zentralen Bedeutung von Peer Review. Der Öffentlichkeit wird Peer Review als quasi-sakraler Prozess vorgestellt, der dazu beiträgt, die Wissenschaft zu unserem objektivsten Wahrsager zu machen.

Aber wir wissen, dass das Peer-Review-System voreingenommen, ungerecht, nicht nachvollziehbar, unvollständig, leicht voreingenommen, oft beleidigend, in der Regel unwissend, gelegentlich dumm und häufig falsch ist.“

Mit anderen Worten, Verweise auf Peer-Review zur Unterstützung der Behauptungen basieren auf der Prämisse, dass der Leser nicht über Peer-Review-Realitäten informiert ist. Dies ist eine Strategie, die von Politikwissenschaftlern genutzt wird: um einen Vorteil aus dem zu ziehen, was die Bürger nicht verstehen – um ihre eigenen Ziele zu fördern.

[Ein peer-review-prozess zeigt m.e. nur, dass die Gedankengänge des Autors in sich logisch sind (erscheinen). Um eine Aussage zur Gültigkeit (Wahrheit?!) der Schlussfolgerungen zu treffen, müssten die Bewerter selbst alle Versuche und Untersuchungen durchführen, auch müssten alle Daten und Annahmen vorliegen. – der Übersetzer]

# 9 – Auf derselben Linie liegt Curt’s Verweis auf „Konsens“. Oh Mann! Wenn Curt eine unwiderlegbare Wissenschaft zur Unterstützung seiner AGW-Hypothese hat, warum sollte er dann Zeit verlieren, indem er über solche unwissenschaftlichen Themen wie Konsens spricht? Schauen Sie sich die wissenschaftliche Methode genau an. Gehört Konsens dazu? NEIN!

Unstrittig ist auch, dass es in der Vergangenheit zahlreiche Fälle gab, in denen der Konsens dessen, was die Wissenschaftler glaubten, sich als falsch erwies. Echte Wissenschaftler sind sich dieser Realität durchaus bewusst, also würden sie niemals versuchen, ihre Hypothese zu rechtfertigen, indem sie auf die Überzeugungen anderer Wissenschaftler verweisen. Auf der anderen Seite geht es in der Politik (-wissenschaft) um Konsens.

# 10 – Trotz seines Kommentars von 1300 ± Wörtern sprach Curt nicht wirklich die Hauptpunkte an, die ich in meinem Adirondack Explorer-Artikel angesprochen hatte. Stattdessen faselte er beredsam über AGW – das war nicht das Thema, über das ich einen Beitrag schreiben sollte / geschrieben habe. Erneuerbare Energien im Adirondack Park waren meine Aufgabe. Er hat dazu nichts gesagt! Ist Ihnen jemals aufgefallen, dass wenn einem Politiker eine Frage gestellt wird, die ihm nicht gefällt, dass er das Thema reibungslos ändert? Das ist ein weiterer krasser Unterschied zwischen echter Wissenschaft und Politikwissenschaft.

# 11 – Die Bemerkungen von Curt zur Skepsis sind ebenfalls interessant. Er versteht, dass Skepsis das Markenzeichen eines echten Wissenschaftlers ist – er weist Sie also darauf hin, dass er [früher] mal ein AGW-Skeptiker war. Obwohl ich keinerlei skeptischen Berichte / Studien von ihm zur AGW finden konnte, bin ich bereit, sein Wort dafür zu nehmen. Aber jetzt, wo er zufrieden ist, warum sind es nicht auch alle anderen? Tatsächlich, wenn er eine erlernte Position vertreten hätte:

  1. die den Konventionen der traditionellen Wissenschaft folgen würde,
  2. die ehrliche Anerkennung, das wir viel über AGW nicht wissen,
  3. ohne 1. das folgte den Konventionen der traditionellen Wissenschaft,
  4. dass wir ehrlich anerkannt haben, wie viel wir über AGW nicht wissen,
  5. ohne ad hominems [Angriff persönlicher Umstände oder Eigenschaften des Streitgegners],
  6. ohne Hinweise auf solche unwissenschaftlichen Angelegenheiten wie Konsens und
  7. ohne falsche Implikationen zur Wahrhaftigkeit der Peer-Review zu machen,

– dann könnten wir erkennen, dass er auf der Grundlage wissenschaftlicher Erkenntnisse eine ernstzunehmende Aussage vorbrachte. Stattdessen bekamen wir eine politikwissenschaftliche Antwort, die kein Vertrauen weckt.

# 12 – Aus all dem ist klar, dass es in diesem AGW-Thema nicht wirklich um CO2 geht. Stattdessen ist dies nur ein bequemes Mittel für diejenigen, die unsere amerikanische Lebensweise radikal verändern wollen – um uns buchstäblich in eine agrarisch-marxistische Gesellschaft zu verwandeln. Glauben Sie meinen Worten nicht, sondern prüfen Sie genau die Elemente (und Konsequenzen) des Green New Deal (voller Wortlaut im Original), der nur ein Testballon für das ist, was wirklich die Agenda ist, die hier durchgesetzt werden soll.

Unter dem Strich wollen Curt und andere ähnliche denkende Parteien, dass wir mehr als 100 Billionen US-Dollar investieren:

  1. um ihre AGW-Hypothese zu akzeptieren, die sich nicht mit traditionellen Wissenschaft Regularien abgibt, und
  2. um „Lösungen“ zu implementieren (wie die industrielle Windenergie), die keinerlei wissenschaftliche Grundlage haben.

Was ist falsch gelaufen?

John Droz, jr. Physicist Brantingham Lake, NY 3-18-

Die übersetzte Stellungnahme findet sich hier .pdf, etwa Mitte März 2019

Übersetzt durch Andreas Demmig




Studien : Der 97-Prozent-Mythos

Die magische Zahl taucht in fast jeder Klimadebatte auf. 97 Prozent der Wissenschaftler, so müssen sich Skeptiker immer wieder vorhalten lassen, seien sich gemäss einer wissenschaftlichen Studie einig: Es gibt eine Klimaerwärmung, die auf menschengemachte CO2-Emissionen zurückzuführen ist. Es ist demnach keine Frage der Meinung, sondern des Wissens. Wer sich gegen wissenschaftlich erhärtete «Fakten» stellt, ist ein Idiot, ein schlechter Mensch. Was will man da noch diskutieren.

Tatsächlich wären auch 100 Prozent Einhelligkeit noch kein Beweis, sondern in Anbetracht der komplexen Materie eher ein Alarmsignal. In den 1980er Jahren waren sich auch alle einig, dass der Wald wegen der menschlichen Abgase stirbt. Die Emissionen sind seither weiss Gott nicht weniger geworden, doch dem Wald geht es besser denn je, auch flächenmässig wächst er Jahr um Jahr. Vom Waldsterben redet heute kein Mensch mehr.

In der DDR herrschte jeweils zu 99 Prozent Einigkeit. Wahrer wurde der real existierende Sozialismus, der sich bekanntlich auch immer an streng wissenschaftlichen Kriterien orientierte, dadurch nicht. Doch wie kamen die 97 Prozent bezüglich des Klimawandels überhaupt zustande? Und vor allem: Wie lautet dieser angebliche Konsens denn genau?

2013 wertete ein Team unter der Leitung des australischen Kognitionswissenschaftlers John Cook die Zusammenfassungen (Abstracts) von 12 000 wissenschaftlichen Publikationen aus 1980 Zeitschriften aus, die die Stichwörter «Klimawandel» oder «Klimaerwärmung» enthielten. Die erfassten Fachartikel wurden in acht Kategorien unterteilt :

a) Die Klimaerwärmung ist hauptsächlich durch Menschen verursacht.

b) Der Mensch ist an der Klimaerwärmung beteiligt.

c) Die Studie nimmt Bezug auf eine menschenverursachte Erwärmung.

d) Es wird keine Aussage zur menschengemachten Klimaerwärmung gemacht.

e) Die Rolle des Menschen wird erwähnt, es werden aber keine Schlüsse gezogen.

f) Der Mensch hat einen unbedeutenden Einfluss auf die Klimaerwärmung.

g) Der Einfluss des Menschen auf die Klimaerwärmung ist nicht nachweisbar.

h) Die menschengemachten CO2-Emissionen sind vernachlässigbar.

In der Auswertung wurden die Artikel der Kategorien a bis c als «Zustimmung» gewertet, f bis h galten als «Ablehnung». Die Kategorien d und e, denen man zwei Drittel der Arbeiten zuordnete, wurden als irrelevant eliminiert.

Durch diesen statistischen Trick wurden aus den 32,6 Prozent, die den Kategorien a bis c entsprachen, plötzlich 97 Prozent «Zustimmung».

Man hätte aus der Studie ebenso gut schliessen können: «66,4 Prozent der Klimawissenschaftler wollen sich bezüglich des menschlichen Einflusses auf das Klima nicht festlegen.»

Die selektive Wahl der Zielgruppe ist eine ebenso bewährte wie verpönte Methode, um ein gewünschtes Resultat zu erzielen. Zumindest problematisch ist sodann, dass aus Cooks 97-Prozent-Erhebung nicht hervorgeht, ob der erfasste Fachartikel den menschlichen Einfluss einfach als Prämisse voraussetzt oder aber aufgrund eigener Untersuchungen zu diesem Schluss kommt.

Die entscheidenden Fragen

Doch selbst wenn man die «97 Prozent Zustimmung» akzeptiert, ergibt sich daraus lediglich der Konsens, dass sich das Klima in den letzten 150 Jahren erwärmt und dass das menschengemachte CO2 darauf einen Einfluss hat. Doch das stellen die meisten Skeptiker gar nicht grundsätzlich in Abrede.

Die Dissidenten können sich also getrost zu den 97 Prozent rechnen.

Die entscheidenden Fragen sind ganz andere:

()  Wie stark ist der Einfluss des Menschen auf die Veränderungen des Klimas –

()  und wie gravierend sind die Folgen?

Doch zu diesen beiden Kardinalfragen gibt die 97-Prozent-Studie keinen Aufschluss.

=================================================================

)*  Anmerkung der EIKE-Redaktion: Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : Der 97-Prozent-Mythos | Die Weltwoche, Nr. 12 (2019)| 21. März 2019 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Baur für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Forschung : Top Five der Klimaleugner

Lennart O. Bengtsson – Der 1935 in Schweden geborene Umweltwissenschaftler und Meteorologe unterrichtete und forschte als Professor in Grossbritannien und Deutschland. Als Pionier von Langzeit-Wetterprognosen und Klimamodellen galt der hochdekorierte Forscher weltweit als Koryphäe, bis er 2014 in einer Studie Fehler an den Klimamodellen des Uno-Klimarates (IPCC) nachwies. Bengtsson stellte den durch CO2 verursachten Treibhauseffekt nicht grundsätzlich in Frage, bemängelte aber, dass sich der IPCC zweifelhafter Modelle bediente, welche viel zu dramatische Szenarien prognostizierten.

Als Bengtsson im selben Jahr Mitglied der GWPF (Global Warming Policy Foundation), eines Zusammenschlusses von skeptischen Wissenschaftlern, wurde, brach ein regelrechter Shitstorm über ihn herein. Bengtsson gab in der Folge seinen Rücktritt aus der GWPF bekannt – nicht etwa weil er seine Meinung geändert hatte, sondern weil er die permanenten Anfeindungen nicht auf sich nehmen mochte. «Die Situation erinnert mich an die McCarthy-Zeiten», hielt er in seinem Rücktrittsschreiben fest, «ich hätte mir etwas Derartiges in der einst friedlichen Gemeinschaft der Meteorologen nicht vorstellen können.» Die GWPF wurde 2009 gegründet, nachdem aufgrund von geleakten E-Mails Manipulationen in der Klimaforschung (Climategate) publik wurden; dem wissenschaftlichen Beirat des GWPF gehören rund drei Dutzend zum Teil namhafte Forscher an.

John R. Christy – Auch der 1951 in Kalifornien geborene Atmosphärenphysiker gehörte zu den Pionieren der Klimawissenschaften. Seit den 70er Jahren war er massgeblich an der Entwicklung von Temperaturmessungen mit Satelliten beteiligt. Bis 2003 wirkte Christy, zeitweise als führender Autor, bei fünf IPCC-Berichten mit. Christy beklagte öffentlich die politische Vereinnahmung der Wissenschaft und den Alarmismus. In einem BBC-Interview verurteilte er das «Gruppendenken» und den «Herdentrieb» in den Klimawissenschaften. Christy warnte davor, aufgrund von ungesicherten Hypothesen die Energie zu verteuern, was zu wirtschaftlichen Schäden führen könne, die in keinem Verhältnis ständen zu den möglichen Folgekosten der Erderwärmung. Den Zorn der Ökoaktivisten zog er auch mit der Aussage auf sich, dass ein massiver Ausbau der Kernenergie der effizienteste Weg zur Bekämpfung von CO2-Emissionen wäre. Die relativ kleinen und einfach kontrollierbaren Mengen an radioaktiven Abfällen wären das geringere Übel. Christy liess sich durch die massiven Angriffe aus der Mainstream-Szene allerdings nie entmutigen.

Judith A. Curry – In wissenschaftlichen Kreisen wurde die 1953 geborene und an mehreren amerikanischen Universitäten lehrende Geophysikerin durch atmosphärische Modelle, Fernmessungen sowie die Erforschung von atmosphärisch-ozeanischen Wechselwirkungen, Hurrikanen und Tornados bekannt. 2011 forderte sie ihre Forscherkollegen erstmals öffentlich auf, sich nicht für politische Kampagnen instrumentalisieren zu lassen. Bei einem halben Dutzend Auftritten vor den US-Parlamenten wies Curry immer wieder auf die grossen Wissenslücken bei der Erforschung des Klimas hin, die verlässliche Prognosen verunmöglichten. Curry bemängelte vor allem auch, dass der IPCC die Forschung zu den natürlichen Ursachen des Klimawandels völlig vernachlässige. Die Situation sei derart verfahren, dass man am besten den Reset-Knopf drücken sollte. 2017 wurde Curry unter anderem wegen dieser Aussage vom Georgia Institute of Technology, wo sie fünfzehn Jahre lang gewirkt hatte, in den Ruhestand gemobbt. Seither betreibt sie den Blog «Climate Etc.» (judithcurry.com), der die Debatte versachlichen soll. Persönliche Attacken sind auf diesem Blog strikt verboten, sachliche Kontroversen dagegen erwünscht.

Richard S. Lindzen – Der 1940 geborene amerikanische Mathematiker und Atmosphärenforscher (Massachusetts Institute of Technology, MIT) schrieb bereits 1964 eine Doktorarbeit über die Ozonschicht. Später spezialisierte er sich auf die stratosphärischen Winde in den Tropen und deren Einfluss aufs Klima. Er gilt als Spezialist für Wolken in hohen Lagen, welche die Temperatur auf der Erde in beide Richtungen beeinflussen können. Lindzen war einer der IPCC-Pioniere, im Bericht von 1995 schrieb er ein ganzes Kapitel. Allerdings war er auch einer der ersten Kritiker an den Modellen des Weltklimarates und den extremen Prophezeiungen, die alles andere als gefestigt seien. Generell sei es falsch, von einer «gesicherten Forschung» zu sprechen. In der Folge war seine Mitarbeit beim IPCC nicht mehr gefragt. Auch Lindzen war fortan persönlichen Diffamierungen des Klima-Establishments ausgesetzt, die ihn an weiteren wissenschaftlichen Publikationen allerdings nicht hinderten.

Nir J. Shaviv – Der 1972 in den USA geborene Physiker (Princeton, Hebrew University of Jerusalem) ist der Jüngste unter den Top Five der von den Apokalyptikern meistgehassten Klimaforscher. Shaviv machte sich bereits im Alter von dreissig Jahren einen Namen bei der Erforschung des Einflusses von kosmischen Strahlungen auf das Erdklima, bei dem unter anderem die Milchstrasse und die Sonne eine wichtige Rolle spielen. Nach seiner Ansicht lassen sich die Schwankungen der globalen Temperatur (Eiszeiten, Wärmephasen), die es schon immer gab, am ehesten durch kosmische Einflüsse erklären. Er stellt den menschengemachten Einfluss auf die Atmosphäre zwar nicht grundsätzlich in Abrede, hält diesen aber für weit geringer als gemeinhin angenommen. Shaviv bezeichnet auch den angeblichen «97-Prozent-Konsens» über den Klimawandel als Unfug: «Wissenschaft ist nicht demokratisch.» Trotz seiner kritischen Haltung hat er schon über hundert wissenschaftliche («peer-reviewed») Berichte publiziert.

=================================================================

)*  Anmerkung der EIKE-Redaktion: Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : Top Five der Klimaleugner | Die Weltwoche, Nr. 12 (2019)| 21. März 2019 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor ALEX BAUR für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Ein sich zurück ziehender Gletscher in Grönland wächst wieder

Die NASA-Forschungen zeigen, dass der Jakobshavn-Gletscher, welcher während der letzten 20 Jahre der am schnellsten fließende und am schnellsten sich verdünnende Gletscher Grönlands war, eine unerwartete Kehrtwende hinlegte. Der Gletscher fließt jetzt langsamer, wird dicker und nähert sich dem Ozean, anstatt sich weiter landeinwärts zurückzuziehen. Der Gletscher trägt zwar immer noch zum Anstieg des Meeresspiegels bei – nach wie vor verliert er mehr Eis, als er durch Akkumulation von Schnee zulegt – jedoch mit einer geringeren Rate.

Die Forscher folgern, dass die Verlangsamung dieses Gletschers seine Ursache in einer Meeresströmung hat, welche Wasser heranführt, das sich im Jahre 2016 stark abgekühlt hatte. Die Wassertemperatur in der Umgebung des Gletschers liegt jetzt so niedrig, wie seit Mitte der achtziger Jahre nicht mehr.

In einer in Nature Geoscience veröffentlichten Studie berichten Ala Khandezar vom Jet Propulsion Laboratory der NASA in Pasadena und seine [ihre?] Kollegen über die Änderungen dieses Gletschers und verfolgen die Quelle des kälteren Wassers bis 966 km südlich des Gletschers. Die Studie basiert auf Daten der Oceans Melting Greenland-Mission der NASA (OMG) und anderen Beobachtungen.

Video: Die OMG-Mission der NASA misst von Schiffen und Flugzeugen aus, wie die Wassertemperatur des Ozeans die rapide Eisausdehnung Grönlands beeinflusst. Der Jakobshavn-Gletscher an der Westseite Grönlands leistete einen der größten Einzelbeiträger zum Anstieg des Meeresspiegels und hatte beschleunigt an Masse verloren.

Die Wissenschaftler waren so schockiert von dieser Änderung, dass sie sagten: „Zunächst wollten wir es gar nicht glauben. Wir waren einfach davon ausgegangen, dass der Jakobshavn-Gletscher so weitermachen würde wie während der letzten 20 Jahre“. Allerdings hatte die OMG-Mission drei aufeinander folgende Jahre lang nahe Jakobshavn kaltes Wasser ermittelt.

Die Forscher vermuten, dass die Ursache des kälteren Wassers durch einen Zyklus verursacht ist mit der Bezeichnung Nordatlantische Oszillation (NAO). Diese läuft durch Warm- und Kaltphasen mit einer Periode zwischen fünf und zwanzig Jahren. Die Oszillation wechselte kürzlich in eine neue Phase, was zu einer allgemeinen Abkühlung des Nordatlantiks führte. Diese Änderung ging einher mit einer zusätzlichen Abkühlung der Gewässer vor der grönländischen Südwestküste im Jahre 2016. Dieses Wasser strömte an der Westküste nach Norden und erreichte auch Jakobshavn.

Bei einer erneuten Änderung dieses Zyklus‘ dürfte sich der Gletscher erneut verdünnen und schrumpfen.

Wassertemperatur und Wetter

Über das an der Westküste Grönlands gelegene Jakobshavn werden etwa 7% der Inlands-Eismasse entwässert. Wegen der Größe und der Bedeutung für den Anstieg des Meeresspiegels haben die Wissenschaftler der NASA und anderer Institutionen diesen Eisschild seit vielen Jahren beobachtet.

Die Forscher hypothetisierten, dass der rapide Rückzug des Gletschers Anfang dieses Jahrhunderts begann mit dem Verlust von Gletschereis selbst – eine fließende Ausdehnung des Gletschers, was dessen Fluss verlangsamte. Wenn Eisschilde dünner werden, erhöht sich oftmals die Fließgeschwindigkeit von Gletschern. Jakobshavn hatte sich beschleunigt, und zwar in jedem Jahr, seit es sein Schelfeis verloren hatte, und seine Gletscherzunge zog sich zurück. Zwischen 2003 und 2016 war der Eisverlust so massiv, dass sich seine Dicke von der Oberfläche bis zum Grund um 152 Meter verringert hatte.

Das Forscherteam kombinierte frühere Daten der Wassertemperatur mit Daten der OMG-Mission, in welcher die Wassertemperatur und der Salzgehalt um die gesamte Insel während der letzten drei Sommer gemessen worden ist. Es zeigte sich, dass sich das Wasser im Fjord bei Jakobshavn im Jahre 2016 so stark abgekühlt hatte wie seit den achtziger Jahren nicht mehr.

„Den Ursprung des kalten Wassers in dem Fjord ausfindig zu machen war eine echte Herausforderung“, erklärte Ko-Autor der Studie Ian Fenty. „Es gibt genügend Beobachtungen, welche die Abkühlung belegen, aber nicht wirklich genug Beobachtungen um herauszufinden, woher das kalte Wasser stammt“. Mittels eines Ozean-Modells mit der Bezeichnung Estimating the Circulation and Climate of the Ocean (ECCO), um die Lücken zu füllen, konnte das Team das kalte Wasser stromaufwärts (Richtung Süden) bis zu einer Strömung zurück verfolgen, welche Wasser um die Südspitze Grönlands herum und an seiner Westküste nach Norden strömen lässt. Im Jahre 2016 hatte sich das Wasser in dieser Strömung um über 1,5°C abgekühlt.

Obwohl die letzten Winter in Grönland selbst relativ mild waren, waren sie über dem Nordatlantik viel kälter und windiger als normal [?]. Das kalte Wetter ging einher mit der Änderung der NAO. Unter dem Einfluss dieser Änderung kühlte sich der Atlantik um Grönland von 2013 bis 2016 um etwa 1°C ab. Diese allgemein kälteren Bedingungen waren Anfang 2016 die Grundlage der rapiden Abkühlung der Meeresströmung südwestlich von Grönland. Das kältere Wasser erreichte Jakobshavn in jenem Sommer, zur gleichen Zeit also, zu der sich der Jakobshavn-Gletscher dramatisch verlangsamte.

—————————————

Der ganze Beitrag steht hier. Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers zu diesem Beitrag: Mehr noch als in dieser Kurzfassung der GWPF merkt man dem ganzen Beitrag an, dass die Forscher regelrecht betroffen sind von diesem Befund und dass sie hoffen und erwarten, dass Erwärmung und Rückzug schon bald wieder einsetzen. Dass es möglicherweise auch ein Anzeichen einer allgemeinen globalen Abkühlung sein könnte, liegt ihnen jedenfalls fern.

Link: https://www.thegwpf.com/retreating-greenland-glacier-is-growing-again/




Klimawandel : Wissenschaftliches Mobbing

Es ist das klassische Schema eines Westerns. Auf der einen Seite steht der Held. Er ist jung und aufrecht, ein Mann der Zukunft. Er heisst Reto Knutti, ist 45 Jahre alt, lehrt an der ETH Zürich Klimawissenschaften und wirkt seit 2001 als «bedeutendes Mitglied» (Wikipedia) beim Uno-Weltklimarat (IPCC) mit. Doch Knutti ist immer wieder Ziel perfider Attacken obskurer Mächte. Den Part des Bösewichts spielt Markus Häring. Er ist alt (67), arbeitete einst im Dienst der Erdölfirma Shell, ist Kolumnist bei der Basler Zeitung – und er zweifelt am menschengemachten Klimawandel.

Ein richtiger Western endet mit einem Showdown, bei dem der Gute natürlich obsiegt. So weit liess es die NZZ am Sonntag allerdings nicht kommen, die den Kampf des edlen Knutti und des düsteren Häring in der Ausgabe vom 10. März auf der Titelseite ankündigte («Klimaleugner diffamieren Wissenschaftler») und danach auf drei Seiten («Im Netz der Klimaleugner») breitwalzte. Denn mit den Skeptikern, so das Fazit des Blattes, sollte man eigentlich nicht einmal streiten. Sie wissen bestenfalls nicht, was sie sagen. Der menschengemachte Klimawandel ist eine wissenschaftlich erhärtete Tatsache, ein Faktum. Wer daran zweifelt, ist entweder ein Ignorant, oder er verfolgt unlautere Ziele.

Rat der Wissenden

Mit der Realität haben der NZZ-Western und seine zur Karikatur überzeichneten Antagonisten Reto Knutti und Markus Häring herzlich wenig zu tun. Doch das Muster, welches das Zürcher Intelligenzblatt hemmungslos bespielt, scheint sich in den akademischen Sphären global durchzusetzen: Die Klimaforschung ist nicht ein Ringen um das bessere Argument, sondern ein Kampf zwischen Wissenden und Dumpfbacken, Fortschrittlichen und Ewiggestrigen, Menschenfreunden und Menschenfeinden (siehe «Top Five der Klimaleugner», Seite 18). Denn beim Klima, das predigt auch das Bundesamt für Energie (BfE) in Bern seit Jahren, gibt es keine Meinungen, nur Fakten und Lügen. Es herrsche ein «97-Prozent-Konsens» (s. Seite 23), der vom Uno-Weltklimarat periodisch neu justiert wird. Und wer die vom Rat der Wissenden amtlich angeordneten Wahrheiten in Frage stellt oder gar ablehnt, ist ein Leugner, ein Feind der Wissenschaft.

Tatsächlich wurde der Treibhauseffekt, der unter anderem dem CO2 zu verdanken ist und ohne den die Welt eine unbewohnbare Eiswüste wäre, vor über hundert Jahren entdeckt. Es ist auch nicht neu, dass die Gletscher seit der Mitte des 19. Jahrhunderts, dem Ende der sogenannten Kleinen Eiszeit, am Schrumpfen sind. Margaret Thatcher warnte bereits in den 1980er Jahren – unter anderem in einer Rede vor den Vereinten Nationen – eindringlich vor dem CO2-Problem. Für die britische Premierministerin war es ein willkommenes Argument im Kampf gegen die Kohlegewerkschaften und für die Kernenergie.

Umweltaktivisten setzten damals allerdings auf das Waldsterben. Erst als das prognostizierte Ende des Baumes Anfang der 1990er Jahre stillschweigend abgesagt wurde, holte man das Klima wieder aufs Tapet. Im Rampenlicht der Weltöffentlichkeit stand nun plötzlich eine wissenschaftliche Randgruppe, die bis dahin ein stiefmütterliches Dasein gefristet hatte. Atmosphärenphysiker, Historiker, Ozeanologen und Glaziologen wurden über Nacht zu Medienstars.

Besonders gefragt waren nach dem journalistischen Grundgesetz natürlich jene, die möglichst düstere Weissagungen machten. Sie erhielten auch die meisten Forschungsgelder. Nur sind Prognosen bei einem derart komplexen Thema eine vertrackte Angelegenheit.

Erde wird immer grüner

Das Klima war immer Wandlungen unterworfen. Man weiss, dass es schon viel kälter war als heute, etwa während der Eiszeiten, oder auch wärmer, etwa im frühen Mittelalter. Über die Gründe – Sonnenaktivität, kosmische Strahlung, Verschiebung der Erdachse, Vulkane, Meteoriten – gibt es viele Thesen, aber nichts Gesichertes. Das ist bis heute so. Doch wie will man das Kommende voraussagen, wenn man nicht einmal das Geschehene richtig versteht?

Dass Treibhausgase wie das CO2 eine Rolle spielen, ist schon lange bekannt. Viel wichtiger für den Treibhauseffekt ist allerdings unbestrittenermassen der Wasserdampf. Hier wird es aber richtig kompliziert. Je nach Höhenlage, Konzentration und Aggregatzustand kann Wasser in der Atmosphäre die Temperatur auf der Erde erhöhen oder auch senken. Meere reagieren anders als Landflächen. Es gibt natürliche Puffer. CO2 wirkt wie ein Dünger auf Pflanzen und fördert das Wachstum; unser Planet wird immer grüner, wie die jüngsten Satellitenkarten der Nasa zeigen. CO2-Fresser sind auch die Abermilliarden von Einzellern in den Ozeanen, die das Kohlendioxid in Kalkablagerungen umwandeln und effizient aus dem Kreislauf entfernen.

Die Klimafrage löste seit der Jahrtausendwende einen veritablen Hype in den Wissenschaften aus. Wer die «Verbreitung der Pharaonenameise in Hinterindien» erforschen will, erhält kaum Geld; setzt man jedoch den Titel «Verbreitung der Pharaonenameise in Hinterindien unter dem Einfluss des Klimawandels», sieht das schon viel besser aus. Der Klimawandel durchdrang nun plötzlich alle möglichen Forschungsbereiche. Und natürlich durfte kein Forscher zum Schluss kommen, dass ein Grad mehr oder weniger Durchschnittstemperatur in seinem Fall keine Rolle spielt. Er würde damit ja seine eigenen Forschungsgelder kappen.

Wirklich neu sind die computergestützten Klimamodelle, auf die sich der IPCC bei seinen Prognosen beruft. Die Universität Bern spielte in dieser Disziplin eine Pionierrolle. Der Berner Professor Hans Oeschger (1927–1998) war ein international anerkannter Vorreiter der Klimaforschung. Das 2007 gegründete und nach ihm benannte Oeschger Centre for Climate Change Research (OCCR) gilt als Mekka der Klimaprognostiker. Eine Leitfigur auf diesem Gebiet ist der Berner Klimaforscher Thomas Stocker, der seit 1998 auch eine zentrale Rolle beim IPCC spielt. Das Gleiche gilt für seinen akademischen Ziehsohn Reto Knutti. Er wirkt an der ETH Zürich und arbeitet dort an Klimamodellen.

Klima-Code geknackt?

Nun haben Wissenschaftler seit den mittelalterlichen Alchemisten immer wieder versucht, den Code des Universums zu knacken. Karl Marx glaubte, die Gesetzmässigkeiten des menschlichen Lebens durchschaut zu haben und rational steuern zu können. Millionen von Menschen bezahlten seine wissenschaftlichen Visionen mit dem Leben; der Umbau der Gesellschaft nach Marx’ Rezepten mündete regelmässig in humanitäre Katastrophen (was viele seiner Anhänger allerdings bis heute nicht beeindruckt). Legionen von grandios gescheiterten Börsengurus, Planern und Politologen glaubten schon, die Zukunft wissenschaftlich vorauszusehen. Misst man die Weissagungen am Resultat, bleibt bestenfalls erheiternde Ernüchterung.

Ist beim Klima etwa alles anders? Hat der IPCC den geheimen Code geknackt? Damit die Modellrechnungen überhaupt möglich sind, beschränkt man sich im Wesentlichen auf das CO2. Die meisten anderen möglichen Faktoren werden ausgeblendet. Das führt zwar zu alarmierenden Resultaten. Ob diese auch mit der Realität übereinstimmen, hängt aber von den Prämissen ab, auf die man die Modelle stützt. Und diese sind mit zahllosen Unwägbarkeiten behaftet.

So funktioniert halt die Wissenschaft, mag man einwenden, nach dem Prinzip von Versuch und Irrtum. Und das wäre auch nicht weiter tragisch, wenn Fehler zugelassen und akzeptiert würden. Doch die Klimamodelle von Stocker und Knutti schliessen jeden Irrtum aus. Aus ihrer Sicht sind die Modelle keine Hypothesen, wie sie bei jeder Gelegenheit betonen, sondern Fakten, «gesicherte wissenschaftliche Erkenntnisse».

Die Klimaforschung ist ein ungemein facettenreiches und faszinierendes Feld. Fatalerweise ist die Wissenschaft unter dem Schirm der Uno mit der Politik zu einem amalgamartigen Komplex verschmolzen. Welchen Anteil an der Klima-Erwärmung man dem Menschen zuordnet, ob man die Folgen mehr oder weniger dramatisch einstuft, ist nicht eine Frage des Abwägens von Wahrscheinlichkeiten, von Thesen und Antithesen, Rede und Gegenrede, sondern primär eine Frage politischer, wirtschaftlicher und ideologischer Interessen.

Erbsenzähler und Modellbauer

Die Weltwoche konnte mit einem Studenten reden, der sowohl in Bern wie auch an der ETH Zürich im Bereich der Klimawissenschaften studiert hat. An beiden Hochschulen gebe es, so sagt er, unter den Dozenten «Erbsenzähler» und «Modellbauer». Als «Erbsenzähler» bezeichnet er jene, die anhand von konkreten Daten – etwa Jahrringen in Bäumen, Eiskernen, historischen Quellen und Messungen aller Art – Entwicklungen des Klimas zu rekonstruieren versuchten. Die Resultate stünden bisweilen in einem eklatanten Widerspruch zu den Modellen des IPCC. Doch das werde kaum offen thematisiert. Denn die Deutungshoheit liege bei den «Modellbauern», die kaum Feldforschung betreiben und im Wesentlichen über ihren Computern brüten.

Widerrede sei bei den «Modellbauern» verpönt. Wer grundsätzliche Zweifel anmelde, werde isoliert. Beim OCCR in Bern trage die «unité de doctrine» geradezu sektenhafte Züge. Eigenständiges Denken sei nicht gefragt, die wissenschaftliche Arbeit erschöpfe sich in der Regel im Zitieren bestimmter Autoren. Bei der ETH in Zürich, wo offener diskutiert werde, sei es eher eine Frage des Lifestyles. Vegan, bio oder solar gelten als coole Attribute, die CO2-Steuer als Mittel des sozialen Ausgleichs, die Klimawissenschaften als Mittel für den guten Zweck.

Das eingangs erwähnte, von der NZZ am Sonntag herbei fabulierte Westerndrama zwischen Reto Knutti und Markus Häring passt perfekt in dieses Schema. Nur ist der Basler Geologe nicht der gelangweilte Pensionär, als der er karikiert wird, «einer von Unzähligen, die Meinungsartikel und Bücher schreiben». Er gehört vielmehr zu den Pionieren der Umweltforschung in der Schweiz.

Nach seinem Studium der Geologie (Physik im Nebenfach) und seinem Doktorat (über Sedimente im Meer) war Markus Häring ein Jahrzehnt lang für den Erdölriesen Shell im Amazonas, in Australien, auf der Nordsee und in Nigeria als Feldforscher tätig. 1991 kam er – auch aus umweltschützerischen Überlegungen – in die Schweiz zurück, um sein Wissen über Tiefenbohrungen im Bereich der Erdsonden zu nutzen. Er zog mehrere Projekte erfolgreich durch und wurde deshalb zu einem gefragten Fachexperten beim Bundesamt für Energie in Sachen Geothermie.

Preis für die ernüchternde Erkenntnis

1999 wurde Häring mit der Planung und der Leitung eines 60 Millionen Franken teuren Geothermie-Versuchsprojektes bei Basel betraut. Es gelang, in eine Rekordtiefe von 5009 Metern zu bohren. Das Einpumpen von Wasser unter hohem Druck zur grossräumigen Auflockerung des Untergrundes – anders ist die nur langsam nachfliessende Wärme aus der Tiefe nicht zu gewinnen – löste ein leichtes Erdbeben (3,4 Grad auf der Richterskala) aus. Das Projekt wurde abgebrochen. Doch die 60 Millionen waren nicht verloren. Es war der Preis für die Erkenntnis, dass in der Schweiz die Stromproduktion aus Geothermie auf absehbare Zeit keine Option ist, auch weil die Energiedichte schlicht und einfach zu gering ist.

Häring arbeitete denn auch weiter für das BfE. Während Jahren erforschte er im Auftrag des Bundes die unterirdische Einlagerung der CO2-Emissionen von Gaskraftwerken, die man als Ersatz der Kernenergie in Erwägung zieht. Häring gelangte 2015 zum Schluss, dass die unterirdische Einlagerung von CO2 in der Schweiz nicht nur an der Wirtschaftlichkeit scheitert, sondern auch mit Risiken behaftet ist, die in keinem Verhältnis zum Ertrag stehen. Das Resultat widersprach natürlich den politischen Vorgaben. Seither bekam Häring keine Aufträge mehr vom BfE.

Markus Häring mag kein Klimaforscher im engeren Sinne sein. Doch mit der Erdgeschichte, den physikalischen und chemischen Vorgängen und insbesondere mit dem CO2 hat er sich ein Leben lang wissenschaftlich befasst. Er verfügt aber auch über eine praktische Erfahrung im Energiebereich. Anders als jene, die ihn verspotten, ist er nicht nur auf ein Spezialgebiet fokussiert.

Genau das ist es, was Härings faktenreich und nüchtern verfasste Bücher über den «2000-Watt-Irrtum» und den «Sündenbock CO2» von den futuristischen Theorien und Modellen abhebt: Der Autor deckt Schwachstellen bei den Mainstream-Theorien auf und plädiert für eine pragmatische Gesamtschau, die soziale, ökonomische und physikalische Aspekte miteinbezieht. Er ist Mitglied des Carnot-Cournot-Netzwerks, eines Zusammenschlusses von kritischen Wirtschaftsführern, Ökonomen, Ingenieuren und Naturwissenschaftlern, die nach alternativen Ansätzen im Umweltbereich suchen.

Angriff auf die Wissenschaft

Markus Häring hat nie behauptet, im Besitze der allein seligmachenden Wahrheit zu sein. Er verzichtet auch auf persönliche Angriffe gegen die «Modellbauer» der Klimatheorie – was ihm die NZZ am Sonntag implizit unterstellt (ohne dafür einen Beleg zu liefern). Sehr wohl kritisiert und hinterfragt er aber die Klimamodelle des IPCC. Doch Professoren wie Reto Knutti und Thomas Stocker betrachten jeden Einspruch als Angriff auf die Wissenschaft.

Tatsächlich liegt die grösste Bedrohung in genau dieser Geisteshaltung. Denn eine Wissenschaft, die sich selber nicht mehr permanent in Frage stellt und stellen lässt, sondern Hypothesen als ultimative Wahrheiten definiert, Zweifler mit den Mitteln des Mobs lächerlich macht, als Leugner ausgrenzt und kaltstellt, die sich politischen Zielen und Ideologien unterordnet, hat ihre wichtigste Tugend verloren – und damit auch jede Glaubwürdigkeit.

=================================================================

)*  Anmerkung der EIKE-Redaktion:  Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : Wissenschaftliches Mobbing | Die Weltwoche, Nr. 12 (2019)| 21. März 2019 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor ALEX BAUR  für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Nord Stream oder LNG?

Nord Stream 1 & 2

Diese Leitung sollen jährlich 110 Milliarden Kubikmeter Erdgas aus Rußland unterhalb der Ostsee nach Deutschland transportieren. Dies ist der erste Streitpunkt: Sie umgeht damit die bisherigen Transportwege durch Drittländer. Diese Länder verlieren damit beträchtliche Transitgebühren und Dienstleistungen. Genau das ist ein Ziel der russischen Regierung: Sie will auch weiterhin über den Gashahn ihre Nachbarn disziplinieren können. Unvergessen sind die Liefereinschränkungen in die Ukraine in kalten Wintern. Diese Gefahr besteht heute so nicht mehr, da die „Pufferstaaten“ durchweg von Westen aus beliefert werden können.

Der Gasmann Schröder als ehemaliger Bundeskanzler und heutiger bester Freund und gut dotierter Günstling von Putin wird nicht müde zu betonen, welch zuverlässiger Handelspartner doch Rußland sei. Selbst im Kalten-Krieg sei immer Gas geliefert worden. Das ist zwar richtig, aber heute haben wir einen heißen Krieg in der Ost-Ukraine und gewaltsame Verschiebungen von Grenzen auf der Krim.

Das alles ficht echte deutsche Putin-Versteher nicht an. Um so geringer ist das deutsche Verständnis für den US-Steuerzahler: Dem geht es nämlich schon lange – nicht erst seit Trump Präsident geworden ist – mächtig gegen den Strich, daß sich Deutschland gern auf seine Kosten verteidigen läßt und gleichzeitig Russlands Aufrüstung auch noch mit den dafür dringend benötigten Devisen fördert. Die Politik unserer gelernten Agit-Prop-Sekretärin alles zu unterschreiben – ob Stickoxid Grenzwerte oder Zusagen zu Verteidigungsausgaben (2%-Kriterium) – wird nicht mehr lange gut gehen.

Die Energiewende

Deutschland steigt aus der Kernenergie aus, will möglichst schnell die Braunkohlekraftwerke abschalten und bereitet schon den Ausstieg aus der Steinkohle vor. Was bleibt, ist faktisch nur noch Erdgas als Primärenergieträger. Energiemix und Versorgungssicherheit war gestern.

Auch bildungsresistente Politiker sollten inzwischen verstanden haben, daß Wind Wetter ist. Entweder er weht oder er weht nicht. Da kann man so viele Windmühlen gegen bauen wie man will. Hier liegt nämlich genau die Crux: Wenn er weht, produzieren ganz viele Windmühlen ganz viel elektrische Leistung – demnächst mehr, als überhaupt verbraucht wird. Wenn er aber nicht weht, dann keine einzige. Noch mal in einfacher Sprache: Die mögliche Bandbreite bewegt sich zwischen Null Produktion (Windstille) und maximaler momentaner Nachfrage (durch alle Stromkunden zu einem Zeitpunkt). Die Natur läßt sich nicht durch Menschen steuern: Oft weht der Wind gerade besonders stark, wenn wenig elektrische Energie benötigt wird (Nachts, Sonntags) und umgekehrt.

Noch schlimmer geht es in unseren Breiten mit dem Sonnenlicht zu. Im Winter ist es bis zu 16 Stunden täglich dunkel. Deshalb ist es auch noch kalt und der Energiebedarf steigt stark an.

Ich kann die Einwände von Annalena und Anton schon hören: Wenn erstmal unsere Führerin ihre Wunderwaffe Speicher hat, ist auch der Endsieg in der Energiewende sicher. Hat sie aber nicht und wird sie auch auf absehbare Zeit nicht kriegen. So einfach, aber auch so grausam, ist die Natur.

Die besondere Rolle des Erdgases

Kohle, Kernenergie und Öl sind leicht transportierbar und einfach zu speichern. Erdgas als Gas aber nicht. Kohle und Kernenergie sind besonders preiswert, aber heute praktisch nur in Kraftwerken zur Stromproduktion einsetzbar. Mineralöl ist mit Abstand am flexibelsten einsetzbar und deshalb auf Grund der hohen Nachfrage am teuersten.

Nun stellen sie sich einfach mal vor, sie verfügen über riesige, schier unerschöpfliche Vorräte an Erdgas. Pech nur, sie sind völlig wertlos, weil weit von den Verbrauchszentren entfernt. Oft sogar Müll, wenn sie als Begleitgas der Ölförderung noch entsorgt werden müssen, was überdies meist sehr belastend für die Umwelt ist und deshalb schon in vielen Gebieten mit hohen Strafgebühren belegt ist. Glück, wenn ihre Förderanlagen in der Nähe von dicht besiedelten Wohngebieten liegen (z. B. „Hollandgas“, Niedersachsen etc.), dann können sie den Konkurrenten Heizöl über etwas günstigere Preise aus dem Markt drücken.

Die Achillesferse des Erdgases ist dessen Transport. Rohrleitungen und Verflüssigungsanlagen sind extrem kapitalintensiv. So soll allein Nord Stream zwischen 15 und 20 Milliarden Baukosten erfordern. Hinzu kommt noch der Energieverbrauch für den Transport, Transitgebühren, Wartung etc. Kein Mensch tätigt solche Investitionen für ein paar Kubikmeter oder will solche Anlagen nur ein paar Jahre nutzen. Die Transportkapazität von 110 Milliarden Kubikmeter pro Jahr (≈ 10,6 Bcf/d) entspricht einer Leistung von knapp 140 GWBrennstoff . Richtig erkannt, das ist eine ganze Menge. Mit der Wärmeversorgung von Einfamilienhäusern richtet man da wenig aus. Es muß also ein richtiger Absatz her.

Im Jahr 2017 betrug der Erdgasverbrauch in Deutschland 3230 PJ (897 TWhBrennstoff). Damit wurden neben Heizung und Industrie auch etwa 86 TWh elektrischer Energie erzeugt. Die Stromerzeugung aus Kernenergie betrug 76 TWh, aus Steinkohle 93 TWh und aus Braunkohle 148 TWh. Jetzt überschlagen wir mal den möglichen Erdgaseinsatz: Braunkohle- und Kernenergie- sind Grundlastkraftwerke. Man könnte sie durch modernste Gasturbinenkraftwerke mit Abhitzekesseln ersetzen. Es wird deshalb ein Wirkungsgrad von 60% angesetzt. Steinkohle übernimmt schon heute die Mittellast, d. h. Kraftwerke müssen dem Netz folgen und teilweise ganz abgeschaltet werden (Sonntags, Nacht). Dies würde den Erdgaskraftwerken nicht anders ergehen. Es wird für diese Betriebsweise ein Wirkungsgrad von 40% angesetzt. Macht also locker 606 TWhBrennstoff bzw. 2182 PJ zusätzlich. Der Erdgasverbrauch Deutschlands steigert sich auf 168%. Der Durchschnittspreis für Erdgas betrug in Deutschland 6,1 Cent pro kWh (2017). Davon entfielen 49,1% auf die Beschaffungskosten. Das sind also über 18 Milliarden zusätzliche Importkosten für Erdgas jährlich. Allerdings ohne Kohle und Kernenergie keine Versorgungssicherheit mehr – wenn Gas weg (aus welchen Gründen auch immer), auch Strom weg. Die gewaltigen Investitionskosten für neue Kraftwerke bezahlt selbstverständlich der Stromkunde. Die Investitionskosten für notwendige Gas-Infrastruktur der Gaskunde. Der wehrlose Haushaltskunde wird gleich zweimal zur Kasse gebeten. Bei einer steigenden Zahl von Kleinrentnern, prekär Beschäftigten und absehbaren Arbeitslosen (noch nicht integrierten Flüchtlingen, abgeschafften Autowerkern, eingeschränktem Konsum durch immer weniger frei verfügbare Einkommen etc.).

Bevor sich jetzt alle Blitzdenker zu Wort melden: Natürlich werden die „Regenerativen Energien“ weiter ausgebaut – dafür sorgen schon die Schlangenölverkäufer. Das ändert aber nichts an der Tatsache, daß wenn der Wind mal weht und die Sonne scheint, trifft das alle Anlagen. Man kann aber nicht mehr elektrische Leistung einspeisen als gerade verbraucht wird. Die Wunderwaffe Speicher gibt es nicht. Damit ändert sich aber auch nichts an der erforderlichen Leistung aus konventionellen Kraftwerken, da sich weder die Jahreszeiten noch das Wetter durch den Menschen beeinflussen lassen, auch nicht (wesentlich) die möglichen Betriebsstunden. Man kann die Lücke – vornehm ausgedrückt: Residuallast – nur über Erdgas abdecken. Eigentlich ganz einfach, könnten sogar die Annalenas verstehen, wenn sie denn wollten.

Aber noch einmal einen Schritt zurück. Wenn sie ihr Erdgas aus abgelegenen Weltgegenden zu den Verbrauchsschwerpunken (Kraftwerke) bringen wollen, wird das sehr teuer. Entweder ewig lange Pipelines oder Verflüssigungsanlagen mit entsprechender Transportkette. Sie können es drehen wie sie wollen, aber mit Kohle und Kernenergie können sie nicht konkurrieren. Da sie nicht billiger werden können, haben sie nur eine Chance: Sie müssen dafür sorgen, daß die anderen Energieformen teurer werden und/oder verunglimpft werden. Sie erfinden beispielsweise den „menschengemachten Klimawandel“. Sie fördern – ganz unverdächtig – massiv „regenerative Energien“ und sponsern ihre politischen Vertreter, weil sie (die offensichtlich nicht) genau wissen, daß mit Wetter-Energie gar keine zuverlässige Stromversorgung möglich ist. Gleichzeitig kehren sie ihren Nachteil in einen (vermeintlichen) Vorteil um: Der höchste Wasserstoffgehalt unter den Brennstoffen, der ihr Produkt zu einem schwer handhabbaren Gas macht, wird jetzt zum kleineren „CO2Fußabdruck“ umgedeutet (Neudeutsch framing).

Trump’sche Energiewende

Für Trump ist Energieverbrauch nicht per se schlecht. Ganz im Gegenteil: „Billige“-Energie hebt den Lebensstandard. Für den Privatmann bedeutet eine kleinere Energierechnung mehr Geld für andere Dinge des Lebens übrig zu haben. Für die Industrie weniger Kosten und damit mehr Geld für Investitionen und Gehälter.

Er hat das gemacht, was Politiker machen können, er hat alle unsinnigen und hemmenden Vorschriften wieder abgeschafft. Achtung, Wähler aufgepaßt: Das ist jederzeit in einer Demokratie möglich. Es ist also sinnvoll, vor einer Wahl die unterschiedlichen Wahlprogramme zu studieren und den Politikern aufmerksam zuzuhören.

Von den Fesseln befreit, ist die Öl- und Gasindustrie in den USA förmlich explodiert. Die USA sind auf dem Weg größter Ölproduzent (noch vor Saudi Arabien und Rußland) der Welt zu werden. Kann sich noch jemand an „peak oil“, die andere sozialistische Erfindung zum „Marktversagen“ erinnern? Nach dieser verquasten Theorie müßten die Ölvorräte der USA längst erschöpft sein. Tatsache ist jedoch, daß der bisherige Förderrekord aus den 1970er Jahren gerade übertroffen wurde. Das Ergebnis ist eine steigende Beschäftigung bei steigenden Einkommen. Gerade auch bei Minderheiten – die Flut hebt bekanntlich alle Boote. Wirtschaftspolitik ist immer noch die wirksamste Sozialpolitik. Leider gilt das auch anders herum, wie man gerade im Energiewende-Deutschland beobachten kann.

Die USA schwimmen zur Zeit in Öl und Gas. Dies hat zu einem Preisverfall in den USA geführt. Eine ungesunde Entwicklung, die zur Senkung der Produktion mit umgekehrten Konsequenzen führen würde. So beträgt der Rohölpreis in den USA (West Texas Intermediate) rund 90% des Referenzpreises in Europa (Brent). Die Antwort darauf ist ein Ausbau der Häfen in Texas für Supertanker zum Export von Rohöl. Noch schlimmer ist die Situation beim Erdgas. Alles begann mit dem Shale Gas Boom (Appalachian region). Parallel kam die zunehmende Ölförderung aus der Bakken-Formation (North Dakota) und dem Permian Basin (Texas, New Mexico) hinzu. Dort fallen nämlich gewaltige Mengen als Begleitgas an. Das Ergebnis ist ein Referenzpreis (Henry Hub, März 2019) für Erdgas von rund 2,82 $/MMBtu (0,0865 Eurocent/kWh). Da dieser Preis sogar unter dem von Kesselkohle liegt, drängt das Erdgas zeitweise die Kohlekraftwerke aus dem Markt. Es ist aber gar nicht beabsichtigt auf Kohle oder Kernkraft zu verzichten (Versorgungssicherheit). Auch hier bleibt nur der Export als Ausweg. Es mag sich zwar paradox anhören, aber die hohen Weltmarktpreise ziehen die heimatlichen Erdgaspreise über die zusätzliche Nachfrage aus dem Export nach oben und sichern damit der heimischen Industrie auch langfristig günstige Rohstoff- und Energiepreise.

Der LNG-Boom

Die USA können ihr Erdgas über Rohrleitungen nur nach Kanada (ist selbst ein Nettoexporteur) und Mexiko exportieren. Also bleibt nur der Seeweg. Der Gesamtexport im Jahr 2018 betrug 9,9 Bcf/d. Damit sind die USA zum ersten Mal seit 60 Jahren zum Nettoexporteur geworden und der Bezug über Rohrleitungen ist seit 20 Jahren zum ersten Mal kleiner als die Lieferungen ins Ausland.

Der Ausbau der Verflüssigungsanlagen geht schnell voran. Im Jahr 2018 wurde noch ganzjährig durchschnittlich 3,1 Bcf/d (87,8 Millionen m3pro Tag) Gas verflüssigt. Dieses Jahr gehen noch weitere Anlagen in Sabine Pass, Corpus Christi, Cameron, Freeport und Elba Island in Betrieb. Damit dürfte sich die Kapazität auf etwa 9 Bcf/d (0,255 Milliarden m3 pro Tag) Gas erhöhen.

Hat man Erdgas verflüssigt (Liquefied Natural Gas, LNG), hat man einen Quantensprung in der Flexibilität erreicht: Man ist nicht mehr auf starre Rohrleitungen angewiesen, sondern kann es mit Tankern weltweit und sogar mit Tankwagen in die hintersten Ecken transportieren. Ebenso benötigt man keine aufwendigen und energieintensiven geologischen Speicher mehr um die Lastspitzen an kalten Tagen (Bedarf der Heizungen) ausgleichen zu können. Schon heute werden stationäre Tankanlagen für die Glättung solcher Spitzen eingesetzt. Je mehr sich LNG in der Fläche ausbreitet, um so mehr Schiffe und LKW können es dann als (billigen) Treibstoff nutzen. LNG hat rund 60% der Energiedichte von Dieselkraftstoff und etwa 70% von Benzin.

Der Weltmarkt für LNG wächst schnell. 2017 gab es bereits 19 exportierende und 40 importierende Länder. Die drei größten Exporteure waren Qatar (77.5 MT, Millionen to), Australia (55.6 MT) and Malaysia (26.9 MT) und die drei größten Importeure Japan (83.5 MT), China (39 MT) and South Korea (37.8 MT). Der Bedarf in China wird weiter steigen, da China dringend den Kohleverbrauch in Haushalten und Industrie senken muß. Der Verbrauch in Japan wird demgegenüber mit jedem Kernkraftwerk, das wieder in Betrieb geht, weiter sinken. Durch LNG werden sich analog zu Rohöl die Erdgaspreise weltweit angleichen. Ist das LNG erstmal im Tanker, kann es weltweit umdisponiert werden – immer in Richtung der lokal höchsten Preise. Dies gilt auch dann, wenn beispielsweise ein japanischer Gasversorger feste Verträge mit einer Laufzeit über zwei Jahrzehnte mit einem US-Anbieter hat. Gibt es z. B. ein günstigeres „Tages-Angebot“ aus Australien, kann er seine Ladung aus den USA umleiten. Im Ölgeschäft ist es nicht unüblich, daß ein Tanker auf seiner Reise mehrfach verkauft wird.

Der Erdgaspreis hat auch eine wichtige Konsequenz für die „Alternativen Energien“. Die maximal zulässigen Stromkosten aus Wind und Sonne entsprechen (über dem dicken Daumen) ungefähr dem doppelten Erdgaspreis. Das Gaskraftwerk hat feste Kosten für Personal und Kapitaldienst – ob es nun läuft oder nicht. Das einzige was es spart, wenn es durch Wind und Sonne aus dem Netz gedrängt wird, ist der verringerte Gasverbrauch. Für den Süden der USA ergibt das bei einem aktuellen Erdgaspreis von 2,75 $/MMBtu, weniger als 2 Eurocent für eine Kilowattstunde „Wetterstrom“. Viel Spaß bei der Arbeit, liebe Schlangenölverkäufer. Damit kein Mißverständnis entsteht, noch einmal mit anderen Worten: Deutlich unter zwei Cent pro kWh darf eure elektrische Energie in der Herstellung (ohne Subventionen!) nur kosten, sonst seit ihr sehr bald wieder vom Markt verschwunden. Mit Kohle und Kernenergie hofft ihr ja bald ohnehin nicht mehr konkurrieren zu müssen.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Trend der Schneebe­deckung auf der Nordhemi­sphäre (1967 bis 2018): Vergleich zwischen Klima­modellen und Beobach­tungen

Abstract: Mittels Satelliten beobachtete Änderungen der Schneebedeckung auf der Nordhemisphäre werden verglichen mit den von den CMIP5-Klimamodellen prophezeiten Änderungen während der Satelliten-Ära, d. h. von 1976 bis 2018. Insgesamt wurden 196 Klimamodellläufe analysiert (von 24 Klimamodellen). Separate Analysen wurden für die jährlichen Veränderungen sowie für jede einzelne der vier Jahreszeiten durchgeführt. Eine längerzeitliche Reihe (1922 bis 2018) für das Frühjahr, in welcher Messungen am Boden mit Satellitenbeobachtungen kombiniert enthalten sind, wurde ebenfalls mit den Modellergebnissen verglichen. Es stellte sich heraus, dass die Klimamodelle praktisch nicht in der Lage waren, die beobachteten Trends abzubilden. Während die Schneebedeckung den Modellen zufolge in allen vier Jahreszeiten stetig abnehmen sollte, zeigte sich nur im Frühjahr und Sommer eine langzeitliche Abnahme, und das Muster der beobachteten Abnahme während dieser beiden Jahreszeiten wich ziemlich von den Modellprophezeiungen ab. Außerdem zeigen die beobachteten Trends im Herbst und Winter eine langzeitliche Zunahme, obwohl diese Trends statistisch nicht signifikant waren. Mögliche Ursachen für die schlechten Modellleistungen werden angesprochen.

Introduction

Die Schneebedeckung ist eine der Hauptkomponenten der Cryosphäre, zusammen mit Meereis, Permafrost und den verschiedenen Eisschilden und Gletschern. Die jahreszeitliche Schneebedeckung repräsentiert eine wesentliche Komponente des hydrologischen Zyklus‘ in mittleren und hohen Breiten. Außerdem unterstützt die Schneebedeckung auch eine große Wintersport-Industrie, während die Schneeschmelze eine wichtige Wasserquelle für viele Gebiete ist. Als Folge davon schätzen Sturm et al. (2017), dass der finanzielle Wert von Schnee für die menschliche Gesellschaft in der Größenordnung von Billionen Dollar angesiedelt ist. Boelman et al. (2019) unterstreichen, dass das Verständnis von Änderungen und Trends der Schneebedeckung auch bedeutsam ist für Wild-Habitate in Ökosystemen, in denen es jahreszeitlich bedingt schneit.

Zeitweilige Änderungen der Schneebedeckung haben auch einen bedeutenden Anteil am globalen Klimawandel, und zwar aus mindestens zwei Gründen. Erstens, Schneebedeckung wird weit verbreitet als Indikator von Klimawandel angesehen. Klimamodelle von den siebziger Jahren bis heute haben konsistent prophezeit, dass die vom Menschen verursachte globale Erwärmung infolge zunehmender atmosphärischer Treibhausgas-Konzentrationen zu einem signifikanten und kontinuierlichen Rückgang der Gesamt-Schneebedeckung führen soll. Zweitens, Änderungen der Schneebedeckung können zusätzlich zum Klimawandel beitragen, indem sich die Albedo an der Erdoberfläche ändert und teilweise auch, weil eine Schneedecke den Boden darunter isoliert.

Wöchentliche, aus Satellitenbeobachtungen abgeleitete Beobachtungen auf der Nordhemisphäre stehen von November 1966 an bis heute zur Verfügung (wobei historische Daten bzgl. Schneebedeckung geringere räumliche und zeitliche Auflösung für die Südhemisphäre zeigen). Diese Schätzungen sind gemeinsame Bemühungen zwischen der NOAA und dem Global Snow Lab an der Rutgers University. Dieser Datensatz (in der Folge als „Rutgers-Datensatz“ bezeichnet) repräsentiert die längste Aufzeichnung jedweder Umwelt-Variablen auf Satelliten-Basis, und sie wird ausgiebig genutzt von der klimawissenschaftlichen Gemeinschaft.

Verschiedene Messungen am Boden von lokalem Schneefall und Ausdehnung der Schneedecke erweitern die entsprechenden Daten auf die Zeit vor der Satelliten-Ära. Brown und Robinson (2011) konnten diese Datenquellen mit dem Rutgers-Datensatz kombinieren, um Schätzungen der Ausdehnung der Schneebedeckung auf der Nordhemisphäre für März und April bis zurück zum Jahre 1922 abgeben zu können (und bis zurück zu 1915 für Nordamerika). Mittels Mittelung der beiden monatlichen Schätzungen leiteten sie eine kombinierte „Frühjahrs“-Schätzung ab.

Während der siebziger und Anfang der achtziger Jahre gaben die mittels Satelliten gewonnenen Schätzungen und Trends der Schneebedeckung innerhalb der wissenschaftlichen Gemeinschaft zu Verwirrung Anlass. Obwohl die Klimamodelle prophezeit hatten, dass die globale (und hemisphärische) Schneebedeckung infolge der anthropogen verursachten globalen Erwärmung abnehmen sollte, hat die Schneebedeckung auf der Nordhemisphäre zumindest seit Beginn der Aufzeichnung tatsächlich zugenommen. Seinerzeit ließ dieser Umstand Skeptizismus hinsichtlich der Validität der Klimamodelle aufkommen.

Ende der achtziger Jahre begann die mittlere Schneebedeckung endlich zu schrumpfen. Obwohl Robinson und Dewey (1990) warnten, dass es immer noch „zu früh sei, um eine anthropogene Ursache der jüngsten Abnahme der hemisphärischen Schneebedeckung festzumachen“, erneuerte diese Trendumkehr das Vertrauen in Klimamodelle und die AGW-Theorie (welche inzwischen in der Öffentlichkeit immer mehr Interesse geweckt hatte).

Mit der Zeit wurde jedoch immer offensichtlicher, dass die beobachteten Änderungen der Schneebedeckung so ziemlich anders verliefen als von den Modellen prophezeit. Während die Modelle ein schrumpfen in allen vier Jahreszeiten simuliert hatten, beschränkte sich die beobachtete Schrumpfung weitgehend auf Frühjahr und Sommer, aber nicht auf Herbst und Winter.

Außerdem erfolgte das Schrumpfen im Frühjahr und Sommer hauptsächlich in einer einzigen Stufe Ende der achtziger Jahre. Das heißt, die mittlere Schneebedeckung im Frühjahr und Sommer war bis Ende der achtziger Jahre weitgehend konstant, ging dann zurück und verharrte seitdem wieder weitgehend konstant auf dem niedrigeren Niveau. Die Klimamodelle hatten mehr oder weniger einen kontinuierlichen Trend, aber keine stufenartige Änderung angenommen. Obwohl Foster et al. (2008) vorsichtigerweise nicht ausschließen wollten, dass ein Teil der Schrumpfung „zumindest teilweise einer vom Menschen verursachten Erwärmung zugeordnet werden kann“, argumentierten sie aber doch, dass diese stufenartige Änderung viel konsistenter mit einer Verschiebung der Arktischen Oszillation einher gegangen war, oder auch irgendeiner anderen Verschiebung des Klima-Regimes.

Nichtsdestotrotz zeigten viele Studien: wenn man einen linearen Trend berechnet für die beobachteten Frühjahrs- (oder Sommer-)Werte in einem Zeitraum, welcher diese Stufenänderung (d. h. 1967 bis 2012) mit erfasst, führte dieser Rückgang zu einem „negativen Trend“ und dazu, dass die von den Klimamodellen angenommene kontinuierliche Abnahme ebenfalls einen „negativen Trend“ für jene Jahreszeiten implizierte (und das auch für die anderen Jahreszeiten). Außerdem implizierten die jährlichen Mittelwerte ebenfalls einen insgesamt negativen Trend, da die beobachtete Schrumpfung im Frühjahr und Sommer erfolgte. Angemerkt wurde auch, dass die Klimamodelle immerhin den jährlichen Zyklus der Schneebedeckung nachbilden konnten.

Mit dem Vergleich linearer Trends im Frühjahr über einen bestimmten Zeitraum könnte man argumentieren, dass es eine gewisse Übereinstimmung gebe zwischen Klimamodell-Prophezeiungen und Beobachtungen. Im Einzelnen fand der beobachtete negative Frühjahrstrend der Schneebedeckung auf der Nordhemisphäre Eingang in den verbreitet zitierten 5. Zustandsbericht des IPCC (2013), was dort zu einem Hauptargument für die Schlussfolgerung wurde, dass die globale Erwärmung seit den fünfziger Jahren sehr ungewöhnlich sei. „Die Erwärmung des Klimas ist eindeutig, und seit den fünfziger Jahren sind viele der beobachteten Änderungen beispiellos über Jahrzehnte und Jahrtausende. Ozean und Atmosphäre haben sich erwärmt, die Schnee- und Eismenge hat sich verringert, der Meeresspiegel ist gestiegen, und die Konzentrationen von Treibhausgasen auch“ (Hervorhebung von mir [= dem Autor]).

Einige Studien sind noch weiter gegangen und zogen „Erkennungs- und Zuordnungs“-Studien heran auf der Grundlage von Klimamodellen. Damit wollen sie belegen, dass der Rückgang der Frühjahrs-Schneebedeckung nicht mit der natürlichen Variabilität erklärt und nur der vom Menschen verursachten globalen Erwärmung geschuldet sein kann. Im Wesentlichen werden in diesen Studien die Ergebnisse der CMIP5-Klimamodelle mit „ausschließlich natürlichen Antrieben“ und die Ergebnisse derjenigen Modelle, in die „natürliche und anthropogene Antriebe“ eingehen, verglichen mit den beobachteten Trends im Frühjahr, wobei nur mit letzteren ein negativer Trend simuliert worden ist. Dies ist ein ähnlicher Ansatz wie vom IPCC im AR 5 angewendet, um zu der Folgerung zu kommen dass „es extrem wahrscheinlich ist, dass menschlicher Einfluss die dominante Ursache der beobachteten Erwärmung seit Mitte des 20. Jahrhunderts ist“. Soon et al. (2015) zeigte jedoch, dass die Konstrukteure der CMIP5-Modelle nur einen kleinen Satz verfügbarer Schätzungen berücksichtigt haben, während die Erwärmung vielen (wenn nicht allen) Schätzungen zufolge mit natürlichen Klimaänderungen erklärt werden kann.

Aber selbst wenn man sich nur die linearen Trends anschaut, zeigen sich rätselhafte Diskrepanzen zwischen Modellprophezeiungen und Beobachtungen. Erstens, die beobachteten negativen linearen Trends im Frühjahr sind messbar größer bzgl. der Magnitude als von den Modellen simuliert. Obwohl das verbreitet bekannt war, scheint es nicht viel Kritik an der Zuverlässigkeit der Klimamodelle hervorgerufen zu haben – vielleicht weil die Vorzeichen des Trends in diesem Falle gleich sind. Eine zweite Diskrepanz ist, dass die Schneebedeckung auf dem tibetanischen Plateau und allgemeiner in China in allen Jahreszeiten zugenommen hat, während es den Klimamodellen zufolge in diesen Gebieten zu einer Abnahme derselben gekommen sein sollte.

Eine dritte wesentliche Diskrepanz jedoch ist deutlich kontroverser und hat eine heftige Debatte ausgelöst. Während der letzten Jahre gab es in vielen Gebieten der Nordhemisphäre schwere Schneestürme im Herbst und Winter. Teils aus diesem Grunde zeigen die linearen Trends für Herbst und Winter eine Zunahme der Schneebedeckung oder zumindest eine konstante Ausdehnung derselben. Dies steht in scharfem Gegensatz zu den Klimamodellen, welche (wie oben ausgeführt) für alle Jahreszeiten eine kontinuierliche Abnahme simuliert hatten.

Räisänen (2008) argumentierte, dass die Reaktion des winterlichen Gesamt-Schneefalls auf die globale Erwärmung nicht trivial ist, weil steigende Temperaturen auch die Niederschlagsmenge zunehmen lassen, und falls es kalt genug ist, diesen Niederschlag als Schnee fallen zu lassen, kann das unter dem Strich zu einer Zunahme des Schneefalls führen. Während einer Erwärmungsperiode prophezeien die Modelle für einige Gebiete zunehmenden Schneefall (wo die mittlere Temperatur unter etwa -20°C liegt), aber eine Abnahme in anderen Gebieten. Allerdings sind die Gebiete, in denen die Modelle zunehmenden Schneefall simulieren, bereits von einer Schneedecke überzogen. Daher kann die beobachtete Zunahme der winterlichen Schneebedeckung auf diese Weise nicht erklärt werden.

Obwohl in vielen Studien die beobachteten Trends der Frühjahrs-Schneebedeckung mit denen der Klimamodelle verglichen worden waren, gab es derartige Vergleiche der Trends in anderen Jahreszeiten kaum. Außerdem haben sich die meisten Vergleiche exklusiv auf lineare Trends konzentriert, während die beobachteten Trends oftmals unterschiedliche, nicht lineare Fluktuationen von Jahr zu Jahr aufweisen. Daher vergleichen wir in dieser Studie die beobachteten Trends der Schneebedeckung auf der Nordhemisphäre direkt mit den von den CMIP5-Klimamodellen im Nachhinein simulierten Trends, und zwar für alle vier Jahreszeiten. Unsere Analyse vergleicht sowohl lineare Trends als auch die Zeitreihe selbst.

[Die folgenden sehr langen Ausführungen enthalten viele technische und physikalische Details, für die auf das Original verwiesen wird. Nur eine Graphik daraus soll hier stellvertretend folgen. Weiter geht es danach mit ,Discussion and conclusions‘. Anm. d. Übers.]

Wie Soon et al. (2015) anmerkten, betrachten die CMIP5-Modelle nur eine kleine Teilreihe der verfügbaren Schätzungen der Gesamt-solaren Einstrahlung, und jede dieser Schätzungen geht davon aus, dass die jeweilige Teilreihe implizit eine relativ konstante Energie-Freisetzung seit Mitte des 20. Jahrhunderts aufweist (vielleicht mit einer geringen Abnahme). Inzwischen ergeben sich aus der „internen Variabilität“ jedes Modells unterschiedliche Zufalls-Fluktuationen (da sie Zufall sind). Daher neigt die interne Variabilität der Modelle dazu, die verschiedenen Trends im Multi-Model-Mean auszugleichen.

Man betrachte die modellierten Trends der winterlichen Schneebedeckung (JDF) im Vergleich zu den Beobachtungen (Abbildung). Klimamodelle prophezeien eine langzeitliche Abnahme der winterlichen Schneebedeckung, die aber nicht beobachtet worden ist. Tatsächlich zeigen die Beobachtungen alles in allem eine Zunahme der winterlichen Schneebedeckung, obwohl diese nicht statistisch signifikant ist. Seit Beginn des 21. Jahrhundert lag die Schneebedeckung zumeist über dem Mittel der Jahre 1967 bis 2016.

Zusammenfassend prophezeien die Klimamodelle eine statistisch signifikante Schrumpfung der winterlichen Schneebedeckung, welche nicht beobachtet worden ist (Bild (c) in der Abbildung), nicht einmal nach über 50 Jahren der Beobachtungen. Allerdings ist diese Schrumpfung in einigen Modellen nicht statistisch signifikant:

Abbildung: Gemittelte Trends der winterlichen Schneebedeckung auf der Nordhemisphäre (im Vergleich zum Mittel des Zeitraumes 1967 bis 2016). (a) Beobachtungen, (b) das CMIP5-Multi-Model-Mean, (c) die CMIP5-Simulation äquivalent zu +1 S.D., (d) die median CMIP5-Simulation, (e) selbige äquivalent zu -1 S.D. Die Unsicherheits-Bandbreiten der linearen Trends korrespondieren mit dem doppelten Standard-Fehler in Verbindung mit dem linearen fit.

Diskussion und Schlussfolgerungen

Die CMIP5-Klimamodelle erwarteten eine Abnahme der Schneedecke in allen vier Jahreszeiten, weil sie davon ausgehen, dass …

1) … die Trends der Schneebedeckung auf der Nordhalbkugel weitgehend berechnet worden sind aus den modellierten globalen Trends der Lufttemperatur, und

2) … die globalen Temperaturtrends seit Mitte des 20. Jahrhunderts dominiert sind von einer vom Menschen verursachten globalen Erwärmung infolge gestiegener atmosphärischer Treibhausgas-Konzentrationen.

Diese letzte Tatsache der Annahme der Modelle einer vom Menschen verursachten globalen Erwärmung wird bestätigt durch die formellen „Erkenungs- und Zuordnungs“-Studien der Frühjahrs-Schneebedeckung. Die Unfähigkeit der Klimamodelle jedoch, die beobachteten Trends der Schneebedeckung korrekt abzubilden zeigt, dass beide Hypothesen problematisch sind. Es gibt viele andere mögliche Erklärungen:

a) Die Modelle mögen korrekt sein hinsichtlich ihrer Prophezeiungen einer vom Menschen verursachten globalen Erwärmung, doch fehlen grundlegende atmosphärische Zirkulationsmuster oder Auswirkungen derselben, welche die Trends der nordhemisphärischen Schneebedeckung beeinflussen können.

b) Die Modelle mögen die Größenordnung der vom Menschen verursachten globalen Erwärmung überschätzen und daher auch den „menschlichen“ Beitrag zu den Schneedecken-Trends überschätzen. Dies wäre konsistent mit vielen Studien aus jüngerer Zeit, welche zu dem Ergebnis kamen, dass die „Klima-Sensitivität“ von Treibhausgasen von den Modellen viel zu hoch angesetzt wird.

c) Die Modelle mögen die Rolle natürlicher Klimaänderungen unterschätzen. Zum Beispiel unterschätzen die CMIP5-Klimamodelle signifikant die natürlich auftretenden multidekadischen Trends der Ausdehnung des arktischen Meereises. Andere haben festgestellt, dass die Modelle nur sehr schlecht beobachtete Trends der Niederschlagsmenge erklären können, ebenso wie Temperaturtrends in der mittleren und oberen Atmosphäre.

d) Die Modelle mögen fälschlich natürliche Klimaänderungen menschlichen Ursachen zuordnen. Tatsächlich zeigten Soon et al. (2015), dass es die CMIP5-Modelle versäumen, jedwede Schätzungen hoher solarer Variabilität zu berücksichtigen für ihre „natürlichen Antriebe“. Falls sie das getan hätten, könnten viele, wenn nicht alle beobachteten Temperaturtrends mit Änderungen des solaren Outputs erklärt werden.

Es ist möglich, dass mehr als einer der obigen Faktoren relevant ist,weshalb wir uns mehr Forschung hinsichtlich aller vier Möglichkeiten wünschen. Für jetzt fordern wir, dass die Projektionen der Klimamodelle bzgl. Trends der Schneebedeckung in Vergangenheit und Zukunft mit größter Vorsicht und größtem Skeptizismus betrachtet werden sollten. Änderungen der nordhemisphärischen Schneebedeckung haben bedeutende Implikationen für die Gesellschaft und lokale Ökosysteme. Daher ist es wichtig, dass sich die Planungen bzgl. zukünftiger Änderungen der Schneebedeckung nicht auf unzuverlässige Projektionen stützen.

Eine Möglichkeit für regionale und globale Klima-Modellierer, die Zuverlässigkeit ihrer Projektionen der Schneebedeckung zu verbessern, besteht darin, „Bias-Korrekturen“ anzubringen, damit die ,Nachhersagen‘ mehr auf einer Linie mit den Beobachtungen liegen. Dieses Verfahren ist inzwischen zu einem Standardverfahren geworden bei Studien zu Auswirkungen des Klimawandels. Dabei stimmen wir Ehret et al. (2012) zu, dass jedwede derartiger Bias-Korrekturen allen Endverbrauchern klar und transparent erklärt werden.

Mittlerweile gibt es seit über 50 Jahren Messreihen mit Satellitendaten, womit man die klimatische Variabilität der Schneebedeckung in jeder der vier Jahreszeiten untersuchen kann. Darum ist die beobachtete historische Variabilität der Schneebedeckung in jeder Jahreszeit eine weitaus plausiblere Grundlage für Planungen zur Anpassung an das Klima als jedwede gegenwärtige Modellprojektion.

References

Available in the full PDF of the paper here: https://www.mdpi.com/2076-3263/9/3/135/pdf

© 2019 by the authors. Submitted for possible open access publication under the terms and conditions of the Creative Commons Attribution (CC BY) license (http://creativecommons.org/licenses/by/4.0/).

Link: https://wattsupwiththat.com/2019/03/22/northern-hemisphere-snow-cover-trends-1967-2018-a-comparison-between-climate-models-and-observations/

Übersetzt von Chris Frey EIKE




Wieso schaden Klimaschützer der Umwelt? … fragt Tamara Wernli

Tamara Wernli ist eine der profiliertsten Schweizer Journalistinnen und Youtuberinnen. Sie arbeitet unter anderem für die konservativ-liberale Zürcher Weltwoche.

 

Mit freundlicher Genehmigung von Tamara Wernli.

 

 

 




Ertappte grüne Klimaferkel – wird sich etwas ändern?

Ich erinnere mich an eine Geschichte von einer Edel-Automobilausstellung im Taunus-Schlößchen bei Frankfurt, wo sich das dort wohnende Bankermilieu mittlerweile brennend für angeblich umweltfreundliche Hybrid- und Elektroautos interessiert statt für kurvige Karossen. Letztere hat man natürlich auch; aber der Prius oder Tesla ist das Statussymbol für bestimmte Auftritte.

Nun gehört zum Lebensstil der Besserverdiener, die im Klimaschutz-Vorreiter-Land gut und gerne leben, sich die Welt anzuschauen. Denn der zahlungskräftige grüne Weltbürger sieht im Gegensatz zum Niedriglöhner seine Heimat nur noch als Basis und Finanzquelle an; zu Hause ist er – zumindest gefühlt – in allen Kulturen und auf allen Kontinenten.

Bekannte grüne Politiker, allen voran aktuell Cem Özdemir, Katharina Schulze, Robert Habeck und Nachwuchsstar Luisa „Greta“ Neubauer verhalten sich dummerweise milieutypisch und fallen regelmäßig durch besonders klimafeindliches Verhalten auf. Denn nichts ist bislang CO2-trächtiger als die Verbrennung von Kerosin in Flugzeugturbinen auf Langstrecken um den halben Planeten. Die Quantitätsmedien rund um ARD & ZDF schonen meist die grünen Granden; aber hin und wieder schimmert etwas Journalismus oder mutige Satire durch. So haben die ZDF-Komiker Mann & Sieber das mittlerweile legendäre Lied „Auch Sonnenblumen welken, wenn man sie mit zuviel Scheiße düngt“ offenbar straflos durchbekommen.

Und neulich wurde das in den alternativen Netz-Medien ausgiebig behandelte Thema der grünen Klimaferkeleien rund um #Langstrecken-Luisa in Kontraste aus Berlin aufgegriffen. Unser fleißiger Leser Michael Krüger hat den betreffenden Ausschnitt online gestellt (Dank von mir).

Und jetzt die Knackfrage: Wird es etwas nutzen? Müßten grüne Nachwuchsstars wie Luisa N nicht desavouiert sein durch ihre Flugzeug-Welttournee, mit gerade einmal 22 Lenzen? Vor allem in der eigenen Partei? Sollte man doch meinen.

Aber nein, vor allem in der eigenen Partei interessiert das niemanden, weil alle Mitglieder es ganz genau so machen. Schon die Flugmeilen-Affäre des Cem Özdemir vor langen Jahren zeigte, daß anti-grünes Verhalten der grünen Granden gleichgültig ist. Die politische und ökologische Korrektheit, das ist eine reine Verbalideologie. Es geht ausschließlich darum, wie man redet. Wie man sich verhält, ist nicht von Belang. Man hat sich offenbar stillschweigend darauf geeinigt, sich nicht gegenseitig zu kritisieren, sofern nur „falsch“ gehandelt, aber nicht „falsch“ geredet wird.

Quelle: Standbild YT, https://www.youtube.com/watch?v=VB0HrieP8xQ&t=112s

Die angeblichen moralischen Werte, das Mitleid, die Klientelgruppe, es gehört zum „guten Ton“; und es sind alles nur Hebel, um an die Posten und an die Fleischtröge des Steuerzahlers zu kommen. Wie gehen die GEZ-Medien, mittlerweile ja fast eine grüne Pressestelle, und die betroffenen Politiker in der Öffentlichkeit mit der Kritik um? Wenn Luisa von ihrer und Gretas Klima-Angst erzählt, aber in den vergangenen fünf Jahren auf den Flughäfen des Planeten zu Hause war, fühlt sich der Bürger durchaus zu Recht auf den Arm genommen.

Daher spielen Hofreiter, Luisa, Baerbock & Co. ihre Flugleidenschaft gerne herunter, indem sie den Schwarzen Peter anderen zuschieben, wahlweise der „Gesellschaft“ oder der Industrie. Zitat Baerbock: „…weil die Frage, wie man unsere Wirtschaft ökologisiert, die muß nicht individuell geklärt werden“ (siehe Video unten).

Unsere #Langstrecken-Luisa hat den grün-orwellschen Neusprech verinnerlicht und kann ihn bereits halbwegs fehlerfrei anwenden. Allerdings hat sie bei Dunja Hayali noch ordentlich gepatzt, als sie allen Ernstes meinte, weil sie „mal ein Flugzeug betreten“ habe, solle man sie nicht kritisieren. In Anbetracht der zum Interviewzeitpunkt bereits bekannten Welttournee eine beachtliche Aussage, die beim Bürger mutmaßlich als arrogante Abgehobenheit einer zukünftigen Spitzenpolitikerin gesehen wurde.

Zum Glück gibt es neben Mann & Sieber noch einige wenige andere Milieuvertreter, die es ernst meinen mit den eigenen Werten. So hat der grüne Reichstags-Abgeordnete Dieter Janecek gerade den amüsanten Vorschlag gemacht, den Bürgern nur noch eine bestimmte Anzahl von Flügen/ Flugmeilen zu gestatten; danach würden Klimaschutzgebühren fällig. Eigentlich eine gute Idee, wie ich finde. Denn erwischen würde diese Regelung nicht den Kleinen Mann, der meist nur einmal im Jahr nach Malle düst, sondern die Globalmanager und grünen Globetrotter. Und die haben genug Geld.

Was glauben Sie, passierte nun? Na was wohl, die grünen Granden versuchten, das Thema möglichst schnell aus den Medien zu bekommen; und dem naiven Janecek wurde offensichtlich ein Maulkorb angelegt.

Aber nicht mit EIKE und seinen Freunden. Wir löschen so etwas nicht aus unserem elektronischen Gedächtnis, sondern erinnern immer und immer wieder daran.