1

Die schmutzigen Tricks der Windindustrie

Der Windradausbau stockt, weil die Bürger sich diesen schädlich teuren Unsinn nicht mehr gefallen lassen und zunehmend den Kadi einschalten. Wenn das einmal nichts mehr nützen sollte, könnte man mit mehr rechnen, denn auch die Geduld des lammfromm-untertänigen Deutschen hat einmal seine Grenzen. Die französischen Gelbwesten und nun die holländischen Bauern sind ein Vorgeschmack. Warum ist eigentlich der Druck so groß? Die Antwort auf dieses Rätsel ist leider nicht ausreichend bekannt: In Gesamtspektrum des deutschen Klima-, CO2-, Energiewende-, Gender- und weiterer geldverschlingender Zirkusse haben sich inzwischen viele Hunderttausende Profiteure parasitär eingenistet. Die leben davon, saugen an den Zitzen einer (noch) steuerfetten Staats-Sau, die auf der anderen Seite den wirklich produktiv Arbeitenden dieses Landes das letzte Haar vom Kopf wegfrisst.

Produktives erschaffen diese Parasiten nicht. Die Krankheit ist zu erkennen an der desolaten Infrastruktur von zerfallenden Brücken, Schulen, Bahn sowie einer dysfunktionalen Bundeswehr, um nur einige stellvertretende Baustellen zu nennen. Sie ist nur mit dem Heilmittel einer schweren Rezession zu beseitigen, weil dann kein Geld mehr für Unsinn da ist. Dann wird aber leider auch der Staatsköper selber geschädigt – die Kur entspricht also leider dem früheren Quecksilber gegen Syphilis.

Nur ein harmloses stellvertretendes Beispiel: Inzwischen haben sich auch an den Hochschulen Bewegungen etabliert, die sich Scientists for Future (SFF) nennen. Zu attraktiv sind die Fördertöpfe für Forschungs- und Lehrvorhaben und zu verwirrt die Köpfe. Falls SFF nur über Facebook läuft, ist dagegen nichts einzuwenden. Auch Professoren ist es erlaubt, geistigen Schwachsinn offen zu demonstrieren.  Wenn dieser SFF-Unsinn aber von Hochschulleitungen selbst propagiert wird, ist es bedenklich.

Nun zu den Windindustrieprofiteuren: Kürzlich veranstaltete die Bundesregierung einen „Windgipfel“, s. hierzu die Veröffentlichung von Holger Douglas, in Tichys Einblick (TE) vom 7.Sept.2019 (hier), Dazu eingeladen waren allerdings nur die windindustriefreundlichen „NGOs“, s. wieder H. Douglas in  TE, 23.August2019 (hier). Sie forderten u.a. eine Aufweichung des Artenschutzes, um ihre Ausbaupläne noch ungehemmter vorantreiben zu können; dagegen regt sich Widerstand in Form einer öffentlichen Petition (hier).

Die Windindustrie-Lobby versucht zu suggerieren, das Umwelt- und Planungsrecht sei zu restriktiv bei der Zulassung von Windindustrieanlagen. Das genaue Gegenteil trifft zu; schon heute genießt die Windindustrie eine Reihe sachlich nicht gerechtfertigter Privilegierungen im Umwelt und Planungsrecht gegenüber sonstigen Industrieanlagen (inzwischen 240 m hohe Windräder sind Industrieanlagen!). Die Privilegierungen werden benannt in Ziff. 4 einer Forderungsliste Odenwälder Bürgerinitiativen 10 Punkte_Odenwald. Diese von der Windindustrie-Lobby schon früher durchgesetzten Privilegierungen sind sehr geschickt z.B. versteckt in Anhängen zum UVPG (= Gesetz über die Umweltverträglichkeitsprüfung oder UVP-Gesetz) und zur der 4. BImSchV [1].

Dank der dort genannten Schwellenwerte braucht der Projektierer ein größeres Ausbauprojekt einfach nur in Einzelprojekte unterhalb des Schwellenwerts aufspalten, und schon erspart er sich eine volle UVP oder ein volles BImSchG-Genehmigungsverfahren mit Öffentlichkeitsbeteiligung. Eine weitere Privilegierung findet sich im Bauplanungsrecht in § 35 BauGB (= Baugesetzbuch). Sie hat zur Folge, dass einem Windindustrieprojekt entgegenstehende private, nicht privilegierte Belange kaum noch entgegengehalten und entgegenstehende öffentliche Belange wie Natur- und Landschaftsschutz leichter überwunden werden können. Für eine im privaten Renditeinteresse errichtete Anlage ist diese Besserstellung gegenüber anderen Industrieanlagen völlig sachwidrig und nicht zu rechtfertigen. Die BI fordern deshalb zu Recht die ersatzlose Streichung dieser Privilegierungen im Umwelt- und Planungsrecht. Keinesfalls dürfen gar noch weitere Privilegierungen hinzukommen, wie auf dem Windgipfel gefordert.

Pikanterweise hat auch schon der NaBu in der Vergangenheit diese Privilegierungen kritisiert (NABU-Positionspapier „Windenergie – Naturverträgliche Nutzung der Windenergie an Land und auf See“ von November 2016, S. 3 Mitte; S. 6 unter 12; S. 13 unter 3) 170320_NaBU_positionspapier_naturverträgliche_nutzung_der_ windenergie. Allerdings hat dieses Positionspapier ein eingebautes „Verfallsdatum“, und eine Bestätigung erscheint fraglich; auch der NaBu wird zunehmend, wie seit jeher der BUND, von der Windindustrie-Lobby unterwandert. Nur die von Enoch zu Guttenberg gegründete Naturschutzinitiative (Vors. Harry Neumann) ist noch windindustriekritisch.

Dies ist umso unverständlicher, da gerade für diejenigen, die der These von der menschengemachten Klimaerwärmung anhängen, ein Windindustrie-Ausbau im Wald ein Tabu sein müsste (hier): Im Gegenteil müsste man dann eigentlich für einen noch viel konsequenteren Schutz Waldschutz als bisher eintreten (hier).

 

Quellen

[1] BImSchV „Verordnung zur Durchführung des BImSchG“; es gibt davon mehrere; die 4. Durchführungsverordnung legt fest, welche Anlagen genehmigungsbedürftig sind und in welchem Verfahren (vereinfachtes ohne Öffentlichkeitsbeteiligung oder volles Genehmigungsverfahren mit Öffentlichkeitsbeteiligung), aufgelistet in Anlage 1 zur 4. BImSchV




Warum die Kritik von Roy Spencer unzu­treffend ist

Vier Tage später veröffentlichte Roy Spencer Kritik an meiner Analyse bei WUWT, und zwar hier ebenso wie auf seinem eigenen Blog hier. Am nächsten Tag folgte bei WUWT hier ein Folgebeitrag dazu. Auf seinem Blog finden sich auch zwei weitere Kritiken, nämlich hier und hier.

Komischerweise postete Roy drei Tage vor seiner Kritik an meiner Arbeit einen Beitrag mit dem Titel [übersetzt] „Die Komponente des Glaubens bei Globale-Erwärmung-Prophezeiungen“ (hier). Er kam zu dem Ergebnis, dass Klima-Modellierer lediglich gezeigt hätten, was sie von Anfang an vermutet hatten. Sie machen sich eines Zirkelschlusses schuldig und haben eine Doppelaussage abgegeben.

Roy folgerte: „Ich sage nicht, dass ein zunehmender CO2-Gehalt keine Erwärmung verursacht. Ich sage, dass wir keine Ahnung haben, wie viel Erwärmung es verursacht, weil wir keine Ahnung haben, wie groß das natürliche Energie-Ungleichgewicht im Klimasystem ist während der letzten – sagen wir – 50 Jahre. … Folglich weisen Projektionen der globalen Erwärmung einen großen Anteil von Glauben auf, der in die Modelle einprogrammiert wurde“.

Roys Schlussfolgerung entspricht ziemlich genau derjenigen in meiner Studie, welche der danach kritisierte.

In diesem Beitrag werde ich die Kritikpunkte von Roy an meiner Arbeit aufgreifen und zeigen, warum jeder einzelne dieser Kritikpunkte falsch ist.

Welche Punkte kritisiert er nun? Er sagt:

1) Meine Fehlerfortpflanzung prognostiziert sehr große Abweichungen der Temperatur.

2) Klimamodelle weisen KEINE substantiellen Fehler in ihrem Gesamt-Energiefluss an der Obergrenze der Atmosphäre [TOA] auf.

3) Das Modell der Fehlerfortpflanzung ist für Klimamodelle nicht geeignet!

Darum soll es im Folgenden gehen. Es wird ein langer Beitrag. Falls man es in einem Satz zusammengefasst haben will: alle Kritikpunkte von Roy zeigen, dass er etwas erheblich falsch verstanden hat.

1) Meine Fehlerfortpflanzung prognostiziert sehr große Abweichungen der Temperatur.

Roy schrieb: „Frank zieht in seiner Studie als Beispiel einen bekannten Bias heran beim langwelligen (infrarot) Wolken-Antrieb (LWCF) in einem typischen Klimamodell und vermutet, dass der typische Fehler des Modells (±4 W/m²) im LWCF auf seine nachgebildete Modellgleichung angewendet werden kann, was den Fehler zeitlich in die Zukunft fortsetzt während der Integration in seinem nachgebildeten Modell. Die Folge ist eine gewaltige falsche Modell-Erwärmung (oder -Abkühlung) bis zu 20°C oder mehr bei der zukünftigen mittleren Lufttemperatur (GASAT). (Hervorhebung von mir [= dem Autor])

Für jedermanns Aufmerksamkeit – Roy fährt fort: „Die Modellierer sind sich dieser Verzerrungen (im Wolkenanteil) sehr bewusst, welche positiv oder negativ sein können, abhängig vom Modell. Die Fehler zeigen (beispielsweise), dass wir den Einfluss der Wolken nicht verstehen ebenso wie alle Prozesse, die deren Entstehung und Auflösung bewirken aufgrund grundlegender physikalischer Prinzipien. Anderenfalls würden alle Modelle in etwa die gleiche Wolkenmenge ergeben“. Bitte kein weiteres Auslassen des mittleren quadratischen Fehlers [root-mean-square-error].

Hier folgt Abbildung 1 bei Roy, welche seinen ersten großen Fehler belegt. Die beweiskräftigen Worte habe ich hervorgehoben:

Bildinschrift [rechts]: Ergebnis des nachgebildeten Modells der Änderung der globalen Lufttemperatur von Dr. Frank (seine Gl. 1) mit einem globalen Strahlungs-Ungleichgewicht von ±2 W/m², was sich mit der Zeit fortpflanzt (unter Anwendung seiner Gl. 6; blaue Linien). Dies im Vergleich zu den jährlichen Temperatur-Variationen über die ersten 100 Jahre der ersten 10 Modelle.

Roys blaue Linien sind keine nachgebildeten Lufttemperaturen unter Anwendung von Gleichung 1 aus der Studie. Sie folgen nicht aus Gleichung 1 und repräsentieren überhaupt nicht physikalische Lufttemperaturen.

Sie stammen aus den Gleichungen 5 und 6 und stellen die anwachsenden Unsicherheits-Grenzen dar bei der projizierten Lufttemperatur. Unsicherheits-Statistiken sind keine physikalischen Temperaturen.

Roy hat seine ±2 W/m² als Strahlungs-Ungleichgewicht missverstanden. Im ganzen Zusammenhang meiner Analyse sollte man es sehen als eine ±2 W/m²-Unsicherheit des langwelligen Wolkenantriebs (LWCF). Es ist ein statistischer Wert und kein Energiefluss.

Noch schlimmer: falls wir Roys ±2 W/m² als Strahlungs-Ungleichgewicht in eine Modellsimulation einfließen lassen würden – eine, die zu einem Ausschlag der simulierten Lufttemperatur führt (was Roy meint), dann müssten wir annehmen, dass das Ungleichgewicht gleichzeitig positiv und negativ ist, d. h. ein ±-Strahlungsantrieb.

Ein ±-Strahlungsantrieb alterniert nicht zwischen +-Strahlungsantrieb und –-Strahlungsantrieb. Vielmehr treten beide sofort gleichzeitig auf.

Also folgen aus Roys Interpretation des LWCF-±-Fehlers als ein Ungleichgewicht im Strahlungsantrieb simultan positive und negative Temperaturen.

Man betrachte noch einmal Roys Abbildung. Er zeigt die nachgebildete Lufttemperatur gleichzeitig als ein Heiß-Haus und ein Eis-Haus mit sowohl +20°C als auch -20°C nach 100 Jahren. Das ist die unsinnige Botschaft von Roys blauen Linien, falls wir seine Interpretation übernehmen, dass die ±2 W/m² ein Strahlungs-Ungleichgewicht ist.

Diese physikalisch unmögliche Bedeutung hätte eigentlich schon der grundlegende Hinweis darauf sein müssen, dass die zugrunde liegende Annahme falsch war.

Das ± ist schließlich nicht entweder das Eine oder das Andere, plus oder minus. Es ist zusammenfallend plus und minus, weil es Teil der RMSE-Unsicherheits-Statistik ist. Es wird nicht angewendet auf einen physikalischen Energiefluss.

Es ist wirklich komisch. Mehr als einer von meinen Begutachtern machte den gleichen sehr naiven Fehler, dass ±C = physikalisch real +C oder -C sind. Stellvertretend hierfür das folgende Zitat, was in der Supporting Information erwähnt wird:

Die Fehlerfortpflanzung des Autors ist physikalisch nicht gerechtfertigt. Beispiel: selbst nach der Stabilisierung der Antriebe, würde die Analyse des Autors ergeben, dass die Modelle sogar noch heftiger zwischen Schneeball und Runaway-Treibhaus-Zuständen hin und her schwingen. Was – und das sollte offensichtlich sein – tatsächlich nicht der Fall ist“.

Hier fehlt eindeutig jedes Verständnis für eine Unsicherheits-Analyse.

Genauso ist auch dieser erste Teil von Roys Punkt 1 vollkommen missverstanden.

Nächster Fehler in der ersten Kritik: Roy sagt, dass die nachgebildete Gleichung nicht die flach verlaufende GCM-Linie aus dem Kontrolllauf in seiner Abbildung 1 spiegelt.

Allerdings würde die nachgebildete Gleichung 1 wirklich die gleiche flache Linie ergeben wie aus den GCM-Kontrollläufen mit Null externem Antrieb. Als Beleg folgt hier Gleichung 1:

In einem Kontrolllauf gibt es keine Änderung des Antriebs, daher Dfi = 0. Der Term in Klammern wird dann zu F0/F0 = 1.

Das auslösende FCO2 = 0,42, so dass sich Gleichung 1 ergibt zu DTi(K) = 0,42´33K´1 + a = 13,9 C +a = konstant (a = 273,1 K oder 0°C).

Zieht man eine Anomalie heran, ist die nachgebildete Temperaturänderung konstant Null, genau wie in den GCM-Kontrollläufen in Roys Abbildung 1.

Roys erster Einwand weist also drei Fehler auf:

1) Roy verwechselt einen RMS statistische Unsicherheit im simulierten LWCF als ein physikalisches Strahlungs-Ungleichgewicht.

2) Dann missversteht er eine ±-Unsicherheit der Lufttemperatur als eine physikalische Temperatur.

3) Seine Analyse der nachgebildeten Gleichung 1 war unachtsam.

Weiter mit Punkt 2 von Roy:

Klimamodelle weisen KEINE substantiellen Fehler in ihrem gesamt-Energiefluss an der Obergrenze der Atmosphäre [TOA] auf.

Roy schrieb: „Falls irgendein Klimamodell an der TOA einen Bias des Energieflusses von der Größe von 4 W/m² aufweist, würde sich eine substantielle falsche Erwärmung oder Abkühlung ergeben. Beides ist nicht der Fall“.

Im Folgenden werde ich zeigen, warum dieser Einwand irrelevant ist.

Hier folgt jetzt Roys zweite Abbildung, die wiederum das perfekte Strahlungs-Gleichgewicht der CMIP5-Modelle an der TOA zeigt. Rechts neben Roys Abbildung befindet sich Abbildung 4 aus der Studie, welche den jährlichen Fehler des Gesamtanteils der Wolken in 12 CMIP5-Klimamodellen zeigt, im Mittel ±12,1%. [1]:

Jedes einzelne der CMIP5-Modelle, welches einen Fehler von ±12,1% des simulierten Gesamt-Wolkenanteils erzeugte, erzeugte auch Roys perfektes Strahlungs-Gleichgewicht an der TOA. Daher erzeugte jedes einzelne CMIP5-Modell, welches einen LWCF-Fehler von gemittelt ±4 W/m² zeigte, ebenfalls das perfekte Strahlungsgleichgewicht an der TOA von Roy.

Wie kann das sein? Wie können Modelle ein perfektes TOA-Gleichgewicht einhalten und gleichzeitig Fehler beim langwelligen Wolkenantrieb erzeugen?

Indem sich Fehler ausmitteln. Von GCMs wird ein TOA-Gleichgewicht gefordert. Also werden die Parameter innerhalb ihrer Unsicherheits-Bandbreite so adjustiert, dass jenes Ergebnis herauskommt.

Roy sagt das auch selbst: „Falls ein Modell in ein globales Energie-Gleichgewicht gezwängt wurde, dann haben sich die Verzerrungen in de Strahlungsfluss-Komponenten herausgemittelt. …“.

Sind die gewählten GCM-Parameterwerte physikalisch korrekt? Das weiß niemand.

Sind die Parameter-Sätze von Modell zu Modell identisch? Nein. Wir wissen das, weil verschiedene Modelle verschiedene Profile erzeugen ebenso wie integrierte Intensitäten des TCF-Fehlers.

Dies nimmt Roys Einwänden bzgl. der TOA jede Grundlage.Modelle zeigen ein TOA-Gleichgewicht und einen LWCF-Fehler gleichzeitig.

In jedem Falle kommt man hier zu dem oben und in der Studie erwähnten Punkt, dass ein simuliertes Klima ein perfektes TOA-Gleichgewicht aufweist, während gleichzeitig der simulierte Klima-interne Energiezustand nicht korrekt ist.

Das bedeutet, dass die den simulierten Klimazustand beschreibende Physik nicht korrekt ist. Und dies wiederum bedeutet, dass die Physik zur Beschreibung der simulierten Lufttemperatur nicht korrekt ist.

Die simulierte Lufttemperatur beruht nicht auf physikalischem Wissen. Und das bedeutet, dass es eine große Unsicherheit bei der projizierten Lufttemperatur gibt, weil wir keine physikalisch gute kausale Erklärung für dieselbe haben.

Die Physik kann sie nicht beschreiben; das Modell kann es nicht lösen. Die offensichtliche Sicherheit bei der projizierten Lufttemperatur ist ein schimärisches Ergebnis von Frisieren.

Das ist die entscheidende Grundlage einer Unsicherheits-Analyse. Man kann die Messgrößen korrekt ermitteln. Aber wenn die falsche Physik die richtige Antwort gibt, hat man nichts gelernt und man versteht nichts. Die Unsicherheit im Ergebnis ist also konsequenterweise groß.

Diese falsche Physik ist in jedem einzelnen Schritt einer Klima-Simulation präsent. Die berechneten Lufttemperaturen fußen nicht auf einer physikalisch korrekten Theorie.

Roy sagt, dass der LWCF-Fehler unbedeutend ist, weil sich alle Fehler gegenseitig ausgleichen. Dazu weiter unten mehr. Aber man beachte, was er sagt: Die falsche Physik gestattet die richtige Antwort. Und das unveränderlich in jedem Schritt einer Projektion über 100 Jahre.

In seiner Kritik vom 12. September liefert Roy seinen Grund, warum er nicht an eine Unsicherheits-Analyse glaubt: „Alle Modelle zeigen die Auswirkungen anthropogener CO2-Emissionen, trotz bekannter Komponenten ihrer Energieflüsse (wie Wolken)! Warum?

Falls ein Modell in ein globales Energie-Gleichgewicht gezwängt worden ist, dann haben sich die Verzerrungen der Komponenten des Energieflusses herausgemittelt. Belegt wird dies durch die Kontrollläufe der verschiedenen Klimamodelle in ihrem (langwelligen Infrarot-)Verhalten“.

Da haben wir es: eine falsche Physik, die unveränderlich korrekt ist bei jedem Schritt über eine 100-Jahre-Projektion, weil jedwede großmaßstäbliche Fehler sich ausgleichen, um die Auswirkungen kleiner Störungen zu enthüllen. Ich glaube nicht, dass irgendeine andere Fachrichtung der physikalischen Wissenschaft eine solche Behauptung durchgehen lassen würde.

Roy präsentierte dann noch einmal die TOA-Strahlungs-Simulationen links im zweiten Satz der Abbildungen oben.

Er schrieb, dass die Modelle in ein TOA-Gleichgewicht gezwängt werden. Das heißt, der physikalische Fehler, der als TOA-Ungleichgewicht auftauchen würde, würde zwangsweise auf die simulierten Klima-Untersysteme verteilt.

Die Modelle zwangsweise in ein TOA-Gleichgewicht zu bringen kann sogar simulierte Klima-Untersysteme noch fehlerhafter daher kommen lassen als es anderenfalls der Fall wäre.

Nach der Beobachtung, dass das „erzwungene Ausgleichen des globalen Energie-Haushaltes“ nur einmal bei den „vorindustriellen Kontrollläufen über viele Jahrhunderte“ durchgeführt worden war, beobachtete Roy, dass sich die Modelle weltweit ähnlich verhalten, trotz einer „ERHEBLICHEN Vielfalt von Fehlern in den Energiefluss-Komponenten…“

Das ist eine interessante Aussage von Roy angesichts des Umstands, dass es einen Faktor von fast drei gibt in den Unterschieden der Modelle untereinander hinsichtlich ihrer Sensitivität auf eine CO2-Verdoppelung. [2], [3]

Stephens [3] schreibt: „Weithin glaubt man, dass die Diskrepanz Unsicherheiten bei der Rückkopplung durch Wolken geschuldet ist. … Abbildung 1 zeigt die Änderungen der tiefen Wolken, wie sie von zwei Versionen von Modellen prognostiziert werden, die an jedem Ende der Bandbreite von Erwärmungs-Reaktionen liegen. Die von einem Modell prognostizierte reduzierte Erwärmung ist eine Folge von vermehrter tiefer Bewölkung in jenem Modell, während die verstärkte Erwärmung des anderen Modells auf eine verringerte tiefe Bewölkung zurückzuverfolgen ist“.

Aha! Zwei CMIP5-Modelle zeigen entgegen gesetzte Trends des simulierten Wolken-Anteils als Reaktion auf einen CO2-Antrieb. Nichtsdestotrotz reproduzieren beide Modelle den historischen Trend der Lufttemperatur.

Nicht nur das, sondern sie sind vermeintlich invariabel korrekt in jedem Schritt der 100-Jahre-Projektion, weil sich ihre großmaßstäblichen Fehler ausgleichen, um die Auswirkungen kleiner Störungen zu enthüllen.

In Stephens Beispielobjekt können wir sehen, wie die versteckte Simulations-Unsicherheit sich manifestiert. Modelle reproduzieren auf Biegen und Brechen Kalibrierungs-Messgrößen und werden mit dieser Grundlage als fähig hinaus posaunt, dass sie zukünftige Klimazustände genau prognostizieren können.

Das Beispiel von Stephens zeigt eindeutig, dass GCMs schlicht und ergreifend nicht die Reaktion der Bewölkung auf CO2-Emssionen auflösen können. Daher können die GCMs auch nicht die Änderung der Lufttemperatur auflösen, falls diese überhaupt auftreten durch CO2-Emissionen. Von deren projizierten Lufttemperaturen ist nicht bekannt, dass sie physikalisch korrekt wären. Sie haben keine physikalische Bedeutung.

Dies ist die Ursache der großen und schrittweise zunehmenden Simulations-Unsicherheit bei der projizierten Lufttemperatur.

Dies umgeht Roys Punkt hinsichtlich sich ausgleichender Fehler. Die Modelle können die Reaktion der Wolken auf den CO2-Antrieb nicht auflösen. Das Beseitigen der Fehler bzgl. des Strahlungsantriebs schafft dieses Problem nicht aus der Welt. Eine derartige Beseitigung (mittels händischem Frisierens) versteckt die Simulations-Unsicherheit nur auf trügerische Weise.

Roy folgert: „folglich demonstrieren die Modelle selbst, dass ihre Vorhersagen bzgl. globaler Erwärmung nicht abhängig sind von jenen Bias-Fehlern in den Komponenten der Energieflüsse (wie etwa die globale Wolkenbedeckung), wie von Dr. Frank behauptet“.

Jeder sollte wissen, warum diese Folgerung falsch ist. Sich ausgleichende Fehler machen Modelle einander ähnlich. Sie machen die Modelle aber nicht genauer. Auch werde dadurch nicht physikalische Beschreibungen verbessert.

Roys Folgerung enthüllt implizit seinen Denkfehler.

1) Die Unfähigkeit der GCMs, die Bewölkungs-Reaktion darzustellen bedeutet, dass die Konsistenz von Temperaturprojektionen der Modelle untereinander ein schimärisches Artefakt ihrer Bearbeitung ist. Die Unsicherheit verbleibt in der Projektion, sie ist lediglich verborgen.

2) Der LWCF-rsme von ±4 W/m² ist kein konstanter offset bias error. Allein das ,±‘ sollte ausreichen, um jedermann klar zu machen, dass hiermit kein Energiefluss repräsentiert wird.

Der LWCF-rsme von ±4 W/m² repräsentiert eine Unsicherheit im simulierten Energiefluss. Es ist in keiner Weise ein physikalischer Fehler.

Man kann das Modell frisieren, um überhaupt keinen beobachtbaren Fehler im Kalibrierungs-Zeitraum zu erzeugen (Simulation minus Beobachtung = 0). Aber die der Simulation zugrunde liegende Physik ist falsch. Die Kausalität tritt nicht zutage. Die Simulation vermittelt keine Informationen. Das Ergebnis ist nicht irgendein Indikator physikalischer Genauigkeit. Die Unsicherheit ist nicht beseitigt.

3) Alle Modelle mit jenen Fehlern werden dann erzwungenermaßen in ein TOA-Gleichgewicht gebracht. Jene TOA-gleichgewichteten CMIP5-Modelle machen Fehler von ±12,1% beim globalen TCF [1]. Dies bedeutet, dass die GCMs die Bewölkung nicht mit einer besseren Auflösung simulieren können als mit ±12,1%.

Um die Auswirkungen jährlicher CO2-Emissionen maximal aufzulösen, müssen sie eine Wolken-Auflösung von etwa 0,1% aufweisen (siehe Anhang 1 unten).

4) Der mittlere GCM-Fehler bei der simulierten TCF über den Kalibrierungs-Zeitraum in der Vergangenheit enthüllt den Kalibrierungs-Fehler des simulierten langwelligen Wolken-Antriebs. Obwohl durchweg ein TOA-Gleichgewicht aufrecht erhalten wird, geht die korrekte Größenordnung des simulierten troposphärischen thermischen Energieflusses innerhalb eines Unsicherheits-Intervalls von ±4 W/m² verloren.

Zu Roys Punkt 3): Das Modell der Fehlerfortpflanzung ist für Klimamodelle nicht geeignet!

Auf seinem Blog schrieb Roy, dass die Modellierung des Klimas in etwa der Modellierung von Kesseln mit heißem Wasser gleicht. Und so: „Falls unser Modell eine konstante Wassertemperatur bekommen kann, wissen wir, dass jene Raten von Energie-Zufuhr und -Verlust gleich sind, obwohl wir deren Werte nicht kennen. Und dass falls wir das Modell mit ein wenig mehr Abdeckung des Topfes durch einen Deckel laufen lassen, wissen wir, dass die modellierte Wassertemperatur zunehmen wird. Jener Teil Physik steckt immer noch im Modell“.

Roy weiter: „Die Temperaturänderung von irgendwas, einschließlich des Klimasystems, ist einem Ungleichgewicht geschuldet zwischen Energiegewinn und Energieverlust des Systems“.

Roy impliziert hier, dass die einzige Möglichkeit einer Temperaturänderung einer Zunahme oder Abnahme der Gesamt-Energie im Klimasystem geschuldet ist. Das ist jedoch nicht richtig.

Klima-Subsysteme können Energie austauschen. Die Lufttemperatur kann sich ändern durch eine Umverteilung interner Energieflüsse ohne jede Änderung der Gesamtenergie, welche in das Klimasystem hinein oder aus demselben wieder hinaus geht.

So sagte beispielsweise Richard Lindzen im Jahre 2001 bei einer Anhörung des Environment and Public Works Committee des US-Senats am 2. Mai: „Behauptungen, wonach der Mensch irgendeinen Anteil an der beobachteten Erwärmung hätte, basieren auf der Hypothese, dass die Modelle die natürliche Variabilität korrekt erfasst haben. Allerdings erfordert die natürliche Variabilität keinerlei externe Antriebe – seien diese nun natürlichen oder anthropogenen Ursprungs [4].

Genau das Gleiche äußerte Lindzen in seinem Beitrag mit dem Titel Some Coolness Concerning Global Warming. [5]:

Die genaue Ursache der natürlichen Variabilität ist nach wie vor unbekannt, aber das ist keine allzu große Überraschung. Obwohl die in das Erde-Ozean-Atmosphäre-System einfallende Solarstrahlung relativ konstant ist, ist das bei dem Grad, mit dem diese Energie in den Ozeanen gespeichert und wieder freigesetzt wird, nicht der Fall. Folge: Die der Atmosphäre zur Verfügung stehende Energie allein ist alles andere als konstant … tatsächlich war unser Klima schon sowohl wärmer als auch kälter als heute – allein der natürlichen Variabilität des Systems geschuldet. Externe Einflüsse sind für eine derartige Variabilität kaum vonnöten“.

In seiner Begutachtung des Artikels von Stephen Schneider „Laboratory Earth“ beschrieb er diese direkt relevante Beobachtung:

Eine Verdoppelung des CO2-Gehaltes in der Atmosphäre führt zu einer Störung des Energie-Gleichgewichts in derselben um zwei Prozent. Aber die Modelle, die zur Prognose der Reaktion der Atmosphäre auf diese Störung herangezogen werden, weisen Fehler in der Größenordnung von zehn Prozent auf hinsichtlich ihrer Repräsentation des Energie-Gleichgewichtes, und diese Fehler involvieren neben Anderem die Rückkopplungen, welche für die resultierenden Berechnungen grundlegend sind. Folglich sind die Modelle kaum brauchbar bei der Abschätzung der klimatischen Reaktionen auf solche feinen Störungen. Außerdem, die starken Reaktionen (korrespondierend mit hoher Sensitivität) der Modelle auf die kleinen Störungen durch eine CO2-Verdoppelung hängen grundlegend ab von positiven (verstärkenden) Rückkopplungen von Prozessen, die nachweislich von den Modellen ganz falsch repräsentiert werden“.

Diese Beobachtungen sind bereits ausreichend, um Roys Beschreibung der Modellierung von Lufttemperaturen zu widerlegen, analog zu der Wärme, die einem Topf mit kochendem Wasser hinzugefügt und von diesem wieder abgegeben wird – mit unterschiedlich starker Abdeckung durch einen Deckel.

Vor allem der letzte Punkt von Lindzen widerspricht der Behauptung von Roy, dass die Ausmittelung von Simulationsfehlern eine zuverlässige modellierte Reaktion zulässt auf Antriebe oder auf genau projizierte Lufttemperaturen.

Außerdem ist die Lage sehr viel komplexer als Roy es in seiner Analogie mit dem kochenden Wassertopf beschrieben hat. Zum Beispiel, anstatt des einen Deckels in Roys Beispiel ähneln Wolken mehr multiplen Schichten siebartiger Deckel mit variierender Maschenbreite und Dicke, alle in konstanter Bewegung, und keiner davon bedeckt den ganzen Topf.

Die Topf-Modellierung geht dann weiter mit lediglich einer schwachen Darstellung, wo sich die verschiedenen Deckel zu jeder gegebenen Zeit befinden und ohne deren Tiefe oder Porosität vollständig zu verstehen.

Fehlerfortpflanzung: Ist eine mittlere jährliche Zunahme des CO2-Antriebs um 0,035 W/m² gegeben, beträgt die Zunahme plus Unsicherheit im simulierten troposphärischen thermischen Energiefluss (0,035±4) W/m². Und das alles unter Erhaltung des simulierten TOA-Gleichgewichtes.

Falls man also das Unsicherheits-Intervall für die Lufttemperatur für irgendeinen spezifischen Jahresschritt berechnen will, würde die Obergrenze des Temperatur-Unsicherheitsintervalls aus +4,035 W/m² berechnet, während die Untergrenze des Intervalls -3,9065 W/m² beträgt.

Setzt man dies auf der rechten Seite der Gleichung 5.2 in der Studie ein und setzt man F0 = 33,30 W/m², dann beträgt das Ein-Schritt-Unsicherheitsintervall der simulierten Lufttemperatur +1,68°C/-1,63°C.

Die vom CMIP5 GCM projizierte mittlere Anomalie der Lufttemperatur würde jedoch 0,015°C betragen – und nicht +1,68°C oder -1,63°C.

Bei der gesamten Modellierung bleibt das simulierte TOA-Gleichgewicht erhalten, hauptsächlich deswegen, weil der Simulationsfehler des langwelligen Wolkenantriebs ausgeglichen wird durch Simulationsfehler beim kurzwelligen Wolkenantrieb.

Dies bedeutet, dass die zugrunde liegende Physik falsch ist und auch der simulierte Klima-Energie-Status falsch ist. Im Nachhinein wird die beobachtete Lufttemperatur im Kalibrierungs-Zeitraum nur wegen der Anpassung der Kurve nach den händisch angebrachten Adjustierungen der Modellparameter korrekt reproduziert [2, 7]

Erzwungene Korrespondenz mit einem bekannten Wert beseitigt nicht die Unsicherheit in einem Ergebnis, weil die kausale Ignoranz ungelöst bleibt.

Wenn Fehler in einem Zwischenergebnis auf jeden einzelnen Schritt einer Reihe von Berechnungen auftreten – was eine Projektion der Lufttemperatur beschreibt – dann setzen sich diese Fehler im nächsten Schritt fort. Der nächste Schritt fügt dann noch seinen eigenen Fehler hinzu. Der einzige Weg, den Effekt der schrittweisen Fehler zu beurteilen ist die schrittweise Fortpflanzung der angemessenen rmse-Unsicherheit.

Abbildung 3 unten zeigt das Problem graphisch dargestellt. GCMs projizieren die Temperatur in einer schrittweisen Abfolge von Berechnungen [8]. Falsche Physik bedeutet, dass jeder Schritt fehlerhaft ist. Der Klima-Energie-Zustand ist falsch.

Der falsche Klimazustand setzt sich dann in den Berechnungen fort. Dessen Fehler legen die initialen Bedingungen des nächsten Schrittes fest. Falsche Physik bedeutet, dass der nächste Schritt seine eigenen Fehler erzeugt. Diese neuen Fehler addieren sich zu denen der initialen Bedingungen. Und so geht es immer weiter, Schritt für Schritt. Die Fehler addieren sich mit jedem Schritt.

Wenn man einen zukünftigen Zustand berechnet, kennt man nicht das Signal oder die Größenordnung von irgendeinem der Fehler im Ergebnis. Dieses Unwissen beruht auf der offensichtlichen Schwierigkeit, dass aus einem zukünftigen Klima keine Messungen vorliegen.

Die Zuverlässigkeit der Projektion muss dann mittels einer Unsicherheits-Analyse beurteilt werden. Man kalibriert das Modell gegen bekannte Messgrößen (z. B. den Gesamt-Anteil der Wolken). Hiermit erhält man eine relevante Abschätzung der Modell-Genauigkeit; eine geeignete mittlere rmse-Kalibrierungs-Statistik der Fehler.

Die Kalibrierungs-Fehlerstatistik informiert uns über die Genauigkeit eines jeden rechnerischen Schrittes einer Simulation. Wenn Ungenauigkeit in jedem Schritt präsent ist, setzt sich die Metrik des Kalibrierungs-Fehlers durch jeden Schritt fort. Damit ergibt sich die Unsicherheit im Ergebnis – also wie groß unser Vertrauen in die Richtigkeit der Zahl ist.

Involviert die Berechnung multiple Einzelschritte, von denen jeder seinen eigenen Fehler beiträgt, dann setzt sich die schrittweise Unsicherheits-Statistik durch die Abfolge der einzelnen Schritte fort. Die Unsicherheit des Ergebnisses muss immer größer werden. Diesen Umstand zeigt Abbildung 3:

Abbildung 3: Zunahme der Unsicherheit einer Projektion der Lufttemperatur. C0F,T ist der Grundzustand des Klimas, welcher einen initialen Antrieb F0 aufweist, der Null sein kann, und eine initiale Temperatur T0. Die finale Temperatur Tn wird festgelegt durch die finale Unsicherheit ±et als Tn±et.

Schritt eins projiziert einen Antrieb im ersten Schritt F1, welcher eine Temperatur T1 erzeugt. Falsche Physik bringt einen physikalischen Fehler e1 in die Temperatur ein, der positiv oder negativ sein kann. Bei einer Projektion eines zukünftigen Klimas kennen wir nicht das Signal oder die Größenordnung von e1.

Allerdings geben uns Kalibrierungs-Experimente im Nachhinein darüber Aufschluss, dass Einzelschritte bei der Projektion eine mittlere Unsicherheit von ±e aufweisen.

T1 enthält also eine Unsicherheit von T1±er1.

Die Temperatur von Schritt 1 plus deren physikalischer Fehler, T1+e1 geht in Schritt 2 als Ausgangsbedingung ein. Aber T1 wies einen Fehler auf, nämlich e1. Dieses e1 ist ein Fehler-Ausgleich eines unbekannten Signals in T1. Daher erhält die falsche Physik von Schritt 2 eine T1, die von e1 ausgeglichen wird. Aber bei Zukunfts-Projektionen kennt man nicht den Wett von T1+e1.

In Schritt 2 beginnt die falsche Physik mit der unrichtigen T1 und fügt einen neuen unbekannten physikalischen Fehler e2 zu T2 hinzu. Der Fehler in T2 beträgt jetzt e1+e2. Allerdings bleiben in einer Zukunfts-Projektion Signal und Größenordnung von e1, e2 und deren Summe unbekannt.

Und so geht es immer weiter – Schritt 3, … n addieren alle ihre jeweiligen Fehler e3+ … +en. Aber weil Signal und Größenordnung der Fehler unbekannt sind, kennen wir auch nicht den Gesamtfehler im finalen Zustand. Alles, was wir wissen ist, dass die Trajektorie des simulierten Klimas sich entfernt hat von der Trajektorie des physikalisch korrekten Klimas.

Die Kalibrierungs-Fehlerstatistik erlaubt jedoch eine Abschätzung der Unsicherheit in den Ergebnissen irgendeines Einzel-Berechnungsschrittes, also ±e.

Gibt es multiple Berechnungsschritte, wird ±e jedem Schritt unabhängig angeheftet. Die prognostische Unsicherheit nimmt mit jedem Schritt zu, weil die ±e-Unsicherheit sich durch jene Schritte fortpflanzt und die kontinuierliche, aber unbekannte Auswirkung des Fehlers reflektiert. Fortpflanzung der Kalibrierungs-Unsicherheit geht ein als root-sum-square (rss). Für ,n‘ Schritte ist das [9 bis 11].

Es sollte jedermann völlig klar sein, dass die rss-Gleichung keine physikalischen Temperaturen ergibt oder die physikalischen Größenordnungen von irgendetwas Anderem. Es ist lediglich eine Statistik der prognostischen Unsicherheit, die notwendigerweise mit der Anzahl der Berechnungsschritte der Prognose zunimmt. Eine Zusammenfassung der Literatur bzgl. Unsicherheit habe ich in meinem ursprüngliche Beitrag behandelt.

Die Zunahme der Unsicherheit bedeutet nicht, dass die projizierte Lufttemperatur sehr hoch wird. Projizierte Temperaturen liegen immer zwischen irgendwelchen physikalischen Grenzen. Aber die Zuverlässigkeit jener Temperatur – unser Vertrauen darin, dass sie physikalisch korrekt ist – vermindert sich mit jedem Schritt. Das Vertrauensniveau ist die Bedeutung von Unsicherheit. Mit dem schwindenden Vertrauen nimmt die Unsicherheit zu.

C. Roy und J. Oberkampf (2011) beschreiben es so: „Prognostische Unsicherheit beruht auf fehlenden Kenntnissen der Modellierer, der die Analyse durchführenden Analysten oder der Experimentatoren, welche in die Validierung involviert sind. Das fehlende Wissen kann zum Beispiel die Modellierung des interessierenden Systems betreffen oder dessen Umfeld, Simulations-Aspekte wie numerische Fehler bei der Auflösung und Rundungsfehler seitens der Computer; auch fehlende experimentelle Daten spielen eine Rolle“.

Die Zunahme der Unsicherheit bedeutet, dass wir mit jedem Schritt weniger und immer weniger wissen, wie das simulierte zukünftige Klima nun ist relativ zum physikalisch korrekten zukünftigen Klima. Abbildung 3 zeigt die immer breiter werdende Unsicherheit mit der Anzahl der Schritte.

Große Unsicherheits-Bandbreite bedeutet, dass die projizierte Temperatur einen zukünftigen Klimazustand reflektiert, welcher einen vollkommen unbekannten Abstand zum physikalisch realen zukünftigen Klimazustand hat. Das Vertrauen darin, dass die simulierte zukünftige Temperatur der ,wahren‘ zukünftigen Temperatur entspricht, ist minimal.

Darum ist die Fortpflanzung von Unsicherheiten bei einer Projektion der Lufttemperatur vollkommen angemessen. Es ist unsere einzige Abschätzung der Zuverlässigkeit eines prognostischen Ergebnisses.

Anhang 1 unten zeigt, dass die Modelle Wolken bis zu einer Genauigkeit von ±0,1% simulieren müssen, also etwa 100 mal besser als die heutigen ±12,1%, um irgendwelche möglichen Effekte eines CO2-Antriebs aufzulösen.

Anhang 2 zitiert Richard Lindzen über die totale Korruption und Unehrlichkeit, welche die gesamte AGW-Konsens-Klimatologie durchzieht.

Bevor es weitergeht, folgt hier eine Aussage der NASA zu Wolken und Auflösung: „Bei einer Verdoppelung des atmosphärischen Kohlendioxid-Gehaltes, zu welchem es den Prognosen zufolge während der nächsten 50 bis 100 Jahre kommen soll, wird erwartet, dass sich das Strahlungs-Gleichgewicht an der Erdoberfläche lediglich um etwa 2% ändert. … Falls eine Änderung um 2% wirklich so bedeutsam ist, dann muss ein Klimamodell, um brauchbar zu sein, auf irgendetwas um 0,25% genau sein. Folglich müssen die heutigen Modelle um etwa das Hundertfache an Genauigkeit verbessert werden, eine sehr große Herausforderung“.

Dieses ,hundertfach‘ ist genau das, was ich mit dieser Studie zum Ausdruck bringen möchte.

Falls Klimamodelle die Reaktion der Wolken auf CO2-Emissionen nicht auflösen können, dann können sie auch unmöglich die Auswirkung von CO2-Emissionen auf die Lufttemperatur projizieren.

Die Unsicherheit von ±4 W/m² beim LWCF ist eine direkte Reflektion der ausgeprägten Ignoranz um die Reaktion der Bewölkung.

Die LWCF-Kalibrierungs-Unsicherheit in den CMIP5 reflektiert Ignoranz hinsichtlich der Größenordnung des thermischen Flusses in der simulierten Troposphäre, welcher eine direkte Konsequenz der Unfähigkeit der CMIP5-Modelle ist, den Wolkenanteil zu simulieren.

Der jährliche mittlere CO2-Antrieb von 0,035 W/m² ist genau ein solcher kleinerer energetischer Effekt. Es ist unmöglich, die Auswirkung einer Änderung des Antriebs von 0,035 W/m² auf die Lufttemperatur aufzulösen, wenn das Modell den troposphärischen Antrieb nicht genauer als ±4 W/m² auflösen kann. Die Durchdringung ist um ±114 Male kleiner als die untere Grenze der Auflösung in einem CMIP5-Modell. Das Unsicherheits-Intervall kann angemessen analogisiert werden als die kleinste Pixelgröße der Simulation. Es ist das Unschärfe-Niveau. Es ist die Breite der Unwissenheits-Bandbreite, innerhalb derer man nichts weiß.

Unsicherheit ist kein physikalischer Fehler. Sie subtrahiert sich nicht hinweg. Sie ist eine Maßzahl von Unwissen.

Das Modell kann eine Zahl erzeugen. Wenn die physikalische Unsicherheit groß ist, dann ist diese Zahl physikalisch bedeutungslos.

All dies wird in der Studie angesprochen, sehr detailliert in Abschnitt 10 der Begleitinformationen. Es ist nicht so, dass die Analyse fehlt oder kryptisch ist. Sie ist jedoch nicht Gegenstand meiner Kritik.

Kleinere seltsame und irrige Gedanken:

Roy schrieb: „Falls ein Modell tatsächlich ein Ungleichgewicht des Energieflusses an der TOA von +4 W/m² aufweist, würde dieser Bias mit der Zeit relativ konstant bleiben“.

Aber der LWCF-Fehler in der Statistik beträgt ±4 W/m² und nicht (+)4 W/m². Hier hat Roy eine Kalibrierungs-Fehlerstatistik nicht nur als einen Energiefluss missverstanden, sondern hat auch den irrigen Gedanken ausgenutzt, um das ± in ein (+) umzuwandeln.

Dieser Fehler ist auch unter meinen vorherigen Begutachtern weit verbreitet. Er erlaubt es ihnen, einen konstanten Ausgleichs-Fehler [offset error] anzunehmen. Und dies wiederum erlaubte es ihnen anzunehmen, dass sich der gesamte Fehler hinweg subtrahiert.

Diese Vermutung der Perfektion nach der Subtraktion ist gängiger Glaube unter den Konsens-Klimatologen. Sie wird direkt vor ihren Augen durch ihre eigenen Ergebnisse widerlegt (Abbildung 1 in [13]), aber das scheint nie eine Rolle zu spielen.

Ein weiteres Beispiel enthält Abbildung 1 in der Studie, welche simulierte Temperatur-Anomalien zeigt. Sie alle werden erzeugt, indem eine simulierte climate base-state-temperature [?] subtrahiert wird. Falls die Simulationsfehler hinweg subtrahiert werden, würden sich alle Anomalietrends überlagern. Aber sie sind von diesem ideal weit entfernt.

Abbildung 4 zeigt ein CMIP5-Beispiel der gleichen Widerlegung:

Abbildung 4: RCP8.5-Projektionen von vier CMIP5-Modellen.

Modellabstimmungen haben alle vier projizierte Anomalietrends von 1850 bis 2000 nahezu übereinstimmend gemacht. Allerdings folgen die Modelle danach unterschiedlichen Temperatur-Entwicklungen. Im Projektionsjahr 2300 beträgt deren Bandbreite 8°C. Die Anomalietrends lassen sich nicht überlagern; die Simulationsfehler haben sich nicht hinweg subtrahiert.

Der Gedanke, dass sich Fehler in Anomalien hinweg subtrahieren, ist objektiv falsch. Die Unsicherheiten, welche in den Projektionen nach dem Jahr 2000 versteckt sind, finden sich auch im Zeitraum 1850 bis 2000.

Ursache hierfür ist, dass die Projektionen historischer Temperaturen auf der gleichen falschen Physik basieren wie die Zukunfts-Projektionen. Obwohl die Messgrößen reproduziert werden, wird die dem Temperaturtrend zugrunde liegende physikalische Kausalität vom Modell kaum beschrieben. Der Gesamt-Wolkenanteil wird im Jahre 1950 genauso falsch simuliert wie im Jahre 2050.

Der LWCF-Fehler ist in allen Simulationen präsent. Die mittlere jährliche Simulations-Unsicherheit von ±4 W/m² beim troposphärischen thermischen Energiefluss ist durchweg vorhanden, was in jeden Simulationsschritt der Lufttemperatur Unsicherheit hinein bringt. Das Frisieren der Modelle, um die Messgrößen zu reproduzieren, versteckt die Unsicherheit bloß.

Roy schrieb: „Ein weiterer komischer Aspekt von Gl. 6 ist, dass sie weit unterschiedliche Ergebnisse erzeugen wird, abhängig von der Länge des angenommenen Zeitschrittes.“.

Aber natürlich würde Gl. 6 keine weit unterschiedlichen Ergebnisse erzeugen, weil der Simulationsfehler mit der Länge des Zeitschrittes im GCM variiert.

Zum Beispiel können wir die mittlere Pro-Tag-Unsicherheit aus der jährlichen mittleren Kalibrierung von ±4 W/m² nach Lauer und Hamilton abschätzen.

Für das gesamte Jahr ist also (±4 W/m²)² = , wobei ei die Pro-Tag-Unsicherheit ist. Diese Gleichung ergibt ei zu ±0,21 W/m² für die geschätzte LWCF-Unsicherheit pro mittlerer Projektion pro Tag. Falls wir die tägliche Schätzung auf der rechten Seite von Gleichung 5.2 in der Studie einsetzen und F0=33,30 W/m² setzen, dann beträgt die Einen-Tag-Pro-Schritt-Unsicherheit der projizierten Lufttemperatur ±0,087°C. Die Gesamt-Unsicherheit nach 100 Jahren ist die Wurzel aus [(0,087)²’365’100] = ±16,6°C.

Das gleiche Verfahren ergibt eine über 25 Jahre geschätzte mittlere Modell-Kalibrierungs-Unsicherheit von Wurzel aus [(±4 W/m²)²’25] = ±20 W/m². Aus Gl. 5.2 beträgt die Unsicherheit pro Schritt ±8,3°C. Nach 100 Jahren beträgt die Unsicherheit der projizierten Lufttemperatur Wurzel aus [(±8,3)² ‚ 4)] = ±16,6°C.

Roy schloss mit den Worten: „Ich wäre froh, widerlegt zu werden“.

Sei froh, Roy!

—————————–

[Es folgt jetzt ein Anhang, in denen das oben Gesagte noch detaillierter ausgeführt wird. Auf die Übersetzung wird daher hier verzichtet. Anhang 2 unten wird aber wieder übersetzt, weil er ein längeres und interessantes Zitat von Richard Lindzen enthält. Anm. d. Übers.]

Anhang 1

Appendix 1: Why CMIP5 error in TCF is important.

We know from Lauer and Hamilton that the average CMIP5 ±12.1% annual total cloud fraction (TCF) error produces an annual average ±4 Wm-2 calibration error in long wave cloud forcing. [14]

We also know that the annual average increase in CO₂ forcing since 1979 is about 0.035 Wm-2 (my calculation).

Assuming a linear relationship between cloud fraction error and LWCF error, the ±12.1% CF error is proportionately responsible for ±4 Wm-2 annual average LWCF error.

Then one can estimate the level of resolution necessary to reveal the annual average cloud fraction response to CO₂ forcing as:

[(0.035 Wm-2/±4 Wm-2)]*±12.1% total cloud fraction = 0.11% change in cloud fraction.

This indicates that a climate model needs to be able to accurately simulate a 0.11% feedback response in cloud fraction to barely resolve the annual impact of CO₂ emissions on the climate. If one wants accurate simulation, the model resolution should be ten times small than the effect to be resolved. That means 0.011% accuracy in simulating annual average TCF.

That is, the cloud feedback to a 0.035 Wm-2 annual CO₂ forcing needs to be known, and able to be simulated, to a resolution of 0.11% in TCF in order to minimally know how clouds respond to annual CO₂ forcing.

Here’s an alternative way to get at the same information. We know the total tropospheric cloud feedback effect is about -25 Wm-2. [15] This is the cumulative influence of 67% global cloud fraction.

The annual tropospheric CO₂ forcing is, again, about 0.035 Wm-2. The CF equivalent that produces this feedback energy flux is again linearly estimated as (0.035 Wm-2/25 Wm-2)*67% = 0.094%. That’s again bare-bones simulation. Accurate simulation requires ten times finer resolution, which is 0.0094% of average annual TCF.

Assuming the linear relations are reasonable, both methods indicate that the minimal model resolution needed to accurately simulate the annual cloud feedback response of the climate, to an annual 0.035 Wm-2 of CO₂ forcing, is about 0.1% CF.

To achieve that level of resolution, the model must accurately simulate cloud type, cloud distribution and cloud height, as well as precipitation and tropical thunderstorms.

This analysis illustrates the meaning of the annual average ±4 Wm-2 LWCF error. That error indicates the overall level of ignorance concerning cloud response and feedback.

The TCF ignorance is such that the annual average tropospheric thermal energy flux is never known to better than ±4 Wm-2. This is true whether forcing from CO₂ emissions is present or not.

This is true in an equilibrated base-state climate as well. Running a model for 500 projection years does not repair broken physics.

GCMs cannot simulate cloud response to 0.1% annual accuracy. It is not possible to simulate how clouds will respond to CO₂ forcing.

It is therefore not possible to simulate the effect of CO₂ emissions, if any, on air temperature.

As the model steps through the projection, our knowledge of the consequent global air temperature steadily diminishes because a GCM cannot accurately simulate the global cloud response to CO₂ forcing, and thus cloud feedback, at all for any step.

It is true in every step of a simulation. And it means that projection uncertainty compounds because every erroneous intermediate climate state is subjected to further simulation error.

This is why the uncertainty in projected air temperature increases so dramatically. The model is step-by-step walking away from initial value knowledge, further and further into ignorance.

On an annual average basis, the uncertainty in CF feedback is ±144 times larger than the perturbation to be resolved.

The CF response is so poorly known, that even the first simulation step enters terra incognita.

—————————–

Anhang 2: Über Korruption und Unehrlichkeit in der Konsens-Klimatologie

Erwähnenswert ist, was Prof. Richard Lindzen über die Auswirkungen einer politisierten Wissenschaft sagt [16]: Ein zweiter Aspekt der Politisierung betrifft speziell wissenschaftliche Literatur. Artikel, welche die Behauptung einer alarmierenden Reaktion auf anthropogene Treibhausgase in Frage stellen, werden ungewöhnlich rasch zurückgewiesen. Diese Zurückweisungen werden normalerweise als unabhängige Studien veröffentlicht und nicht als Korrespondenz den Originalbeitrag betreffend, wobei Letzteres die übliche Praxis ist. Würde die übliche Praxis angewendet, dann würde die Antwort des/der Original-Autors/Autoren Seite an Seite mit der Kritik veröffentlicht werden. Gegenwärtig ist die Lage jedoch so, dass derartige Antworten bis zu ein Jahr lang verzögert werden. Meiner Erfahrung nach reflektieren die Kritiken nicht, dass man die Originalarbeit wirklich verstanden hat. Wenn die Original-Antworten der Autoren schließlich erscheinen, werden sie von weiteren Zurückweisungen begleitet, welche die Antworten allgemein ignorieren und einfach die Kritik wiederholen. Das ist eindeutig kein Verfahren, wie man sich in der wissenschaftlichen Forschung verhalten sollte, aber es ist nicht klar, ob Fortschritt wirklich erwünscht ist. Stattdessen ermächtigt die bloße Existenz von Kritik die umweltliche Presse dazu, das Original-Ergebnis als ,diskreditiert‘ darzustellen, während die lange Verzögerung der Antwort der Original-Autoren es zulässt, dass diese Antworten vollständig ignoriert werden.

Ein finaler Aspekt der Politisierung sind explizite Einschüchterung und Bedrohung von Wissenschaftlern. Beides ist zumeist, aber nicht ausschließlich, jenen zuteil geworden, welche den Alarmismus hinterfragen. Opfer derartiger Einschüchterungen schweigen zumeist. Anhörungen im Kongress wurden dazu verwendet, Druck auf Wissenschaftler auszuüben, welche den ,Konsens‘ in Frage stellen. Den Alarm in Frage stellenden Wissenschaftlern werden sorgfältig ausgewählte Opponenten gegenüber gestellt. Die eindeutige Absicht dahinter ist, den ,skeptischen‘ Wissenschaftler zu diskreditieren, von welchem man einen Widerruf verlangt“ [7].

Die außerordentliche Art und Weise, in der Richard Lindzen den Dschungel von Unehrlichkeit, der die Konsens-Klimatologie nun einmal ist, sollte man unbedingt lesen. Keiner der Akademiker, die er namentlich als Teilhaber an den Schikanen nennt, verdient es, als Wissenschaftler weiter beschäftigt zu werden [6].

Falls man seine Kommentierung seit den frühesten Tagen bis heute verfolgt, wird seine Entmündigung [als Wissenschaftler] schmerzlich und offensichtlich [4 bis 7, 16, 17]. Sein Beitrag „Climate Science: Is it Currently Designed to Answer Questions?“ sollte man in ganzer Länge lesen!

—————————–

References:

[1] Jiang, J.H., et al., Evaluation of cloud and water vapor simulations in CMIP5 climate models using NASA “A-Train” satellite observations. J. Geophys. Res., 2012. 117(D14): p. D14105.

[2] Kiehl, J.T., Twentieth century climate model response and climate sensitivity. Geophys. Res. Lett., 2007. 34(22): p. L22710.

[3] Stephens, G.L., Cloud Feedbacks in the Climate System: A Critical Review. J. Climate, 2005. 18(2): p. 237-273.

[4] Lindzen, R.S. (2001) Testimony of Richard S. Lindzen before the Senate Environment and Public Works Committee on 2 May 2001. URL: http://www-eaps.mit.edu/faculty/lindzen/Testimony/Senate2001.pdf Date Accessed:

[5] Lindzen, R., Some Coolness Concerning Warming. BAMS, 1990. 71(3): p. 288-299.

[6] Lindzen, R.S. (1998) Review of Laboratory Earth: The Planetary Gamble We Can’t Afford to Lose by Stephen H. Schneider (New York: Basic Books, 1997) 174 pages. Regulation, 5 URL: https://www.cato.org/sites/cato.org/files/serials/files/regulation/1998/4/read2-98.pdf Date Accessed: 12 October 2019.

[7] Lindzen, R.S., Is there a basis for global warming alarm?, in Global Warming: Looking Beyond Kyoto, E. Zedillo ed, 2006 in Press The full text is available at: https://ycsg.yale.edu/assets/downloads/kyoto/LindzenYaleMtg.pdf Last accessed: 12 October 2019, Yale University: New Haven.

[8] Saitoh, T.S. and S. Wakashima, An efficient time-space numerical solver for global warming, in Energy Conversion Engineering Conference and Exhibit (IECEC) 35th Intersociety, 2000, IECEC: Las Vegas, pp. 1026-1031.

[9] Bevington, P.R. and D.K. Robinson, Data Reduction and Error Analysis for the Physical Sciences. 3rd ed. 2003, Boston: McGraw-Hill.

[10] Brown, K.K., et al., Evaluation of correlated bias approximations in experimental uncertainty analysis. AIAA Journal, 1996. 34(5): p. 1013-1018.

[11] Perrin, C.L., Mathematics for chemists. 1970, New York, NY: Wiley-Interscience. 453.

[12] Roy, C.J. and W.L. Oberkampf, A comprehensive framework for verification, validation, and uncertainty quantification in scientific computing. Comput. Methods Appl. Mech. Engineer., 2011. 200(25-28): p. 2131-2144.

[13] Rowlands, D.J., et al., Broad range of 2050 warming from an observationally constrained large climate model ensemble. Nature Geosci, 2012. 5(4): p. 256-260.

[14] Lauer, A. and K. Hamilton, Simulating Clouds with Global Climate Models: A Comparison of CMIP5 Results with CMIP3 and Satellite Data. J. Climate, 2013. 26(11): p. 3823-3845.

[15] Hartmann, D.L., M.E. Ockert-Bell, and M.L. Michelsen, The Effect of Cloud Type on Earth’s Energy Balance: Global Analysis. J. Climate, 1992. 5(11): p. 1281-1304.

[16] Lindzen, R.S., Climate Science: Is it Currently Designed to Answer Questions?, in Program in Atmospheres, Oceans and Climate. Massachusetts Institute of Technology (MIT) and Global Research, 2009, Global Research Centre for Research on Globalization: Boston, MA.

[17] Lindzen, R.S., Can increasing carbon dioxide cause climate change? Proc. Nat. Acad. Sci., USA, 1997. 94(p. 8335-8342

Link: https://wattsupwiththat.com/2019/10/15/why-roy-spencers-criticism-is-wrong/

Übersetzt von Chris Frey EIKE




Mit Klimaschutz zum Sozialismus, und dann wird die Natur geschrottet

Von Interesse ist freilich, warum es geht. Was genau bringt die sich immer mehr aufschaukelnde Klimahysterie in unseren Tagen zustande, was setzt die Massen in Aktion? Sind es säkulare Erlösungsbedürfnisse, die an den Platz der religiösen getreten sind? Oder pubertäre Allmachtphantasien, die nach einem Ventil suchen? Handelt es sich um eine Erscheinungsform des Generationenkonflikts, ähnlich wie zu den Zeiten der 1968er? Oder stecken raffinierte Macht- und Gewinninteressen dahinter? Wahrscheinlich sind all diese Faktoren beteiligt, wie denn die meisten Ereignisse nicht nur eine, sondern viele Ursachen haben, die erst durch ihr Zusammenwirken den beobachteten Effekt erzielen.

Bei dieser kurzen Tour d’Horizon bleibt indessen ein Gesichtspunkt unberücksichtigt, der besondere Aufmerksamkeit verdient. Wer die Äußerungen der Klimabewegten nämlich verfolgt, wird schnell bemerken, dass sie bei aller Verschiedenheit in einem Punkt unisono übereinstimmen: Der eigentlich Verantwortliche für den „menschengemachten Klimawandel“ ist nach ihrer Auffassung „der Kapitalismus“, also die Marktwirtschaft. Das aktuelle Gewinninteresse einiger weniger, so der allgemeine Tenor, wirke dahin, dass die Welt von morgen mit Wirkung für alle ruiniert werde. Der Kapitalismus erscheint auf diese Weise als Menschheitsfeind Nummer eins. Die folgerichtige Konsequenz dieser Hypothese ist die, dass eine wirksame Abhilfe nur durch den Sozialismus, das heißt durch Planwirtschaft und überhaupt durch die Vergesellschaftung aller menschlichen Beziehungen erfolgen kann.

Die Auseinandersetzung zwischen Kapitalismus und Sozialismus ist daher ein integraler Bestandteil der gegenwärtigen Klimadebatte. Ja, diese ist geradezu die Form, in der sich der sozialistische Gedanke erneut anschickt, die Welt zu erobern, nachdem er mit dem Ende des Ostblocks Schiffbruch erlitten hat. So gesehen, passt es recht gut ins Bild, dass sich Greta Thunberg, die kindliche Ikone der Klimabewegung, zur Freude aller „Antifaschisten“ in einem T-Shirt mit dem Aufdruck „Antifascist“ hat abbilden lassen. Eine deutlichere Parteinahme für den Sozialismus lässt sich schwer vortstellen. Sozialismus oder Weltuntergang, lautet dementsprechend der Weckruf, mit dem die Völker abermals zum letzten Gefecht aufgerufen werden sollen. Die Antwort steht bei dieser Gegenüberstellung bereits fest, denn erst kommt selbstverständlich das Überleben, dann erst alles übrige.

Fatale Klimabilanz des realen Sozialismus

Wer den Sozialismus noch aus der Nähe besichtigen durfte, weiß nicht, ob er wach ist oder träumt. Die sozialistischen Staaten hatten die schlechteste Umweltbilanz weltweit. Die Erreichung der vorgegebenen Planziele ließen es für die verantwortlichen Politiker gar nicht zu, an kostenintensive Umweltschutzmaßnahmen zu denken. Umweltschutz hätte bedeutet, die Produktionskosten zu erhöhen und damit die Produktivität der sozialistischen Wirtschaft noch weiter zu verringern. Das hätte die marxistische Verheißung einer Überflussproduktion, die Wohlstand für alle garantiert, vollends desavouiert.

Aus der Mitte der Bevölkerung konnte kein Gegendruck aufgebaut werden, weil die staatlich gelenkten Medien dies nicht zuließen. Wer daher Gelegenheit hatte, bei Halle und Merseburg an den Leuna- und Bunawerken vorbeizufahren – gewöhnlichen Transitreisenden war dies verwehrt, weil sie die Transitstrecken bei Strafe nicht verlassen durften –, konnte gelegentlich kaum die Hand vor den Augen sehen. Ein an der Universität Halle beschäftigter Mediziner berichtete mir Anfang der 80er Jahre, die schweren Atemwegserkrankungen der dortigen Arbeiter seien den Fachleuten sehr wohl bekannt. Man wusste, dass der Produktionsbetrieb dringend hätte modernisiert werden müssen, Filter eingebaut und so weiter. Diese Dinge mussten jedoch streng unter Verschluss gehalten werden und durften aus politischen Gründen auf keinen Fall an die Öffentlichkeit gelangen. Es war ein Teufelskreis, der nur mit einem Eklat enden konnte.

Nach dem Fall der Mauer und dem Ende des realen Sozialismus in Europa gingen die umweltschädlichen Emissionen rasch auf ein in den kapitalistischen Staaten übliches Maß zurück. Die Einführung kapitalistischer Produktionsmethoden hatte also keine Verschlechterung, sondern genau umgekehrt eine signifikante Verbesserung der Umweltbilanz zur Folge. Spricht man Klimaaktivisten darauf an, erhält man gewöhnlich zur Antwort, der reale Sozialismus des früheren Ostblocks sei kein „wahrer Sozialismus“ gewesen. In einem solchen verhalte es sich nämlich ganz anders. Diese Argumentation hat Tradition. Sie erinnert verblüffend an die Auskunft, die man früher erhielt, wenn man darauf hinwies, dass es den Arbeitern im sozialistischen Arbeiterparadies um vieles schlechter gehe als ihren ausgebeuteten Kollegen im kapitalistischen Westen, und zwar so sehr, dass sie nur durch Mauer und Stacheldraht am Weglaufen gehindert werden konnten. Auch hier hieß es, dass dies eben kein „wahrer Sozialismus“ sei; man müsse es besser machen. Wenn der Sozialismus erst richtig verwirklicht sei – und zwar weltweit, sonst könne er sich nicht zu voller Blüte entfalten –, verhalte sich alles genau umgekehrt.

Die Umweltbewegung kam wie gerufen

Ideologien haben es bekanntlich an sich, dass sie den Blick auf die Realität partiell verstellen. Sie filtern aus, was dem gewünschten Bild widerspricht, und färben den Rest so ein, dass die wahrgenommene Realität mit der Ideologie übereinstimmt. Wenn es gar nicht anders geht, wird die Ideologie unter Beibehaltung ihrer Grundstruktur ein wenig umformuliert. Das lässt sich an der Entwicklung des Sozialismus gut beobachten. Nachdem sich erwiesen hatte, dass die Arbeiter für die Weltrevolution nicht zu gewinnen waren, wurde das Ziel der Vergesellschaftung aller Verhältnisse keineswegs aufgegeben.

Vielmehr wandte sich der Sozialismus von der Arbeiterbefreiung allmählich ab und hielt nach anderen publikumswirksamen Zukunftsvisionen Ausschau. Da kam die durch den Club of Rome forcierte Umweltbewegung wie gerufen, denn diese hatte kein geringeres Anliegen, als den Globus vor dem menschengemachten Untergang zu retten. Unter den „Grünen“, die sich dieses Ziel zu eigen machten, fanden sich anfangs Akteure sehr unterschiedlicher Couleur zusammen. Im Ergebnis jedoch dominierten die Anhänger der K-Gruppen, weshalb die Grünen auch als Kürbispartei bezeichnet wurden: außen grün, aber innen rot und auf die Revolutionierung aller Verhältnisse aus. Die Melange aus neo-marxistischen Revolutionären und Umweltaktivisten erwies sich als zukunftsträchtig, die ökosozialistische Rettung der Welt vor dem drohenden Untergang avancierte zur neuen Form der sozialistischen Welteroberung.

Das ist gut an dem Wanderer zwischen den Welten Rudolf Bahro zu beobachten, der sich als Emigrant aus der DDR im Westen intensiv bemühte, die ökologische mit der sozialistischen „Sache“ zu verbinden. Aber auch in den sozialistischen Staaten selbst war man sich der Chance, die sich hier auftat, bewusst. Die DDR-Nomenklatura ließ ungescheut verlauten, dass nur die gesamtgesellschaftliche Planung der Produktion die Umweltprobleme lösen könnte. Nachdrücklich warb auch der DDR-Philosoph Wolfgang Harich für einen „Kommunismus ohne Wachstum“, der an die Stelle des von Marx verheißenen Reichs des allgemeinen Überflusses treten sollte: „Ein dem Überfluß abschwörender Kommunismus wäre die Lösung, auf die Naturschützer, Nostalgiker und geschlagene, mutlos gewordene Neue Linke sich … einigen könnten …“

Anstelle der Rettung der ausgebeuteten Arbeiterschaft wurde hier kurzerhand die Rettung des ausgebeuteten Globus zum Movens der sozialistischen Bewegung ins Auge gefasst. Damit ist freilich die Frage, warum genau die sozialistische Planwirtschaft dafür besser geeignet sein sollte als die kapitalistische Wettbewerbswirtschaft, noch nicht beantwortet. Wie Harichs Gesprächspartner festhielt, war Harichs Zielvorstellung „gewiß der totale Polizeistaat globaler Versorgung, den er offenbar bejaht“. Der ungehinderte obrigkeitliche Durchgriff war also der Grund, weshalb der Sozialismus dem bürgerlichen Rechtsstaat als überlegen angesehen wurde.

Umfassende Vergesellschaftung als Selbstzweck

Die hier sichtbar werdende ökologische Anreicherung des sozialistischen Zentralismus und Bürokratismus findet eine überraschende Bestätigung in dem Buch „Das Prinzip Verantwortung“ von Hans Jonas, das an sich gegen die sozialistischen Zukunftsvisionen Ernst Blochs gerichtet war. Aber ungewollt zeigt sich der Ökosozialismus hier in seiner wahren Gestalt. Denn wie Jonas darlegt, komme zu den, „im ganzen doch wohl besseren, Chancen für einen Geist der Rationalität in einer sozialistischen Gesellschaft“ hier noch „die größere Macht, ihn praktisch auch durchzusetzen und zu seinen Gunsten auch das Unpopuläre aufzuerlegen … Die Entscheidungen der Spitze, die ohne vorherige Zustimmung von Unten getroffen werden können, stoßen auf keinen Widerstand im Sozialkörper … und können bei einiger Zuverlässigkeit des Apparats der Ausführung sicher sein. Das schließt Maßnahmen ein, die das Eigeninteresse der Betroffenen sich spontan nicht auferlegt hätte, die demnach, wenn sie die Majorität treffen, im demokratischen Prozeß schwer zum Beschluß gebracht werden können. Solche Maßnahmen sind aber eben das, was die drohende Zukunft verlangt und immer mehr verlangen wird. Soweit also handelt es sich um die Regierungsvorteile einer jeden Tyrannis, die in unserem Zusammenhang eben eine wohlwollende, wohlinformierte und von der richtigen Erkenntnis beseelte Tyrannis sein muß.“

Was hier nur in Gedanken konzipiert wurde, soll heute real durchgezogen werden. Hysterisierte Massen, von gleichgerichteten Medien ideologisch aufgeladen und von der Dringlichkeit ihrer Mission überzeugt, fordern „CO2-Steuern“ und andere planwirtschaftliche Maßnahmen, um die Welt im letzten Moment doch noch zu retten. Demokratie und Rechtsstaatlichkeit sind für die Klimabewegten nur etwas für Schönwetterzeiten, in Krisenzeiten jedoch sind sie nicht hilfreich.

Deshalb wird jede Opposition gegen die von den Klimaaktivisten errichtete Meinungsfront diabolisiert. Bis zu welchen Höhen sich der Hass gegen Andersdenkende aufschaukeln kann, hat vor wenigen Jahren ein Grazer Hochschullehrer demonstriert, der für „Klimaleugner“ allen Ernstes öffentlich die Todesstrafe gefordert hat. Diese sei „eine angemessene Sanktion für einflussreiche Klimaleugner“. („I am going to suggest that the death penalty is an appropriate punishment for influential Global Warming deniers.“)

Obwohl er, wie er sagte, an sich ein Gegner der Todesstrafe sei, gehe es hier doch um eine andere Kategorie, nämlich nicht darum, Vergeltung für ein in der Vergangenheit liegendes Delikt zu üben, sondern um ein künftiges Übel, nämlich Millionen, wenn nicht Milliarden von Klimatoten vorausschauend zu verhindern. Das sei lebenserhaltend und verdiene daher eine andere Beurteilung. („… to achieve that goal I think it is justified for a view heads to roll.“) Wem käme hier nicht Schillers Wort in den Sinn, dass „der schrecklichste der Schrecken … der Mensch in seinem Wahn“ ist? Zwar steht die reale Vaporisierung der „Klimaleugner“ nicht auf der offiziellen Tagesordnung. Aber der soziale Tod ist ihnen in dem von vielen geforderten Klimastaat so sicher wie das Amen in der Kirche.

Das sozialistische Chamäleon

Sieht man das Ganze aus der gehörigen Distanz, so ist leicht zu erkennen, dass das sozialistische Chamäleon sich aus zwei Bestandteilen zusammensetzt: einer zugkräftigen Zukunftsvorstellung und einer diese ergänzenden bürokratischen Herrschaftsordnung. Die Zukunftsvorstellung ist der austauschbare Köder, mit dem die Massen mobilisiert werden: das internationale Arbeiterparadies, die bedingungslos solidarische nationale Volksgemeinschaft, die allein das Weiterleben garantierende Klimarettung und so weiter. Die bürokratische Herrschaftsordnung dagegen ist der Weg, auf dem das große Ziel angeblich allein erreichbar ist.

Was dabei an rechtsstaatlicher Substanz unter die Räder kommt, wird als Kollateralschaden marginalisiert, wenn man die Ausschaltung einer freiheitlichen Ordnung nicht überhaupt zu einer vorübergehenden Erscheinung erklärt. In dem Letzteren waren die Marxisten groß. So sollte die Diktatur des Proletariats zum Sturz der überkommenen Ordnung zwar notwendig sein, der Staat nach Erreichung des angestrebten Fernziels aber irgendwann von selbst „absterben“, weil er nicht mehr gebraucht würde. Daran haben bis 1989 viele inbrünstig geglaubt, und zwar nicht nur unbedarfte Kretins, sondern auch renommierte Gesellschaftswissenschaftler.

George Orwell hat es beizeiten besser gewusst: „Die Macht ist kein Mittel“, schrieb er, „sie ist ein Endzweck. Eine Diktatur wird nicht eingesetzt, um eine Revolution zu sichern: sondern man macht eine Revolution, um eine Diktatur einzusetzen … Der Zweck der Macht ist die Macht.“ Und der Zweck der Zukunftsvision, könnte man fortfahren, ist es, eben dies zu kaschieren und der totalitären Vergesellschaftung aller menschlichen Beziehungen ein attraktives Mäntelchen umzuhängen. Was man dagegen unternehmen kann, hat Orwell leider nicht gesagt. Und so stehen wir denn vor dem offenbar unauflösbaren Widerspruch, dass die Wahrheit der für alle (außer den Bösen) offenen Gesellschaft die Diktatur ist, die Wahrheit der gegenüber allem (außer gegenüber Gedankenverbrechen) gepredigten Toleranz, die Zensur und die Wahrheit der Menschenliebe zu seinesgleichen und der unbändige Hass auf alle anderen.

Gewiss ist der Sozialismus auch eine Methode, angesichts einer überwältigenden Fülle von Partikularinteressen auch das „große Ganze“ der menschlichen Gesellschaft mitzubedenken und dem Individualismus nur auf sich selbst bezogener Egoisten das Recht der Menschheit als solcher entgegenzusetzen. Wenn Rudolf Bahro vor Jahren prognostizierte, das, was die verschiedenen Kräfte zusammenführen könne, werde „künftig kein besonderes Klasseninteresse, sondern langfristig-menschliches Interesse sein“, so wird ihm in dieser Allgemeinheit nicht leicht jemand widersprechen. Aber zu dem „Ganzen“, das es zu begreifen gilt, gehört auch die Wirkungsweise der sozialistischen Theorie selbst. Und diese ist bei der ganzen Diskussion unterbelichtet, um nicht zu sagen: unter einem Haufen ideologischen Mülls verborgen.

Zuerst erschienen bei der Achse des Guten. Mit freundlicher Genehmigung. 

Johann Braun habilitierte sich für die Fächer Zivilprozessrecht, Bürgerliches Recht, Rechtsphilosophie und Privatrechtsgeschichte der Neuzeit und war von 1983 – 1988 ordentlicher Professor zunächst in Trier und von 1988 – 2011 in Passau. 

Quellen:

Wolfgang Harich, Kommunismus ohne Wachstum? Sechs Interviews mit Freimut Duve und Briefen an ihn, 1975, 129.

Duve in: Harich (Fn. 1), 9.

Hans Jonas, Das Prinzip Verantwortung, 1979, 262.

Näher Johann Braun, MUT 44. Jg. (2013), Nr. 543, 10 – 17.

George Orwell, 1984, 3. Teil, 2. Kap.

Rudolf Bahro, Elemente einer neuen Politik. Zum Verhältnis von Ökologie und Sozialismus, 1980, 210.




Klima-Aktivisten hinterlassen Müll*

Zur Kenntnis nehmen mussten die Berliner unter anderem, dass die Bewegung, die besonders laut vor „Kli­manotstand“ und Artensterben warnen will, bei ihren Protestaktionen erstaunliche Müllberge hinterlassen hat. Allein nach der Protestaktion am Potsdamer Platz am 8. Oktober hat die Berliner Stadtreinigung (BSR) 11,5 Kubikmeter Müll eingesammelt. Nach Angaben eines BSR-Sprechers handelte es sich dabei „vor allem um Sperrmüll, zum Beispiel Matratzen und Stühle, sowie um Müllsäcke, die unter anderem mit Verpackungsabfällen gefüllt waren“. Zu den Hinterlassenschaften auf dem Potsdamer Platz gehörten sogar Zement und Badewannen. Nach einer Protestaktion von „Extinction Rebellion“ am Großen Stern im Berliner Tiergarten vielen abermals 8,5 Kubikmeter Müll an.

Anspruch und Realität klafften nicht allein in diesem Punkt weit auseinander: Erklärtermaßen will die radikale Gruppe so großen Druck auf die jeweiligen Regierungen ausüben, dass diese einen nationalen „Klimanotstand“ ausrufen. In Berlin hielten sich die Belastungen durch die Rebellionswoche für die Bundesregierung und die Politik allgemein jedoch in sehr überschaubaren Grenzen: „Extinction Rebellion“ hielt zwar im Regierungsviertel ein sogenanntes Klimacamp ab, auch gab es Proteste bei Parteizentralen, massivem Druck ausgesetzt waren aber überwiegend normale Bürger.

Seit dem 7. Oktober legten die Radikalen durch spontane Straßenblockaden immer wieder den Verkehr lahm, sodass es im Stadtgebiet immer wieder zu massiven Staus kam. Blockiert wurden mehrere verkehrswichtige Brü-cken in der Innenstadt. Aus Demonstrationen, die ordnungsgemäß angemeldet waren, starteten die Aktivisten immer wieder Blockaden von zentralen Verkehrsadern der Millionenstadt. Von solchen Aktionen waren der Kurfürstendamm, der Potsdamer Platz und der Große Stern betroffen.

Leidtragende waren dabei neben Autofahrern auch Fußgänger und Radfahrer. Sogar Nutzern des öffentlichen Nahverkehrs konnte es passieren, dass sie durch die rabiaten Blockadeaktionen der „Klimaschützer“ mit ihrem Bus im Stau steckenblieben.

Am Rande solcher Aktionen war immer wieder zu beobachten, wie insbesondere denjenigen, die aus beruflichen Gründen unterwegs waren, sprichwörtlich der Kragen platzte. Die spontanen Straßenblockaden in der Innenstadt stellten allerdings nicht nur die Geduld und Leidensfähigkeit vieler Berliner auf eine harte Probe. Strapaziert wurden auch das Gerechtigkeitsempfinden und das Vertrauen in den Rechtsstaat. Beobachter mussten abermals erleben, dass der Staat zwar Verstöße wie Falschparken konsequent ahndet, Blockaden des Straßenverkehrs, die Stunden und mitunter Tage andauerten, treffen allerdings bei Politikern des Berliner Senats auf erstaunlich viel Geduld und Nachsicht.

Berlins Innensenator Andreas Geisel (SPD) verteidigte gegenüber dem RBB das zurückhaltende Vorgehen der Beamten. Die Polizei schütze das Demonstrationsrecht und nicht den Inhalt von Versammlungen oder Demonstrationen. Dabei sei man gut beraten, mit professioneller Gelassenheit und Augenmaß zu handeln und die Situatuion nicht eskalieren lassen.

Sehr scharfe Kritik äußerte dagegen Marcel Luthe (FDP). Der Berliner Innenpolitiker sagte mit Blick auf die Straßenblockaden: „Wer statt mit Argumenten und durch Wahlen und Abstimmungen für seine Positionen zu werben, lieber anderen durch Einschränkung ihrer Freiheitsrechte seinen Willen aufzwingt, stellt sich außerhalb des demokratischen Konsenses.“ Tatsächlich könnten die rück­sichtslosen Aktionen von Aktivisten der „Extinction Rebellion“-Bewegung dafür gesorgt haben, dass bei betroffenen Berlinern so manche bislang gehegte Illusion über die „Klimaschützer“ verflogen ist.

Auch die begleitende Berichterstattung zur Rebellionswoche wirkte teilweise wie ein Augenöffner: Hingewiesen wurde etwa auf die kaum zu übersehenden antidemokratischen Seiten der Bewegung. In einem „Spiegel“-Interview aus dem September hatte beispielsweise der Brite Roger Hallam, einer der Gründer von „Extinction Rebellion“, geäußert: „Wenn eine Gesellschaft so unmoralisch handelt, wird Demokratie irrelevant.“ Das heißt nichts anderes als: Wenn wir unsere Ziele nicht demokratisch erreichen, dann muss die Demokratie weg.

In der „Neuen Zürcher Zeitung“ sprach sich Annemarie Botzki, eine der deutschen Sprecherinnen von „Extinction Rebellion“, zudem für die Schaffung von „Bürgerinnenversammlungen“ aus. „Wir wollen die Demokratie erweitern“, so die Botzki. Kritiker wenden ein, diese vermeintliche „Erweiterung“ laufe in Wahrheit auf eine Kontrolle und Entmachtung der demokratisch gewählten Parlamente unter dem Vorwand des angeblichen „Klimanotstands“ hinaus.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung; 18. Oktober 2019, S.12;  EIKE dankt der PAZ-Redaktion sowie dem Norman Hanert für die Gestattung der ungekürzten Übernahme : https://www.preussische-allgemeine.de/

=================================================================




Schadet uns Kohlenstoffdioxid?

Physikalische Grundlagen

Viele Massenmedien, Lehrer und Politiker bläuen uns ein, Kohlenstoffdioxid – kurz CO2 – wäre ein gefährlicher Schadstoff. Das von uns Menschen freigesetzte CO2 soll zu Klimaerwärmung und Umweltkatastrophen führen. Stimmt diese Behauptung? Physiker kennen das Henry-Gesetz: Bei stärkerem Druck und bei niedrigerer Temperatur löst sich mehr Gas in einer Flüssigkeit. Wir können das beobachten, wenn wir kalte und warme Flaschen mit Mineralwasser öffnen. Die warme sprudelt viel stärker als die gekühlte. Ist die Luft kälter, löst sich mehr CO2 aus der Luft in Seen, Flüssen, Regenwolken und im Meer. Weil Wasser viel mehr CO2 als Sauerstoff und Stickstoff aufnimmt1, sinkt dabei der CO2-Anteil in der Luft. Tiefenbohrungen im Meer und im Eis an den Polen haben bestätigt, dass das CO2 der Luft dem Klima mit einer Zeitverzögerung folgt. Ein Ansteigen des CO2-Anteils der Luft ist eine Folge der Klimaerwärmung und kommt daher als Ursache der Klimaerwärmung wohl nicht in Frage.

Luft besteht aus 78,1 % Stickstoff, 21 % Sauerstoff, 0,93 % Argon und 0,038 % CO2. CO2 ist ein unbrennbares, farb-, geschmack- und geruchloses, Gas. Grüne Pflanzen verwandeln es in der Photosynthese zu Sauerstoff, den wir ebenso wie die meisten höher entwickelten Tiere zum Leben brauchen. Für Menschen ist CO2 nicht giftig. Eine größere Konzentration behindert aber die Sauerstoffaufnahme. Am Arbeitsplatz sind 0,5 % zulässig,2 ab 8 % führt es innerhalb von 30 bis 60 Minuten zum Tod3. Bei der Alkoholgärung entsteht CO2. In Weinkellern sterben Menschen, weil CO2 um die Hälfte schwerer als Luft ist und zu Boden sinkt. Dort verdrängt es den Sauerstoff, den sie zum Atmen brauchen. Auch in der Atmosphäre nimmt der CO2 Anteil trotz der Verwirbelungen in der Luft mit steigender Höhe ab. Die leichtesten Bestandteile der Erdatmosphäre – Wasserstoff und Helium – hüllen sogar den Mond ein.4

Temperaturverlauf seit Entstehung der Erde. Quelle: ZAMG

Das Klima wandelt sich seit seiner Entstehung

Klima beschreibt den typischen Zustand der Atmosphäre über lange Zeiträume von Jahren bis zu Jahrmillionen im Wechselspiel mit Gewässern, Landmassen, Eisflächen und Lebewesen.5 Nach heutigem Stand der Wissenschaft entstand unsere Erde vor 4,6 Milliarden Jahren zusammen mit der Sonne und den übrigen Planeten aus einem Urnebel. Sie kühlte zuerst rasch, dann immer langsamer ab. Dabei bildeten sich zuerst eine feste Kruste und später Ozeane. Vor 2,5 Milliarden Jahren war das heutige Temperaturniveau erreicht. Vor 2,2 Milliarden Jahren und nochmals vor 700 Millionen Jahren war die Erde ein gefrorener Schneeball. Die allermeiste Zeit ihrer Geschichte wie auch der letzten 542 Millionen Jahre, in denen Leben nachgewiesen werden kann (Phanerozoikum), war die Erde eisfrei. Ihr Klima war also wärmer als heute.6 Vor 5 Millionen Jahren pendelte das Klima hauptsächlich in den 23.000 bis 41.000-jährigen Zyklen der Schiefe und der Präzession der Erdachse, danach nahmen die Schwankungen weiter zu. Seit 900.000 Jahren dominiert der 100.000 Jahreszyklus der Exzentrizität der Erdbahn. Vor 2,6 Millionen Jahren vereiste die Antarktis. In der Arktis fror das Meer im Winter. Das fünfte Eiszeitalter, in dem wir leben, begann. Seit einer Million Jahren lösen sich Kalt- und kürzere Warmzeiten ab. Die Mitteltemperatur des Erdglobus schwankt um 5°C. Die letzte Kaltzeit unseres Eiszeitalters war vor 110.000 bis 12.000 Jahren. In ihr wechselte das Klima 24 Mal abrupt zwischen wärmeren und kälteren Perioden. Am kältesten war es vor 25.000 bis 20.000 Jahren. Damals waren Nordamerika, Grönland und weite Teile Europas und Asien von Eis bedeckt. Salzburg war unter 600 m, Rauris unter 1,5 km Eis begraben. Nur die höchsten Berge der Alpen waren eisfrei. Der Meeresspiegel sank weltweit um 120 m. Dadurch waren Meere wie die Adria verschwunden, Alaska war mit Sibirien und Britannien mit Europa verbunden. Der Kälteeinbruch muss plötzlich gekommen sein. In den Mägen von Mammuts, die das Eis in Sibirien freigibt, finden wir noch heute die Nahrung.7 Vor 11.700 Jahren begann die heutige Warmzeit, das Holozän. Der Großteil des Holozäns war etwas wärmer als das 20. Jahrhundert. In der warmen Periode Atlantikum vor 6.000 Jahren grünte die Sahara. Seit 5.000 Jahren kühlt das Klima langsam ab. Zwischen 300 vor Christus und 400 nach Christus erwärmte sich das Klima wieder (römisches Klimaoptimum). Mäßig kühlem Klima während der Zeit der Völkerwanderung folgte das mittelalterliche Klimaoptimum zwischen 950 und 1250. In Britannien wurde Wein anbaut. In Europa blühten Städte und Staaten auf, die Bevölkerung wuchs.8 984 wurde der Wikinger Erich der Rote nach Grönland verbannt, das er das „grüne Land“ nannte. Er überzeugte 700 Landsleute, nach Grönland auszuwandern. Damals war die Durchschnittstemperatur höher als heute.9 Davon zeugen in Permafrost eingefrorene Wikinger-Gräber. Vom 15. bis 19. Jahrhundert hatten wir die Kleine Eiszeit. Missernten und Seuchen der frühen Neuzeit verschärften bestehende soziale Spannungen. Hexenverfolgung und französische Revolution sind in diesem Licht zu sehen. Die Alpengletscher erreichten um 1850 ihre größte Ausdehnung seit 6.300 Jahren. Danach erwärmte sich das Klima wieder.

Temperaturverlauf des Holozäns. Quelle: ZAMG

Ähnlich stark schwankte der CO2-Gehalt. Vor gut 4 Milliarden Jahren bestand die Atmosphäre aus 80 % Wasserdampf und 10 % CO2.10 Nach einem Abfall stieg CO2 von 0,6 % vor 570 Millionen Jahren auf 0,8 % vor 460 Millionen Jahren. Im Kambrium breiteten sich die Pflanzen aus und bildeten sich alle Tierstämme. Dabei sank das CO2 auf 0,044 % während der Gondwana-Vereisung vor 280 Millionen Jahren. Es stieg auf 0,2 % vor 210 Millionen Jahren, als die Erde weitgehend eisfrei war.11 Seither nimmt es im Wesentlichen ab. Fast die gesamte Erdgeschichte hatte die Luft mehr CO2 als heute. Coccolithophoriden – das Kalknanoplankton – binden das überschüssige im Meer gelöste CO2. Dabei können sich diese winzigen Algen12 unbegrenzt vermehren. Sie haben Kalkgebirge aufgebaut. Nicht nur die Steinbildung, sondern auch Chitinpanzer von Insekten und Pilzen binden CO2. Heutzutage ist nur mehr so wenig CO2 in der Atmosphäre, dass viele Gärtner CO2 in ihre Gewächshäuser einbringen, damit die Pflanzen besser wachsen. In spätestens einer halben Million Jahren wird so wenig CO2 in der Luft sein, dass die Pflanzen die Photosynthese nicht mehr ausführen und keine höheren Wirbeltiere und schon gar keine Menschen auf der Erde leben können.

CO2 und Temperatur der Luft in der Antarktis. Quelle: ZAMG

Der Arktische Ozean ist bis zu 5.669 m tief. In ihm schwimmen die Eismassen des Nordpols. Selbst wenn sie schmölzen, würde der Meeresspiegel dadurch nicht dramatisch ansteigen. Jeder von uns kann das mit einem Eimer voller Eiswürfel beobachten. Er wird bis zum Rand mit Wasser gefüllt. Das Eis schwimmt an der Oberfläche. In der Wärme schmilzt es ohne dass auch nur ein Tropfen Wasser überläuft (Archimedisches Prinzip). Die Antarktis zählt dagegen zu den kältesten Gebieten der Erde. Auf dem Nordpol hat es im Winter konstant -65°C. Im Midsommer steigt die Temperatur auf -25°C.13 Eine Angst vor dem Schmelzen des Eises der Pole ist vollkommen unbegründet.

Sonne, Erde und Sterne schaffen das Klima

Wir erleben Licht und Wärme der Sonne in verschiedenen wiederkehrenden Rhythmen. In 24 Stunden dreht sich die Erde um ihre Achse. Wir erleben Tag und Nacht. In einem Jahr hat die Erde die Sonne umkreist. Die schiefe Erdachse führt zu Jahreszeiten und unterschiedlich langen Tagen. Die anderen Planeten – besonders der Gasriese Jupiter – ziehen die Erde an beeinflussen ihren Umlauf um die Sonne. Die Exzentrizität besteht, weil die Erde die Sonne nicht in einer Kreisbahn sondern in einer Ellipse umkreist. Sie führt zu 100.000 und 400.000 jährigen Zyklen. Die Erde dreht sich wie ein Kreisel mit schiefer Achse. Diese Taumelbewegung heißt Präzession. Ein Zyklus dauert 25.920 Jahre und wird Platonisches Weltenjahr genannt. Die Schiefe zur Ekliptik verändert sich zwischen 22,5° und 24,5º. Ein Zyklus dieser Obliquität dauert 41.000 Jahre. Sonnenflecken treten in einem 11 jährigen Zyklus auf, der zwischen 9 und 14 Jahren variieren kann. Sie sind immer paarweise, wobei ein Sonnenfleck in die Sonne, der andere aus der Sonne heraus reicht. Im nächsten Zyklus sind die Polaritäten vertauscht. Daher sprechen wir auch von einem 22 jährigen Zyklus. Weitere Sonnenzyklen mit einer Dauer von 88 (Gleissberg-Zyklus), 208 (Suess/de Vries-Zyklus), 500, 1.000 (Eddy-Zyklus) und 2.300 Jahren (Hallstatt-Zyklus) wurden beobachtet.14

Der Gleichklang zwischen Sonnenaktivität und mittlerer Erdtemperatur ist inzwischen lückenlos gesichert. Am wahrscheinlichsten erscheint die 1997 von den dänischen Forschern Eigil Friis-Christensen, Knud Lassen und Henrik Svensmark vorgeschlagene Hypothese der Wolkenbildung durch kosmische Strahlung, die vom Magnetfeld der Sonne abgeschwächt wird. Die Forscher Nicola Scafetta und Bruce J. West wandten dazu neuartige statistische Verfahren an und bestätigten die Gültigkeit dieses Gleichklangs auch für die wenigen Zeitabschnitte, in denen die mathematische Korrelation keine guten Ergebnisse ausweist.15

Der slowakische Klimaforscher Jan Veizer und der israelische Astrophysiker Nir J. Shaviv beschrieben einen komplexen Zusammenhang. Die kosmische Strahlung nimmt zu, wenn unser Sonnensystem alle 143 Millionen Jahre einen der vier Spiralarme unserer Milchstraße durchquert. Dieser Rhythmus stimmt mit den Eiszeiten überein. Mehr Sonnenflecken gehen mit einem erhöhten Magnetfeld der Sonne einher. Dieses verringert die kosmische Strahlung in der Erd-Atmosphäre. Die Strahlung erzeugt Keime, die zur Kondensation und Wolkenbildung führen. Wolken schirmen die Erde von der Sonne ab. Daher ist es auf der Erde kühler, wenn die Sonnenflecken abnehmen. Dieser Zusammenhang wird von Satellitenbeobachtungen der letzten Jahre bestätigt. Veizer und Shaviv fanden diesen kosmischen Ursprung von Klimaänderungen in der Strahlung von 50 verschiedenen Eisenmeteoriten bestätigt.16

Das Maunder-Minimum war die kühlste Periode der Kleinen Eiszeit am Ende des 17. Jahrhunderts. Damals wurden so gut wie keine Sonnenflecken beobachtet. Wie der Geologe Roger Higgs erforschte, folgt das Klima mit einer Verzögerung von 25 Jahren dem Magnetfeld der Sonne. Das Magnetfeld der Sonne hatte 1991 einen Höhepunkt. Das stimmt mit der Temperaturspitze 2016 überein. Mittlerweile sind die Sonnenflecken in dramatischer Abweichung von ihren bisherigen Zyklen verschwunden. Das Klima wird daher zumindest bis 2044 kühler.17 Bereits 1972 haben Klimaforscher vor einer bevorstehenden Kaltzeit gewarnt.18

Der Weltklimarat

Der Weltklimarat IPCC wurde 1988 von der UNO gegründet, um Ausmaß und Auswirkungen des Klimawandels aufzuzeigen und Gegenmaßnahmen anzuregen. Treibende Kraft war der sozialistische kanadische Milliardär Maurice Strong (1929-2015), der in dem Thema einen Hebel sah, die UNO zu einer Weltregierung auszubauen.19 Seine Cousine, die US Journalistin Anna-Louise Strong, unterstützte seit 1921 den Aufbau des Kommunismus in Russland propagandistisch. Nachdem sie Stalin 1949 als Spionin verhaften ließ, wanderte sie nach China aus wo sie die Freundschaft mit Mao Zedong und Zhu Enlai erlangte.20 Strong selbst war mit vielen führenden Persönlichkeiten wie Justin Trudeau, Richard Nixon, den Rockefellers, Prinz Philip von Edinburgh, Saddam Hussein, George Soros und Mao Zedong gut vernetzt.21 Der Weltklimarat befasst sich entsprechend seinem Auftrag so gut wie ausschließlich mit dem menschengemachten Klimawandel. Dabei beruft er sich auf das längst widerlegte Hockeyschläger-Diagramm aus dem Jahr 1999.22 Die natürlichen Schwankungen des Klimas werden weitgehend ausgeblendet. Mittlerweile haben die meisten einschlägigen Naturwissenschaftler den Weltklimarat verlassen. Soziologen, Ökonomen und Politologen geben den Ton an.

Al Gore war von 1993 bis 2001 Vizepräsident der Vereinigten Staaten. Seine Vorträge über einen durch Treibhausgase ausgelösten Klimawandel fasste er 2006 im Film „Eine unbequeme Wahrheit“ (An Inconvenient Truth) zusammen. Wegen einiger Fehler und Übertreibungen darf dieser Film in britischen Schulen nicht ohne Richtigstellungen gezeigt werden. 2007 erhielt Al Gore für ihn den Oscar für den besten Dokumentarfilm und zusammen mit dem Weltklimarat IPCC den Friedensnobelpreis. Gore‘s Investmentfonds Generation Investment Management GIM besaß 10 % der Chicago Climate Exchange, der amerikanischen Terminbörse für den Handel mit Emissionsrechten und diese die Hälfte der European Climate Exchange.23 Vor 2010 konnte Al Gore seinen Privatbesitz hauptsächlich mit Umweltgeschäften auf 100 Millionen Dollar verfünfzigfachen.24 Im Kyoto-Protokoll verpflichteten sich 1997 einige Industriestaaten, den Ausstoß ihrer Treibhausgase zu reduzieren. Die USA haben das Protokoll zwar unterzeichnet, aber nicht ratifiziert. Auch als Al Gore Vizepräsident war, wurde es dem Senat nie zur Abstimmung vorgelegt.25

97 % des CO2, das in die Atmosphäre gelangt, ist natürlichen Ursprungs: Vulkane, Atemluft, Vegetation, Gewässer26. Nur 3 % setzen Menschen durch das Verbrennen fossiler Energien frei. Davon stammen 27,5 % von der Volksrepublik China, 16,9 % von den USA, 5,9% von Indien und 4,7 % von Russland.27 Keines dieser Länder hat sich verpflichtet, den CO2 Eintrag zu verringern. Der Beitrag von Deutschland ist mit 2,2 % zu vernachlässigen. Selbst wenn Deutschland keinen Tropfen Öl mehr verbrannte, wäre das für den CO2-Gehalt der Erdatmosphäre belanglos.

1896 berechnete der Schwedische Nobelpreisträger für Chemie Svante Arrhenius, dass eine Verdoppelung des CO2-Gehalts der Atmosphäre durch einen Treibhauseffekt zu einer Temperaturerhöhung um 4 bis 6°C führt. Er erwartete dies in 3.000 Jahren und freute sich dabei auf gleichmäßigere und bessere klimatische Verhältnisse und um das Vielfache erhöhte Ernten.28 Bis heute ist der Treibhauseffekt experimentell nicht nachgewiesen.

Die Grenzen der Klimamodellierung

Im SPIEGEL 13/2019 plaudern zwei führende Klimaforscher aus dem Nähkästchen. Bjorn Stevens vom Hamburger Max-Planck-Institut für Meteorologie forscht seit mehr als 20 Jahren auf dem Feld der Klimamodellierung. In den 1979er Jahren vermuteten Forscher, dass eine Verdoppelung des CO2 Gehalts der Atmosphäre zu einer Temperaturerhöhung um 1,5 bis 4,5°C führen könnte. Diese Klimasensitivität legten sie ihren Computer-Simulationen zu Grunde. Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. Das empfindet Stevens als zutiefst frustrierend. „Unsere Computer sagen nicht einmal mit Sicherheit voraus, ob die Gletscher in den Alpen zu- oder abnehmen werden.“ Kondensiertes Wasser – also Wolken haben den größten Einfluss auf das Klima. Mal bilden sie zarte Streifen, mal treiben sie in Herden bauschiger Gebilde dahin, mal bäumen sie sich zu kilometerhohen Unwetterfronten auf. Manche bestehen aus winzigen Wassertröpfchen, andere aus kleinen Körnchen aus Eis. Schiebt sich eine Wolke vor die Sonne, wird es kühler. In der Nacht und im Winter verhindern Wolken, dass Wärme abgestrahlt wird. Alle Wolken zusammen würden zu Wasser kondensiert unseren Globus mit einer 0,1 mm dünnen Schicht bedecken. Durch eine Verringerung der tief hängenden Gewitterwolken (Cumulonimbus) um 4 % würde es weltweit um 2° C wärmer. (2015 wurde auf der Pariser Klimakonferenz beschlossen, die Erwärmung der Erde auf diese 2° C zu begrenzen.) Die Bildung von Wolken ist stark von kleinräumigen Wirbeln abhängig, die nach wie vor nicht erfasst, geschweige denn prognostiziert werden können. Wie vor 50 Jahren modellieren die Forscher die Erde möglichst exakt und geben vor, wie stark die Sonne in welcher Weltregion strahlt. Daraus simuliert der Computer Temperaturen. Wasser kann dabei nicht verdunsten, aufsteigen und kondensieren. So lässt sich nur die Großwetterlage abbilden. Tiefdruckwirbel ziehen wie in der Wirklichkeit über den Nordatlantik. Indien wird im Sommer vom regenreichen Monsun heimgesucht. In verschiedenen Klimamodellen klaffen die Temperaturen der Arktis um 10°C auseinander. Das lässt jede Prognose der Eisbedeckung als Kaffeesatzleserei erscheinen. „Wir brauchen eine neue Strategie“, sagt Stevens.

Wir brauchen neue Ideen“, findet auch Tapio Schneider vom Caltech im kalifornischen Pasadena. Er sieht den größten Einfluss auf das Klima in Stratokumuli, das sind Haufenschichtwolken ohne Fasern. Vor allem in den Subtropen hängen sie vielerorts in geschlossenen Decken über den Meeren. Sie reflektieren einen großen Teil des einfallenden Sonnenlichts. Auf der Erde wird es kälter, wenn sie sich bilden und wärmer wenn sie sich wieder auflösen. Zusammen mit Kollegen vom Jet Propulsion Laboratory und vom MIT bastelt Schneiders Institut an der „Klimamaschine“ – ein Computermodell, das vor allem die Stratokumuli ins Visier nehmen soll. Die Wolken einiger ausgewählter Regionen sollen mit hoher Auflösung simuliert und die bestehenden Modelle mit den Ergebnissen gefüttert werden. Noch immer tun sich Computer schwer, Wolkenmuster zu erkennen. Auch fehlen wichtige Daten wie die Feuchtigkeit und die Strömungen innerhalb der Wolken. Schneider hat berechnet, dass sich die Stratokumuli über den subtropischen Ozeanen großflächig auflösen könnten, falls der CO2 Gehalt der Luft auf 0,1 % ansteigt. Das ist mehr als das Dreifache von heute und wird selbst in den düstersten Treibhausszenarien nicht erreicht. In diesem Modell verflüchtigte sich die Wolkendecke über Pazifik und Atlantik. Dabei stieg die Welttemperatur zu seiner Überraschung nur um 8°C. „Es scheint dort eine Nichtlinearität zu geben, die wir bisher nicht kannten“, sagt er. „Das zeigt, wie schlecht die Stratokumuli bisher verstanden sind.“ „Denkbar ist aber auch, dass es prinzipiell unvorhersehbare Klimaphänomene gibt“, sagt Stevens. „Dann können wir noch so genau simulieren und kommen trotzdem zu keinen verlässlichen Ergebnissen.“ Dann steuert die Menschheit auch weiterhin ins Ungewisse.29

Wer finanziert die Klimapanik?

Westliche Politiker wollen Arbeitsplätze schaffen und zukunftsweisende Entscheidungen treffen. Zur Unterstützung holen sie Berater, die oft Interessen der Großindustrie vertreten. Die repräsentative Demokratie führt zu plakativen Slogans ohne Nuancierungen. Sachzwänge, Zeitdruck und die Interessen Einzelner bewirken, dass Neues eingeführt wird, bevor Vor- und Nachteile untersucht sind.

Institute, die Teilaspekte der Klimaerwärmung untersuchen, erhalten schier unbeschränkte Forschungsgelder, wenn ihre Studien die These eines menschengemachten Klimawandels stützen. So liefern enthusiastische Studenten und Lehrende trotz ihrer Bemühungen um Logik, Ehrlichkeit und Objektivität oft Mosaiksteinchen für ein Bild aus Dogmen und Lügen.

Wollen Milliardäre wie Bill Gates, Mark Zuckerberg, Jeff Bezos, Richard Branson30 und George Soros31 mit dem Schüren einer Klimahysterie Macht und Reichtum vermehren, die Menschheit und unser Leben umkrempeln oder vielleicht sogar die Zahl der Menschen auf der Erde drastisch verringern?

Für die Staaten der Europäischen Union wurden Emissionszertifikate für 2 Milliarden Tonnen CO2 ausgegeben32. Bei einem derzeitigen Kurs von 28 €33 haben diese Zertifikate einen Börsenwert von 56 Milliarden €. Sie belasten damit jeden der 513 Millionen EU-Bürger34 mit durchschnittlich 109 €. Dazu kommen unter anderem Strafzahlungen für nicht erreichte Klimaziele, der Aufwand für jährliche Klimakonferenzen seit dem Berliner Klimagipfel 199535 sowie Kosten für Verwaltung, Werbung, Forschung, Massenmedien und Demonstrationen. Das Denken und die Gefühle von Millionen von Menschen werden von wesentlichen Themen abgelenkt.

Neben den Nutznießern der CO2-Emissionszertifikate36 und ihres Handels gibt es eine Reihe von Branchen mit schier unerschöpflichem Werbebudget, die riesige Profite aus der Hysterie um eine menschengemachte Klimaerwärmung ziehen. Versicherungen können ihre Prämien erhöhen, wenn der Klimawandel vermehrte und verheerendere Unwetter als in der Vergangenheit erwarten lässt. Die Erdölindustrie hat in „grüne Energien“ investiert, für deren Herstellung immense fossile Energien verwendet werden.37 Überdies möchte sie über eine längere Zeit weniger Öl teurer verkaufen.

Nach dem Reaktorunfall im Atomkraftwerk Three Mile Island bei Harrisburg in Pennsylvania, USA im Jahr 1979 begannen in Europa westlich des Eisernen Vorhangs Proteste gegen Atomkraftwerke. Nach dem GAU von Tschernobyl 1986 begann Deutschland mit dem Ausstieg aus der Atomkraft. Trotz hoher Akquisitions- und Bestechungskosten erhielt die Siemenstochter KWU keinen Auftrag in China. Darauf wandte sie sich Alternativenergien zu. Siemens-Chef Heinrich von Pierer, der 1977 bis 1987 bei der KWU Großprojekte betreut hatte, setzte sich 1999 beim Club of Rome für die Rückkehr zu Atomkraft ein, „da das schwerwiegende Risiko einer Klimaveränderung durch den Einsatz fossiler Brennstoffe nicht länger hingenommen werden“ könne.38

Nach der Abwanderung von großen Teilen der Industrie in Billiglohnländer ist in Mitteleuropa hauptsächlich Maschinenbau und hier vor allem Autoindustrie verblieben. In der Diesel-Technologie schafften deutsche Autobauer einen so großen Vorsprung, dass die Mitbewerber aus den USA das Handtuch warfen. Elektromotore sind technisch bei weitem nicht so anspruchsvoll und können daher überall auf der Welt hergestellt werden. Durch die Einführung von Klimazertifikaten und den Ausstieg aus fossiler Energie schafft sich die Industrie der USA einen beachtlichen Wettbewerbsvorteil gegenüber dem Mitbewerb aus Europa, Japan und Korea. Mittlerweile versucht sogar die deutsch-österreichische Automobilindustrie aus der Klimahysterie Nutzen zu schlagen. VW Chefstratege Michael Jost wirbt mit einem Horrorvideo „Es geht um die Rettung des Planeten“39 für Elektroautos.

Die Großindustrie – und nicht nur sie – möchte lieber mit hohen staatlichen Subventionen und dadurch garantiertem Absatz die Wünsche der Politik erfüllen statt ihren Konzern den Risiken einer Marktwirtschaft auszusetzen. Durch die Klimahysterie werden langfristige Wirtschaftspläne eingeführt – Jahrzehnte nachdem der reale Sozialismus mit seinen Fünfjahresplänen gescheitert ist. Zu einem guten Teil scheiterte der Kommunismus, weil Staatsbeamte Unternehmen nicht wirtschaftlich führen können.

PR-Agenturen haben die Gefühle vieler Menschen aufgewühlt und sie überzeugt, dass nur ein sofortiger großer Kraftakt den Untergang unseres Planeten gerade noch verhindern könnte. Daher ordnen alle staatstragenden Parteien und Medien ihre Aussagen, Artikel, Filme und Gesetze diesem Ziel unter. In Krisenzeiten nähern sich die Ziele und Parolen der verschiedenen Parteien noch weiter aneinander an. Wer selber denkt oder Pluralismus fordert, wird als „Klimaleugner“ der Lächerlichkeit preisgegeben. Welcher Politiker kann der Versuchung widerstehen, ohne Gefahr einer Abwahl das Zusammenleben seiner Bürger bis ins kleinste Detail zu regeln? 2016 beschloss die deutsche Bundesregierung den Klimaschutzplan 2050. Rechtzeitig davor werden keine mit Benzin oder Diesel betriebenen Neuwagen zugelassen.

Das Heizen mit Kohle, Öl oder Erdgas wird verboten. Dabei ist genauso wenig wie die Endlagerung der radioaktiven Abfälle von Atomkraftwerken geklärt, welche Technologien Kohle, Erdöl und Erdgas ersetzen sollen. Nicht überall können oder dürfen Wasserkraftwerke gebaut werden. Ohne Förderung sind weder Windparks noch Photovoltaikanlagen oder Hackschnitzelkraftwerke wirtschaftlich. Transport und Speicherung des erzeugten Stroms sind nicht gelöst. Zur Versorgungssicherheit sind konventionelle Kraftwerke mit fast der gleichen Leistung notwendig.40 Windräder sind laut, verschandeln die Landschaft und töten Fledermäuse und Vögel. Große Raubvögel wie der Weißkopfseeadler – das Wappentier der USA – brüten nicht jedes Jahr und haben nur ein Junges. Windkraftwerke drohen, sie auszurotten. In Österreich wurden geförderte Biogasanlagen mittlerweile stillgelegt.41 Wir könnten mehr Autos mit Erdgas antreiben. Das wird hintertrieben, um eine engere Beziehung zwischen Europa und Russland zu verhindern. Weil Methan als 25-mal so schädliches Treibhausgas wie CO2 gilt, können sich die Staaten im nächsten Schritt einigen, die Haltung von Rindern, Ziegen und Schafen und den Fleischkonsum zu reglementieren. So wird die Freiheit jedes einzelnen Menschen Schritt für Schritt beseitigt.

Das größte Interesse an der Klimahysterie haben jedoch die Militärs. 2018 wurden weltweit 1.822 Milliarden US Dollar für Militärs ausgegeben. Das sind 239 US Dollar pro Mensch. 36 % davon tätigten die USA, 14 % China, 3,7 % Saudi-Arabien und Indien, 3,5 % Frankreich, 3,4 % Russland, 2,7 % Großbritannien und Deutschland.42

Zumindest die USA, Russland, China und Kanada arbeiten an Geoengineering als Waffe. Ein Memorandum der CIA vom 22.11.1960 erklärt: „Die Klimakontrolle in großem Maßstab erfordert die Veränderung der globalen Wettermuster durch Veränderung und Beeinflussung der physikalischen Prozesse in großem Maßstab, die verbunden sind mit den charakteristischen Bewegungen der allgemeinen atmosphärischen Zirkulationen im großen Maßstab.“ Die Ionosphäre muss kontrolliert werden, weil sie unberechenbar ist. Geologen haben das Klima zu simulieren und ihre Beeinflussung zu testen.43

Die USA entwickelten den Hochfrequenzapparat zur Energieübertragung von Nikolai Tesla weiter. Entsprechende Patente beinhalten die Erhitzung der Erdatmosphäre. Mit HAARP (High Frequency Active Auroral Research Program) Anlagen bei Gakona in der Wildnis Alaskas und Marlow bei Rostock in Mecklenburg-Vorpommern wird ein Spiegel über der Atmosphäre errichtet, mit dem die Kommunikation mit U-Booten möglich ist, die Erdatmosphäre erhitzt und das Wetter verändert werden kann. Ziel ist nicht nur die Veränderung des Klimas sondern die Kontrolle über das Bewusstsein der Menschen.44

Die westliche Demokratie erfordert, dass gravierende Eingriffe in das Leben der Menschen von einer Mehrheit zumindest toleriert werden. Das Dogma vom menschengemachten Klimawandel gipfelt in einem Ruf nach Eingriffen in die Klimahülle der Erde, dem der militärisch-industrielle Komplex gerne folgt. Die dazu notwendigen Technologien hat er in den letzten Jahrzehnten entwickelt und getestet.45

Es ist erschreckend, welche Auswirkung der Einfluss von Wirtschaft und Staat auf die Lehrinhalte von Kindergärten, Schulen und Universitäten hat. Er lässt im Bewusstsein einer Mehrheit der Menschen Propaganda, Unwahrheiten und Lügen als ein Wissen erscheinen, dem 97 % aller Wissenschaftler zustimmen. Es wäre an der Zeit, Schulen und Universitäten die Lehrfreiheit zu gewähren bzw. zurück zu geben.

CO2 könnte mithelfen, den Ausbruch der nächsten Kaltzeit erträglicher zu machen und die Zahl ihrer Todesopfer zu verkleinern. Milliarden Menschen wohnen in Städten und wünschen sich schönes, warmes, trockenes Wetter. Wünsche gehen öfter in Erfüllung als uns bewusst ist. Sind sie nicht zu Ende gedacht, haben sie oft unliebsame Auswirkungen. Nach Rudolf Steiner, dem Gründer der Anthroposophie beeinflussen wir mit allen unseren geistvollen und materialistischen Gedanken die Sonnenflecken und damit unser Klima.46

Für mehr Umweltschutz

Auch wenn wir wissen, dass fossile Brennstoffe keine bedrohliche Klimaänderung hervorrufen, haben wir keinen Grund, uns entspannt zurück zu lehnen. Um unsere Umwelt lebenswert zu erhalten, brauchen wir einen konsequenten Umweltschutz, der viel tiefer geht als sich die meisten von uns vorstellen können. Voraussetzung ist, dass jeder Einzelne sich um Wahrheit bemüht und versucht, stets den gleichen Maßstab anzuwenden. Wir sollten uns angewöhnen, vor Beginn jeder Produktion und umso mehr vor Einführung einer neuen Technologie den gesamten Prozess vom Beginn der Planung über die Gewinnung und Herstellung der benötigten Rohstoffe, die Produktion und die Nutzung bis zur Entsorgung zu ermitteln und abzuwägen. Ein ganzheitliches Denken beinhaltet, dass wir uns und die Erde auch als geistige Wesen betrachten.

Extreme Ansichten bedingen einander. Vielen Bewohnern der USA ist nur der materielle Teil der Wirklichkeit bewusst. Anderseits dürfen in manchen Gegenden der USA Schulen und Museen nicht behaupten, dass vor 100 Millionen Jahren Saurier auf der Erde gelebt haben. Schließlich kann man aus der Bibel ausrechnen, dass Gott die Erde im Jahr 3761 vor Christus geschaffen hat. In der Volksrepublik China werden alle Menschen sowohl im realen Leben als auch digital streng überwacht. In einem „Sozialkreditsystem“ sollen alle Bürger bewertet und bei Abweichen von staatlichen Vorgaben bestraft werden.47 Trotzdem kennt der Staat die Anzahl seiner Bürger nicht einmal auf 100 Millionen Menschen genau, weil durch die Ein-Kind-Politik von 1979 bis 201548 viele Menschen als U-Boot leben.

In unserem Wirtschaftssystem kann jedes Unternehmen das produzieren, was der Vorstand will und danach versuchen, die Produkte mit Werbekampanien an den Konsumenten zu bringen. Das ist eine große Vergeudung von Rohstoffen, Geld und Arbeit.

Die Zinseszinsrechnung zeigt, dass ein ständiges Wachstum nicht möglich ist. Hätte Josef zu Christi Geburt einen Cent mit 3,7 % Verzinsung angelegt, könnte heute mit dem Guthaben die ganze Erdkugel aus purem Gold bezahlt werden.49

Rücksichtslos wird mit Dünger, Gentechnik und Pflanzenschutzmitteln möglichst viel Ernte aus dem Boden heraus gepresst. Um den Preis zu stützen, wird ein erheblicher Teil der Ernte vernichtet. Viele Supermarktketten vernichten unverkaufte Lebensmittel auch wenn sie noch einwandfrei sind. Kühe werden ihr Leben lang in Ställen gehalten, obwohl saftige Weiden davor liegen. Kälber werden systematisch von ihren Müttern getrennt und mit Milchersatz gefüttert50, obwohl mehr Milch produziert als verkauft wird. Mit der Enthornung schaden wir nicht nur den Rindern sonder mindern auch die Qualität der Milch und des Fleisches.51,52 Durch die Homogenisierung der Milch gelangen zerkleinerte Fettpartikel zu früh ins Blut.53

Monokulturen, Hybridpflanzen und Patente auf Pflanzen nützen nur großen Chemie- und Agrarkonzernen. Sie richten sich gegen die Natur. In exakt in Reih und Glied gepflanzten Fichtenwäldern wachsen durch Samenanflug fast nur Laubbäume. Wir Menschen schneiden sie um und wundern uns, dass sich Borkenkäfer ausbreiten. Bei einer Vierfelder-Wirtschaft kann sich der Maiszünsler nicht bedrohlich vermehren. Das Abholzen von tropischen Regenwäldern sollte ähnlich wie Wilderei als Verbrechen gegen die Menschheit und die Erde geahndet werden.

Durch moderne Fischerei töten wir viele junge Fische und Tiere, die wir nicht essen wie Delphine und Pinguine. Die Leiter der Fischereiflotten wissen, dass ein nachhaltiger Fischfang ihren Fang vergrößern würde. Trotzdem machen sie weiter wie bisher, damit die Konkurrenz keinen Vorteil aus ihrer Nachhaltigkeit ziehen kann. Auch beim Umweltschutz kommt es auf ein gesundes Augenmaß an. Nicht die an den Küsten lebenden Fischer haben die Meere leergefischt, sondern die großen Trawler. So sollten die Inuit wie in den Jahrhunderten davor Robben jagen dürfen.

Naturgemäß können hier nur einige Themen angeschnitten werden. Viele Fragen bleiben offen wie:

Verhungern in der dritten Welt Menschen, weil wir mit Biosprit unser Gewissen beruhigen?

Wie werden wir die Berge aus weder verwertetem noch entsorgtem Plastik los?

Schadet uns Elektrosmog? Wie sehr schaden die verschiedenen Mobilfunknetze unserer Gesundheit? Bekommen wir ein 5G Netz, um noch schneller Musik und Filme herunter landen zu können? Oder weil Militärs es wollen?

Wie gefährlich sind Mikrowellen?

Wie viel Energie, Ressourcen und Lebenskräfte verbrauchen unsere Computer? Wie viel die Suchmaschinen wie Google und DuckDuckGo oder das Schürfen von Crypto-Währungen?

Führen wir in Europa Elektrofahrzeuge ein, weil die Volksrepublik China mit dieser Maßnahme den Smog bekämpft?

Walter Michael Hopferwieser

Stand: 13.10.2019

7 Axel Burkart Klimaschwandel 2

23 http://de.wikipedia.org/wiki/Al_Gore, abgerufen am 10.10.2011

28 Svante Arrhenius: Världarnas utveckling (1906), dt. Das Werden der Welten. Akademische Verlagsgesellschaft. Leipzig 1908

46 Axel Burkart Klimaschwandel 4




Energie aus Plastik ist ein Win-Win

Man stelle sich vor, unsere Autos würden betankt mit Wasserstoff oder Diesel, gewonnen aus Plastikabfällen, oder unsere Wohnungen würden mit Treibstoff beheizt aus diesen Abfällen. Mehr Treibstoff aus Plastik bedeutet weniger aus dem Boden geholter Treibstoff und weniger Plastikabfälle in der Landschaft.

Tatsächlich erzeugen Technologien zur Energiegewinnung aus Plastik flüssiges Petroleum, darunter synthetisches Öl, und raffinierte Produkte wie Benzin, Diesel und Kerosin für alles vom Heizen über den Gebrauch von Werkzeugen bis zu industrieller Ausstattung.

Allgegenwärtiges Plastik hat den Lebensstandard global verbessert, aber auch die Ozeane vermüllt, und zwar in massiver und zunehmender Menge.

Die in den Niederlanden ansässige Ingenieurs- und Umweltfirma The Ocean Cleanup entwickelt fortgeschrittene Technologien zur Entfernung von Plastik aus den Ozeanen, indem sie Meeresströmungen nutzt, um Plastikabfälle einzufangen. Los ging es im östlichen Pazifik. Adam Houser von CFACT hat diese Bemühungen beschrieben.

Plastikabfälle im Ozean sind so allgegenwärtig, weil Produkte aus Plastik buchstäblich überall in unserem Leben eine zentrale Rolle spielen. Seit den 1940er Jahren nahm der Verbrauch von Plastik global von 2 Millionen Tonnen pro Jahr auf 380 Millionen Tonnen zu. Nur etwa 7% der Plastik werden wiederverwertet, wobei die Überbleibsel auf Deponien und in den Ozeanen endgelagert werden.

Prof. Jack Buffington von der University of Denver räumte in seinem jüngst veröffentlichten Buch mit dem Titel „Peak Plastic“ ein, dass die Allgegenwart von Plastik ökonomisch ein Segen war, jetzt jedoch eine zunehmende umweltliche Krise darstellt. Bis 2030 wird ihm zufolge der Planet den Höhepunkt bzgl. Plastik [„peak plastic“] erreicht haben, wobei die Vorteile der Verwendung von Plastik überkompensiert werden durch dessen umweltliche Kosten.

Die Bemühungen von The Ocean Cleanup kommen daher gerade recht und sehen auch vielversprechend aus, aber in naher Zukunft ist es unwahrscheinlich, dass man die Ozeane angemessen vor der weiteren Endlagerung von Plastik bewahren kann, geschweige denn dessen Herr zu werden, was bereits in den Ozeanen schwimmt.

Eine bessere und noch vielversprechendere Lösung der Krise um Plastik in den globalen Ozeanen wäre die Entwicklung von Technologien, um Plastikabfälle in täglich verbrauchte Energie zu konvertieren. Je mehr Plastik zur Erzeugung von Energie genutzt wird, umso weniger davon landet in den Ozeanen.

Ein Unternehmen mit der Bezeichnung Plastic2Oil konvertiert verbrauchtes, „ungereinigtes“ Plastik zur Gewinnung von Diesel, welches zunehmend die Erzeugung von Diesel aus Petroleum ersetzen kann. Der von dem Unternehmen verwendete Prozessor kann aus etwas über acht Pfund Plastik etwa 1 Gallone [~4 l] Treibstoff herstellen.

Ein anderes Verfahren zur Konversion von Plastik würde die Bindungen von Polyäthylen-Plastik lösen, um Petroleum und andere Treibstoffe zu erzeugen. Mittels eines Prozesses der Entfernung und Hinzufügung von Bindungen zwischen Kohlenstoff- und Wasserstoff-Atomen in Polyäthylen-Plastik kann das Plastik in flüssigen Treibstoff umgewandelt werden für Autos und das produzierende Gewerbe. Dies ergibt sich aus Forschungen an der University of California und dem Shanghai Institute.

Sogar Plastiktüten, welche in New York und anderswo inzwischen verboten sind, können in „Plastik-Rohöl“ umgewandelt werden mittels des Prozesses der Pyrolyse, wobei sich Material bei hohen Temperaturen zersetzt. Tatsächlich dürfte es nicht mehr lange dauern, bevor in den Wohnungen eine Maschine von geringer Größe zum Standard wird, welche Plastiktüten und andere Plastikabfälle in Energie für den Hausgebrauch umwandelt.

Plastik-zu-Energie-Technologien wären ein neuer Weg, um traditionelle Treibstoffe für das tägliche Leben herzustellen aus Plastikerzeugnissen, die bereits in großer Vielfalt im Umlauf sind. Der daraus folgende reduzierte Bedarf von Deponien an Land und weniger Abfälle in den Ozeanen wären bedeutende umweltliche Vorteile und ein „Win-Win“ für individuelle Verbraucher und den Planeten als Ganzes.

Über den Autor: Peter Murphy, a CFACT analyst, has researched and advocated for a variety of policy issues, including education reform and fiscal policy. He previously wrote and edited The Chalkboard weblog for the New York Charter Schools Association, and has been published in numerous media outlets, including The Hill, New York Post and the Wall Street Journal

Link: https://www.cfact.org/2019/10/14/energy-from-plastic-is-a-win-win/

Übersetzt von Chris Frey EIKE




Es gibt doch einen Klimanotstand – Oslo war zur Klimakonferenz der Realisten  kalt und nass!

Anlässlich des 10. Jahrestages des Bestehens der norwegischen Klimarealisten trafen sich in Oslo am Freitag 18.10.19 und Sonnabend 19.10.19 ca. 130 klimarealistische Wissenschaftler und Experten, um ihre neuesten Forschungsergebnisse vorzustellen. Die Besucher kamen überwiegend aus dem skandinavischen Raum, aber auch Australien, Kanada und viele Länder Europas hatten teils prominente Vertreter entsandt.

Prof. Peter Ridd bei seinem Vortrag zum Great Barrier Reef am 19.10.19 in Oslo, Bild EIKE

Stargast war der australische Wissenschaftler Prof. Peter Ridd, der beste Kenner der Entwicklung des australischen Great Barrier Reefs, dass entgegen aller Falschbehauptungen sich bester Gesundheit erfreut und kein bisschen unter dem Klimawandel leidet. Diese ketzerischen Ergebnisse seiner Forschungsarbeit nahm die Universität zum Anlass Peter Ridd zu feuern. Nach einen rd. 2 Mio. €Aus teuren Rechtsstreit, musste die Universität ihre illegale Entlassung zurücknehmen. Peter Ridd arbeitet jedoch jetzt als unabhängiger Wissenschaftler.

Generalthema der Konferenz waren die natürliche Klimavariabilität und Toleranz ( Natural Variability and Tolerance) gegenüber Schwankungen. Entsprechend wurden viele Forschungsergebnisse vorgestellt, die die Einflussgrößen für die große natürliche Klimavariabilität zeigten, und die völlig ausreichten die aktuellen, die vergangenen und damit vermutlich auch zukünftigen Klimaschwankungen zu erklären. Ihr Problem: Für Kohlendioxid, weder natürliches noch anthropogen erzeugtes, gibt es bei diesen Ergebnissen keinen Platz. Es wird schlicht nicht gebraucht.

Das wiederum passte den Mainstream Medien überhaupt nicht, denn bei einem Rundfunkgespräch herrschte die Moderatorin den Organisator den Biologen Prof. Morton Jordal an, wie er es wagen könne, zu behaupten es gäbe keinen Klimanotstand. Der durfte sich verteidigen, in dem er fragte, wo in der Welt es den Menschen denn schlechter gehe als bspw. vor 100 Jahren. Es gäbe weniger Dürren, weniger Überschwemmungen, weniger Waldbrände, weniger Stürme, aber viel mehr und bessere Nahrung, Wasser- und Sanitärversorgung, und das bei rd.  8 mal mehr Menschen. Von rd. 1 Milliarde um 1900 auf jetzt  knapp 8 Millarden. Darauf konnte sie nur  antworten, dass die Klimamodelle aber für die Zukunft anderes zeigten. Nun, ja. Wer Klimamodellen glaubt, geht eben zu den Medien. Aber aktuell gibt es eben keinen Klimanotstand.

Auf der Konferenz wurde auch die Klima-Deklaration (registered letter) „There is no Climate Energency“ (press briefing) an den Generalsekretär der UN vom Initiator, dem niederländischen  Ingenieur Professor Guus Berkhout vorgestellt, welche nun bereits von über 700  Wissenschaftlern und Experten (hier.)unterschrieben wurde.

Parallel wurde die Sitzung des European Climate Realist Network abgehalten, an dem auch EIKE beteiligt ist.

 




Weltuntergang durch Treibhaus-Effekt ?

Hier  – vorab  – die uralte(!) physikalische Erkenntnis, daß zusätzliches (anthropogenes) COnur noch eine geringfügige Wirkung hat – anhand eines IPCC-Zitates(!) [1]:

“In der idealisierten Situation, daß die Klima-Reaktion auf eine Verdopplung des atmosphärischen COnur aus einer gleichmäßigen Temperaturzunahme besteht, ohne Rückkopplungen … würde die (maximale) globale Erwärmung nach den Modellen [GCMs] etwa 1,2 °Cbetragen”

(1)  Begriffs-Bestimmungen

Die Treibhaus-Gase

Es gibt einige (Spuren-)Gase in der Atmosphäre, welche selektiv Infrarot-Strahlung von der Erdoberfläche in Linien-Spektren absorbieren, und in den Kugel-Raumwieder abstrahlen, folglich zu 50% Richtung Erde. Damit verzögern … behindern sie teilweise die natürliche Strahlungs-Abkühlung der Erde. Den weit überwiegenden Anteil an diesem Effekt hat der Wasser-Dampf. Die Reihenfolge der Treibhaus-Gase bezüglich ihres Effektes in der Atmosphäre [2]: Wasserdampf 62%, CO22%, Ozon(O3) 7%, Lachgas (N2O) 4%, Methan (CH4) 3%.

Wasser-Dampf

Das ist die gasförmige Phase des Wassers. Diese Bezeichnung ist physikalisch unglücklich,

weil sie allgemein verwechselt wird mit „Waschküchen-Dampf „, „Wiesen-Nebel“, Wolken … Die vorstehend aufgeführten Erscheinungs-Formen jedoch sind physikalisch etwas ganz anderes, nämlich die flüssige Phase (Aggregat-Zustand) des Wassers in Form von Tröpfchen. Der Durchmesser der Wasser-Tropfen in der Atmosphäre erstreckt sich über einen Bereich von mehr als drei Zehner-Potenzen (mm – mm). Daraus folgt: Auch Nebel und Wolken bestehen aus Wasser-Tröpfchen, sie sind kein Wasserdampf!

Der Treibhaus-Effekt

Dieser physikalisch gesicherte Effekt läßt sich anschaulich durch die folgende Graphik darstellen :

Abbildung 1  Treibhaus-Effekt – JA oder NEIN ?

Der hier unter [3] dargestellte Schwingungs-Effekt gilt nur für Moleküle mit  >/= 3 Atomen. Das bedeutet, daß z.B. die in der Atmosphäre zu 99% dominierenden Gase Stickstoff und Sauerstoff keine(!) Treibhausgase sind. Wäre es anders, dann hätte Leben auf der Erde kaum eine Chance.

Der „Begriff Treibhaus-Effekt“

Dieser Begriff ist aus der Gewächshaus-Klimatologie entlehnt, jedoch für die Atmosphäre physikalisch verwirrend und letztlich falsch gewählt – ähnlich unglücklich wie „Wasserdampf“ (s.w.o.) : CO2– ein Glasdach über unseren Köpfen ?

Noch im Herbst 2007 erklärte der durch die Medien recht bekannter Klima-Professor LATIF den vermutlich aus seiner Sicht etwas wissenschafts-fernen Bauern und Handwerkern in Bad Bederkesa die Ursache für die (angeblich) bevorstehende Klima-Katastrophe so: “Was das Glasdach im Gewächshaus ist, das ist CO2 in der Atmosphäre“. Man muß nicht Physik studiert haben, um das als Zumutung zu empfinden :

Die Atmosphäre hat kein Dach, weder aus Glas noch aus Gas. Durch eigene Beobachtung hat jeder diese Erkenntnis vielfach schon selbst gewonnen: Jede sommerliche Quellwolke steigt viele Kilometer ungebremst in die Höhe, einschließlich aller enthaltenen Gase – ohne an irgend ein „Dach“ zu stoßen (Abb.2) :

A n d e r e r s e i t s :

In einem Gewächshaus/Treibhaus ist der weit überwiegende Erwärmungs-Effekt nicht die „Strahlenfalle“, sondern die “Luft-Falle“, die es in der Atmosphäre nicht gibt. Die durch die Gewächshaus-Heizung oder am Tage auch durch die Sonne erwärmte Luft im Glashaus kann nicht entweichen. Jedoch  –  öffnet bzw. lüftet man das Glasdach, so fällt die Temperatur in kurzer Zeit auf das Temperaturniveau der Außenluft.

Die Treibhaus-Wirkung der Spurengase in der Atmosphäre :

Abbildung 3  Die partielle Wirkung der Treibhaus-Gase

Das Klima-System

Das Klima-System der Erde besteht aus Atmosphäre, Hydrosphäre (insbes. Ozeane), Kryosphäre (Eis), Biosphäre und Lithosphäre (Gesteine). Bei den Umsetzungen von Energie und Gasen im Klimasystem gibt es stets eine Fülle von physikalischen und chemischen Prozessen und Rückkopplungen, die im Detail unüberschaubar sind. Genau  d a s  ist das Problem der Klima-Modelle, die sich folglich mit einer Vielzahl von Annahmen, Näherungs-Lösungen (Aproximationen), Parametrisierungen etc. behelfen müssen. Daher steht auch im IPCC-Bericht 2001 [4]:

„In climate research and modelling we should recognize, that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible„.

Abbildung 4  Das Klima-System

Betrachtet man diese vielen gewichtigen Klima-Elemente, so wirkt es absurd, daß die derzeitige hysterische Klimadebatte nahezu „monokausal“ in der Atmosphäre mit dem anthropogenen CO2-Eintrag geführt wird. Das Zeitalter der Aufklärung ist zu Ende.

Klimasensitivität                                                                                                         

Als Maß für einen abgeschätzten Summen-Effekt von direkter Strahlungs-Wirkung und indirekten Rückkopplungs-Mechanismen im Klima-System wurde die so genannte Klimasensitivität konstruiert. z.B. für CO2 [5]:

„Die Klimasensitivität  ist eine Größe, die die globale Erwärmung der Erdatmosphäre durch die Wirkung von Treibhausgasen ins Verhältnis zu einer Strahlungseinheit setzt. Man kann sie in °C/(Watt/m²) angeben. Geläufiger ist jedoch die Angabe der Klimaerwärmung bei Verdoppelung der CO2-Konzentration. Das heißt, dass die Durchschnittstemperatur der Erde um diesen Betrag ansteigt, wenn sich die CO2-Konzentration von den vorindustriellen 280 ppm auf dann 560 ppm erhöht. …. Das IPCC gibt in seinem 2007 erschienenen Vierten Sachstandsbericht Werte zwischen 2 und 4,5 °C als „wahrscheinlich“ an. Der beste mittlere Schätzwert liege bei 3 °C …“.

Diese auch von den Klima-Instituten und vom IPCC verbreitete Definition ist für einen physikalisch weniger gebildeten Leser kaum überschaubar, kaum begreifbar. Sie „vernebelt“ auch von Anfang an, daß die vom IPCC in die Medien transportierten Temperatur-Prognosen von 2…5 Grad auch nicht annähernd alleine durch den „anthropogenen Treibhaus-Effekt“ zu erzielen sind, sondern daß es dazu spekulativer und fragwürdiger und im Detail unbekannter Rückkopplungs-Annahmen bedarf [6]:

„Zur genauen Feststellung dieser Sensitivität gibt es leider kein eindeutiges und allein richtiges Verfahren“.

Es handelt sich also bei der „Klima-Sensitivität“  um ein von Anfang an unüberschaubares physikalisches Konstrukt, um eine Hypothese.

(2)  WAS kann CO?

Die Treibhaus-Wirkung von CO2ist aus Labor-Untersuchungen sowie auch aus Berechnungen der Wirksamkeit des spektralen CO2-Absorptions-Vermögens hinreichend bekannt :

Abbildung 5 [7]  Logarithmischer Treibhaus-Effekt; LAMBERT-BEER’sches Gesetz (Textfelder eingefügt)

D a z u   einige Belege aus peer-reviewten wissenschaftlichen Publikationen :

()  Paul Crutzen (Nobelpreis Chemie) [8]:

“ Es gibt bereits so viel CO2in der Atmosphäre, daß in vielen Spektralbereichen die Aufnahme durch CO2  fast vollständig ist, und zusätzliches COspielt keine große Rolle mehr„,

() H. Hinzepter (eh. Leiter MPI HH ) [9]:

„Eine Verdoppelung der Kohlendioxid-Konzentrationen in der Atmosphäre allein (bewirkt)nur eine geringfügige Erhöhung der mittleren bodennahen Temperatur um wenige Zehntelgrade„.

() IPCC [10]:

„In der Mitte des 15-μm-Absorptions-Bereiches hat zusätzliches CO2nahezu keinen Effekt…“

()  WIKIPEDIA [11]:

„Bei ausschließlicher Betrachtung der im Labor messbaren Strahlungswirkung von COergibt sich eine Klimasensitivität von 1,2 °C. Es existieren jedoch Rückkopplungs-Effekte, darunter im Wesentlichen die Wasserdampf-Rückkopplung, die Eis-Albedo-Rückkopplung und Wolken. Daher liegen die möglichen und als wahrscheinlich angenommenen Werte höher, ein Wert um 3° wird heute als am wahrscheinlichsten angenommen.“

()  Richard J. Betschauer (Physiker) [12] :

„New calculations show that doubling of carbon dioxide (CO2)will increase average global temperature by only about 1°F (degrees Fahrenheit) or 0,55°C (degrees Centigrade), much less that the range of  2°C to 4.5°C estimated by the United Nations International Panel on Climate Change (IPCC). These new calculations are based on NASA supported spectral calculations available on the Internet relating to greenhouse gases.“ 

Bei den in der vorstehend zitierten Literatur genannten CO2-Erwärmungs-Raten von meist unter 1 Grad ist zusätzlich zu berücksichtigen, daß es sich dabei um Berechnungen für eine Atmosphäre ohne Wasserdampf  handelt. Eine solche Atmosphäre gibt es jedoch in der Natur nicht. Da sich jedoch die Absorptions-Banden von CO2 und Wasserdampf teilweise überlappen, verringert der Wasserdampf in nicht unwesentlichem Ausmaß das CO2-Treibhaus-Potential noch um etliche Zehntel Grade [13]:

„Wegen des stets vorhandenen Wasserdampfes ist die Wirkung der CO2-Verdoppelung in der Natur aber noch erheblich kleiner.“

Und genau das steht manchmal sogar schon in einer deutschen Zeitung ( [14], FAZ) :

„Die Paläoklimatologie liefert immer öfter die entscheidenden Daten und Hinweise, mit denen Unsicherheiten verkleinert und die Schwächen der grobskaligen Modelle gemindert werden – die unvermeidliche „Parametrisierung“ etwa, das Setzen fester Parametergrößen als mathematischer Näherung von kleinskaligen Prozessen, die mit einem vernünftigen Aufwand rechnerisch nicht aufzulösen sind. So wurde in „Science“ (doi: 10.1126/science.1214828) kürzlich gezeigt, dass eine fundamentale Größe aller Prognosen, die Klimasensitivität, bei der Analyse langer Datenreihen tatsächlich etwas geringer ausfällt als bislang geglaubt.“

Genau das sagt auch eine 2013 erschienene Publikation sehr deutlich [15]:

„Global warming less extreme than feared ?“ : „Policymakers are attempting to contain global warming at less than 2°C. New estimates from a Norwegian project on climate calculations indicate this target may be more attainable than many experts have feared.“

Internationally renowned climate researcher Caroline Leck of Stockholm University has evaluated the Norwegian project and is enthusiastic. “These results are truly sensational,”  says Dr Leck. “If confirmed by other studies, this could have far-reaching impacts on efforts to achieve the political targets for climate.”

F a z i t :

Die Treibhaus-Wirkung von zusätzlichem anthropogenem COist marginal, und liegt im Rauschen der natürlichen Klima-Temperaturen.

(3)  Wenn nicht CO2  – wer dann ?

Im zweiten Teil des vorstehend angeführten WIKIPEDIA-Zitats wird schon etwas deutlicher, daß die dramatische „Überhitzung“ der Erdatmosphäre in den Klima-Modellen nicht mit COerzielt werden kann, sondern nur mit hypothetischen Rückkopplungen, wie es in der begutachteten wissenschaftlichen Literatur in Dutzenden von Publikationen auch geschrieben steht ist, z.B. :

() H.Hinzpeter (eh. Leiter MPI HH) [16]:

Da „…die Verdoppelung (von CO2nur die von den Flanken der Kohlendioxidbanden herrührende Gegenstrahlung erhöhen würde, führt diese Temperaturerhöhung jedoch in der Folge zu einer Vermehrung der Wasserdampfkonzentration in der Atmosphäre, die zu einer wesentlich höheren Zunahme der Gegenstrahlung und damit zu der bekannten angenommenen Erhöhung der Mitteltemperatur um zwei bis drei Grad Celsius führen würde.“

() IPCC [17]:

“In the idealised situation that the climate response to a doubling of atmospheric COconsisted of an uniform  temperature change only, with no feedbacks operating … the global warming from GCMs would be around 1.2 °C.”

() IPCC [18]:

Der Wasserdampf-Feedback ist nach wie vor der durchweg wichtigste Rückkopplungs-Effekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdoppelung vorhergesagte globale Erwärmung verursacht“.

Die physikalische Begründung für diese Hypothese ist zunächst durchaus plausibel, mit der folgenden Argumentations-Kette:

o „Eine Verdoppelung der Kohlendioxid-Konzentrationen in der Atmosphäre allein (bewirkt) nur eine geringfügige Erhöhung der mittleren bodennahen Temperatur um wenige Zehntelgrade„. [19]

o    Damit erhöht sich das Aufnahme-Vermögen der Atmosphäre für Wasserdampf: [20]

„Der Sättigungsdampfdruck eines Reinstoffes in einem geschlossenen System ist von der Temperatur abhängig.“  (Sättigungs-Dampfdruckkurve),

o  Die Atmosphäre kann mehr Wasserdampf aufnehmen, weil das o.a. physikalische Gesetz es zuläßt,

o  Der „zusätzliche“ Wasserdampf wiederum erhöht die Lufttemperatur weiter, weil der Wasserdampf das Haupt-Treibhaus-Gas ist (Abb.3),

o  Dieser Prozeß schaukelt sich auf zu immer höheren Temperaturen,

o  Die Modelle müssen eine „Bremse einbauen“, um ein „runaway“ … „running over“ zu vermeiden.

Ü b e r s i c h t :

Abbildung 6  Die Wasserdampf-Hypothese

Soweit die Theorie.

Realisiert die Natur diese Hypothese ? [21]:

„In diesem Kapitel [22] wird weiter argumentiert, dass große positive Rückkopplungen, hauptsächlich durch Wasserdampf, diesen Effekt wahrscheinlich verstärken. Aber während es einen guten Konsens über die 1,2 °C gibt, existiert überhaupt kein Konsensüber den Nettoeffekt der positiven Rückkopplungen, wie das IPCC auch offen zugibt.“

F a z i t :

Die Treibhaus-Eigenschaften von CO2 können bei Konzentrations-Verdoppelung in einer realen, also Wasserdampf-haltigen Atmosphäre nur etwa ein halbes Grad Erwärmung bewirken. Die Klima-Modelle „benötigen“ für ihre spektakulären Temperatur-Prognosen hypothetische Verstärkungs-Prozesse, allen voran die Wasser-Dampf-Verstärkung.

Allerdings – die Natur macht etwas anderes !  s.w.unten.

(4)  Wasserdampf-Messungen in der Troposphäre

Ein Autoren-Team [23] hat die globalen Daten von Radiosonden („Wetter-Ballone“) ausgewertet, über einen Zeitraum von 35 Jahren: 1973-2007 :

Abbildung 7  Auswertung von Radiosonden 1973-2007 (Paltridge et al. 2009)

Auch neuere Messungen zeigen keine Wasserdampf-Zunahme :

Abbildung 8  Wasserdampf-Messungen in verschiedenen Höhen

W e i t e r h i n :

Die Klima-Modelle rechnen damit, daß die Erwärmung der Tropen dazu führt, daß konvektiv Wärme und Wasserdampf in die obere Troposphäre geführt wird („Hotspot„). Dadurch „soll“ eine erhebliche Verstärkung des Treibhaus-Effektes erfolgen. Meteorologische Messungen widerlegen das [24]:

„Thus, the small OLR (Outgoing Longwave Radiation) feedback from ERBE (Earth Radiation Budget Experiment) might represent the absence of any OLR feedback; it might also result from the cancellation of a possible positive water vapor feedback due to increased water vapor in the upper troposphere [Soden et al. , 2005] and a possible negative iris cloud feedback involving reduced upper level cirrus clouds [Lindzen et al. , 2001]“

Abbildung 9  „hot-spot“ ? : Fehlanzeige

In dem Buch „COund Klimaschutz“  [25] steht zu den o.a. Publikationen folgende Zusammenfassung :

„Unter der Voraussetzung, daß die von Lindzen et al. sowie von Paltridge et al. mitgeteilten Meßergebnisse und Schlussfolgerungen korrekt sind, bedeutet dies nicht mehr und nicht weniger als das wissenschaftliche Ende einer vom Menschen verursachten Klima-Katastrophe.“

F a z i t :

Die Messungen der Wasserdampf-Konzentration in der Troposphäre widersprechen den Annahmen und Ergebnissen der Klima-Modelle !

(5)  Wasserdampf in der Stratosphäre

Abbildung 10

Eine 2010 veröffentlichte Studie [26] auf der Basis von Satelliten-Daten zeigt, daß in der Stratosphäre ein „auf+ab“ des Wasserdampf-Gehaltes gemessen wird:

„Observations from satellites and balloons show that stratospheric water vapor has had its ups and downs lately, increasing in the 1980s and 1990s, and then dropping after 2000.“ 

Die Ursache dafür ist unbekannt (a.a.O.) : „Since 2000, water vapor in the stratosphere decreased by about 10 percent. The reasonfor the recent decline in water vapor is unknown.“

Temperatur und Wasserdampf  – WER folgt hier WEM ? Die Unsicherheiten erscheinen nach dieser Studie größer, als bisher angenommen (a.a.O.) :

„The new study used calculations and models to show that the cooling from this change caused surface temperatures to increase about 25 percent more slowly than they would have otherwise, due only to the increases in carbon dioxide and other greenhouse gases.“

…und w.a.a.O.:

„The stratosphere is a region of the atmosphere from about eight to 30 miles above the Earth’s surface. Water vapor enters the stratosphere mainly as air rises in the tropics. Previous studies suggested that stratospheric water vapor might contribute significantly to climate change. The new study is the first to relate water vapor in the stratosphere to the specific variations in warming of the past few decades.“

Wie unsicher alle diese Annahmen und damit letztlich die Klima-Modelle selbst sind, das zeigen auch die Temperatur-Messungenin der oberen Troposphäre und in der Stratosphäre, denn es gibt nach den meteorologischen Messungen die von den Klima-Modellen vorhergesagte Effekte dort nicht [27]:

Weder gibt es den vorhergesagten „Hotspot“ in der oberen Troposphäre (vgl.w.o.), noch die von den Modellen berechnete langsame Abkühlung der oberen Stratosphäre !

(6)  Wassergehalt in der Atmosphäre – total

In einem NASA-Projekt wird der Total-Wasserdampf-Gehalt der Atmosphäre untersucht [28]:

„The NASA Water Vapor Project (NVAP) dataset is a global (land and ocean) water vapor dataset created by merging multiple sources of atmospheric water vapor to form a global map of total and layered precipitable water vapor.“

Abbildung 11

In den Folgerungen ihres Papers schreiben die Forscher:

„Zu diesem Zeitpunkt können wir das Vorhandensein eines robusten Trends in der globalen Wasserdampf-Entwicklung weder beweisen noch widerlegen.“

In einer Übersicht wird das so zusammen gefaßt [29]:

„Während das COdie letzten Jahrzehnte lang monoton angestiegen ist, hat der Wasserdampf seit nunmehr 14 Jahren offenbar eine Pause eingelegt und stagniert bzw. fällt sogar leicht ab. Eine Kopplung von COund Wasserdampf ist in dieser Zeit nicht erkennbar.

Auch eine soeben (2018) erschiene Arbeit zeigt in dem über alle Atmosphären-Schichten gemessenen „Totalen Wassergehalt“ keinerlei signifikante Trends :

Abbildung 12  Wassergehalt der Atmosphäre: Keine signifikanten Trends

Mit alledem sind die Klima-Modelle widerlegt !

(7)  Kritik an der Modellierung der Wasserdampf-Verstärkung

Es gibt sehr viele namhafte Wissenschaftler, welche die hohe Wichtung der „Wasserdampf-Verstärkung“in den Klima-Modellen kritisieren, z.B. :

()  Roy W. Spencer, Ph. D. [30]:

“While it seems rather obvious intuitively that a warmer world will have more atmospheric water vapor, and thus positive water vapor feedback, I’ve just listed the first 5 reasons that come to my mind why this might not be the case. …..    At a minimum, I believe the water vapor feedback issue is more complicated than most mainstream researchers think it is.“

()  Meteorologie-Professoren H. Kraus und U. Ebel [31]:

„Mit einer Erwärmung der Atmosphäre kann auch der Wasserdampfgehalt zunehmen, und man könnte erwarten, daß sich der hydrologische Zyklus intensiviert…; ob sich Folgen wirklich einstellen, läßt sich selbst durch sehr komplexe Modellrechnungen nicht zuverlässig herausfinden.“ 

()  Dr. Miklós Zágoni (Prominent Hungarian Physicist) [32]:

„Contrary to the common wisdom, there is no positive H2O-Temperature feedback on global scale;  in Earth-type atmospheres uncontrolled runaway warming is not possible…“.

()  Walter Cunningham (Astronaut) [33] :

NASA’s Aqua satellite is showing that water vapor, the dominant greenhouse gas, works to offset the effect of carbon dioxide (CO2). This information, contrary to the assumption used in all the warming models, is ignored by global warming alarmists.“

()  Prof. Dr. C.O. Weiss (eh. Dir. und Prof. an der PTB) [34] :

„Der direkte Einfluss von CO2 auf die Erdtemperatur beträgt nur einen kleinen Bruchteil von 1 Grad Celsius und ist damit praktisch völlig unwichtig. Hierin stimmen fast alle Wissenschaftler überein. Die Alarmmeldungen über Erderwärmung basieren auf ANNAHMEN ( keineswegs Kenntnissen ) über die Wirkung von Wolken. In den Modellen auf die sich die Voraussagen des „Internationalen Ausschusses für Klimawandel“ (IPCC). stützen wird (recht willkürlich) ANGENOMMEN, dass Wasserdampf und Wolken die geringfügigen Temperaturerhöhungen durch CO2 in katastrophaler Weise verstärken, und somit die „Klimakrise“ hervorrufen. …“

Obwohl dies die alles entscheidende Frage der Klimaforschung ist, sind zur Klärung dieser entscheidenden Annahmen von Seiten der „offiziellen“ Klimaforschung bisher keine Anstrengungen unternommen worden. Zwar wurden Vergleiche von Modellergebnissen mit Strahlungsmessungen von Satelliten gemacht. Da die Messungen den Modellen aber widersprachen wurden die Ergebnisse ignoriert und behauptet, die Messungen seien nicht ‚verlässlich‘.“

()  Clive Best  (Physiker, PhD) [35]:

„Es wird gezeigt, dass eine positive lineare Klima-Rückkopplung für kombinierte Wasserdampfeffekte mit dem Schwache-Sonne-Paradoxon unvereinbar ist. Im Besonderen führen Rückkopplungswerte von ~2,0 W/m²K, wie sie die gegenwärtigem GCMs annehmen, zu nicht-physikalischen Ergebnissen hinsichtlich der Solarstrahlung vor einer Milliarde Jahren. Ein einfaches Modell wird beschrieben, wonach erdähnliche Planeten mit großen Oberflächen flüssigen Wassers bei kleinen Änderungen der einfallenden Sonnenstrahlung die Temperatur selbst regulieren können. Das Modell nimmt an, dass sich reflektierende Wolken ausbreiten, während der Treibhauseffekt mit der heller werdenden Sonne abnimmt. Die Gesamtwasserdampf-Rückkopplung des Modells ist stark negativ. Direkte Beweise für die negative Wasserdampf-Rückkopplung finden sich in den Stationsdaten von CRUTEM4, indem man die Temperaturanomalien in ariden Regionen (Wüsten und Polargebiete) mit jenen in feuchten Regionen (hauptsächlich in den Tropen) vergleicht. Alle 5600 Stationen wurden nach der Köppen-Geiger-Klimatologie (9) eingeordnet. Zwei separate Temperaturreihen von 1900 bis 2011 wurden für jedes Gebiet berechnet. Es ergab sich eine klare Differenz der Temperaturanomalien. Unter der Annahme, dass die Ursache der Differenz im atmosphärischen Wasserdampfgehalt zu suchen ist, kann ein Rückkopplungswert von -1,5 ±0,8 W/m²K abgeleitet werden.“

()  Universität Bremen [36]:

„Wasserdampfkarte hilft, Klimamodelle zu korrigieren“„Ein deutsch-niederländisches Forscherteam hat nach Angaben der Universität Bremenerstmals globale Karten der Isotopenzusammensetzung von Wasser in der unteren Atmosphäre gemessen. Die Messungen des  europäischen  Umweltsatelliten Enivsat eröffnen die Möglichkeit, heutige Klimamodelle und damit Vorhersagen über Regenmengen und Überschwemmungsgefahren zu verbessern.

Die Wissenschaftler verglichen die Messungen in der Sahelzone und bei Spitzbergen  mit Modellrechnungen. Beides Mal waren die Messwerte nicht durch die Modelle reproduzierbar, so die Universität. Dies weise darauf hin, dass der tropische und arktische Wasserkreislauf in den Modellen bisher nicht vollständig korrekt erfasst seien.“                    

()  Prof. Dr. Richard Lindzen [37] (zur „Wasserdampfverstärkung“) :

Das ist physikalisch vollkommen absurd. In der Natur geht eine höhere Verdunstung immer mit mehr Niederschlag einher. Zudem kann eine höhere Verdunstung niemals zu einem höheren Wasserdampfgehalt in Lufthöhen von drei Kilometern führen. Und genau dort ist die kritische Grenze, da Wasserdampf zwischen 3 km und der Tropopause den Treibhauseffekt dominiert.“

()  Hans von Storch (eh. Director of Institute for Coastal Research, HH) [38]:

 „Wir Klimaforscher können nur mögliche Szenarien anbieten; es kann also auch ganz anders kommen“.

… damit ist das Entscheidende in einem Satz gesagt :

Die Natur macht was Anderes, als die Modelle vorhersagen.

Bei alledem ist es auch interessant und wichtig, wie eine soeben peer-review’te Publikation (2019) die „Klima-Modell-Szene“ aufmischt [39]:

„The reliability of general circulation climate model (GCM) global air temperature projections is evaluated for the first time, by way of propagation of model calibration error. …  The unavoidable conclusion is that an anthropogenic air temperature signal cannot have been, nor presently can be, evidenced in climate observables.“

(8)  Zusammenfassung

Bei CO2-Verdoppelung in einer realen, Wasserdampf-haltigen Atmosphäre beträgt der zusätzliche Treibhaus-Effekt von COauf der Basis von Labor-Messungen nur etwa ½ Grad. Die Modelle der IPCC-nahen Institute erzielen daher die ständig propagierten 2 … 5 Grad globaler Erwärmung nicht mit CO2, sondern mit Verstärkungs-Hypothesen, insbesondere mit der Wasserdampf-Verstärkung. Daraus folgt: Nach der (mäßigen!) säkularen Erwärmung im 20. Jahrhundert um ca. 0,7 Grad müsste einerseits die Wasserdampf-Gehalt der Atmosphäre schon messbar zugenommen haben, andererseits müsste die Temperatur von Jahrzehnt zu Jahrzehnt beschleunigt ansteigen. Beides wird von den meteorologischen Messungen widerlegt: Weder in der Troposphäre noch in der Stratosphäre sind solche Trends zu beobachten, eher ein leichter Trend zu weniger Wasserdampf, und auch zu weniger Verdunstung am Boden. Auch stagnierte die Global-Temperatur zwischen 2000 und 2015 (IPCC-„hiatus“).

—————————————————————————————————————-

A n m e r k u n g e n :

(1)  Das vorstehend abgehandelte Thema ist anschaulich in einem youtube-Vortrag dagelegt :  https://www.youtube.com/watch?v=5HaU4kYk21Q

(2)  Der vorstehende Aufsatz ist am gleichen Tage erschienen auf: https://wetterklima.wordpress.com/2019/10/20/der-treibhauseffekt/  ; eine ebenfalls neutrale und interessante Web-Seite zu „Wetter & Klima“,

(3)  Der vorstehende Artikel hier mit besserer Qualität der Abbildungen zum download als PDF :

Puls.19.10.THE


Q u e l l e n :

[1] IPCC-Rep. (2007), Chapt. 8.6.2.3

[2] SCHÖNWIESE. promet. 1996

[3] http://www.wetter-foto.de/foto-26306-haufenwolken.html; Lizenzfreie Fotos

[4] IPCC, 3. Ass.Rep., 2001, Sect. 14.2.2.2,  S. 774

[5] Quelle: WIKIPEDIA

[6] http://www.pik-potsdam.de/~stefan/alvensleben_kommentar.html

[7]  www.lavoisier.com.au/articles/greenhouse-science/solar-cycles/ArchibaldLavoisierAGM.pdf

[8]  P.J.Crutzen (Nobelpreis Chemie); T.E.Graedel: Chemie der Atmosphäre, Spektrum Akad.Vlg,, Berlin, 1993, S.414

[9]  H. Hinzpeter, (eh. Leiter MPI HH), promet, 15, Heft 2/3, 1985, S.49)

[10] Quelle: IPCC-Bericht 1994

[11] WIKIPEDIA zu Wasserdampf-Verstärkung

[12] Richard J. Petschauer „Carbon Heat Trapping: Merely A Bit Player in
Global Warming“ http://www.junkscience.com/jan08/Global_Warming_Not_From_CO2_20080124.pdf

[13] Dietze 2001; Carbon Model Calculations, nachzitiert nach: http://www.pik-potsdam.de/~stefan/alvensleben_kommentar.html

[14] FAZ, 06.12.2011 : Der kostbare Kaffeesatz in den Klimamodellen

[15] Published: 24.01.2013 : http://www.forskningsradet.no/en/Newsarticle/Global_warming_less_extreme_than_feared/1253983344535/p1177315753918

[16] H. Hinzpeter, eh. Dir. MPI HH, promet, 15, Heft 2/3, (1985), S.49

[17] IPCC-Rep.(2007), Chapt. 8.6.2.3

[18] IPCC, Climate Change 2001, Working Group I: The Scientific Basis, Contr.Wok.Gr.I, 3rd Ass.Rep.IPCC, Ch.7.2.1.1).

[19] H. Hinzpeter,(eh. Leiter MPI HH), promet, 15, Heft 2/3, 1985, S.49)

[20] WIKIPEDIA; zu: Sättigungs-Dampfdruck

[21] Matt Ridley: Wissenschafts-Ketzerei ; Vortrag bei der Royal Society of the Arts, Edinburgh, 31. Okt. 2011;  http://www.science-skeptical.de/blog/matt-ridley-uber-wissenschafts-ketzerei/005957/

[22] IPCC-Rep. (2007), Chapt. 8.6.2.3

[23] PALTRIDGE ,  ARKING & POOK: Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data,  Theor Appl Climatol, DOI 10.1007/s00704-009-0117-x Springer-Verlag (2009)

[24] Richard S. Lindzenand Yong-Sang Choi;On the determination of climate feedbacks from ERBE data;Geophys. Res. Lett., VOL. 36, L16705, doi:10.1029/2009GL039628, (2009)

[25] H.-J. Lüdecke: CO2und Klimaschutz, BOUVIER (2007), S. 105

[26] Susan Solomon et al.: Stratospheric Water Vapor is a Global Warming Wild Card ; January 28, 2010; http://www.noaanews.noaa.gov/stories2010/20100128_watervapor.html

[27] http://www.eike-klima-energie.eu/news-cache/temperatur-prognosen-der-klima-modelle-bis-heute-fuer-alle-atmosphaeren-schichten-falsch/  ; 05.10.2012

[28] Vonder Haar et al.: Weather and climate analyses using improved global water vapor observations; Geoph.Res.Lett., doi:10.1029/2012GL052094;  http://www.agu.org/pubs/crossref/pip/2012GL052094.shtml

[29] http://www.kaltesonne.de/?p=4803; 23. Juli 2012

[30] http://www.icecap.us/Sep 14, 2010: Roy W. Spencer, Ph. D.: Five Reasons Why Water Vapor Feedback Might Not Be Positive

[31] Kraus, H. u. Ebel, U.: Risiko Wetter, Springer-Verlag, (2007)

[32] in: Marc Morano, Communications Director, Senate Environment and Public Works Committee (EPW) ; Inhofe Staff, Rundschreiben 02.05.2008

[33] W.Cunningham: In Science, Ignorance is not Bliss, Launch Magazin Online ;

http://waltercunningham.com/Ignorance.html

[34] http://www.eike-klima-energie.eu/climategate-anzeige/die-klimasensitivitaet-von-co2/22.07.2010 ;  u n d

http://www.eike-klima-energie.eu/climategate-anzeige/rueckkopplung-im-klimasystem-der-erde/   10.08.2010

[35] Evidence for Negative Water FeedbackPosted on May 23, 2012 by Clive Best; deutsch: http://www.eike-klima-energie.eu/news-cache/neue-studie-wasserdampf-rueckkopplung-ist-stark-negativ/; 03.06.2012

[36] in: VDI Nachrichten, 18. September 2009, Nr. 38, swe

[37] Prof. Richard Lindzen, Bild der Wissenschaft, 11/1993, S.73

[38] DER SPIEGEL, 11/2007, S.56

[39]  „Propagation of Error and the Reliability of Global Air Temperature Projections“, Patrick Frank; 06.09.2019; https://www.frontiersin.org/articles/10.3389/feart.2019.00223/full

===================================================================




Neben Enthaltsamkeit gegen den Klimawandel, nun auch erschreckende Vorschläge zur Abtreibung bei den Demokraten

Die Sprecherin des Repräsentantenhauses, Nancy Pelosi, behauptete auf ihrer wöchentlichen Pressekonferenz, dass ihr die Kommentare des demokratischen Gouverneurs von Virginia, Ralph Northam, nicht bekannt waren, als dieser auf WTOP nach dem Aufhebungsgesetz gefragt wurde, einem Gesetz, das den Abbruch einer Schwangerschaft bis zum Tag der Geburt erlaubt.

„Wenn eine Mutter Wehen hat, wird das Baby zur Welt gebracht. Das Baby würde angemessen versorgt werden, damit es sich wohlfühlt“, sagte Northam. “ Dann würde eine Diskussion zwischen den Ärzten und der Mutter stattfinden und das Kind würde wiederbelebt, wenn die Mutter und die Familie dies wünschten“

[an dieser Übersetzung habe ich länger geknabbert, denn ich kann es nicht nachvollziehen. Nicht besser, aber deutlicher wurde es nach dem folgendem Link: (der Übersetzer)

(RELATED: Pelosi Refuses To Acknowledge Northam’s Late-Term Abortion Comments)  (Pelosi weigert sich, Northams Kommentare zu spätem Schwangerschaftsabbruch zu kommentieren)

Rubio war nicht der einzige Senator, der sich über Northams Äußerungen entsetzt zeigte. Der republikanische Senator von Nebraska, Ben Sasse, sagte in einer Erklärung gegenüber National Review, dass jeder, der solche Überzeugungen zum Ausdruck bringt, sich aus dem öffentlichen Amt verziehen sollte“.

„Das ist moralisch widerlich“, sagte Sasse. „In nur wenigen Jahren haben Abtreibungs-Fanatiker sich von‚ sicher, legal und selten ‚verabschiedet, um dafür zu sorgen, dass sich die Neugeborenen wohlfühlen, während der Arzt über Kindesmord debattiert. “ Es ist mir egal, von welcher Partei du kommst – wenn du nicht sagen kannst, dass es falsch ist, Babys nach der Geburt sterben zu lassen, verschwinde aus dem öffentlichen Amt. “

Das Gesetz von Virginia, das die Bestimmungen für Abtreibungen lockerte, wurde von Kathy Tran, der demokratischen Delegierten für Virginia vorgeschlagen. Es ist im Komitee in Richmond gescheitert, aber Northams Verteidigung wurde im ganzen Land kritisiert.

Ralph Shearer Northam ist Gouverneur von Virginia.  Er verteidigt den Vorschlag – Babys sterben zu lassen, wäre eine Sache zwischen Mutter und Arzt.

https://www.nationalreview.com/corner/virginia-governor-defends-letting-infants-die/

Vor Northams eigenen Äußerungen bestätigte ein Videoclip von Tran, der ihre Gesetzesvorlage bestätigte, Abtreibungen, bis zum der Tag der Geburt.

Ein ähnliches Gesetz in New York, das als „Reproductive Health Act“ bekannt ist, hat beide demokratisch kontrollierten Kammern des Staates problemlos passiert und wurde von dem New Yorker demokratischen Gouverneur Andrew Cuomo unterzeichnet.

Derzeit erwägen andere Staaten solche Gesetze, darunter Rhode Island, Maryland, Maine und New Mexico, berichtete Associated Press .

… Anti-Abtreibungs-Aktivisten nehmen am „March for Life“ teil, einer jährlichen Veranstaltung zum Jahrestag des Falls Roe v. Wade aus dem Jahr 1973, der die Abtreibung in den USA vor dem Obersten Gerichtshof der USA in Washington, DC, am 18. Januar legalisierte

Die Berichterstattung über die Äußerungen von Gouverneur Northam ging über konservative Medien und Nachrichtensprecher in die Öffentlichkeit. New York Magazine , CNN ,  die Washington Post , NPR , NBC News , CBS News und ABC News berichteten unter anderem über die Äußerungen von Gouverneur Northam, doch viele Gesetzgeber behaupten, sie hätten keine Ahnung davon, was er gesagt oder wollten über dieses Gesetz in  Virginia überhaupt nicht reden.

[[ Nachfolgend Gesprächsnotizen mit verschiedenen demokratischen Abgeordneten und Senatoren, die alle aussagen, darüber nichts zu wissen bzw. nichts gehört zu haben – hier nicht übersetzt

Lesen die die vollständige Geschichte im

https://dailycaller.com/2019/01/31/dems-respond-late-term-abortion-debate/

Übersetzt durch Andreas Demmig




Ein Kraftwerk-Insider berichtet: “Die Einschläge häufen sich”

Damit die wichtigen Infos nicht verlorengehen, stellen wir sie im Rahmen eines „Woher kommt der Strom?“-Special der Achse-Leserschaft zur Verfügung: 

Hallo Herr Stobbe,

ich arbeite in einem Kraftwerk und habe daher ein wenig Einblick in die Kraftwerkseinsatzplanung. Dies gilt natürlich nur für „mein“ Kraftwerk und kann sicherlich nicht verallgemeinert werden.

Bei uns zumindest ist es so, dass die KW-Blöcke – über Tage und Wochen im Voraus – von uns mit ihrer minimal und maximal erreichbaren Wirkleistung, sowie maximal abrufbarer Primär- und Sekundärregelreserve, wie auch Minutenreserve angeboten werden. Dieses Angebot geht an unseren Stromhändler (Dispatcher), und zwar über ein Tool, welches auch direkt an die EEX meldet. Reale (technische oder durch andere Einflüsse bedingte) Abweichungen von unserem Angebot im Bereich >10 MW müssen umgehend gemeldet werden, sonst droht ein REMIT-Verstoß.

Das Dispatch-Management unseres Händlers kennt unsere (ständig aktualisierten) Einsatz-, als auch unsere Anfahrkosten. Im Normalfall werden wir jeweils für den morgigen Tag (Day Ahead) vermarktet und sind somit in Betrieb, sofern der Strompreis dies zulässt. Taucht der Strompreis deutlich und zu lange unter unsere Einsatzkosten ab, werden die Blöcke abgestellt. Ein bisschen Spielraum gibt es, weil wir mit der Primärregelleistung (also der direkten Netzfrequenzstütze) auch noch Geld verdienen, aber wenn es sich gar nicht mehr rechnet, ist der Ofen halt aus.

Berücksichtigt werden dabei aber auch noch die Anfahrkosten, denn ein Blockstart kostet im fünf bis sechsstelligen Bereich. Ebenfalls zu beachten: Wenn wir unseren Strom für den Kraftwerkseigenbedarf nicht selbst erzeugen, müssen wir diesen auch übers Netz beziehen und zahlen da sämtliche EEG- Umlagen und sonstigen Gebühren mit. Ein kompletter Stillstand der Erzeugung kostet eben auch.

Aus dieser komplexen Gemengelage wird also die Kraftwerkseinsatzplanung destilliert.

Intraday wird die Lastkurve der in Betrieb befindlichen Blöcke immer viertelstundenscharf dem entsprechenden Marktumfeld angepasst. Ist ein Wettbewerber billiger, kauft unser Dispatcher dort die entsprechenden Strommengen und wir senken unsere Leistung ab. Sind wir noch lieferfähig (fahren also gerade im Teillastbetrieb) gilt natürlich unser bestehendes Maximalangebot und wir erhöhen die Leistung, sobald ein annehmbarer Preis geboten wird. Zurückhalten tun wir da gar nichts. Wenn wir aber tatsächlich etwas an unserer gemeldeten Verfügbarkeit ändern, also eine Lasteinschränkung melden, dann müssen wir dies schon in diesem Tool tun und auch begründen. Solche Ereignisse werden dann umgehend bei der EEX angezeigt.

Technischer Einschub: Unser Laständerungsgradient liegt übrigens bei 3% der installierten Nennleistung pro Minute. Bei einem angenommenen 1000-MW-Kraftwerksblock wären das also 30 MW/min – innerhalb der technischen Min- und Max.-Grenzen natürlich. Primärregelleistung im gleichen Bereich liegt übrigens innerhalb weniger Sekunden an. Wer in Deutschland am Regelleistungsmarkt teilnehmen möchte, muss mindestens 2% seiner installierten Nennleistung innerhalb 30 Sekunden vollständig als Regelleistung erbringen und für mindestens 5 Minuten halten können. Das zum Thema angeblich mangelnder Flexibilität konventioneller Kraftwerke.

Preis zu volatil? Dann bleiben Kraftwerke einfach außer Betrieb

Wenn ich mir jetzt den Juni anschaue, dann exportieren wir die Solarspitzen und importieren während der Solartäler. Der Strompreis schwankt die meiste Zeit zwischen 25 und 50 Euro/MWh. Der Chart der Stromerzeugung zeigt nun, dass Laufwasser-, Biomasse- und Kernkraftwerke in einem relativ gleichbleibenden Band geradeaus fahren, die Braunkohle ebenfalls ein durchgehendes Band fährt (wobei sie auch schon in Teillastbereiche runtergeht), während vor allem Steinkohle und Gas den Ausgleich zwischen fluktuierender Stromerzeugung durch Wind- und Sonnenkraft sowie schwankendem Verbrauch (Last) abfedern.

Bei Gas und Steinkohle dürfte ein (Börsen-)Strompreis von 25 €/MWh für die allermeisten Kraftwerke nicht mehr ausreichen. Ab 40-45 € könnten viele wieder im Preis sein (das hängt stark vom Anlagenwirkungsgrad, von den momentanen Brennstoffkosten und dem Preis für CO2-Zertifikate ab). Wenn der Preis nun aber sehr volatil ist und zu oft unter den Erzeugungskosten liegt, bleiben die Kraftwerke halt einfach außer Betrieb. Je länger aber ein solcher Kraftwerksblock steht, desto kälter ist die Anlage, desto länger dauert eine Anfahrt und desto teurer wird ein Start – dies noch on top.

Meine Vermutung bezüglich der Erzeugungsunterdeckung ist daher die, dass bei stark schwankenden Preisen im Grenzbereich zwischen „lohnt“ und „lohnt nicht“ einfach viele Anlagen gleich außer Betrieb bleiben. Man sieht ja im Preischart schön, dass die solare Mittagsspitze regelmäßig die Preise einbrechen lässt. Es gibt von 06:00 bis 10:00 und am Nachmittag/Abend von 18:00 bis 22:00 Uhr noch etwas zu verdienen, der Rest des Tages sieht mau aus. Da können viele Blöcke einfach nicht durchgängig betrieben werden, und nur für wenige Stunden (oder gar mehrfach) starten sollte man solche Anlagen auch nicht. Das heißt also (für mich), dass in Deutschland seit Mai – mit dem steigendem Photovoltaik-Anteil – einfach nicht mehr genug Anlagen durchgängig und kostendeckend in Betrieb gehalten werden können, um bei Lastschwankungen ohne Importe auszukommen.

Wenn es jetzt an irgendeiner Stelle klappert, wird es eng mit den Reserven im Netz. Ich habe mich gerade durch regelleistung.net gehangelt, um herauszufinden, wieviel Regelleistung denn derzeit so vorgehalten wird. Primärregelleistung (abgekürzt PRL, das ist die direkte Frequenzstütze, ohne die das Netz sofort zusammenbrechen würde) demnach 605 MW in Deutschland. Im europäischen Verbundnetz gesamt sind es dann rd. 3000 MW, auch zur Kompensation des möglichen Ausfalls der größten Erzeugungseinheit innerhalb von 30 sec). Sekundärregelleistung (um die PRL bei Fortdauer der Störung > 5 min abzulösen) 1.876 MW für die vier deutschen Übertragungsnetzbetreiber. Die Minutenreserve liegt offenbar derzeit bei 1.952 MW (um die SRL nach 15 min abzulösen). Zahlenangaben ohne Gewähr.

„Sofort abschaltbare Lasten“

Das erscheint mir angesichts zunehmend fluktuierender Stromerzeugung in Deutschland ein bisschen wenig zu sein. Vom 25.06.19 berichteten mir die zu diesem Zeitpunkt anwesenden Kollegen jedenfalls vom telefonisch bettelnden Lastverteiler, der versuchte, jedes verfügbare MW zusammenzukratzen, und irgendwann vorher im Juni war ich selbst zugegen, als ohne erkennbaren Grund plötzlich über 3.000 MW im deutschen Netz zu fehlen schienen. Ein dies erklärender Kraftwerksausfall oder eine starke Prognoseabweichung bei Wind und Solar war zu diesem Zeitpunkt für mich nicht erkennbar.

Offenbar hält man sich seitens der Übertragungsnetzbetreiber neben der Regelreserve noch mit den „schnell…“ oder „sofort abschaltbaren Lasten“ in der Schwerindustrie über Wasser, aber die Einschläge häufen sich. Wenn man jetzt noch bedenkt, dass die Stromflüsse wegen der Netzungleichgewichte zwischen Nord und Süd zusätzlich die Leitungen und Kuppelstellen belasten (die nicht für solche Energiewende-Experimente gebaut wurden) und die bestehenden Kraftwerksanlagen auch nicht für ständiges „hoch und runter, rein und raus“ konzipiert wurden, kann es einem schon angst und bange werden. Die Instandhaltungskosten und das Ausfallrisiko steigen, während die Marge zunehmend unkalkulierbar wird.

…und das politisch und medial völlig enthemmte Überallausstiegsgetrommel ist da noch nicht einmal berücksichtigt.

Weil ich gerade folgendes Zitat auf achgut.com gelesen habe,

„Marktteilnehmer, darunter die Firma Next Kraftwerke, vermuten hinter den Engpässen im Juni das Werk von Spekulanten. Es besteht demnach der Verdacht, dass Händler Versorgungslücken im Regelenergiemarkt zunächst bewusst nicht ausgeglichen hätten, um später höhere Gewinne einzustreichen.“

… vielleicht noch ein paar Bemerkungen zu Regelenergie und Bilanzkreisabweichungen:

Die benötigten Regelleistungsmengen wurden früher wöchentlich, mittlerweile täglich öffentlich ausgeschrieben. Die Stromerzeuger können dann Angebote abgeben und erhalten ggf. den Zuschlag. Damit sollte die Versorgung immer gewährleistet sein (sofern die errechneten Mengen noch immer ausreichend sein sollten). Für Spekulation und Versorgungslücken sehe ich da eigentlich keinen Raum.

Primärregelung (PRL) und Sekundärregelung (SRL) erfolgen vollautomatisch. Das Regelungssignal kommt direkt aus dem Netz, und die Anlage fährt danach die Leistung hoch oder runter. Auch da sehe ich keinen Raum für Versorgungslücken oder Zeitverzug.

Bei der Minutenreserve (MR) ist das etwas anders, weil da ja noch Zeit zum Handeln bleibt. Bei uns kommt die MR-Anforderung über den ganz normalen Fahrplan (das Tool, in welchem der Dispatcher die zu fahrende Wirkleistung viertelstundenscharf festschreibt) und zusätzlich noch als telefonische Anforderung, damit diese außerplanmäßige Fahrplanänderung auch ja nicht untergeht.

„Das ist Glücksspiel“

Ich könnte mir also durchaus vorstellen, dass eine Minutenreserveanforderung zum gewünschten Zeitpunkt noch nicht vollständig bedient sein könnte, weil diese Anforderungen teilweise auch sehr kurzfristig reinkommen, die Anlagen aber einen technisch bedingten Laständerungsgradienten von x MW/min haben. Da die MR die SRL aber nur ablösen soll und zusätzliche Kraftwerke, die nicht an der Regelung teilnehmen, auch ihren Output erhöhen können (sofern es im Netz noch Reserven gibt), sollte das im Normalfall auch verkraftbar sein. Ein Zurückhalten von Regelleistung sehe ich da nicht, weil man ja seinen vertraglichen Verpflichtungen nachkommt. Im Rahmen der technischen Gegebenheiten natürlich.

Wenn jetzt also alle an der Netzregelung teilnehmenden Erzeuger ihren Pflichten nachkommen, sehe ich keinen Raum für Spekulationen. Würde ein Teilnehmer seine Pflichten nicht erfüllen, würde das für ihn im Nachgang mit Sicherheit teuer. Es wird ja alles überwacht, alle Stromflüsse sind online nachvollziehbar. Ich weiß es nicht genau, könnte mir aber durchaus Vertragsstrafen vorstellen, zusätzlich zu den Kosten der als Lückenfüller schnell zu beschaffenden Leistung. Ein Plus-Geschäft sollte da unmöglich sein, worauf also spekulieren?

Wie genau die realen Stromflüsse gemessen und abgerechnet werden, entzieht sich meiner Kenntnis. Aber sie werden es. Ein paar Wochen nach der tatsächlich erfolgten Erzeugung. Da werden dann auch die Kosten sichtbar, die anfallen, wenn man als Erzeuger von seinem Fahrplan abgewichen ist. Wie schon gesagt, legt der Fahrplan viertelstundenscharf fest, welche (Wirk-) Leistung eine Erzeugungseinheit zu bringen hat. Das ist der sogenannte Arbeitspunkt (AP). Bei eingeschalteter Netzregelung (PRL und/oder SRL) pendelt die Blockleistung dann natürlich um diesen Arbeitspunkt herum, je nachdem, welches Regelsignal aus dem Netz kommt. Alle anderen Abweichungen vom Arbeitspunkt sind aber Bilanzkreisabweichungen, deren Kosten im Nachgang errechnet werden.

Teilweise sind solche Bilanzkreisabweichungen technisch gar nicht zu vermeiden. Die schon angesprochenen Laständerungsgradienten verhindern, dass man innerhalb einer Sekunde (von einem Viertelstunden-Arbeitspunkt zum nächsten) die Leistung ändern kann.

[Technischer Einschub: Man fährt also von einem AP zum nächsten eine Lastrampe, wobei versucht wird, den AP-Wechselzeitpunkt auf der Mitte dieser Rampe zu erwischen. Bei einer gewünschten Laststeigerung von z.B. 100 MW (braucht 4 min bei 25 MW/min) zu 06:00 Uhr, beginne ich also schon 2 min vor 06:00 Uhr die Last anzuheben, habe also eine positive Bilanzkreisabweichung (entgegen meinem noch gültigen AP fahre ich ja zu viel Leistung ins Netz). Um 06:00 Uhr habe ich mit erst 50 aufgebauten MW den neuen AP noch nicht erreicht, habe also für die nächsten 2 min erstmal eine negative Bilanzkreisabweichung.]

Man versucht also Bilanzkreisabweichungen möglichst gering, sowie ausgeglichen positiv und negativ zu halten. Man weiß im Vorfeld nie, was einen wieviel kostet! Diese Rechnung wird erst Wochen später präsentiert. Je nach Netzsituation kann sowas richtig teuer werden, es kann aber sogar Geld dafür gezahlt werden. Man weiß es aber nicht und eine Spekulation wäre hier komplett hoffnungslos. Das ist Glücksspiel.

Es gibt jedoch eine Möglichkeit, wo ich mit künstlicher Verknappung auf steigende Preise spekulieren kann. Mir schreibt ja niemand vor, welche maximale Wirkleistung ich Day Ahead anbieten muss. Wenn ich meine den Wettergott persönlich zu kennen und darauf spekuliere, dass die Wind- und Solarprognosen für den nächsten Tag zu positiv ausfallen, kann ich mich ja mit einem Minimalangebot auf die Lauer legen und hoffen, dass die Intradaypreise höher sein werden. Nur, das können alle anderen auch. Ob ich dadurch also wirklich gewinne, ist halt Spekulation.

Ich könnte mir aber durchaus vorstellen, dass man seitens der Bundesnetzagentur bei größeren Erzeugungseinheiten auch genauer drauf schaut. Erzeugungskapazitäten im Gigawattbereich können ja durchaus Preise bewegen, wenn der Markt gerade eng ist. Ich weiß also nicht, ob einem die Spekulation da nicht hinterher vor die Füße fällt.

Freundliche Grüße / Name des Verfassers ist bekannt

Unglaubliche Augenwischerei!

Im Zusammenhang mit der Vermutung, dass der vermehrte Stromimport zu einer Senkung des CO2-Ausstoßes führen könnte, schrieb kürzlich ein Leser an Achgut.com:

[…] Ihre letztens geäußerte Vermutung, dass in D auf jeden Fall CO2-generierende Stromerzeugung bewusst heruntergefahren bzw. eingeschränkt werden soll, hätte ich bisher fast nicht glauben können.

Doch nun heute gibt es auf Welt.de eine entsprechende Aussage, wie bei uns bei der Stromerzeugung CO2 gespart wurde in den ersten Monaten d. J.

Unglaubliche Augenwischerei!

Beste Grüße und herzlichen Dank für Ihre umfangreichen Informationen.

Rüdiger Stobbe ist nach eigener Auskunft ein schlimmer Ober-Klimaleugner und veröffentlicht regelmäßig auf der Achse des Guten.

Mit freundlicher Genehmigung.




Als Katastrophen noch »normal« waren*

Elbhochwasser, Meissen ; Quelle: pixabay

Die anderthalb heißen Sommer der Jahre 2018/19 haben die Klima-Apokalyptiker zu großer Form auflaufen lassen: „In zwölf Jahren sorgt der Klimawandel für den Untergang der Welt oder zumindest der Menschheit.“ Dies verkünden mittlerweile nicht nur infantile und kognitiv beeinträchtigte Schulschwänzer, sondern auch Politiker wie die demokratische US-Kongress-Abgeordnete Alexandria Ocasio-Cortez, welche sich den totalen „ökologischen Umbau“ der amerikanischen Gesellschaft zum Ziel gesetzt hat.

Schaut man allerdings in die Vergangenheit, wird schnell klar, dass außergewöhnliche Wetterlagen und deren Folgen zu jeder Zeit zum Leben dazugehörten. Dies belegen nicht nur die Zahlen aus Ocasio-Cortez’ Geburtsstadt New York, wo beispielsweise im Juli 1934 eine Rekordtemperatur von plus 55 Grad Celsius gemessen wurde, sondern auch die Ereignisse in und bei Dresden seit der Stadtgründung um das Jahr 1200.

Anhaltend hohe Temperaturen und daraus resultierende Dürren plagten die Menschen hier unter anderem schon 1473, 1504, 1563, 1590, 1616, 1642, 1790 (damals kam es deswegen sogar zum Kursächsischen Bauernaufstand), 1842, 1874, 1893, 1904, 1911, 1921, 1934, 1935 und 1954. So meldete die Chronik des Rates der Stadt für 1473: „Der Sommer war so heiß und trocken, dass es Trinkwasser nur noch gegen Geld gab.“ Und 1590 hieß es dann: „Wegen großer Dürre blieben die Mühlen stehen. Die Elbe war fast ausgetrocknet.“ Letzteres passierte auch 1954, als der Pegel des Flusses auf unter zehn Zentimeter fiel und sich wieder einmal die legendären „Hungersteine“ auf dem Grund zeigten.

Solcherart Wetter – oder im Gegenzug eben zu wenig Sonne und zu viel Nässe – sorgte oft für schlechte Ernten, die dann schnell zu Teuerungen bei Grundnahrungsmitteln aller Art führen konnten. Hierüber wurde in Dresden ebenfalls akribisch Buch geführt: Etwa 20 Mal stiegen zwischen 1362 und 1639 die Preise für Getreide auf teilweise astronomische Höhen.

Am schlimmsten war es wohl im Jahre 1623, als der Scheffel Korn (nach Dresdner Maß 107 Liter) bis zu 26 Gulden kostete. Zur Orientierung: Der Gulden war eine Goldmünze im Gewicht von knapp 2,5 Gramm, deren Wert und damit Kaufkraft heute bei reichlich 100 Euro läge. Aber auch die vier Jahre lang anhaltende Teuerung von 1434 bis 1437, welche wahrscheinlich neben dem Wetter auch aus einem verheerenden Hussiten-Einfall und den nachfolgenden Kämpfen gegen die böhmischen Marodeure resultierte, muss den Menschen in der damaligen kurfürstlichen Residenzstadt extrem zugesetzt haben.

Wenn es nicht zu heiß und zu trocken oder zu nass war, dann wurde strenger Frost zum Problem. Dieser trat insbesondere in den Jahren 1416, 1466, 1524, 1597, 1612, 1664 und 1673 bis 1679 auf, wobei es sich bei den Kältewellen im 17. Jahrhundert um Auswirkungen der sogenannten „Kleinen Eiszeit“ handelte. Nun versagten die Mühlen anstatt wegen Wassermangels wegen Vereisung, und in den Wäldern fielen „viel hundert Stück Rotwild … tot um.“ Außerdem herrschte neben Hunger auch eine Weinknappheit, weil der Frost bereits im Spätsommer einsetzte und die Trauben verdarb.

Die größte wetterbedingte Geißel der Bevölkerung im unmittelbar an der Elbe gelegenen Dresden waren freilich die ständig wiederkehrenden, verheerenden Hochwasser, bei denen der Pegel des Flusses über sieben Meter stieg, was heute zur Ausrufung der höchstmöglichen Alarmstufe führen würde.

Zwischen den Jahren 1200 und 2013 muss es um die 35 solcher extremen Hochwasserereignisse gegeben haben. Das heißt, die angeblichen „Jahrtausend-Fluten“ von 2002 (Elbpegel an der Augustusbrücke neben dem Residenz-Schloss: 9,40 Meter) und 2013 (Pegel: 8,76 Meter) waren keineswegs einmalige Ereignisse und somit Hinweise auf den behaupteten Klimawandel in der Gegenwart. Ähnlich hoch stieg das Wasser schließlich auch schon 1845 (8,77 Meter), 1501 und 1784 (jeweils 8,57 Meter), 1655 (8,38 Meter) sowie 1862 und 1799 (jeweils 8,24 Meter).

Aus der Zeit davor existieren keine konkreten Messwerte, weswegen es durchaus im Bereich des Möglichen liegt, dass der Fluss früher noch dramatischer anschwoll. So beispielsweise während des legendären „Magdalenenhochwassers“ von Juli 1342, das ganz Mitteleuropa heimsuchte, oder in den schlimmen Flut-Jahren 1272, 1275, 1318, 1400, 1430 und 1432. Wenn man die in alten Urkunden benannten Schäden berücksichtigt, sind hier sogar auch Pegelstände von über zehn Metern denkbar.

Angesichts dieser vielen Naturkatastrophen, Teuerungen und Hungerjahre dürfte kaum verwundern, dass es um die Gesundheit der Menschen in Dresden oft nicht sonderlich gut bestellt war und permanent Krankheiten ausbrachen: Sei es der Scharbock (Skorbut, 1468) oder seien es der „englische Schweiß“ (eine bisher nicht identifizierte Virus-Erkrankung; 1529), „das rothe Wehe“ (Rote Ruhr; 1559) und die „hispanische Zips“ (Spanische Grippe; 1580).

Am stärksten wurde die Stadt freilich von der Pest heimgesucht – eine der gravierendsten Konsequenzen der frühen Globalisierung, denn der Erreger Yersinia pestis kam ab 1347 mit Handelsschiffen und parallel auch über die Seidenstraßen aus Asien nach Europa. Von 1349 bis 1640 registrierten die Chronisten insgesamt 22 große Pestwellen in Dresden.

Diese veranlassten Herzog Heinrich den Frommen 1540, mit seinem Hofstaat nach Freiberg zu wechseln; und 1607 flüchtete Kurfürst Christian II. vor der „Pestilenz“ nach Torgau und Annaberg. Besonders arg wütete der „Schwarze Tod“ freilich in den Jahren 1585 und 1634. Da verzeichneten die Chronisten allein schon 2305 Tote – bei anfangs noch rund 12000 Einwohnern: „Vorm Wilsdruffer Tor blieb kaum jeder 15. Hauswirt am Leben.“ Der absolute Höhepunkt des Sterbens lag indes wohl im Jahre 1632: „Die Pest grassierte dermaßen, dass dieses Jahr zu Alt- und Neu-Dresden ingleichen vor den Toren an die 6892 Todten gezählt wurden.“

Dennoch verfielen die Stadtväter damals nicht in Panik oder Weltuntergangsstimmung, sondern versuchten ungeachtet ihrer noch sehr begrenzten medizinischen Kenntnisse, die Seuche mittels sinnvoller Maßnahmen einzudämmen und damit möglichst viele Bürger Dresdens zu retten. So durch das Verbot von Menschenansammlungen, die Schließung von Märkten und Wirtshäusern sowie strenge neue Vorschriften zur Reinhaltung der Straßen – außerdem stand auf das Fälschen von Gesundheitspässen jetzt die Todesstrafe. Darüber hinaus wurde auch zeitweise der Handel mit Böhmen ausgesetzt.

Dieses besonnene Vorgehen kontrastiert stark mit den aktuellen Reaktionen von „Klimaschützern“ auf Wetterereignisse jenseits des Durchschnitts. Heute wissen wir viel mehr über natürliche Zusammenhänge, was die Verfechter der grünen Quasi-Religion aber nicht daran hindert, fanatisch ihre Dogmen zu verbreiten und einen unsinnigen Vorschlag zur „Klimarettung“ nach dem nächsten in die Welt hinauszuposaunen, anstatt nüchtern an die Problematik heranzugehen. Aber das passiert eben, wenn man lieber auf der Straße herumkrakeelt statt zu lernen und dann fehlendes Wissen durch Glauben ersetzen muss.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung; 18. Oktober 2019, S.12;  EIKE dankt der PAZ-Redaktion sowie dem Autor Wolfgang Kaufmann  für die Gestattung der ungekürzten Übernahme : https://www.preussische-allgemeine.de/

=================================================================




Die Öko-Diktatur nimmt Gestalt an*

 Weltweite Bewegungen entstehen nicht einfach von selbst, sie müssen konzipiert, organisiert und mit ausreichenden Finanzmitteln versehen werden. All das braucht eine hochprofessionelle Führung, ohne diese kommt nichts zustande.

So geben die Leute von XR in Großbritannien völlig unbekümmert bekannt, dass sie freiwillige Helfer suchen, sogenannte XR volunteers, denen sie pro Mann und Woche 400 Pfund gegen das Versprechen bieten, dass sich diese den Prinzipien von XR unterordnen. Je mehr jemand ansonsten dem Staat auf der Tasche liegt und sonst nichts zu tun hat, umso leichter wird er das Angebot annehmen.

Auf anderer Bühne, mit eigenen Mimen, aber mit demselben Stück agiert die Bundesregierung. Sie hat dem Publikum das sogenannte Klimapaket vorgelegt, Applaus heischend und unter erheblicher Eigenwerbung. Große Dinge waren dabei nicht zu erwarten und sind auch nicht drin. Eines aber beinhaltet das Konvolut, das ebenso bemerkenswert als wenig beachtet ist.

Das Klimapaket begründet Vorschriften, von denen einige bis tief in den privaten Bereich der Bürger hineinwirken. Das betrifft vor allem das Heizen und die Beweglichkeit, sei es nun mit dem Auto oder dem Flugzeug. All das, zusammen mit weiteren Punkten, soll einmal jährlich geprüft werden. Da stellt sich die Frage, ob dann ein Kommissar in der Tür steht und von einem Hausbesitzer Auskunft darüber verlangt, warum er im Winter seine Räume auf 22 Grad geheizt und sich nicht mit 18 Grad begnügt hat. Mit anderen Worten: Kontrollen dieser Art sind nur von einem Staat durchzuführen, der einen totalitären Charakter angenommen hat.

Das alles ist den Grünen und ihren Kumpanen im Geiste allzu wenig. Sie fordern einen stetig steigenden Kohlendioxidpreis, Ölheizungen werden, falls es nach ihnen geht, bald nicht mehr erlaubt, ebenso Autos mit Verbrennungsmotor. Das Fliegen soll deutlich teurer werden. Geplant sind auch Druckmittel, die den Menschen den Fleischkonsum erschweren, wenn nicht verbieten, dafür wird die vegetarische und vegane Ernährung gefördert.

Auch hier gilt: Ein Staat oder eine Partei, die sich anmaßt, den Bürgern vorzuschreiben, was und wie viel sie essen sollen, trägt totalitären Charakter. Und auch hier stellt sich die Frage nach der Kontrolle. Diese verlangt immer nach einem Eingriffsrecht. Wenn sich ein solches auf die persönlichste Lebensgestaltung erstreckt, so ist es endgültig aus mit der Freiheit.

Natürlich kann derzeit noch niemand, der sich dagegen wehrt, in Strafhaft genommen werden, noch nicht. Doch es gibt andere Wege. In der Ausgabe 3/10 des „Psychotherapeutenjournals“ („PTJ“) wird die „Klimaleugnung“ als psychische Krankheit beschrieben, die in ihrer schlimmsten Form so aussieht: Es ist die „Überkompensation“, die zum „Kreuzrittertum gegen den Klimaschutz“ und zur „aggressiven Leugnung der existenziellen Bedrohung“ führen könne. Diese Gruppe versuche, ihrer Todesangst aus dem Weg zu gehen, indem sie eine „symbolische Unsterblichkeit“ erreichen wolle und was sich die Seelenklempner noch so einfallen lassen. Die Rede ist auch von einer „akuten Eigen- oder Fremdgefährdung“. Diese entbindet den Therapeuten von der ärztlichen Schweigepflicht und reicht als Grund aus für eine zwangsweise Verabfolgung von Medikamenten und die Einweisung in eine psychiatrische Einrichtung.

Wer sich nun damit trösten will, dass dies die Auffassung irgendeines Spinners sei, dem sei gesagt, dass das „PTJ“ das Organ der Bayerischen Landeskammer der Psychologischen Psychotherapeuten ist, der jeder Psychotherapeut zwangsweise angehört und die in ihrem Bereich hoheitliche Aufgaben ausführt. Alles ist vorbereitet für die Möglichkeit, jeden in ein Narrenhaus zu sperren, der die offizielle Theorie in Sachen Klimawandel anzweifelt. Die Öko-Diktatur nimmt Gestalt an.

Überraschen kann die Verbindung von Klima-Diskussion und Totalitarismus keineswegs. Beide brauchen für ihr Funktionieren die Angst. Vorgeblich gilt es, die Menschheit vor der Vernichtung zu bewahren. Diesem Ziel wäre natürlich alles andere unterzuordnen – Wünsche der privaten Lebensgestaltung, die gesellschaftliche Gliederung, die politische Ordnung, kulturelle Eigenheiten und Vorlieben, endlich Weltanschauung und Freiheit.

Die klassische Alternative der bisherigen Ideologien bestand darin, dass man eine gute Welt versprach anstelle der vorgefundenen schlechten. Heute reicht das nicht mehr aus. Die Alternative heißt jetzt: unsere Welt oder gar keine. Dies ist der gedankliche Hintergrund, wenn ein Herr Grönemeyer während eines Konzerts emphatisch plärrt, er und seinesgleichen würden „diktieren“, wie die Gesellschaft auszusehen habe.

In einem politischen Milieu, in dem der Widerspruch auch nur als störend und endlich als schädliche Krankheit empfunden wird – sei es von der volonté générale (allgemeiner Wille) des Jean-Jacques Rousseau, sei es durch die politische Korrektheit – gilt er alsbald als strafbar. Abweichende Meinungen werden systematisch unterdrückt. Es regiert die Behauptung, der Sachstand sei unbestritten und die Wissenschaft einer Meinung. Abweichende Darstellungen sind aus Presse und elektronischen Medien weitestgehend verbannt, und das Publikum hat das hinzunehmen.

Wo es darum geht, die Freiheit einzuschränken und auf längere Sicht abzuschaffen, darf natürlich Brüssel nicht fehlen. Von dort kommen in diesem Kontext Tagesbefehle in reicher Zahl, vom Verbot der herkömmlichen Glühbirne über zahllose Effizienz-Vorgaben für Produkte aller Art bis hin zu genormten Wasserhähnen und Vorschriften für eine bessere Isolierung von Türen und Fenstern, als wüsste man nicht, dass derlei Schimmelbildung in den Räumen hervorruft.

Der niederländische Ökonom und Publizist Hans Labohm, jahrelang ständiger Vertreter der Niederlande bei der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) und dort Mitglied des Ausschusses für Entwick-lungshilfe, prognostiziert die möglichen Folgen der Klimadebatte: „Wir werden mit einer schleichenden Kollektivierung unserer Gesellschaften rechnen müssen – sofern die Klimapolitik fortgesetzt wird, die praktisch alle politischen Parteien vertreten, die derzeit an der Macht sind. Rechnen wir die gegenwärtige Entwicklung hoch, werden wir letztlich bei einer Art Öko-Plan- und Kommando-Wirtschaft landen.

Da aber eine derartige Wirtschaftsform mit einer politischen Kommando-Ordnung einhergeht, führt dieser Weg unabweichlich zur Unfreiheit.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung; 18. Oktober 2019, S.8;  EIKE dankt der PAZ-Redaktion sowie dem Autor Wolfgang Stumfall  für die Gestattung der ungekürzten Übernahme : https://www.preussische-allgemeine.de/

=================================================================




Grotesk – Die Umweltlinken wollen mehr als Ihren CO2-footprint beseitigen

…. Die Stars der HG TV – Renovierungsserie [- aus baufälligen Ruinen Traumhäuser machen] “Fixer upper” Chip und Joanna Gaines gaben bekannt, dass sie ihr fünftes Kind erwarten. Zusammen mit den erwarteten Botschaften des Feierns und der Unterstützung sah sich das Paar dieser freudigen Nachricht ebenfalls mit Gegenreaktionen konfrontiert. Zum Beispiel  Kritiker auf Twitter schrieben: „Ich mag sie, aber mit den Kindern die sie bereits haben, ist es genug “ und „Vielen Dank dass Sie für die Überbevölkerung des Planeten beitragen.“  Ein Facebook – Nutzer schreibt:  „Übervölkerung tötet den Planeten. Ein weiteres Kind zu bekommen, ist eine verantwortungslose Handlung. “

***

Es sollte nicht tabu sein, Eltern dafür zu kritisieren, dass sie zu viele Kinder haben

Anstatt diese unkonventionellen Antworten abzulehnen, haben einige Linke sie angenommen. In einer besonders  ungeheuerlichen  Meinungs Beitrag, machte Kristen Pyszczyk von der  Canadian Broadcasting Company den Fall zur einer Verurteilung von Menschen, die Kinder haben.

„Die Fortpflanzung wird zu einem globalen Problem der öffentlichen Gesundheit und nicht zu einer persönlichen Entscheidung. Wenn die Leute verantwortungslose Dinge tun, wie zum Beispiel fünf Kinder, müssen wir sie unbedingt aufzeigen…  Scham ist ein mächtiges Werkzeug, um das Verhalten zu ändern“, und „wir müssen noch viel weiter gehen“, fügte sie hinzu.

Den gesamten Bericht finden sie hier:

https://www.cbc.ca/news/opinion/chip-joanna-gains-pregnancy-1.4481165

 ***

Im August des vergangenen Jahres veröffentlichte das New York Magazine einen Artikel, in dem behauptet wird, [siehe Aufmacherbild] wir werden ein Massensterben erleiden.  …. weil die Erde innerhalb von 100 Jahren aufgrund verschiedener Folgen des Klimawandels, der Nahrungsmittelknappheit und der wirtschaftlichen und politischen Instabilität unbewohnbar sein wird.

…. diese Meinung wird von einer großen Gruppe von Umweltschützern geteilt, die sich in prominenten Publikationen Gehör  verschafft haben , wie The Guardian, NPR,  The Nation ,  Vice ,  The  Huffington Post ,  Elle Magazine , NBC und viele mehr. Die Titel der Artikel gehen alle in die gleiche Richtung: „Möchten Sie den Klimawandel bekämpfen? Haben Sie weniger Kinder. “Und„ Wie entscheiden Sie sich für ein Baby, wenn der Klimawandel das Leben auf der Erde neu bestimmt? “

Ein kürzlich erschienener Artikel, der viel Aufmerksamkeit auf sich zog, wurde auf der „Think“ -Seite von NBC News vorgestellt. Der Artikel mit dem Titel  „Wissenschaft beweist, dass Kinder schlecht für die Erde sind. Die Moral legt nahe, dass wir aufhören, sie zu haben.Da ein Kind eines der schlimmsten Dinge ist, die Sie für die Umwelt tun können, sollten Eltern vor der Zeugung die moralischen Implikationen in Betracht ziehen.“

Diese Haltung ist für die große Mehrheit der Menschen auf der ganzen Welt nicht nur grotesk, sondern oft auch unlogisch und widersprüchlich. In Pyszczyks CBC-Stück schlägt sie beispielsweise vor, dass der Anreiz einer Frau, Mutter zu werden, durch die Adoption von Kindern aus Ländern mit Schwierigkeiten auf der ganzen Welt beseitigt werden kann. Adoption ist eine edle, selbstlose Handlung, von der ich niemals abraten würde, aber sie widerspricht der Rechtfertigung, die diese extremen Umweltschützer verwenden, um ihre anti-menschlichen Positionen zu rechtfertigen. Wenn es darum geht, unseren CO2-Footprint [Begriff ist eine Erfindung der AGW Anhänger] zu begrenzen, ist die Adoption von Kindern keine Lösung. Babys aus Entwicklungsländern bringen ihren relativ geringen CO2-Footprint nicht mit. Sie werden mit ziemlicher Sicherheit einen CO2-Footprint haben, der mit denen in ihrem neuen Land geborenen Menschen vergleichbar ist.

Ebenso ist es völlig widersprüchlich, die Geburtenraten zu begrenzen und gleichzeitig die Einwanderung und die offenen Grenzen zu fördern. Wenn Sie sich so sehr für die Begrenzung der Kohlendioxidemissionen interessieren, dass Sie verhindern möchten, dass Menschen Kinder bekommen, oder zumindest davon abhalten möchten, sollten Sie sich  jeder  Anstrengung widersetzen , Menschen in die Vereinigten Staaten zu bringen, die zu den höchsten der Welt gehören Pro-Kopf-Kohlendioxid-Emittenten.

Viele Umweltschützer werden behaupten, das angebliche Kohlendioxidproblem sei auf die Industrieländer beschränkt. In seinem Bericht führt Rieder aus: „Die Verringerung der Fruchtbarkeit in Entwicklungsländern ist zwar wichtig, da die Pro-Kopf-Emissionen (Treibhausgasemissionen) in den nächsten Jahrzehnten voraussichtlich erheblich ansteigen werden (und dies auch dürfen sollten), dies ist jedoch nicht annähernd so kritisch wie die kurzfristige Verringerung der Zahl der Reichen auf der Welt. “

Diese Behauptung ignoriert jedoch die Tatsache, dass die Geburtenraten sich mit dem Wohlstand eines Landes verringern. Im Allgemeinen sind die Geburtenraten umso niedriger, je reicher ein Land ist. Letztendlich scheint die Logik keinen Platz für diejenigen zu haben, die eine alarmierende Umweltagenda haben.

Das Streben nach Bevölkerungskontrolle und nach einer Senkung der Geburtenraten ist immer noch ein Randbereich der Umweltbewegung, aber wir sollten nicht davon ausgehen, dass dies auch so bleibt. Wir müssen wachsam sein und uns gegen diese eiternde Weltanschauung wehren, wenn sie ihren hässlichen Kopf zeigt, und uns immer daran erinnern, dass andere ähnliche Bewegungen in der Weltgeschichte großen Schaden angerichtet haben. Bei diesem Tempo dürfte es nicht lange dauern, bis wir uns wieder mit einer solchen Krise auseinandersetzen müssen.

Bis dahin, sei fruchtbar und vermehr dich – solange du noch kannst.

Den gesamten Bericht finden sie hier:

https://dailycaller.com/2018/02/14/the-environmental-left-wants-to-eliminate-more-than-your-carbon-footprint/

Übersetzt durch Andreas Demmig




Extinction Rebellion und die neue Berlin-Blockade

Es war das erste Mal, dass ich mir die DDR bildlich vorstellte. Terror, Untergrundpartys, Stasi. Für mein 15-jähriges Ich klang das alles unglaublich aufregend. Ich gruselte mich bei den Erzählungen, gleichzeitig empfand ich aber auch einen gewissen Neid. Bei meinen Eltern war immerhin richtig was los gewesen. Mein Leben bewegte sich zwischen Schule und Schlafen. Gelegentlich ging ich auch auf Partys, wo ich dann einen „Muttizettel“ vorzeigen musste und mir aussuchen konnte, ob ich nun mit einem bekifften oder einem besoffenen Jungen knutschen wollte. Mein Alltag kam mir unendlich brav und öde vor.

Das ist jetzt sechs Jahre her. Und wie so oft haben sich meine Teenie-Wünsche genau jetzt erfüllt, wo ich es nicht mehr gebrauchen kann. In der letzten Woche hat Extinction Rebellion Berlin blockiert. Aufregend war das allemal. Vielleicht werde ich einmal meinen Enkeln davon erzählen. Wenn man dann überhaupt noch Kinder haben darf. Wegen CO2-Bilanz und so. „Liebe Enkel“, werde ich dann anfangen, „in der zweiten Oktoberwoche 2019 hat eure Oma sehr viel geflucht, gespuckt, und geschrien. Jeder, der ihr auf der Straße begegnet ist, sah eine junge Frau mit steinharter Miene, starren Augen und vorgeschobenem Kiefer. Hätte mich jemand angesprochen, ich hätte ihn angefaucht.“ „Warum denn das, Oma?“, werden die Kleinen fragen. Nun ja.

Mit einem verstrahlten Colgate-Grinsen

Ich arbeite und studiere in Berlin Mitte. Ich muss da also jeden Morgen hin. Egal, ob’s hagelt, Obama Merkel besucht, die XR (Extinction Rebellion) die Straßen blockiert oder alles zusammen. Dementsprechend schön waren meine Erlebnisse. Zum ersten Mal sah ich die Hippies am Mittwochnachmittag. Ich hörte von meinem Unicampus aus unbestimmtes Geschrei. Ich wusste schon aus den Nachrichten, dass nicht einmal 500 Meter entfernt die Marschallbrücke blockiert wird. Keine unwichtige Brücke. Sie liegt im Regierungsviertel und verbindet unsere „Prachtstraße“ Unter den Linden unter anderem mit dem Hauptbahnhof und dem Charité Krankenhaus auf der anderen Seite der Spree. Ich fahre jeden Morgen über diese Brücke. Nur an diesem Morgen eben nicht. Ich war allein deswegen schon, wie sag ich’s, ungemütlich eingestellt.

Ich entschied mich, mir die „gewaltfreien“ Terroristen einmal anzusehen. Ich konnte mich nicht erinnern, dass je eine Demo in Berlin eine ganze Woche angedauert hat. Und Berlin hat viele Demos. Das hier hatte ein neues Ausmaß. Ich lief also ein kurzes Stück an mehreren Polizeiabsperrungen vorbei und traf auf einen ziemlich gut gelaunten Demonstrantenhaufen. Vielleicht 150 Leute zwischen 5 und 75 Jahren hatten sich da versammelt. Viele waren im Studentenalter, aber auch Ü40er mit ihren kleinen Kindern waren da. Sie lagen auf der Straße, in Schlafsäcke eingemummelt, oder sprachen mit einem verstrahlten Colgate-Grinsen die Passanten an. Einige hielten Schilder hoch, andere verteilten Flyer.

Ich fühlte mich wie bei Woodstock. Alle paar Meter spielte irgendwer Gitarre und hatte eine Gruppe Leute um sich versammelt, die mit geschlossenen Augen ein Friedenslied jaulten. Doch die meiste Aufmerksamkeit zog ein Stretch-Programm auf sich. Ein paar junge Hippies standen da in einem Kreis und sangen „Push it, climate, change it!“. Dabei drückten sie bei „Push it“ ihr Becken nach vorne, bei „climate“ warfen sie ihre Hände über die linke Schulter, bei „change it“ über die rechte. Und wieder von vorne und so weiter. Ich stellte mich zu ein paar Fotografen, die dieses „Happening“ ausgiebig knipsten. Alle waren total gut drauf und giggelten herum. Aber auf mich übertrug sich die Freude irgendwie so gar nicht. Ich fühlte mich wie im falschen Film.

Plötzlich stupste mich ein Kind an. Es war vielleicht fünf Jahre alt und drückte mir einen Flyer in die Hand. Der kleine Wurm guckte mich mit riesigen Augen an, während ich den Flyer las. „Entschuldigen Sie die Störung, aber es ist ein Notfall!“, stand da. Ich war einigermaßen perplex und bedankte mich reflexhaft bei dem Kleinen, wie man sich bei einem Kind bedankt, das einem ein selbstgemaltes Bild schenkt. Er strahlte mich an und dackelte weiter. Jetzt fielen mir Kreidekritzeleien auf der Straße auf, die sehr nach Kinderkunst aussahen. Eine Zeichnung zeigte einen Totenkopf, daneben war in Kinderschrift „verdammte Totenkopflobbyisten“ gekrakelt. Ich guckte mir die Kinder an. Die meisten hatten das Sanduhrzeichen der XR im Gesicht. Es schüttelte mich. Eigentlich weiß ich ja schon, dass Eltern oft ihre Kinder für politische Zwecke missbrauchen. Trotzdem, es so direkt zu sehen, nahm mich ziemlich mit.

„Und auch für meine Bundeskanzlerin“

Ich wurde wütend und löste mich von den Kindern, um mir ein paar Plakate anzugucken. Schnell machte ich meinen Favoriten aus: „Die Erde retten. Für dich – für mich. Und auch für meine Bundeskanzlerin.“ Mir wurde ganz schlecht. Ein paar Meter weiter stand dann noch: „Der Kapitalismus-Imperialismus zerstört diesen Planeten…und nur Revolution gibt der Menschheit eine echte Chance ihn zu retten!“ Was denn nu, dachte ich, Kuscheln mit Mutti oder Revolution? Ich konnte diese Leute nicht ernst nehmen. Wie sie da alle so lagen, tanzten, kuschelten und knutschten, kamen sie mir sehr harmlos vor. Es wäre ein leichtes für die überpräsente Polizei gewesen, die Demo aufzulösen und die Demonstranten wegzutragen. Doch das war offensichtlich nicht gewollt.

Nach dieser ersten Berührung traf ich die Hippies leider noch öfter. Später am Nachmittag wollte ich von der Arbeit nach Hause. Ich war so naiv ein Car-Sharing-Auto zu buchen. Die Stadt war zu. Überall waren unangemeldete Blockaden, die nicht geräumt wurden. Mitte war komplett zugestaut, Kreuzberg war zugestaut. Ich schaffte es mit Müh und Not zur Oberbaumbrücke an der East-Side-Gallery. Doch dort musste ich aufgeben. Die Brücke war blockiert. Ich wusste, dass auch die nächste Brücke blockiert ist. Es war absolut unklar, über welche Brücke ich noch auf die andere Spreeseite kommen konnte. „Herrschaftszeiten!“, fluchte ich. Gut, vielleicht war es auch ein stärkerer Ausdruck. Ich stellte das Auto ab und musste nun notgedrungenerweise laufen, was ich in der Dunkelheit an der Oberbaumbrücke normalerweise tunlichst vermeide. Die Gründe hat Pauline Schwarz ja schon sehr gut beschrieben.

Ich überquerte die Brücke zu Fuß und sah dabei Demonstranten, die nichts mehr von den Hippies vom Vormittag hatten. Die Stimmung war aggressiv. Ich fühlte mich wie früher auf dem Ersten Mai, als mir einmal jemand zurief, ich solle wegrennen, weil gleich der Antifa-Block kommt. Nicht unwahrscheinlich, dass sich auch hier die Antifa unter die Klimademonstranten gemischt hatte. Ich bekam Angst und lief sehr schnell mit Tunnelblick nach Hause.

„Von der blauen Erde kommen wir“

Am Donnerstag habe ich dann die Bahn genommen. Das klappte. Auf der Arbeit traf ich meinen Kollegen, der nicht so viel Glück hatte. Er wollte vom Hauptbahnhof aus Straßenbahn fahren, aber die Hippies haben die Schienen blockiert. Irgendwann hat die Straßenbahn die Türen geöffnet und die Passagiere rausgebeten. Ich war fassungslos. Selbst die Öffis werden also blockiert. Zu allem Überdruss hörten wir die kleinen Terroristen von unserem Büro aus. „What do we want? Climate justice! When do we want it? Now!”, schallte es da herüber. Später habe ich die kleine Demogruppe auf dem Weg zur Bahn getroffen. Diesmal waren es Jugendliche. Auf jeden Fall U20. Blendend gut gelaunt sangen sie: „Von der blauen Erde kommen wir, unser Klima stirbt genauso schnell wie wir.“ Ich musste einen Verzweiflungsschrei unterdrücken. Zu Hause erzählten mir meine Familie und Freunde von den Staus, die sie in der restlichen Stadt erlebt hatten. Kaum einer ist problemlos durchgekommen. Ich schürzte meine Lippen und atmete sehr tief aus.

„Liebe Enkel, das war der Moment, in dem eure Oma sich fragte, ob sie jetzt offiziell im Sozialismus lebt.“ „Sozialismus? Was ist das, Omi?“ „Das ist, wenn das Gemeinwohl zum höchsten Wert erklärt wird und es keinen mehr schert, was der Einzelne will. Das ist, wenn der Zweck die Mittel heiligt. Das ist, wenn die höchsten Politiker zulassen, dass eine Stadt blockiert wird, weil es in ihre politische Agenda passt. Weil sie eh wollen, dass die Deutschen auf alles verzichten, was Spaß macht. Vor allem auf’s Auto.“ „Oma, was ist denn ein Auto?“ „Das, liebe Kinder, erzähle ich euch morgen. Vielleicht finde ich ja noch ein paar Fotos von Oma und ihrem kleinen roten Flitzer. Das waren noch Zeiten.“

Dieser Beitrag erschien zuerst auf dem Schüler- und Jugendblog Apollo-News und bei der Achse des Guten

Mit freundlicher Genehmigung.

Larissa Fußer studiert Medizin und ist 20 Jahre alt. Sie schreibt journalistische Texte und hält Vorträge u.a. bei der Friedrich A. von Hayek-Gesellschaft e.V.

 




Es gibt sie noch! Tapfere Lehrer im Widerstand gegen Klimameinungsdiktatur!

Sehr geehrte Damen und Herren!
Da ich selbst Lehrer bin und deshalb nicht über meine Erfahrungen in der Schule unter Klarnamen im Kommentarbereich schreiben darf, wende ich mich auf diesem Weg an Sie. Ich übernahm eine Vertretungsstunde und bekam heute die Unterrichtsvorbereitung für eine Doppelstunde Naturkunde für eine 7. Mittelschulklasse in die Hand gedrückt.

Auswerten der Hausaufgabe; ein Text über FFF und Greta.

Dann eine Stunde, wo am meisten CO2 entsteht und was wir bzw. jeder einzelne dagegen tun kann.

Habe ich natürlich so gemacht, allerdings so kurz gehalten, damit man die Schüler auch mal aufklären kann.

Zu Beginn fragte ich, wer glaube, dass in 10 Jahren die Welt unterginge. Es meldeten sich etwa 10 Schüler, überwiegend Mädchen.

Ich sagte, dass ich keine Angst hätte, weil ich so alt bin, dass bei mir schon mehrmals der Weltuntergang angekündigt worden war. Erzählte dann über die drohende Eiszeit vor 40 Jahren, dann Waldsterben, Ozonloch und jetzt Klimaerhitzung und Weltuntergang, abgeschmolzenen Polkappen bis 2012, kein Schnee mehr in den Mittelgebirgen bis 2015 und, dass ich jetzt ganz bestimmt den „Experten“ den Weltuntergang abnehme, wo sie dauernd voll danebenliegen.

Ich habe die Schüler dann etwa eine Stunde lang aufgeklärt mit den abnehmenden Wetterextremen Tornados, Hurrikane, gleichbleibende Niederschläge in Deutschland seit 1870 und, dass im Ausschnitt CO2/Temperatur zwischen 1970 und 2019 beide gemeinsam ansteigen, dann aber den von der Entwicklung seit Millionen Jahren gezeigt.

Da erkannten auch die Schüler, dass da kein Zusammenhang besteht.

Den Traum von der Energiewende habe ich auch noch zerstört. Ich denke, dass jetzt wesentlich weniger Schüler Angst vor dem Weltuntergang haben.

Übrigens habe ich die Schaubilder nur unter Bildersuche gesucht und einfach x-beliebige genommen. Als ich dann blockiert wurde, stellte ich fest, dass an dieser Schule EIKE nicht verwendet werden darf. An anderen Schulen habe ich festgestellt, dass man das Protokoll nicht verbergen kann. Die wollen genau wissen, wer auf EIKE liest.

Seit ich wegen sciencefiles und jouwatch mal zum Chef zitiert wurde, bin ich mit den Seiten, auf denen ich mich informiere, sehr vorsichtig geworden, bzw. wähle vorsichtshalber keine mehr an. Soviel zur Zensur in Deutschland.

Deshalb habe ich diesen Weg gewählt.
Auffällig ist, dass, je mehr Hirn ein Schüler hat, desto weniger fürchtet er den Weltuntergang und desto bescheuerter findet er Greta, FFF usw. Die Schüler bringen im Grunde das in den Unterricht ein, was zu Hause gesprochen wird. Ich bin sicher, dass Sie mit EIKE einen großen Einfluss darauf haben. Da ich diese Angstmache für Kindesmissbrauch halte, ist Aufklärung das beste Mittel dagegen, und da haben Sie einfach bestes Material. Danke dafür!
Mit freundlichen Grüßen