1

Gavins falsifi­zierbare Wissen­schaft

Nun hatten Gavin und ich schon früher einige Berührungspunkte. Wir begannen unsere Korrespondenz in Gestalt einer Klima-Mailing-Liste, moderiert von Timo Hameraanta etwa um die Jahrtausendwende, vor Facebook und Twitter.

Der interessante Teil unseres Austausches war das, was mich davon überzeugte, dass er ein miserabler Programmierer war. Ich befragte ihn bzgl. seines Programms, dem GISS globalen Klimamodell. Mich interessierte, wie in diesem Modell die Energieerhaltung sichergestellt wurde. Ich fragte, wie am Ende eines jeden Zeitschritts im Modell verifiziert wird, dass Energie weder erzeugt noch vernichtet wird.

Er erwiderte, was ich bereits aus meiner eigenen Erfahrung wusste beim Schreiben iterativer Modelle, dass es nämlich immer ein gewisses Energie-Ungleichgewicht gibt von Beginn bis Ende des Zeitschritts. Falls sonst nichts weiter stellt die diskrete digitale Natur jeder Berechnung sicher, dass es leichte Rundungsfehler geben dürfte. Falls diesen nicht Rechnung getragen wird, können sie sich leicht akkumulieren und das Modell herabziehen.

Er sagte, dass das GISS-Modell diesem Ungleichgewicht Rechnung trägt mittels gleichmäßiger Verteilung der überschüssigen bzw. der fehlenden Energie über den gesamten Planeten.

Nun, das scheint vernünftig für triviale Größen des Ungleichgewichtes durch Digitalisierung. Aber was ist bei größerem Ungleichgewicht, wenn es durch irgendwelche Probleme bei den Berechnungen auftritt? Was dann?

Also fragte ich ihn, wie groß dieses Energie-Ungleichgewicht typischerweise sei … und zu meinem Erstaunen erwiderte er, dass er es nicht wisse.

Verblüfft fragte ich, ob es irgendeine Computer-Version einer „Murphy Gauge“ bzgl. der überschüssigen Energie gibt. Eine Murphy Gauge (unten) ist ein Messgerät, welches das Murphy’sche Gesetz berücksichtigt, indem es Ihnen erlaubt, einen Alarm ertönen zu lassen, wenn die Variable außerhalb des erwarteten Bereichs liegt … was natürlich der Fall sein wird, Murphy gibt es vor. Im Computer wäre das Äquivalent etwas in seinem Modell, das ihn warnt, falls zu viel oder zu wenig Energie einen gewissen Wert überschreitet.

Nein! Nicht nur, dass er kein Murphy-Messgerät hat, sondern auch, dass er keine Ahnung hat, wie weit sich das Modell von der Realität entfernt hinsichtlich der Energieerhaltung, weder im Mittel noch bei individuellen Zeitschritten. Er brachte es einfach mit jedem Zeitschritt wieder zurück ins Gleichgewicht, drehte sich um und ließ es laufen.

An dieser Stelle kam ich zu der Überzeugung, dass Gavin gegenüber seinem Modell viel zu unkritisch war. Ich schrieb mein erstes Computer-Programm im Jahre 1963, etwa zu der Zeit, als Gavin geboren worden war. Und ich traue Computermodellen nicht ein bisschen über den Weg. Sie beißen die Hand desjenigen, der sie füttert, schon bei der kleinsten Gelegenheit, selbst wenn man sie mit Murphy-Messgeräten eingrenzt … und dieses grundlegende Problem hat Gavin nie verstanden.

Dieses Problem stellt sich besonders bei dem, was „iterative“ Modelle genannt wird. Hierbei handelt es sich um Modelle, die Schritt für Schritt durch die Zeit rechnen, wobei das Ergebnis eines jeden Zeitschrittes in die Berechnung des nächsten Zeitschrittes eingeht. In solchen Modellen neigen die Fehler dazu, sich zu akkumulieren, so dass sie sehr leicht außer Kontrolle geraten … und Klimamodelle sind durch die Bank iterative Modelle. Die folgende Graphik zeigt eine große Anzahl von Modellläufen eines iterativen Klimamodells:

Abbildung 1: 2017 Läufe eines Klimamodells von climateprediction.net

Abbildung 1b (unten) zeigt die Temperaturänderung. Man beachte, wie während der „Kontrollphase“, wenn es keine Änderung der Eingangsgrößen gibt, selbst ein kleiner kontinuierlicher Temperaturrückgang dazu führen kann, dass das Modell vom Boden des Graphen bis zur „Schneeball-Erde“ hinunterspringt, wie es die Kontrollphase der modellierten Temperatur in Abbildung 1a (oben) zeigt.

Also bin ich so argwöhnisch wie es nur geht hinsichtlich sämtlicher moderner iterativer Klimamodelle. Sie sind alle frisiert, um zur Vergangenheit zu passen … aber in allen davon sind die Klima-Sensitivitäten unterschiedlich. Wie kann das sein? Nun … es kann nicht sein. Es bedeutet, dass sie sich das nur ausdenken. Ich habe dieses Problem bereits hier beschrieben, und es ist ein großes Problem.

Als Nächstes möchte ich eine Kehrtwende vollziehen, um die Grundlage für eine Übersicht über Änderungen des Klimas in jüngerer Zeit zu bilden. Damals im Mittelalter, etwa im Zeitraum 1300 bis 1500 oder so, war es genauso warm oder sogar wärmer als heute. Aber dann im 17. Jahrhundert kühlte sich die Erde ab und trat in die „Kleine Eiszeit“ ein. Das war eine schwierige Zeit für Pflanzen, Tiere und uns Menschen gleichermaßen. Kürzere Wachstumszeiten, zugefrorene Flüsse und Häfen, Missernten.

Warum war es im Mittelalter so warm? Wir wissen es nicht. Warum gab es so relativ plötzlich den Übergang in die Kleine Eiszeit? Wir wissen es nicht. Warum kam die Abkühlung um das Jahr 1600 und nicht 1400 oder 1800? Wir wissen es nicht.

Nach einem sehr kalten Jahrhundert begann die Temperatur wieder zu steigen. Und seit etwa dem Jahr 1750 oder so setzte sich dieser Anstieg mit Unterbrechungen fort, etwa mit einem halben Grad pro Jahrhundert während der letzten zwei Jahrhunderte.

Warum wurde es nach der Kleinen Eiszeit nicht noch kälter? Wir wissen es nicht. Warum begann es nach der Kleinen Eiszeit wieder wärmer zu werden, anstatt dass die Temperatur auf dem niedrigen Niveau verharrte? Wir wissen es nicht. Warum begann es um das Jahr 1700 wärmer zu werden und nicht erst 1900? Wir wissen es nicht. Warum kam es zu der langsamen Erwärmung seit der Kleinen Eiszeit? Wir wissen es nicht.

Wie man sieht – obwohl wir viel über das Klima wissen … wissen wir aber auch NICHT viel über das Klima.

In jedem Falle, hiermit als Prolog folgt hier eine Kurzversion seiner „falsifizierbaren Wissenschaft“ aus seinem Tweet.

Wir entwickeln Theorien.

1) Strahlungstransport (z. B. Manabe and Wetherald, 1967)

2) Energiebilanz-Modelle (Budyko 1961 und viele nachfolgende Studien)

3) GCMs (Phillips 1956, Hansen et al 1983, CMIP etc.)

Wir geben falsifizierbare Prognosen aus. Hier sind einige davon:

1967: Zunehmendes CO2 wird zur Abkühlung der Stratosphäre führen

1981: Zunehmendes CO2 wird Erwärmung an der Erdoberfläche verursachen, die bis zu den 1990er Jahren messbar sein wird.

1988: Erwärmung durch zunehmende Treibhausgase wird den ozeanischen Wärmegehalt zunehmen lassen.

1991: Der Ausbruch des Pinatubo wird etwa 2 bis 3 Jahre Abkühlung bringen.

2001: Zunehmende Treibhausgase werden in Weltraum-Spektren erkennbar

2004: Zunehmende Treibhausgase werden zu einer fortgesetzten Erwärmung um ~0,18°C pro Dekade führen

Wir überprüfen die Prognosen:

Abkühlung der Stratosphäre?

Erkennbare Erwärmung? ✅

Zunahme des ozeanischen Wärmegehaltes? ✅

Abkühlung im Zusammenhang mit dem Pinatubo-Ausbruch? ✅

Weltraum-basierte Änderungen der IR-Absorption? ✅

Erwärmung nach dem Jahr 2004?

Beginnen möchte ich damit, darauf hinzuweisen, dass er drei sehr separate und unterschiedliche Theorien aufbläht:

● Theorie 1: Zunehmendes CO2 lässt die atmosphärische Absorption zunehmen, was die Temperatur insgesamt der verschiedenen atmosphärischen Schichten beeinflusst und die nach unten gerichtete so genannte „Treibhaus“-Strahlung zunehmen lässt.

● Theorie 2: Kurzfristig ändert eine große Änderung der abwärts gerichteten Strahlung die Temperatur am Erdboden.

● Theorie 3: Langfristig führen geringe fortschreitende Zunahmen der abwärts gerichteten Strahlung zu korrespondierenden geringen Steigerungen der globalen Temperatur in den bodennahen Luftschichten.

Und hier die Einwände: Ich denke, dass die ersten beiden zutreffend sind (mit Schwachpunkten), aber wir haben praktisch keinerlei Belege, ob die dritte wahr oder falsch ist.

Gehen wir also durch seine sechs Wege der Beweisführung; betrachten wir, von welche Theorie er gerade redet und sehen wir, ob diese Beweisführung einer kritischen Überprüfung standhält.

a) Zunehmendes CO2 wird zur Abkühlung der Stratosphäre führen. Dies soll offensichtlich Theorie 1 stützen. Der Verlauf der Temperatur in der Stratosphäre, ermittelt durch Mikrowellen-Sensoren an Bord von Satelliten, sieht so aus:

Abbildung 2: Globale Temperatur in der Stratosphäre, gemessen aus dem Weltall.

Wie man sieht, ist es zwar in der Stratosphäre tatsächlich kälter geworden, aber diese Abkühlung war ziemlich komplex. Die zwei Spitzen sind den in der Graphik markierten Vulkanausbrüchen geschuldet. Nach jedem davon ist es in der Stratosphäre etwa fünf Jahre lang wärmer geworden. Jedes Mal scheint sie sich auf einer niedrigeren Temperatur stabilisiert zu haben. Es gab einen geringen Rückgang seit der zweiten Eruption.Vielleicht kann man diese Änderungen Theorie 1 zuschreiben, obwohl das alles andere als klar ist.

b) Zunehmendes CO2 wird an der Erdoberfläche Erwärmung bringen, die bis zu den 1990er Jahren messbar sein wird. Das soll ein Beleg für Theorie 3 sein. Das ist zwar so, jedoch ist die Temperatur seit mehreren hundert Jahren gestiegen. Glaubt man nicht, dass es in der Kleinen Eiszeit schon SUVs gab, ist dies kein Beweis für die CO2-Temperatur-Theorie.

c) Erwärmung durch zunehmende Treibhausgase wird den ozeanischen Wärmegehalt OHC zunehmen lassen. Das Gleiche wie unter Punkt b) und der gleiche Einwand. Das soll Theorie 3 stützen, aber in einer sich erwärmenden Welt ist ein sich erwärmender Ozean für überhaupt nichts beweiskräftig.

d) Der Ausbruch des Pinatubo wird ~2 bis 3 Jahre Abkühlung bringen. Das soll Theorie 2 belegen … aber die Temperatur steigt auch nach Sonnenaufgang. Wir wissen, dass starke vorübergehende Änderungen der abwärts gerichteten Strahlung (in der Klimawissenschaft „forcing“ genannt) zu Änderungen der Temperatur in den bodennahen Luftschichten führen.

Allerdings waren die Modelle nicht gerade gut bei der Prognose des Ausmaßes der Abkühlung. Hier folgen einige Ergebnisse, die ich bereits vor zehn Jahren angesprochen habe:

Abbildung 3: Vergleich jährlicher Prognosen mit jährlichen Beobachtungen. Die Graphik oben ist Abbildung 2(b) aus der GISS-Prognosestudie, darunter ist meine Nachbildung aus digitalisierten Daten. Man beachte, dass sich vor dem Jahr 1977 die neue Version der GISS-Temperaturdaten von der Version 1992 unterscheidet. Ich habe eine Anomalie von 1990 = 0,35 in den neuen GISS-Daten angebracht, um zu der alten GISS-Version zu Beginn des Prognosezeitraumes zu passen. Alle anderen Daten entsprechen der Original-GISS-Prognose. Die Pinatubo-Prognose (blaue Linie) ist ein jährliches Mittel ihrer in ihrer Abbildung 3 dargestellten monatlichen Ergebnisse.

Man beachte, dass das Hansen/Schmidt GISS-Modell eine mehr als doppelt so starke Pinatubo-Abkühlung prophezeit hat als in der Realität tatsächlich eingetreten. Es wurde auch prognostiziert, dass die Abkühlung länger dauern sollte als es tatsächlich der Fall war. Ich komme gleich noch einmal hierauf zurück, aber für den Moment wollen wir festhalten, dass Theorie 2 zutreffend ist – kurzfristige Änderungen des Antriebs, erfolgen diese nun täglich, monatlich oder durch Vulkane, ändern in der Tat die Temperatur.

e) Zunahme von Treibhausgasen wird in Weltall-basierten Spektren erkennbar sein. Mit mehr Treibhausgasen in der Atmosphäre kann man erwarten, dass mehr IR-Strahlung absorbiert wird. Wir haben dies auf vielfältige Weise gemessen. Dies ist ein Beleg für Theorie 1.

f) Zunehmende Treibhausgase werden zu einer fortgesetzten Erwärmung von ~0,18°C pro Dekade führen. Das soll Theorie 3 stützen. Allerdings findet die Erwärmung bereits seit zwei oder mehr Jahrhunderten statt, und diese Prognose aus dem Jahr 2004 ist nichts weiter als eine Fortsetzung der dreißig Jahre Erwärmung zuvor. Noch einmal: die Tatsache einer nach wie vor stattfindenden Erwärmung ist kein Beweis für irgendetwas.

Zusammenfassung

Die Theorien 1 und 2 sind eindeutig zutreffend und durch eine Reihe von Belegen gestützt. Drei seiner sechs Punkte stützen diese beiden Theorien.

Die anderen drei Beweispunkte sagen, dass nach über zwei Jahrhunderten einer allmählichen Erwärmung … sich die Erwärmung fortsetzt. Das sagt genau gar nichts über Theorie 3.

Und das ist auch das ungelöste Problem mit der CO2-Theorie … es sind wirklich drei sehr unterschiedliche Theorien, zusammengeschustert zu einer Theorie. Während zwei dieser Theorien eindeutig zutreffen, gibt es kaum Belege für das dritte Standbein des Stuhls. Und kein Stuhl kann mit nur zwei Beinen stehen bleiben.

Gavin schließt seine Twitterfolge hiermit:

Wir können auch die überprüfbaren, falsifizierbaren überprüften Theorien betrachten, die sich als falsch herausgestellt haben.

Solarer Antrieb? Scheitert am Test einer stratosphärischen Abkühlung

Änderung der ozeanischen Zirkulation? Keine Zunahme des OHC

Orbitaler Antrieb? Scheitert auf multiplen Ebenen

Falls man eine Theorie hat, von der man nicht glaubt, dass sie falsifiziert worden ist, oder falls man glaubt, die Mainstream-Folgerungen falsifizieren zu können – wunderbar! Das können wir auch überprüfen. (Aber viele Leute haben das bereits versucht, so dass es hierzu demnächst eine Antwort geben könnte).

Tatsächlich ist es noch etwas schwieriger. Nicht nur, dass man eine Theorie finden muss, die genauso gut ist wie die derzeit bestehende Theorie, sondern auch, dass man zeigen muss, warum die bestehende Theorie nicht angewendet werden kann.

Nun, ich habe in der Tat eine Theorie. Ich habe auch einen Haufen Beweise für dieselbe. Aber ich bin kein Klimaskeptiker – ich bin ein Klima-Häretiker; jemand, der deren grundlegende Behauptung leugnet, der zufolge Änderungen der Temperatur einfach eine einfache lineare Funktion von Änderungen des Antriebs sind.

Man ist daran interessiert herauszufinden, warum sich die Temperatur des Planeten mit der Zeit ändert. Das ist das Zentrum der modernen Klimawissenschaft. Meine Theorie andererseits fußt auf einer total anderen Frage bzgl. Klima – warum ist die Temperatur so stabil? Zum Beispiel variierte die Temperatur über das 20. Jahrhundert nur um ±0,3°C. In der gigantischen Wärmemaschine, die das Klima nun einmal ist, die fortwährend die Sonnenenergie nutzt, um Ozeane und Atmosphäre zirkulieren zu lassen, macht diese Variation gerade mal 0,1% aus … für jemanden, der es schon mit vielen Wärmemaschinen zu tun hatte, ist das eine erstaunliche Stabilität. Das System wird durch nichts weiter gesteuert als durch Wellen, Wind und Wasser. Meine Frage lautet also nicht, warum sich das Klima so ändert wie es das tut.

Meine Frage lautet: Warum ist das Klima so stabil?

Und meine Antwort lautet, dass es eine ganze Palette dessen gibt, was „auftauchende Phänomene“ sind, die auftauchen, wenn lokale Temperaturen über eine bestimmte lokale Schwelle steigen. Darunter fällt auch Timing und Menge der sich in den Tropen entwickelnden Kumulusbewölkung, die Bildung von Gewittern, das Auftreten von Staubteufelchen, wenn es zu heiß wird, die Art und Weise, wie El Nino/La Nina warmes Wasser in Richtung der Pole pumpen sowie verschiedene „Oszillationen“ wie etwa die Pazifisch-Dekadische Oszillation PDO.

Diese Phänomene tauchen aus dem Nichts auf, dauern eine Weile und verschwinden dann wieder vollständig. Und im Zusammenwirken arbeiten diese Phänomene daran zu verhindern, dass sich die Erde überhitzt oder zu stark abkühlt. Wie oben schon erwähnt sage ich, dass diese Phänomene auf Länge und Stärke der Folgen des Pinatubo-Ausbruches ihren Einfluss ausübten.

Ursprünglich veröffentlichte ich diese Theorie im Journal Energy and Environment. Dem folgte ein Beitrag mit den gleichen Gedanken hier bei WUWT in einem Beitrag mit dem Titel The Thermostat Hypothesis.

Ich habe diese Mission mit der Abfassung einer Anzahl von Beiträgen während der letzten 20 Jahre fortgesetzt, wobei ich beobachtete Belege der Theorie hinzugefügt und deren Verzweigungen erkundet habe. Darunter sind Beiträge mit der Überschrift „Emergent Climate Phenomena“, in welchem beschrieben wird, was Auftauchen bedeutet und warum das so wichtig ist; „The Details Are In The Devil“, in welchem erklärt wird, warum eine Analyse nach Art von „Klimasensitivität“ in einem thermostatisch kontrollierten System nicht funktioniert; „Watching Thunderstorms Chase The Heat“ worin beschrieben wird, wie Gewitter agieren, um die warmen Gebiete der tropischen Ozeane zu kühlen; und zuletzt „Drying The Sky“, wo die Evolution verschiedener Phasen im tropischen thermischen Regulierungssystem diskutiert wird.

Alles in allem habe ich rund 40 Artikel geschrieben, in welchen es darum ging, mittels dieser Theorie zu erklären, wie das Klima funktioniert. Einen Index zu einer Anzahl davon gibt es hier. Andere Beiträge aus jüngerer Zeit von mir stehen hier.

Nun fürchte ich, dass im Klima-Establishment kaum Interesse an meiner Theorie besteht, weil man dort nach Schlagzeilen Ausschau hält wie THERMAGEDDON! KLIMA-NOTSTAND! In meiner Theorie gibt es dafür keinen Raum, vielmehr ist eigentlich das Gegenteil der Fall. Meiner Theorie zufolge ist die zukünftige Erwärmung langsam und gering. Folglich bin ich von den Mächtigen ausgegrenzt, wie es bei allen guten Häretikern der Fall ist.

Abschließend möchte ich noch sagen, dass ich keinerlei akademische Qualifikationen vorweisen kann. Physik und Chemie auf dem College – das war’s.

Seitdem jedoch habe ich mich selbst hinsichtlich vieler Themen weitergebildet. Neben vielem Anderen habe ich dafür Abertausende Stunden zugebracht, alles über Klima zu erfahren … ohne auch nur ein einziges Zertifikat an meiner Wand hängen zu haben.

Link: https://wattsupwiththat.com/2020/01/18/gavins-falsifiable-science/

Übersetzt von Chris Frey EIKE




Während NOAA/NASA behaupten, 2019 sei das „zweitwärmste Jahr jemals“ gewesen, …

Deren Präsentation, die das angeblich belegen soll, steht hier (PDF).

Meiner Ansicht nach ist die Presseerklärung von NOAA/NASA (nebst deren Diashow) inkonsistent. So können sie sich nicht einmal auf einen allgemeinen Referenz-Zeitraum für Vergleiche einigen. Einige Graphiken beziehen sich auf die Periode 1951 bis 1980, andere auf den Zeitraum 1981 bis 2010, um Anomalie-Plots zu erstellen. NOAA und NASA sind es der Öffentlichkeit schuldig, Klimadaten mit einem konsistenten Basiszeitraum zu präsentieren, widrigenfalls es sich nur um schlampige Wissenschaft handelt. NASA GISS hat sich permanent geweigert, den Basiszeitraum 1951 bis 1980 zu aktualisieren, wie es die NOAA getan hat, nämlich auf den Zeitraum 1981 bis 2010. Stur wie ein Panzer lehnt GISS eine solche Aktualisierung ab, obwohl sie wiederholt darob verurteilt worden ist.

Jener Zeitraum von 1951 bis 1980 war rein zufällig der kühlste Zeitraum im 20. Jahrhundert. Zieht man diesen Zeitraum also als Referenzperiode heran, kommt in den NASA GISS-Plots eine deutlich vergrößerte Erwärmung heraus. Die meisten Laien werden dem niemals auf die Schliche kommen. Ein einfacher Vergleich der beiden Graphiken zeigt die Differenz in den Spitzenwerten:

Quelle: NASA GISS

Quelle: NOAA NCEI

Die Differenz zwischen den beiden Analysen beträgt bei NOAA 0,95°C und bei NASA GISS 0,98°C.

Dabei wird zwischen einigen Jahren überhaupt nicht separiert:

Man fragt sich, ob NOAA/NASA die Temperatur der Erde überhaupt auf ein Hundertstel Grad genau messen kann. Meiner Erfahrung nach ist das nicht der Fall.

Damit man mich nicht der Haarspalterei beschuldigt, behalte man im Gedächtnis, dass während des letzten Dekaden-Übergangs die NASA Folgendes zum Jahr 2009 und zur Dekade 2000 bis 2009 gesagt hatte:

NASA-Forschung: letzte Dekade war die wärmste jemals, 2009 eines der wärmsten Jahre

Das vergangene Jahr war um einen Bruchteil eines Grades kühler als 2005, dem wärmsten Jahr jemals, mit dem Jahr 2009 gleich einer Anzahl anderer Jahre – 1998, 2002, 2003, 2006 und 2007 – als dem zweitwärmsten Jahr.

Während der letzten drei Jahrzehnte zeigt die Temperaturaufzeichnung des GISS einen Aufwärtstrend von 0,2°C pro Dekade. Insgesamt sind die Temperaturen seit dem Jahr 1880 um etwa 0,8°C gestiegen.

Das ist eine wichtige Zahl, die man sich merken muss“, sagt der GISS-Klimatologe Gavin Schmidt. „Die Differenz zwischen dem zweit- und dem sechstwärmsten Jahr ist trivial, weil die bekannte Unsicherheit bei Temperaturmessungen größer ist als einige der Differenzen zwischen den wärmsten Jahren“.

Quelle: https://www.nasa.gov/home/hqnews/2010/jan/HQ_10-017_Warmest_temps.html

Aha! Geringe Bruchteile von einem Grad spielen keine Rolle, wenn es darum geht, Behauptungen bzgl. Klima aufzustellen.

Aber in diesem Jahr sagt Dr. Schmidt:

Im Jahre 2015 wurde die 1-Grad-Celsius-Marke überschritten, und es sieht nicht so aus, als würde es wieder zurückgehen. Das zeigt, dass das, was vor sich geht, persistent ist und nicht eine Schwankung aufgrund irgendwelcher Wetterphänomene: wir wissen dass die langzeitlichen Trends getrieben werden von den zunehmenden Treibhausgasen in der Atmosphäre“.

Quelle: https://www.nasa.gov/press-release/nasa-noaa-analyses-reveal-2019-second-warmest-year-on-record

So viel bzgl. der Bedenken hinsichtlich „Unsicherheit“ und „trivialer“ Differenzen der Temperatur. Interessanterweise wissen die meisten Menschen das zwar nicht, aber NASA GISS ist keine wahrhaft unabhängige Analyse. Man zieht GHCN-Daten hera, die von NOAA NCEI aufbereitet worden waren. NASA GISS verwendet die gleichen Daten, doch kommen die Daten dort auf magische Weise etwas wärmer heraus, was es ihnen gestattet, diese Art Behauptungen Jahr für Jahr aufzustellen hinsichtlich des „wärmsten Jahres jemals“.

Da wir nun schon mal beim Thema Datensätze und geringe Temperaturdifferenzen sind, folgen hier ein paar unbequeme Daten, von denen niemals die Rede ist.

Das US Climate Reference Network (USCRN) verfügt über die qualitativ besten Daten des Planeten, aber dennoch werden diese Daten niemals in den NOAA/NASA-Presseerklärungen angeführt. Entsprechend im Jahre 2005 beauftragt hält man dort die genauesten, unverzerrten und nicht adjustierten Daten jedweder Klima-Datensätze.

Das USCRN weist keinerlei Verzerrungen auf, und es besteht kein Bedarf an Adjustierungen, was diesen Datensatz meiner Ansicht nach zur Grundwahrheit bzgl. Klimawandel macht.

In der folgenden Graphik aus den zusammenhängenden 48 US-Staaten [US48], aktualisiert bis zum Jahr 2019, zeigt sich, dass das Jahr 2019 um etwa 0,42°C kühler war als das Anfangsjahr des Datensatzes 2005:

Quelle: NOAA’s live online data plotter

Obige Daten sind nicht von mir geplottet und auch in keiner Weise adjustiert worden. Es sind zu 100% NOAA-Daten, und die Tatsache, dass das Jahr 2019 in den US48 kühler war als das Jahr 2005 ist unbestreitbar. Die zwei großen Spitzen hängen mit El Nino-Ereignissen zusammen, welche nicht nur die USA, sondern die ganze Welt erwärmt haben.

Nun sind die USA nicht die ganze Welt, und der Datensatz ist kürzer als die geforderten 30 Jahre bzgl. Klimadaten. Das aus der Graphik hervorgehende Fehlen jeder Erwärmung in den US48 seit 2005 zeigt, dass die von der NOAA und der NASA verwendeten Daten des antiquierten Global Historical Climate Network (GHCN) Warm-Verzerrungen aufweisen infolge Verstädterung und Adjustierungen der Daten. Das habe ich schon in einer früheren Arbeit von mir hier beschrieben.

Man stelle sich vor, es gäbe auf der ganzen Welt ein so hoch qualitatives und modernes Temperatur-Aufzeichnungsnetzwerk wie in den USA. Streit bzgl. Datenqualität, Adjustierungen, UHI, Zeit der Messung sowie vieler anderer Kleinigkeiten, welche die Daten beeinflussen und verzerren, würde verschwinden.

Aber noch etwas anderes ist hier interessant. Sämtliche Temperaturgraphiken, um den Klimawandel zu belegen, sind sehr stark vergrößert. Damit sollen Variationen von einem Grad oder weniger deutlich hervortreten. Unglücklicherweise ängstigen diese Vergrößerungen die Bevölkerung oftmals, wird doch damit bei ihr der Eindruck erweckt, es handele sich um „massive“ Temperaturanstiege.

Glücklicherweise gestattet der NOAA-Online-Plotter die Adjustierung der vertikalen Achse, und wenn man diese bzgl. Klimadaten so adjustiert, dass sie zum menschlichen Temperaturempfinden passen, sieht alles schon viel weniger alarmierend aus.

Hier folgen einige Vorher-Nachher-Beispiele, wobei die „Nachher“-Plots der menschlichen Erfahrung bzgl. Temperatur angepasst sind, die typischerweise von -18°C bis 38°C reicht. Die Null-Linie in diesem Anomalie-Plots geht von einer mittleren globalen Temperatur von 14,7°C aus:

US Climate Reference Network:

Contiguous USA Climate Divisions (GHCN/COOP) Network (old style weather stations):

Quelle: NOAA online data plotter

NASA GISS for the world (Land and ocean temperature):

Quelle: NASA 2020 Press release

Auf einmal sieht der „Klimawandel“ viel weniger ängstigend aus, wenn man die Temperaturänderung in der Größenordnung der menschlichen Erfahrung darstellt.

Aktualisierung

Für all jene, die nach einer Replikation fragen, folgen hier die USCRN-Daten von 2005 bis 2019, unabhängig zusammengestellt in einer Präsentation über die kontinentalen 48 US-Staaten (CONUS), aber mit einer anderen Referenzperiode. Das hat Dr. Mark Albright von der University of Washington getan und mir per E-Mail zugesandt.

Quelle: https://atmos.uw.edu/marka/crn.2016/usa48/usa48.crn.2005-2019.png

Dr. Albright schreibt:

Ich bezog mich auf den Referenzzeitraum 2002* bis 2018, um „normale“ oder klimatologische Werte an jedem CRN-Messpunkt zu bestimmen. Ich habe nicht versucht, diese auf 1981 bis 2010 zu adjustieren. Ich glaube, dass NCEI diese Art der Adjustierung bei den CRN-Daten vornimmt. Ich habe Adjustierungen so gering wie möglich gehalten, was ziemlich identisch ist mit gar keinen Adjustierungen.

*Das Anfangsjahr variiert eigentlich von 2002 bis 2008, abhängig davon, wann der Messpunkt eingerichtet worden ist.

Übrigens, am 3. Januar 2020 plottete ich auch die Daten aus Kalifornien im Zeitraum 2009 bis 2019. Man kann den großen Temperaturrückgang seit 2014 erkennen (hier).

Und an der Pazifikküste [Pacific Northwest] zeigt sich ein starker Rückgang seit dem Temperatur-Spitzenwert des Jahres 2015 (hier).

Am interessantesten ist hier zu beachten, dass wegen der unterschiedlichen Referenz-Zeiträume und des anderen Verfahrens von Albright die Spitzenwerte niedriger sind als die Spitzen in der NOAA USCRN-Graphik.

Beispiel: Das Jahr 2012

Der Spitzenwert [der Abweichung] bei NOAA beträgt 1,4°C, bei Albright 0,9°C.

Die Wahl von Referenzzeiträumen und die Verfahren zur Erzeugung derselben spielt eine Rolle, vor allem wenn es um ein einzelnes Jahr geht, welches das „heißeste jemals“ gewesen sein soll. Wenn eine Anomaliedaten präsentierende Gruppe ihre eigene Referenzperiode nebst des Verfahrens zur Erstellung derselben wählt, können sie essentiell die Spitzen-Amplitude größer oder kleiner machen.

Link: https://wattsupwiththat.com/2020/01/15/while-noaa-nasa-claims-2019-as-the-second-warmest-year-ever-other-data-shows-2019-cooler-than-2005-for-usa/

Übersetzt von Chris Frey EIKE




Frist läuft am 31.1.20 ab! Klimafragen – bitte noch unterzeichnen.

Wenn es Wissenschaft ist, gibt es keinen Konsens. Wenn es Konsens gibt, ist es keine Wissenschaft.(Michael Crichton)

Worum geht’s?

Aufgrund eines behaupteten Klimanotstandes sollen neue Gesetze erlassen werden. Diese schreiben uns unsere Art zu leben vor, haben nachteilige Umweltfolgen und können zur Deindustrialisierung Deutschlands führen. Das bedeutet den Verlust von Wohlstand und sozialer Sicherheit.

Regierung und Parlament veranlassen somit gezielt eine Senkung des Lebensstandards und gefährden damit Arbeitsplätze, Alterssicherung und soziale Hilfen in Notfällen. Dann sollten unsere gewählten Vertreter zumindest nachweisen, dass sie den zugrunde liegenden Sachverhalt vollständig verstehen und die Konsequenzen durchdacht haben.

Wir stellen daher sechzehn Klimafragen an die Abgeordneten des Deutschen Bundestages.

https://www.klimafragen.org/#about

 

Sechzehn Klimafragen
an die Abgeordneten des Deutschen Bundestages

Sehr geehrte Damen und Herren Volksvertreter,

aufgrund eines behaupteten Klimanotstandes wurden von Ihnen verschiedene Gesetze erlassen, deren Verfassungsmäßigkeit umstritten ist. Dabei soll es nicht bleiben. Die Bürger sollen unter anderem auf Flugreisen, auf Kreuzfahrten, auf das Autofahren oder auf fleischhaltige Ernährung verzichten oder all dies signifikant einschränken. Industriezweige von erheblicher volkswirtschaftlicher Bedeutung wie die Automobilherstellung, die Energieerzeugung und die Landwirtschaft sollen radikal umgestaltet werden. Die Folgen werden in vielen Bereichen unumkehrbar sein, mindestens sind sie unkalkulierbar.

Wir haben uns formlos zusammengeschlossen, um als Bürger Fragen zu stellen. Wir möchten die Rationalität anstehender politischer Entscheidungen nachvollziehen können. Wir legen dabei die Maßstäbe an, mit denen wir in unseren Berufen seit Jahrzehnten tagtäglich und sorgfältig arbeiten. Wir selbst fragen hier parteiunabhängig. Wir kommen aus den verschiedensten Berufen und verfügen über unterschiedlichstes Fachwissen. Wir betrachten uns als Teil der kritisch-konstruktiven Zivilgesellschaft. Globale Herausforderungen betreffen alle. Deswegen müssen auch alle an ihrer Bewältigung angemessen mitwirken können.

Ausgehend von der Annahme, eine menschengemachte Klimaerwärmung sei erwiesen und menschliches Reaktionshandeln darauf geboten, muss – vernunftgeleitet – erörtert werden: Welche Folgen ergeben sich aus dieser Erkenntnis und mit welchen möglichen Maßnahmen kann einer schädlichen Klimaerwärmung mit Aussicht auf Erfolg entgegengewirkt werden? Weiter muss abgewogen werden, ob die vorgeschlagenen Maßnahmen in Summe mehr nutzen als schaden. Der einschneidende Umbau der wesentlichen Strukturen eines ganzen Landes kann nur insoweit gerechtfertigt sein, als alle diese Fragenkomplexe eindeutig beantwortet sind. Alles andere verbietet sich schon aus ethisch-moralischen Gründen, denn zu viele Existenzen hängen daran. Gerade im Sinne des Vorsorgeprinzips dürfen funktionierende Strukturen nicht für Ungewisses geopfert werden.

Dies ist keine Petition. Wir sind Teil des Souveräns. Sie sind diejenigen, die von uns gewählt und bezahlt werden. Und Sie schicken sich derzeit an, wesentliche Inhalte unseres Gesellschaftsvertrages abzuändern. Wir halten es daher für angemessen, dass Sie uns fraktionsweise die folgenden Fragen beantworten. Wir werden Ihre Antworten veröffentlichen. Alle Wahlberechtigten sollen Gelegenheit erhalten, sich ein Bild von Ihren Argumenten, von deren Qualität und von Ihren Abwägungsprozessen zu machen.

Mit freundlichen Grüßen

Die Erstunterzeichner und 56 wahlberechtigte Unterstützer

A. Vorhersagen über Klimaentwicklung

Der „UN-Weltklimarat“ IPCC konstatierte in seinem dritten Report von 2001: „In Sachen Klimaforschung und -modellierung sollten wir anerkennen, dass es sich dabei um ein gekoppeltes, nicht-lineares, chaotisches System handelt. Deshalb sind längerfristige Vorhersagen über die Klimaentwicklung nicht möglich.“ Tatsächlich wohnt Prognosen der klimatischen Entwicklung, die über einen Zeitraum von mehr als zehn Jahren hinausgreifen, keinerlei Vorhersagekraft mehr inne. Die Klimaforschung behilft sich daher mit Szenarien, die zwar plausibel und in sich widerspruchsfrei sind, denen aber aufgrund ihrer Konstruktion keine Eintrittswahrscheinlichkeiten zugeordnet werden können. Allein der unvermeidbare statistische Fehler bei der Bestimmung des Langwellenstrahlungseffekts der Wolkenbildung in Standard-Klimamodellen ist über hundertmal größer als der Effekt, der nach diesen Modellen vom CO2 verursacht sein soll.

Frage 1: Wie wollen Sie angesichts der geschilderten Umstände die Einhaltung eines bestimmten Klimaziels sicherstellen, wenn doch verlässliches Wissen über zukünftige klimatische Entwicklungen prinzipiell nicht erworben werden kann?

B. Wissenschaftlicher Konsens

C. Gegenstimmen

D. Anstieg des Meeresspiegels

E. Extremereignisse

F. Effektivität

G. Energiewende

H. Anpassung

I. Vorteile der Erwärmung

»Die 16. Klimafragen herunterladen  « 

Über uns

Wir haben uns formlos zusammengeschlossen, um als Bürger Fragen zu stellen. Wir möchten die Rationalität politischer Entscheidungen nachvollziehen können. Das gilt insbesondere für Themen, die alle betreffen und die massiv in unsere Lebensweise eingreifen. Wir legen dabei genau die Maßstäbe an, mit denen wir in unseren Berufen seit Jahrzehnten tagtäglich und sorgfältig arbeiten. Wir fragen parteiunabhängig. Wir kommen aus den verschiedensten Berufen und verfügen über unterschiedlichstes Fachwissen.

Hier können Sie die Seite aufrufen

Hier können Sie unterzeichnen




Halt du sie dumm, ich mach sie arm. Alternativ: Für Kinder nur so (wenig) Wissen vermitteln, dass es zum Wählen der „richtigen“ Partei(en) reicht

Klimawandel-Wissen für Kinder

Wer die Möglichkeit hat, die Kinder zu indoktrinieren, hat die Macht über sie als Erwachsene gewonnen. Das wissen alle Religionen und alle diktatorischen Regime. Seit der „Merkelzeit“, wird es auch in unserem Land umgesetzt, indem allerorten mit Steuergeldern Vereine und Institutionen unterstützt werden, welche für die „richtige“ Bildung der Bürger sorgen.

Ein solcher ist wohl auch die „Klimawissen“-Plattform, welche tatkräftig die Klimaschulung von Schulkindern unterstützt. Laut der Homepage-Info wird der Verein von Schülern und Studenten geleitet, die für Kinder schreiben. Der Vorstand besteht vorwiegend mit Student*innen. Unterstützung bekommt der Verein von verschiedenen Institutionen, unter anderem auch vom Umweltministerium.

Bild 1 Screenshot von der Homepage: Die Unterstützer der „Klimawissen-Plattform“. Mit dabei die Bundesregierung [3]
Wer das Schreiben und Verteilen von Information unterstützt – und die Information sogar anpreist, wie das Umweltministerium in einem Rundbrief [2]-, sollte darauf achten, ob diese Unterstützung auch zu einer gewissen Qualität der Arbeit führt. Anbei eine Sichtung, wie es bei diesem Verein darum steht.

Der Anspruch

Welches Klimawissen vermittelt dieser Verein den Kindern?
Schule Klimawandel: [3] Bildungswerk für Schülervertretung und Schülerbeteiligung e.V.: Schule Klimawandel: Klima-Workshops + Projekte an deiner Schule!
Klimaschutz lernen…
Klimawandel verstehen und Klimaschutz lernen, heißt vor allen Dingen erstmal eins: Fragen stellen, Informationen sammeln, durch komplexe Zusammenhänge steigen und: mehr, gezieltere Fragen stellen.
Einerseits ist es wichtig zu verstehen, was zum Beispiel schmelzende Eiskappen in dem einen Land mit Trinkwassermangel in einem anderen Teil der Erde zu tun haben …
Dem wollen wir an dieser Stelle ein wenig entgegen wirken.: z.B. mit leicht verständlichen Informationen über die wissenschaftlichen
Grundlagen des Klimawandels und mit einem Glossar zu den wichtigsten Begriffen im Nachhaltigkeitskosmos. Mit unseren 10 Klima-Tipps zum Sofort-Loslegen, und mit unseren erprobten Methoden, die jeden Klima-Workshop bereichern können.
Und natürlich mit uns Klima-Botschafter*innen und unseren
Klima-Workshops, aber das haben wir schon mal irgendwo erwähnt

Die Ausführung

Der Verein vermittelt zum Klima ein „Wissen“, bei dem man sofort versteht, warum es vom Umweltministerium gefördert wird und liest sich wie ein Parteiprogramm einer bestimmten Partei. Es beinhaltet und wiederholt kritiklos wirklich alle auch von unserer Politik, ihren Beratern und auch den GRÜNEN dazu verkündeten „Wahrheiten“. Genau genommen ist es eine Indoktrinierung zu einer politischen Ausrichtung:

Schule Klimawandel: Anthropo-hä?
… Da der rasante Anstieg der CO2-Konzentration nicht nur auf natürliche Art und Weise zu erklären ist, haben Forscher*innen nach Ursachen gesucht und herausgefunden, dass der Anstieg der CO2-Konzentration ungefähr mit dem Beginn der Industrialisierung zusammenfällt … Das führt zu einer Verstärkung des Treibhauseffekts. Es wird wärmer…
Wir Menschen sind also verantwortlich für den derzeit hohen CO
2-Anteil in der Atmosphäre und deswegen spricht man vom »Anthropogenen Klimawandel … Der jetzige Klimawandel ist also von Menschen verursacht.
Ursache 03: Politik + Macht
… Warum ist Klimawandel nur am Rande Wahlkampfthema, obwohl er eine der großen Zukunftsherausforderungen wird? Für wen wird hier Politik gemacht und warum sind die Autolobbyisten so häufig zu Besuch bei Frau Merkel oder bei der EU-Kommission? Warum nicht die Kinder und Jugendlichen – die zukünftigen Generationen? ›
Ein Anstieg der Temperatur führt
– zu einer Verschiebung von Klimazonen: Wüsten dehnen sich aus oder ergrünen, Regenfälle bleiben aus oder kommen zu anderen Zeiten, etc.
– zu einem erhöhten
Aufkommen von Wetterextremen: Stürme, Hochwasser, Orkane, Dürren, etc.werden zunehmen …
Es ist ganz klar, dass auch wir Menschen durch den Klimawandel betroffen sein werden. Denn wenn Regen ausbleibt, den der Mais zum Wachsen braucht, ist die ganze Ernte betroffen … So ungleich die Verursachung des Klimawandels ist, so ungerecht sind auch seine Auswirkungen verteilt. Länder im globalen Süden werden weitaus mehr betroffen sein, als wir in Deutschland und andere Industrienationen …

Klimaflucht

Der ansteigende Meeresspiegel und die Zerstörung von Lebensräumen führt schon jetzt dazu, dass Menschen fliehen müssen. Seit 2008 haben bereits über 26 Millionen Menschen wegen Naturkatastrophen ihre Heimat verlassen. Häufig ist das nicht die alleinige Ursache, sondern Verstärker des Elends.
Politik, Konferenzen und Verträge
Die Politik ist jetzt mehr gefragt denn je … Wir brauchen politische Entscheidungen, die eine klimaneutrale Zukunft versprechen.
Klimakonferenzen:
… Klima-Verträge sind nicht rechtlich bindend, sondern stellen lediglich Handlungsempfehlungen dar. Deswegen ist es umso wichtiger, dass »mächtige« und reiche Länder wie zum Beispiel Deutschland Vorbilder in der Umsetzung dieser Verträge sind, damit andere nachziehen …

Das vom Umweltministerium empfohlene Schulungsmaterial

„kaltesonne“ hat schon „vorgesichtet“ und den für Schulen gedachten „Methodenkoffer“ des Vereins betrachtet. Anbei Auszüge daraus:

kaltesonne, 11.01.2020: [2] Klima-Methodenkoffer für die Schule – Warum bleibt die vorindustrielle Klimageschichte Tabu-Thema?
Die Vorlagen-Karten sind jedoch recht dürftig. Bei der Karte „Natürlicher Klimawandel“ heißt es:
Das Klima unterliegt Veränderungen. Dies hat verschiedene Ursachen, vor allem Änderungen in der einfallenden, aufgenommenen und reflektierten Sonneneinstrahlung. Auch Ereignisse wie Meteoriteneinschläge oder Vulkanausbrüche sind natürliche Ursachen für einen.

Keine Mittelalterliche Wärmeperiode, keine Kleine Eiszeit. Mager. Vielleicht ist das Modul „Klima Anno Domini“ ergiebiger?
Bei dieser Methode wird Klimawissen über schon geschehene Ereignisse und Zukunftsprognosen ausgetauscht. Zusätzlich wird die Gruppe zur Diskussion angeregt … .
Das Problem: Der Zeitstrahl beginnt erst in der Kleinen Eiszeit um 1750. Die natürlichen Wärmephasen davor werden verschwiegen. Unbequeme Wahrheiten die den Schülern offenbar verschwiegen werden sollen. Entsprechend schmunzeln muss man beim Namen des nächsten Moduls: Klima Tabu!
Klima-Tabu eignet sich besonders dafür, um Wissen in der Gruppe wieder aufzufrischen und einen spielerischen Einstieg ins Thema zu finden …
Ob das Tabu-Thema Mittelalterliche Wärmeperiode wohl auf den Karten zu finden ist? Leider nein. …

Insgesamt passt der Methodenkoffer gut ins Bild. Er spart alle unbequemen Themen aus, gaukelt den Schülern vor, die Klimavorhersager hätten alles bestens im Griff. Bei dieser Fehldarstellung muss man sich nicht wundern, wenn indoktrinierte Schüler scharenweise zu den Freitagsdemos laufen.

Klimatipps, die „Weitblick“ vermitteln sollen

Schule Klimawandel: [3] Let´s get change started

Bild 4 Die „Klimatipps“ des Vereins

Von diesen „Tipps“ soll nur einer näher betrachtet werden: „07 Weniger Fleisch für wenige, weniger Hunger für viele
Es ist den selbsternannten Umweltschützern schon längst ein dicker Dorn im Auge, dass sich auch der gemeine Pöbel Fleisch leisten kann. Das war über viele hunderte von Jahren ein Privileg der „Besseren“. Nicht nur, weil „das gemeine Volk“ sie es sich damals selten leisten konnten, sondern auch, weil es in bestimmten Gegenden verboten war (Fleisch musste an den Gutsherrn und Kloster abgeliefert werden, erlaubt waren nur die Innereien und das auch nur außerhalb der vielen Zwangs-Fastenzeiten).

Einfach wieder verbieten, geht zur Zeit (noch) nicht, aber verteuern wird gelingen und in der Vorstufe kann man es gesellschaftlich schon „madig“ machen.
Dazu ist (wie beim Klimawandel) jeder Unsinn recht. Er muss nur grauselig genug klingen. Logisch muss er auch nicht sein, denn es soll ja nicht Denken geschult werden. Warum wären Rodungen für Gemüse-Anbauflächen, die man alternativ anstelle der Rinderweiden-Flächen benötigt, nicht waldvernichtend? Und dass es viele Gegenden auf der Erde gibt, in denen Gras wesentlich ertragreicher und problemloser als Gemüse wächst, kommt dazu:

Schule Klimawandel: [3] Klima-Tipps mit Weitblick

Bild 5 „Klimatipps“ des Vereins, Auszug

Diese Angabe zum Wasserverbrauch von Nutztierhaltung ist im Umlauf und wird regelmäßig „argumentiert“. Welcher Schwachsinn in Wirklichkeit dahinter steckt, hat ein Blog bereits herausgefiltert. Deshalb Auszüge daraus:

Ein Rind verbraucht ca. 7,5 Millionen Liter (oder 7.500 Kubikmeter) Wasser

[4] ... Jedes Kilo Rindfleisch, so lese ich in den Schriften der Umweltverbände, verbraucht 15.000 Liter – und im südlichen Afrika verdurstet das Vieh. Es ist ja alles so furchtbar.
… Prüfen wir doch mal die Berechnung … – klingt logisch, ist aber Unsinn.

Als Wiederkäuer frisst ein Rind vor allem Raufutter … Damit Gras, Mais und Futtergerste auf den Äckern und Weiden gedeihen, muss es natürlich erst mal regnen. Sobald der Regen auf Wiesen, Weiden und Äcker fällt, wird er in der Sprache der Ökopropaganda „verbraucht“. Und schon fließen ganze Sturzbäche in die Statistik ein. Der Regen fällt auch dann, wenn da nichts wächst. Das Wasser ist nicht einfach weg – sondern weiter im Naturkreislauf.
… Ein Bulle liefert etwa 500 Kilo. Mit je 15.000 Liter Wasser multipliziert, ergibt das aberwitzige siebeneinhalb Millionen Liter pro Tier … Und dabei fehlt immer noch bei den weiblichen Tieren der Verbrauch für die viele Milch, die sie jeden Tag liefern. Die Kuh – ein Fass ohne Boden. Doch die Umweltorganisationen künden auch Erfreuliches: Mit dem Wasser für ein Kilo Rindergoulasch oder für zwei Paar Schuhe ließe sich ein kompletter Kleinwagen fertigen. Alle diese „Zahlen“ der Umweltschützer gehen auf keine Kuhhaut.
… Immer wieder. Es löst sich kein Wasser in Nichts auf. Und es wird auch nicht verbraucht wie Erdöl, Teddybären oder Klopapier. Die Fähigkeit, Wasser zu klären und aufzubereiten ist eine der größten technischen Errungenschaften der Menschheit. Wasser kann sooft recycelt werden, wie man will. Ohne diese Technik gäbe es keine moderne Zivilisation.

Doch die Deutschen sparen Wasser. Wie zum Hohn steigt im Sommer der Mief aus den Kanaldeckeln, weil die Abwasserkanäle nicht mehr richtig gespült werden. Nun pumpen die Stadtwerke frisches Wasser hinein. Allein in Berlin rauschen an manchen Tagen bis zu einer halben Million – nicht Liter – einer halben Million Kubikmeter frisches, sauberes Wasser durch die Kanalisation. Es stinkt zum Himmel!
Mahlzeit!

Nach dieser „Berechnung“ benötigt auch Gemüse nicht viel weniger Wasser. Denn auch auf Gemüseflächen regnet es und teils muss man sie zusätzlich „tränken“, also gießen. Die „Qualität“ dieser Schulungen erinnert an die, welche das Umweltministerium selbst verbreitet:
EIKE 17. November 2017: [5] Der Train to Bonn ist angekommen – Abschlussinformation

Kein Wunder, dass es keine Probleme damit hat, wenn es ihr andere gleichtun.

Quellen

[1] Schule Klimawandel: Methodenkoffer

[2] kaltesonne, 11.01.2020: Klima-Methodenkoffer für die Schule – Warum bleibt die vorindustrielle Klimageschichte Tabu-Thema?

[3] Schule Klimawandel: Klima-Workshops + Projekte an deiner Schule!

[4] Deutschlandfunk Kultur, Beitrag vom 02.03.2013: Wasserverbrauch für Rindfleisch Propaganda mit Rechenfehler

[5] EIKE 17. November 2017: Der Train to Bonn ist angekommen – Abschlussinformation




Harald Lesch 2001 gegen Harald Lesch 2015 – wer gewinnt?

Der in München lehrende Physiker Harald Lesch ist seit 1998 beim Öffentlich-Rechtlichen (ÖR) Fernsehen tätig und wurde zunächst in der interessanten Sendung α-Centauri im Bayerischen Rundfunk BR als Erklärer komplizierter Sachverhalte bekannt. Seitdem machte er im Deutschen Fernsehfunk Karriere und ist dort als omnipräsenter Erklärbär in etlichen Sendungen wie Abenteuer Forschung (ZDF), TerraX oder Frag den Lesch nicht mehr wegzudenken. Seit Oktober 2015 ist er auch Mitglied des Bayerischen Klimarats.

Bei α-Centauri hatte sich Lesch zum Klimathema kaum geäußert, was auch nicht wundert, da die ÖR bis Anfang der Nuller Jahre noch kein Dogma verbreiteten, sondern diskutierten. Gunnar Kaiser allerdings fand in der Mediathek des BR eine Sendung von 2001, in der sich Harald Lesch streng wissenschaftlich zum Klimawandel am Beispiel Eiszeit&Heißzeit äußert. Zitat:

…es war so warm, da hatte der [Dinosaurier] überhaupt keine Probleme, was zu finden. Die Vegetation war sehr angenehm. Die Temperaturen waren zum Beispiel im Wasser 20°C mehr als heute. 20 Grad mehr! Das müssen Sie sich mal überlegen.

Solche Aussagen passen natürlich gar nicht zum heutigen Alarmismus, nachdem schon 1,5 oder 2 Grad mehr die Katastrophe bedeuteten. Überzeugen Sie sich selbst:



Wird das Aufzeigen solcher eklatanten Widersprüche etwas bewirken? Wahrscheinlich erst einmal nicht, da nach aller Erfahrung selbst die Klima-Gates, die über den Wissenschaftsbetrug von Klimaforschern aufklärten, für die Alarmisten keine Folgen hatten. Allerdings ist davon auszugehen, daß die Verbreitung der Widersprüche im kaum kontrollierbaren Internet mittelfristig bei immer mehr Bürgern Zweifel hervorrufen wird.

Der Youtuber Gunnar Kaiser macht brillante philosophische Videos, gibt Seminare und schreibt Bücher. Näheres hier.

 




How Dare You – das ist jetzt die Frage

Wie allgemein bekannt, ist derzeit nichts mehr normal, seit den Nachrichten über „globale Erwärmung“ und „Klimawandel“, welche zum Schlachtruf von Individuen wie James Hansen und Greta Thunberg geworden sind.

Egal, dass man eine stetige Stromversorgung 24 Stunden an 7 Tagen der Woche braucht, um das Handy bei Bedarf aufzuladen; how dare you?

Egal, dass alle Gretels und Hänsels ohne Wärme rasch zu Tode erfrieren würden, sogar in der Lebkuchenhütte der Hexe; how dare you?

Egal, dass nicht jeder in tropischen Klimaten lebt und noch nie einen zugefrorenen See erlebt hat; how dare you?

Egal, dass die Eismasse in Grönland derzeit größer ist als seit Jahrzehnten; how dare you?

Egal, dass das Meereis in der Arktis sehr lebendig ist, siehe z. B. hier; how dare you?

Egal, dass keiner der anderen hochgespülten Charaktere wie Luisa (Deutschlands „Cousine“ von Greta) nebst deren Freunden in gut miteinander verbundenen Einheiten den Lebensstil des Plebs leben muss; how dare you?

Egal, dass es auch dem Meereis um die Antarktis (siehe die folgende Graphik) richtig gut geht; how dare you?

Abbildung: Waxing and Waning des antarktischen Meereises im Lauf der Jahreszeiten. Quelle: NOAA

Link: https://www.iceagenow.info/how-dare-you-thats-the-question-now/

Übersetzt von Chris Frey EIKE




Claudia Roth gibt zugkräftige Rückendeckung …

Märchen darf man beliebig oft wiederholen und (nicht mehr) nur (Klein-)Kindern glauben, das seien Wahrheiten

Und was erzählte die Claudia ihren begeisterten Zuhörern:
C. Roth: „ … das sei heute wichtiger denn je, meinte Roth mit Blick auf die weltweite Klimakrise, die sich aktuell mit den Buschbränden in Australien und den Auswirkungen in Ländern wie Bangladesh augenfällig zeigt … Längst sei, so Roth, die Klimakrise auch bei uns greifbar: In Franken litten die Bauern an der massiven Trockenheit ... “ Der GRÜNE Nürnberger Bürgermeisterkandidat fügte hinzu: „ … in Stadeln (Anm.: Ein Vorort von Fürth) bereits „ein ganzer Wald“ gestorben sei …“

Zu den Buschfeuern in Australien, die schlimm sind, als wesentliche Ursachen aber bewusstes „Zündeln“ sowie GRÜNE Vorschriften haben, kam auf EIKE schon vieles. Mit „Bangladesh“ hat Claudia sicher ihre Lustreise auf Steuerzahlerkosten angesprochen, bei der sie sich von Aktivisten ihre Meinung bestätigen lies und tunlichst vermied, vor Ort wirkliche Ursachen zu erkennen:
EIKE 30. April 2019: [1] Claudia Roth auf Forschungsreise zum Klimawandel

Ihr Beispiel und die folgende Ergänzung des Nürnberger Bürgermeisterkandidaten zur Trockenheit in Franken zeigt exemplarisch, dass man auch in betroffenen Landstrichen auf vollständige Unwissenheit vertrauen kann.
Franken war schon immer trocken und in der kälteren Vergangenheit wohl noch stärker, zumindest lässt es der langjährige Niederschlagsverlauf von Bayern vermuten, wie es die Grafik (Bild 1) zeigt. Diese Grafik zeigt auch, dass Deutschland inzwischen nicht nur bei seiner Industrie beginnt, sich auf das Niveau von Entwicklungsländern zu reduzieren, auch der DWD macht es mit seinen Klimadaten.

Ausgerechnet im „Klimawandel-gebeutelten“ Mainfranken zeigt die wichtige Niederschlagsdatei eklatante Lücken, wie es aus Entwicklungsländern bekannt ist. Oder hat der DWD lückenlose Daten und gibt sie „fürs Volk“ nicht heraus?
Jedenfalls sieht man deutlich, dass der Niederschlag in Bayern dank dem Klimawandel stetig zunimmt, wie beim Niederschlag üblich, jedoch mit extremen Variabilitäten. Das sehr trockene Jahr 2018 war in Bayern bei Weitem nicht das trockenste. Und der Sommerniederschlag ist gleichbleibend, von einer „Sommeraustrocknung“ keine Spur. Allerdings müssten die Sommer nach der gängigen Theorie: mehr Wärme = mehr Niederschlag, feuchter werden. Stattdessen haben alle Angst vor einem Austrocknen. Doch Logik war noch nie eine Domäne der GRÜNEN.

Bild 1 Jahresniederschlag Würzburg ab 1947 und Bayern ab 1881. Grafik vom Autor teils erstellt, ergänzt und zusammengefügt. Quellen: DWD

Bild 2 Bayern, Sommerniederschlag seit 1881. Quelle: DWD Viewer

Nun zum Statement des GRÜNEN Bürgermeisterkandidaten, der sich so sehr um die Wälder sorgt. Er wiederholt nur, was die Stadtförster – vor allem ein ganz umtriebiger von Fürth – bei jeder sich bietenden Gelegenheit über die Lokalmedien verkünden: Wir sind ganz, ganz wichtig, denn ohne unsere Kenntnisse würden die Wälder den gesicherten Klimawandel bestimmt nicht überleben.

Dabei hat der letzte Waldzustandsbericht den Bayerischen Wäldern erst vor wenigen Jahren einen guten Zustand bescheinigt (den ein Vorgänger der aktuellen, Nürnberger Stadtförster damals bestätigt hat):
EIKE 16.11.2017: [2] Der Waldzustand in Bayern ist schlechter, obwohl er besser wurde

Es ist eben immer das Gleiche (Spiel): Lasse die schlimme Vergangenheit weg und sofort erscheinen Gegenwart und Zukunft trostlos – und es erscheinen Führergestalten, die dagegen die richtigen Rezepte haben.

Wer meint, Waldprobleme wären eine Erscheinung der Neuzeit, irrt gewaltig

Wann waren die Wälder um Nürnberg wirklich fast tot? Es war zu den angeblich „naturnahen Zeiten“, als die Natur dem Mensch ihre ganze Brutalität zeigte. Man stelle sich vor, heute wäre über solche riesigen Waldschäden wie damals zu berichten:

[3] Bayerns Wälder. 250 Jahre Bayerische Staatsforstverwaltung, Forstheft 3-4: „Anmutiges Waldland“, „Steckerleswald“, Wirtschaftswald, Naturreservat – ein (mehr historischer) Streifzug durch die bayerischen Waldungen

Historie [3: (Nürnberger Reichswald) … Eine erste Waldordnung ist schon aus dem Jahr 1294 bekannt, sie forderte von den Reichswaldförstern eine geregelte Bewirtschaftung. Dennoch war der Reichswald zu Beginn des 14. Jahrhunderts derart ausgebeutet und durch Brände verwüstet, dass der Kaiser den „Verlust seiner Gnade“ androhte. Zwei Jahrhunderte später war der Wald bereits wieder in einem derart desolaten Zustand, dass eine neue Waldordnung energisch den verstärkten Schutz der stadtnahen Wälder befahl. Vor allem der überhöhte Wildbestand war es, der im 18. Jahrhundert den scheinbar endgültigen Niedergang herbeiführte. Als Nürnberg seine Reichsunmittelbarkeit verlor und 1806 der Krone Bayerns unterstellt wurde, bot der ausgeplünderte Wald ein Bild des Jammers. Eine Waldbestandsaufnahme in den Jahren 1818 bis 1820 zeigte, dass ein Fünftel nur noch aus Ödflächen bestand, die zum Großteil mit verkrüppelten Kiefern bewachsen waren. Die Forstleute leisteten großartige Arbeit, im Lauf der Jahrzehnte wurde ein kräftiger Bestand an Altholzreserven herangezogen, doch 1893/94 vernichteten Raupen des Kiefernspanners – wie eine Heuschreckenplage – all die Arbeit. 32 Prozent der gesamten Fläche des Reichswaldes mussten kahl geschlagen werden. Versuche zur Einbürgerung von Laubbäumen schlugen damals weitgehend fehl, nur die Kiefer überdauerte in ihren Beständen, aus denen schließlich der „Steckerleswald“ der Nürnberger heranwuchs …

Wie immer haben GRÜNE eine Lösung und wenn es nur viele Fragen sind

Selbstverständlich muss heutzutage in Stadtratssitzungs-Diskussionen und -Entscheidungen zu und vor allem erst einmal der Klimawandel berücksichtigt werden. Wer den obligatorischen, örtlichen Klima-Maßnahmen-Fortschrittskatalog dazu nicht ständig im Kopf präsent hat, dem fehlt das Wichtigste an Entscheidungsgrundlage.
So etwas muss man aber auch regelmäßig üben. Die GRÜNEN zeigen, wie es geht:

OA/0386/2019 Antrag: Kiefernsterben im Stadelner Wald
Zur Sitzung des Stadtrats am 18. Dezember 2019 stellen wir daher folgenden A n t r a g :
In der Stadtratssitzung am 18.12.2019 wird ausführlich über die notwendige Entfernung von ca. 1200 Kiefern im Stadelner Wald berichtet und Zeit zur Diskussion des Themas eingeräumt.
Insbesondere sollen folgende Fragen durch die Verwaltung beantwortet und in der Folge diskutiert werden:
– In den Fürther Nachrichten vom 18.11. war die Aussage des Stadtförsters zu lesen, dass die Hauptursache für das Sterben der Kiefern bei Stadeln niederschlagsarme Sommer sind, wie sie durch die Klimaerwärmung immer häufiger auftreten werden. Wird diese Analyse bestätigt?
– Es wurden breite Schneisen in den Wald geschlagen und Erntemaschinen eingesetzt.
Sind durch die Fällungen auch zum Teil nahestehende gesunde Laubbäume, u.a. große Eichen, beschädigt oder sogar entfernt worden?
– Wie soll der Stadelner Wald wieder revitalisiert und zukunftssicher gemacht werden? Sind Pflanzungen (ggfs. anderer, trockenheitsresistenterer Baumarten) geplant?
– Welcher wirtschaftliche Schaden ist entstanden (Abschätzung)?
– Sind nach Einschätzung der Verwaltung vergleichbare Krisenlagen auch in anderen Wäldern, Forsten, Biotopen und sonstigen Naturräumen zu erwarten?
– Welche Maßnahmen werden derzeit umgesetzt, um insbesondere die Fürther Wälder und Forste vor solchen Krisen zu schützen?
– Angesichts der fortschreitenden Klimaerwärmung muss die Stadt Fürth unserer Ansicht nach ihre bisher geplanten Anstrengungen zum Klimaschutz noch einmal deutlich beschleunigen.
Welche Möglichkeiten sehen die einzelnen Referate für solche vermehrte Anstrengungen?

So etwa hätten vielleicht die künftigen Sitzungen im Aufsichtsrat von Siemens-Energie verlaufen können, wenn Studentin Luisa den ihr von Joe Kaeser versprochenen Posten angenommen hätte …

Antworten zu einem Teil ihrer Anfrage standen allerdings schon in der Tageszeitung. Klar: Lesen und dabei noch denken, ist bei ihrem Klientel nicht gerade werbewirksam, „klug(scheißerisch)e“ Fragen scheinen es weit eher zu sein.
Jedenfalls fand sich darin ein wesentlicher Teil der Probleme beschrieben (dass die letzten beiden Jahre historisch gesehen trocken, aber nicht „extrem trocken“ waren, muss man dem Klima-hysterisch eingestellten Stadtförster nachsehen):
Nordbayerische Nachrichten, 18.11.2019: Extreme Trockenheit: 1200 Kiefern im Stadelner Wald verdorrt
Die damalige lang andauernde Trockenheit traf in Stadeln auf einen Boden, der „fast der ärmste im Stadtgebiet“ sei: arm an Wasser, aber auch an Nährstoffen. Im vergangenen Winter konnte der Förster dann beobachten, „dass viele Kiefern absterben“.
Der Sommer 2019 brachte naturgemäß keine Besserung, denn er fiel erneut viel zu trocken aus. Die Folge: Der blaue Kiefernprachtkäfer – er bevorzugt geschwächte Bäume – breitete sich weiter aus. Einzelnen Kiefern kann der Schädling durchaus den finalen Todesstoß versetzen, weiß Straußberger …

Der derzeit viel zitierte Klimawandel also? Ja, sagt Straußberger, für ihn stehe dieser Zusammenhang fest. Ein einzelnes Trockenjahr habe es auch schon in den 1970er Jahren gegeben; nie aber so viele in so kurzer Abfolge: 2003, 2005, 2006, 2015, 2018, 2019, beginnt er aufzuzählen. „Diese Häufung macht es aus.“

Nun noch nachgesehen, was von der Aussage „ … nie aber so viele in so kurzer Abfolge …“ des Stadtförsters zu halten ist:
In der folgenden Grafik sind für Bayern die Niederschlags-Mehrjahressummen von eins bis fünf Jahren dargestellt. Von der Jahres- bis zur 5-Jahressumme war sogar das Tief des Extremjahres 2018 früher oft erreicht und sogar unterschritten.
Auch zeigt sich kein Trend, jedoch eine stetige Zyklik. Von ca. 1980 – 2002 wurden die Bäume allerdings vom vielen Niederschlag „verwöhnt“, der von diesem Hoch seit ca. 2002 deutlich abgenommen hat.
Einen Stadtförster in Zeiten des „Klimawandels“ mag solches Wissen oder Nachsehen wohl überfordern. Zudem, wer als kommunaler Angestellter hat schon den Mut, gegen die GRÜNE Meinungshoheit mit Wissen „anzustinken“? Das könnte nur den Job gefährden.

Bild 6 Bayern, mehr-Jahresniederschläge seit 1881. Grafik vom Autor anhand der DWD-Daten erstellt

Quellen

[1] EIKE 30. April 2019: Claudia Roth auf Forschungsreise zum Klimawandel

[2] [7] EIKE 16.11.2017: Der Waldzustand in Bayern ist schlechter, obwohl er besser wurde

[3] Bayerns Wälder. 250 Jahre Bayerische Staatsforstverwaltung, Forstheft 3-4: „Anmutiges Waldland“, „Steckerleswald“, Wirtschaftswald, Naturreservat – ein (mehr historischer) Streifzug durch die bayerischen Waldungen

[4] Nordbayerische Nachrichten, 13. Januar 2020 (Lokalausgabe): Zugkräftige Rückendeckung




Auf der Suche nach der Super-Batterie

Das Nobel-Komitee hat das unterstrichen, indem es im letzten Herbst den Chemie-Nobelpreis drei Forschern zuerkannte, deren Arbeiten für die Entwicklung der Lithium-Ionen-Batterien maßgeblich waren: dem 97-jährigen deutschstämmigen Amerikaner John Goodenough, dem in Großbritannien geborenen Stanley Wittingham und dem Japaner Akira Yoshino. Obwohl der letztgenannte die erste kommerziell nutzbare Li-Ionen-Batterie bereits 1985 vorstellte, gilt deren Entwicklung bis heute noch nicht als abgeschlossen.

Seit Jahren versuchen öffentliche und private Forschungs- und Entwicklungszentren, Problemen der Elektrofahrzeuge wie der geringen Reichweite (vor allem im Winter) und dem hohen Gewicht wie den Kosten der Batterien beizukommen. Lithium-Ionen-Akkus gelten dennoch bislang als alternativlos, weil sie von allen bis dato großtechnisch umsetzbaren Batterie-Techniken die höchstmögliche Energiedichte erreichen. Diese ist mehr als doppelt so hoch wie bei den schon länger bekannten Nickel-Cadmium-Akkus, die obendrein unter nachlassender Leistungsfähigkeit durch den „Memory-Effekt“ leiden. Dieser Vorteil der Li-Ionen-Akkus muss allerdings durch den Nachteil der Brandgefährdung erkauft werden. Li-Ionen-Akkus neigen nämlich zum „thermischen Durchgehen“. Dass das keine abstrakte Gefahr ist, zeigen wiederholte Explosionen und Brände von E-Autos.

Um das zu verstehen, müssen wir den groben Aufbau einer solchen Batterie im Auge behalten. Im entladenen Zustand besteht deren Kathode (Minuspol) aus Lithiumkobaltdioxid, Lithiumnickeldioxid, Lithiummangantetroxid oder neuerdings auch Lithiumeisenphosphat. Beim Ladevorgang werden die positiv geladenen Lithium-Ionen der Kathode frei beweglich und wandern zur Anode (Pluspol). Beim Entladen geben sie jeweils ein Elektron ab. Dieses Elektron kehrt dann über den externen Stromkreis, in dem es die gewünschte Arbeit leistet, zur Kathode zurück. Die Anode besteht heute in der Regel aus Graphit. Dessen regelmäßiges Kohlenstoffgitter bildet blätterteigartig übereinander liegende Schichten, zwischen denen die Lithium-Ionen bis zur Entladung festgehalten werden. Die entladenen Lithium-Ionen wandern dann zurück zur Kathode.

In der Batterie darf zu keinem Zeitpunkt neutrales metallisches Lithium entstehen, denn Lithium-Atome sind, wie aus dem Chemieunterricht bekannt sein sollte, äußerst reaktionsfreudig und können so die Batterie zerstören. Wird nämlich eine bestimmte Grenztemperatur (zwischen 150 und 250 Grad) überschritten, reißen sie Sauerstoff-Atome aus der Kathode. Bei dieser Reaktion wird viel Wärme frei. Die einmal in Gang gesetzte Reaktion wird dadurch leicht zur unkontrollierbaren Kettenreaktion. Wird dabei die Schwelle von 300 Grad überschritten, beginnt der nichtwässrige Elektrolyt, ein organisches Lösemittel mit Lithiumsalzen, zwischen Kathode und Anode zu brennen und es kann zur Explosion der betroffenen Akku-Zelle kommen. In Brand geraten und explodieren können die Li-Ion-Akkus übrigens auch nach einer mechanischen Beschädigung. Dabei kann der Separator zwischen Kathode und Anode reißen und einen inneren Kurzschluss herbeiführen.

Die dem russischen Oligarchen Dimitri Rybolowlew gehörende Innolith-Holding mit Sitz in Basel behauptet, inzwischen alle diese Probleme gelöst zu haben. Die vom Briten Alan Greenshields geleitete Gesellschaft betreibt an einem ehemaligen Siemens-Standort im badischen Städtchen Bruchsal bei Karlsruhe ein Entwicklungszentrum, in dem etwa 80 Ingenieure und Entwickler an einer Super-Batterie arbeiten, mit der E-Autos über 1.000 Kilometer am Stück fahren sollen. Während in herkömmlichen Lithium-Ionen-Batterienein hochbrennbarer organischer Elektrolyt eingesetzt wird, besteht der Innolith-Elektrolyt aus dem leitenden Salz Lithiumtetrachloraluminat und einer Schwefeldioxidlösung. Auch auf das im Kongo unter unmenschlichen Bedingungen gewonnene Kobalt will Innolith verzichten können. Mit dem anorganischen Elektrolyten sollen bis zu 50.000 Ladezyklen, das heißt zehnmal so viele wie bei herkömmlichen Li-Ion-Batterien möglich sein. In nur 24 Minuten soll eine große Grid-Bank auf 80 Prozent ihrer Kapazität geladen werden können. Die noch im Teststadium befindliche Anwendung für E-Autos soll eine Energiedichte von 1.000 Wattstunden je Kilogramm erreichen können. Die bislang beste Test-Batterie von Hitachi erreicht nur 330 Wh/kg. Der Innolith-Akku für E-Autos soll im Jahre 2023 marktreif sein.

Es bleibt abzuwarten, ob Innolith seinem neuerdings in die Fach-Medien gestreuten Eigenlob gerecht werden kann. Selbst wenn alles zutreffen sollte, wäre der Innolith-Akku in Verbindung mit einem Elektromotor als einzigem Antrieb in punkto Öko-Effizienz gegenüber einem modernen Diesel-Antrieb wohl noch immer im Nachteil. Ein 50-Liter-Tank voll Diesel-Kraftstoff stellt einen Energieinhalt von 500 KWh dar. Daran wird auch die Innolith-Batterie selbst unter optimistischen Annahmen nicht annähernd herankommen oder entsprechend schwerer werden. Sehr viel günstiger stellen sich die Verhältnisse dar, wenn Elektro-Antriebe mit Diesel-Generatoren verbunden werden. Diese Kombination findet man immer häufiger in modernen Schiffen oder in Hybrid-Straßenfahrzeugen – sofern dort nicht, aus Angst vor dem schlechten Image des Diesels, für den Antrieb des Generators ein weniger effizienter Ottomotor gewählt wird. Bei einer Kombination von Diesel-Generator und Elektromotor kommen sowohl die Sparsamkeit des Diesels als auch das hohe Drehmoment und die damit verbundene unvergleichlich hohe Beschleunigungskraft des Elektromotors zum Tragen. Um von diesem Vorteil profitieren zu können, muss die Politik aufhören, den Diesel schlecht zu machen.

Im Unterschied zum Diesel, dessen Rohstoffbasis noch für viele Jahre gesichert ist, kann die Versorgung mit dem Batterie-Rohstoff Lithium wegen der mit seiner Gewinnung verbundenen ernsten Umweltprobleme nicht als längerfristig sicher gelten. Als wichtigste Kandidaten für die Ablösung von Lithium als Rohstoff gelten derzeit Natrium, Magnesium und Kalzium. Noch konzentrieren sich aber die meisten Firmen und öffentlichen Forschungsinstitute auf die Optimierung der Li-Ion-Batterie. Dennoch ist es nicht ausgeschlossen, dass der Güter- und Personentransport noch immer von Diesel- und Ottomotoren (auf der Basis umweltfreundlicher synthetischer Kraftstoffe) beherrscht wird, wenn die Ära der Li-Ion-Batterie schon wieder abgelaufen ist.




STROMKATASTROPHE Ohne Stromimport könnten in Deutschland die Lichter ausgehen

Gerade noch einmal gut gegangen. Die große Katastrophe blieb aus. Doch sie wurde lediglich verschoben. Am 15. Januar 2020 um 19 Uhr sollte zum ersten Mal in der Geschichte der Bundesrepublik mehr Strom verbraucht werden, als im Land selbst erzeugt werden kann. Ohne Strom aus dem Ausland würde es dunkel in Deutschland werden. Das hatten vor zwei Jahren die Netzbetreiber in ihren regelmäßigen Bilanzen prognostiziert. 

Es handelte sich um einen statistisch ermittelten Tag, an dem maximaler Stromverbrauch und extrem geringe Einspeisung von Wind und Sonnenenergie am wahrscheinlichsten sind.

Das wurde alles ausgerechnet, diesmal nicht von der grünen Parteivorsitzenden Annalena Baerbock, sondern von den Übertragungsnetzbetreibern. Die kalkulieren regelmäßig neu, wieviel Stromerzeugungskapazitäten noch zur Verfügung stehen und wieviel Strom verbraucht wird. Sie warnen schon seit langem vor Engpässen. Die vier großen Übertragungsnetzbetreiber – 50 Hertz, Amprion, Tennet und TransnetBW – hatten vor zwei Jahren ausgerechnet, dass Deutschland in weniger als 24 Monaten nicht mehr in der Lage sein werde, Extremsituationen im Stromnetz aus eigener Kraft zu bewältigen. Der Welt lag die Prognose vor. Titel: »Bericht der deutschen Übertragungsnetzbetreiber zur Leistungsbilanz 2016-2020«.

Diese jährlichen Leistungsbilanzen sind alles andere als überraschend, aber auch alles andere als beruhigend. Die Netzbetreiber vergleichen Stromverbrauch und demgegenüber Stromeinspeisung an einem bestimmten Stichtag, an dem erwartungsgemäß »die Reserven der Stromeinspeisung ihren voraussichtlich geringsten und die zu deckende Last ihren voraussichtlich höchsten Wert annehmen«. Diese Bilanz verschlechtert sich mit jedem Kraftwerk, das abgeschaltet wird. In ihrer aktualisierten Bilanz hat sich der Termin lediglich um ein Jahr verschoben.Für Januar 2020 prognostizierten sie erstmals eine negative Leistung von – 0,5 Gigawatt. Fehlende Leistungen setzen sich fort und verstärken sich, schrieben die Netzbetreiber bereits vor zwei Jahren. Nicht weiter verwunderlich: Wer reihenweise gut funktionierende Kraftwerke abschaltet, verursacht nicht nur volkswirtschaftliche Schäden in Milliardenhöhe, sondern untergräbt auch die Sicherheit der Stromversorgung eines ganzen Landes.

Früher war die sogenannte Jahreshöchstlast meistens Anfang Dezember. Doch bisher standen immer genügend Kraftwerke zur Verfügung, sodass die Frage nach ausreichender Stromversorgung nie gestellt werden musste. Auch wenn ein Kraftwerk ausfiel, konnten die Stromversorger dies mit anderen ausgleichen. Doch Reserven gibt es nicht mehr in der deutschen Stromerzeugung. 

Eine sichere und preiswerte Stromversorgung ist die Basis der Volkswirtschaft eines Landes. Das wissen alle anderen Länder und bauen kräftig neue Kraftwerke wie beispielsweise China und Indien. 

Fast alle Länder – muss man heute dazu sagen. Denn ausgerechnet die Industrienation Deutschland verabschiedet sich von ihrer bisher herausragenden Energieversorgung, die wesentlich zum Aufstieg zur Industrienation beitrug. Verlässliches Sicherheitsdenken von Elektroingenieuren fiel grünem Weltrettungswahn zum Opfer.

Wind und Sonne sind als sehr wacklige Energielieferanten nicht in der Lage, ein Industrieland ausreichend mit Strom zu versorgen. Nicht umsonst hatte man sich einst von Windmühlen verabschiedet. Jetzt hoffen die grünen Energiewender auf das Ausland, das mit Strom aus Braunkohle- oder Kernkraftwerken aus der Patsche helfen soll – wenn dort selbst genügend Strom zur Verfügung steht.

Eine törichte, teure Lösung. Deutschland hat das bisher teuerste Land in Sachen Strompreise, Dänemark, überholt und darf sich jetzt mit durchschnittlich 30 Cent pro Kilowattstunde der höchsten Preise rühmen. So teuer war der Strom noch nie. Für viele Familien bedeutet das einen weiterer Preisschock.

Das gab es wohl noch nie in der Geschichte: Ein Industrieland schaltet sich selbst freiwillig das Licht aus, und ein großer Teil der Nation klatscht laut Beifall.

Wie in vorindustriellen Zeiten der Windmüller nur bei Wind mahlen konnte, empfiehlt sich auch heute wohl der Blick aufs Wetter um abzuschätzen, ob ein wenig Strom verfügbar sein dürfte und ob die Industrieproduktion anlaufen kann oder eher nicht.

Derzeit weht im Norden eine frische Brise, also kein Tag mit einer »höchstlastträchtigen Wetterlage«, wie ein Energiefachmann gegenüber TE sagte.

Das war am vergangenen Montag, 13. Januar, noch anders. Kaum Wind, kaum Sonne – die konventionellen Kraftwerke liefen auf Hochtouren. Den Anteil der Photovoltaik kann man angesichts der spärlichen Sonneneinstrahlung vergessen. 

Dann frischte der Wind auf – allerdings nur im Norden. Die Windräder lieferten gerade mal die Hälfte des benötigten Stromes, und ohne konventionelle Kraftwerke sähe es allerdings düster aus. Sie hatten einen weiteren kritischen Effekt: Aufgrund der extremen Lastflüsse von Norden nach Süden waren die Leitungen bis zum Bersten gefüllt. Diese starken Lastflüsse jedoch bringen wiederum auch die regionalen Verteiler in erhebliche Schwierigkeiten. Not-Auslösungen aufgrund zu starker schwankender Lastflüsse drohen.Das bedeutet auch, dass extreme Lastflüsse in die Netze der Nachbarländer drücken und dort die Stabilität bedrohen. Deutschland ist also ein kritischer Störenfried im europäischen Höchstspannungsnetz. Kein Wunder, dass die Nachbarländer mit teuren Phasenschiebern ihre Stromleitungen sperren und ihre Netze schützen.

Die Große Koalition in Berlin würde vermutlich am liebsten die „Kirchhoff‘schen Gesetze“ novellieren, die den Zusammenhang zwischen zufließenden und abfliessenden elektrischen Strömen in elektrischen Netzwerken bestimmen. Wenn die nur keine Naturgesetze wären…

Der Beitrag erschien zuerst bei TE hier




Physik-Professor Sigismund Kobe: „Deutsche Energie­wende wird wie Seifen­blase platzen“

Doch Deutschland möchte als erstes Land komplett aus der Kohle aussteigen und begründet dies mit dem Anspruch, als Vorreiter der Welt zeigen zu müssen, dass ein solcher Ausstieg technisch und ökonomisch realisierbar sei. Darüber hinaus sollen auch die Kernkraftwerke in Deutschland stillgelegt werden, die Strom nahezu CO2-emissionsfrei erzeugen können. Das Ziel ist es, Strom zu hundert Prozent aus regenerativen Energiequellen bereitzustellen. Professor Sigismund Kobe erklärt im EIFELON-Gespräch, dass dies in Deutschland aus physikalischen Gründen nicht möglich ist, solange es noch keine Speicher mit gigantisch großen Speicherkapazitäten gibt. Grundvoraussetzung für ein hochindustrialisiertes Land ist eine sichere stabile Stromversorgung, die auf Abruf jederzeit die Energie liefern kann, die gerade benötigt wird. Dr. Sigismund Kobe, Jahrgang 1940, ist emeritierter Physik-Professor an der Technischen Universität Dresden. Sein Forschungsschwerpunkt ist die Optimierung komplexer Systeme (magnetische Festkörper, neuronale Netze, Proteine, Windenergie).

„Einer der Fehler, den die meisten Befürworter der Energiewende machen, ist es, alle erneuerbaren Energiequellen in einen Topf zu werfen, anstatt sie differenziert zu betrachten“, sagt Kobe. Aber erneuerbar sei nicht gleich erneuerbar. Mit Wasserkraft- und Biogasanlagen lasse sich Strom weitgehend nach den Bedürfnissen der Verbraucher bereitstellen, Windkraft- und Solaranlagen dagegen seien aus physikalischen Gründen dazu nicht in der Lage. Ein weiterer Zubau von Wasserkraftwerken ist geologisch und meteorologisch begrenzt: Deutschland hat anders als z.B. Norwegen und die Schweiz aufgrund seiner Topologie nicht genügend Regionen mit den erforderlichen Höhenunterschieden. Zudem reicht die jährliche Regenmenge für diesen Zweck nicht aus. Auch die landwirtschaftlich nutzbaren Flächen in Deutschland seien bereits hinreichend aufgeteilt in solche für die Lebensmittel- und Futtermittelproduktion und solche für bioenergetische Nutzung. „Diese beiden erneuerbaren Energiequellen haben in Deutschland kein größeres Ausbaupotenzial mehr“, lautet das Fazit von Professor Kobe.

Windräder liefern zu einem Drittel der Zeit kaum bis gar keinen Strom

Für einen gedachten weiteren Zubau erneuerbarer Energiequellen in Deutschland verbleiben also nur Wind und Sonne. Diese haben allerdings die unangenehme Eigenschaft, dass der damit erzeugte Strom volatil sei, d.h. zeitlich schwanke, so Kobe weiter. Mal weht der Wind und dann drehen sich die Räder, mal weht er nicht und dann drehen sie sich nicht. Der letztgenannte Zustand ist sogar häufiger als allgemein bekannt. Statistisch gesehen ist der Beitrag aller Windenergieanlagen an der Stromerzeugung in Deutschland an einem Drittel der 8.760 Stunden eines Jahres gering bzw. sogar vernachlässigbar. Bei den Solaranlagen sieht es nicht besser aus. Der weitaus überwiegende Teil des jährlichen Anteils von Strom aus Photovoltaik-Anlagen an der Stromproduktion wird im Sommer und dann wiederum vor allem in wenigen Stunden um die Mittagszeit eingespeist, vorher und nachher ist der Anteil gering und nachts scheint die Sonne nie.

Seit jeher ist das Netz auf das Auftreten von Schwankungen ausgelegt, muss doch die Anpassung an den unregelmäßigen Bedarf durch die Verbraucher sichergestellt werden. Nun waren in der Vergangenheit bei geringem Anteil von Wind- und Sonnenstrom die dadurch bedingten zusätzlichen Schwankungen auch kein besonderes Problem. Professor Kobe:

Quantitativ sind wir allerdings an eine Grenze gelangt, an der das Netz diese zusätzlichen Erzeugungsschwankungen nicht mehr verkraften kann.“

Die aktuelle Grafik des Energiedaten-Sammlers Rolf Schuster zeigt die Situation für November 2019: Sonnenstrom (gelb) spielt fast keine Rolle. Zeiten mit geringer Einspeisung der volatilen Erzeuger, die sogenannten „Dunkelflauten“, und Zeiten mit hohem Windaufkommen (blau), in denen dieses einen großen Teil des Bedarfs der Verbraucher (Last, braun) abdeckt, wechseln sich ab.

Die folgende Grafik, die jeweils die Einspeisung von Wind- und Sonnenstrom im Monat November in verschiedenen Jahren zeigt, macht deutlich, dass trotz starkem Zubau, charakterisiert durch die installierte Leistung (hellblaue Fläche, rote Linie), die tatsächlich erbrachte Leistung vergleichsweise gering geblieben ist.

Professor Kobe fragt daher: „Was passiert, wenn, wie aktuell vielfach gefordert wird, noch mehr Wind- und Solaranlagen zugebaut werden? Lassen sich dadurch die Probleme bei Dunkelflaute und bei den Spitzenwerten der Einspeisung beheben?“ und liefert die Antwort gleich selbst: Null bleibe Null, d.h. die Probleme bei Dunkelflaute werden nicht dadurch gelöst, dass z.B. 10.000 statt 10 Windanlagen neu aufgestellt werden. Das zeigt auch die nachfolgende Grafik der Einspeisung für November, bei der simuliert wurde, dass jede einzelne Anlage in Deutschland am selben Ort durch drei gleichwertige ersetzt wird:

Wenn in ganz Deutschland kein Wind weht, bewegt sich kein einziges Windrad. Wenn andererseits zu viel Sonne scheint und zu viel Wind weht, die Anlagen also mehr produzieren als alle Verbraucher in Deutschland abnehmen können (in der letzten Grafik kommt dies mehrmals im Monat vor), dann ist die Versorgungssicherheit ebenfalls gefährdet. In einem solchen Fall müssten Sofortmaßnahmen getroffen werden, um zusätzliche Lasten zuzuschalten bzw. Erzeuger abzuschalten. Nur so kann das ganze System stabil gehalten werden.

Die Einbindung von volatilem Strom aus Wind- und Sonnenanlagen in das öffentliche Netz ist eine hoch komplexe Aufgabe. Die in jedem Moment durch die Verbraucher benötigte und abgerufene Leistung – die Last – ist zeitlich schwankend, aber natürlich folgen diese Schwankungen überwiegend nicht dem zur gleichen Zeit eingespeisten Energie-Angebot der Windräder und Solarpaneele. Für die Differenz zwischen momentaner Last, die von den Verbrauchern abgefordert wird, und der Leistung, die Wind- und Sonnenstrom liefern, wird der Begriff „Residuallast“ als verbleibende Lücke der Versorgung verwendet. Sie muss durch andere, insbesondere konventionelle Kraftwerke erbracht werden.

Lobbyisten täuschen Bürger

Die Residuallast in der Einheit Gigawatt ist eine Schlüsselgröße, wenn die Energiewende analysiert werden soll. Deshalb hat Rolf Schuster für jede Stunde des Jahres 2011 diese Größe als Punkt in einer Grafik eingetragen. Auf der zweiten Achse der Grafik wird der Börsenpreis des Stroms zur gleichen Zeit markiert. Dadurch entsteht für jedes Jahr eine „Punktwolke“ mit 8.760 Stunden-Punkten. Je mehr Wind- und Sonnenstrom in das Netz drängt, umso geringer ist die Residuallast und umso niedriger ist auch der Börsenpreis. „Dieser Sachverhalt wird von den Lobbyisten zur Täuschung der Öffentlichkeit verwendet und als Beweis dafür angeführt, dass Strom aus Wind und Sonne zu einer Verringerung des Strompreises führen würde“, meint Kobe. „Verschwiegen wird geflissentlich, dass Strom aus den Erneuerbaren überhaupt nicht am Marktgeschehen und somit auch nicht an der direkten Preisbildung an der Strombörse beteiligt ist, da dieser ja gemäß EEG mit einem subventionierten Festpreis vergütet wird.“

Die ganze Dramatik der aktuellen Situation wird deutlich, wenn die Schuster’sche Analyse für das Jahr 2019 wiederholt wird:

Der im Laufe eines Jahres auftretende Minimalwert der Residuallast ist seit 2011 von Jahr zu Jahr immer kleiner geworden und betrug 2019 nur noch 3 Gigawatt. Wind und Sonne können demnach zu einigen Stunden des Jahres bereits fast den gesamten Strombedarf Deutschlands decken. Wenn manche Befürworter der Energiewende dies als Zeichen für eine bald bevorstehende Vollversorgung mit Erneuerbaren werten, so ist das leider ein Trugschluss. Es wird dabei „vergessen“, dass zu anderen Zeiten kein Beitrag von Wind und Sonne kommt und diese Situation sich nicht im Geringsten dadurch ändert, dass immer mehr volatile Erzeuger zugebaut werden.

Ausland macht Reibach – Deutsche Stromkunden zahlen

Mit der Zunahme von Wind- und Sonnenstrom im Netz nehmen die Börsenpreise immer häufiger negative Werte an: „2019 musste an 232 Stunden überflüssiger Strom durch Zuzahlung einer Entsorgungsgebühr verklappt werden“, so Kobe. Immer dann, wenn zu viel Wind- und Solarstrom ins Netz drängt und dieser im Land nicht verbraucht werden kann, verkauft ihn Deutschland zu „negativen Preisen“ an das Ausland. So verdienen z.B. die Betreiber österreichischer Pumpspeicherwerke doppelt am deutschen Strom: Bei negativem Börsenpreis pumpen sie mit diesem Strom Wasser in die Oberbecken und werden für die Abnahme des Stroms auch noch von Deutschland bezahlt. Später, wenn bei uns Dunkelflaute herrscht, werfen sie die Turbinen an und verkaufen uns Strom zu höheren Preisen zurück. Verlierer sind die Stromkunden, denn sie müssen für die EEG-Umlage aufkommen, einer für die Dauer von 20 Jahren staatlich zugesicherter Festvergütung für die Betreiber von erneuerbaren Energiequellen.

Beim Betrachten dieser Schuster-Grafik werde Professor Kobe stets an den Fisch erinnert, der bekanntlich ‚zuerst vom Kopf und vom Schwanz her stinke‘. Sowohl die immer weiter ansteigende Zahl von Stunden mit negativen Börsenpreisen, als auch die anwachsenden Kosten für den Zukauf von teurem Regelstrom zum Kompensieren fehlender Erzeugerleistung bei Dunkelflauten werde letztlich das gesamte System kollabieren lassen.

„Als profunder Kenner und tiefgründiger Analyst der Energiewende“ weise Rolf Schuster in der folgenden Grafik auf ein weiteres ernstes Problem hin, fährt Kobe fort. Hierbei gehe es um die sogenannten Leistungsgradienten, d.h. die Änderung der Einspeiseleistung pro Zeiteinheit. Untersucht wurde die größte stündliche Zunahme (grün) bzw. Abnahme (rot) eines jeden Tages seit 2010. Beide sind sowohl in den Extremwerten, als auch im Mittel stetig angestiegen, so dass es immer schwieriger wird, die notwendige Kompensation durch konventionelle Erzeugung in immer kürzerer Zeit zu realisieren.

„Strom sei nun einmal die verderblichste Handelsware der Welt“, so Kobe. Im selben Moment, in dem der Strom erzeugt wird, muss er auch verbraucht werden. Da die Ausbreitungsgeschwindigkeit von Elektroenergie gleich der Lichtgeschwindigkeit ist, können Erzeuger und Verbraucher durchaus weit voneinander entfernt sein, wenn eine Verknüpfung durch das Stromnetz besteht. Allerdings können Stromüberschüsse im Netz selbst nicht gespeichert werden.

Deutschland hat nicht die benötigten Stromspeicher

Eine Lösung bestünde darin, den momentan zu viel erzeugten Strom zu speichern. Oft wird jedoch verschwiegen, dass Deutschland solche Speicher mit der notwendigen gigantischen Speicherkapazität weder jetzt zur Verfügung stehen, noch in absehbarer Zeit zur Verfügung stehen werden. „In den Medien werden manchmal große zusammengeschaltete Akkumulatoren als Beispiele für Großspeicher vorgeführt. Diese dienten in Wirklichkeit aber nicht der Stromspeicherung, sondern der Feinregulierung der Netzfrequenz“, erklärt der Physiker. Und was ist mit der Idee, die Akkus der Elektroautos als Stromspeicher einzusetzen? Unterstelle man eine maximal mögliche Speicherkapazität aller PkWs in Deutschland (vorausgesetzt alle diese 47 Millionen Autos wären bereits Stromer) von maximal 2.000 GWh und vergleiche diese mit dem Bedarf bei einer Dunkelflaute von z.B. zehn Tagen, komme man schnell zu dem Ergebnis, dass sie bei weitem nicht als Speicher ausreichten. Dazu komme, dass niemand ohne Entschädigung bereit sei, die Kosten für die Zwischenspeicherung von öffentlich benötigter Elektroenergie zu tragen, denn jeder Lade-Entlade-Vorgang lasse die Akkus altern. Kobe nennt Kosten von derzeit 3 bis 10 ct/kWh, die dabei zusätzlich entstehen. Der Autobesitzer müsse dann früher als geplant einen teuren neuen Akku kaufen.

Auch das Argument, die Akkus der E-Autos seien ja nicht als Langzeitspeicher gedacht, sondern sollten Regelenergie bereitstellen, lässt der Professor nicht gelten. Für diesen Zweck würde die Gesamtspeicherkapazität zwar reichen. Trotzdem sei die Idee unsinnig, weil Regelenergie im Bedarfsfall innerhalb von Minuten bereitstehen müsse. „Wie soll das realisiert werden? Vielleicht mit einem Alarm: ´Sofort alle E-Autos an die nächste Ladesäule zum Entladen!‘, fragt Kobe. Bevor in Deutschland die Speicherfrage nicht gelöst sei, nütze auch eine Nord-Südtrasse nichts. Der Flatterstrom aus dem Norden würde über diese Verbindung augenblicklich im Süden ankommen, aber natürlich wieder als Flatterstrom. Die Probleme würden damit nur verlagert, aber nicht gelöst.

Bliebe schließlich noch die Möglichkeit, volatile Stromerzeuger notfalls abzuregeln. Dass wir auch dabei längst an der Grenze des noch Vertretbaren angekommen sind, zeigt die Situation bei den zahlreichen Windenergieanlagen in Schleswig-Holstein. Diese allein sind bereits jetzt von mehr als der Hälfte aller Abschaltungen in Deutschland betroffen. Allein im ersten Quartal 2019 hätten in diesem Bundesland 1.800 GWh Strom mehr in das Netz eingespeist werden können. Aber auch dieser „Geisterstrom“ muss laut EEG den Anlagebetreibern vergütet werden. Nach Schätzungen der Bundesnetzagentur summieren sich die Entschädigungszahlungen für sogenannte Einspeisemanagement-Maßnahmen im ersten Quartal 2019 in Deutschland auf 394 Millionen Euro. Sie sind demnach gegenüber dem gleichen Vorjahreszeitraum um 60 Prozent gestiegen. Professor Kobe:

Welche Volkswirtschaft der Welt kann es sich auf Dauer leisten, mehr als eine Million Euro pro Tag zum Fenster hinaus zu werfen?“

Monitoringberichte sind Augenwischerei

Die größte Sorge bereite Professor Kobe die Versorgungssicherheit. Wenn Politiker den angeblichen Erfolg der Energiewende preisen, dem Bürger einen hohen jahreskumulierten Stromertrag von Wind- und Solaranlagen präsentieren und diesen mit dem von konventioneller Kraftwerke vergleichen, aber die nicht vorhandene sekundengenaue Verfügbarkeit von Wind- und Solarenergie verschweigen, begehen sie Augenwischerei. „Man schaue sich z.B. den Monitoringbericht des Bundesministeriums für Wirtschaft und Energie nach § 63 i.V.m. § 51 EnWG zur Versorgungssicherheit im Bereich der leitungsgebundenen Versorgung mit Elektrizität vom Juni 2019 an. Sofort fällt auf: Dieser Bericht ist anonym, niemand will vermutlich seine Hand für die dort getroffenen Schlussfolgerungen ins Feuer legen. Dort heißt es u.a.: ‚Insgesamt ist die Verfügbarkeit der Energieträger für die Stromerzeugung als gesichert einzuschätzen.‘ Fachkundige sind entsetzt und schlagen Alarm“, sagt Kobe. Das Energiesystem ist sehr komplex, die technologischen Anforderungen unter den Bedingungen von zeitlich schwankender Stromeinspeisung wurden in der Vergangenheit „sträflichst vernachlässigt“. Darin sieht Kobe den Hauptgrund für die aktuell immer deutlicher werdenden Konflikte bei der Umsetzung der Maßnahmen der Energiewende. Die Schuldigen seien eben gerade nicht diejenigen Bürger, sich gegen einen weiteren Ausbau von Windenergieanlagen organisieren und die sich deshalb auch schon mal mit dem Begriff „Anti-Windkraft-Taliban“ beschimpfen lassen müssen. Professor Kobe:

Wenn weiterhin wie bisher natur- und ingenieurwissenschaftlichen Prinzipien ausgeblendet werden, wird das gesamte bisherige Konzept der Energiewende platzen wie eine bunte Seifenblase. Die Energiewende hat nur einen einzigen Feind, die Unwissenheit über die physikalischen Gesetze, die ihr zugrunde liegen.“

Von 2000 bis 2019 betrug laut Bundesnetzagentur die durch das Erneuerbare-Energien-Gesetz (EEG) vergütbare Strommenge 1.926.676 GWh. Die Betreiber der durch das EEG subventionierten Wind- und Solaranlagen erhielten für diese produzierte Strommenge 296,257 Milliarden Euro. Tatsächlich war dieser Strom am Markt nur 68,024 Milliarden Euro wert. Die Mehrbelastung der Stromkunden betrug 228,233 Milliarden Euro. Ein Ende ist nicht in Sicht. Zum Vergleich: Die Ausgaben im Bundeshaushalt für das Jahr 2019 betrugen etwa 356 Milliarden Euro.

Dieser Beitrag war zuerst hier erschienen: https://eifelon.de/umland/physik-professor-sigismund-kobe-deutsche-energiewende-wird-wie-seifenblase-platzen.html




Studie, welche Modell­vorhersa­gen preist, beweist, wie sehr die Modelle über­treiben

Hier die Summary in „normaler Sprache“ aus der Studie mit dem Titel „Evaluating the performance of past climate model projections“ von Hausfather et al. (2019):

Klimamodelle stellen eine bedeutende Art und Weise dar, um zukünftige Änderungen des Klimas der Erde zu verstehen. In dieser Studie nehmen wir eine sorgfältige Evaluierung der verschiedenen Klimamodelle vor, welche von Anfang der 1970er Jahre bis zum Ende der 2000er Jahre veröffentlicht worden waren. Besonders betrachten wir, wie gut die Modelle die globale Erwärmung projiziert hatten über die Jahre nach deren jeweiliger Veröffentlichung und vergleichen sie mit beobachteten Temperaturänderungen. Modellprojektionen stützen sich auf zweierlei, um genau zu den Beobachtungen zu passen: genaue Modellierung der Klimaphysik und genaue Annahmen bzgl. zukünftiger CO2-Emissionen und anderer das Klima beeinflussender Faktoren. Das beste, auf physikalischer Grundlage stehende Modell wird ungenaue Ergebnisse liefern, falls zukünftige Emissionen eingehen, die nicht der Realität entsprechen. Um dem Rechnung zu tragen, betrachten wir, wie die Relation zwischen Temperatur und atmosphärischem CO2 (und anderen Klimatreibern) sich zwischen Modellen und Beobachtungen unterscheiden. Wir kommen zu dem Ergebnis, dass die während der letzten fünf Jahrzehnte veröffentlichten Klimamodelle ziemlich genau waren hinsichtlich der Vorhersage der globalen Erwärmung während der Jahre nach deren Veröffentlichung, besonders hinsichtlich Differenzen zwischen modellierten und tatsächlichen Änderungen des atmosphärischen CO2 und anderer Klimatreiber. Diese Forschung sollte helfen, die Verwirrung der Bevölkerung hinsichtlich der Genauigkeit von Klima-Modellierungen in der Vergangenheit aufzulösen. Außerdem lässt sie unter Vertrauen zunehmen, dass die Modelle die globale Erwärmung korrekt projizieren“.

Abbildung 1: Projektionen der general circulation models (GCMs; rot) des IPCC (1990, 1995, 2001) und Energiebilanz-Modelle (grün) im Vergleich mit der beobachteten Temperaturänderung (blau) in K pro Dekade – ausschließlich aus Datensätzen der Temperatur am Boden (Hausfather et al. 2019)

Wie Abbildung 1 belegt, haben einfache Energiebilanz-Modelle (wie dasjenige von Monckton of Brenchley et al. 2015) viel bessere Projektionen geliefert als die GCMs. In IPCC (1990) prophezeiten die Modelle eine mittlere Erwärmung von 2,78 oder 0,33 K pro Dekade. Bis 1995 waren die Projektionen sogar noch extremer. Im Jahre 2001 waren die Projektionen realistischer, wurden jedoch noch extremer in IPCC 2006 und 2013 in den jeweiligen Zustandsberichten. Die terrestrische Erwärmung seit 1990 von 1,85 K pro Dekade war nur etwa halb so groß wie die in jenem Jahr vom IPCC prophezeite Rate:

Abbildung 2: terrestrische Erwärmung von 1990 bis 2018 (Datensätze HadCRUT4, GISS und NCEI). Selbst wenn man das kleinere der beiden Intervalle von Globale-Erwärmung-Prophezeiungen des IPCC (1990) heranzieht und sogar annimmt, dass die terrestrische Temperaturaufzeichnung selbst nicht übertrieben ist, liegt die beobachtete Erwärmung am unteren Ende des Intervalls.

Abbildung 3: Erwärmung der unteren Troposphäre (UAH) von 1990 bis 2018. Sie leigt deutlich sogar noch unter der Untergrenze der Modellprojektionen, auf welche das IPCC seine Vorhersagen der mittelfristigen globalen Erwärmung gründete.

Hausfather et al. lassen es so aussehen, als ob die Modelle bzgl. von deren Projektionen akkurat waren nach dem Vergleich der beobachteten Erwärmung mit der Projektion des Energiebilanz-Modells in IPCC (1990). Allerdings stellte das IPCC seine Original-Projektionen auf die Grundlage der komplexeren und mehr für Übertreibungen anfällige GCMs – und macht das auch heute noch:

Abbildung 4: Wäre der El Nino 2016 nicht aufgetreten, läge die originale mittelfristige Prophezeiung aus dem Jahr 1990 immer noch exzessiver aussehen als es ist.

Ungeachtet der wiederholten Übertreibungen in den Projektionen der GCMs, welche zu minimieren Hausfather et al. in der Tat versucht haben, treiben die Modellierer das tote Pferd ,globale Erwärmung‘ in immer extremere Projektionen:

Abbildung 5: Projektionen der Charney-Sensitivität in 21 Modellen des CMIP5-Ensembles

Im Jahre 1979 prophezeite Charney eine mittlere Gleichgewichts-globale-Erwärmung pro CO2-Verdoppelung von 2,4 bis 3 K. Das IPCC (1990) wählte den höheren Wert als seine eigene mittelfristige Prophezeiung. Jetzt jedoch zeigen die neuen CMIP6-Modelle diese mittlere Prophezeiung als deren untere Grenze, und deren neue mittlere Projektion beträgt wie oben gezeigt 4,1 K.

Da die Erwärmung bei einer Verdoppelung der CO2-Konzentration in etwa gleich der Erwärmung ist, wie sie über das 21. Jahrhundert durch alle anthropogenen Einflüsse erwartet wird, projizieren die heutigen GCMs im Endeffekt eine Erwärmung um 0,41 K pro Jahrzehnt. Das wollen wir jetzt einmal in Abbildung 4 hinzufügen um zu zeigen, wie übertrieben die Projektionen sind, aufgrund welcher es Politiker und Banken derzeit ablehne, der Dritten Welt Kredite für die dringend benötigte Elektrifizierung zu gewähren:

Abbildung 6: Prophezeiung vs. Realität, dieses Mal mit der impliziten CMIP5-Prophezeiung.

Liniengraphiken wie Abbildung 6 neigen dazu, das wahre Ausmaß der Über-Prophezeiung zu verbergen. Abbildung 7 korrigiert die Verzerrung und zeigt das wahre Ausmaß der Über-Prophezeiung:

Abbildung 7: Projizierte mittlere Charney-Sensitivitäten (CMIP5 3,35 K orange, CMIP6 4,05 K rot). Sie liegen um das 2,5 bis 3-fache über den 1,4 K (grün), die erwartet werden können bei der gegebenen beobachteten globalen Erwärmung von 0,75 K von 1850 bis 2011 und einem erkannten anthropogenen Antrieb von 1,87 W/m² bis 2011. Der gesamt-anthropogene Antrieb von 2,5 W/m² bis 2011 wird auf die 3,45 W/m² geschätzten Antriebe skaliert als Reaktion auf eine CO2-Verdoppelung. Folglich würde die Charney-Sensitivität nach CMIP6 von 1850 bis 2011 eine Erwärmung um fast 3 K implizieren, also drei mal so hoch wie die zu erwartende und vier mal so hoch wie die beobachtete Erwärmung von 0,75 K.

Obwohl diese Analyse hier simpel ist, so ist sie doch kompliziert genug, um an den wissenschaftlich ungebildeten Politikern vorbeizugehen. Diese werden einfach von Klima-Kommunisten umschwärmt, die ihre Laufbahn bedrohen, falls sie es wagen, denjenigen beizuspringen, die sich gegen den Holocaust an den Machtlosen aussprechen.

Darum möchte ich schließen mit der Vereinfachung des Argumentes. Es ist das, was in keiner einzigen „wissenschaftlichen“ Studie bzgl. globaler Erwärmung angesprochen wird, was am aufschlussreichsten ist. Es ist das, von dem gesagt wird, dass es keine Rolle spielt. Ich konnte bislang keine einzige Studie finden, in welcher die ideale globale mittlere Temperatur festgestellt und glaubwürdig begründet wird.

Die Tatsache, dass Klima-„Wissenschaftler“ diese Frage anscheinend nie gestellt haben zeigt, dass das Thema globale Erwärmung ein politisches und kein wissenschaftliches Anliegen ist.

Die Tatsache, dass die Antwort auf diese Frage unbekannt ist zeigt, dass es keine rationale Grundlage gibt dafür, irgendetwas hinsichtlich des allgemein wärmeren Wetters zu tun, welches sich als höchst vorteilhaft dort herausgestellt hat, wo es am schnellsten dazu gekommen war – in den hohen Breiten und besonders an den Polen.

Es gibt mit Sicherheit keinen einzigen Grund, weder wissenschaftlicher, ökonomischer, moralischer oder anderer Natur, den 1,2 Milliarden Menschen den elektrischen Strom vorzuenthalten, die ihn nicht haben und die im Mittel 15 bis 20 Jahre früher sterben, weil sie ihn nicht haben.

Link: https://wattsupwiththat.com/2020/01/12/paper-praising-models-predictions-proves-they-greatly-exaggerate/

Übersetzt von Chris Frey EIKE




Naturschützer verklagen die US-Regierung, um die Tötung von Vögeln durch Windkraft zu stoppen

Es gab einmal eine Zeit, in der zottelige Baumumarmer, härene Hemden und Sandale tragend, in einem Straßengraben sterben würden, nur um die anderen Kreaturen Gottes vor Schaden zu bewahren. Das war natürlich, bevor die industrielle Windenergie in Sicht kam. Gruppen wie der Sierra Club und die britische Royal Society for the Protection of Birds waren allesamt „Feuer und Schwefel“, wo immer „Big Business“ unsere Vogelwelt bedrohte. Außer, wenn das betreffende „Big Business“ stark subventioniert ist und chaotischen Windstrom intermittiert. Schließlich geht es darum, den Planeten zu retten…

Es ist also eine seltene und schöne Sache, wenn sich doch noch ein paar Naturschutzgruppen finden.

Um das unvermeidliche Abschlachten von Millionen Vögeln entlang der Großen Seen hinweg zu verhindern, haben das American Bird Conservancy (ABC) und das Black Swamp Bird Observatory (BSBO) ein Verfahren gegen das US-Energieministerium und das Army Corps of Engineers eingeleitet.

 

Vogelschutzverbände erheben Klage vor dem Bundesgericht gegen das „Icebreaker Wind Project“
Pressemitteilung zum amerikanischen Vogelschutz vom 11. Dezember 2019

Die American Bird Conservancy (ABC) und das Black Swamp Bird Observatory (BSBO) haben heute beim Bundesgericht Klage gegen das US-Energieministerium und das US Army Corps of Engineers eingereicht (Fall 1: 19-cv-03694 ). Die Klage konzentriert sich auf die Nichteinhaltung des National Environmental Policy Act (NEPA) bzw. des Clean Water Act durch die Agenturen bei der Bewertung der Umweltauswirkungen und der mit dem Icebreaker Wind-Projekt verbundenen Alternativen. „Icebreaker“ wäre in Lake Erie, vor der Küste von Cleveland, Ohio, die erste Anlage in einem Binnensee.

Der Bau von WKAs vor dem Uferbereich würde ein erhebliches Kollisionsrisiko für die enorme Anzahl von Vögeln darstellen, die das ganze Jahr über in diesem Gebiet leben, darunter große Konzentrationen von Singvögeln und Eistaucher, weltweit bedeutende Populationen von  Rotbrust-Mergansern [Mittelsäger] und andere Wasservögel. Darüber hinaus könnten der Bau und der erhöhte Schiffsverkehr im Zusammenhang mit dem Projekt die von diesen Arten genutzten Gewässer verschmutzen. Trotzdem haben die Agenturen die Umweltauswirkungen und sinnvollen Alternativen, die die Auswirkungen des Projekts verringern würden, nicht angemessen bewertet.

„Wir bedauern, dass rechtliche Schritte unser einzige Möglichkeit sind„, sagte Mike Parr, Präsident von ABC. „Die Agenturen kümmerten sich bei diesem Projekt nicht um die sorgfältige Bewertung, die es nach den geltenden Umweltgesetzen erfordert. Darüber hinaus subventionieren amerikanische Steuergelder mehr als ein Drittel der Projektkosten – ein norwegisches Unternehmen arbeitet jedoch mit dem gemeinnützigen Projektrealisierer  LEEDCo zusammen. Warum subventionieren US-Steuergelder dies überhaupt? Zugvögel sind ein allgemeines Gut des amerikanischen Volkes. Die Regierung hat die Pflicht, diese vor internationalen Geschäftsinteressen mehr zu schützen.“

Bei einer Realisierung wäre Icebreaker die erste Offshore-Windanlage in den Great Lakes und die zweite in den USA. Der ausgewählte Standort, das Zentralbecken des Eriesees, befindet sich in einem von der Audubon Society als Global Important Bird Area bezeichneten  Gebiet, in dem jährlich Millionen von Vögeln leben. Radaruntersuchungen, die vom US-amerikanischen Fisch- und Wildtierdienst (USFWS) durchgeführt wurden, haben eine große Anzahl von Zugvögeln und Fledermäusen in der Nähe der Küste der Great Lakes , einschließlich des Südufers des Eriesees, registriert. Viele Vögel flogen in Höhenlagen, die sich im vom Rotor überstrichenen Bereich von Windkraftanlagen befanden, wodurch diese Vögel anfällig für kollisionsbedingte Todesfälle und Verletzungen werden.

Der Kirtland’s Warbler [Michiganwaldsänger]  ist eine solche Art. Nach mehr als 50 Jahren auf der Liste der gefährdeten Arten, wurde diese Art soeben in die Liste der Erfolge aufgenommen. „Viele Agenturen, NGOs und andere Partner haben jahrzehntelang daran gearbeitet, dass sich die Kirtland Warbler vom Aussterben erholen“, sagte Joel Merriman, Direktor der Bird-Smart Wind Energy-  eine Gruppe in der ABC. „Wir möchten nicht, dass dies durch ein unzureichend geprüftes Energieprojekt untergraben wird.“

Trotz ernsthafter Bedenken hinsichtlich des Risikos der durch Windkraftanlagen verursachten Tötungen und anderer Auswirkungen auf Vögel hat sich der Icebreaker-Vorschlag im letzten Jahrzehnt weiterentwickelt. Unter anderem hätte dieses Präzedenzfallprojekt anhand einer umfassenden Umwelteinflusserklärung (EIS) bewertet werden müssen, um der NEPA zu entsprechen. USFWS – die Behörde mit gesetzlicher Zuständigkeit und wissenschaftlichem Fachwissen über US-Vogelpopulationen –  empfahl die Entwicklung eines EIS, wurde jedoch ignoriert.

„Vorhandene Daten des Ohio Department of Natural Resources zeigen, dass dieses Gebiet für eine große Anzahl von Vögeln wichtig ist“, sagte Kimberly Kaufman, Executive Director von BSBO. „Die unzureichenden Angaben, die der Antragsteller zur Verfügung stellt, unterschätzen das Risiko. Dies unterstreicht die Bedeutung einer umfassenderen Bewertung der Umweltauswirkungen. “

Icebreaker ist ein Demonstrationsprojekt. Die Überprüfung und Genehmigung wird als Richtwert für  Hunderte, möglicherweise Tausende weiterer Windparks angesehen, die voraussichtlich in den kommenden Jahrzehnten für die Großen Seen vorgeschlagen werden. Eine solide kumulative Folgenabschätzung ist erforderlich, um die wahrscheinlichen Auswirkungen dieses größeren Entwicklungsumfangs zu bewerten. Dies würde einer ähnlichen Regulierung folgen, die kürzlich für Offshore-Windkraftanlagen an der Ostküste festgelegt wurde.

Mit der Beschwerde soll erreicht werden, dass das US-Energieministerium eine Umweltauswirkung und eine umfassende Folgenabschätzung durchführt und dass beide Behörden eine rechtlich angemessene Analyse der Alternativen durchführen.

„Die im September veröffentlichten Daten zeigten, dass  Nordamerika bereits rund 29 Prozent seiner Vogelpopulation verloren hat“, sagte Parr. „Dieses Projekt ist ein Beispiel dafür, wie Vögel bei Geschäftsentscheidungen routinemäßig ignoriert werden. Da Vögel ein öffentliches Gut sind und Steuergelder in diesem Fall für ein privates Unternehmen verwendet werden, sollten die Agenturen hier einen viel besseren Job machen. “

 

American Bird Conservancy und Black Swamp Bird Observatory werden von der im öffentlichen Interesse liegenden Umweltkanzlei  Eubanks & Associates, LLC vertreten .

American Bird Conservancy

https://stopthesethings.com/2020/01/11/bird-battle-conservationists-sue-us-government-to-stop-wind-power-bird-slaughter/

Übersetzt durch Andreas Demmig




Gernot Patzelt: „Gletscher, Klimazeugen von der Eiszeit bis zur Gegenwart“. Eine Buchbesprechung

Gernot Patzelt, Professor für Hochgebirgsforschung an der Universität Innsbruck und Leiter der Alpinen Forschungsstelle Obergurgl in Tirol, befand und befindet sich auch jetzt nach seiner Pensionierung 2004 nicht im Ruhestand. Davon zeugen seine Vorträge, insbesondere auch die auf EIKE-Klimakonferenzen (hier, hier) sowie seine Schriften, die hier aufgeführt sind. Er war zudem Mitautor des Buchs „A. Fischer und G. Patzelt: Gletscher im Wandel: 125 Jahre Gletscher-Meßdienst des Alpenvereins, Springer, 2018″.

Sein hier besprochenes Buch „Klimazeugen von der Eiszeit bis zur Gegenwart“  geht neue Wege, indem die ansonsten selten versuchte Verbindung von Naturästhetik und wissenschaftlicher Beschreibung unternommen wird. Dieser Versuch ist Gernot Patzelt überzeugend gelungen, nämlich die Verbindung von Malerei-Geschichte mit Eiszeit-Zeit-Geschichte, Gletscher-Geschichte, Landschafts-Geschichte, Vegetations-Geschichte, Klima-Geschichte, Kultur-Geschichte … und mehr!

Fast die gesamte erste Hälfte des Buchs ist der Darstellung von Gletschern in der Malerei gewidmet. Hier werden die Bilder von Thomas Ender und Ferdinand Runk, Kammermaler des Erzherzogs Johann von Österreich (hier),  gezeigt und damit ergreifend schöne Gemälde der Vergessenheit entrissen. Neben der Ästhetik kommt aber auch in diesem ersten Buchteil die Wissenschaft nicht zu kurz. Im Kapitel „Die gletscherkundliche Bedeutung der Bildwerke“ wird nämlich dargelegt, wie aus den Gemälden die Zungenendlagen der betreffenden Gletscher entnommen werden können. Somit sind die gezeigten Gemälde zugleich wissenschaftliche Dokumente.

Im zweiten Buchteil wird eine Fülle von Einzelheiten dargelegt zu verschiedenen Regionen, Höhenstufen und vielen einzelnen Gletschern. Man erfährt das hier jeden wohl am meisten interessierende Faktum, dass die heutige Klima-, Vegetations- und Gletscher-Situation  nichts „Besonderes“ vom industriellen Menschen Verursachtes ist, sondern im „Klima-Rauschen“ der letzten Zehntausend Jahre liegt! Mehr noch, eine zusammenfassende Graphik des Buchs auf Seite 238 zeigt: Zu rund 70 % der letzten 10.000 Jahre (Nacheiszeit) war die Ausdehnung der Alpengletscher geringer als heute, zugleich waren Baumgrenzen und Temperaturen gleichermaßen höher.

Zusammenfassend schreibt Patzelt (auf S. 235): …um 8500 BC (vor Chr.) lagen die Temperaturen noch unter, ab 8200 BC bereits über dem Niveau der gegenwärtigen Temperaturverhältnisse … erreichte die Postglaziale Warmzeit kurz nach 6000 BC einen ersten Höhepunkt, dem um 4200 BC ein zweiter folgte. In dieser Zeit … lag die Waldgrenze 100-130 Meter höher als die gegenwärtig potentiell mögliche, womit eine um 0,6-0,8 °C höhere Sommertemperatur abgeleitet werden kann.Oder zusammengefasst:

 „Der Temperatur-Anstieg der letzten Jahrzehnte (Anm.: 1980-2010) liegt innerhalb des postglazialen Schwankungs-Bereiches.“

Bild 1: Sommertemperatur, Wald-/Baumgrenze, Gletscherrückzugsperioden Westalpen, Gletscherausdehnung Ostalpen, Grafik aus S. 238 des besprochenen Buchs von G. Patzelt.

 

Aus dem Buch aber auch der Biographie von Gernot Patzelt (hier) ist die primäre Naturnähe bei seinen Forschungsarbeit nicht zu übersehen. Das eigene Erkunden, Erwandern und das Sammeln von wissenschaftlich interessanten Baumrelikten vor Ort, wie sie schmelzende Gletscherzungen immer wieder freigeben, waren ihm Haupt- und Herzenssache. Erst danach kamen Schreibtisch und Labor. Man spürt seine Liebe zum wissenschaftlichen Gegenstand und, damit untrennbar verbunden, seine nicht nachlassende Bewunderung der Schönheit von Gletschern. Wir wünschen seinem Buch allen Erfolg, denn es gibt zu diesem Gegenstand kaum Vergleichbares. Und wir freuen uns darauf, Gernot Patzelt wieder einmal anlässlich eines Vortrags bei zukünftigen EIKE-Klimakonferenzen begrüßen zu dürfen.




Elektrobus-Experiment in Solingen schiefgegangen

Wir hatten bereits darüber berichtet, daß die neuen Elektrobusse in Berlin nur halbtags fahren, da die Kapazität der Akkumulatoren nicht für länger reicht. Die zweite Tageshälfte übernehmen dann die bewährten Fahrzeuge mit Diesel-Aggregat. Das Beispiel zeigt: „Klimafreundliche“ Technik erzwingt doppelte Infrastruktur und somit doppelte Kosten – mindestens.

Wie die Junge Freiheit kürzlich berichtete, mußten nun auch die Stadtwerke Solingen ähnliche Erfahrungen machen. Zwar hatte die Stadt mit Oberleitungsbussen, die auf Teilen der Fahrstrecke wie eine Straßenbahn mit Starkstrom aus dem Netz versorgt werden, eigentlich eine gute Wahl getroffen (batteriebetriebene Oberleitungsbusse – BOB). Mehrere unserer Leser wiesen zum Thema bereits darauf hin, daß in Osteuropa viele solcher zuverlässiger Fahrzeuge seit Jahrzehnten eingesetzt werden.

Da in Solingen aber das Streckennetz nur teil-elektrifiziert ist, mußten die neuen BOBs die Energie für ihre Elektromotoren zeitweilig aus Lithium-Akkus beziehen. Mit erwartbarem Effekt: Die Elektrik-Fachleute unter den Lesern wissen, daß elektrochemische Batterien bei Kälte große Teile ihrer Aufnahmefähigkeit verlieren. Auch wenn der Akku vorher im warmen vollgeladen wurde, geht sehr viel Saft sofort verloren, sobald das Fahrzeug raus in die kalte Umgebung fährt. Deswegen haben E-PKW wie die Teslas Heizungen (und Kühlungen) für ihre Akkumulatoren, kein Witz.

Ob Busse liegengeblieben sind oder die vorausschauenden Verantwortlichen in Solingen rechtzeitig die Reißleine gezogen haben, ist uns nicht bekannt. Zum Glück waren es auch nur vier Exemplare auf einer einzigen Linie. Vermutlich haben die Planer der Stadtwerke die BOBs erst einmal testen wollen, sehr klug. Leider haben sie schon weitere 16 Fahrzeuge bestellt, die im Frühling eingesetzt werden sollen. Man will anhand der vier Problembusse das Problem bis dahin in den Griff bekommen haben. Es darf bezweifelt werden, daß dieses Ansinnen von Erfolg gekrönt sein wird, da die Hauptsätze der Thermodynamik nun einmal nicht so leicht umgangen werden können. Bei warmen Frühlingstemperaturen werden die neuen E-Busse wahrscheinlich störungsfrei fahren können, was bei Hitze im Sommer und spätestens ab Dezember 2020 im Winter vorbei sein wird. Gibt es eigentlich keine Oberleitungsbusse mit zusätzlichem Diesel-Aggregat? Zwar sind Kolbenhub-Maschinen recht groß und schwer, aber das ist der Akku auch. Das zusätzliche Getriebe für den Motor dürfte den Bus recht teuer machen, mitlesende Maschinenbauer mögen entscheiden.

Die Fehlentscheidung für die BOBs geht nicht nur auf die Solinger zurück, sondern auch auf den Bund, der 15 Millionen Euro für ein „Modellprojekt“ bereitstellte. Erstaunlich wenig, wenn man bedenkt, daß die Akku-Fahrzeuge pro Stück zwischen 600.000 und 900.000 Euro kosten, wesentlich mehr als Diesel-Versionen. Daher war Solingen wohl auch nur einige der wenigen Städte, die in den „Genuß“ der neuen Mobilität kamen, weswegen sogar Cem Özdemir von den Grünen und ein Ministerialer aus Berlin zur feierlichen Inbetriebnahme der ersten vier Solinger E-Busse vorbeischauten.




Das Traumpaar der SZ, Susanne Götze und Annika Joeres, darf wieder über Rechte & Klima schreiben

Ich gebe es zu, ich habe mal wieder gesündigt. Wirklich! Nein, ich betrachte es nicht als Sünde, überregional oder kein Bio zu kaufen, sondern mich nur an Qualität und Preis zu orientieren. Und ich betrachte es auch nicht als Sünde, statt unbequem mit dem Fahrrad weite Wege zurückzulegen, dies bequem mit meinem kleinen alten, aber feschen VW Golf zu tun, leider kein Diesel sondern ein Benziner. Aber mit Turbo. Schließlich bin ich ein alter weißer Mann, ein Zustand, den ich auch nicht als Sünde betrachte, zumal ich ihn auch gar nicht ändern könnte, selbst wenn ich es wollte. Aber ich will auch gar nicht, abgesehen von vielleicht einigen Jahren, die ich gelegentlich gern jünger wäre. Aber nur gelegentlich.

Nein, all das ist es nicht. Es ist viel schlimmer: Gestern habe ich ein Online-Abo bei der oft so genannten „Alpenprawda“ der Süddeutsche Zeitung (sz) abgeschlossen. Zu meiner Entschuldigung führe ich an, dass ich neugierig war.

Neugierig darauf, ob das Klima-Autorentraumpaar – Dr. Susanne Götze und Annika Joeres – diesmal etwas Neues über „die Rechten“ und deren Auffassung zum Klimawandel geschrieben haben. Und auch, weil mein Name – in lieb menschelnder Form- gleich ganz vorn im ersten Satz auftauchte.

„Für Michael Limburg ist der Klimawandel ein Herzensthema.“ lautet er. Leider endet der restliche Artikel kurz darauf hinter einer Bezahlschranke. Die kann nur überwunden werden, wenn man Abonnent der sz wird. Das ist eine große Hürde. Und das weiß auch die Süddeutsche. Deswegen legt sie etwas Speck aus, denn mit Speck fängt man Mäuse. Man kann nämlich für einen Monat kostenlos Abonnent werden, jeden Tag kündigen, und erst nach einem Monat werden 9,90 € monatlich fällig.

Obwohl ich weiß wie schusslig ich manchmal bin, schien mir daher dieses Risiko überschaubar. Also meldete ich mich an. Und ich habe es sogleich bereut. Denn es lohnt sich nicht, diesen x-ten Aufguss immer derselben Sauce mit immer denselben Bösewichtern zu lesen. Wirklich nicht. Nach Lektüre dieses länglichen Artikels von immerhin rd. 12.000 Zeichen (mit Leerzeichen) fragt man sich verwundert, ob die Einkaufsabteilung der sz, also die, welche die Auswahl der Redaktion finanziell tragen muss, wirklich nicht merkt, welch olle und dazu oft noch falsche Kamellen, ihr dieses Autorenduo Götze/Joeres immer wieder aufs Neue unterjubelt. Warum bezahlen die immer wieder für denselben Quark?

Ist es Dummheit, Vergesslichkeit, Gleichgültigkeit oder gar Raffinesse gegenüber ihren Lesern? Raffinesse vielleicht deswegen, weil Lüge – man kann es auch als Verdrehung oder Weglassung sehen- hundertmal wiederholt, zur Wahrheit wird, wie schon der alte Goethe und nach ihm der gerissene Joseph Goebbels wussten. Nun will ich nicht behaupten, dass im Artikel nur Lügen stehen, so dumm sind die auch nicht. Sie schreiben gerade immer so, dass der Leser genau in den Trichter schaut, zu dem man ihn geführt hat, ohne gleich zu merken, dass er in einen Trichter schaut.

Wie dem auch sei. Der Artikel enthält nichts Neues, nur hie und da wurden ein paar alte Fehler korrigiert. So werde ich jetzt korrekt als Vizepräsident von EIKE bezeichnet, aber die alte Lüge, dass „EIKE AfD-nah“ sei, wird unverdrossen wiederholt. Wie wäre es zur Abwechslung mal mit EIKE sei CSU-Mittelstandsunion-nah? Ganz neu hingegen die Mitteilung, dass die 13. EIKE Klimakonferenz diesmal im noblen Luxushotel des Herrn Trump in Washington stattfand. Wussten wir noch gar nicht. Oder wie soll man diese Passage sonst verstehen?

Zitat: „Seit einigen Jahren kooperieren sie auch mit europäischen Leugnern wie Eike. Erst vor wenigen Monaten traf sich das Heartland-Institut, eine der einflussreichsten Klimaleugner-Denkfabriken der Welt, in Washington im Trump International Hotel, einem Luxushotel in Gehentfernung zum Weißen Haus.

Auf dieser 13. Klimakonferenz des Instituts ging es nicht nur darum, die Kohle- und Ölindustrie zu hofieren und die „Klimalüge“ zu enttarnen,.. Zitatende.

Nun vielleicht war es anders gemeint.Aber erwähnenswert sollte vielleicht doch sein, dass auch im November 2019 dIe andere „13. Klima-und Energiekonferenz des Instituts“ nämlich die von EIKE, in der Heimatstadt der sz, in München stattfand.

Natürlich war keine der Autorinnen dabei, wohl aber ein etwas unfähiger, aber dafür umso ideologisch verbohrterer Kollege Philipp Bovermann. Der hätte es gewusst, aber vielleicht sprechen die ja nicht miteinander.

Ganz neu hingegen ist auch die zitierte Soziologenweisheit des Bielefelder Soziologieprofessors Wilhelm Heitmeyer,wonach die „Klimaleugner“ bzw. die sie unterstützenden Gruppen, einem „prekären Milieu“ entstammten.

Nanu, das wusste ich ja noch gar nicht. Das galt doch bisher nur für PEGIDA und die Sachsen!

Ich stamme also aus einem „prekären Milieu“? Vielleicht deswegen, weil:  ich habe keine Schulden, mein Häuschen im Grünen ist abbezahlt, ich fahre mit von eigenem Geld gekauften eigenem Auto (auch direkt bezahlt) oder dem ÖPNV,  je nach dem was praktischer ist, zu meinen Terminen, ich bin seit 56 Jahren mit derselben Frau verheiratet (sehr verdächtig!). Und ich arbeite ehrenamtlich viele, viele Stunden in der Woche für EIKE (alles groß geschrieben, weil Akronym, also alle nicht Prekären, bitte bei WIKIPEDIA nachschauen, was Akronym bedeutet), ich zahle, wenn auch ungern, meine Steuern, ich fliege aber weder so eben mal nach Patagonien, sondern mache Urlaub auf Rügen. Mit Kindern und Enkelkindern (schon wieder ganz verdächtig, ein Teil der Enkelkinder ist auch noch blond, nur Zöpfe haben sie nicht, es sind Jungs). Aber Vorsicht: jetzt wird´s echt prekär, ich esse – obwohl einigermaßen gebildet, also eher bildungsnah, denn bildungsfern – gerne Hausmannskost, am liebsten die, die meine Frau kocht (ist ja noch prekärer!). Das muss es also sein. Schlimm für mich!

Nett und ausnahmsweise völlig korrekt ist hingegen die folgende Aussage:

Zitat: Ihn (Anmerkung des Autors: also mich) treibt an, was Klimawandel-Leugner und rechte Populisten wie die AfD vereint: die Hoffnung, das Rad der Zeit doch noch zurückzudrehen und das goldene fossile 20. Jahrhundert wiederzubeleben“ Zitatende

Abgesehen von der mit der üblichen Diffamierung ergänzten Lüge, wir oder die anderen seien „Klimawandel-Leugner“, mus man die Einordnung als „rechte Populisten“ heute bereits als Ehrentitel verstehen. Sie kommt hier aber leider von SchreiberlingInnen, die im Leben noch nie etwas auf die Reihe gebracht haben, von vernünftigen Journalisten würde sie uns mehr ehren.

Aber abgesehen davon, haben die beiden sz-SchreiberlingInnen korrekt erkannt, dass sich Deutschland schon bald nach dem goldenen fossilen Zeitalter zurücksehnen wird, wie es Präsident Trump gerade für die USA zurückgeholt hat und wie es die cleveren Asiaten schon lange praktizieren. Denn wie anders ist deren steigender Wohlstand sonst zu erklären, bei gleichzeitig ständig zunehmenden CO2-Emissionen.

Und ergänzt werden muss … wie es auch für Afrika sein unumgänglich wird, wollen wir nicht bevölkerungsmäßig Teil dieses Kontinents werden.  Mit allen schrecklichen Konsequenzen. Afrika muss Zugang zu billiger, jederzeit verfügbarer und damit vor allem fossil erzeugter Elektroenergie bekommen. Je schneller, desto besser, auch für uns.

Aber die beiden erkennen auch ihre eigene Ohnmacht, wenn sie schreiben:

.Zitat:“.Rechtskonservative und rechtspopulistische Parteien in Europa, den USA, Südamerika und Australien bremsen ehrgeizigen Klimaschutz systematisch aus.“Zitatende.

Da die Damen (sind es denn welche, oder wenigstens weibliche Wesen? Oder sind sie modern und divers? Wer weiß das schon so genau?) bis heute nicht begriffen haben, dass sich ein statistischer Mittelwert wie es Klima nun mal ist, nicht schützen lässt, schwatzen sie munter drauflos und glauben, dass der „ehrgeiziger Klimaschutz“ ausgebremst wird. Na denn „Gute Nacht, Marie“!

Dafür haben sie aber begriffen, dass man als richtige links-grüne Schreiberlinginnen stets auf die immer stärker werdende Konkurrenz aus dem Internet eindreschen muss, also liest man da:

Zitat:“.Die rechtslastigen Publikationen sind dabei die natürlichen Partner der Klimaleugner im Parlament. In Deutschland beschwört der Blog „Tichys Einblick“ die Diktatur herbei, sollte es ernst werden mit dem Klimaschutz, und das weit nach rechts geschwenkte Portal „Achse des Guten“ bezeichnet Klimawissenschaftler als „Einpeitscher“, deren Prognosen sich in den vergangenen Jahrzehnten als falsch erwiesen hätten. Diese Medien repetieren dieselben Argumente und Fake News wie die Klimawandel-Leugner von Eike, Heartland und eben der AfD. Zitatende.

So weit so gut.

Aber ganz perfide aber wird es, und da hört jeder Spaß auf, wenn sie den nationalen Sozialisten Hitler, nicht nur grausamer Juden- und Völkermörder, sondern auch Vegetarier, Hundefreund, Antialkoholiker und (damals schon) Windradbefürworter einspannen und uns, unsere Unterstützer und alle die nicht ihren abstrusem Weltbild folgen, versuchen mit ihm gleich zu setzen, denn anders kann man folgende Aussage nicht verstehen:

Zitat:

Ihr durch und durch reaktionärer Gründer (Anmerkung: gemeint ist der 1904 entstandenen Vereins Bund Heimatschutz) Ernst Rudorff verwehrte sich gegen Frauen und Juden in seinem Verein. Der Natur- und Heimatschutz passte dann auch hervorragend in Hitlers faschistische Ideologie. So entstand 1935 das Reichsnaturschutzgesetz. Die perverse Verquickung von Naturschutz und Faschismus ging laut dem Leipziger Historiker Nils Franke sogar so weit, dass es Begrünungspläne für Auschwitz gab oder Landschaftskonzepte für Bunker und Geschützstände. Diesen Strang des rechten antiaufklärerischen Heimatschutzgedankens gibt es bis heute. Die AfD will auf diesen Zug aufspringen.“Zitatende

Das ist nur noch Hatespeech und brauner Schmutz.

Trotzdem, irgendwann erkennen diese als Journalisten verkleideten Propagandistinnen, dass sie verlieren werden, denn sie schreiben resigniert am Schluss:

Zitat…Ihre Strategie scheint ebenso aufzugehen wie die vom AfD-nahen Leugner-Institut Eike: Le Pen ist in Umfragen gleichauf mit Präsident Emmanuel Macron. Und die Videos der Eike-Konferenz, noch vor einem Jahr nahezu ignoriert, werden inzwischen zehntausendfach geklickt. Der Grund: Je größer das internationale Streben nach Klimaschutz, desto stärker halten die nationalen Kräfte dagegen.Zitatende.

„Und das ist auch gut so“, möchte ich diesen Beitrag mit dem Zitat eines ehemaligen linken Berliner Bürgermeisters beenden, nicht ohne mit gewissem Stolz darauf hinzuweisen, dass unsere Videos durchaus schon hundertausendfach (zehntausendfach ist etwas mickrig) angeklickt werden. Wer solche Schreiberlinginnen hat wie die sz, braucht sich um seine Feinde (sinkende Auflagen) keine Gedanken mehr zu machen. Weiter so!