1

Vehicle-to-Grid – ein super Konzept?

Die Pumpspeicherkraftwerke (PSKW) sind bewährte Technik und haben einen vergleichsweise guten Wirkungsgrad. Es ist aber auch bekannt, dass deren Speicherkapazität für ein Stromversorgungssystem mit viel erneuerbaren Energien (EE), besonders mit den volatilen EE (VEE), also aus Wind und Sonne, bei weitem nicht reicht. Das ist schnell überschlagen: allein bei einem heutigen Verbrauch von 1.600 GWh pro Tag und einer Speicherkapazität der PSKW von 40 GWh dauert die Überbrückungszeit bei VEE-Mangel kaum mehr als 30 Minuten. Mangelsituationen können aber viele Tage dauern.

Daher benötigt man einen Langzeitspeicher der einen wetterlagebedingten und saisonalen Ausgleich schafft. Man muss Elektroenergie in einen Energieträger wandeln und diesen lange speichern können. Hierzu bietet sich Gas an (entweder Wasserstoff oder Methan). Mit der Rückverstromung kann dann die Versorgungslücke geschlossen werden. Das nennt man dann Power-to-Gas-to Power (P2G2P). Auf die großtechnische Verfügbarkeit, den Wirkungsgrad oder die Kosten wollen wir hier nicht eingehen, schließlich soll die Energiewende umgesetzt werden, koste es was es wolle. Fast verzweifelt werden die verrücktesten Ideen in den Raum gestellt, Speicher zu realisieren [2]. Zu den Speichervorschlägen gehört auch V2G (vehicle to grid). Soweit die Einleitung.

Daher stellt sich die Frage: Wie sinnvoll und nutzbringend ist die Integration von Batteriespeichern der E-PKWs in das Smart Grid? Auf der Basis eines vorhandenen Modells eines Stromversorgungssystems [3] werden zwei Szenarien modelliert, wobei eines ohne und eines mit V2G ausgestattet wurde [4].

V2G bedeutet in einer fiktiven Zukunft, dass sich viele E-PKW-Eigentümer bereiterklären einen Teil ihrer Autobatterie für die Stabilisierung der Stromversorgung abzutreten. Immer dann, wenn das Fahrzeug steht und eine Ladestation (mit steuerbarer Ein- und Rückspeisefunktion) verfügbar ist, soll es angeschlossen sein, also zu Hause, am Arbeitsplatz, am Supermarkt usw. Unterstellen wir dazu eine künftige Infrastruktur, die aus etwa so vielen Ladestationen besteht, wie es E-PKW gibt, denn nur so könnte bei fast jedem Parken ein Anschluss hergestellt werden. Diese Infrastruktur wird nicht billig. Die Anzahl der Ladestationen könnte deutlich geringer ausfallen, wenn es kein V2G gibt. Hier haben wir es daher mit Mehrkosten zu tun, die dem V2G-Konzept zuzurechnen sind, aber in meiner Modellierung fehlen.

Nehmen wir großzügig an,

  • • dass die V2G-PKW durchschnittlich zu 70% der Tageszeit am Netz (Smart Grid) angeschlossen sind, 
  • • dass es 30 Mill. E-PKW gibt, bei denen 50% der Eigentümer jeweils 10 kWh ihrer Batteriekapazität mit einem V2G-Vertrag zu netzdienlichen Zwecken abtreten. 

10 kWh ist durchaus denkbar, wenn man in fernerer Zukunft 80 kWh und mehr pro PKW unterstellt. Mit dieser Annahme kommt man dann auf 30∙106 ∙ 0,5 ∙ 0,7 ∙ 10 kWh ≈ 100 GWh.

Damit können diese E-PKW als ein Summenspeicher am Stromversorgungssystem mit 100 GWh Kapazität und ±100 GW Leistungsfluss angesehen und modelliert werden. Gemessen an den heute existierenden stationären Batteriespeichern ist das ein beträchtlicher Wert. Warum also nicht Batterien in PKWs in das Netz integrieren, die zukünftig vorhanden sind? 

Natürlich macht das kein PKW-Eigentümer umsonst, schließlich hat er ja viel Geld für seine Batterie bezahlt. Daher muss der V2G-Vertrag finanziell attraktiv sein. Alternativ könnte man aber auch einen Batteriespeicher von 100 GWh als Summe von vielen stationären Batteriespeichern realisieren. Auch könnten diese gezielt an geeigneten Stellen im Netz stehen. Diese Batterien sind pro kWh sicher günstiger zu bauen und zu betreiben als die in PKWs. Daher wurde hier ein Kostenaufschlag von 20% für einen gedachten V2G-Speicher angenommen.

Es wird ein Referenzsystem definiert, das 

  • • ca. 1.000 TWh/a nachfrageorientiert erzeugt und damit auch Wärmepumpen für Hausheizungen und 30 Mill. E-PKW versorgt. 
  • • Es werden keine Gas-Kraftwerke eingesetzt, da es eine Stromversorgung sein soll, die keine fossilen Energieträger verbrennt. 
  • • Zur Sicherstellung der Nachfrage werden die enthaltenen Speicher (PSKW, P2G2P ohne V2G) verwendet. 

Unter dieser Maßgabe wird über das Modell ermittelt, wie stark die VEE auszubauen ist und welche Kapazität der Langzeitspeicher (P2G2P) benötigt (Details in [4]).

Das gleiche Stromversorgungssystem wird dann mit V2G modelliert. Die Frage lautet nun, was sich an der Kapazität des P2G2P-Speichers und am nötigen VEE-Ausbau ändert. Wichtig ist auch die Frage nach den veränderten volkswirtschaftlichen Kosten. 

Die Ergebnisse sind naheliegend, aber auch aufschlussreich:

Da eine zusätzliche Speicherkapazität in das System eingefügt wird, kann rechnerisch die Kapazität des Langzeitspeicher etwas kleiner ausfallen. Der zusätzliche Batteriespeicher hat einen mehr als dreifach höheren Wirkungsgrad und verursacht damit weniger Energieverluste im Speicher. Diese Verluste müssen nicht durch VEE ausgeglichen werden, so dass sich auch der VEE-Ausbau reduziert. Wohl auf breiter Front ein Gewinn? Qualitativ ja, aber quantitativ marginal und über alles gesehen kein Gewinn, was wir noch sehen werden.

Die Kapazität des Langzeitspeichers wird rechnerisch lediglich um <0,3% kleiner. Da dieser Speicher sowieso großzügig bemessen werden muss, bedeutet das kein Gewinn. Der V2G-Speicher wird bei der Modellierung als erster Speicher zur Stabilisierung eingesetzt, bis er leer oder voll ist. Erst dann kommen andere Speicher (PSKW, P2L2P) zum Einsatz. Der Batteriespeicher liefert zeitlich selten Energie oder nimmt welche auf. Es sind nur ca. 19 % der 8.760 Jahresstunden. In der übrigen Zeit steht er entweder auf voll oder leer. Tatsächlich wird aber über das ganze Jahr Speicher für den Ausgleich zwischen Erzeugung und Verbrauch benötigt. In den 81% der Jahreszeit müssen das daher die anderen Speicher im System erbringen. 

Der erforderliche Ausbau der VEE fällt um 3,5 %. Aufgrund schwankender VEE-Ertragssituationen der Jahre, ist der VEE-Ausbau mit Sicherheiten zu versehen, also höher auszubauen, als es im Durchschnitt reichen würde. Dieser Zuschlag ist mit mehr als 50% zu veranschlagen [5]. Angesichts dessen sind die 3,5 % Ausbaueinsparung von keiner Bedeutung. Die Gesamtverluste, die sich aus den Verlusten in den Speichern und den Abregelungsverlusten zusammensetzen, reduzieren sich von 499 auf 451 TWh/a. Das sind immerhin 9 %. Diese Energie muss nicht unter Kostenaufwand mit VEE-Anlagen erzeugt werden. Also wenigstens hier ein spürbarer Vorteil?

Letztlich sind die Kosten das entscheidende Optimierungskriterium über alle Für und Wider. Dazu sehen wir uns den Vergleich durch die beiden Stromgestehungskosten an, die alle Kostenanteile enthalten:

Ohne V2G kommt die Modellierung zu 27,7 Ct/kWh und mit V2G auf 29,9 Ct/kWh. Der Unterschied von 2,2 Ct ist nicht gerade viel, aber bei 1.033 TWh/a sind das immerhin 22,7 Mrd.€/a. Hinzu kommen die Mehrkosten für die Ladeinfrastruktur mit grob geschätzten 4 Mrd.€/a [6]. Es entstehen also jährliche V2G-Mehrkosten von etwa 26 Mrd.€.

V2G ist unter Einbeziehung aller Kostenkomponenten zu teuer und technisch wird es komplizierter. Ich komme daher zum Fazit:

Es gibt weder volkswirtschaftliche noch technische Vorteile,
die für das Vehicle-to-Grid-Konzept sprechen.

Verweise:

[1] Sachbuch „Die Abrechnung mit der Energiewende“, Klaus Maier, Hardcover: ISBN 978-3-347-06790-5, Paperback: ISBN 978-3-347-06789-9

[2] Buch [1], Seite 306 ff

[3] Buch [1], Seite 396 ff

[4] Papier „Vor- und Nachteile des Vehicle-to-Grid-Konzepts – Wie sinnvoll ist die Integration von Batteriespeichern der E-PKWs in das Smart Grid“, Download: https://www.magentacloud.de/lnk/LtCIlfb8 

[5] Buch [1], Seite 336 ff

[6] Nimmt man eine öffentliche Ladestation inkl. Netzanschluss mit 4.000 € an und unterstellt, dass V2G ca. 10 Mio. mehr Ladestationen braucht, um die Wirksamkeit zu entfalten, entstehen etwa 40 Mrd.€ zusätzliche Investitionskosten. Bei 10% Betriebskosten wären das rund 4 Mrd.€/a.




Die Matrix

Ordnung am Himmel

Vor gut hundert Jahren haben zwei Astronomen versucht Ordnung in das Chaos am nächtlichen  Firmament zu bringen. Sie nahmen die einzigen beiden Eigenschaften, die sie beobachten konnten – Helligkeit und Farbe – und ordneten jedem Stern entsprechend zwei Zahlen zu. Die Farbe wurde durch Temperatur repräsentiert: die rötlichen Kandidaten waren eher „kühl“, während bläulich für hohe Temperatur stand. Bei der Helligkeit hat man auch noch die Entfernung von der Erde herausgerechnet und bekam so die absolute Leuchtkraft.

Die beiden Werte nun trugen sie in ein Diagramm ein: Helligkeit auf der vertikalen y-Achse, Temperatur auf der horizontalen x-Achse. Das machten sie für sehr viele Sterne, aber die Arbeit hat sich gelohnt. Das Ergebnis sehen sie hier.  

Die Sterne sind offensichtlich nicht wild über die Ebene aus Helligkeit und Farbe verstreut, sondern es gibt Gruppen, wie etwa die Roten und die weißen Zwerge. Die liebe Sonne liegt voll im Mainstream, wird aber demnächst zu einen Roten Riesen degenerieren, sich ausdehnen und dabei die Erde in sich aufnehmen und verdampfen lassen. Das wird dann der finale Beitrag zu Global Warming sein. Die Grünen werden allerdings auch dann, in ein paar Milliarden Jahren, die SUV-Fahrer dafür verantwortlich machen.

Diese Darstellung der Sternenwelt wurde nach ihren beiden Schöpfern „Hertzsprung-Russell-Diagramm“ genannt. Es war ein gigantischer Sprung vorwärts für die Astronomie, die dadurch Einblick in die Spielregeln von Leben und Sterben am Himmel gewann.

Die armen Hunde

Solch eine zweidimensionale Darstellung als Matrix kann aber auch auf Erden sehr hilfreich sein, etwa in Unternehmen. Dort gibt es oft viele Ideen, was man noch alles machen könnte. Und jeder Protagonist ist sicher, dass seine Idee die beste ist, dass sie gigantische Gewinne bringen würde. Welche sollte man nun verfolgen?

Zunächst ist nur sicher, dass das Geld kostet. Man kann also nicht alles machen. Da kamen die Denker von McKinsey und General Electric mit einem guten Vorschlag: Laßt uns für jede Idee die folgenden zwei Parameter abschätzen: 1. Wie kompetent ist unsere Firma auf dem Gebiet und 2. Wie attraktiv ist dieser Markt überhaupt.

Diese Parameter drücken wir nun nicht – wie die Astronomen – durch Zahlen und Dezimalstellen aus, sondern klassifizieren einfach „niedrig“, „mittel“ „und hoch“. Und dann erstellen wir ein Diagramm, in dem diesmal die Attraktivität senkrecht und die Kompetenz waagerecht aufgemalt sind. Da jedes der beiden Kriterien drei Möglichkeiten hat, entstehen jetzt genau neun Felder, und das Diagramm sieht aus wie ein Schachbrett für Babys.

Fallbeispiel: Sollte die Firma Bosch eine neue Schreibmaschine auf den Markt bringen? Da hätte man aber „niedrige Kompetenz“ und der Markt schreit auch nicht nach solchen Geräten, also wird dem Produkt auch  „niedrige Attraktivität“ bescheinigt. Diese Kombination von „niedrig“ / „niedrig“ landet in unserer Matrix im Feld links unten, die das Etikett „Poor Dog“ trägt. Wir lassen also die Finger von diesem Hund.

Anruf von Elon Musk

Anderes Szenario: Ihr Telefon klingelt und am anderen Ende ist Elon Musk.

Er sagt: Guten Morgen aus USA. Mein Stab hat Sie als Leser von Think-Again und der Achse des Guten identifiziert, wir haben also Grund zur Annahme, dass Sie über hohe Intelligenz und reife Urteilskraft verfügen. Meine Frage: Sollen wir für den deutschen Markt ein Geschäft mit Backup-Batterien bei Stromausfall entwickeln?

Sie: Einen Moment Elon, da nehm‘ ich meine neun Felder Portfolio-Analyse zu Hilfe.  So. Wie schätzen Sie die Kompetenz Ihres Unternehmens in Sachen Batterie ein?

Elon: I beg your pardon? Ihre Frage überrascht mich. Haben Sie noch nie von TESLA gehört? In Sachen Lithiumionen sind wir Nummer eins auf der Welt.

Sie tragen also bei „Kompetenz“ die Wertung „hoch“ in Ihre Matrix ein. Jetzt müssen Sie noch bewerten, wie attraktiv der Markt für solche Produkte ist. Aber da müssen Sie nicht lange nachdenken: Kohle und Atom sind weg, Wind und Sonne flatterhaft, Tschechien und Frankreich sind überfordert. Da wird es Stromausfall geben – so sicher wie das Amen in der Kirche. Also werden alle verantwortungsvollen Familienväter vorsorgen und Batterie plus Inverter im Haus installieren. Entsprechend tragen Sie „high“ auch bei Attraktivität ein.

Der Vorschlag von Elon landet mit „high“ / „high“ in der oberen rechten Ecke der Matrix – und da leuchten die Sterne, es ist ein „Star“ Projekt, sozusagen der Antipode vom „Poor Dog“.

Sie antworten also:

Hallo Elon, sorry for the wait, full steam ahead, es ist ein Star Produkt. Du hast grünes Licht von mir!

Elon: Thank you buddy und 10% Discount für Dich beim ersten Kauf einer Batterie für Deine Villa. So Long.

(Manchmal hat diese Portfolio-Matrix übrigens nur vier Feldern und rechts und links sind vertauscht, aber das Prinzip bleibt der gleiche).

Zwei interessante Kriterien

Was sich bei Sternen und in Unternehmen bewährt hat, das könnte man doch auch zur Beurteilung von Menschen benutzen, etwa von Politikern, die sich uns zur Wahl stellen. Da müssen wir nur die zwei richtigen Parameter für unsere Matrix finden.

Ich schlage vor, wir bewerten unseren Kandidaten zunächst hinsichtlich der  Fähigkeiten, die erforderlich sind, um das angestrebte Amt zu führen. Dazu gehören Fachwissen, Intelligenz, Erfahrung im Umgang mit komplexen Situationen, Augenmaß und die Fähigkeit zu Delegieren. Fassen wir all das mal unter „Kompetenz“ zusammen.

Unser Kandidat muss aber noch mehr mitbringen, damit er für die Allgemeinheit von Nutzen ist. Zur gerade beschriebenen Kompetenz muss sich das totale Commitment für das gemeinschaftliche Ziel gesellen. Der Politiker muss willens sein, persönliche Interessen für die Gemeinschaft zu opfern. Er muss bereit sein, sich selbst eine blutige Nase zu holen. Bezeichnen wir diesen Aspekt seiner Persönlichkeit mal als „Charakter“.

Wo landen unsere Helden?

Kompetenz und Charakter sind also die Kriterien für die Auswahl unserer Kandidaten.

Wenn Sie Lust haben, dann können Sie zur Prüfung dieser Aussage einmal Politiker Ihrer Wahl nach diesem System bewerten. Ordnen Sie Charakter bzw. Kompetenz jeweils auf der Skala niedrig – mittel – hoch ein und übertragen die Werte in die Graphik ein  (dabei hilft cut and paste and print). Charakter ist vertikal, Kompetenz horizontal.

Das gibt dann ein Quadrat, in dem Nelson Mandela vielleicht oben rechts und Jimmy Carter oben links positioniert wären, und Richard Nixon eher rechts unten.

Sie können natürlich auch aktuelle Politiker und Kandidatinnen in dieser Matrix abbilden, aber wichtig: Sagen Sie nicht „Ach, die Annalena ist so sympathisch, der gebe ich ganz einfach ein „hoch“ in Kompetenz und ein „hoch“ in Charakter“.  Falsch! So würden wir das Pferd am Schwanz aufzäumen.

Die Argumentation muss umgekehrt sein. Sie könnten vielleicht sagen: Annalena hat in ihrer bisherigen politischen Tätigkeit sehr gute Übersicht bei komplexen Aufgabenstellungen bewiesen und sie verfügt über hochkarätiges Fachwissen in Völkerrecht und Energietechnik. Außerdem ist vorbildlich, wie sie politische Dinge von persönlichen Belangen trennt, insbesondere solche finanzieller Art. Da kann man ihr keine Heimlichtuerei vorwerfen, da zeigt sie Charakter. Also, die Bewertung: hoch / hoch.

Aber nehmen Sie bitte Ihre eigene Einschätzung, das hier ist nur ein konstruiertes Fallbeispiel.

Zwischen Zecke und Collie

So naheliegend die Klassifizierung nach Kompetenz und Charakter ist, so schwierig kann es sein, die beiden Kriterien objektiv zu bewerten. Genauso ging es den Topmanagern von McKinsey, Boston und GE mit ihren Ideen für neue Geschäftsfelder. Zur Erleichterung haben sie dann den Feldern ihrer Matrix Tiere zugeordnet. Da gab es dann etwa den armen Hund, den Stern und die beliebte „Cash Cow“.

Unsere Matrix für Politiker bietet auch Tiere. So gibt es da zunächst den „Border Collie“, kompetent genug, um eine ganze Schafsherde unter Kontrolle zu halten, aber 100% treu dem Schwur, seine Überlegenheit nicht zum persönlichen Nutzen zu missbrauchen; etwa indem er ein Lämmlein heimlich fürs Dinner auf die Seite schafft. Unser Urteil: hoch / hoch. Welcher unserer Politiker bzw. Kandidaten passt in dieses Feld? Sie sind am Zug!

Links oben ist das Schaf, also „treu und dumm“. Guter Charakter, stellt seinen Vorteil nicht in den Vordergrund und kommt so in einer Gemeinschaft von Hunderten ohne Konflikte klar. Aber inkompetent genug, um seine Gebeine für ein „Lamb-Shank“ zur Verfügung zu stellen. Das Urteil: hoch/ niedrig.

Das nationale Portfolio

Dem Schaf diagonal gegenüber ist die Hyäne, die schon als Jungtier ihre Geschwister killt, um das eigene Überleben zu sichern. Sie ist mit allen Wassern gewaschen und mit Kiefern ausgerüstet, die jeden Knochen zermalmen. Das ist schlechter Charakter gepaart mit hoher Kompetenz.  Urteil: niedrig / hoch. Davon sollten wir die Finger lassen.

Die Zecke, dagegen, eines der erbärmlichsten Resultate der Evolution, verbringt ihr trostloses Dasein auf einem Grashalm um sich ein paar mal im Leben an einen Warmblüter zu heften, sich vollzusaugen, und dem Wirt dafür die Frühsommermeningoenzephalitis (was für eine elegante Wortschöpfung) anzuhängen. Unser Urteil: charakterlos und inkompetent in den Dingen des Lebens: niedrig / niedrig.

Ihre Aufgabe ist es nun, Kandidaten oder Amtsinhaber zu klassifizieren und uns Ihr Urteil mitzuteilen – einfach per Leserbrief. Bei genügend Antworten werden wir das finale Portfolio der deutschen Politik im nächsten Post veröffentlichen. Schreiben Sie uns also einen Leserbrief mit Ihren Urteilen, etwa im Format:

 „Felix Mustermann, Charakter niedrig / Kompetenz mittel, liegt zwischen Zecke und Hyäne“.

So jemanden hätte ich übrigens … ich verrate aber nicht wen.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Ein Leuchtturm ohne Licht

Der „Prototype-Demonstrator“

Dieser Name wurde dem etwas flug-unwilligen elektrischen  Lufttaxi aus Bayern gegeben.

Man hätte diese Maschine nicht bauen müssen, um zu erkennen, dass sie nicht funktioniert.  Seit einem Jahrhundert entwickelt man Flugzeuge und Helikopter und weiß recht gut, wie Gewicht, Geschwindigkeit, Reichweite und Antrieb zusammenhängen. Man weiß auch, wie schwer Batterien sind und kann dann berechnen, wie weit so ein Lufttaxi bestenfalls fliegt. So etwas lernen Ingenieure im Studium. Die können auf Papier oder am Computer zeigen, dass so ein Insekt nicht lange in der Luft bleibt – wenn überhaupt.

Solcher Kritik wird oft mit der Formel begegnet:

„Fortschritt hat seinen Preis. Wären die Gebrüder Wright damals keine Risiken eingegangen, dann gäbe es heute keine Luftfahrt.“ Und: „Es hat schon immer völlig unverhoffte Erfindungen gegeben, die dann alle Bedenkenträger lügen straften. Vielleicht gibt es ja demnächst elektrische Speicher, die nur einen Bruchteil der heutigen Batterien wiegen.“

Mein Vorschlag: dann lasst uns mit dem Bau des Prototypen so lange warten, bis die Dinger erfunden sind.

Ein Leuchtturm auf der Ruhr

Nun zu einem Streich, wie aus Schilda, der Stadt der Schildbürger. Er zeichnet sich nicht durch seine Kosten aus, seine Unlogik aber ist rekordverdächtig. Tatsächlich hat er sich in Essen zugetragen, dort wo sich die Ruhr zwischen Schellenberger Wald und Fischlaken auf einen halben Kilometer zu einem richtigen See verbreitert, dem Baldeneysee. Wie auf jedem richtigen See gibt es auch dort eine Fähre. So weit, so gut.

Nun muss man wissen, dass die Stadt Essen am 21. Januar 2017 zu „Europe’s Green Capital“ gekürt wurde und dass besagte Fähre, wie die meisten Schiffe dieser Welt, von einem bösen Dieselmotor angetrieben wird. Der musste jetzt weg.

Man baute also einen Elektromotor ein, der seinen Strom aus Brennstoffzellen an Bord beziehen sollte. Brennstoffzellen, das sind diese Vorrichtungen, in denen bei einer chemischen Reaktion – typischerweise von Wasserstoff (H2) mit Sauerstoff (O2) – Elektrizität gewonnen wird.

Im August 2017 war das Schiff umgerüstet und wurde feierlich auf den neuen Namen MS Innogy getauft; mit viel Prominenz und Zeremoniell wurde das neue Zeitalter des Fährverkehrs eingeläutet. Die obligatorischen grünen Testbausteine durften bei den feierlichen Ansprachen nicht fehlen, darunter die Bezeichnung „Leuchtturmprojekt“.

Die Fähre erfreute sich großer Beliebtheit beim Publikum; sie verbreitete weder Rauch noch Lärm und übertraf alle Erwartungen. 2021 aber war die Fähre wieder auf den alten Diesel umgestellt, der Leuchtturm machte sein Licht aus. Dieser Akt allerdings spielte sich ohne Prominenz und Zeremoniell ab.

Was war geschehen?

Der gute alte Adam Riese

Um das zu verstehen müssen wir in die Technik einsteigen. Das wird langwierig und kompliziert, aber genau daran ist die Sache auch gescheitert. Bleiben Sie also dran.

Da war also dieser Elektromotor, der die Schraube der Fähre antreibt. Seinen Strom bekam er aus sieben Brennstoffzellen, von denen jede fünf Kilowatt lieferte. Man hatte also 7 x 5 = 35 kW um den Motor zu speisen. Der konnte dann auch nicht mehr leisten als 35 kW oder rund 50 PS.

Das Schiff hat eine Länge von 29 Metern und kann bis zu 200 Personen an Bord nehmen. Ich weiß nicht, welches Auto Sie fahren, lieber Leser, aber ich vermute, es hat mehr als 50 PS, ist aber keine 29 m lang. Irgendwie passen Leistung und Dimension bei der Fähre nicht ganz zusammen, auch wenn die nicht so flott unterwegs ist, wie Sie in Ihrem Flitzer. Eine Fähre, auf der ich kürzlich war, hatte sechs Passagiere an Bord, drei Mann Besatzung und mindestens 200 PS. Damit ging’s über den Sambesi.

Auf  der Innogy waren dann auch noch Batterien mit insgesamt 100 kWh Kapazität installiert, die mithalfen, wenn die Brennstoffzellen alleine es nicht schafften. Falls die aus Blei waren, dann brachten sie immerhin ein paar Tonnen Gewicht mit an Bord. Und weiterhin an Bord war der böse alte 250 PS Schiffsdiesel von Volvo.

Ich kann mich des Eindrucks nicht erwehren, dass die umweltfreundlichen Brennstoffzellen nur ein modisches grünes Accessoire waren, das davon ablenken sollte, dass der Antrieb tatsächlich von Batterien kam, die nachts an der Steckdose aufgeladen wurden, bzw. vom Diesel, der einsprang, wenn die Akkus leer waren.

Der Holzgeist schiebt an

Die Brennstoffzellen wurden übrigens mit Methanol betrieben. Sie fragen jetzt, was der alte „Holzgeist“, in einer Brennstoffzelle zu suchen hat, die läuft doch mit Wasser- und Sauerstoff. Ja, aber die funktioniert auch mit Methanol, das mit dem Sauerstoff der Luft reagiert, wobei Wasser und CO2 entstehen – und eben auch elektrischer Strom.

Und wieder protestieren Sie jetzt, denn wenn da CO2 entsteht, dann ist das Ganze doch nicht grün! Dann könnte man doch gleich den Diesel anwerfen. Ihr Einwand beantwortet sich, wenn wir uns die Herstellung des Methanols anschauen. Das wird in einer chemischen Reaktion zwischen Wasserstoff und CO2 erzeugt. Das besorgt eine kleine chemische Fabrik an der Anlegestelle.

Und wo soll der Wasserstoff herkommen? Der wird durch Elektrolyse gewonnen, wobei der Strom dafür aus der Steckdose kommt. Und woher kommt das CO2, das man für die Synthese des Methanols braucht? Das wird aus der Luft gewonnen. Für ein kg CO2 werden da rund 2000 kg Luft durch einen Filter gepresst. Und die Pumpen dafür? Die kriegen ihren Strom auch aus der Steckdose. Das CO2, das der Luft so entzogen wurde, kompensiert das CO2, welches später von der Brennstoffzelle ausgeschieden wird.

Kompliziert, aber Grün

Weil das Ganze so absurd ist zähle ich Ihnen noch einmal die einzelnen Schritte auf, wie der Strom in den Motor kommt:

– Das Netz beliefert die Steckdose einer kleinen Fabrik an Fluß mit mehr oder weniger grünem Strom.

– Durch Elektrolyse wird dort Wasserstoff (H2) erzeugt.

– Pumpen und Filter gewinnen das Spurengas CO2 aus der Luft, in der es mit o,o4%  vorkommt.

– Aus H2 und CO2 wird Methanol (H3COH) gemacht.

– Das Methanol geht per Kanister an Bord der Fähre.

– In den Brennstoffzellen an Bord wird aus Methanol und Luftsauerstoff der Strom für den Elektromotor erzeugt. Das CO2, das hier freigesetzt wird, wurde vorher der Luft entnommen. Dieser Trick also macht den Prozess „nachhaltig“.

Das sind viele Schritte, um aus Strom wieder Strom zu machen, und bei jedem Schritt geht etwas verloren. Wenn wir Glück haben, dann werden von einer Kilowattstunde aus der Steckdose letztlich 10% in den Motor gefüttert.

Gut gemeint ist bekanntlich das Gegenteil von gut. Die Produktion von Holzgeist hat dann nicht wie geplant hingehauen und man hat das Zeug aus Island importiert. Damit wurde aber in Essen kein CO2 mehr aus der Luft gesaugt und die ganze Rechnung stimmte nicht mehr. Man tröstete sich damit, dass sie Isländer das jetzt machten.

Damit wurde die Story aber auch für den hartgesottensten Grünen zu absurd und man warf das Handtuch. Die Fähre tuckert jetzt wieder mit dem alten Diesel und die Isländer können ihr Methanol selbst verbraten.

Das Gegenteil von gut

Nun, es wäre falsch bei einem misslungenen Projekt Schadenfreude zu zeigen. Ein gescheitertes Experiment ist prinzipiell mehr wert, als gar kein  Experiment. Immerhin wissen wir jetzt, dass es so nicht geht. Irgendwo aber hätte der gesunde Menschenverstand einsetzen müssen, und der hätte schon früh erkannt, dass das komplizierte Verfahren total unwirtschaftlich ist und keinerlei Einsparung an CO2 bringen würde.

In unserer postmodernen grünen Gesellschaft aber herrscht die Logik des Kindergartens: jeder Beitrag zählt, egal wie klein; auf die gute Absicht kommt es an, nicht auf das Ergebnis; Wirtschaftlichkeit spielt ohnehin keine Rolle.

Welches Ziel aber haben unsere Stakeholder bei diesem Leuchtturmprojekt tatsächlich verfolgt? Ich habe da eine Idee: Die einen wollten als umweltbewusste Entscheidungsträger im Rampenlicht stehen, die anderen wollten Geld aus der öffentlichen Hand. Beide haben ihr Ziel erreicht, und die Bürger, die das Spektakel finanzierten, haben dazu geklatscht.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Die CO2-Verschiebung: Eiszeit zu Gaszeit

Der CO2-Hockeyschläger

Der CO2-Hockeyschläger ist eine bekannte Grafik. Abbildung 1 zeigt CO2-Daten aus Eiskernblasen, CO2-Daten aus dem Firn sowie atmosphärische, instrumentelle CO2-Messungen von Cape Grim. Atmosphärische Daten sind nur für etwa die letzten 150 Jahre verfügbar. Daher werden Firn- und Eiskerndaten verwendet, um den CO2-Datensatz weiter in die Vergangenheit zu verlängern. Hochakkumulierte Eisdaten wie DE08 reichen häufig nicht so weit in die Vergangenheit zurück und decken nicht einmal die Kleine Eiszeit (LIA) ab. Es ist erstaunlich, wie sich all die sehr unterschiedlichen CO2-Datensätze bis auf wenige Ausnahmen recht gut überschneiden.

Abbildung 1: Auf das Gasalter korrigierte CO2-Konzentrationen. Inset ist ein Blow-up zwischen 1900-2020 n. Chr., das den CO2-Flachpunkt zeigt. Kästen markieren verschiedene Datenmedien und die ungefähre Lage der Eisblasenzone. Die CO2-Daten für Law Dome (DE08, DSS) stammen aus Rubino 2019; WAIS stammt aus Bauska 2015; Siple stammt aus Neftel 1994; und EDML stammt aus Siegenthaler, 2005.

Abgesehen von dem auffälligen Hockeyschläger gibt es noch einige andere bemerkenswerte Beobachtungen. Es gibt eine größere Streuung in den CO2-Messungen von 1900 und älter zwischen den verschiedenen Eiskernaufzeichnungen. Ein Grund für die größere Streuung ist, dass die WAIS-CO2-Daten systematisch 3-4 ppm höher sind als die Law-Dome-Eiskern-CO2-Daten (Ahn, 2012). Wissenschaftler können diese Abweichung nicht erklären und subtrahieren häufig einfach 4 ppm von diesem Datensatz (Bereiter, 2014).

Ein CO2-Flachpunkt und eine Stabilisierung von 310-312 ppm von 1940-1960 ist in den Law-Dome-Daten erkennbar (MacFarling, 2006). Die Glättung aufgrund der Gasdiffusion im Firn und des Einschlusses in Blasen reduziert die CO2-Variationen, so dass die tatsächliche atmosphärische Variation wahrscheinlich größer ist als die Aufzeichnung des Law Dome-Eiskerns. Leider endete die CO2-Glättung kurz bevor die atmosphärischen Aufzeichnungen am Mauna Loa begannen.

Eine CO2-Ausbuchtung tritt in allen Eiskernaufzeichnungen von etwa 1000 n. Chr. bis 1600 n. Chr. auf und ist über 600 Jahre lang. Auch dieser CO2-Anstieg hatte wahrscheinlich eine größere atmosphärische Signatur, als in den Eisbohrkernen erhalten ist. Der CO2-Buckel endet mit dem Beginn der LIA um 1600 n. Chr., wo CO2 in allen Eiskernaufzeichnungen abnimmt. Ein einzigartiger CO2-Einbruch in den Law Dome DSS-Daten tritt um 1610 n. Chr. nahe dem Beginn der LIA auf und könnte auf die höhere Auflösung zurückzuführen sein (Rubino, 2019). Diese Senke ist in keinem anderen Eisdatensatz zu finden und trägt zur Streuung der CO2-Daten bei. DSS hat auch andere CO2-Tiefpunkte um 1780 n. Chr. nahe dem Ende der LIA und um 1278 und 1350 n. Chr. in der Mitte der CO2-Ausbuchtung. Rubino weist darauf hin, dass das Verständnis dieser vom Eis aufgezeichneten Amplitudenschwankungen und der tatsächlichen Größe der ursprünglichen atmosphärischen Signaturen vor der Firnglättung ein entscheidendes Teil des CO2-Puzzles ist.

Die CO2-Verschiebung

Wie in meinem früheren WUWT-Beitrag hier besprochen, werden atmosphärische Gase während des Firnübergangs zu Eis und Blaseneinschluss modifiziert. Es gibt zwei wesentliche Modifikationen, die von der Schneeakkumulationsrate und der Temperatur abhängig sind. Erstens wird die CO2-Variabilität aufgrund der atmosphärischen Durchmischung und Diffusion mit den CO2-Konzentrationen im Firn geglättet. Zweitens wird angenommen, dass das Gas jünger als das Alter des Eises ist, wenn es schließlich in den Blasen eingeschlossen wird. (Battle, 2011; Trudinger, 2002, Blunier, 2000). Sobald das Gas in den Blasen eingeschlossen ist, wird angenommen, dass es mit dem Eis altert. Dieser Altersunterschied wird als Eis-Gas-Altersdelta bezeichnet. Das Delta reicht von etwa 30 Jahren im Law Dome bis zu 835 Jahren im EDML-Eiskern mit geringer Akkumulation. Sehr niedrig akkumulierende Standorte wie Dome C und Vostok haben ein großes Delta von Tausenden von Jahren.

Abbildung 2 zeigt die CO2-Messungen aus dem tatsächlichen Alter des Eises, in dem es eingeschlossen ist, für fünf Eiskerne in der Antarktis und vor den Anpassungen durch die Anwendung von Eis-Gas-Alter-Deltas, wie in Abbildung 1 gezeigt. Atmosphärische Daten von Cape Grim und Firndaten sind zum Vergleich in der Grafik dargestellt. Die Deltadifferenz in Jahren zwischen dem jüngeren Gasalter und dem älteren Eisalter sind vermerkt. Die Spitze des Eises, die ungefähr der Basis der Blasenzone entspricht, ist ebenfalls dargestellt. Dieser Plot ist ein Profil, das in der veröffentlichten Literatur selten zu finden ist oder diskutiert wird.

Abbildung 2: CO2-Konzentrationen in der Eiszeit. Die Zahlen zeigen die Eiszeitdifferenz in Jahren. Die gestrichelte Linie ist die Spitze des Eises und die ungefähre Position der Basis der Blasenzone. Die Referenzen der CO2-Daten sind in Abbildung 1 vermerkt.

Abbildung 2 führt zu der Frage, wie das Delta zwischen Eis- und Gasalter berechnet wird. Wenn die Gasmessungen in Eis oder Firn mit den Instrumentaldaten übereinstimmen, wird es einfach auf das Alter der Instrumentaldaten verschoben. Zum Beispiel werden die Eisgasdaten von Law Dome DE08 einheitlich um 31 Jahre verschoben, um mit den instrumentellen atmosphärischen Daten übereinzustimmen. Verschiedene andere Methoden werden verwendet, um das Delta und die daraus resultierende einheitliche Verschiebung zu schätzen. Firnmodelle können das Eisgas-Altersdelta für Eiskerne unter Verwendung von Dichte- und Temperaturdaten berechnen und werden durch die Verwendung von Stickstoff-15-Daten, einem Proxy für die Firndicke, eingeschränkt (Raynaud, 2005). Ein anderer Ansatz verwendet Eistiefen im Kern, die zeitgleich mit Eiskernen sind, bei denen die Gasalter gut eingegrenzt sind (Bender, 2005). DSS und Siple werden um 58 bzw. 83 Jahre verschoben, um mit den DE08-Daten übereinzustimmen. Nachdem alle Verschiebungen vorgenommen wurden, erscheint ein großer Hockeyschläger steigender CO2-Konzentrationen um 1900 n. Chr., wie in Abbildung 1 dargestellt.

Die CO2-„Verschiebungsmethode“ unter Verwendung der Siple-Daten wurde insbesondere von Jaworowski, 2004, hervorgehoben. Er wies darauf hin, dass im Jahr 1890 n. Chr. im Siple-Eiskern hohe CO2-Konzentrationen von 328 ppm auftraten, die nicht mit der interpretierten CO2-Basislinie übereinstimmten. Die gesamten Siple-CO2-Daten wurden einfach um 83 Jahre verschoben, um mit den modernen instrumentellen CO2-Messungen am Mauna Loa von 1973 übereinzustimmen. Diese einfache Verschiebungsmethode ist nach wie vor eine akzeptierte Technik zur „Korrektur“ des jüngeren Gasalters in Eiskernen.

Das Ausmaß der Altersverschiebung ist interpretierbar, und Wissenschaftler verwenden verschiedene Methoden, die zu unterschiedlichen Verschiebungen für denselben Datensatz führen. Eisgasalter-Deltas haben Unsicherheiten von 10-15% (Seigenthaler, 2005). Warum ist dies also wichtig? Die Temperaturen aus der Wasser-Isotopenzusammensetzung des Eises sind eiszeitlich. Daher werden die Temperaturen immer im gleichen Alter wie das Eis dargestellt. Die Gasdaten hingegen werden vom Alter des Eises auf ein interpretiertes Gasalter korrigiert. Jede Auswertung von Lead-Lag-Beziehungen sollte die 10-15%ige Unsicherheit berücksichtigen, die mit der Berechnung der CO2-Eis-Gas-Alter-Deltas verbunden ist.

Die Erhaltung des CO2-Hocleyschlägers in Eis

Wenn die CO2-Verschiebung oder das Altersdelta entfernt wird, wie in Abbildung 2 gezeigt, dann wird die CO2-Variabilitätsunterdrückung mit niedrigeren Akkumulationsstellen leicht erkennbar. Mit Ausnahme von DE08 zeigen die Eiskernaufzeichnungen unterhalb der Blasenzone, dass die höchste Aufzeichnung von CO2 nur 312-316 ppm beträgt, was fast 100 ppm unter dem aktuellen atmosphärischen Wert von 410 ppm liegt (Abbildung 3a). Es ist interessant festzustellen, dass diese Messwerte von 312-316 ppm mit dem DE08-Flachpunkt vergleichbar sind.

Viele Autoren haben eine Gasglättung in der Firnschicht aufgrund von vertikaler Gasdiffusion und allmählicher Blasenschließung beim Übergang von Firn zu Eis dokumentiert (Trudinger, 2002; Spahni, 2003; MacFarling, 2006; Joos und Spahni, 2008; Ahn, 2012; Fourteau, 2019; Rubino, 2019). Um Kerne von Standorten mit unterschiedlicher Akkumulationsrate zu kompensieren, wird eine Gasaltersverteilungsbreite oder Glättung modelliert. Zum Beispiel haben Kerne mit hoher Akkumulation wie Law Dome ein durchschnittliches Gasalter von 10-15 Jahren, WAIS ein durchschnittliches Gasalter von etwa 30 Jahren und DML von 65 Jahren. Standorte mit geringer Akkumulation wie Dome C und Vostok zeigen, dass das Gas über Hunderte von Jahren gemittelt oder geglättet ist. Das bedeutet, dass ein Glättungsfaktor auf atmosphärische Gasmessungen angewendet werden muss, wenn man sie mit verschiedenen Eiskernen vergleicht. Die meisten historischen CO2-Diagramme spleißen jedoch einfach atmosphärisches und Firn-CO2 auf Eis-CO2-Daten auf, ohne eine Glättung anzuwenden, wie in Abbildung 1 gezeigt.

Abbildung 3: a) Anfängliche CO2-Konzentration in jedem Eiskern unterhalb der Blasenzone. b) Diagramm, das die Beziehung zwischen Eis-Gas-Alter-Delta und Gasglättung in Jahren zeigt. Daten aus Ahn, 2012; Trudinger, 2002, und Seigenthaler, 2005.

Eiskerne mit geringer Akkumulation, die größere Verschiebungen und größere Eis-Gas-Alter-Deltas erfahren, bewahren auch eine geringere CO2-Variabilität und eine höhere Glättung. Die Beziehung zwischen der Verschiebung des Eisgasalters und der Glättung der Gasamplitude ist in Abbildung 3b dargestellt.

Beobachtungen

Beim Vergleich des schnellen Anstiegs des atmosphärischen CO2 in diesem Jahrhundert mit Daten aus vergangenen Eiskernen werden viele Variablen und Datenannahmen verwendet. CO2-Messungen aus sehr unterschiedlichen Datensätzen werden häufig miteinander verknüpft; atmosphärische, Firn- und Eiskerne. Atmosphärisches CO2-Gas wird im Firn durch Diffusion und allmählichen Blaseneinschluss verändert und kann nicht direkt mit CO2-Daten in Eiskernen unterhalb der Blasenzone verglichen werden. Die übliche Methode, CO2-Eiskernaltersmessungen einfach zu verschieben, kombiniert mit der Nichtanwendung der entsprechenden atmosphärischen Abschwächung, ergibt den verstärkten CO2-Hockeyschläger.

Acknowledgements: Special thanks to Donald Ince and Andy May for reviewing and editing this article.
Download the bibliography here.

Link: https://wattsupwiththat.com/2021/05/02/the-co2-shift-ice-age-to-gas-age/

Übersetzt von Chris Frey EIKE




Norwegens wirtschaftliche Erfolgsgeschichte

Dem Bericht der Deutschen Welle nach, investiert der Fond jedoch in Energieunternehmen, die Raffinerien haben und sich mit dem Vertrieb und Einzelhandelsverkauf von Öl befassen und Gasprodukte. Damit behält der Fond weiterhin maßgebliche Beteiligungen an Big Oil-Unternehmen wie Shell, BP, Total und ExxonMobil.

Oslo sagte, der Schritt beruhe ausschließlich auf finanziellen Erwägungen und spiegelt keine besondere Sicht auf die Zukunftsaussichten der Ölindustrie wider. Die Rendite der Fondsinvestitionen in Öl- und Gasaktien ging im vergangenen Jahr um 9,5 Prozent zurück.

Die norwegische Zentralbank, die den Mammutfonds verwaltet, hat lange behauptet, dass die Veräußerung darauf abzielte, das Engagement des Landes im Energiesektor zu verringern. Die Erlöse der Öl- und Gasindustrie des Landes machen mehr als 20 Prozent der norwegischen Einnahmen aus.

„Die Regierung schlägt vor, Unternehmen, die als Explorations- und Produktionsunternehmen im Energiesektor eingestuft sind, von der staatlichen Pensionskasse Global auszuschließen„, heißt es in einer Erklärung des Finanzministeriums. „Ziel ist es, die Anfälligkeit unseres gemeinsamen Vermögens bei einem dauerhaften Ölpreisverfall zu verringern.“ Die Zentralbank Norges Bank hatte 2017 eine vollständige Veräußerung von Öl- und Gasaktien vorgeschlagen.

Der Fonds hielt Ende letzten Jahres rund 13 Milliarden US-Dollar – 5,9 Prozent seiner gesamten Aktieninvestitionen – im Ölsektor. Ein Großteil dieses Betrags wird nun jedoch in integrierte Ölunternehmen investiert, die von der Exploration bis zum Verkauf von Kraftstoff am Straßenrand tätig sind.

 

Verpasste Gelegenheit

Norwegens Entscheidung rief gemischte Gefühle bei Klimaaktivisten hervor , die erwarteten, dass Oslo ‚aufs Ganze gehen‘ würde.
Martin Norman von der norwegischen Gruppe von Greenpeace, sprach von ‚einer verpassten Gelegenheit‘, meinte jedoch, dass sei ein „Schritt in die richtige Richtung“, der andere Investoren dazu veranlassen würde, sich von fossilen Brennstoffen zurückzuziehen.

 

Norwegens Ölreserven haben dazu beigetragen, dass Norwegen eines der reichsten Länder der Welt ist

Zu diesem Thema bietet BP eine interessante Grafik:

Weltweit wachsen die bestätigten Energiereserven von 1999, 2009 und 2019

 

Norwegens wirtschaftliche Erfolgsgeschichte

Norwegens „Government Pension Fund – Global“, allgemein als „Oil Fund“ bezeichnet, hat heute einen neuen Höhepunkt erreicht. Zum ersten Mal hat der Wert des weltweit größten staatlichen Investmentfonds zehn Billionen Kronen überschritten. Das sind ungefähr 1,087 Billionen USD. …

Slogan: Wir arbeiten daran, finanziellen Wohlstand für zukünftige Generationen zu sichern und aufzubauen [Welchen Slogan würden Sie für Deutschland passend finden?]
1990 verabschiedete das norwegische Parlament das Gesetz über staatliche Pensionsfonds. Die erste Einzahlung erfolgte 1996. Seit 1998 erzielt der Fonds eine jährliche Rendite von 5,9 Prozent oder 4.660 Milliarden Kronen.

 

Sogar die schottische Unabhängigkeitsbewegung ‘ Scotland Independence‘ nutzte schon 2016 Werbung mit

Der norwegische Ölfonds beläuft sich nun auf ~ 503 Mrd. GBP, was jeden Norweger zu einem theoretischen Kroner-Millionär macht (dies entspricht jeweils ~ 100.000 GBP).

Aufeinanderfolgende Regierungen von Labour und Tory UK konnten keinen einzigen Cent der schottischen Öleinnahmen einsparen.Norwegen ist mit ca. 5,1 Mio. Einwohnern ein unabhängiges Land.

Es ist an der Zeit, dass  auch Schottland mit einer Bevölkerung von ~ 5,3 Millionen unabhängig wird.

Zusammenstellung und Übersetzung Andreas Demmig




Die jüngste US-CO2-Phantasterei

Im Jahr 2005 emittierten die USA fast genau 6.000 Megatonnen (MT, eine Million metrische Tonnen) CO2. Anders als in den meisten Ländern sind die CO2-Emissionen in den USA seit 2005 gesunken, und wir liegen derzeit bei etwa 4.900 MT pro Jahr. Um das Fantasieziel zu erreichen, müssten wir unsere CO2-Emissionen um 1.900 MT CO2 pro Jahr reduzieren.

Die Menge an CO2, die pro Petawattstunde (PWh, oder 1015 Wattstunden) des fossilen Energieverbrauchs in den USA ausgestoßen wird, ist seit etwa 2009 langsam gesunken. Derzeit emittieren wir etwa 213 MT CO2 pro PWh fossilen Energieverbrauchs. Wenn sich der Trend fortsetzt, wird der Durchschnitt in den nächsten neun Jahren bei etwa 208 MT CO2 pro PWh liegen.

Das bedeutet, dass wir bis 2030 etwa 1.900 MT CO2 / 208 MT CO2 pro PWh ≈ 9 PWh fossiler Energie ersetzen müssen.

Die einzige emissionsfreie Quelle, die derzeit als Ersatz zur Verfügung steht, ist Kernkraft. Wir können Wind- und Solarenergie hinzufügen, wenn wir wollen, aber wie Texas und Deutschland kürzlich gezeigt haben, müssen wir immer noch ein volles Backup für die Zeiten haben, in denen der Wind einschläft und die Sonne untergeht. Die Kernkraft ist dafür nicht ideal, aber die modernen modularen Blöcke versprechen in dieser Hinsicht mehr Flexibilität.

Nun müssen wir die benötigte nukleare Erzeugungskapazität berechnen. Dazu teilen wir die 9 PWh/Jahr Strom, die wir liefern müssen, durch die Anzahl der Stunden pro Jahr, 8.760. Daraus ergibt sich ein Bedarf von etwa 1.030 GW (Gigawatt, 109 Watt) an neuer nuklearer Erzeugungskapazität.

Aber es gibt einen Haken. Das ist die durchschnittliche Erzeugungskapazität … aber wir brauchen genug Erzeugungskapazität für die Spitzenzeiten, nicht nur für die Durchschnittszeiten. Ich kann es nicht besser machen, als einen Kommentator aus einem früheren Beitrag zu zitieren:

Ich glaube, du hast etwas übersehen, Willis

Diese 22 TW sind eine durchschnittliche Leistung. Aber Erzeugungsanlagen, Übertragungseinrichtungen, Transformatoren, Stromkreisunterbrecher und all diese Dinge müssen für den SPITZENBEDARF dimensioniert sein.

Die meisten Verteilungssysteme in den USA haben ein Verhältnis von Spitzen- zu Durchschnittsleistung (PtA) von etwa 1,6 bis 1,7. Mit Ausnahme der New England ISO, die ein Verhältnis von etwa 1,8 hat. Einige Systeme in Australien haben ein jährliches PtA-Verhältnis von etwa 2,3. Ich erwarte, dass Arizona isoliert betrachtet so hoch laufen würde, was natürlich nie der Fall ist.

Nimmt man 1,8 als geschätztes Gesamt-PtA-Verhältnis, muss man einen Spitzenbedarf von 22 * 1,7 Terawatt oder 37,4 TW decken.

Aber kein Stromsystem kann überleben, wenn die Erzeugung gleich der Nachfrage ist. Fügen Sie also 15 % für Reserven für den Fall hinzu, dass Teile des Systems aufgrund von Wartungsarbeiten, Ausfällen oder Ähnlichem ausfallen. Das Ergebnis ist, dass Sie eine Spitzenerzeugung von 43 TW benötigen. Also ungefähr das Doppelte von dem, was gebaut werden muss.

Das bedeutet, dass wir statt 1.030 GW neuer Kernkraftwerkskapazitäten das Doppelte, also 2.060 GW neuer Kapazitäten benötigen.

Weiter: Von heute bis zum 1. Januar 2030, wenn laut Bidens Plan unsere Emissionen auf 3.000 MT CO2 pro Jahr sinken sollen, sind es etwa 454 Wochen.

Und das bedeutet, dass wir JEDE WOCHE BIS 2030, BEGINNEND IN DIESER WOCHE, zwei 2,25-Gigawatt-Kernkraftwerke finden, die Machbarkeitsstudien durchführen, die Lizenzen und Genehmigungen einholen, ausheben, herstellen, installieren, testen und in Betrieb nehmen müssen.

Um eine Vorstellung davon zu vermitteln, wie absolut lächerlich der Gedanke ist, zwei Kernkraftwerke pro Woche ans Netz zu bringen, beträgt die typische Zeit von der Machbarkeitsstudie bis zum Anschluss ans Netz für Kernkraftwerke etwa zehn oder elf Jahre. Hier ist ein Überblick über die Zeitachse.

Abbildung 1. Typischer Zeitplan für ein Kernkraftwerk, von der ersten Studie bis zur endgültigen Inbetriebnahme. QUELLE.

Schließlich wird der Wechsel von der direkten Nutzung fossiler Brennstoffe zur Nutzung von Elektrizität enorm teuer sein. Kernkraftwerke kosten typischerweise in der Größenordnung von sieben Milliarden Dollar pro Gigawatt … und da wir 2.060 Gigawatt an neuen Kernkraftwerkskapazitäten benötigen, sind das etwa 14 Billionen Dollar mit einem T …

Wie groß ist eine Billion Dollar? Wenn Ihre Familie zur Zeit der Geburt Jesu ein Unternehmen gegründet und dieses von da an bis heute jeden Tag eine Million Dollar verdient hätte … Sie hätten immer noch keine Billion Dollar verdient. Eine Million Dollar am Tag für 2.000 Jahre … weniger als eine Billion.

Aber Moment, da ist noch mehr an diesem wunderbaren Geschäft. Die Umstellung von der direkten Verbrennung fossiler Brennstoffe auf die Verwendung von Elektrizität würde bedeuten, dass wir unser gesamtes elektrisches Übertragungsnetz aufrüsten müssten, einschließlich Umspannwerken, Schaltern, Übertragungsleitungen, Transformatoren und Verkabelung zu und innerhalb jedes Hauses. Dann bräuchte jedes Haus wie meines neue elektrische Öfen, Warmwasserbereiter und Heizungen … kann ich sagen, wie sehr ich es hasse, auf einem elektrischen Herd zu kochen? Und wer wird mir meinen neuen Herd bezahlen?

Fazit? Dies ist nur eine weitere liberale ökologisch brillante Idee. Dieser Plan ist genau wie ein Kind, das sich einen Umhang anzieht und darauf besteht, dass es wie Superman durch die Luft schweben kann und vom Dach springt …

… es wird niemals fliegen, und jemand wird schwer verletzt werden …

Abaschließend möchte ich auf eine zugrunde liegende Realität in Bezug auf all dies hinweisen. Obwohl ich in vielen Foren immer wieder nachgefragt habe, konnte mir bis heute niemand sagen, was dieser angebliche „KLIMA-NOTSTAND“ eigentlich ist und wo ich Beweise für seine Existenz finden könnte.

Die Todesfälle durch klimabedingte Phänomene sind so niedrig wie nie zuvor. Wenn Sie glauben, dass Todesfälle durch Klimakatastrophen ein Notfall sind, zeigen Sie bitte in der Grafik unten auf den Beginn des „Notstands“.

Die Stürme haben nicht zugenommen, und es gab keine Zunahme der Stärke von Hurrikanen oder -häufigkeit … kein „Notstand“ dort.

Selbst der IPCC sagt, dass es nur eine Chance von eins zu fünf („low confidence“) gibt, dass die globalen Dürren zunehmen. Auch sind die „feuchten Gebiete feuchter und die trockenen Gebiete trockener geworden“. Kein Hochwasser- oder Dürre-Notstand.

Die weltweiten Schäden durch Wetterkatastrophen in Prozent des Risikovermögens (globales BIP) nehmen ab, nicht zu.

Die Gezeitenmesser zeigen keine Zunahme des Meeresspiegelanstiegs, und die behauptete Beschleunigung des von Satelliten gemessenen Meeresspiegels ist lediglich ein Artefakt der wechselnden Satelliten.

Die Erträge aller wichtigen Nahrungspflanzen steigen weiter, und die Menschen sind besser ernährt, gekleidet und gegen die Unbilden des Wetters geschützt als je zuvor.

Die Temperaturen auf dem Festland sind bereits mehr als die gefürchteten 2°C gestiegen, ohne katastrophale Folgen … also kein historischer „Klimanotstand“ trotz Temperaturanstieg.

Die Zahl der Waldbrände hat weltweit nicht zugenommen … hier sind die Satellitendaten der NASA:

Schließlich ist ein „Notfall“ definiert als „eine ernste, unerwartete und oft gefährliche Situation, die sofortiges Handeln erfordert.“ Alarmisten haben uns seit 50 Jahren immer wieder davor gewarnt – keiner ihrer Unkenrufe hat sich bewahrheitet, obwohl keine nennenswerten Maßnahmen ergriffen wurden … also kann es sich per Definition nicht um einen Notfall handeln.

Bevor wir also Billionen von Dollar für einen unerreichbaren Plan ausgeben, um die gesamte Energieversorgung der USA völlig neu zu gestalten – wie wäre es, wenn wir warten, bis uns jemand tatsächlich in das große Geheimnis einweihen kann: wo ist dieser mysteriöse „KLIMA-NOTSTAND?!!!“, und wann hat er begonnen?

Ein letzter Hinweis: Die Temperatur ändert sich mit der Höhe, und zwar mit einer Rate von etwa 1°C pro 100 Meter. Selbst wenn wir unsere Emissionen morgen auf magische Weise auf Null reduzieren könnten, und WENN (großes Wenn) die „CO2-regiert-die-Temperatur“-Theorie korrekt ist, würde eine Reduzierung der US-Emissionen auf Null die Erde im Jahr 2050 um etwa so viel abkühlen, wie wenn man drei Treppen hoch steigt … siehe meinen Beitrag „Going To Zero“ für die Details.

Was also von unserem „Präsidenten“ vorgeschlagen wird, ist eine bedeutungslose Geste, die unmöglich zu bewerkstelligen ist, und selbst wenn sie bewerkstelligt werden könnte, würde sie nichts zur Lösung eines imaginären „Notstands“ beitragen …

… wie doch die Mächtigen gefallen sind. Früher haben wir echte Kriege gegen echte Feinde geführt und gewonnen. Jetzt können wir nicht einmal mehr Scheinkriege gegen imaginäre Feinde gewinnen.

Link: https://wattsupwiththat.com/2021/04/21/the-latest-co2-fantasy/

Übersetzt von Chris Frey EIKE

 




Die Wahrheit über Windenergie: Die Kosten steigen – und sinken nicht

Der jüngst ernannte Chef von Siemens Gamesa ist mit Druck durch sterigende Kosten konfrontiert

Die Hersteller von Offshore-Windturbinen stehen vor einem härteren Wettbewerb und Preisdruck, warnte der Chef des größten Unternehmens der Branche.

Andreas Nauen, Vorstandschef von Siemens Gamesa, sagte, die hohen Summen, die kürzlich für Offshore-Windentwicklungsrechte geboten wurden, würden „den Druck auf uns erhöhen, wettbewerbsfähigere Turbinen zu liefern“.

Nauen übernahm den Vorstandsvorsitz im vergangenen Juni mit dem Auftrag, eine Strategie zu entwickeln, um die im Kalenderjahr 2020 aufgetretenen hohen Verluste und rückläufigen Umsätze umzukehren.

Während neue Verträge im Wert von Milliarden von Dollar in Offshore-Windprojekte in Europa und den USA fließen, werden die Turbinenhersteller durch hohe Investitionskosten und hohe Stahlpreise einerseits sowie den Druck von Entwicklern, die billigere Turbinen wollen, andererseits unter Druck gesetzt…

Eine Auktion im letzten Monat in Großbritannien, dem größten Offshore-Windmarkt der Welt, führte zu Rekordpreisen, da eine Reihe von relativen Neulingen in diesem Sektor, darunter mehrere Ölkonzerne, um die Rechte am Meeresboden zur Entwicklung von Projekten kämpften.

Die steigenden Preise haben zu Fragen über die möglichen Auswirkungen auf die Lieferkette und die Stromkosten für die Verbraucher geführt, da die Entwickler Wege finden müssen, um sicherzustellen, dass sie eine akzeptable Rendite erzielen.

Der ganze Beitrag steht hier (£)

Link: https://www.thegwpf.com/the-truth-about-wind-energy-costs-are-rising-not-falling/

Übersetzt von Chris Frey EIKE




Eine kurze Historie des Klima-Alarms

Homewood sagt: „Es spielt keine Rolle, welchen Bereich des Klimas man betrachtet, Klimatologen haben eine außergewöhnliche Fähigkeit, sich zu irren. Von der Angst vor einer kommenden Eiszeit in den 1970er Jahren über das Versinken tropischer Inseln in den Wellen bis hin zu permanenter Dürre – sie scheinen immer daneben zu liegen.“

Und während ihre Vorhersagen eher von der untergangslastigen Art sind, ist das nicht immer der Fall. Homewood erklärt:

„Die Katastrophe ist der Prüfstein der Klimawissenschaftler, und es ist ihr Standardmodus, sich zu irren. Unglücklicherweise haben sich ihre Vorhersagen auch in den seltenen Fällen, in denen sie uns gute Nachrichten bringen, wie z.B. die Behauptung, dass sich in Großbritannien ein mediterranes Klima entwickeln würde, als nicht besser erwiesen. Sind das wirklich die richtigen Leute, um die öffentliche Politik zu lenken?“

Und hier die Studie:

Eine kurze Historie des Klima-Alarms

Paul Homewood

Preface

„In einem Zeitraum von 176 Jahren hat sich der untere Mississippi um 242 Meilen verkürzt. Das ist ein Durchschnitt von etwas mehr als einer Meile und einem Drittel pro Jahr. Daher kann jeder ruhige Mensch, der nicht blind oder idiotisch ist, sehen, dass der untere Mississippi in der alten oolithischen Silur-Periode, also vor einer Million Jahren im November nächsten Jahres, über 1,3 Millionen Meilen lang war und wie eine Angelrute über den Golf von Mexiko hinausragte. Und aus dem gleichen Grund kann jeder Mensch sehen, dass in 742 Jahren der untere Mississippi nur noch eine Meile und drei Viertel lang sein wird, und Kairo [USA] und New Orleans werden ihre Straßen zusammengelegt haben und unter einem einzigen Bürgermeister und einem gemeinsamen Stadtrat gemütlich dahinplätschern. Die Wissenschaft hat etwas Faszinierendes an sich. Man erhält solche Großhandels-Renditen von Vermutungen aus einer solchen unbedeutenden Investition von Tatsachen. – Mark Twain, Life on the Mississippi

Die Menschheit schien schon immer von Verheißungen der Apokalypse und der globalen Katastrophe fasziniert zu sein. Oft waren sie religiös begründet. Das Buch der Offenbarung zum Beispiel sagte eine Reihe von Katastrophen voraus, wie Kriege, Seuchen und Hungersnöte als Strafe für die Sünden der Menschen. Aber viele Zivilisationen hatten ähnliche Geschichten, von den Assyrern zu den Hindus und den Azteken zu den Wikingern.

Frühe Mythen besagten, dass die Stadt Rom 634 v. Chr. zerstört werden würde. Im Mittelalter mehrten sich die Untergangs-Prophezeiungen, die oft auf der Vorstellung einer göttlichen Vergeltung für die Sünden der Menschheit beruhten. In den 1970er Jahren tauchte eine neue Art von Prophezeiungen auf, die nicht auf der Religion, sondern auf dem Umweltschutz basierten. Diese Behauptungen hatten jedoch den gemeinsamen Nenner der Sünden der Menschen. Viele vermeintliche Experten sagten schreckliche Hungersnöte, sinkende Lebenserwartung, Ozonlöcher, eine neue Eiszeit und das Ende der Zivilisationen voraus. Der Biologe Dr. Paul Ehrlich von der Stanford University prophezeite sogar, dass alle Menschen vor 1990 in einer blauen Rauchwolke verschwinden würden.

Wir können heute zurückblicken und über diese Spinner lachen, aber damals wurden sie in der Tat sehr ernst genommen. In jüngerer Zeit haben wir uns an immer häufigere Behauptungen über den bevorstehenden Untergang gewöhnt, diesmal wegen des Klimawandels. Aber sind solche Behauptungen überhaupt glaubwürdiger als die früheren? In dieser Analyse wird ein Teil der Geschichte des Klimaalarms beleuchtet.

Die Angst vor der Eiszeit in den 1970er Jahren

Zahlreiche Berichte in den 1970er Jahren spiegelten die Sorge wider, dass die Erde auf eine neue Eiszeit zusteuert. Diese werden heute oft als bloßes Zeitungsgeschwätz abgetan, aber sie waren weit mehr als das.

Einige Wissenschaftler sagten eine komplette Eiszeit voraus, wie z. B. Dr. Rasool von der NASA, der meinte, dass die Luftverschmutzung einen Temperaturrückgang von sechs Grad verursachen würde.1 Solche Vorhersagen waren eher von der extremen Sorte, aber es gab einen weit verbreiteten Konsens unter den Klimawissenschaftlern, dass die globalen Temperaturen seit den 1940er Jahren stark gesunken waren und dass dieser Trend wahrscheinlich anhalten würde.

Die US-Regierung war so besorgt über die Ereignisse, dass sie 1974 ein Subcommittee on Climate Change einrichtete, was wiederum im selben Jahr zum US-Klimaprogramm und der anschließenden Gründung des Climate Analysis Center führte, das den Klimawandel überwachen und vorhersagen sollte. Dies war der Vorgänger des heutigen NCEI, des National Centers for Environmental Information des US Department of Commerce.2

Unnötig zu sagen, dass der Abkühlungstrend bald nach der Gründung des Unterausschusses endete und die Erwärmung wieder einsetzte.

Wenn die Kälte euch nicht einfangen wird, dann wird es die Hitze tun!

In den 1980er Jahren kehrte sich der Abkühlungstrend um, und es dauerte nicht lange, bis die Prognosen der Apokalypse wieder auftauchten, diesmal jedoch auf der Grundlage der Vorstellung eines Treibhausplaneten. 1989 hielt sich Noel Brown, Direktor des New Yorker Büros des UN-Umweltprogramms, nicht zurück und warnte uns, dass:3

● ganze Nationen durch den steigenden Meeresspiegel vom Erdboden verschwinden könnten, wenn der globale Erwärmungstrend nicht bis zum Jahr 2000 umgekehrt wird;

● Überschwemmungen an den Küsten und Ernteausfälle würden einen Exodus von „Öko-Flüchtlingen“ auslösen;

● Der Meeresspiegel würde um bis zu einem Meter steigen;

● Küstenregionen würden überflutet werden – ein Sechstel von Bangladesch könnte überschwemmt werden, wodurch ein Viertel der 90 Millionen Einwohner vertrieben würde, und ein Fünftel des ägyptischen Ackerlandes im Nildelta würde überflutet werden, wodurch die Nahrungsmittelversorgung des Landes unterbrochen würde;

● Die Vereinigten Staaten würden allein für den Schutz ihrer Ostküste mindestens 100 Milliarden Dollar ausgeben;

● die Verschiebung der Klimamuster würde die Bedingungen der Dust Bowl der 1930er Jahre auf die Weizenfelder in Kanada und den USA zurückbringen.

● Die konservativste wissenschaftliche Schätzung war, dass die Temperatur der Erde in den folgenden 30 Jahren um 1 bis 7 Grad steigen würde.

Nun, das Jahr 2000 kam und ging, die Emissionen von Treibhausgasen stiegen weiter an, und die globalen Temperaturen stiegen um bescheidene 0,4°C. Unnötig zu erwähnen, dass auch keine der von Brown prognostizierten Katastrophen eintrat, wie spätere Kapitel zeigen werden.

X Jahre, um den Planeten zu retten

Noel Brown gab uns bis zum Jahr 2000 Zeit, den Planeten zu retten. Doch im Laufe der Jahre wurde das drohende Datum des Untergangs immer weiter nach hinten verschoben. Im Jahr 2009 erklärte Gordon Brown, der damalige britische Premierminister, unverblümt, dass wir „weniger als 50 Tage haben, um unseren Planeten vor der Katastrophe zu retten“. Seine Frist lief am 9. Dezember 2009 ab.4

Die australische Chefwissenschaftlerin, Penny Sackett, war optimistischer. Nur wenige Tage vor Gordon Browns Stunde Null warnte sie uns, dass wir noch fünf Jahre Zeit hätten, um die Welt vor einer katastrophalen globalen Erwärmung zu bewahren.5 Drei Jahre zuvor, im Jahr 2006, war Al Gore sehr viel konkreter und drohte, dass die Welt einen Punkt erreichen würde, an dem es kein Zurück mehr gäbe, wenn nicht innerhalb von zehn Jahren drastische Maßnahmen zur Reduzierung der Treibhausgase ergriffen würden.6 Als die Welt Al Gores Warnung ignorierte, gab uns Christiana Figueres von der UN weitere drei Jahre Zeit zum Durchatmen, aber auch diese Frist lief leider vor nur fünf Monaten ab.7

Allerdings ist es Prinz Charles, der den Preis für die meisten Falschaussagen einheimsen muss. Hier ist eine Liste seiner Alarmen über die Jahre:

● Juli 2009: Er sagte einem Publikum von Industriellen und Umweltschützern im St. James’s Palace, dass er berechnet habe, dass wir nur noch 96 Monate [8 Jahre] Zeit hätten, um die Welt zu retten.8

● Juli 2015: Er warnte, dass wir nur noch 35 Jahre hätten, um den Planeten vor einem katastrophalen Klimawandel zu retten.9

● Juli 2019: Er warnte die führenden Politiker der Welt, dass die nächsten 18 Monate über unsere Fähigkeit entscheiden würden, den Klimawandel auf einem überlebensfähigen Niveau zu halten und die Natur wieder in das Gleichgewicht zu bringen, das für unser Überleben notwendig ist.10

● Februar 2020: Er warnte, dass die Menschen nur noch zehn Jahre Zeit hätten, um den Planeten zu retten.11

Leider meinte er, als er „zehn Jahre“ sagte, eigentlich „eine Stunde“, also korrigierte er sich im November 2020 und sagte der Welt, dass „wir buchstäblich die letzte Stunde“ im Kampf gegen den Klimawandel hätten.12

Die Welt ist nicht untergegangen, wie vorhergesagt, obwohl die Kohlendioxid-Emissionen von Jahr zu Jahr weiter rapide angestiegen sind.13 Es ist bemerkenswert, dass keine dieser Untergangsvorhersagen mit einer wissenschaftlichen Grundlage versehen wurde. Im Gegenteil, die offiziellen Berichte des Intergovernmental Panel on Climate Change (IPCC) scheuen sich stets, solche Vorhersagen zu machen.

Großbritannien wird erfrieren, während die Niederlande ertrinken

Man könnte meinen, dass das Pentagon eine eher seriöse Einrichtung ist, die nicht zu Fantasie und Ballyhoo neigt. Dennoch gab es 2004 einen Bericht über den Klimawandel in Auftrag.14 Zu den wichtigsten Ergebnissen gehörten die folgenden Punkte:

● Bis 2007 würden heftige Stürme die Küstenbarrieren zerschlagen und große Teile der Niederlande unbewohnbar machen. Städte wie Den Haag müssten dann aufgegeben werden.

● Zwischen 2010 und 2020 würde Europa am stärksten vom Klimawandel betroffen sein, mit einem durchschnittlichen jährlichen Temperaturrückgang von 3°C. Das Klima in Großbritannien würde kälter und trockener werden, da die Wettermuster Sibirien ähneln würden.

● Die Zahl der Todesopfer durch Kriege und Hungersnöte würde in die Millionen gehen, bis die Bevölkerung so weit reduziert wäre, dass die Erde damit zurechtkäme.

● Unruhen und interne Konflikte würden Indien, Südafrika und Indonesien auseinanderreißen.

● Ein „signifikanter Rückgang“ der Fähigkeit des Planeten, seine derzeitige Bevölkerung zu halten, würde sich in den nächsten 20 Jahren bemerkbar machen.

● Millionen von Menschen könnten nicht mehr anbauen, entweder direkt durch den Klimawandel oder durch den Anstieg des Meeresspiegels. Reiche Gebiete wie die USA und Europa würden zu „virtuellen Festungen“ werden, um Millionen von Klimaflüchtlingen abzuhalten.

● Mega-Dürren würden die wichtigsten Kornkammern der Welt treffen, einschließlich des Mittleren Westens der USA, wo starke Winde zu Bodenverlusten führen würden.

● Chinas riesige Bevölkerung und sein Nahrungsmittelbedarf machten es besonders verwundbar. Bangladesch würde wegen des steigenden Meeresspiegels fast unbewohnbar werden.

Das Pentagon fuhr fort, den Bericht zu unterdrücken, was wahrscheinlich daran lag, dass sie genau wussten, um was für eine Ladung alten Mülls es sich dabei handelte. Wie auch immer, es war vorhersehbar, dass eine Schar von „Klimaexperten“ George Bush beschuldigte, die Bedrohung durch den Klimawandel unter den Teppich zu kehren.

Vielleicht noch schockierender als die Absurditäten in dem Bericht war die Liste der Koryphäen, die nichts Eiligeres zu tun hatten ihn zu unterstützen, darunter Professor Hans-Joachim Schellnhuber, ehemaliger Chef-Umweltberater der deutschen Regierung, Sir John Houghton, ehemaliger Chef des Meteorological Office, und Sir Bob Watson, Chefwissenschaftler der Weltbank und ehemaliger Vorsitzender des Intergovernmental Panel on Climate Change IPCC.

Kinder werden einfach nicht mehr wissen, was Schnee ist

Im März 2000 war Dr. David Viner ein leitender Forscher an der Climatic Research Unit (CRU) der University of East Anglia, der weltweit führenden Einrichtung für Klimawissenschaften. In einem Interview mit dem Independent in jenem Monat behauptete Viner unverblümt, dass Schneefall im Winter innerhalb weniger Jahre „ein sehr seltenes und aufregendes Ereignis“ sein würde. Kinder werden einfach nicht mehr wissen, was Schnee ist“, erklärte er.15

Er bezog sich dabei natürlich auf Großbritannien. In den zwanzig Jahren, die seither vergangen sind, hat sich seine Vorhersage nicht bewahrheitet. In den meisten Jahren seitdem hat es in Großbritannien immer wieder heftige Schneefälle gegeben. In der Tat waren die Winter 2008/09 und 2009/10 besonders schneereich.

Der Dezember 2010 war der kälteste Dezember seit mehr als 100 Jahren, mit weitreichenden Behinderungen durch Schnee.16

In jüngerer Zeit brachte das „Beast from the East“ im Februar 2018 mehrere Tage mit bitterer Kälte und Schneestürmen. Tausende von Schulen mussten schließen, ländliche Städte und Dörfer waren tagelang von der Außenwelt abgeschnitten, Tausende von Flügen und Bahnfahrten wurden gestrichen, und im ganzen Land kam es zu wetterbedingten Verkehrsunfällen.17

Obwohl sich Viner speziell auf Großbritannien bezog, hatte seine Theorie weitreichende Auswirkungen. Wenn wir jedoch einen Blick auf die gesamte nördliche Hemisphäre werfen, stellen wir fest, dass die Schneemenge im Winter seit seiner Behauptung keineswegs seltener geworden ist, sondern stetig zugenommen hat.

[Einschub des Übersetzers: Jüngst erkennt man eine weit überdurchschnittlich große Schneemenge auf der Nordhemisphäre, wie diese Graphik veranschaulicht {Stand 9. März 2021}:

Quelle

Ende Einschub]

Mediterrane Sommer

Das Ende von Schnee war nicht die einzige Vorhersage von Dr. Viner. Im Jahr 2006 erklärte er zuversichtlich, dass das Mittelmeer innerhalb von zwanzig Jahren viel zu heiß für europäische Urlauber werden würde, die stattdessen nach Blackpool strömen würden, um die Vorteile der wärmeren Sommer in Großbritannien zu nutzen.18 Solche Behauptungen waren üblich. Im Jahr zuvor hatten Wissenschaftler auf einer zweitägigen Konferenz zum Klimawandel an der Universität von Surrey zum Beispiel gesagt, dass England bald wie das Mittelmeer aussehen würde, mit einheimischen Wäldern, die durch Olivenhaine, Weinberge und Sonnenblumen ersetzt würden, während traditionelle englische Gärten nicht überleben könnten und durch Palmen und Eukalyptus ersetzt würden, wenn die Temperaturen bis 2050 um 3°C steigen.19

Zurück in der realen Welt sind die meisten britischen Sommer jedoch immer noch enttäuschende Angelegenheiten, und selbst der gelegentliche warme ist immer noch nicht so heiß wie die Sommer 1976 und 1995. Es gibt auch keinen erkennbaren Trend bei den Sommerniederschlägen, die immer noch von Jahr zu Jahr stark schwanken. Trockenes, mediterranes Wetter ist es jedenfalls nicht!

Als diese heißen, trockenen Sommer ausblieben, beschlossen die Wissenschaftler natürlich, dass wir uns stattdessen auf feuchte Sommer freuen können. Man versicherte uns, dass dies am „schmelzenden arktischen Eis“ läge.20 Es scheint, dass sie genauso weit daneben lagen, wie David Viner es tat. Die damalige Umweltministerin Caroline Spelman hatte 2012 andere Sorgen und behauptete, dass „Dürre die neue Norm für Großbritannien sein könnte“. Unnötig zu sagen, dass dies durch ein paar Monate trockenen Wetters ausgelöst wurde. Lächerlicherweise folgten zwei Monate später ein Frühling und ein Sommer, die zu den feuchtesten seit Beginn der Aufzeichnungen gehörten!21 Genauer gesagt zeigen die britischen Niederschlagsdaten, dass Dürrejahre in der Vergangenheit viel häufiger und intensiver waren.22

Während Caroline Spelman lediglich eine Politikerin war, hätte die damalige Chefwissenschaftlerin des Met Office, Julia Slingo, es wirklich besser wissen müssen. Nach einigen kalten Wintern erklärte sie den Abgeordneten, dass der Rückgang der Eismengen im hohen Norden zu kälteren Wintern in Großbritannien und Nordeuropa sowie zu Trockenheit beiträgt.23 2013 legte sie nach, indem sie behauptete, dass „der Klimawandel die Würfel in Richtung eiskaltes, trockenes Wetter warf“.24 Natürlich vergaß sie ein Jahr später, nach einem warmen und nassen Winter, bequemerweise ihre vorherigen Prognosen und erklärte, dass dieses Wetter auch mit dem Klimawandel zusammenhängt.25

Unnötig zu erwähnen, dass sich die kalten Winter lediglich als gelegentliche Wetterereignisse herausstellten, die sie in der Vergangenheit waren. Auch sind die britischen Winter seit 2013 nicht wärmer geworden als zu anderen Zeiten in der Vergangenheit. Mit anderen Worten: typisch britisches Wetter.

Es ist kaum verwunderlich, dass das Met Office bei diesen langfristigen Vorhersagen immer wieder total daneben liegt, wenn es nicht einmal kurzfristiges Wetter vorhersagen kann. Immerhin waren sie im Oktober 2010 mit Hilfe ihres brandneuen Supercomputers sicher, dass Großbritannien ein milder Winter bevorstand. Nur einen Monat später kämpfte das Land unter mehreren Metern Schnee!26

Permanente Dürren

Wir haben bereits erlebt, wie das Pentagon fälschlicherweise „Mega-Dürren“ im Mittleren Westen der USA prophezeite. In Wirklichkeit liegen die Niederschläge in der Region seither weit über dem Durchschnitt, und die Art von schweren Dürren, die früher an der Tagesordnung waren, sind in den letzten dreißig Jahren extrem selten gewesen.27

Andere Wissenschaftler haben eine permanente Dürre im Südwesten der USA vorhergesagt, natürlich aufgrund der globalen Erwärmung. So behauptete eine Studie im Jahr 2007, dass die Dust-Bowl-Dürren innerhalb weniger Jahre zur Norm werden würden.28 Tatsächlich werden Dürren im Südwesten nicht häufiger, und nichts in den letzten Jahrzehnten hat die schweren Dürren der 1950er Jahre erreicht.29

Im Jahr 2011 verkündete Andrew Dessler, Professor für Atmosphärische Wissenschaften an der Texas A&M University, dass der heiße texanische Sommer dieses Jahres zur neuen Norm werden würde.30 Wie so oft basierte diese Schreckensmeldung auf einem einzigen ungewöhnlichen Ereignis, und ebenso typisch kehrten die Temperaturen nach seiner Behauptung schnell wieder auf das vorherige Niveau zurück.31

Vorhersagen der Apokalypse sind nicht nur auf die USA beschränkt. Tim Flannery war zwischen 2011 und 2013 Chef der Klimakommission in Australien und gilt dort immer noch als einer der führenden Experten für den Klimawandel. Im Laufe der Jahre hat er es sich zur Gewohnheit gemacht, vorauszusagen, dass Australien das Wasser ausgehen wird:

2004: „Ich denke, es besteht eine gute Chance, dass Perth die erste Geistermetropole des 21. Jahrhunderts sein wird. Die gesamte Primärproduktion ist in einem katastrophalen Zustand und die östlichen Staaten hinken nur 30 Jahre hinterher.“

2007: „Denken Sie an die schlimmste Dürre, die Australien seit Beginn der Aufzeichnungen erlebt hat, und nehmen Sie dann drei Viertel des Rinnsals weg, das damals im Murray-Darling floss. Das ist die Wassermenge, die in diesem Jahr durch Australiens Hauptflüsse fließt.“
2007: „Brisbane und Adelaide – Heimat von insgesamt drei Millionen Menschen – könnten bis zum Jahresende kein Wasser mehr haben.“

2007: „In den letzten 50 Jahren hat Südaustralien etwa 20 Prozent seiner Niederschläge verloren, und eine Ursache ist mit Sicherheit die globale Erwärmung. Ähnliche Verluste sind im Osten Australiens zu verzeichnen, und obwohl die Wissenschaft weniger sicher ist, steckt vermutlich die globale Erwärmung auch hinter diesen Verlusten. Aber der bei weitem gefährlichste Trend ist der Rückgang des Durchflusses der australischen Flüsse: Er ist in den letzten Jahrzehnten um etwa 70 Prozent zurückgegangen, so dass sich die Dämme nicht mehr füllen, selbst wenn es regnet… In Adelaide, Sydney und Brisbane sind die Wasservorräte so gering, dass sie dringend entsalztes Wasser benötigen, möglicherweise schon in 18 Monaten.“32

Und dann kam der Regen, wie immer im Land der „Dürren und Überschwemmungsregen“ … Im Dezember 2008 waren die Stauseen von Adelaide zu 75 % gefüllt, die von Perth zu 40 %, die von Sydney zu 63 % und die von Brisbane zu 46 %. Im folgenden Jahr waren die Dämme in Brisbane, Canberra und Sydney bis zum Überlaufen gefüllt. Seitdem schwanken die Niederschläge in Südaustralien, so wie sie es schon immer getan haben, aber die Dürren waren nicht so schwerwiegend oder lang anhaltend wie in der ersten Hälfte des 20. Jahrhunderts.33

Todes-Spirale des arktischen Eises

Im Laufe der Jahre wurde uns von vielen Experten versichert, dass das Meereis in der Arktis bald wegschmelzen würde. Im Jahr 2007 zum Beispiel sagte uns Professor Wieslaw Maslowski, dass die nördlichen polaren Gewässer in den Sommern innerhalb von nur 5-6 Jahren eisfrei sein könnten.34 Im Dezember desselben Jahres stimmte Jay Zwally von der NASA zu und gab dem Eis Zeit bis 2012.35 Ein Jahr später, im Jahr 2008, ging Professor David Barber noch einen Schritt weiter und sagte, dass das Eis noch im selben Sommer verschwunden sein würde.36

Für die schiere Beharrlichkeit, sich zu irren, muss der Preis jedoch an Peter Wadhams gehen, Professor und Leiter der Polar Ocean Physics Group im Department of Applied Mathematics and Theoretical Physics an der Universität Cambridge:

● Im Jahr 2012 sagte er voraus, dass die Arktis bis2015/16. eisfrei sein würde.37

● Im Jahr 2014 dachte er, dass es bis 2020 dauern könnte.38

● Im Jahr 2016 sagte er zuversichtlich voraus, dass die Arktis in diesem Sommer eisfrei sein würde (obwohl er jetzt seltsamerweise „eisfrei“ als weniger als 1 Million Quadratkilometer definierte!).39

Und die Realität? Der Rekord für die geringste Meereisausdehnung seit dem ersten Erscheinen dieser Vorhersagen wurde 2012 aufgestellt. Seitdem wurde kein Jahr mit weniger als 4 Millionen Quadratkilometern verzeichnet.40

Antarktis

Während die Arktis schmelzen würde, sagten andere Experten voraus, dass wir alle bald in der Antarktis leben würden. Im Jahr 2004 behauptete der damalige leitende Wissenschaftler der britischen Regierung Professor Sir David King bei einer Anhörung eines parlamentarischen Ausschusses, dass wir uns schnell auf das Klima von vor 55 Millionen Jahren zubewegen, als die Antarktis der bewohnbarste Ort für Säugetiere war, weil sie der kühlste Ort war, und der Rest der Erde eher unwirtlich, weil es so heiß war.41 Laut dem Independent erklärte King, dass „die Antarktis wahrscheinlich der einzige bewohnbare Kontinent der Welt bis zum Ende dieses Jahrhunderts sein wird, wenn die globale Erwärmung unkontrolliert bleibt“.42

Vier Jahre später waren die Experten des hoch angesehenen Forum for the Future noch viel alarmierter und erklärten, dass bis zum Jahr 2040 3,5 Millionen Flüchtlinge wegen der steigenden Temperaturen in die Antarktis strömen würden.43 Ich glaube nicht, dass wir wirklich einen Blick auf die Temperaturaufzeichnungen in der Antarktis werfen müssen, um zu wissen, dass sie immer noch vereist und für menschliches Leben völlig ungeeignet ist. Aber selbst in Küstenstationen wie Mawson steigen die durchschnittlichen Jahrestemperaturen selten über -10°C, und es gibt keine Anzeichen dafür, dass sie in nächster Zeit noch wärmer werden!44

Dies war nicht die einzige schwachsinnige Behauptung von Sir David. Bei der gleichen Anhörung des Ausschusses rechnete er auch damit, dass das grönländische Inlandeis innerhalb von „50 bis 200 Jahren“ verschwunden sein könnte. Seitdem hat Grönland etwa 3000 Gigatonnen Eis verloren.45 Aber Grönlands Eisdecke enthält etwa 2.600.000 Gigatonnen, so dass es bei der derzeitigen Verlustrate etwa 14.000 Jahre dauern wird, bis die Eiskappe geschmolzen ist.46

Der Anstieg des Meeresspiegels wird ganze Nationen auslöschen!

Eine der hartnäckigsten Horrorgeschichten über die Jahre hinweg betrifft den Anstieg des Meeresspiegels. Bereits 1957 warnte der Physiker Dr. Joseph Kaplan, dass die Ozeane in den „nächsten 50 oder 60 Jahren“ um 40 Fuß [12 m] ansteigen würden“.47 Später, 1983, berichtete die US-Umweltschutzbehörde, dass der Meeresspiegel bis zum Ende des nächsten Jahrhunderts bis zu 11 Fuß [~3,3 m] ansteigen könnte.48

Wie wir bereits vernehmen durften, behauptete der Direktor des UN-Umweltprogramms 1989, dass ganze Nationen durch den Anstieg des Meeresspiegels vom Angesicht der Erde getilgt werden könnten, wenn der globale Erwärmungstrend nicht bis zum Jahr 2000 umgekehrt würde. Und 1995 sagten die Wissenschaftler des IPCC, dass die meisten Strände der US-Ostküste innerhalb von 25 Jahren verschwunden sein würden.49

Einer der führenden Klimawissenschaftler der letzten Jahrzehnte, James Hansen, damals Leiter des Goddard Institute for Space Studies der NASA, wurde 1988 sehr konkret.50 Er behauptete, dass der New Yorker West Side Highway innerhalb von 40 Jahren unter Wasser stehen würde. Unnötig zu erwähnen, dass der Highway immer noch da ist und voll befahren wird.51,52 Der Meeresspiegel steigt in New York seither stetig mit einer Rate von 2,87 mm/Jahr, so dass er seit Hansens Vorhersage um etwas mehr als 4 Zoll [10 cm] gestiegen ist. In Anbetracht der Tatsache, dass der Highway 10 Fuß [3 m] oder mehr über dem Meeresspiegel liegt, vermute ich, dass er noch ein paar Jahrhunderte lang sicher ist.53

Inselnationen sind die Aushängeschilder bzgl. der Angst vor dem Meeresspiegel. Die Regierung der Malediven hielt 2009 sogar eine Kabinettssitzung unter Wasser ab, um auf ihre vermeintliche Notlage hinzuweisen.54 Aber das hat sie nicht davon abgehalten, weiterhin neue Flughäfen und Hotelkomplexe auf den Inseln zu bauen. Allein 2019 wurden fünf neue Flughäfen eröffnet, um Touristen zu mehreren neuen Hotelresorts zu bringen, die derzeit auf unterentwickelten Atollen gebaut werden.55 Es scheint, dass sie, zusammen mit Investoren wie dem Abu Dhabi Fund for Development, genau wissen, dass der Meeresspiegel nicht die dargestellte Bedrohung ist.

Und das aus gutem Grund. Studien von Experten haben ergeben, dass viele tief liegende Pazifikinseln an Fläche zunehmen und nicht versinken, was größtenteils auf Korallentrümmer, Landgewinnung und Sedimente zurückzuführen ist.56 Tatsächlich stellen wir überall auf der Welt fest – auch in Großbritannien – dass der Meeresspiegel heute nicht schneller steigt als vor einem Jahrhundert.57

Aber das hat die „Experten“ nicht davon abgehalten, sich gegenseitig zu übertrumpfen hinsichtlich Prophezeiungen des stärksten Anstiegs des Meeresspiegels. Ein Beispiel dafür sind die Autoren der Website Climate Central, die für 2019 einen Meeresspiegelanstieg von bis zu 10,8 Metern bis zum Ende des Jahrhunderts vorhersagen, der Cardiff, Swansea und Nordwales, East Yorkshire und Hull, Peterborough und Norfolk sowie die Küste von Lancaster bis Liverpool unter Wasser setzen könnte.58

Klima-Flüchtlinge

Die UNO stand oft im Mittelpunkt von Behauptungen, dass Millionen von Flüchtlingen aufgrund von klimabedingten Katastrophen wie Dürre, Wirbelstürmen und dem Anstieg des Meeresspiegels zur Flucht gezwungen würden. Zum Beispiel:

● 2005 – „Steigende Meeresspiegel, Wüstenbildung und schrumpfende Süßwasservorräte werden bis zum Ende des Jahrzehnts bis zu 50 Millionen Umweltflüchtlinge hervorbringen“ – Janos Bogardi, Direktor des Instituts für Umwelt und menschliche Sicherheit an der Universität der Vereinten Nationen in Bonn.59

● 2008 – „Es wurde geschätzt, dass es bis 2010 zwischen 50 Millionen und 200 Millionen Umweltflüchtlinge geben wird.“ – Srgjan Kerim, Präsident der UN-Generalversammlung.60
● 2011 – „Fünfzig Millionen ‚Umweltflüchtlinge‘ werden bis 2020 in den globalen Norden strömen, auf der Flucht vor der durch den Klimawandel verursachten Nahrungsmittelknappheit“ – Professor Cristina Tirado,UCLA.61

● 2014 – „Der Klimawandel hat die globale Nahrungsmittelversorgung bereits beeinträchtigt“ – Intergovernmental Panel on Climate Change.62

Der UN-Bericht von 2008 veröffentlichte sogar eine Karte, um zu zeigen, woher diese angeblichen Flüchtlinge kommen würden. Das war so peinlich, dass die UN ein paar Jahre später versuchte, es später zu verstecken.63,64

In Wirklichkeit zeigt die Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen selbst, dass die Getreideproduktion seit 2010 kontinuierlich gestiegen ist, sowohl weltweit als auch in Afrika und Asien im Besonderen.65,66 Sie sagen auch, dass der Prozentsatz der chronisch unterernährten Menschen in Ländern mit niedrigem bis mittlerem Einkommen von etwa 30 Prozent in den Jahren 1990-92 auf etwa 13 Prozent zwei Jahrzehnte später gefallen ist.67

Aber der direkteste Weg, Behauptungen über Klimaflüchtlinge zu widerlegen, ist einfach, sich die Bevölkerungsentwicklung anzusehen. In den Ländern, die auf der UN-Karte als am stärksten durch den Klimawandel gefährdet gekennzeichnet sind, sind die Menschen nicht zu Millionen geflohen, sondern geblieben und haben sich gut entwickelt.68

Verknappung von Nahrungsmitteln

Behauptungen über drohenden Hunger sind manchmal recht konkret. So sagten uns Wissenschaftler 2008, dass verarmte Bauern in Südasien und im südlichen Afrika innerhalb von nur 20 Jahren mit einer zunehmenden Nahrungsmittelknappheit aufgrund des Klimawandels konfrontiert sein könnten.69 Sie wiesen insbesondere darauf hin, dass Getreide am meisten gefährdet sei. Tatsächlich zeigen Daten der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen, dass die Produktion von Getreide im südlichen Asien stetig steigt. Im südlichen Afrika ist der Trend trotz der üblichen Schwankungen ebenfalls unverkennbar nach oben gerichtet.70

Bereits 2016 waren Forscher der Universität Oxford davon überzeugt, dass es bis 2050 weltweit zu einer ernsthaften Verknappung von Obst und Gemüse kommen wird, natürlich verursacht durch die globale Erwärmung.71 Wir haben keine Ahnung, was im Jahr 2050 passieren wird. Aber die aktuellen Daten zeigen uns, dass die globale Produktion von Obst und Gemüse seit 1961 kontinuierlich gestiegen ist, gerade weil sich die Welt erwärmt hat.72

Und im Jahr 2015 befürchteten Wissenschaftler der Royal Botanic Gardens, dass durch die steigenden Temperaturen der Welt bis 2080 der Kaffee ausgeht.73 Ihre apokalyptischen Vorhersagen lagen viele Jahrzehnte in der Zukunft, aber auch hier gibt es, wenn wir uns die realen Daten ansehen, keinerlei Hinweise auf eine solche wilde Entwicklung. Im Gegenteil: Die weltweite Kaffeeindustrie floriert.74

Stärkere Hurrikane

Im Jahr 2010 sagten uns Wissenschaftler, dass die globale Erwärmung zu intensiveren Hurrikanen im Atlantik führen würde.75 In Wirklichkeit hat sich die Häufigkeit schwerer Hurrikane (Kategorie 3-5) seit den 1950er Jahren kaum verändert.76

Und 2013 versicherte der Top-Klimaforscher Kerry Emanuel vom Massachusetts Institute of Technology, dass die Welt bis zum Ende des Jahrhunderts aufgrund des Klimawandels bis zu 20 zusätzliche Hurrikane und tropische Stürme pro Jahr erleben könnte. Auch ihre Intensität würde zunehmen.77

Nichts davon wird bisher durch die tatsächlichen Daten gestützt, die zeigen, dass es seit 1980 weltweit keine Zunahme der Anzahl von Hurrikanen oder größeren Wirbelstürmen gegeben hat.78

Eisbären sind vom Aussterben bedroht

Eisbären sind seit langem das Aushängeschild der globalen Erwärmung, was sogar so weit ging, dass Umweltschützer gefälschte, mit Fotos versehene Bilder von ihnen verbreiteten, auf denen sie scheinbar auf Eisschollen gestrandet waren.79 Im Jahr 2004 kamen 40 Mitglieder der Eisbärenspezialgruppe der International Conservation Union (IUCN) zu dem Schluss, dass die imposanten weißen Raubtiere – die größten Bären der Welt – als „gefährdete“ Art eingestuft werden sollten, basierend auf einem wahrscheinlichen Rückgang ihrer weltweiten Population um 30 Prozent in den folgenden 35 bis 50 Jahren. Damals gab es noch 20.000 bis 25.000 Eisbären in der Arktis.80 Vier Jahre später listete der US Fish and Wildlife Service den Eisbären wegen des schwindenden arktischen Meereises offiziell als „bedrohte Art“.81 Noch 2017 wurde gewarnt, dass die Bären aussterben könnten, wenn die Treibhausgasemissionen nicht deutlich reduziert würden.82

Tatsächlich ist die weltweite Eisbärenpopulation seit 2004 gewachsen, wobei die letzten offiziellen Schätzungen sie auf 22.000 bis 31.000 Individuen beziffern.83 Das ist viel höher als 1980, als das Meereis viel ausgedehnter war.84 Außerdem deuten drei aktuelle Studien darauf hin, dass die IUCN-Zählung von 2015 eine Unterschätzung gewesen sein könnte.85 Wenn man bedenkt, dass die Eisbärenpopulation in den 1960er Jahren nur 12.000 Tiere betragen haben könnte, scheinen sie jetzt zu gedeihen.86

Es sind nicht nur die Eisbären, die gefährdet sein sollen. Seit vielen Jahren werden Bedenken bezüglich des pazifischen Walrosses geäußert. Zum Beispiel behauptete Sir David Attenborough:
„Meeresströmungen bewegen Wärme um unseren Planeten und erhalten ein für das Leben günstiges Klima. Aber unser Ozeansystem, das sich seit Jahrtausenden in einem relativen Gleichgewicht befindet, verändert sich in einem besorgniserregenden Tempo. Tief im polaren Norden treffen wir Walrossmütter und ihre neugeborenen Kälber, die nach einer Eisscholle suchen, auf der sie sich ausruhen können. Doch mit steigenden Temperaturen zieht sich das sommerliche Meereis zurück – ihr Kampf ums Überleben wird immer härter“.87

Der US Fish and Wildlife Service hat die Situation jedoch genau untersucht und erklärte 2017:

„Es wurde festgestellt, dass das Pazifische Walross nicht als bedroht oder gefährdet im Sinne des Endangered Species Act (ESA) geschützt werden muss“. Diese Feststellung folgt einer umfassenden Überprüfung und Analyse der besten verfügbaren wissenschaftlichen Informationen über die Art sowie des lokalen und traditionellen ökologischen Wissens der Ureinwohner Alaskas.88

Summary

Diese Beispiele sind nur die Spitze des Eisbergs. Es gibt buchstäblich Hunderte von Schauergeschichten, von tauben Fischen und riesigen Austern, schwächeren Winden, stärkeren Winden, Fettleibigkeit und UFOs. Alles Dinge, die durch den Klimawandel verursacht oder verschlimmert werden würden. Viele von ihnen sind auf der Numberwatch-Website archiviert.89

Während einige das Werk von Spinnern sind, kommen viel zu viele von vermeintlich seriösen Quellen und werden natürlich von den Medien aufgeschnappt, die immer verzweifelt nach Schlagzeilen suchen. Ein Teil des Problems mögen die für jede Forschung zur Verfügung stehenden Geldsummen liegen, die behauptet, mit dem Klima zu tun zu haben, egal wie dünn die Grundlage ist. Es ist schwierig, nicht zu dem Schluss zu kommen, dass viele sich auf diese Behauptungen stützenden Studien sonst nie in Gang gekommen wären.

Und doch scheint niemand zur Rechenschaft gezogen zu werden, wenn ihre Untergangs-Prophezeiungen nicht eintreten. Inzwischen werden wir immer noch mit ähnlich absurden Behauptungen überschwemmt. Erst kürzlich verkündete das britische Met Office, dass Schnee in England bald der Vergangenheit angehören würde. Offensichtlich hat man nichts aus David Viners Fauxpas zwanzig Jahre zuvor gelernt.90

All dies hat sich schädlich auf das Ansehen der Klimatologie als Ganzes ausgewirkt. Während einige Wissenschaftler lächerliche Behauptungen aufstellten – wo waren ihre Kollegen, die ihnen hätten entgegentreten sollen? Und wo waren die Wissenschaftler, als die Medien, die Politiker und Extinction Rebellion den „Klimanotstand“ und Schlimmeres ausriefen?

Es ist schwer, nicht zu dem Schluss zu kommen, dass es wichtiger war, eine politische Botschaft zu vermitteln als wissenschaftliche Integrität. Wir täten gut daran, uns an die Worte des renommierten Klimaforschers Stephen Schneider in einem Interview aus dem Jahr 1989 zu erinnern:

„Einerseits sind wir ethisch an die wissenschaftliche Methode gebunden, d.h. wir versprechen, die Wahrheit zu sagen, die ganze Wahrheit und nichts als die Wahrheit, was bedeutet, dass wir alle Zweifel, Vorbehalte, Wenn und Aber einschließen müssen. Andererseits sind wir nicht nur Wissenschaftler, sondern auch Menschen. Und wie die meisten Menschen möchten wir, dass die Welt ein besserer Ort wird, was in diesem Zusammenhang bedeutet, dass wir daran arbeiten, das Risiko eines potenziell katastrophalen Klimawandels zu verringern. Um das zu erreichen, müssen wir eine breite Unterstützung bekommen, um die Vorstellungskraft der Öffentlichkeit zu gewinnen. Das bedeutet natürlich, dass wir eine Menge Medienberichte bekommen müssen. Also müssen wir Schreckensszenarien anbieten, vereinfachte, dramatische Aussagen machen und die Zweifel, die wir haben könnten, kaum erwähnen. Diese doppelte ethische Zwickmühle, in der wir uns häufig befinden, lässt sich mit keiner Formel lösen. Jeder von uns muss für sich selbst entscheiden, was die richtige Balance zwischen Effektivität und Ehrlichkeit ist. Ich hoffe, das bedeutet, beides zu sein“.91

Notes

  1. https://cei.org/blog/wrong-again-50-years-of-failed-eco-pocalyptic-predictions/.
  2. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.556.2807.
  3. https://apnews.com/article/bd45c372caf118ec99964ea547880cd0 .

  4. https://cei.org/blog/wrong-again-50-years-of-failed-eco-pocalyptic-predictions/ .

  5. https://www.heraldsun.com.au/archive/news/weve-got-5-years-to-save-world-says-australiaschief-scientist-professor-penny-sackett/news-story/614a7441983b090314f05f7f705a1d5a .

  6. https://www.cbsnews.com/news/2006-al-gore-does-sundance/ .

  7. https://notalotofpeopleknowthat.wordpress.com/2017/07/13/three-years-to-save-the-world/ .

  8. https://www.independent.co.uk/environment/green-living/just-96-months-to-save-worldsays-prince-charles-1738049.html .

  9. http://web.archive.org/web/20150720220112/http://www.westernmorningnews.co.uk/PrinceCharles-exclusive-tackle-climate-change/story-27440039-detail/story.html .

  10. https://www.breitbart.com/europe/2019/07/12/rich-eco-loons-like-prince-charles-should-payclimate-change/ .

  11. https://www.dailymail.co.uk/news/article-8017939/Weve-got-10-years-save-planet-warnsPrince-Charles.html .

  12. https://www.climatedepot.com/2020/11/10/wait-what-prince-charles-now-says-world-isliterally-at-the-last-hour-in-fight-against-climate-change-but-he-previously-issued-10-year-18month-100-month-35-year-tipping-po/? .

  13. https://ourworldindata.org/co2-emissions.
  14. https://www.theguardian.com/environment/2004/feb/22/usnews.theobserver .

  15. https://web.archive.org/web/20130422045937/and http://www.independent.co.uk/environment/snowfalls-are-now-just-a-thing-of-the-past-724017.html .

  16. https://digital.nmla.metoffice.gov.uk/IO_9d8b6c02-0fd3-491b-97e0-03d59cd79ff7/ .

  17. https://digital.nmla.metoffice.gov.uk/IO_26f99c79-2cb0-48ae-af27-f168762bd5ae/ .

  18. https://www.theguardian.com/travel/2006/jul/28/travelnews.uknews.climatechange .

  19. http://news.bbc.co.uk/1/hi/uk/4091068.stm .

  20. https://www.theguardian.com/science/2012/aug/08/shape-of-british-summers-to-come .

  21. https://www.theguardian.com/environment/2012/feb/21/drought-new-norm-for-uk .

  22. https://www.metoffice.gov.uk/research/climate/maps-and-data/uk-temperature-rainfall-andsunshine-time-series.
  23. https://www.theguardian.com/environment/2012/mar/14/met-office-arctic-sea-ice-loss-winter .

  24. https://www.itv.com/news/update/2013-04-10/met-offices-urgent-inquiry-into-arctic-effect-on-uk-weather/ .

  25. https://www.bbc.co.uk/news/uk-politics-26084625 .

  26. https://www.express.co.uk/news/uk/208012/Winter-to-be-mild-predicts-Met-Office .

  27. https://www.ncdc.noaa.gov/cag/national/time-series.
  28. https://phys.org/news/2011-01-southwest-permanent-drought.html .

  29. https://www.ncdc.noaa.gov/cag/national/time-series.
  30. https://www.chron.com/opinion/outlook/article/Texas-is-vulnerable-to-warming-climate-2079164.php .

  31. https://www.ncdc.noaa.gov/cag/national/time-series.
  32. https://climatism.blog/2018/03/12/tim-flannery-professor-of-dud-predictions-and-climatefalsehoods/ .

  33. http://www.bom.gov.au/climate/change/index.shtml#tabs=Tracker&tracker=timeseries .

  34. http://news.bbc.co.uk/1/hi/sci/tech/7139797.stm .

  35. https://www.foxnews.com/story/scientists-arctic-is-screaming-global-warming-may-havepassed-tipping-point .

  36. https://www.groundreport.com/north-pole-may-be-ice-free-this-summer/ .

  37. https://www.theguardian.com/environment/2012/sep/17/arctic-collapse-sea-ice .

  38. https://www.thetimes.co.uk/article/arctic-ice-cap-in-death-spiral-xvwm398zpds .

  39. https://www.independent.co.uk/environment/climate-change/arctic-could-become-ice-freefirst-time-more-100-000-years-claims-leading-scientist-a7065781.html .

  40. https://web.nersc.no/WebData/arctic-roos.org/observation/ssmi_ice_ext.png.
  41. https://www.publications.parliament.uk/pa/cm200304/cmselect/cmenvaud/490/4033002.htm .

  42. http://web.archive.org/web/20100817023019/http://www.independent.co.uk/environment/ why-antarctica-will-soon-be-the-ionlyi-place-to-live—literally-561947.html .

  43. https://www.telegraph.co.uk/news/earth/earthnews/3353247/Climate-change-study-predicts-refugees-fleeing-into-Antarctica.html .

  44. https://data.giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4.cgi?id=AYM00089564&dt=1& ds=14 .

  45. http://polarportal.dk/en/greenland/mass-and-height-change/ .

  46. https://wattsupwiththat.com/2019/08/03/greenland-endures/ .

  47. https://stevengoddard.wordpress.com/2013/08/17/phd-physicist-greenhouse-effect-to-raisesea-level-40-feet-in-the-next-four-years/ .

  48. https://stevengoddard.wordpress.com/2015/03/05/epa-predicts-11-feet-of-sea-level-rise/ .

  49. https://realclimatescience.com/2017/02/ipcc-us-beaches-gone-by-2020/ .

  50. https://www.salon.com/2001/10/23/weather/ .

  51. http://www.columbia.edu/~jeh1/mailings/2011/20110126_SingingInTheRain.pdf .

  52. https://commons.wikimedia.org/wiki/File:West_Side_Highway_from_1_WTC_New_York_ City_2.JPG.

  53. https://tidesandcurrents.noaa.gov/sltrends/sltrends_station.shtml?id=8518750.
  54. https://www.dailymail.co.uk/news/article-1221021/Maldives-underwater-cabinet-meetingheld-highlight-impact-climate-change.html.
  55. https://maldives.net.mv/31166/maldives-to-open-five-new-airports-in-2019/ .

  56. http://www.abc.net.au/science/articles/2010/06/03/2916981.htm .

  57. https://tidesandcurrents.noaa.gov/sltrends/sltrends_station.shtml?id=170-053.
  58. http://web.archive.org/web/20191210051944/https://www.msn.com/en-gb/news/empowering-the-planet/chilling-doomsday-map-shows-how-uk-will-be-left-underwater-in-80-years-time/ar-AAJMosJ?ocid=spartandhp .

  59. https://www.theguardian.com/environment/2005/oct/12/naturaldisasters.climatechange1 .

  60. https://www.un.org/press/en/2008/ga10725.doc.htm .

  61. https://www.smh.com.au/world/50-million-environmental-refugees-by-2020-experts-say20110222-1b314.html .

  62. https://www.theguardian.com/environment/2014/mar/31/climate-change-food-supply-un .

  63. https://thenewamerican.com/embarrassing-predictions-haunt-the-global-warming-industry/ .

  64. https://web.archive.org/web/20080501091406/http:/maps.grida.no/go/graphic/fifty-millionclimate-refugees-by-2010.
  65. http://www.fao.org/worldfoodsituation/csdb/en/.
  66. http://www.fao.org/faostat/en/#compare .

  67. https://www.worldhunger.org/world-hunger-and-poverty-facts-and-statistics/ .

  68. https://ourworldindata.org/search?q=population.
  69. http://web.archive.org/web/20080208130139/https://news.nationalgeographic.com/news/2008/01/080131-warming-crops.html .

  70. http://www.fao.org/faostat/en/#compare .

  1. http://www.telegraph.co.uk/news/earth/environment/climatechange/12181496/Climatechange-Global-warming-fruit-and-veg-shortage-could-lead-to-1200-extra-UK-deaths-a-yearby-2050.html .

  2. http://www.fao.org/faostat/en/#compare .

  3. http://www.telegraph.co.uk/news/science/science-news/11442620/Kew-quest-to-prevent-coffee-dying-out.html .

  4. http://www.fao.org/faostat/en/#compare .

  5. https://www.nationalgeographic.com/news/2010/1/100121-hurricanes-global-warming/ .

  6. www.aoml.noaa.gov/hrd-faq/#1569507388495-a5aa91bb-254c .

  7. https://eu.usatoday.com/story/weather/2013/07/08/climate-change-global-warming-hurricanes/2498611/ .

  8. http://climatlas.com/tropical/.
  9. https://wattsupwiththat.com/2010/05/12/new-bear-species-discovered-ursus-bogus/ .

  10. https://www.washingtonpost.com/wp-dyn/content/article/2005/07/06/AR2005070601899.html .

  11. https://ecos.fws.gov/ecp0/profile/speciesProfile?spcode=A0IJ .

  12. https://www.huffpost.com/entry/polar-bears-climate-change_n_5873ebb2e4b02b5f858a8579 .

  13. https://polarbearscience.com/2015/11/18/iucn-red-list-says-global-polar-bear-populationis-22000-31000-26000/ .

  14. https://polarbearscience.com/2015/11/18/iucn-red-list-says-global-polar-bear-populationis-22000-31000-26000/.
  15. https://polarbearscience.com/2017/02/23/global-polar-bear-population-larger-than-previous-thought-almost-30000/ .

  16. https://www.wsj.com/articles/SB121078668964492405 .

  17. https://www.bbc.co.uk/iplayer/episode/p04thmv7/blue-planet-ii-series-1-1-one-ocean .

  18. https://www.fws.gov/news/ShowNews.cfm?_ID=36158 .

  19. https://www.numberwatch.co.uk/warmlist.htm

  20. https://www.bbc.co.uk/news/uk-55179603

  21. https://en.wikipedia.org/wiki/Stephen_Schneider.

About the author

Paul Homewood had a career as an accountant in industry. He has been writing on climate and energy issues since 2011.

Link: https://www.thegwpf.com/prediction-is-hard-particularly-about-the-climate/

Link zum PDF: https://www.thegwpf.com/content/uploads/2021/03/A-Short-History-Of-Climate-Alarm.pdf

Übersetzt von Chris Frey EIKE




Mutation sozialistischer Ideen*

Es steht ausser Frage, dass die Folgen der staatlich verfügten Einschränkungen massiver, tiefgreifender und gefährlicher sind als die Bedrohung durch das Coronavirus. Für mich ist das der entscheidende Punkt. Das ist politisch höchst inkorrekt, und viele Corona-Apokalyptiker dürften meine Ansicht als Desinformation bezeichnen.

In meinem Buch «Quarantäne», das im April 2020 erschien, schrieb ich, dass mir die Leute, die unter Verweis auf die Pandemie Freiheit und Demokratie einschränken wollen, mehr Angst machen als das Virus selbst. Ich habe gewarnt, «dass die Auswirkungen der politisch verordneten Therapie schlimmer sein werden als die Auswirkungen der Krankheit». Ich gab auch meiner Befürchtung Ausdruck, dass die «Pandemie Tür und Tor öffnen wird für immer mehr staatliche Eingriffe in unser Leben».

Heute, zwölf Monate nach dem Auftreten der ersten Fälle von Covid-19 in Europa und zehn Monate nach dem Erscheinen meines Büchleins, haben wir mehr Daten, mehr Hypothesen und Theorien und auch mehr Erfahrungen, aber ich wüsste nicht, warum ich an meinem damaligen Kommentar etwas ändern sollte.

Absolut unmoralisch

Wir erfahren eine brutale Unterdrückung der Demokratie, wie wir es seit dem Untergang des Kommunismus in Europa nicht mehr erlebt haben. Die angeordneten Einschränkungen, Quarantänebestimmungen und Lockdowns haben das Coronavirus nicht besiegen können, aber die Kollateralschäden gefährden die Grundlagen unserer freiheitlichen Gesellschaft in dramatischer Weise.

Ich unterschätze keineswegs den hohen Blutzoll der Pandemie in unseren Ländern und will ihn auch nicht kleinreden, aber ich bin nicht bereit, das eigentümliche und befremdliche Schweigen über die Kehrseite zu akzeptieren – die gravierenden Kosten, die sich in der Verschlechterung unser aller Leben offenbaren, die enormen wirtschaftlichen Kosten, die Auswirkungen auf die staatlichen Finanzen, auf den Bildungssektor, auf unser aller seelische Gesundheit, ganz zu schweigen von der sich verschlechternden Verfassung unserer politischen, sozialen und ökonomischen Systeme.

Ich gehöre nicht zu denen, die die Kosten eines Menschenlebens technokratisch messen und beziffern, aber ich widerspreche ganz entschieden all jenen, die nicht sehen wollen und nicht akzeptieren, dass es zwischen divergierenden Zielen der menschlichen Gesellschaft einen schwierigen Konflikt gibt. Es ist kein Zeichen einer moralischen Haltung, wenn man sagt, dass es solche Konflikte nicht gibt. Diese Konflikte zu leugnen, ist absolut unmoralisch. Sie zu verschweigen, ist viel schlimmer, als sie explizit zu thematisieren, und daher sollten auch wir offen darüber sprechen.

Ich möchte betonen, dass ich, was den Ursprung der Corona-Pandemie angeht, kein Anhänger von Verschwörungstheorien bin, obwohl ich verstehe, wie sie aufkommen konnten – die Art und Weise, wie die Pandemie von staatlicher Seite kommuniziert wurde, war offensichtlich nicht überzeugend. Aber Verschwörungstheorien leugnen das komplexe Verhältnis zwischen sozialen Phänomenen, die von den Sozialwissenschaften seit Jahrhunderten erforscht werden.

Pseudofortschrittliche Konstrukte

Ich sehe die Covid-Pandemie und die damit einhergehenden politischen, ökonomischen und sozialen Kosten als Zusammenspiel von zerstörerischen Ideen und Ideologien mit starken politischen und unternehmerischen Interessen. Ihre Propagandisten wollen die Freiheit von Menschen und Märkten schwächen, die in modernen Gesellschaften die Lebensqualität garantiert. Dieses Zusammenspiel ist so stark, dass es eine Lawine auslösen könnte, die unsere fragilen Gesellschaften ernsthaft bedroht.

Ihr Erfolg wird ermöglicht durch die Angst der schweigenden Mehrheit und die radikalen Ambitionen der politischen Linken. Die Neue Linke ist das Produkt einer Mutation sozialistischer Ideen. Dieses verbindet neue pseudofortschrittliche Theorien einer aggressiven Umweltbewegung, einer brachialen Genderpolitik, einer unerbittlichen Klimahysterie und eines utopischen Egalitarismus.

Covid-19 bot diesen gefährlichen Progressiven neue Möglichkeiten. In einem kleinen Büchlein, das im Oktober 2020 erschien, stellte ich die Frage: Ist Covid-19 nur eine Krankheit oder eher ein Instrument zur radikalen Transformation der menschlichen Gesellschaft? Ich fürchte, Letzteres trifft zu. Die radikale Transformation der Gesellschaft ist nicht das Ergebnis von Covid-19, sondern des Covidismus.

Wir müssen den Covidismus bekämpfen und anfangen, rational und mutig zu agieren. Quarantäne, Lockdowns und andere untaugliche Einschränkungen zu fordern, sollte nicht als Ausdruck von Verantwortungsbewusstsein und Mitgefühl gesehen werden. Es ist allzu oft nur billiger Opportunismus, wenn nicht gar Feigheit. Die schweigende Mehrheit sollte ihre Stimme erheben – je früher, desto besser.

========================

Václav Klaus war Staats-, Minister- und Parlamentspräsident der Tschechischen Republik. Aus dem Englischen von Matthias Fienbork.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : | Die Weltwoche, Nr. 7 (2021)| 17. Februar 2021 ; EIKE dankt der Redaktion der WELTWOCHE und dem Autor Vaclav Klaus  für die Gestattung der ungekürzten Übernahme des Beitrages, wie schon bei früheren Beiträgen :  http://www.weltwoche.ch/ ; Hervorhebungen und Markierungen v.d. EIKE-Redaktion.

=================================================================

Zum gleichen Thema ist jüngst in der WELTWOCHE und dann bei EIKE dieser Aufsatz erschienen: „Corona ist das Klima-Trainingslager“ : https://eike.institute/2021/02/08/corona-ist-das-klima-trainingslager/

=================================================================




Wer rettet die Wissenschaft?

Amateur und Profi

Wissenschaft ist eine anspruchsvolle Sache. Da gibt es zwar populär-wissenschaftliche Literatur, die dem Amateur die Illusion vermittelt, er könne mitreden, aber tatsächlich hat er keinen Schimmer von professioneller Wissenschaft.

Hier ein Beispiel aus anderem Metier: Ich bin in München aufgewachsen, war vom zehnten Lebensjahr an jeden Winter im Gebirge und hielt mich für einen guten Schifahrer. Eines Tages nahm mich der Sohn unseres Gastwirts mit auf die Piste.

Wir standen an einem steilen und eisigen Hang und ich überlegte, ob ich da wohl heil runter käme. Mein Begleiter fuhr schon mal los, senkrecht bergab, mit lässigen Bewegungen und zog sich während der Schussfahrt die Handschuhe an und setzte die Mütze auf; dafür hatte er auch noch Zeit.

Das raubte mir meine Illusionen und zeigte mir den Unterschied zwischen Amateur und Profi. Ein kleiner Trost war, dass der Mann später die „Streif“, das Rennen am Hahnenkamm gewonnen hat.

Werfen wir jetzt einen Blick auf professionelle Wissenschaft, und zwar nicht Soziologie oder Genderkunde, sondern Physik, wo der Unterschied zwischen Amateur und Profi ebenso deutlich ist wie  beim Schifahren.

Kritik und Selbstkritik

Da gibt es zunächst die Unterscheidung zwischen experimenteller und theoretischer Physik. Letztere sucht nach allgemeinen Gesetzmäßigkeiten, welche die Natur beschreiben. Ein krönendes Beispiel, Einsteins Feldgleichung von 1916, ist hier abgebildet: .

Das ist theoretische Physik, und wie Sie sehen ist deren Sprache die Mathematik. Aus dieser Gleichung folgt – wenn auch nicht auf ersten Blick ersichtlich – dass es Gravitationswellen geben muss. Die zu finden ist nun Aufgabe der Experimentalphysik. Der Nachweis gelang dann genau hundert Jahre später.

In gigantischen Anlagen wurde gemessen, wie sich der Raum im Rhythmus besagter Wellen zusammenzog und ausdehnte, und zwar über eine Länge von mehreren Kilometern um weniger als ein Tausendstel des Durchmessers eines Atomkerns. Das ist verdammt wenig und es gibt viele Effekte, die solch eine Messung stören oder das gesuchte Ereignis vortäuschen könnten; etwa eine Harley Davidson, die Gas gibt. So grübeln die Experimentalphysiker Tag und Nacht, wo sie sich irren könnten, wo sie sich vielleicht selbst belügen. Es ist ein Marathon der Selbstkritik, bei dem auch Kritik von außen willkommen ist.

Und was bekommen wir für diese Anstrengungen?

Wissenschaft schafft Wissen, nicht Maschinen oder Reichtum. Dennoch hat es immer wieder zufällige „Spin Offs“ von praktischem Nutzen gegeben, etwa das Internet oder die Mikroelektronik. Aber das ist eine andere Geschichte.

Meister und Gesell

Physik kann man an unseren Hochschulen studieren. Das ist notwendig, denn es ist noch nie ein Meister vom Himmel gefallen. Die erste Phase der Ausbildung führt zum „Diplom“ (heute „Master“), das entspricht bei Handwerkern dem Gesellen. Dazu muss der Kandidat seine Befähigung zu wissenschaftlicher Arbeit beweisen, indem er ein anspruchsvolles „Gesellenstück“, eine Diplomarbeit abliefert.

Nun kann er versuchen, neue Entdeckungen zu machen, und wenn die dann wichtig genug sind gibt es dafür die Doktorwürde. Die genießt auch außerhalb von Akademia ein gewisses Prestige, und so versucht der eine oder andere, die beiden begehrten Buchstaben vor dem eigenen Namen zu erschleichen –  ohne Hang zur Wissenschaft zu haben oder die dafür notwendige intellektuelle Disziplin. Dabei wird mancher allerdings ertappt.

Es sieht so aus, dass solche Kandidaten und Kandidatinnen überproportional im politischen Umfeld zu finden sind. Aber warten Sie, es kommt noch schlimmer.

Der Papst, der sich selbst krönte

Es war einmal ein Mann, der bewarb sich um das höchste Amt der USA, aber er verlor die Wahl gegen George W. Bush. Da beschloss er Gelehrter zu werden. Es war ein kleiner Schritt für den Politiker, aber ein enormer Schaden für die Wissenschaft.

Al Gore machte sich über Nacht zum Papst in Sachen Global Warming – nicht durch fachliche Kompetenz, sondern durch perfekte Propaganda. Sein Film An Inconvenient Truth war ein riesiger Erfolg, sowohl an der Kasse als auch bei der Verbreitung seiner politischen Botschaft.

Ab jetzt war die Klimawissenschaft mit dem Virus der Politik infiziert. Der ist tödlich, denn in der Wissenschaft geht es um Wahrheit, in der Politik aber um Mehrheit. Als Folge davon ist heute eine sachliche Untersuchung der Physik der Erdatmosphäre nicht mehr möglich.

Weltweit entstanden jetzt Institutionen, welche die Unterstützung der Mächtigen genießen und dafür pseudo-wissenschaftliche Rechtfertigungen derer Politik liefern. Solche Arbeit ist nicht von Selbstkritik geprägt, sondern von der Hexenjagd auf externe Kritiker, die ihren Schwindel aufdecken könnten. Aber Selbstkritik wäre hier dringend notwendig, denn die zu messenden Effekte sind so schwach, dass man sich leicht selbst zum Narren halten kann, insbesondere, wenn man neben der Wissenschaft noch eine andere Agenda hat.

Wir folgen der Wissenschaft

Die Politisierung der Wissenschaft hat beim Thema Corona von der ersten Sekunde an logische Entscheidungen verhindert. Die Kanzlerin verteidigt zwar ihren Zickzack-Kurs mit der Aussage „wir folgen der Wissenschaft“ – aber welcher? Da gibt es etwa den Berliner Christian Drosten und den Amerikaner John Ioannidis, deren Erkenntnisse stark divergieren. Welcher Wissenschaft folgt man also?

Die deutschen Politiker ignorieren konsequent den US Experten. Als fachliche Amateure bzw. Laien missbrauchen sie ihre Macht, um zu entscheiden, welcher Wissenschaftler Recht hat! Als Folge davon fehlt seit zehn Monaten eine wirksame Strategie, um der Lage Herr zu werden.

Die selbsterklärten Experten hantieren mit „Fallzahlen“, die eher die Häufigkeit der Tests und deren Fehlerquoten wiedergeben, als die Durchseuchung der Bevölkerung.

Gibt es denn keine Dachorganisation, welche die Wissenschaft vor solch fataler Einmischung schützt?  Gibt es keinen „TÜV“, der hier Ethik und Qualität garantiert? Welcher die Unabhängigkeit von der Politik sicherstellt?

Wo bleibt die Rettung?

Gut, da gibt es die Nationale Akademie der Wissenschaften, genannt Leopoldina, gegründet 1652, die sich folgender Aufgabe verschrieben hat:

(Die Leopoldina) „… bearbeitet unabhängig von wirtschaftlichen oder politischen Interessen wichtige gesellschaftliche Zukunftsthemen aus wissenschaftlicher Sicht, vermittelt die Ergebnisse der Politik und der Öffentlichkeit und vertritt diese Themen national wie international.“ (Fettdruck vom Autor)

Unter den knapp 2000 Mitgliedern gibt es viele ältere, erfahrene Professoren (darunter den Ehemann der Kanzlerin), denen eine gewisse  Dekadenz in Deutschlands Wissenschaft aufgefallen sein müsste. Schon beim Klima, aber insbesondere jetzt bei Corona hätten da die Alarmglocken läuten müssen.

Das aber war nicht der Fall. Statt Merkels Aussage „Wir folgen der Wissenschaft“ öffentlich zu kritisieren, denn de facto folgt sie bestenfalls einem – durchaus umstrittenen – Wissenschaftler, gab die Leopoldina Anfang Dezember folgenden Text heraus:

Um die Kontrolle über das Infektionsgeschehen zurückzuerlangen, empfiehlt die Nationale Akademie der Wissenschaften Leopoldina in der Ad-hoc-Stellungnahme „Coronavirus-Pandemie:

Die Feiertage und den Jahreswechsel für einen harten Lockdown nutzen“ ein zweistufiges Vorgehen. Die Rahmenbedingungen Weihnachtsferien in Bildungseinrichtungen und eingeschränkter Betrieb in vielen Unternehmen und Behörden – bieten die Chance, in der Eindämmung der Pandemie ein großes Stück voranzukommen…“

Der Text hört sich weniger nach sachlich-wissenschaftlicher Analyse an, als nach einem Statement, das der Sprecher des Kanzleramts hätte diktieren können.

Die andere Seuche

Das ist nicht gut so. Es scheint, wir leiden noch unter einer anderen Seuche, weit gefährlicher als Corona. Es ist der grassierende politische und kulturelle Nihilismus, der wie Termitenbefall das Bauwerk unserer westlichen Errungenschaften zerstört. Der Verlauf dieser Krankheit wurde vor hundert Jahren durch Oswald Spengler als „Der Untergang des Abendlandes“ prophezeit, und kürzlich von Douglas Murray in seinem Buch „The Strange Death of Europe“ beschrieben.

Können wir uns denn dagegen nicht wehren? Gibt es denn keinen Impfstoff gegen diese Pandemie?

Eines ist sicher: Die Leopoldina liefert ihn nicht.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Woher kommt der Strom? für Windmüller vielversprechend

Was im weiteren Verlauf der Woche in Sachen Stromerzeugung mittels erneuerbarer Energieträger vor sich geht, ist der ultimative Beleg dafür, dass die Energiewende nicht nur auf tönernen Füßen, nein, auf Moor steht. Mit jedem weiteren Abschalten oder vom Netz nehmen verlässlicher konventioneller Kraftwerke versinkt die Energiewende in diesem Moor. Da ist es mehr als ein Omen, dass mit dem Steinkohlekraftwerk Moorburg bei Hamburg eines der weltweit modernsten, effizientesten und im Rahmen der bestehenden Möglichkeiten saubersten fossilen Kraftwerke abgeschaltet wird.

Zurück zum weiteren Wochenverlauf. Die erste Abbildung – bitte unbedingt anklicken, es öffnen sich alle Abbildungen und mehr – zeigt den Sonntag mit der recht hohen Windstromerzeugung. Sonnenstrom spielt im Herbst-/Winterhalbjahr nur eine untergeordnete Rolle. Dann nimmt die Windstromerzeugung kontinuierlich ab. Bis zum Tiefpunkt der Woche am Freitag um 7:00 Uhr. Da lag die Windstromerzeugung an Land (0,616 GW), auf See (0,13 GW), dann lag die Windstromerzeugung komplett am Boden. Die Sonnenstromerzeugung lag bei 0,026 GW. Nur Wasserkraft und Biomasse trugen mit knapp 7 GW um 7:00 Uhr nennenswert zur regenerativen Stromerzeugung (7,742 GW gesamt) bei (Abbildung 1). Der Bedarf lag um diese frühe Morgenzeit bei bereits über 72 GW. 64 GW (Abbildung 2) mussten konventionell hinzuerzeugt werden, um den Bedarf zu decken. Über Tag zog die Windstromerzeugung wieder etwas an, die Sonnenstromerzeugung wuchs ebenfalls. Dennoch, die konventionelle Stromerzeugung bullerte, was das Zeug hielt. Die Strompreise entwickelten sich im Verlauf der Woche tendenziell nach oben. Mit der Folge, dass Deutschland den höchsten Strompreis der Woche zahlen musste.

Man mag es tragisch nennen, dass dieser ausgerechnet zu dem Zeitpunkt aufgerufen wird, als Deutschland per Saldo Strom importieren muss. Hinzu kommt, dass das diese Woche nur zweimal für einen kurzen Zeitraum der Fall ist. Nein, liebe Leser, es ist nicht tragisch, es ein weiterer Beleg für die Unsinnigkeit einer Energiewende unter halbmarkwirtschaftlichen Vorzeichen. Je mehr regenerativer Strom im Markt ist, desto billiger wird er. Bis hin zum Verschenken des Stroms plus Bonusscheck. Wenn regenerativer plus konventionell erzeugter Strom allerdings nicht ausreichen, um den Bedarf in Deutschland zu retten, dann muss zu Höchstpreisen importiert werden. Dieser Sachverhalt wird in der 48. Woche kompakt verdeutlicht. Wenn dank konventioneller Stromerzeugung bei zurückgehender regenerativer Stromerzeugung ein Überschuss erzeugt wird, steigen die Strompreise tendenziell an, sodass die Preise, die Deutschland erzielt, mit und mit Richtung „auskömmlich“ gehen. Das ist daran zu erkennen, dass der Preis um die 40 €/MWh schwankt (Abbildung 3).

Die Tabelle mit den Werten der Energie-Charts und den daraus generierten Chart finden Sie unter Abbildung 4Abbildung 5 zeigt die aufgelaufenen Jahreswerte Im- und Export sowie die Werte der 48. Woche.

Der Chart mit der angenommenen Verdoppelung Stromerzeugung mittels Wind- und Sonnenkraft liegt unter Abbildung 6. Man erkennt sehr schön, welche Strommengen trotzdem hinzu erzeugt werden müssen, damit die Versorgung gesichert ist. Weil ganz wenig plus ganz wenig zwar zweimal ganz wenig ist. Aber es bleibt doch wenig. Das ist für unsere Freunde der Energiewende denn vielleicht doch zu hoch. Deshalb beharren sie auf dem nachgewiesenen Unfug. Oder wollen sie lediglich eine Menge Geld verdienen und am Ende einen Stromsozialismus einführen, bei dem die Leute Strom bekommen, wenn vorhanden? Oder, wie in der 48. Woche, tagelang nichts? Ich befürchte es.

Abbildung 7 bringt ein Simulations-Tool, welches ein Leser entwickelt hat, um die Auswirkungen des Abschaltens konventioneller Stromerzeugung und die Vervielfältigung von Wind- und Solarkraftwerken aufzuzeigen. Es ist wesentlich komplexer als mein Verdoppelungschart und eignet sich hervorragend, um alle möglichen Szenarien durchzuspielen.

Die Tagesanalysen

Sonntag, 22.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 55,94 Prozent, davon Windstrom 41,96 Prozent, Sonnenstrom 3,50 Prozent, Strom Biomasse/Wasserkraft 10,49 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Sonntag bringt den meisten Windstrom der Woche. Der Bedarf ist, wie immer, geringer als an Werktagen. Zum Abend nimmt die Windstromerzeugung ab. Es ist der Beginn eines beispiellosen Abstiegs der Windstromerzeugung in dieser Woche. Ist es ein Mentekel für den weiteren Verlauf der Energiewende? Ich befürchte, dass dem nicht so ist. Die Verfechter dieses im Weltmaßstab und als Vorbild werden „durchhalten“. Ein vollkommen verblendeter Staat wird weiter unterstützen. Kurz: Der Steuerzahler bezahlt den Weg in eine sozialistische Stromwirtschaft, in der dann Strom geliefert wird, wenn vorhanden. Wenn keiner oder nicht genug vorhanden ist, gibt es eben keinen. Weshalb im Weltmaßstab vollkommen unsinnig? Deutschland produziert etwa 2% des gesamten CO2. Fiele das weg: So what? China, Indien usw. holen das kurzfristig auf. Am deutschen CO2-Wesen wird die Welt nicht genesen. Und eingedenk der horrenden Preise der Energiewende bei gleichzeitig kaum Nutzen für das Weltklima ist der Vorbildcharakter allerhöchstens für ideologisch komplett kontaminierte Hirne oder schlicht-ahnungslose Dummköpfe „Realität“. Faktisch lacht sich praktisch die ganze Energiewelt einen Ast ab, ob der Blödheit der deutschen Energiewendefreunde. Aber nein, die verdienen ja gut an dem Unfug. Der deutsche Michel aber schauet stumm auf dem bald leeren Tisch herum.

Die konventionelle Stromerzeugung beginnt am Sonntag ihren Lauf, ihren Lauf zu immer größeren Erzeugungsmengen. Diese Nachbarn nehmen Deutschland den überschüssigen Strom zu diesen Preisen ab. Man erkennt bereits heute, dass der Exportpreis je höher ist, desto weniger regenerativ erzeugter Strom im Markt ist. Spitzenpreise werden immer in den Vorabendstunden aufgerufen. Da braucht Europa Strom.

Montag, 23.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 40,00 Prozent, davon Windstrom 27,65 Prozent, Sonnenstrom 2,94 Prozent, Strom Biomasse/Wasserkraft 9,41 Prozent. Die Agora-Chartmatrix: Hier klicken.

Kaum Sonnenstrom, weiter sinkende Windstromerzeugung. Vom frühen Morgen abgesehen, sind die Exportpreise insgesamt im grünen Bereich. Weil der grüne Bereich der regenerativen Stromerzeugung immer weniger wird. Die Konventionellen bullern bereits kräftig. Da kommt mir der Gedanke, was wohl ohne Kernkraftstrom ab 2023 geschehen wird. Klar, dann bullern die Fossilen halt mehr. Der CO2-Ausstoß steigt. Das ist mit ein Grund, weshalb die Energiewelt sich schräg lacht. Diese Nachbarn kaufen den überschüssigen Strom. Der Preis ist unter dem Strich etwas höher als gestern.

Dienstag, 24.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 35,93 Prozentdavon Windstrom 23,95 Prozent, Sonnenstrom 2,40 Prozent, Strom Biomasse/Wasserkraft 9,58 Prozent. Die Agora-Chartmatrix: Hier klicken.

Mit der erneuerbaren Stromerzeugung mittels Wind- und Sonnenkraft geht es weiter bergab. Langsam, aber sicher. Die Konventionellen legen noch ein Schippchen drauf. Die Preise sind entsprechend noch ein wenig höher als am Montag. So wird es bis Freitag jeden Tag gehen. Mehr konventioneller Strom, weil immer weniger regenerativ erzeugter Strom gleich immer höhere Exportpreise bedeutet. Diese Nachbarn zahlen.

Mittwoch, 25.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 30,54 Prozentdavon Windstrom 17,96 Prozent, Sonnenstrom 2,99 Prozent, Strom Biomasse/Wasserkraft 9,58 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Niedergang der Wind-/Sonnenstromerzeugung wird offensichtlich. Die konventionelle Stromerzeugung übersteigt die 60 GW fast den ganzen Tag. So sieht sie en Detail aus. Deutschland ab 2030 ohne Kernkraft-, ohne Kohleverstromung: Ja nee, is‘ klaa! Diese Nachbarn zahlen die heute noch etwas höheren Preise.

Donnerstag, 26.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 22,98 Prozent, davon Windstrom 11,18 Prozent, Sonnenstrom 1,86 Prozent, Strom Biomasse/Wasserkraft 9,94 Prozent. Die Agora-Chartmatrix: Hier klicken.

Wacker geht es Richtung ganz wenig Wind- und Sonnenstrom. Dafür erzeugen die Konventionellen weiter ganz viel. Über Tag liegt der Exportpreis bereits sehr oft über 60 €/MWh. Deutschland kassiert. Von diesen Nachbarn. In diesem Zusammenhang möchte ich auf eine Differenz zwischen der Wochenansicht und der Tagesansicht hinweisen. Deshalb gilt meine Ausführung oben nur unter Vorbehalt. Vergleichen Sie bitte.

Freitag, 27.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 17,11 Prozent, davon Windstrom 3,95 Prozent, Sonnenstrom 2,63 Prozent, Strom Biomasse/Wasserkraft 10,53 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Tiefpunkt „WIND“ ist da. Um 11:00 Uhr müssen konventionell über 66 GW erzeugt werden. Nur deswegen so „wenig“, weil der Sonnenstrom kurz vor Mittag gut 7 GW liefert. Sonst wären es über 73 GW. Die Exportpreise sind richtig hoch. Diese Nachbarn kaufen trotzdem.

Samstag, 28.11.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 25,35 Prozent, davon Windstrom 11,97 Prozent, Sonnenstrom 2,11 Prozent, Strom Biomasse/Wasserkraft 11,27 Prozent. Die Agora-ChartmatrixHier klicken.

Samstag, der Einstieg ins Wochenende bringt etwas mehr Windstrom bei sinkendem Bedarf. Die konventionelle Stromerzeugung kann um die 20% heruntergefahren werden. Deutschland exportiert weiterhin den ganzen Tag Strom. Zu nunmehr im Vergleich zum Vortag wieder geringeren Preisen. Diese Nachbarn kaufen den Strom.

In der vergangenen Woche habe ich die Leser gebeten, mögliche Erklärungen für das Drehen von Windrädern bei Windstille zu geben. Leser Matthias Römer meint dazu:

Vor ein paar Jahren konnte ich so ein Windrad genauer kennenlernen. Es war eine ältere 500kW-Anlage und ein windiger, aber nicht stürmischer Tag. Man konnte an einem Messgerät im Schaltschrank die genaue aktuelle Einspeiseleistung beobachten. Es waren an diesem Tag etwa 100kW. Gleichzeitig konnte man sehen, wie stark und schnell doch diese Einspeiseleistung schwankt. Für mich war das auch die Bestätigung, dass im Durchschnitt so eine Windmühle etwa nur 20% (onshore) bis 37% (offshore) der maximal möglichen Leistung (Nennleistung) einspeist. Der Betreiber zeigte uns auch, wie die Windmühle ab- und wieder angeschaltet wird. Beim Einschalten mussten die Rotoren erst auf eine gewisse Drehzahl kommen, bis dann der erzeugte Strom mit dem Netz synchronisiert und anschließend zugeschaltet wurde. Der Schaltschrank und damit die Steuerung wird übrigens vom Netz versorgt. Ohne Netz kann man nach meiner Meinung die Windmühle nicht einschalten. Trotz vorhandenem Wind ist die Anlage also nicht schwarzstartfähig, es fehlt ja auch die Netzfrequenz zum Synchronisieren.  Zusammengefasst würde ich auf die Frage antworten, es ist auf der Höhe der Rotoren nicht ganz windstill und diese drehen sich einfach leer mit. Es muss nur die Reibung überwunden werden. Erst bei mehr Wind werden sie „eingekuppelt“ und können dann Energie ins Stromnetz einspeisen.

Hat vielleicht noch der eine oder andere Leser Erfahrungen und/oder Wissen über diesen Bereich? Es geht zum Beispiel auch das Gerücht, dass mit Diesel betriebene Generatoren Windkraftanlagen „anwerfen“.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de Aber bitte immer höflich. Ist klar, nicht wahr? Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt fast fünf Jahre den Politikblog  www.mediagnose.de

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.




Klima : Erderwärmung ? Vielleicht passiert auch das genaue Gegenteil.*

Im Juli 1657 erklärte Friedrich III. von Dänemark und Norwegen dem Nachbarn Schweden den Krieg. Dabei wähnte er sich angesichts der übermächtigen Marine Dänemarks derart sicher, dass er auf seiner Hauptinsel Seeland kein Heer zusammenzog. Diesen Fehler sollte Friedrich im darauffolgenden Winter bitter bereuen. Da nämlich marschierten die Truppen von Karl X. Gustav von Schweden über den zugefrorenen Kleinen und Großen Belt nach Seeland, woraufhin der paralysierte König der Dänen und Norweger am 24. Februar 1658 den Frieden von Roskilde unterzeichnen musste, der ihm schmerzliche Gebietsverluste bescherte. Das Ganze war eine der vielen Auswirkungen der sogenannten „Kleinen Eiszeit“, die von etwa 1250 bis 1850 andauerte. In deren Verlauf sank die globale Durchschnittstemperatur um bis zu zwei Grad, was unter anderem Missernten, Hungersnöte und Teuerungen sowie daraus resultierende soziale Unruhen zur Folge hatte.

Besonders kalt fiel dabei die Phase zwischen 1645 und 1715 aus, die als Maunder-Minimum bezeichnet wird. Weitere heftige Temperaturstürze gab es auch während des Dalton-Minimums von 1790 bis 1830, des Spörer-Minimums von 1420 bis 1570 und des Wolf-Minimums von 1280 bis 1340. Ursache waren in jedem Falle Vulkanausbrüche, durch die große Mengen Asche und Gase in die Erdatmosphäre gelangten, Änderungen der Erdumlaufbahn sowie eine verringerte Aktivität der Sonne.

Der Abstand unseres Planeten zur Sonne schwankt – je nachdem, ob er mehr kreisförmig oder mehr elliptisch um das Zentralgestirn kreist. Dazu kommt das rhythmische Kippen der Erdachse: Je stärker diese geneigt ist, desto kälter kann es werden.

Sonnenflecken sind entscheidend

Den größten Einfluss auf die globale Temperaturentwicklung übt jedoch ganz offensichtlich die Sonne aus. Sie strahlt mal kräftiger und mal schwächer – das resultiert aus Veränderungen ihrer inneren Magnetfelder, die ähnlich wie bei einem elektrischen Dynamo Energie erzeugen. Markantester Ausdruck solcher Abweichungen ist die Zahl der Sonnenflecken, welche teilweise schon mit bloßem Auge beim Auf- und Untergang der Sonne oder einfachen Fernrohren zu sehen sind. Gibt es viele solcher dunkler Stellen auf der Oberfläche unseres Zentralgestirns, dann nimmt dessen Strahlung zu, werden sie weniger oder verschwinden sie komplett, geht die Strahlungsintensität zurück. Während des Maunder-Minimums erschienen lediglich 50 Sonnenflecken, und von 1672 bis 1704 gab es überhaupt keine – normal wären einige Tausend gewesen.

Im 20. Jahrhundert befand sich die Sonne hingegen in einer ungewöhnlich aktiven Phase, dem „Modernen“ beziehungsweise „Großen Maximum“, als dessen Höhepunkt die Jahre 1957/58 gelten. Zwischen 1950 und 2000 lag die Zahl der Sonnenflecken doppelt so hoch wie zum Ende der „Kleinen Eiszeit“, allerdings mit deutlich abnehmender Tendenz. Das nährte ab etwa 1970 die Befürchtung, unserem Planeten stehe eine baldige neue Kälteperiode bevor.

So warnte die Presse damals fast unisono vor dem kommenden „Cold Snap“ (Kälteeinbruch) und der „Spiegel“ schrieb am 12. August 1974, die Klimaabkühlung könnte zum Verhungern von einer Milliarde Menschen führen.

Zum Ende der 1980er Jahre hin verdrängte dann freilich das gegensätzliche Narrativ von der globalen Erwärmung die Warnungen vor der kommenden Eiszeit.

Seitdem war in wachsendem Maße davon die Rede, dass die Temperatur nicht sinken, sondern kontinuierlich steigen werde und der Mensch mit seinen Emissionen daran schuld sei. Nun liegen jedoch neue wissenschaftliche Erkenntnisse vor, welche das Szenario von einer drohenden Eiszeit doch nicht so unrealistisch erscheinen lassen, wie das Gros der Klimaforscher es heute gerne hätte.

So untersuchten Dan Lubin und David Tytler von der Universität von Kalifornien in San Diego mehr als 30 sonnenähnliche Sterne, die gerade ein starkes Aktivitätsminimum aufweisen, um abzuschätzen, wie weit sich die Strahlung unseres Gestirns im Vergleich zu heute abschwächen könnte. Dabei kamen sie auf einen Wert von immerhin bis zu sieben Prozent. Allerdings vertreten Lubin und Tytler die Ansicht, dass die hierdurch verursachte Abkühlung erst ab 2050 einsetzen werde.

Dahingegen erwartet die aus der Ukraine stammende Mathematikerin Valentina Zharkova von der Northumbria-Universität in Newcastle den Beginn der nächsten „Kleinen Eiszeit“ aufgrund der reduzierten Sonnenaktivität bereits 2021, wonach die Zahl der Sonnenflecken bis in die 2030er Jahre hinein um 60 Prozent zurückgehen – wie während des Maunder-Minimums. Das mathematische Modell vom Zharkova hat angeblich eine Vorhersagegenauigkeit von 97 Prozent.

Andere Forscher halten dagegen

Die dritte alarmierende Nachricht stammt von Martin Mlynczak vom Langley Research Center der NASA. Er verweist auf Daten des Forschungssatelliten TIMED, welcher die Verhältnisse in der oberen Erdatmosphäre untersucht und eine deutliche Abkühlung registriert hat. Für Mlynczak ist dies die Folge der verminderten Sonnenaktivität. Gleichzeitig meint der Wissenschaftler aber, die Messungen von TIMED stünden nicht im Widerspruch zu der herrschenden Meinung vom Temperaturanstieg in den unteren Bereichen der Lufthülle unseres Planeten.

Ähnlich argumentieren auch all jene, die unerschütterlich an der These von der menschengemachten globalen Erwärmung oder gar „Erhitzung“ festhalten, so wie beispielsweise die Mitarbeiter des Potsdam-Instituts für Klimafolgenforschung (PIK), das den Weltklimarat IPCC unterstützt, der wiederum den Takt im „Kampf gegen den Klimawandel“ vorgibt.

Zwar hüten diese sich, die eindeutigen wissenschaftlichen Befunde hinsichtlich der Schwankungen der Sonnenaktivität offiziell anzuzweifeln, behaupten aber, der möglicherweise bevorstehende Rückgang bei der Strahlungsintensität unseres Zentralgestirns werde kaum nennenswerte Auswirkungen zeitigen. Denn er könne nur zu einer Abkühlung von maximal 0,3 Grad führen, wohingegen der drohende Temperaturanstieg durch die ausgestoßenen Treibhausgase vier Grad betrage.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  4. Dezember 2020, S.12; EIKE dankt der PAZ-Redaktion sowie dem Autor Wolfgang Kaufmann für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

=================================================================




Klimapolitik: Das Virus ist die Generalprobe (1)

Video-Clip

Deshalb habe man zusammen mit Wissenschaftlern und Künstlern einen „Algorithmus programmiert, der Vivaldis Vier Jahreszeiten neu arrangiert“. Uraufführung war am 16. November 2019. Die Temperatur in Hamburg lag bei 5 Grad Celsius, die Sonne ging um 16.22 Uhr unter. Die Zuschauer kamen zum Teil im Nerz, zum Teil in Bade-Shorts; niemand wusste so recht, ob es Frühling, Sommer, Herbst oder Winter war. Aber die Aufführung öffnete allen die Augen, so dass sie endlich der Klimakatastrophe gewahr werden konnten.

Was die Elbphilharmoniker können, das kann ich auch, dachte sich Svenja Schulze und ließ uns via Tagesschau vom 26. November 2019 wissen, Deutschland stecke „mitten drin in der Erderhitzung“. Liest man den an diesem Tag vorgestellten Monitoringbericht der Umweltministerin zu den Folgen des Klimawandels für Deutschland, findet man allerdings nichts wirklich Alarmierendes: kein signifikanter Trend bei Hochwasser, keine vermehrten Dürren (die durchschnittliche jährliche Regenmenge hat sogar zugenommen), Hagel nimmt eher ab als zu, kein signifikanter Trend bei Niedrigwasser, kein Trend beim Schadholz, keine Aussage zum Einfluss des Klimawandels bei Schaderregern möglich, und so weiter. Der größte Coup, den Schulze landen konnte: „Die Erhöhung der durchschnittlichen Temperatur in Deutschland um 0,3 Grad in nur fünf Jahren ist alarmierend.“ (siehe hier)

Mythos Hitzetote

Das ist allerdings eine vollkommen sinnfreie Aussage. Denn die Veränderung der Durchschnittstemperatur über Jahrzehnte ist oft geringer als die Schwankungen innerhalb weniger Jahre. Je nachdem, von welchem Jahr bis zu welchem Jahr man misst, kann man beliebige Erwärmungen oder Abkühlungen konstatieren: Von 2013 bis 2018 ist es sogar um sage und schreibe 1,75 Grad wärmer geworden (ebenso allerdings von 1846 bis 2018), von 2007 bis 2010 ist es dafür um 2,0 Grad kälter geworden. Das heißt nicht, dass es keine Erwärmung gibt: Vergleicht man Zehn-Jahres-Durchschnittswerte, zeigt sich, dass die Temperatur in Deutschland seit den 1980er Jahren deutlich ansteigt und derzeit bei 9,7 Grad liegt, davor jedoch rund 70 Jahre ungefähr gleich blieb. Die 1910er Jahre lagen bei 8,2 Grad Celsius, die 1930er, 1950er und 1970er ebenfalls. (siehe hier)

Und dann hat Frau Schulze sich noch für einzelne Jahre mit besonders schönem Sommer jeweils tausende von Hitzetoten ausrechnen lassen. Grund: An zehn Tagen im Jahr klettere das Thermometer mittlerweile über die 30 Grad Marke! Auch das nicht wirklich überzeugend. Ist es ein Todestrieb, der Millionen von Senioren ans Mittelmeer oder nach Florida zieht, wo die Temperatur 2019 an 71 Tagen über 33 Grad Celsius lag?

Oder vielmehr die begründete Hoffnung auf ein angenehmeres, längeres Leben mit weniger Krankheit? Tatsächlich sterben an sehr heißen Tagen statistisch betrachtet etwas mehr Menschen. Vorwiegend sehr alte, die dem Tod schon sehr nahe sind. Allerdings darf man nicht vergessen, dass dieselben, nun schon toten Menschen dafür kurz danach nicht mehr sterben. Sie als „zusätzliche Todesfälle“ zu bezeichnen, weil sie ein paar Tage oder Wochen früher streben, ist sehr irreführend.

Egal. Was die Schulze kann, das können wir auch, dachte sich kurz darauf eine Mehrheit von 429 Abgeordneten des Europaparlaments und rief den (symbolischen) Klimanotstand aus.

25 Jahre Klimapolitik: Außer Spesen nichts gewesen

Vor 25 Jahren fand in Berlin die erste UN-Klimakonferenz (COP 1) statt. Vorausgegangen war im Juni 1992 der Umweltgipfel in Rio de Janeiro. Damals, 1995, war Angela Merkel Umweltministerin, und Deutschland versprach, den größten Einzelbeitrag aller Länder zur Treibhausgasreduktion zu leisten. Tatsächlich sind die deutschen CO2-Emissionen seitdem um rund 15 Prozent gesunken. Allerdings erfolgte der deutlichste Rückgang in den Nachwendejahren mit der Abwicklung der DDR-Industrie. Seit 2009 verläuft die Kurve eher flach. Die USA hatten dagegen ihren Höchststand 2007 und konnten ihn in den folgenden zehn Jahren um 14 Prozent reduzieren.

Europa erreichte schon 1989 den Höchststand und konnte bis 2017 einen Rückgang um 28,5 Prozent vermelden. Doch der Großteil der Welt hat in Sachen Wohlstand und damit auch bei der Energienutzung noch großen Nachholbedarf. Der Großteil der Menschheit kann und will sich die künstliche Verteuerung der Energieerzeugung oder die künstliche Verteuerung von Gebäuden und Geräten aller Art, um sie energieeffizienter zu machen, schlicht nicht leisten. Global gesehen steigen die Emissionen also weiter ungebremst an. Seit 1995 haben sie um 57 Prozent zugenommen. Allein China hat um 200 Prozent zugelegt und Indien um 205. (siehe hier) Dennoch emittiert ein Deutscher immer noch mehr als fünfmal so viel CO2 wie ein Inder.

Betrachtet man die globale Entwicklung, so kann man den Eindruck gewinnen, dass 25 Jahre internationale Klimaschutzpolitik tendenziell mit der Bemerkung bilanziert werden können: außer Spesen nichts gewesen. Die Zahl der Menschen, die Jahr für Jahr zu den Vertragsstaatenkonferenzen fliegen, ist von 2.044 registrierten Teilnehmern im Jahr 2005 auf 26.706 im Jahr 2019 angewachsen. Der Treibhausgasausstoß ist keineswegs umgekehrt proportional dazu gesunken, sondern steigt weiter stetig an.

Die verbale Aufrüstung im letzten Jahr, in dem Greta Thunberg die Welt bereiste, einige Schüler immer wieder freitags demonstrierten, sogenannte Extinction-Rebellen gelegentlich auf Straßenkreuzungen allerlei Übungen machten und manche Medien offenbar Richtlinien erließen, wonach nicht mehr von „Klimawandel“ oder „Klimaerwärmung“ die Rede sein darf, sondern nur noch von „Klimaüberhitzung“ oder „Klimakrise“, änderte hieran nichts.

Zum Glück. Denn es gibt Wichtigeres in der Welt. Während im „Klimaschutz“ im Wesentlichen Stagnation zu beobachten war, können wir in vielen anderen Bereichen signifikanten Fortschritt verzeichnen. Die Kindersterblichkeit in Afrika ist seit 1995 um mehr als 50 Prozent zurückgegangen. Die Lebenserwartung ist in den letzten 50 Jahren im weltweiten Durchschnitt um rund 18 Jahre gestiegen, die verfügbaren Kalorien pro Kopf haben um rund 30 Prozent zugenommen. Die Zahl der Menschen, die in extremer Armut leben, ist von 42 Prozent im Jahr 1981 auf 10 Prozent im Jahr 2015 gesunken. Und so weiter. (Alle Zahlen von der Website „Our World in Data“) Dieser Fortschritt kommt nicht von ungefähr. Er ist eng verbunden mit der über lange Zeit stetig verbesserten Fähigkeit der kosteneffizienten Energiebereitstellung in mittlerweile riesigen Infrastrukturen, größtenteils auf Basis fossiler Energieträger.

Unrealistische Ziele

Barack Obama glaubte offenbar sehr an sich selbst und damit auch daran, dass es wohl nicht so schwer sein kann, die Welt zu retten, als er über den Tag seiner Nominierung als Präsidentschaftskandidat sagte:

„This was the moment when the rise of the oceans began to slow and our planet began to heal.“

Auch Richard David Precht stellt sich die Sache recht einfach vor. Wir müssten jetzt „bestimmte Verbote machen“, meint der deutsche Fernsehphilosoph.

Denn: „Wessen Leben wird tatsächlich unglücklicher, wenn er kein nicht-recyclefähiges Plastik (1) mehr hat? Wer wird denn wirklich unglücklicher, wenn es weniger Billigkreuzfahrten gibt?“ (2)

Mit solchen Maßnahmen, glaubt er, unter dem magischen 1,5-Grad-Ziel bleiben zu können, das neuerdings die Grenze zwischen Rettung und Untergang markiert. Offensichtlich hat er keine Vorstellung, was Dekarbonisierung wirklich erfordern und bedeuten würde. Nur ein Beispiel: Würde man den globalen Flugverkehr komplett einstellen, immerhin 45 Millionen Flüge mit 4,5 Milliarden Fluggästen pro Jahr, ergäbe sich dadurch bis zum Jahr 2100 ein um 0,054 Grad geringerer Temperaturanstieg. (siehe hier)

Die Idee, mit genug gutem Willen, ein paar Verboten und einer CO2-Steuer könne man in kurzer Zeit die globale Energie-, Industrie- und Mobilitätsinfrastruktur umbauen, ist irreal. Wir erleben im Moment einen skurrilen Überbietungswettbewerb bei sogenannten „Klimazielen“: CO2-Neutralität bis 2050 (IPCC- „Sonderbericht 1,5°C globale Erwärmung“), bis 2030 (Campact, siehe hier), bis 2025 (Extinction Rebellion, siehe hier)! Wer bietet mehr?

Angebliche Rekorde bei Solar- und Windenergie

Der Umweltwissenschaftler Roger Pielke Jr. hat sich die Mühe gemacht, auszurechnen, was das konkret bedeuten würde. Die Ausgangslage: Im Jahr 2018 verbrauchte die Welt 11.743 Megatonnen Öleinheiten (Mtoe) in Form von Kohle, Erdgas und Erdöl. Die Verbrennung dieser fossilen Brennstoffe führte zu 33,7 Milliarden Tonnen Kohlendioxidemissionen. Bis zum Jahr 2050 bleiben rund 11.000 Tage. Um bis 2050 weltweit Netto-Null-Kohlendioxid-Emissionen zu erreichen, sei es daher erforderlich, in den nächsten 30 Jahren täglich Erzeugungskapazitäten für gut 1 Mtoe kohlenstofffreien Energieverbrauch aufzubauen. Wenn wir einen moderaten Zuwachs von 1,25 Prozent jährlich für die Armen der Welt erlauben, kommen wir auf 1,6 Mtoe pro Tag.

Laut Pielke entspricht eine Megatonne Erdöleinheiten dem Output des Kernkraftwerks Turkey Points in Florida. Es folgt daraus, dass wir die nächsten 30 Jahre rund zehn Kernkraftwerke dieser Größe (1 GW) pro Woche bauen müssten. (Oder 10.000 Windräder der 2,5-MW-Klasse. Oder 1,3 Milliarden Quadratmeter Solarmodule, siehe hier). Woche für Woche. Gleichzeitig müssten wir noch die gesamte globale Infrastruktur, die auf Verbrennung beruht, ersetzen: Heizungen, Autos, Flugzeuge, Industrieanlagen. Befinden wir uns nach 30 Jahren Klimapolitik denn auf gutem Wege dorthin? Dazu nur eine Zahl: 2018 ist der globale Verbrauch an fossiler Energie um 280 Millionen Tonnen gestiegen. Nicht gesunken.

Unablässig wird durch Meldungen über immer neue Rekorde bei Solar- und Windenergie die Machbarkeit einer Umstellung auf Erneuerbare beschworen. So zeigt zum Beispiel die Süddeutsche Zeitung in einer Grafik, Finnland gewinne bereits 78,4 Prozent seines Stroms aus erneuerbaren Quellen. Schaut man genauer hin, wundert man sich. Wind- und Sonnenenergie, um die es in dem Artikel geht, kommen in Finnland zusammen gerade einmal auf 3,5 Prozent. Die großen Brocken machen mit 25,1 Prozent die Wasserkraft aus, die generell nicht mehr viel Steigerungspotenzial aufweist, sowie mit 16,2 Prozent die Biomasse, die weit davon entfernt ist, klimaneutral zu sein, und wegen ihres Flächenverbrauchs eher ab- als zunehmen sollte.

Schließlich wurden offenbar noch 33,7 Prozent Kernenergie mitgezählt. So schafft man es, ein Land, das mehr Elektrizität aus der Verbrennung von Torf als durch Windräder und Solarzellen gewinnt, als leuchtendes Beispiel für den Siegeszug der Erneuerbaren zu präsentieren. Auch in Hinblick auf das „Musterland“ Deutschland muss man immer wieder darauf hinweisen, dass Wind und Sonne derzeit am Primärenergieverbrauch noch immer nur einen Anteil von weniger als fünf Prozent (Wind: 3,0, Solar 1,5) haben (siehe hier). Und in China, das auch immer wieder als Vorbild herhalten muss, steigt seit 2017 der Anteil des Kohlestroms wieder an, während 2019 der Zubau von Solaranlagen im Vergleich zum Vorjahr um rund 50 Prozent eingebrochen ist. Wind und Sonne machen weniger als acht Prozent der Elektrizitätsversorgung und damit etwa zwei Prozent der gesamten Energieversorgung aus (siehe hier).

In Deutschland stehen inzwischen rund 30.000 Windräder, nicht wenige davon schon an Standorten, die aufgrund geringer Windgeschwindigkeiten als weniger geeignet gelten, und an solchen, die eigentlichen zu schade dafür sind, beispielsweise Wälder. Sie erfreuen sich insgesamt nur ausgesprochen geringer Beliebtheit. Die Vorstellung, über Wald und Wiesen verstreut, rund eine Million aufzustellen, ist nachgerade absurd. Und würde den gewünschten Ertrag auch gar nicht bringen, da sich die Windräder dann gegenseitig ausbremsen würden (siehe hier).

Dies ist ein Auzug aus dem Buch: „Schluss mit der Klimakrise: Problemlösung statt Katastrophenbeschwörung“ von Thilo Spahl (Hrsg.), 2020, Edition Novo: Frankfurt/Main, hier bestellbar.

Zuerst erschienen bei Novo Argumente und der Achse des Guten.

Weitere Quellen

(1) Die Realität beim Kunststoffrecycling beschreibt Prof. Rainer Bunge, Fachstellenleiter am Institut für Umwelt- und Verfahrenstechnik UMTEC an der Hochschule Rapperswil: „Das Kunststoffrecycling ist weder effizient noch effektiv. Doch warum will der Konsument trotzdem Kunststoff separat sammeln? Der Konsument glaubt, und er möchte auch daran glauben, dass das Kunststoffrecycling einen wichtigen Beitrag zur Kompensation seiner Umweltauswirkungen leistet – obwohl das nicht stimmt.“ In: Stephanie Thiel et al. (Hrsg.): „Recycling und Rohstoffe“, Bd. 12, 2019, S. 245-58.

(2) ARD Video-Clip zit. n. mr. pip, Twitter, 30.11.2019.




Und täglich grüßt das EEG

Zum wiederholten Male begab sich am 18. November in einem unserer Parlamente, mit dem Bundestag sogar dem höchsten, eine Anhörung zum Thema EEG (Erneuerbare Energien Gesetz). Neben vielen anderen Gesetzeswerken bildet das  EEG das in Gesetzesform gegossene energiepolitische Elend des Landes in besonderer Weise ab. Weil es nicht mehr funktioniert wie gewünscht, weil es inzwischen überkomplex, kaum mehr überschaubar und in seinen Wirkungen reaktionär ist, versucht man regierungsseitig durch weitere Änderungen die Wirksamkeit zu verbessern. Das Drehen kleiner Stellschrauben, eine noch  kleinteiligere Regelungswirkung soll den Dekarbonisierungs- und Anti-Atom-Kurs zum Erfolg führen. Da es am großen Ziel keinerlei Zweifel mehr gibt, lud man als Sachverständige die passenden sachverständigen Lobbyisten ein. So Vertreter von „Agora Energiewende“, dem „Bundesverband Solarwirtschaft“ und dem inzwischen vollvergrünten BDEW (Bundesverband der Energie- und Wasserwirtschaft e.V.).

An kaum einer anderen Stelle als in solchen Anhörungen wird deutlich, dass es in Deutschland eine Kohle- oder Atomlobby nicht mehr gibt. Dennoch werden ihre Schatten noch gebraucht als Feindbilder, gegen die die infantilen Kräfte von FFF, Extinction Rebellion und andere in den Kampf geschickt werden können, um vom Versagen der „Erneuerbaren“ abzulenken.

Und so entwickelte sich in der Anhörung eine Diskussion um die  „Komplexitätsfalle“ des EEG, ohne etwas zu seiner Vereinfachung vorzuschlagen. Es ging um Bagatellgrenzen, PPA, eine angebliche „Sonnensteuer“, Genehmigungsverfahren, einzelne Paragrafen und natürlich die Erweiterung der Ausbaumengen oder –korridore. Elektrolysestrom soll von der EEG-Umlage befreit werden – dann würde es für alle anderen teurer. Angeblich seien die Marktpreise zu niedrig, um die Förderung nach zwanzig Jahren auslaufen lassen zu können. Natürlich wäre der Branche die unbefristete Dauersubventionierung lieber, am Ende wird dieses Ziel durch die zunehmende staatliche Planwirtschaft wohl erreicht werden.

Immerhin gab es die Erkenntnis, dass die Direktvermarktung regenerativen Stroms auch nach 20 Jahren üppiger Förderung noch in den „Kinderschuhen“ stecke. Nicht thematisiert wurde von den Lobbyisten die Tatsache, dass wir schon in wenigen Jahren einen Mangel an gesicherter Stromeinspeisung haben werden. Der Wagen läuft immer weiter auf den Abgrund mit Namen Energiemangel zu, die Möglichkeiten zum Bremsen werden immer weniger, aber im U-Boot Bundestag diskutiert man die Farbe der Außenspiegel. Äußeres Zeichen der ungebremsten Talfahrt ist die Progression der Kosten, die sich nicht mehr aufhalten lässt. Da man keinesfalls die EE-Lobby verärgern und an den Gewinnen der einschlägigen Branche und der Betreiber kratzen will, steht das Problem, die Umlage zu sichern.

Weltklimarettung auf Pump

Würde man die Stromkunden wie bisher zur Kasse bitten, beliefe sich die EEG-Umlage im Jahr 2021 auf satte 9,651 Cent pro Kilowattstunde. Rechnet man die Mehrwertsteuer hinzu, würde die 10-Cent-Marke geknackt werden. Dieser hohe Betrag kommt zustande, weil die bisherige Liquiditätsreserve im Umlagekonto bereits im Juni ins Minus rutschte. Die Netzbetreiber waren gezwungen, mit mehr als vier Milliarden Euro kreditfinanziert in Vorkasse zu gehen, um die Ansprüche der EE-Anlagenbetreiber zu befriedigen. Die aufzubringende Umlage für 2021 enthält 1,19 Cent für den Abbau des Defizits des Umlagekontos, 0,772 Cent für den Aufbau einer Liquiditätsreserve und 7,688 Cent für die laufende Umlage. Insgesamt steigen die EEG-Kosten um 38,3 Prozent.

Nun ist es für die Energiewende-PR der Regierung, man könnte es auch Propaganda nennen, nur schwer möglich, einen derartigen Anstieg der EEG-Umlage als Erfolg des eingeschlagenen Kurses zu verkaufen. Deshalb deckelt man die Umlage für 2021 auf 6,5 Cent und zapft für den verbleibenden Rest die nie versiegende Quelle des Bundeshaushalts an. Das Absenken verkauft man dann als „Entlastung“ der Stromkunden (für einen Normalhaushalt etwa 10 Euro im Jahr). Für 2021 kündigten indes bereits 47 Versorger1 Preiserhöhungen an, im Durchschnitt sei mit 38 Euro mehr pro Jahr zu rechnen.

Der Bundeszuschuss zur EEG-Umlage wird 3,151 Cent betragen (fast so viel wie die gesamte Umlage im Jahr 2011) und sich auf knapp 11 Milliarden Euro belaufen. Reichte bisher die Umlage auf den Strompreis für die üppige Finanzierung der „Erneuerbaren“ aus, muss man künftig drei Quellen anzapfen: Die Stromkunden, den Staatshaushalt und die Staatsschulden. Unsere nachfolgenden Generationen werden einen Teil der heutigen Verspiegelung und Verspargelung des Landes bezahlen und künftig in Teilen den Rückbau und die Entsorgung sowie die Folgeschäden des exzessiven und beileibe nicht umweltfreundlichen Ausbaus.

Die absoluten Kosten der EEG-Umlage 2020 werden sich auf etwa  33.081 Milliarden Euro belaufen, die Differenzkosten zum Marktstrompreis auf etwa 26,35 Milliarden. Für die gesamte Infrastruktur  des Bundes  wurden 2019 nur 22,24 Milliarden ausgegeben. Pro Kopf der Bevölkerung – vom Säugling bis zum Greis – werden nun 317 Euro pro Jahr für die Ökostrombetreiber fällig – über Umlagen, Steuern oder Schulden.

Auf diese Weise wird es nicht möglich sein, mittels Strom über die so genannte Sektorenkopplung Emissionen zu senken. Das Versprechen, fossile Brennstoffe zu verteuern und dafür den Strompreis zu senken, ist gerade am Scheitern. Die Netzentgelte werden den Preis dynamisieren. Der Netzausbau wird noch nicht  aus dem Staatshaushalt finanziert, er muss auf allen Spannungsebenen bis hin zum Tesla-Supercharger an der letzten Milchkanne erfolgen und kostet enorme Summen. Der verpflichtende Anschluss von EE-Anlagen,  finanziert von allen Stromkunden, macht neben Einspeisevorrang und gesicherten Vergütungen über 20 Jahre überhaupt erst die Installation von Zufallsenergieerzeugern möglich. Ein hypothetischer Entfall dieser Bedingungen des Streichelzoos würde die „Erneuerbaren“-Branche schlagartig kollabieren lassen, ungeachtet der immer wieder gefeierten niedrigen Stromgestehungskosten.

Der Weg zur Planwirtschaft und zu absehbarem Mangel hat Folgen auf der Verbraucherseite. Industrieinvestitionen finden nur noch im Subventionsbereich statt, abgesehen von einem amerikanischen Milliardär, der in Brandenburg gerade die Behörden vor sich her treibt. Rein marktgetriebene Investitionen gibt es kaum noch, selbst am Erhalt der Anlagen wird gespart.

„In unserem Fall ist es so – ich denke, ich spreche für weite Teile der Industrie –, dass selbst Ersatzinvestitionen derzeit verschoben werden“,

 hatte Volker Backs von der Wirtschaftsvereinigung Metalle e.V. bereits im Juli 2019 bei einer Anhörung zum gleichen Thema im NRW-Landtag gesagt. Der Abschied der Industrie wird leise sein, die Folge dramatisch. Nun steht die Schließung des Grobblechwerks von Thyssenkrupp in Duisburg an. Welcher Investor, zumal aus dem Ausland, sollte sich Deutschland noch als Standort aussuchen, wenn unvorhersehbare und damit unkalkulierbare Strompreise und weitere Kostensteigerungen durch das Brennstoffemissionshandelsgesetz (BEHG), hohe Lohnkosten, Behördendickicht und viele Regalmeter voller Regelungswut den „Kapitalisten“ erwarten?

Flach, flacher, Grün

„Energiewende und Klimaschutz sind voller Irrungen und Wirrungen“2, sagte der Chef der Deutschen Energieagentur (dena), was im krassen Gegensatz zum eitel Sonnenschein auf der Homepage des Bundeswirtschaftsministeriums steht. Sie ist ein einziges Feuerwerk an Energiewende-Erfolgsmeldungen. Die Erinnerung an das Zentralorgan „Neues Deutschland“ liegt nahe. Die auf Politikerebene geführten Energiewendediskusionen bewegen sich oft auf sehr flachem Niveau, was nicht ausschließt, dieses Niveau noch nach unten zu durchstoßen. Dafür sind insbesondere Politiker der Grünen in der Lage. Auf eine energiewendekritische Mail antwortete Dr. jur. Thomas Griese, Staatssekretär im Umweltministerium von Rheinland-Pfalz, wie folgt:

„. . . Zu Ihren Ausführungen zum Thema Netzstabilität muss man wissen, dass die Stromproduktion ständig der im Tagesverlauf stark schwankenden Stromnachfrage angepasst werden muss. Dies wird durch die alten, unflexiblen und behäbigen Atom- und Kohlekraftwerke immer schwieriger, weil sie voll weiterlaufen, die Netze verstopfen und kurzfristig nicht abzuregeln sind. Das Ganze ist ein weiteres Argument dafür, auch aus Gründen der Netzstabilität auszusteigen.“

Das muss man erst mal sacken lassen. Unabhängig von der Frage, wer denn bisher die Netze ausregelte, bleibt die offene Frage, wer denn nun auf die stark schwankende Stromnachfrage künftig reagieren soll. Fahren dann die Solarkraftwerke hoch, wenn die Leute das Licht einschalten, weil die Sonne untergeht?

Der jüngste Grünen-Online-Parteitag wurde von den Medien wieder freundlich eskortiert. In einem Beitrag der FAZ3 meinte man eine gewisse Abkehr von der grünen Zwangsbeglückungs-Ideologie früherer Zeiten erkennen zu können. Die Grünen würden sich gegen geschlossene Weltbilder stellen. Nichts ist falscher als das. Die geschlossene Ideologie der Grünen, vom Atomausstieg über die Dekarbonisierung bis hin zum Genderismus ändert sich nicht, selbst wenn sie sich jetzt vom „Gendreck weg“ verabschieden wollen, weil der Druck zur Einführung eines so behandelten Corona-Impfstoffs zu groß ist. Wie andere Parteien auch versprechen die Grünen im Vorfeld von Wahlen allen alles,  um in alle Richtungen anschlussfähig zu sein und Wähler aus der Mitte in Volksparteimanier abgreifen zu können. Sollte sie einen Zipfel der Macht erhaschen,  werden sie ihre alten Instrumente wieder hervorholen: Belehrungen, Verbote, Subventionen und Moralkeulen.

Es blieb in oben genannter Anhörung Professor Lüdecke von der Hochschule für Technik und Wirtschaft des Saarlandes vorbehalten, auf das Wetter hinzuweisen. Er meinte damit nicht Wetterextreme und Klimawandel, sondern schlicht die Wetterabhängigkeit der exzessiv ausgebauten und weiter auszubauenden Wind- und Sonnenstromerzeuger. Heute schon bringen Hellbrise wie Dunkelflaute das System an den Rand der Funktionsfähigkeit. Wie sich das beim weiteren ungebremsten Trend des Zubaus von Zufallsenergieerzeugern gestalten wird, ist offenbar nicht Bestandteil regierungsamtlichen Nachdenkens.

Alle reden vom Klima, wir sollten mehr vom Wetter reden.

————————–

Dieser Beitrag entstand mit freundlicher Unterstützung von Christian Rückert

www.rueckert-enerwa.de

1         –           https://strom-report.de/strompreise/strompreiserhoehung/

2         –           Andreas Kuhlmann, Chef der Deutschen Energieagentur (Dena)

im Tagesspiegel v. 4.11.20

3         –           FAZ v. 20.11., S. 4 „Dekarbonisierter Spagat“

Quellen:

https://www.bundestag.de/ausschuesse/a09/Anhoerungen#url=L2F1c3NjaHVlc3NlL2EwOS9BbmhvZXJ1bmdlbi84MDU1NjAtODA1NTYw&mod=mod543440

https://www.netztransparenz.de/EEG/EEG-Umlagen-Uebersicht

https://www.bundesfinanzministerium.de/Web/DE/Home/home.html

Der Beitrag erschien zuerst bei TE hier




Wird „Corona“ eine Blaupause für den Klimawandel? Ergänzung

Doch nun hat das Statistische Bundesamt herausbekommen, dass die Daten der letzten Märzwoche coronabedingt „sterblicher“ waren

Die Behörden von NRW – dem Bundesland mit den zweithöchsten Corona-Fallzahlen Deutschlands – meldeten, dass die Mortalitätszahlen keine erhöhte Morbidität ausweisen:
[11] Landesbetrieb NRW Statistik: Pressemitteilung 28. April 2020 … Nach vorläufigen Informationen starben im März 2020 in Nordrhein-Westfalen etwa 18.800 Menschen … liegt die Zahl der Gestorbenen damit voraussichtlich niedriger als im März 2019 (damals: 19.100). Hinweise auf eine durch die COVID- 19-Pandemie erhöhte Sterblichkeit sind aus diesen Daten für März 2020 nicht abzulesen …

Bild 1 [10] Bundesländer, Zahlen Corona-Infizierter und daran Verstorbener
Doch kurz danach kam das Statistische Bundesamt zum gegenteiligen Schluss, nachdem es die Daten der nachfolgenden Woche analysiert hatte:
[7] Statistisches Bundesamt: Seit der letzten Märzwoche liegen die tagesgenauen Zahlen allerdings tendenziell über dem Durchschnitt der Jahre 2016 bis 2019. Da die Grippewelle 2020 seit Mitte März als beendet gilt, ist es naheliegend, dass diese vergleichsweise hohen Werte in einem Zusammenhang mit der Corona-Pandemie stehen. Normalerweise gehen die Sterbefallzahlen zu dieser Jahreszeit tendenziell zurück ...
Eine Grafik weist das Geschehen aus:

Bild 2.1 [7] Grafik des Statistischen Bundesamtes mit den Coronazahlen der letzten Märzwoche. Schwarze Umhüllung des Zeitraumes „seit der letzten Märzwoche“ vom Autor zugefügt

Hinweis: Das Problem der laufenden Aktualisierungen

Bei Abschluss des Artikels veröffentlichte das Statistische Bundesamt die um eine Woche weiter geführte Datentabelle (Meldedatum 08.05.). Dieser Artikel bezieht sich trotzdem vor allem im Text weiterhin auf die vorhergehende Darstellung des Amtes zu „Corona“ mit dem damaligen Datumsbereich der Zahlen.

An geeigneten Stellen sind Angaben allerdings mit den um eine Woche längeren Daten ergänzt oder ausgeführt. An der Angabe des Meldedatums 08.05. sind diese nachträglichen Aktualisierungen erkennbar.

Bild 2.2 [7] Neue Grafik des Statistischen Bundesamtes mit den Coronazahlen, Meldedatum 08.05.

Warum ist eine Woche „Statistik“ so entscheidend?

Anmerkung: Zu dieser Darstellung des Statistischen Bundesamtes kam bereits eine kritische Bewertung von einem anderen Autor auf EIKE:
[8] EIKE 06.05.2020: Keine staatstragende Statistik?
… Das ermöglichte es dem Bundesamt, in einer Pressemitteilung wie folgt einen angeblichen Zusammenhang zwischen Sterbefallzahlen und Corona unter Bezugnahme auf nur eine einzige Woche herzustellen:
„Auch im März 2020 mit insgesamt mindestens 85.900 Sterbefällen ist bei einer monatsweisen Betrachtung kein auffälliger Anstieg der Sterbefallzahlen im Vergleich zu den Vorjahren erkennbar. Seit der letzten Märzwoche liegen die tagesgenauen Zahlen allerdings tendenziell über dem Durchschnitt der Jahre 2016 bis 2019. Da die Grippewelle 2020 seit März als beendet gilt, ist es naheliegend, dass diese vergleichsweise hohen Werte in einem Zusammenhang mit der Corona-Pandemie stehen.“
Tatsächlich liegen die Sterbefallzahlen für die Woche vom 30.03. bis 05.04.2020 zwar leicht über den Vorjahreszahlen. Aber es ist unseriös, aus den Zahlen von nur einer Woche Rückschlüsse auf einen Corona-Zusammenhang zu ziehen. Es gibt stets, wie man bereits an den oben aufgeführten Zahlen sehen kann, erhebliche Schwankungen in den Fallzahlen, sowohl wöchentlich als auch monatlich und jährlich.

In diesem Artikel – meint der Autor –, ist die Perfidität des Statistischen Bundesamtes, welche mit hoher Vermutung von irgendwoher die „Anregung“ bekam, doch bitte (endlich) einen Beleg für den politisch angeordneten Zusammenbruch der Wirtschaft und Vorbereitung zum Staatsbankrot zu liefern (rein persönliche Ansicht des Autors, die durch keine Hintergrundinformation oder Studie belegt ist) noch nicht ausreichend deutlich und anschaulich herausgearbeitet. Deshalb anbei eine vertiefende Darstellung.

Die Aussage des Statistischen Bundesamtes

Eigentlich war das Thema „Corona“ für den Autor mit dem vorhergehenden Artikel abgehakt. Doch ab und zu fragt sich der Autor, ob er (als Rentner) nun doch „veraltet“, weil er einfachste Zahlen und Grafiken nicht mehr versteht, oder doch nur wieder ein Beleg vorliegt, wie Institutionen – denen unser Bundespräsidentenversuch so etwas wie „generelle, unbezweifelbare Wahrheit“ zuspricht [16] F. W. Steinmeier: „Fakten sind Fakten, wenn sie von der dpa gemeldet werden“-, wieder gegen offensichtliche Daten eine (politisch) gewünschte Gefälligkeitsaussage getätigt haben …

Um es zu (er-)klären, bleibt die Mühe nicht erspart, die Daten unter dem speziellen Gesichtspunkt der besagten, letzten Märzwoche nochmals anzusehen. Was dabei herauskommt, anbei.

Wiederholung vom Teil 1 [9]

Zur schnellen Übersicht Grafiken aus der vorhergehenden Rezension [9].

Zuerst die Mortalitätsverläufe für die erhöht coronagefährdeten Personen ab 65 Jahren:

Bild 2 Deutschland, Personen ab 65. Verlauf der absoluten Sterbezahlen vom 01.01. bis 05.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Alle Werte auf den Startwert des Jahres 2020 normiert (damit stimmen nur die Zahlen für 2020 genau). Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

Und die Mortalitätsverläufe der ganz besonders coronagefährdeten Personen ab 80 Jahren:

Bild 3 Deutschland, Personen ab 80. Verlauf der absoluten Sterbezahlen vom 01.01. bis 05.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Alle Werte auf den Startwert des Jahres 2020 normiert (damit stimmen nur die Zahlen für 2020 genau). Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

In beiden Verläufen sieht man geradezu demonstrativ, wie bereits eine „kleine“ Grippewelle wie 2017 (im Zeitraum Februar) eine höhere und eine ganz große Grippewelle wie 2018 (also bereits im Folgejahr) eine mehr als wesentlich höhere Mortalität zur Folge haben, als die aktuell als besonders todbringend beschriebene Pandemie.

Gerade noch zur richtigen Zeit wurde die „Coronamortalität“ gefunden

Nochmals die Kernaussage des Statistischen Bundesamtes:
[7] Statistisches Bundesamt: Seit der letzten Märzwoche liegen die tagesgenauen Zahlen allerdings tendenziell über dem Durchschnitt der Jahre 2016 bis 2019. Da die Grippewelle 2020 seit Mitte März als beendet gilt, ist es naheliegend, dass diese vergleichsweise hohen Werte in einem Zusammenhang mit der Corona-Pandemie stehen. Normalerweise gehen die Sterbefallzahlen zu dieser Jahreszeit tendenziell zurück.
Wie schon in [8] angemerkt, stellt sich die Frage: Mit welchem Hintergrund ist alleine die letzte Märzwoche so wichtig, dass sich daraus eine Aussage zu Corona ableiten lässt und es sich lohnt, sie zu verkünden?

Man will es nicht glauben, aber nur so lässt es sich erklären:
In den gesamten Zahlen seit Beginn der Pandemie zeigt ausschließlich diese ominöse, letzte Märzwoche so etwas wie eine höhere – als „normale“ – Mortalität. Und das lässt einen Schluss zu:
Um überhaupt für diese Pandemie noch irgendwie eine „höhere“ Mortalität „ausweisen“ zu können (um die politischen Maßnahmen doch noch als „sinnvoll“ darzustellen), musste das Amt ganz schnell – bevor der (kleine) Effekt vielleicht „verschwunden“ ist – eine entsprechende Pressemitteilung publizieren (rein persönliche Meinung des Autors, durch keine Hintergrundinformation oder Studie erhärtet).

Daten zu „Corona“

Man kann dem Robert-Koch-Institut vieles vorwerfen. Aber auf gar keinen Fall, es würde sich auch nur im Ansatz Mühe machen, für den Bürger umfassendes Datenmaterial zur „schlimmsten Krise seit dem Ende des zweiten Weltkriegs“ bereitzustellen.

Außer wenigen Meldungen und Übersichtsbildern findet sich nichts, mit dem es möglich wäre, etwas tiefer gehende Analysen durchzuführen – die auf der RKI-Homepage fast vollständig fehlen.
Manche scheinen es zumindest zu bemerken:
[17] RP ONLINE, 07.05.2020: Die Geheimnisse der Corona-Zahlen
… Verdopplungszahl, Reproduktionszahl und Co.: Fast jede Woche steht eine andere Kennzahl zur Corona-Pandemie im Mittelpunkt und wird eifrig diskutiert …

Mit Sicherheit sind solche Hintergrundinformationen unseren politischen Entscheidungsträgern und Abgeordneten vorbehalten. Wie sonst könnten diese sonst ihre mutvollen Einschränkungen und Geldausgaben vertreten?

Richtig durchgängig scheint es damit allerdings nicht zu sein. Anscheinend gibt es auch Politiker, die ebenfalls (wie der Autor) keinen Zugang zu sinnvoller und wenigstens im Ansatz aussagekräftiger Information finden und im Alleingang nach Abhilfe suchen, wohl weil ihnen (wenigen) daran gelegen ist, wenigstens im Nachhinein ein Gefühl zu bekommen, warum sie vorher alles entschieden wie eine Hammelherde mitgetragen haben:
[15] RP Online, 6. Mai 2020: Stadt Düsseldorf plant Corona-Test mit 1000 Bürgern
… Um einer Dunkelziffer von an Covid-19-Erkrankten sowie an bereits Genesenen auf die Spur zu kommen, plant die Stadt auf Wunsch von OB Thomas Geisel eine Kooperation mit dem Universitätsklinikum Düsseldorf (UKD).
Dabei ist die Testung einer repräsentativen Stichprobe von 1.000 Düsseldorfern auf das Vorliegen von Antikörpern gegen das Coronavirus vorgesehen, die eine Beurteilung der Zahl von abgelaufenen Infektionen ermöglicht. Die Verfahren und Kapazitäten zur Testung einer großen Zahl von Proben stehen am UKD nun zur Verfügung und die Details der Studienplanung werden zur Zeit mit dem Gesundheitsamt abgestimmt.
„Wie die vor wenigen Tagen veröffentlichte Studie aus der Region Heinsberg zeigt, gibt es offenbar eine erhebliche Dunkelziffer, die ihre Ursache auch darin hat, dass viele Infektionen mit lediglich schwachen oder überhaupt keinen Krankheitssymptome ablaufen. Insofern kann eine derartige repräsentative Untersuchung auch Aufschlüsse darüber geben, wie gefährlich das Virus wirklich ist“, erklärt Geisel …

Dass dazu die wohl kleinstmögliche Probenanzahl – ist das überhaupt eine aussagekräftige Stichprobe? – genommen wird, ist den hohen Kosten geschuldet. Muss man verstehen. Nach den fast unendlich vielen Milliarden Coronaausgaben ist für so Unwichtiges, wie Daten zur Fragestellung, warum und ob es überhaupt sinnvoll gemacht wurde und wird, schlichtweg kein Geld mehr übrig:
[15] RP Online: … Für dieses aufwändige Vorhaben werden Gesundheitsamt und UKD jetzt gemeinsam die Vorbereitungen treffen.

Das Statistische Bundesamt hat ja bereits alles recherchiert und die wichtigste Erkenntnis erfunden

Mancher mag sich erinnern, was dieses Amt kurz zuvor noch meldete: ZDF heute 09.04.2020
Statistisches Bundesamt: … Für eine Übersterblichkeit mit auffälligen Abweichungen nach oben in den Monaten Januar bis März 2020 haben wir aktuell keine Hinweise …
Doch nun, in der letzten Aprilwoche hat es den Beweis gefunden.

Nun eine kleine Nachschau, ob die Aussage des Statistischen Bundesamtes den (oder welchen) Daten entspricht.

Dazu findet der Autor weder auf der RKI-Homepage noch sonst wo Verlaufsdaten mit allen notwendigen Details zu Corona.

Bild 4 Fallzahlen Quelle: Robert Koch-Institut: COVID-19-Dashboard

Bild 5 Fallzahlen mit anderem Bezug (als in Bild 4). Quelle: Robert Koch-Institut: COVID-19-Dashboard

Was global anscheinend nicht möglich – oder nicht erwünscht – ist, findet sich ab und an bei Hinterlegungen von Bundesländern, wenn auch stark komprimiert, nur auszugsweise und eher selten.

Bild 6 [11] Für NRW, Gestorbene nach Sterbemonat
Global muss man sich mit Darstellungen wie der folgenden begnügen:

Bild 7 Erkrankungs- und Todesfälle in Zusammenhang mit dem Coronavirus (COVID-19) in Deutschland seit Januar 2020 (kumuliert). Screenshot des Autors Link

Auf der Homepage des Bayerischen Gesundheitsministeriums (dem Bundesland mit den höchsten Fallzahlen Deutschlands) findet der Autor beispielsweise überhaupt keine Hintergrund-Daten, anhand deren sich Auswertungen machen ließen, oder anhand deren sich die Aussage des Statistischen Bundesamtes verifizieren lässt.
Dabei nimmt die Bayerische Gesundheitsministerin Corona wirklich ernst. Unter „Maßnahmen“ erfährt der Bürger einen Bußgeldkatalog und auch sonst enorm Wichtiges (kleiner Auszug):

Bild 8 Screenshot von der Homepage des Bayerischen Gesundheitsministeriums

Die letzte Märzwoche

Nun zur Sichtung, was in der letzten Märzwoche bei „Corona“ geschah.

Nochmals das Bild (Wiederholung Bild 2) mit welchem das Statistische Bundesamt belegt, dass Corona zu einer „erhöhten Mortalität“ führt:

Bild 8.1 [7] Grafik des Statistischen Bundesamtes mit den Coronazahlen der letzten Märzwoche. Schwarze Umhüllung des Zeitraumes „seit der letzten Märzwoche“ vom Autor zugefügt

Bild 8.2 Detailgrafik mit den um eine Woche längeren Daten, Stand 08.05. Grafik vom Autor erstellt

Nun ist das eine Gesamtsicht. Da „Corona“ jedoch Risikogruppen „kennt“, wäre eine unter Berücksichtigung dieser wohl genauer und aussagekräftiger. Deshalb eine solche anbei.

Die hoch-Risikogruppe ab 80 Jahren

Im folgenden Bild sieht man die Verläufe der absoluten Werte dieser Hoch-Risikogruppe im Detail. Ab dem 31.03. übertrifft die Mortalität des Jahres 2020 erstmals die eines der vorhergehenden vier Jahre, nachdem die (schwere) Grippewelle im Jahr 2018 wie saisonal üblich, fast ausgeklungen war.

Bild 9 Deutschland, Personen ab 80 Jahren. Verlauf der absoluten Sterbezahlen vom 01.01. bis 12.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

Bezogen auf den Jahresanfang sind von allen ab 80-jährigen im aktuellen, besonders schlimmen Corona-Pandemiejahr immer noch erheblich weniger als in schlimmeren Grippejahren verstorben.

Bild 10 Verstorbene ab 80 und mehr Jahren seit dem 01.01. im Vergleich mit dem Jahr 2020

Die Risikogruppe von 60 – 79 Jahren

Diese Altersklasse gilt immer noch als Risikogruppe.

Die Grafik dazu zeigt Erstaunliches. Seit dem 1.1.2020 ist nur an einem einzigen Tag die Anzahl Verstorbener höher als in den (als Vergleich) vier Jahren zuvor.
An diesem einen Tag, dem 31.03. waren es von dieser Altersgruppe 17 Personen (ca. 2 %) mehr.

Bild 11 Deutschland, Personen von 60 bis 79 Jahren. Verlauf der absoluten Sterbezahlen vom 01.01. bis 12.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

Bild 12 Verstorbene der Altersgruppe 60 – 79 Jahre seit dem 01.01. im Vergleich mit dem Jahr 2020

Rein nach den Zahlen muss man jedoch ableiten, dass das aktuelle Coronajahr dieser Altersgruppe eher „gut“ getan hat.

Die Bevölkerungsgruppe bis zum Alter von 59 Jahren

Sogar in dieser großen Gruppe finden sich drei Tage, an denen das aktuelle Pandemiejahr eine höhere Anzahl Verstorbener ausweist. Allerdings zwei zu einem Zeitpunkt, als man „Corona“ nur vom Hörensagen im fernen China kannte und noch offiziell weitere zwei Monate lang das „Verkünden von Corona-Maßnahmen“ als Fake News anprangerte, gegen die das Volk angehen solle:

Bild 13 Informationspolitik zu Corona noch am 14. März

Während der Pandemie gibt es eine Überschreitung am 08.04. Und an diesem Tag war es genau ein Verstorbener mehr als im Jahr 2016:

Bild 14 Deutschland, Personen bis 59 Jahren (einschl.). Verlauf der absoluten Sterbezahlen vom 01.01. bis 05.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

Ansonsten kann sich diese Altersgruppe „dank“ Corona? im Vergleich einer erfreulich niedrigen Mortalitätsrate erfreuen. In keinem der Vergleichsjahre starben bisher weniger als zur Zeit der extrem schlimmen Pandemie:

Bild 15 Verstorbene bis zum Alter von 59 Jahren seit dem 01.01.

Gesamtübersicht

Wenn man sich nicht auf einzelne Tage versteift, sondern den Gesamtzeitraum „Corona“ betrachtet, stellt man fest, dass es für keine Altersklasse – inclusive der Höchstbetagten mit 95 und darüber – Jahr(e) gibt, in denen die Anzahl Verstorbener nicht schon höher lag.

Ein Beleg, wie variabel die Natur in normalen Jahren und wie hoch bei bisher als „Standard“ behandelten – von keinen besonderen Maßnahmen „begleiteten“ – Grippejahren mit der Sterblichkeit umgeht.

Bild 16 Verstorbene im Zeitraum 1.1. bis 12.4 jeden Jahres. Datenquelle: Statistisches Bundesamt

Da kann man richtig Angst bekommen, wenn man daran denkt, es kommen wieder Grippejahre und der Virus hat eine neue Nummer – und unsere Regierungen bekämpfen das als unzulässige Abweichung mit allen (Finanz-)Mitteln, so wie das Klima.

Damit ist belegt: GRÜN-Palmer hatte mit seiner Aussage zum (Un-)Sinn vieler Coronamaßnahmen mehr als recht

Mit den Gruppenmortalitäten lassen sich makabre „Statistiken“ rechnen und Aufgaben an Ethikräte und Kirchenvertreter stellen.

Denn wer wirklich Lebensjahre retten wollte, dürfte eben nicht wie angeblich „christlich geboten“ vorwiegend für die Hoch-Risikogruppe der ab 80jährigen entscheiden und diese Entscheidungen auf die gesamte Bevölkerung umsetzen, sondern müsste das Gesamtbild im Auge behalten und altersgerecht, sinnvoll optimieren, wie es Boris Palmer formulierte.

Zur Erinnerung. Was sagte B. Palmer im Wesentlichen: Wegen der wenigen, wirklich signifikant betroffenen, sehr alten Personen ist es nicht zu rechtfertigen, den viel, viel größeren Bevölkerungsteil der nicht bis minimal Betroffenen so stark einzuschränken und dazu auch noch das gesamte Volkwirtschaftssystem und die Finanzen zu ruinieren. Das lässt sich mit viel, viel weniger Einschränkungen und Aufwand besser und sicherer lösen.

Dass dies stimmt, ist mit den vorher berechneten Zahlen eindeutig belegt. Rein nach den Mortalitätswerten hat die Bevölkerungsgruppe der bis 79-jährigen (und noch darüber hinaus) von Corona teils sogar enorm „profitiert“, denn deren absolute Anzahl „vorzeitig Vestorbener“ im Jahr 2020 ist mit Abstand niedriger als in anderen Jahren und damit die „gewonnenen“ Lebensjahre um Größenordnungen höher, als es die Gruppe der ab 80jährigen „verloren“ hat.

Das ist rechnerischer Fakt. Und so lange dem keine widersprechenden Kausalitäten, sondern nur ideologische und allerchristliche Bibelmeinungen entgegengesetzt werden, mit eine wichtige Entscheidungsgrundlage.

Allerdings hat Palmer seine eigene Überzeugung nicht durchgestanden und sich dann distanziert. Es ist eben einfach ein vollkommenes Unding, Ideologie mit Fakten Paroli bieten zu wollen. Das funktioniert auch bei der Kirche nicht, warum soll es dann bei ökokirchlichen gelingen?

Im Kern belegen die Details auch die aktuelle Heuchelei. Als das Virus im fernen China wütete, interessierte es niemanden im Westen, auch nicht die WHO. Erst als in Italien das Militär medienwirksam Särge transportierte (war das vielleicht bewusst inszeniert?) bekamen die Politiker einen Schreck und leiteten extreme Maßnahmen ein.
In früheren Jahren, als die Sterblichkeit durch Grippe viel. viel höher war, hat es keinen Politiker interessiert. Da fehlten einfach die schrecklichen „Sargbilder“ zur Entrüstungs-Aktivierung. Dabei lagen die Opfer damals auch in den Kliniken – allerdings wegen Überfüllung in den Gangbetten.

(Weiterhin) nichts zu tun, wäre mit Sicherheit falsch gewesen. Ob die Übertreibung aber gerechtfertigt war und ist, darf man anhand der Zahlen bezweifeln. Mit bewusst auf Risikogruppen und Orte gezielten Maßnahmen wäre eine Eindämmung sicher viel, viel effektiver gelungen.

Institutionen, welche „die Wahrheit“ gepachtet haben

Über das Statistische Bundesamt, lässt sich nur sagen, dass deren Darstellung keinen Anflug von „Erkenntnisvermittlung“ als Ziel hatte und haben. Gleiches gilt auch für das Robert-Koch-Institut. Eher ist es Desinformation durch Weglassen, um von der sich im Detail vollkommen anders darstellenden Datensituation abzulenken.

Unseren Politikern muss man vorwerfen, dass sie gar nicht aufgrund einer Faktenlage entschieden haben, sondern wie eine wildgewordene Hammelherde der „großen Vorsitzenden“ buchstäblich blind gefolgt sind nur den Ehrgeiz hatten, sich durch möglichst noch härtere Maßnahmen vor ihren Landesbürgern als Retter zu überbieten.

Wie und was Fachpersonen oder zumindest Entscheider wissen und beachten sollten, ist nachzulesen:
[13] The EUROPEAN 16.04.2020: COVID-19 – eine schonungslose Zwischenbilanz
[14] Achgut, 07.05.2020: Bericht zur Coronalage 07.05.2020
Achgut, 07.05.2020: Ein brisanter Brief an Dr. Braun

Bis hierher durchgelesen? Und gar eine eigene Meinung gebildet? Dann sind Sie rääächts! Denn ein ordentlicher Bürger liest solche Verschwörungsdarstellungen nicht

Wer heutzutage unserer unfehlbaren Führerin nicht bedingungs- und bedenkenlos zujubelt, kann nur eine räääächte Meinung vertreten:
ScienceFiles,
May 6, 2020: Das tägliche Quentchen Antisemitismus-Verschwörungs-Theorie

Auch die Lokalzeitung des Autors (Ableger der Nordbayerischen Nachrichten) sah sich veranlasst, darüber mit einer ganzen Seite zu „informieren“.
Zur „Einstimmung“ eine halbe Seite „Im REICH der Verschwörungstheorien“, Untertitel: „Die Schutzmaske soll uns alle erniedrigen“: RECHTSEXTREME nutzen die Ängste der Bevölkerung und schüren Hetze in Chatrooms
Dann eine halbe Seite Interview mit einem herausragenden Kämpfer gegen alles was rääächts ist, die seitdem der Kampf gegen das Dritte Reich vom Staat subventioniert wird und man dafür auch Ehrenpreise bekommt wie Pilze aus dem Boden schießen und den damals (unter den Augen, teils mit offener Unterstützung der „Intelligenz“, Industriebosse, Kirchen und vor allem bis zu allerletzt der gesamten Justiz) Verfolgten und Umgekommenen zu zeigen, wie sie den Kampf „ordentlich“, „professionell“ und bestimmt erfolgreich“ geführt hätten, so sie damals bereits geboren gewesen wären …

Erkennbar zeigte das Interview, dass es Blockwarte die jede andere Meinung konsequent verfolgen und bedenkenlos „ans Messer“ liefern, damals wie heute gibt und Redakteur*innen es auch heute nicht bemerken (wollen).
Lokalausgabe der Nordbayerischen Nachrichten am 30. April 2020: „Es blühen die Mythen von der Gefahr der Maske“, Untertitel: „Extreme Rechte verbinden sich mit Impfgegnern und Verschwörungstheoretikern und leugnen die Pandemie, sagt Experte ROBERT ANDREASCH im Interview
Der Autor schrieb dazu ein längeres Mail an die Redaktion. Der Zeitung muss man zugutehalten, dass sie danach einen Auszug der entrüsteten Leserbriefe veröffentlichte. Alle! hätte der Autor auch schreiben können.

Hat es schon jeder erfahren?

Wer erinnert sich nicht an die schlimmen Bilder, als in Italien das Militär die vor den überlasteten Krankenhäusern gestapelten Särge abtransportieren musste, weil es so viele waren? Ein wesentlicher Anlass, dass in Deutschland sofort der Coronanotstand eingeführt wurde.

„Verschwörungstheoretiker“ kamen auf die Idee, dass es eine bewusste Inszenierung der Italienischen Regierung war.
Nun wird in einem Artikel beschrieben: Es war nicht inszeniert, es war durch Gesetze ganz einfach so vorgeschrieben.
Nur: Es spiegelte die Wirklichkeit nicht wieder (den Artikel sollte jeder Corona-Interessierte lesen).
Und unsere gesamte Regierung und deren Fachberater haben diese, die Szenerien einfachst erklärenden Hintergründe nicht gewusst?????
The European, 14.05.2020: Italiens Pandemie-Gesetz und seine Folgen
… Aber in Italien …, immer wieder Italien. Massenhaft gestapelte Särge, abtransportiert vom Militär. Warum gerade in Italien? Was ist los in Italien?

… Jetzt wurde Gewisseres offenbar. Ein wunderbares Beispiel der Wirkung gesetzlicher Logik. Die zentrale Norm dazu ist das italienische Pandemie-Gesetz, das vorschreibt, dass an einem Pandemie-Virus Verstorbene nicht beerdigt werden dürfen, sondern verbrannt werden müssen …

Quellen

[1] Tagesschau vom 17.04.2020: Das Problem mit der Sterblichkeitsrate

[2] Eike 21. April 2020: Corona und die Genauigkeit von Statistik

[3] Deutschlandfunk 01. Mai 2020: Coronavirus Übersterblichkeit – Wie tödlich ist das Coronavirus wirklich?

[4] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Eine Klinik im Ausnahmezustand

[5] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Mehr Klarheit bei der Dunkelziffer

[6] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Wer hat schon Antikörper im Blut

[7] Statistisches Bundesamt: Sterbefälle und Lebenserwartung Sonderauswertung zu Sterbefallzahlen des Jahres 2020

[8] EIKE 06.05.2020: Keine staatstragende Statistik?

[9] EIKE: Wird „Corona“ eine Blaupause für den Klimawandel?

[10] DER SPIEGEL 28.04.2020: Corona-Pandemie NRW meldet keine erhöhte Sterblichkeit

[11] Landesbetrieb IT. NRW Statistik und IT-Dienstleistungen. Pressemitteilungen Dienstag, 28. April 2020 Keine erhöhte Sterblichkeit im März 2020 in Nordrhein-Westfalen

[12] Frankfurter Allgemeine 06.05.2020: Zahlen zum Coronavirus : Die Pandemie im Überblick

[13] The EUROPEAN 16.04.2020: COVID-19 – eine schonungslose Zwischenbilanz

[14] Achgut, 07.05.2020: Bericht zur Coronalage 07.05.2020

[15] RP Online, 6. Mai 2020: Stadt Düsseldorf plant Corona-Test mit 1000 Bürgern

[16] SZ 31. August 2019, Nr. 202: Artikel: „Abseits des Rampenlichts“, über das 70Jahre dpa Jubiläum

[17] RP ONLINE, 07.05.2020: Die Geheimnisse der Corona-Zahlen

[16] Mercur.de 08.05.2020: Corona-Zahlen: Infizierte und Todesfälle aktuell in Deutschland, USA, Italien und weltweit