1

Globale Temperatur um mindestens 40% übertrieben: Klimamodelle des IPCC sind statistischer Schrott [neue Studie]

“The result has obvious consequences also for the models’ warming expectations for the 21st century because, to make these models consistent with our proposed adjusted temperature record, their projected warming should be reduced by about 40% for all emission scenarios.”

Professor Scafetta ist niemand der sagt, es gäbe keinen anthropogenen Klimawandel. Er gehört zu den Wissenschaftlern, die tatsächlich am Thema interessiert sind und nicht bemüht sind, Forschungsarbeiten zu produzieren, die beim IPCC Wohlgefallen finden. Ein Wohlgefallen, das gemeinhin mit Forschungsgeldern belohnt wird. Als ernsthafter Wissenschaftler steht Scafetta vor einem Problem. Diesem:

Die Erwärmung beträgt derzeit genau 0,21 Grad Celsius. Nicht genug, um zu verbrennen, aber genug, um die Klimawandel-Nutznießer Torschlusspanik entwickeln zu lassen.
Roy Spencer

Die Abbildung, die Roy Spencer monatlich fortschreibt, zeigt die Temperatur, die in der Troposphäre gemessen wird. Die Daten werden bei der Universty of Huntsville, Alabama gesammelt und als Datensatz bereitgestellt. Scafetta hat sich diesen Datensatz besorgt und zudem hat er sich den Datensatz der Climate Research Unit der University of East Anglia (CRU-TS4.04) besorgt, der Temperatur-Messdaten für Messstationen weltweit kompiliert, die wiederum als Grundlage dienen, auf der die CMIP-Modelle des IPCC berechnet werden. Auch diese Daten, das komplette Datenset für CMIP-5 (Coupled Model Intercomparison Project Phase 5), mit dem die düsteren Prognosen des IPCC erstellt werden, hat sich Scafetta besorgt und dann angefangen, zu vergleichen.

Von den Klimamodellen, so schreibt Scafetta, werde erwartet, dass sie in der Lage seien, globale und lokale Klimavariationen, wie sie durch unterschiedliche Bewölkung, Flächennutzung, und -versiegelung, Aeorosole in der Luft und vieles mehr verursacht werden, adäquat abbilden. Das Problem: Sie tun es nicht. Sie tun es nicht einmal ansatzweise. ALLE, ausnahmslos alle Klimamodelle, die das IPCC vertreibt, überschätzen die Erwärmung, die sich seit 1940 ergeben hat (siehe Abbildung oben), und zwar um ein Vielfaches, was insofern rätselhaft ist, als die Klimamodelle angeblich so kalibriert sind, dass sie die vergangenen Temperaturen akkurat abbilden. Das tun sie offensichtlich nicht, und es kommt noch dicker: Scafetta findet, dass unterschiedliche Modelle des IPCC lokale Unterschiede quasi nach Lust und Laune produzieren, ohne Systematik, widersprüchlich, zufällig.

Normalerweise werden Modelle, die beliebige Ergebnisse auf lokaler Ebene produzieren, in den Mülleimer geworfen. Normalerweise. Aber die Modelle, die das IPCC verbreitet, um es dadurch Milliardären zu ermöglichen, dass sie ihren Reichtum steigern, sie dienen nicht dazu, die Realität akkurat abzubilden, sie dienen dazu, politische Munition zu liefern, mit der man dann nicht nur die Klimawandel-Hysterie anheizen kann, sondern mit der es auch möglich ist, diejenigen, die darauf hinweisen, dass der menschliche Einfluss auf das Klima, sofern er überhaupt in relevantem Ausmaß vorhanden ist, z.B. im Vergleich zum Einfluss der Sonne eher irrelevant ist, zu diskreditieren.

Wie schlecht die Modelle des IPCC sind, das zeigt die folgende Abbildung:

In beiden Abbildungen sind Klimamuster dargestellt. Beide Abbildungen unterscheiden sich darin, dass unterschiedliche Klimamodelle des IPCC zum Einsatz gekommen sind. Wären diese Modelle auch nur ansatzweise reliabel, dann müssten die Farbmuster in beiden Abbildungen identisch sein. Sie sind es offenkundig nicht. Sie sind willkürlich und widersprüchlich. Die Modelle sind absoluter Junk – oder, in der zurückhaltenderen Formulierung von Scafetta:

“…is shown in Fig. 6, which indicates that the various models show very different local patterns that contradict each other while they are supposed to reproduce climatic patterns on a 60-year period also locally.”

Nun stellt man solche Berechnungen nicht an, um zu zeigen, dass die Klimamodelle des IPCC Junk sind. Das ist allgemein bekannt, wird nur von Aktivisten und Politdarstellern aus den unterschiedlichsten Motiven heraus ignoriert. Nein, solche Berechnungen werden auf Basis einer Hypothese darüber angestellt, warum die Modelle des IPCC so daneben sind, wobei die Hypothese sich nicht auf die politische Motivation bezieht, die ist nicht fraglich, denn wenn jemand Hysterie verbreitet und gleichzeitig das Heilmittel gegen die Hysterie feilbietet, dann können nur Motive der eigenen Bereicherung oder Boshaftigkeit, der Wunsch, andere zu schädigen, dahinter stehen, nein, die Hypothese hat die Fehler, die systematischen Fehler zum Gegenstand, die – absichtlich oder unabsichtlich – in Klimamodelle integriert sind und dazu führen, dass die Erwärmung so hoffnunglso überschätzt wird.

Die Hypothese, die Scafetta gebildet hat, sieht Urban Heat Islands im Mittelpunkt. Es ist schön eine solche Hypothese zu lesen, denn rund 60 Jahre nachdem Garrett Hardin mit seinem Artikel, “The Tragedy of the Commons” darauf hingewiesen hat, dass die meisten Probleme, vor denen die Menschheit steht, eine Folge von ÜBERBEVÖLKERUNG sind, 60 Jahre später setzt sich wieder das Bewusstsein durch, dass die Menge, in der Menschen den Planeten bevölkern, vielleicht das eigentliche Problem sein könnte. Urban Heat Islands (UHIs) entstehen durch Urbanisierung und mit UHIs wird im Wesentlichen umschrieben, dass nächtliche Winde die Luft der Städte, die sich tagsüber aufheizen, ins Umland bringt und dafür sorgt, dass auch das Umland aufgeheizt wird. Die globale Temperaturzunahme, so die Hypothese, ist zumindest in Teilen auf solche UHIs zurückzuführen.

Messbar wird dieses Phänomen über die Minimaltemperaturen, denn im Gegensatz zu dem, was MS-Medien so gerne verbreiten, sind es nicht die Maximaltemperaturen, die in den letzten Jahren gestiegen sind, sondern die Minimaltemperaturen. Aus beiden, den Maximal- und den Minimaltemperaturen für die 2,5 Kilometer mal 2,5 Kilometer großen Flächen, die die Grundeinheit vieler Klimamodelle bilden, berechnet Scafetta den Diurnal Temperature Range (DTR), also die tägliche Temperaturspannweite für die jeweiligen Messeinheiten, die gleichmäßig über die Erde verteilt sind und stellt auf dieser Grundlage zunächst fest, dass die Klimamodelle des IPCC nicht in der Lage sind die Veränderung in den DTR, die sich in den 60 Jahren bis 2014 ergeben haben, abzubilden.

DTR sind ein direktes Ergebnis der Urbanisierung, der sich daraus ergebenden Urban Heat Islands, und die Erwärmung der letzten Jahrzehnte schlägt sich darin nieder, dass die tägilche Temperaturspannweite um Städte herum geringer geworden ist. Das ist zunächst einmal eine Hypothese, aber eine, die Scafetta schnell bestätigen kann. Die daraus folgende Beobachtung, dass Klimamodelle des IPCC diese Veränderung nicht erfassen, dass sie willkürliche und in jedem Fall in Richtung einer erheblichen Überschätzung der Erwärmung gehende Ergebnisse produzieren, führt zum Masterstroke: Wenn es in Klimamodellen einen “Erwärmungs-Bias” gibt, dann sollten diese Modelle die globale Erwärmung in Gegenden, in denen es keine Urban Heat Islands gibt, die die Überschätzung reduzieren, erheblich überschätzen, dann sollten die Modelle deutlich von den Messdaten abweichen. Scafetta prüft diese Hypothese für Grönland und siehe da, das Ergebnis ist dramatisch:

Die rote Linie bildet die Beobachtungsdaten ab, die blaue Linie gibt die Modell-Simulation wieder, die auf Basis dieser Beobachtungsdaten errechnet wurde. Die Abweichung ist erheblich.

“Thus, the models (which are calibrated to reproduce, on average, the observed global warming trend since 1900) hindcast almost twice the warming than what has been recorded in Greenland since 1930-1950.

In den Modellen des IPCC wird die tatsächliche Erwärmung eben einmal verdoppelt. Wer daran wohl ein Interesse haben könnte?
Aber damit ist Scafetta noch nicht am Ende. Nachdem er gezeigt hat, dass die Erwärmung, die in den Klimamodellen des IPCC berechnet wird, die tatsächliche Erwärmung um ein Vielfaches übertreibt, selbst dann, wenn tatsächliche Beobachtungsdaten den Ausgangspunkt der Modellierung bilden, nachdem er gezeigt hat, dass in der Erwärmung, die die Klimamodelle abbilden, nicht klimatische Erwärmung enthalten ist, die sich als Ergebnis von Urbanisierung einstellt, geht Scafetta daran, den entsprechenden Fehler, der in den Klimamodellen des IPCC enthalten ist, zu quantifizieren.

Das Ergebnis sieht so aus:

Die grünen Linien, es sind 106 an der Zahl, geben die Entwicklung der globalen Temperatur an, wenn die unterschiedlichen Modelle des IPCC genutzt werden, um die entsprechende Modellierung vorzunehmen. Die orange Linie stellt den Mittelwert der 106 Modelle dar. Die rote Linie zeigt die tatsächlich in der Troposphäre gemessene Temperatur, und die schwarze Linie zeigt die Rekonstruktion der Temperatur, die Scafatta auf Grundlage der Daten aus East Anglia vorgenommen hat. Wie von Geisterhand geführt, kommen alle Modelle des IPCC im Verlauf der Zeit zu Temperaturen, die weit über den tatsächlichen Temperaturen liegen, während die Berechnung von Scafetta die tatsächliche Temperatur, die über den Datensatz der University of Huntsville zugänglich ist, sehr gut abbildet.

Daraus ergibt sich nur ein Schluss: Die von Scafetta formulierte Hypothese, dass in den Modellen des IPCC nicht nur die globale Temperatur als viel zu hoch berechnet wird, sondern die Ergebnisse auch deshalb falsch sind, weil der Einfluss, den Urbanisierung und daraus entstehende Urban Heat Islands auf die globale Temperatur haben, nicht berücksichtigt wird, ist bestätigt. Fehlt noch die Angabe, um wie viel sich die Panik-Zahl der Erwärmung die das IPCC so gerne verbreitet, reduziert, wenn diese Fehler aus dem Modell beseitigt werden:

“In the light of the above findings, and under the assumption that the SST [Sea Surface Temperature] warming since 1940–1960 is accurate, the models can be scaled on the SST record and used to estimate an expected land warming. Corrected in such a way, we determined that 25–45% of the recorded 0.97±0.05 °C land warming from 1940 to 1960 to 2000–2020 is likely due to urbanization and other unidentifed non-climatic factors biasing the available climatic records.”

Mit anderen Worten: Unter der Annahme, dass die Temperaturangaben, die in den Modellen des IPCC für die Meeresoberfläche enthalten sind, korrekt sind, eine Annahme, die dem IPCC sehr entgegen kommt, beläuft sich der Fehler in den Modellen des IPCC auf mindestens 25%-45% im Verlauf der letzten 60 Jahre. Im Durchschnitt, so schreibt Scafetta einige Zeilen weiter, überschätzen die Modelle des IPCC die tatsächliche Erwärmung des Planeten um 40%. Und diese Schätzung von Scafetta basiert auf der Annahme, dass die Modellierung der Temperatur der Meeresoberfläche richtig ist, eine Annahme, die man nicht machen muss. Scafettas Schätzung von 40% ist somit eine sehr konservative Schätzung. Die tatsächliche Übertreibung liegt vermutlich deutlich darüber.

In jedem Fall wird uns nicht nur im Hinblick auf SARS-CoV-2 absoluter Unfug erzählt, wird nicht nur im Hinblick auf SARS-CoV-2 mit falschen Zahlen hantiert, auch im Hinblick auf die angebliche Klimakrise basiert die gesamte Geschichte auf mehr oder weniger frei erfundenen Zahlen. Dass man die Erfindung dann als Resultat einer Modellierung verkauft, ist nur sympbolische Kosmetik.


Scafetta, Nicola (2021). Detection of non-Climatic Biases in Land Surface Temperature Records by Comparing Climatic Data and their Model Simulations. Climate Dynamics.

Der Beitrag erschien zuerst bei ScienceFiles hier





Manipulation der Daten zum Meeresspiegel

Erstens: Warum zeigen die satellitengestützten Meeresspiegeldaten, dass der Meeresspiegel so viel schneller steigt als der Anstieg, der an Gezeitenstationen an den Küsten der Welt gemessen wird? Die Aufzeichnungen der Gezeitenstationen zeigen einen Anstieg in der Größenordnung von ein paar Millimetern pro Jahr, eine Rate, die sich über die etwa hundert Jahre, für die wir ausreichende Aufzeichnungen haben, kaum verändert hat. Die Satellitenaufzeichnungen (Abbildung 1) zeigen jedoch einen Anstieg von 3,3 mm/Jahr. Warum der große Unterschied?

Zweitens: Warum zeigt der satellitengestützte Meeresspiegel eine so deutliche Beschleunigung? Wie oben erwähnt, zeigen die Aufzeichnungen des Meeresspiegels von Gezeitenstationen, die viel länger sind, wenig oder keine Beschleunigung. Aber die Satellitenaufzeichnungen behaupten, dass die Rate des Meeresspiegelanstiegs um etwa einen Zehntel Millimeter pro Jahr zunimmt. Eine solche Beschleunigung würde den Anstieg des Meeresspiegels in etwa dreißig Jahren verdoppeln. Noch einmal: Warum der große Unterschied?

Zunächst einmal: Hier ist, was die Satellitendaten laut der University of Colorado Sea Level Research Group zeigen:

Abbildung 1. Meeresspiegeldaten der University of Colorado, die den Trend und die Beschleunigung zeigen. Beachten Sie, dass die Grafik keine Überschneidungen zwischen den einzelnen Satellitenaufzeichnungen zeigt. QUELLE: UCSLR-Gruppe

Ich habe diese Woche wieder über diese Fragen nachgedacht, also ging ich zu NOAA und holte mir deren Excel-Tabelle, die den kompletten Datensatz für jeden der vier Satelliten zeigt.

Ich habe die NOAA-Daten aufgezeichnet. Aber im Gegensatz zu den Colorado-Daten oben, habe ich die volle Überlappung zwischen den einzelnen Satelliten mit einbezogen. Dann habe ich die Rate des Meeresspiegelanstiegs, die von jedem der vier Satelliten angezeigt wird, separat betrachtet. Abbildung 2 zeigt das Ergebnis.

Abbildung 2. NOAA-Meeresspiegeldaten, die den Trend der einzelnen, vollständigen Satellitenaufzeichnungen und den Gesamttrend zeigen. QUELLE: NOAA-Excel-Tabelle

Es scheint, als hätte ich nach all den vielen Jahren der Verwunderung endlich eine Antwort auf meine beiden Fragen. Der Trend ist so groß und die Beschleunigung ist aus einem einfachen Grund so groß. Die beiden jüngsten Satelliten zeigen Trends, die deutlich größer sind als die der beiden früheren Satelliten. Die ersten beiden Satelliten stimmen recht gut überein, aber sie zeigen beide einen viel kleineren Trend als die beiden letzten Satelliten. Und keine der beiden Hälften der Satellitenaufzeichnungen zeigt eine Beschleunigung.

Was man oben sieht sind die Fakten, wie sie von der NOAA angegeben werden, und ich habe oben die Quelle dieser Fakten verlinkt. Und es scheint mir, dass diese Fakten mehr als ausreichend sind, um die Satellitenaufzeichnung des Meeresspiegels vollständig zu diskreditieren.

Und um zum eigentlichen Thema zurückzukehren, warum zeigen die NOAA-Daten einen Gesamttrend, der um 0,3 mm pro Jahr geringer ist als die Colorado-Daten? Das liegt daran, dass die Colorado-Daten das enthalten, was „GIA“ genannt wird, und die NOAA-Daten nicht.

„GIA“ steht für die „glaziale isostatische Anpassung“. Es gibt eine Beschreibung davon auf der Colorado-Seite hier. Sie bezieht sich auf die Veränderungen der Gesamtform der Erde aufgrund des Abschmelzens der riesigen und immens schweren Eisschilde der letzten Eiszeit.

Laut dieser Seite wird die GIA „unabhängig aus Modellen auf -0,3 mm/Jahr geschätzt (Peltier, 2001, 2002, 2009; Peltier & Luthcke, 2009)“.

Nun ist ein Computermodell nichts anderes ist als eine physikalische Umsetzung der Überzeugungen, Erkenntnisse und insbesondere der Missverständnisse der Person, die den Computer programmiert. Da Mr- Peltier an der Programmierung aller vier auf der Colorado-Seite aufgeführten Modellrealisierungen beteiligt war, ist ihre Behauptung, die vier Modelle seien „unabhängig“, lächerlich. Was wir haben, ist die Behauptung eines Mannes, dass er den GIA berechnen kann.

Welchen Effekt hat die GIA? Die Colorado-Seite sagt (Hervorhebung von mir):

Vor der Veröffentlichung 2011_rel1 haben wir die GIA bei den Schätzungen des globalen mittleren Meeresspiegels nicht berücksichtigt, aber diese Korrektur ist jetzt wissenschaftlich gut verstanden und wird von fast allen Forschungsgruppen auf der ganzen Welt auf die GMSL-Schätzungen angewendet. Die Einbeziehung der GIA-Korrektur hat den Effekt, dass frühere Schätzungen der globalen mittleren Meeresspiegelrate um 0,3 mm/Jahr erhöht werden.

Da sind also die fehlenden 0,3 mm/Jahr, angewandt von „fast allen Forschungsgruppen“ … Ich schätze, die NOAA hat das nicht mitbekommen.

Für mich ist die Behauptung, dass ein Computermodell die Veränderung des Gesamtvolumens aller verschiedenen Ozeanbecken der Welt auf die nächsten 0,3 mm pro Jahr des Meeresspiegels berechnen kann, unglaubwürdig, und zwar aus folgendem Grund.

Für den Landteil der Berechnung müssen diese „unabhängigen“ Computermodelle GPS-Höhen verwenden. Durch die Verwendung von Split-Phase-GPS und wiederholten Messungen können diese bis zu ± 10 mm oder besser genau sein, eine erstaunliche wissenschaftliche Leistung … aber das ist weit entfernt von einem Zehntel Millimeter, und das nur an Land. Nicht nur das, wir haben auch keine GPS-Messungen im ganzen Land. Sie konzentrieren sich auf die USA und Europa, während sie anderswo nur sporadisch genutzt werden.

Auf dem Meer müssen die „unabhängigen“ Modelle Satellitenmessungen verwenden, so dass sich die Frage nach der Genauigkeit und Präzision der Satellitenmessungen des Meeresspiegels selbst stellt. Diese Messungen werden durchgeführt, indem Radarwellen von der Meeresoberfläche zurückgeworfen werden und gemessen wird, wie lange es dauert, bis sie zum Satelliten zurückkehren. Hier sind wiederholte Messungen nicht möglich, da sich der Meeresspiegel an jedem Punkt ständig ändert und der Satellit selten zweimal an der gleichen Position ist. In einer aktuellen NASA-Pressemitteilung zum Sentinel-6-Satelliten, dem Nachfolger des Jason-3-Satelliten, wird der Ozeanograph Josh Willis zitiert:

Sentinel-6 wird in einer Umlaufbahn in etwa 1300 km Höhe kreisen und mit Hilfe von Radar die Oberfläche des Ozeans messen. Ein Instrument auf dem Satelliten sendet eine Radarwelle hinunter zur Erde. Die Radarwelle wird von der Meeresoberfläche reflektiert und kehrt zum Satelliten zurück. Durch die Messung der Zeit, die das Radar für den Hin- und Rückweg benötigt – und unter Berücksichtigung der Feuchtigkeit in der Atmosphäre, die das Radar verlangsamt – können die Wissenschaftler messen, wie weit die Meeresoberfläche vom Satelliten entfernt ist.

Mit anderen Worten: Der Satellit kann den Wissenschaftlern auf der Erde mitteilen, wie hoch die Ozeane sind und wie sich diese Höhe im Laufe der Zeit verändert.

Es ist wirklich eine unglaubliche technische Leistung“, sagt Josh Willis. „Wir können den Wasserstand mit einer Genauigkeit von 25 mm aus 1300 km Höhe messen.“

Eine Genauigkeit von 25 mm … und sie behaupten, sie kennen die jährliche Veränderung des Volumens der Ozeane aus dem GIA auf das nächste Zehntel eines mm der Meeresspiegelhöhe? Ich weiß, dass Genauigkeit etwas anderes ist als Präzision, und dass die Messung von Längenänderungen im Laufe der Zeit (Präzision) um eine Größenordnung besser sein kann als die Messung der Länge selbst (Genauigkeit), aber trotzdem … sorry, aber ich kaufe dem GIA die Behauptung nicht ab.

Schauen wir mal, ob ich Ihnen ein Gefühl für die Schwierigkeit der Satellitenmessungen des Meeresspiegels geben kann. Die Satelliten kreisen in einer Höhe von etwa 830 Meilen, das sind etwa 1,34 Milliarden Millimeter. Um also die Veränderung des Meeresspiegels auf ein Zehntel Millimeter genau zu messen, müssten wir in der Lage sein, den Abstand zwischen dem Satelliten und der Meeresoberfläche mit einer Genauigkeit von mehr als einem Teil in dreizehn Milliarden zu messen … und das ist selbst in einer kontrollierten Laborumgebung eine große Herausforderung.

Hier sind einige der Schwierigkeiten bei dieser Messung. Die erste ist die Messung der Höhe des Satelliten selbst. Wenn wir das nicht auf den Millimeter genau für jede Sekunde eines jeden Tages wissen, werden wir ungenaue Antworten erhalten. Der nächste Punkt ist die unterschiedliche Zusammensetzung, Temperatur, Bewölkung und Feuchtigkeit der Atmosphäre. All diese Faktoren verändern die Zeit, die das Radarsignal braucht, um zum Satelliten zurückzukehren. Dann gibt es die Meereswellen, die offensichtlich die Höhe des Ozeans um Tausende von mm verändern. Schließlich gibt es noch die „Instrumentendrift“, die unvermeidlichen Veränderungen, die bei elektronischen Messinstrumenten mit der Zeit auftreten.

Nettoergebnis? Nun, das Nettoergebnis ist in Abbildung 2 oben zu sehen, wo laut der Universität von Colorado ein Satellit sagt, dass der Meeresspiegel mit 2,5 mm/Jahr ansteigt, und nur 8 Tage nach dem Ende der Daten dieses Satelliten (das Intervall zwischen einem Satelliten und dem nächsten in der Colorado-Meeresspiegelaufzeichnung) sagt der Nachfolgesatellit, dass er mit 4,1 mm/Jahr ansteigt … no bueno. Sie behaupten, dass in 8 Tagen die Anstiegsrate um 1,6 mm pro Jahr gestiegen ist. Beachten Sie auch, dass es in beiden Hälften der Satellitenaufzeichnung absolut keine Beschleunigung gibt, sondern nur eine schrittweise Veränderung zwischen den Satelliten. Offensichtlich sind sie nicht in der Lage, jährliche Änderungen des Meeresspiegels auf den nächsten Millimeter genau zu messen, geschweige denn auf den nächsten Zehntelmillimeter.

Die Leute, die an dem Projekt arbeiten, sind jedoch alle wahre Gläubige. Im selben Artikel wird Josh Willis mit den Worten zitiert: „Wir wissen, dass die Ozeane wegen der vom Menschen verursachten Eingriffe in das Klima steigen.“

Verdammte Menschen, die sich immer in das Klima einmischen … zum Beispiel hat unser neuer „Klima-Zar“ John Kerry 5 Häuser, eine Reihe von Autos, eine Yacht und einen Privatjet, und er sagt uns, dass wir den Bus nehmen sollen, um die gefürchtete, „vom Menschen verursachte Störung des Klimas“ zu vermeiden … aber ich schweife ab.

Das Problem ist, dass der Start mit einer festen „wissenschaftlichen“ Überzeugung wie dieser dazu führt, dass die Leute, die an den Satelliten-Meeresspiegel-Datensätzen arbeiten, „befangen“ sind. Sie kleben die offensichtlich inkompatiblen Satellitenergebnisse zusammen, streichen Erdnussbutter über die Risse, damit sie nicht gesehen werden können, und verkünden der Welt, dass die Satelliten eine gefährliche Beschleunigung des Meeresspiegelanstiegs zeigen, so dass wir alle sehr besorgt sein sollten …

Ich habe schon seit einiger Zeit gesagt, dass wir den Satellitenergebnissen kein Gewicht beimessen sollten. Ich habe dies jedoch ausschließlich auf die sehr großen Unterschiede sowohl im Trend als auch in der Beschleunigung zwischen den Satelliten- und den Gezeitenstationsaufzeichnungen gestützt, sowie auf die bekannten Schwierigkeiten bei Satellitenmessungen, die oben diskutiert wurden. Ich habe diese Frage in mehreren Beiträgen untersucht, darunter „Inside The Acceleration Factory“ und „Accelerating The Acceleration“.

Aber jetzt, endlich, habe ich die Fakten, die meine Behauptung untermauern. Es gibt keine Beweise für eine Beschleunigung des Meeresspiegelanstiegs, weder in den Tidenmessungen noch in den schäbig zusammengeschusterten Satellitenaufzeichnungen. Er steigt seit geraumer Zeit in der Größenordnung von 200 mm pro Jahrhundert, und es gibt keine Anzeichen für eine Veränderung dieser Anstiegsrate.

Es steht einem also frei, das zu tun, was Obama und Bill Gates getan haben – Grundstücke am Meer kaufen. Sie verkünden lautstark, dass der Meeresspiegel gefährlich ansteigt, aber wie die Mehrheit der Klimaalarmisten überführen ihre Taten deren Worte als Scheinheiligkeit.

Link: https://wattsupwiththat.com/2021/02/21/munging-the-sea-level-data/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Einige ausschweifende Passagen Eschenbachs wurden bei der Übersetzung nicht berücksichtigt.

 




Verfehlte Corona-Politik in Deutschland: Die Daten schlagen zurück.

  1. Aktuelle Vorbemerkung

Nachdem dieser Artikel so gut wie fertig gestellt war, wurde die Corona-Welt in Deutschland  überrascht vom Wiederanstieg des berühmt-berüchtigten Inzidenzwerts. Dieser Wert war in den Wochen zuvor beim steten  Abstieg auf  die erstrebten Zielwerte 50 / 35 schon bei 57 angekommen, als die Bewegung für ein paar Tage ins Stocken kam und dann sich wieder umkehrte. Gegenwärtig ( 24. 2. ) steht der Inzidenzwert bei über 61.

Überwiegend wird der Wiederanstieg auf die englische Mutation des Virus zurückgeführt. Aber nichts Genaues weiß man nicht. Sollte der Wiederanstieg sich fortsetzen, wird er die ahnungslose Politik in ein großes Dilemma  stürzen.. Die Strategie des „weiter so“  funktioniert nicht mehr und kann gegenüber der zunehmend ungeduldigen Bevölkerung wohl auch nicht mehr durchgesetzt werden.

Die selbstgewissen radikalen Virologen wie Drosten und Wieler werden wahrscheinlich eine erneute Verschärfung des Lockdowns fordern. Obwohl diese Richtung mit der Kanzlerin und dem bayrischen MP überzeugte Anhänger hat, dürfte sie nach fast vier Monaten Lockdown nicht mehr exekutierbar sein. In Frankreich hat Präsident Macron sich  entgegen dem Rat seiner Berater geweigert,. einen weiteren Lockdown zu verfügen. In Deutschland blieben etwa  nächtliche Ausgangsbeschränkungen eine Option, deren Wirksamkeit aber sehr begrenzt sein dürfte.

Es könnte sein, dass der Frühling die Politik aus dem Entscheidungsdilemma befreit.. Im vergangenen Jahr war der R-Wert im Lauf des März rasant von über 3 auf unter 1 gesunken ( Nahamowiitz 2020 ). Ich halte eine Wiederholung des Vorgangs auch angesichts der infektiöseren Virusmutationen für wahrscheinlich.

Damit wäre die desorientierte Politik noch einmal um eine Grundsatzentscheidung herumgekommen. Da entgegen den Träumen der radikalen Virologen SARS-CoV-2 nicht vollständig eliminierbar ist, auch nicht durch Impfung, dürfte sich für die neu gewählte Regierung im kommenden Herbst bei wieder steigenden Fallzahlen die Notwendigkeit einer Grundsatzentscheidung zwischen alternativen Konzepten in aller Brutalität stellen. Mit dem von den Virologen  Hendrik Streeck und Jonas Schmidt-Chanasit sowie  dem Chef der Kassenärztlichen Bundesvereinigung  ( KBV ) Andreas Gassen vertretenen Konzept eines „fokussierten Schutzes“ zugunsten der vulnerablen Gruppen steht ein m. E. akzeptables Schutzkonzept bereit ( vgl. näher Nahamowitz 2021 ). Besser wäre es freilich, dem erfolgreichen schwedischen Modell ( s. u. ) möglichst zeitnah zu folgen und auf alle repressiven Anordnungen zur Krisenbekämpfung zu verzichten

Die gestiegene Inzidenzzahl ist in meinen Augen durchaus ein ( eher situatives ) Datum, welches im Sinn der Artikelüberschrift gegen eine fehlgeleitete Politik „zurückschlägt“, Im folgenden werden drei weitere Daten erörtert, welche auf einer grundsätzlichen Ebene gegen die Corona-Politik zurückschlagen.

 

  1. Die Sterbedaten 2020 und das Fehlen einer „epidemischen Lage von nationaler Tragweite“

 

Am 25. März 2020 stellte der Bundestag gem. § 5 Abs. 1 InfektionsschutzG eine „epidemische Lage von nationaler Tragweite“ fest, wodurch nach 5 Abs. 2  der Vorschrift der Bundesgesundheitsminister unbeschadet der Länderbefugnisse zum Erlass von weit reichenden Rechtsverordnungen ermächtigt wurde.

 

Die „epidemische Lage von nationaler Tragweite“ ist damit der zentrale Begriff des deutschen Infektionsschutzrechts. Sie liegt gem. Satz 4  von § 5 Abs. 1 vor, „wenn eine ernsthafte Gefahr für die öffentliche Gesundheit in der gesamten Bundesrepublik Deutschland besteht, weil

  1. die Weltgesundheitsorganisation eine gesundheitliche Notlage von internationaler Tragweite ausgerufen hat und die Einschleppung einer bedrohlichen übertragbaren Krankheit in die Bundesrepublik Deutschland droht oder
  2. eine dynamische Ausbreitung einer bedrohlichen übertragbaren Krankheit über mehrere Länder in der Bundesrepublik Deutschland droht oder stattfindet“.

Zentrale Voraussetzung für das Vorliegen „einer epidemischen Lage von nationaler Tragweite“ ist demgemäß die Einschleppung oder dynamische Ausbreitung einer „bedrohlichen übertragbaren Krankheit“. Ob eine Krankheit bedrohlich ist, bemisst sich in erster Linie nach ihrer Letalität, d. h. nach der Zahl der durch sie verursachten Sterbefälle.

Die Zahl aller Sterbefälle Deutschlands im vorigen Jahr hat das Statistische Bundesamt kürzlich mit 982 489 angegeben.. Damit liegt gegenüber 2019 eine Übersterblichkeit von 5 % und gegenüber dem Durchschnitt der Jahre 2016 – 2019 von 4, 9 % vor . Berücksichtigt man, dass aufgrund der veränderten Alterspyramide und – struktur gegenwärtig in Deutschland jedes Jahr statistisch grob 6 000 Menschen mehr sterben als im Jahr zuvor, reduzieren sich die Zahlen auf nur noch 3, 4 % mehr als 2016 – 2019 und 3, 5 % mehr gegenüber 2019 ( vgl. Casula 2021 ).

Damit liegt im Jahr 2020 eine nur leichte Übersterblichkeit vor und somit kann COVIT – 19 keine „bedrohliche übertragbare  Krankheit“ sein, womit wiederum das Vorliegen einer „epidemischen Lage von nationale Tragweite“  für das Jahr 2020 entfällt. Die Feststellung einer epidemischen Lage von nationaler Tragweite setzt m.E. eine Übersterblichkeit von zumindest 25 % voraus. Da sich an der Situation einer nur leichten Übersterblichkeit bis zum März nichts ändern wird, ist die Erneuerung des Feststellungsbeschlusses durch den Bundestag im kommenden Monat mangels Vorliegens der Tatbestandsvoraussetzungen des § 5 Abs. S. 4 InfektionsschutzG nicht möglich.

Ebenfalls die Euromomo-Daten vom Jahresende weisen auf eine nur leichte Übersterblichkeit des Jahres 2020 gegenüber den Vorjahren  hin ( Nahamowitz 2021 ).

Nach einer auf der Basis einer linearen Regressionsanalyse für die Jahre von 2006 bis 2019 vorgenommenen Berechnung kommt  außerdem Thomas Rießinger  zu dem Ergebnis, dass eine Gesamtsterbezahl von 982 000, wie sie das Statistische Bundesamt später amtlich festgestellt hat, sich durchaus im Rahmen des üblich Erwartbaren hält. Und damit nicht  des Rückgriffs  auf die „Jahrhundertkatastrophe“ Corona zur Erklärung ihres Zustandekommens  bedarf C Rießinger 2021 ).

Die mögliche Einwendung, dass die nur leichte Übersterblichkeit 2020 das Ergebnis der wirksamen Corona-Schutzmaßnahmen sei, kann nicht gelten, weil ab Sommer bis Jahresende 2020 die Fallzahlen gerade nicht gefallen, sondern drastisch gestiegen sind – und das bei tendenziell unveränderten Sterbezahlen.

Eigentlich wäre es angezeigt gewesen, dass die Kanzlerin und die Länder-MP bei ihrem kurz nach der amtlichen Bekanntgabe der 2020er Gesamtsterbezahl stattfindenden Treffen diese Information zum Anlass genommen hätten, einmal grundsätzliche Überlegungen zum abgelaufenen „Corona-Jahr“ anzustellen. Derartige grundsätzliche Reflexionen sind freilich sowohl für die politischen Akteure als auch ihre wissenschaftlichen Berater Tabu. Denn sie bergen die „Gefahr“ in sich, dass die von Beginn an bestehende epidemiologische und rechtliche Haltlosigkeit der offiziellen Corona-Politik evident würde.

Stattdessen wurde bei dem Treffen am 10. Januar Lockdown-Politik „as usual“ gemacht: So wurde der Lockdown bis zum 7. März verlängert mit der Maßgabe, dass es Lockerungen danach nur bei einer Inzidenz von  unter 35 geben könne. D. h. wenn sich in einer  Woche von 100 000 Menschen weniger als 35 neu mit dem Virus anstecken..

Friseursalons wurde die Öffnung ab dem 1. März gestattet. Die Öffnung der Schulen und Kitas wurde in die Entscheidung der Länder gestellt, eine einheitliche Regelung gibt es nicht.

Angesichts des Wiederanstiegs des Inzidenzwerts von schon erreichten 57 auf gegenwärtig über  61 erscheint ein Absinken unter 35 als ausgeschlossen. Man darf auf den Beschluss der Ministerpräsidentenkonferenz gespannt sein. Werden sich die Hardliner durchsetzen und wird auf einer  unveränderten Beschlusslage bestanden oder diese im Sinne der Strategie des „Zero COVIT“ sogar verschärft oder kommt es umgekehrt gar zu einer Neuausrichtung der Politik? Das schwedische Beispiel könnte einen Anstoß dazu geben. Dazu müsste die deutsche Politik freilich ihr notorisches Desinteresse an nicht „passenden“ Daten aufgeben.

 

  1. Schweden hat es besser. Der sensationelle Erfolg des liberalen Modells         . .

Weltweit stehen unter den größeren Ländern der übergroßen Mehrheit der Lockdown-Länder nur vier Länder gegenüber, die auf den Einsatz dieses repressiven Instruments bisher verzichtet haben : Schweden, Südkorea, Japan und Hongkong. Es handelt sich um Inseln epidemiologischer Aufklärung  in globaler Corona-Dunkelheit ( vgl näher Reiss, Bhakdi 2020. 106 ff ).

John Joannidis unterscheidet mit seinen Mitautoren ( Bendavid, Oh, Bhattacharya, Joannidis 2021 ) zwischen England, Frankreich, Deutschland, Iran, Italien, Niederlande, Spanien und den USA einerseits und Schweden und Südkorea andererseits. Während die erste Gruppe rechtlich verpflichtende Ausgangsbeschränkungen und Geschäftsschließungen zur Virusbekämpfung eingesetzt hat, sie werden als „stärker restriktive Interventionen“ bezeichnet, haben Schweden und Südkorea sich mit Maßnahmen begnügt, die „weniger restriktive Interventionen“ genannt werden. Zentrales Unterscheidungskriterium sind also die verpflichtenden Ausgangsbeschränkungen in Verbindung mit den Geschäftsschließungen, die in  Schweden und Südkorea nicht vorgenommen worden sind.

So hatte Schweden unter der Leitung seines Staatsepidemiologen Anders Tegnell sich auf Empfehlungen beschränkt, z.B. auf das Maskentragen zu Stoßzeiten, sowie auf Alkoholverbote in Bars und Restaurants ab 20 Uhr oder die Begrenzung der Teilnehmerzahl bei öffentlichen Zusammenkünften auf acht. Obwohl Schweden im Januar ein Pandemiegesetz verabschiedet hat, welches Lockdownmaßnahmen nun rechtlich ermöglicht, hat es diese bisher nicht umgesetzt. Der schwedische MP Stefan Löfven hat vielmehr den Sonderweg seines Landes am 8.  Januar d. J. ausdrücklich verteidigt.

Angesichts dieser Entwicklung waren die deutschen frohlockenden Abgesänge „Schweden verabschieden sich von ihrem Corona-Sonderweg“ ( Steuer 2021 ) nicht nur verfrüht, sondern glatte Fehleinschätzungen.

Wie sieht denn nun die epidemiologische Bilanz beider Länder im Vergleich aus? Deutsche Politiker und Journalisten verdammen zumeist fast reflexhaft den schwedischen Weg wegen seiner angeblich vielen Toten, Die Frage soll nun anhand der Daten von Euromomo ( European Mortality Monitoring ) sowie worldometer beantwortet werden.

  • Vergleich nach Maßgabe der „z-scores by country“ nach Euromomo: Gleichstand

Z-scores by country werden bei Euromomo  verwendet, um Vergleiche zu ziehen zwischen den Sterblichkeitsmustern verschiedener Bevölkerungen. Maßeinheit des z-score ist die Standardabweichung, welche in einem komplizierten Verfahren berechnet wird. Unterschieden werden sechs Stufen des „Excess in z-scores“: No excess, low excess, moderate excess, high excess, very high excess, extraordinary high excess.

Hier belegt Schweden am 23. 2. 2021 mit „No excesss“ die beste Stufe. Für Deutschland werden mit Germany ( Berlin ) und Germany ( Hesse ) zwei Bezugsorte angegeben, die ebenfalls auf der Stufe „No excess“ liegen. Auf der Ebene allgemeiner Mortalität ergibt sich also eine Gleichstellung zwischen  beiden Ländern – Schweden hat dies aber ohne Vornahme eines Lockdowns erreicht. Der „Sonderweg“ ist also erfolgreich bei der Erreichung geringer Sterbezahlen. Und zwar im selben Umfang wie das Lockdown -Land Deutschland.

Zusätzlich ist davon auszugehen, dass Deutschland den Status des „No excess“ bei der Sterblichkeit in den März 2021 hinüber nehmen wird, womit die in diesem Monat  fällige Erneuerung der Feststellung einer „epidemischen Lage von nationaler Tragweite“ durch den Bundestag nicht möglich ist ( vgl. Nahamowitz 2021). Man darf gespannt sein, wie sich die Regierung dieses Problems entledigt.

  • Vergleich nach Maßgabe der Daten von worldometer: sensationell niedrige schwedische Sterbezahlen

Für das nach Bevölkerung  gegenüber Schweden etwa 8 mal größere Deutschland gibt worldometer am 24: 2   2021  die insgesamt aufgelaufene Zahl der täglich neuen Fälle  mit 2.399.500 an, die aufgelaufene Gesamtzahl der Todesfälle mit 68.772. Für Schweden lauten die Zahlen 631.166 und 12.649. Die schwedischen Todeszahlen liegen grob bei knapp einem Fünftel der deutschen, dürften gemessen an der Bevölkerung aber nur bei einem Achtel liegen. Bei den aufgelaufenen täglichen Infektionszahlen liegt Schweden etwa bei einem Viertel. Bei dieser statischen Betrachtung ergibt sich also ein klarer Vorteil für das Lockdown-Land Deutschland..

Bei den aktuellen Fallzahlen weist Deutschland am 24. 2. d. J. im „7 day moving average“ 7.554 Fälle aus und Schweden 1.903 – also ebenfalls überproportional viel. Etwas ganz anderes ergibt sich bei  den letztlich entscheidenden Todeszahlen. Hier kommt Schweden am 24. 2. auf sensationell geringe  6 Todesfälle, Deutschland auf  403 – fast  70 mal so viel ( ! ). In Schweden haben sich also die Todesdaten systematisch von der Entwicklung der Falldaten entkoppelt.

Wie kann das sein? Nach den Daten von Euromomo liegen die beiden Länder doch gleich

auf. Bei worldometer hingegen, und zwar nur bei den Todeszahlen, findet sich der Riesenvorteil bei Schweden. Eine Erklärung könnte sein, dass Schweden es ab etwa Weihnachten entscheidend gelernt hat, bei den vulnerablen Gruppen Todesfälle zu vermeiden.

Wahrscheinlicher erscheint mir folgende Erklärung: Während Euromomo alle Todesfälle erfasst, erfasst worldometer nur die Corona-Toten. Deren Zahl aber hat das RKI maßlos aufgeblasen, folgend seiner von Beginn an verfolgten Strategie der Angsterzeugung und Überdramatisierung. So meldete es im Dezember an manchen Tagen über 1.000 „an und mit“ Corona Verstorbene. Bei 2.600 täglich durchschnittlich Verstorbenen ist das mehr als ein Drittel aller Verstorbenen. Corona verdrängt  damit die Herz -/ Kreislauferkrankungen als Todesursache vom 1. Platz. Das ist völlig unglaubhaft.

Hier dürfte – wahrscheinlich  mit Einverständnis der Bundesregierung – nach allen Regeln der Kunst manipuliert worden sein. Die tatsächliche deutsche tägliche Corona-Sterbezahl dürfte 70 oder 80 Tote nicht überschreiten. Dies ist der Fluch der bösen Tat: Die massive künstliche Aufblähung der eigenen Corona-Sterbezahlen hat Deutschland beim Vergleich mit Schweden in die ultimative Nachteilsposition befördert.

  1. Der nur geringe Erfolg von internationalen Lockdown-Maßnahmen

Ich komme zurück auf die oben erwähnte Untersuchung von Joannidis und seinen Mitautoren ( Bendsvid et al. 2021 ). Es geht in ihr um den Vergleich des Einflusses auf  die Ausdehnung der Corona-Fallzahlen von als „stärker restriktiv“ bezeichneten Interventionen, das sind Ausgangsbeschränkungen und Geschäftsschließungen, und „weniger restriktiven“ Maßnahmen, wie sie in Schweden und Südkorea vorgenommen worden sind.

Die Implementation  beider Arten von Interventionen führten zu signifikanten Reduktionen bei den Corona-Ansteckungen  in allen Ländern ( Ausnahme Spanien ). Die Autoren fanden aber keinen klaren, signifikanten  positiven Zusatzeffekt der „stärker restriktiven Interventionen“ auf das Wachstum der Corona-Fallzahlen im Vergleich zu den „weniger restriktiven“ Maßnahmen.

Als Beispiel wird im „Abstract“ Frankreich hervorgehoben. Dessen „stärker restriktive Interventionen“ hatten beim Vergleich mit Schweden nur einen Zusatzeffekt von + 7 %, beim Vergleich mit Südkorea von + 13 %.

Dieses ernüchternde Ergebnis spricht angesichts der damit verbundenen Kosten auf allen Ebenen der Gesellschaft sehr klar gegen eine Fortsetzung des Lockdowns in Deutschland.

 

  1. Fazit: Die Daten schlagen zurück

Die vom Statistischen Bundesamt für Deutschland für das  Vorjahr erhobenen Sterbedaten zeigen, dass sich in Deutschland seit Beginn der Pandemie zu keinem Zeitpunkt eine „epidemische Lage von nationaler Tragweite“ eingestellt hat. Eine solche wird sich auch in  diesem Jahr nicht einstellen.

Im Systemvergleich zwischen dem Lockdown-Modell und dem liberalem Modell bei der Pandemiebekämpfung hat das liberale schwedische Modell bei den Corona-Sterbezahlen gegenüber dem deutschen Lockdown-Modell einen spektakulären Sieg errungen.

Auch im umfassenderen internationalen Vergleich hat sich bei der Krisenbekämpfung das „stärker interventionistische“ Modell nicht als signifikant erfolgreicher als das liberale Modell erwiesen. Auf Lockdowns sollte daher zukünftig weltweit verzichtet werden.

 

Quellen:

Bendavid, Eran, Oh, Christopher, Bhattacharya, Jay, Ionnadis, John P. A. ( 2021 ) : Assessing Mandatory Stay-at-Home and Business Closure Effects on the Spread of COVID-19, doi: 10. 1111 /eci. 13484.

Casula, Claudio ( 2021 ) : Statistik-Bilanz für 2020: Pandemie ohne Übersterblichkeit, Achgut-Publikation vom 1. 2.

Nahamowitz, Peter ( 2020) :Sechs kurze Begründungen für die Verfassungswidrigkeit des Shutdown in Deutschland, EIKE-Publikation vom 17 Mai.

Nahamowitz, Peter ( 2021) : Corona in Deutschland 2020 : Die Rückkehr der harten Lockdowns, Unter- und Übersterblichkeit und der fällige Offenbarungseid der Corona-Politik, EIKE-Publikation vom 15. Januar.

Reiss, Karina, Bhakdi, Sucharit ( 2020 ) : Corona Fehlalarm? , Berlin.

Rießinger, Thomas (2021) :  Übersterblichkeit ? „Sehr weit weg von allen Katastrophenszenarien“. Eine mathematische Auswertung der Sterbefälle, EIKE-Publikation vom 22. Januar.

Steuer, Helmut ( 2021 ): Schweden verabschieden sich von ihrem Corona-Sonderweg, Handelsblatt vom 5. 1.

 

Zum Autor:

Peter Nahamowitz war Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Leibniz Universität Hannover. Er ist seit 2007 im Ruhestand.

 

 

 

 

 

 

 

 

 

 




Die Uhr tickt weiter bei der neuen Regierung in USA: Nun sind es noch neun Jahre, um die Welt zu retten

„Ich habe keine neue Zeitleiste, die ich dir von hier aus geben kann. Ich kann Ihnen jedoch bestätigen, dass der Präsident der Einschätzung von  John Kerry zustimmt, dass es sich um eine Krise handelt und dass die Zeit von entscheidender Bedeutung ist. Wir müssen schnell handeln. Und deshalb ist das Klima ein wichtiger Bestandteil seiner Agenda “, sagte Psaki.

Zum Thema: . (Treasury Department To Create New Climate Czar Role, Expand Climate Change Efforts)

[Finanzabteilung zur Schaffung einer neuen Rolle als Klimazar, Ausweitung der Bemühungen um den Klimawandel

Finanzministerin Janet Yellen macht den Klimawandel zur obersten Priorität der Finanzabteilung und plant Berichten zufolge die Schaffung einer neuen Führungsposition in der Abteilung, um ihre Klimabemühungen zu koordinieren.

„Sowohl die Auswirkungen des Klimawandels selbst als auch die Maßnahmen zu seiner Bekämpfung könnten erhebliche Auswirkungen haben, indem gestrandete Vermögenswerte entstehen, große Veränderungen der Vermögenspreise, Kreditrisiken usw. entstehen, die sich auf das Finanzsystem auswirken könnten“, sagte Yellen gegenüber den Senatoren. „Das sind sehr reale Risiken.“ ]]

 

„Nun, die Wissenschaftler sagten uns vor drei Jahren, wir hätten 12 Jahre Zeit, um die schlimmsten Folgen der Klimakrise abzuwenden. Wir sind jetzt drei Jahre weiter, also haben wir noch neun Jahre“, sagte Kerry zu Ben Tracy von CBS News.„ CBS This Morning “ und auch auf Twitter .

„Selbst wenn wir alles tun würden, was wir bei unserer Anmeldung in Paris angekündigt haben, würden wir einen Anstieg der Erdtemperatur auf etwa 3,7 Grad oder mehr sehen, was katastrophal ist“.

Präsident Joe Biden unterzeichnete am 20. Januar ein Dekret, mit der die USA erneut dem Pariser Klimaabkommen beitreten sollen. Damit schloss sich die USA am 19. Februar erneut offiziell den Abkommen an. [Wiederum ohne Zustimmung der Abgeordneten!?]

 

https://dailycaller.com/2021/02/23/psaki-wont-say-if-biden-agrees-with-kerry-that-there-are-only-9-years-left-to-save-the-world-from-climate-catastrophe/

Übersetzt durch Andreas Demmig




Zusammenfas­sung: Wetter­abhängige Erneuer­bare in UK 2019

Die Produktivität der erneuerbaren Energien (Wind- und Sonnenenergie) ist entscheidend. Nur wenn ihre tatsächliche Produktivität mit den Vergleichskosten kombiniert wird, können die wahren Kosten des effektiv ins Netz eingespeisten Stroms abgeschätzt werden.

Diese unkomplizierten Berechnungen beantworten die einfache Frage:

Wie viel würde es ungefähr kosten, die gleiche Menge an Strom zu erzeugen, die von der derzeitigen Flotte der wetterabhängigen erneuerbaren Energien in der EU(28) mit konventionellen Erzeugungstechnologien (Kernkraft oder Gasfeuerung) erzeugt wird, und wie sehen diese Zahlen im Vergleich aus?“.

Ende 2019 verfügte Großbritannien über eine Flotte von etwa 35 Gigawatt an wetterabhängigen erneuerbaren Energien, mehr als die Hälfte der installierten Flotte. Sie kostete etwa 62 Mrd. £ an Kapital und implizierte weitere langfristige Kosten von etwa 260 Mrd. £. Im Laufe des Jahres trugen Erneuerbare Energien etwa 7,3 Gigawatt bei, weniger als 23 %. Die kosteneffektivste Form der Stromerzeugung ist jedoch die Gasverbrennung mit weniger als 1 Mrd. £/Gigawatt. Bei der Verbrennung von Gas entsteht viel weniger CO2 als bei anderen fossilen Brennstoffen (als ob das wirklich ein Problem wäre).

Nach diesen groben Berechnungen hätte das Vereinigte Königreich durch den Einsatz von Gasfeuerungen anstelle von erneuerbaren Energien zur Erzeugung dieser 7,3 Gigawatt für das Stromnetz etwa 55 Milliarden Pfund an Kapital und langfristig etwa 230 Milliarden Pfund einsparen können.  Mit Kernkraft wären die Einsparungen zwar geringer, aber immer noch beträchtlich.  All diese zusätzlichen Kosten werden entweder von der Regierung (dem Steuerzahler) übernommen oder belasten die Stromrechnungen.

Es gibt weitere zusätzliche Kosten- und CO2-Implikationen der wetterabhängigen erneuerbaren Energien

Die obigen Vergleichszahlen berücksichtigen nur die direkten Erzeugungskosten und sind eine Unterschätzung der vollen Kosten, die durch die Nutzung wetterabhängiger erneuerbarer Energien entstehen. Die mit Erneuerbaren Energien verbundenen Nebenkosten ergeben sich aus:

● Die Unzuverlässigkeit der erneuerbaren Energien in Bezug auf Stromunterbrechungen und Stromschwankungen.

● Erneuerbare Energien sind nicht disponibel, d. h., die Wolken verziehen sich nicht und der Wind weht nicht immer dann, wenn Strom benötigt wird.

● Es ist unwahrscheinlich, dass das schlechte Timing der Erzeugung aus erneuerbaren Energien mit der Nachfrage übereinstimmt. Jede Windenergie unterliegt den Wetterschwankungen. Die Solarenergie fällt am Abend ab, also zu Zeiten des Spitzenbedarfs. Im Winter erbringt die Solarenergie nur etwa 1/9 der Sommerleistung.

● Viel zusätzliche technische Infrastruktur für den Zugang zu erneuerbaren Standorten wird benötigt.

● Die langen Übertragungsleitungen führen zu Leistungsverlusten und erhöhtem Wartungsaufwand.

● Erneuerbare Energien benötigen im Vergleich zur konventionellen Stromerzeugung (Gas- oder Kernkraftwerke) große Landflächen.

● Die fortlaufenden Kosten für die Reservekraftwerke, die zwar unverzichtbar sind, aber nur gelegentlich in der Backup-Reserve eingesetzt werden und trotzdem CO2 ausstoßen.

● Wenn genügend konventionelle Reservekapazitäten vorhanden sind, um das Netz zu stützen, dann macht es wenig Sinn, die Erzeugungskapazität mit vergleichsweise unproduktiven erneuerbaren Energien zu verdoppeln, auch wenn diese einen Teil der CO2-Emissionen ersetzen könnten.

● Jegliche Überlegungen zur Stromspeicherung mit Batterien, selbst wenn Langzeitbatterien (einige Stunden) im Netzmaßstab wirtschaftlich machbar wären.

● Erneuerbare Energien erzeugen eine unsynchronisierte Erzeugung, der es an Trägheit fehlt, um die notwendige Netzfrequenz aufrechtzuerhalten.

● Erneuerbare Energien können keine „Schwarzstart“-Erholung nach einem größeren Netzausfall bieten.

Außerdem wichtig: Diese Kostenanalyse berücksichtigt nicht:

Erneuerbare Energien sind sehr abhängig von großen Mengen an seltenen Erden und knappen Materialien, die größtenteils aus China bezogen werden.

Erneuerbare Energien verursachen unweigerlich Umweltschäden und die Zerstörung der Tierwelt.
Erneuerbare Energien „Kohlenstoff-Fußabdruck“, Wind- und Solartechnologien können während ihrer Lebensdauer niemals so viel CO2 einsparen, wie sie für ihre Materialbeschaffung,

Herstellung, Installation, Wartung und eventuellen Abriss emittieren.

Erneuerbare Energien sind von fossilen Brennstoffen abhängig, sowohl als Rohstoff für die Materialien als auch als Brennstoff für den Betrieb.

Renewables Energy Return on Energy Invested [ERoEI-Wert oder Erntefaktor], sie erzeugen während ihrer Lebensdauer möglicherweise nur einen begrenzten Überschuss an Energie, wie er für ihre Herstellung und Installation aufgewendet wurde.

Erneuerbare Energien liefern sicherlich nicht den regelmäßigen massiven Energieüberschuss, der ausreicht, um die vielfältigen Bedürfnisse einer entwickelten Gesellschaft zu decken.

Probleme der Energieerzeugung

Da die Regierung der Stromindustrie immer mehr erneuerbare Energien aufzwingt, stehen die Manager der Stromversorgungsunternehmen vor großen Problemen, da die politischen Entscheidungen auf der unpraktischen und unregelmäßig intermittierenden „erneuerbaren Energie“ beharren.  Der Berufsstolz und die Verantwortung der Stromversorgungsmanager werden versuchen, den konsistenten Service aufrechtzuerhalten, der für die Nation so wichtig ist, aber es wird immer schwieriger werden.

Konventionelle Stromerzeuger, die in Vollzeit produktiv sind, werden aus dem Geschäft gedrängt, da sie unrentabel werden.

Am Ende spielen die zusätzlichen Kosten keine Rolle, denn entweder übernimmt die Regierung (oder besser gesagt der Steuerzahler) die Rechnung, oder die zusätzlichen Kosten werden einfach über die steigenden Rechnungen an die Kunden weitergegeben: Die Kunden haben keine wirkliche Wahl, denn das Stromgeschäft ist effektiv ein Monopol.

Ein hervorragender Weg, die westlichen Volkswirtschaften zu untergraben, ist es, ihre Energieerzeugung unzuverlässig und teuer zu machen.  Dieses Ziel des grünen Denkens wird nach und nach durch die Regierungspolitik erreicht, jedoch ohne das Mandat der Wähler in der gesamten westlichen Welt.

[Alle Hervorhebungen in diesem Beitrag im Original]

Weather Dependent Renewables Productivity: what do the numbers mean?

Link: https://wattsupwiththat.com/2021/02/21/summary-uk-weather-dependent-renewables-2019/

Übersetzt von Chris Frey EIKE




Eisstürme: Windräder von RWE in Texas bescheren dem Konzern extreme Verluste

Die angeblich durch die Erderwärmung erzeugten Schneestürme auf der Nordhalbkugel setzen nicht nur in Deutschland die Kraftanlagen zur Bereitstellung „erneuerbarer Energie“ außer Gefecht. Man sieht, die frei erfundenen Vorhersagen zur kommenden Heißzeit haben den Bau einer Infrastruktur zur Folge gehabt, die im tatsächlich anstehenden kühlen Zeitalter komplett versagt.

Wußten Sie, daß die alternative Energiewende Deutschlands auch in Übersee stattfindet? Der deutsche Branchenriese RWE betreibt tatsächlich in Texas Windradparks, die wegen der ungewöhnlichen Blizzards dort derart vereist sind, daß ein Teil keinen Strom mehr liefert. Die Ausfälle sind derart hoch, daß RWE „zu außergewöhnlich hohen Preisen“ von wetter-sicheren Betreibern Strom zukaufen muß. Vermutlich handelt es sich um Kernkraft- und Fossilkraftwerke, denen Hitze oder Kälte nichts ausmachen. Die Verluste werden geschätzt 250 bis 400 Millionen Euro betragen.

Die Eisstürme in Texas haben flächendeckende Strom- und Wasserausfälle verursacht. Für US-Amerikaner mag eine solche Erfahrung nichts Apokalyptisches darstellen. (Wer schon einmal in New York Stadt war, hat in den Bezirken Queens und Brooklyn vielleicht die freihängenden Stromleitungen auf Holzmasten gesehen, die bei Stürmen und Schnee ganz gerne umfallen und reißen.) Durch die besonders anfälligen „Ökostrom“-Erzeuger, die in der freien Natur stehen und den Kräften des Wetters ungeschützt ausgesetzt sind, kann das Problem aber chronisch werden. Die öko-geplagten Kalifornier können ein Lied davon singen.




Woher kommt der Strom? ein Windstrom-Desaster

(Abbildung, bitte unbedingt anklicken. Es öffnen sich alle Abbildungen und Mehr)

Die konventionelle Stromerzeugung (Abbildung 1) war leider nicht immer in der Lage, die insgesamt schwache Stromerzeugung mittels regenerativer Energieträger so auszugleichen, dass die Strompreise für Deutschland moderat blieben. So gab es sofort zum Wochenbeginn, am Montagmorgen ein Strom-Überangebot im Markt, welches fast zu negativen Stromreisen geführt hätte. Der sinkenden Windstromerzeugung konnte/wollte die konventionelle Stromerzeugung nicht folgen. Den Technikern und Ingenieuren war ganz sicher klar, dass eine mehrtägige Wind-Flaute bevorstand, die mit hoher konventioneller Zusatzstromerzeugung aufgefüllt werden muss. Das gelang den Männern (und Frauen?) in den Steuerungszentralen insgesamt sehr gut. Lediglich am Donnerstag, als die Windstromerzeugung nur 9,09% des Strombedarfs lieferte, entstand eine Unterdeckung, die teuer bezahlt werden musste (Abbildung 2). Es war – wie immer – die Mittags- und die Vorabendzeit, zu der Höchstpreise diesmal weit über 100 €/MWh aufgerufen wurden. Da sind die Preise um die 50 €/MWh, die jeweils am frühen Morgen des 10.2. und 11.2.2021 gezahlt werden mussten, noch moderat. Ansonsten exportierte Deutschland überschüssigen Strom (Abbildung 3). Es wurden bis auf den Montagmorgen insgesamt auskömmliche Preise erzielt.

Die Tabelle mit den Werten der Energy-Charts und der daraus generierte Chart liegen unter Abbildung 4 ab.

Die Im-, Exportwerte des bisherigen Jahres finden Sie unter Abbildung 5.

Die angenommene Verdoppelung der Wind- und Solarstromerzeugung brachte keinen Tag, an dem die regenerative Stromerzeugung ausgereicht hätte, um den Strombedarf Deutschlands zu decken (Abbildung 6). Den beliebten Energierechner können Sie hier herunterladen.

Die Tagesanalysen

Montag, 8.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 43,45 Prozent, davon Windstrom 32,14 Prozent, Solarstrom 1,19 Prozent, Strom Biomasse/Wasserkraft 10,2 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der erste Werktag der Woche ist durch stark sinkende Windstromerzeugung an Land und leicht steigender Windstromerzeugung auf See gekennzeichnet. Am frühen Morgen ist zu viel Strom im Markt. Deutschland muss große Teile des erzeugten Stroms praktisch verschenken. Die konventionelle Stromerzeugung hat etwas zu früh etwas zu viel Strom erzeugt. So kam es erst ab 5:00 Uhr zu Preisen über 20€/MWh. Ab diesem Zeitpunkt wurden über den restlichen Tag per Saldo  auskömmliche Strompreise erzielt.

Dienstag, 9.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 27,5 Prozentdavon Windstrom 16,25 Prozent, Solarstrom 0,63 Prozent, Strom Biomasse/Wasserkraft 10,63 Prozent. Die Agora-Chartmatrix: Hier klicken.

Nur zweimal, um 14:00 und um 20:00 Uhr, waren heute praktisch nur geringe Stromlücken auszumachen. Ansonsten wurde der überschüssige in Deutschland hergestellte Strom insgesamt zu auskömmlichen Preisen verkauft. Das lag vor allem an der guten Nachführung der konventionellen Stromerzeuger. Diese Nachbarn kauften/verkauften Strom.

Mittwoch, 10.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 25,93 Prozentdavon Windstrom 14,20 Prozent, Solarstrom 1,23 Prozent, Strom Biomasse/Wasserkraft 10,49 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Mittwoch brachte in den frühen Morgenstunden eine Strom-Versorgungslücke, die mit Preisen um die 50€/MWh geschlossen wurde. Den restlichen Tag war die Nachführung der Konventionellen in Ordnung. Es wurden gute Exportpreise erzielt. Diese Nachbarn handelten Strom mit Deutschland.

Donnerstag, 11.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 20,78 Prozent, davon Windstrom 9,09 Prozent, Solarstrom 1,95 Prozent, Strom Biomasse/Wasserkraft 9,64 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Donnerstag brachte den Tiefpunkt der regenerativen Stromerzeugung in der sechsten Woche. Die Konventionellen führten nicht genügend nach. Ob gewollt oder nicht gekonnt, ich weiß es nicht.  So entstand eine Stromlücke, die zum Mittag und zum Vorabend hochpreisig geschlossen werden musste. Auch in der übrigen Zeit waren die Preise gepfeffert. Diese Nachbarn profitierten. Vor allem Frankreich und die Schweiz machten blendende Preisdifferenzgeschäfte.

Freitag, 12.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 30,72 Prozent, davon Windstrom 18,07 Prozent, Solarstrom 3,01 Prozent, Strom Biomasse/Wasserkraft 9,64 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute erholt sich die regenerative Stromerzeugung etwas. Die konventionelle Stromerzeugung wurde eingependelt, so dass den ganzen Tag gute Erträge mittels Stromexport erwirtschaftet werden. Fast alle zahlen. Die Niederlande und Frankreich verkaufen Strom. Sie profitieren. Aber auch Polen nimmt um 18:00 Uhr mit Kohlestrom ein Schippchen Kohle mit.

Samstag, 13.2.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 30,41 Prozent, davon Windstrom 14,86 Prozent, Sonnenstrom 4,73 Prozent, Strom Biomasse/Wasserkraft 10,83 Prozent. Die Agora-ChartmatrixHier klicken.

Samstag, Einstieg ins Wochenende. Die Windstromdelle wird durch Solarstrom ausgeglichen. Die ruhige, gleichmäßige regenerative Erzeugung macht es den konventionellen Stromerzeugern einfach, die Lücken zu Bedarf aufzufüllen.  Der niedrigste Preis, der von Deutschland an diesem Tag erzielt wird, liegt bei 44,68€/MWh. Das macht Stromerzeugung Spaß. Diese Nachbarn zahlen. Die Niederlande profitieren. Neben Deutschland.

Sonntag, 14.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 42,76 Prozent, davon Windstrom 26,21 Prozent, Sonnenstrom 5,52 Prozent, Strom Biomasse/Wasserkraft 11,03 Prozent. Die Agora-Chartmatrix: Hier klicken.

Auch der Sonntag ist ein ertragreicher Stromexporttag für Deutschland. Preise immer über 40€/MWh. In der Spitze sogar 62,50€/MWh. Um 18:00 Uhr. Die Windstromerzeugung zieht über Tag an. Die Nachführung der Konventionellen gelingt. Diese Nachbarn handeln Strom.

Ein für Deutschland befriedigender Ausgang der sechsten Analysewoche. Der Februar war bisher dennoch recht teuer, weil der Importpreis erheblich über dem Niveau lag, welches bisher mit dem Stromexport erzielt wurde. Verglichen mit dem Januar und Februar des Vorjahres ist das Preisniveau bisher erheblich angestiegen.

Zum Schluss noch zwei Nachträge. Zum einen die versprochene Tabelle mit den Werten des Jahres 2020 Stand 15.1.2021. Zum anderen die Seite Abbildungen und Mehr zum Artikel der vergangenen Woche, 16.2.2021. Ich hatte die Verlinkung versäumt.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. 

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.




Elektroautos: Heftiger Einbruch der Nachfrage

Die Energiewende der Regierungen Merkel scheitert krachend an der Physik – nun aber auch wirtschaftlich an den E-Auto-Käufern. Da Vollstromer geringe Reichweiten haben und in der Regel nur umständlich und zeitintensiv geladen werden können, und zudem vergleichsweise teuer sind, wird der Kauf vom Bund (bzw. vom Steuerzahler) üppig subventioniert. Und auch der Betrieb ist steuerlich abzugsfähig – für Dienstwagenkäufer interessant.

Dennoch sind die finanziellen Argumente für immer weniger Käufer überzeugend – was vermutlich mit den Meldungen zu verheerenden unlöschbaren Bränden von Stromern und Hybriden und mit dem heftigen Wintereinbruch zu tun hat. Die Bürger sorgen sich wohl um ihre Sicherheit, wenn unter dem Fahrersitz Lithiumakkus verbaut sind, die mit Stichflamme brennen können. Außerdem ist ein E-Auto bei großer Kälte deutlich im Nachteil, weil die Kapazität der Batterien noch geringer wird. Was macht der Handlungsreisende, wenn er bei -10°C im Stau auf der Autobahn ausharren muß, und der Ladungszustand des Akkus gen 0 neigt? Einen leeren Tank könnte der freundliche Staunachbar in zwei Minuten mit seinem Reservekanister ausreichen vollmachen, um die nächste Tankstelle zu erreichen.

Bei einem E-Auto ist so etwas nicht möglich. Oder könnte ein Stromfahrer dem Nachbarn eine Kilowattstunde übertragen, damit der von der Autobahn herunterkommt? Beim Starter-Bleiakku geht es ja. Wenn Sie es wissen, schreiben Sie es in die Kommentare!

Konkrete Zahlen: Im November und Dezember 2020 wurden noch 28.965 und 43.671 Förderanträge bei der Bundesanstalt für Wirtschaft und Ausfuhrkontrolle BAFA gestellt; im Januar 21 nur noch 16.316. An Corona kann es nicht liegen; da die neue Vollquarantäne seit Dezember andauert. Ob der Einbruch den Temperaturen geschuldet ist, werden wir nach April sehen können.




Der Energy Charter Treaty (ECT) von 1994 stört die „Energiewende“.

Die meisten Europäer haben wohl von der 1991 nach dem Ende des Kalten Krieges mühsam ausgehandelten, 1994 in Lissabon unterzeichneten und im April 1998 in Kraft getretenen Internationalen Energie Charta noch nie gehört. Auch viele Politiker scheinen sich nicht der Energiecharta erinnert zu haben, als sie das Pariser Klima-Abkommen und den „Green Deal“ der EU beschlossen. Nun werden sie gewahr, dass sie sich damit das Risiko Milliarden schwerer Schadensersatz-Forderungen eingehandelt haben.

Der Energiecharta-Vertrag (ECT) wurde nach dem Ende des Kalten Krieges ausgehandelt mit dem vordringlichen Ziel, die Energiewirtschaft der Ex-Sowjetrepubliken und der osteuropäischen Staaten in die europäischen und globalen Märkte zu ermöglichen. Um Investoren in Länder mit unsicherer Rechtslage zu locken, gewährt der Vertrag Auslandsinvestitionen einen besonderen Schutz, zumal sich Investitionen in Großkraftwerke meist erst nach etlichen Jahren rechnen. Bis 20 Jahre nach seinem eventuellen Austritt aus dem Vertrag kann ein Staat von privaten Energieproduzenten mithilfe nicht öffentlich tagender Schiedsgerichte noch zu hohen Schadensersatzzahlungen verpflichtet werden (Art. 47). Im gleichen Sinn sollen die Meistbegünstigungsklausel und ein Diskriminierungsverbot entsprechend den Regeln der Welthandelsorganisation WTO wirken. Dabei soll allerdings die nationale Souveränität über die Energieversorgungs-Infrastruktur nicht angetastet werden (Art. 18 ECT). Die Partnerstaaten sind nicht verpflichtet, Dritten Zugang zu ihrer Infrastruktur zu gewähren. Es gibt auch keine Verpflichtung, Energie-Unternehmen im Staatsbesitz zu privatisieren oder zur Zerschlagung vertikal integrierter Energie-Konzerne. Schließlich soll der Vertrag auch die Transparenz und Effizienz von Energiemärkten fördern. Diese werden im Protokoll zur Energieeffizienz und damit zusammenhängenden Umweltaspekten (PEEREA) festgehalten. Dieses trat im April 1998 zusammen mit dem ECT in Kraft.

Neben Ländern wie Australien und Island, die sich wegen ihrer Insellage kaum Vorteile vom ECT versprachen, haben auch Norwegen, Weißrussland und Russland dem Vertrag nur zögernd zugestimmt. Russland machte die Ratifizierung von einem Energie-Transit-Protokoll abhängig, das im Rahmen des Beitrittsprozesses Russlands zur WTO und auch bilateral zwischen der Europäischen Union und Russland ausgehandelt werden sollte. Inzwischen haben 51 Länder sowie die EU und EURATOM den Vertrag unterzeichnet. Australien, Island, Norwegen, Weißrussland und Russland haben den Vertrag noch nicht ratifiziert, wenden ihn aber provisorisch an, soweit er ihren nationalen Gesetzen und Regelungen nicht widerspricht. Italien hat im Frühjahr 2015 sein Ausscheiden aus dem ECT bekannt gegeben, um seinen Mitgliedsbeitrag in Höhe von 370.000 Euro einzusparen. Es unterliegt aber nach Artikel 47 des ECT noch bis 2036 den Entscheidungen der ECT-Schiedsgerichte.

Das hat offenbar die Verfechter der Ideologie-getriebenen „Energiewende“ alarmiert. Im Vergangenen Jahr riefen Autoren des 6. Sachstandsberichts des IPCC und linke Ökonomen die EU in einem offenen Brief zum Ausstieg aus dem ECT samt dessen „Sunset Clause“ (Art. 47) auf, die es Investoren erlaubt, Regierungen bis 20 Jahre nach deren Austritt aus dem ECT zu verklagen . In dessen Begründung heißt es: „Energieunternehmen nutzen den ECT, um den Ausstieg aus fossilen Brennstoffen zu verlangsamen. Zum Beispiel verklagt der britische Ölkonzern Rockhopper Italien wegen des Verbots der Ölförderung in den Küstengewässern des Landes und fordert das Siebenfache der Summe, die das Unternehmen ursprünglich investiert hat. Der britische Energiekonzern Ascent Resources verklagt Slowenien, weil es von dem Unternehmen eine Umweltverträglichkeitsprüfung verlangt, bevor es mit der Erdgasexploration durch Fracking beginnt. In den Niederlanden hat der Betreiber eines Kohlekraftwerks ein Schiedsgerichtsverfahren gegen das Kohleausstiegsgesetz der niederländischen Regierung eingeleitet, in dem er laut Medienberichten 1 Milliarde Euro Entschädigung fordert. Die bloße Androhung solcher Klagen kann schon ausreichen, um Regierungen von einer Gesetzgebung im öffentlichen Interesse abzubringen. Daher sehen die Unterzeichner*innen dieses Briefes den Energiecharta-Vertrag als ein großes Hindernis für die Umsetzung des Pariser Abkommens und des europäischen Green Deals.“ (zit. nach Attac Austria)

In diesem Jahr hat nun Nico Schmidt von dem von der Soros-Initiative und anderen verdächtigen Stiftungen gesponserten aktivistischen Recherche-Netzwerk „Investigate Europe“ in „Buzzfeed News“ die Alarmglocke betätigt und fand dabei in anderen Blättern des Ippen-Digital-Netzwerks ein breites Echo. Schmidt und seine Kollegen fürchten, Konzerne könnten bereits durch die Androhung von Milliarden teuren Schiedssprüchen („regulatory chill“) das 1,5-Grad-Ziel des Pariser Klima-Abkommens und den „Green Deal“ der EU zu Fall bringen. So habe zum Beispiel der französische Staat unter dem früheren Umweltminister Nicolas Hulot im Jahre 2017 auf das angekündigten Total-Verbot der Förderung fossiler Energie-Rohstoffe verzichtet, um ein teures Schieds-Verfahren nach dem ECT zu vermeiden. Insgesamt gebe es in der EU Energie-Infrastrukturen (Kohle- und Gaskraftwerke, Flüssiggas-Terminals, Ölfelder und Pipelines) im Wert von insgesamt etwa 350 Milliarden Euro, die Gegenstand von ECT-Schiedsverfahren werden könnten. Es gebe bereits Beispiele, in denen es Konzernen gelungen ist, wegen entgangener Gewinnchancen ein Vielfaches des aktuellen Buchwertes ihrer Investitionen zu erstreiten.

Dadurch wird die auf reinem Wunschdenken fußende deutsche „Energiewende“ noch teurer als ohnehin schon bekannt. Der wegen des in Deutschland beschlossenen Kohleausstiegs bis 2038 zwischen dem Bund und den Konzernen RWE und Leag kürzlich unterzeichnete Kohleausstiegsvertrag enthält deshalb vorsorglich diesen Paragrafen: „Die Vertragsparteien sind sich einig, dass die Gesellschaften auf Forderungen und Ansprüche aus dem Energiecharta-Vertrag verzichten.“ Wieviel Geld die Bundesregierung diesen Konzernen für den Forderungsverzicht angeboten hat, wurde nicht offiziell bekanntgegeben. Es muss sich aber um Milliardensummen handeln. Im Fall der Leag, die wegen ihrer ausländischen Kapitalbasis nach dem ECT klagen könnte, ist von 1,735 Milliarden Euro die Rede. Der schwedische Staatskonzern Vattenfall prozessiert schon seit 2012 wegen des 2011 beschlossenen Atomausstiegs gegen den deutschen Staat. Dabei geht es um mehr als 6 Milliarden Euro. Ein Urteil wird in diesem Frühjahr erwartet.

Der deutsche RWE-Konzern klagt zurzeit vor einem Schiedsgericht gegen die Niederlande auf eine Entschädigung von 1,4 Milliarden Euro, weil er in seinem Kraftwerk Eemshaven ab 2030 keine Kohle mehr verfeuern darf. Gegen Italien klagt der britische Ölkonzern Rockhopper vor einem Washingtoner Schiedsgericht auf eine Entschädigung von mehr als 200 Millionen Euro, weil er das von ihm mit Investitionen von etwa 23 Millionen Euro teilweise schon erschlossene Ölfeld „Ombrina Mare“ in der Adria nicht ausbeuten darf.

Deshalb mehren sich vor allem in südlichen EU-Mitgliedsstaaten nun Stimmen, die einen „koordinierten Austritt“ der EU aus dem ECT fordern. Damit würde zumindest Konzern-Klagen innerhalb der EU die Rechtsgrundlage entzogen. Doch Nico Schmidt hält selbst ein entsprechendes Abkommen zwischen den EU-Mitgliedsstaaten für „höchst unwahrscheinlich“. Das Brüsseler ECT-Sekretariat bemüht sich unterdessen – vermutlich nicht ohne Erfolg – darum, den Energie-Pakt auf Afrika auszudehnen. Das brächte den Afrikanern die Chance, endlich zu einer verlässlichen Energieversorgung zu gelangen. „Pacta sunt servanda“ (Verträge müssen eingehalten werden) heißt einer der bewährten Grundsätze des alten römischen Rechts. Ohne Rechtssicherheit würde die Energiewirtschaft den Herausforderungen des Klimawandels (gleich in welche Richtung) kaum begegnen können. Anfang März tagt die nächste Verhandlungsrunde der Modernisierungsgruppe des ECT.

Aktivistische Netzwerke wie „Investigate Europe“ leben von der Denunziation der Geschäftsinteressen großer Konzerne. Doch auch ihr Insistieren auf dem angeblich wissenschaftlich abgeleiteten 1,5-Grad-Ziel der Klimapolitik ist nichts anderes als ein Geschäftsmodell – im Dienste von Investoren in Wind- und Solarkraftwerke sowie für den nimmersatten Staat. Im Unterschied zu Konzernen, die in Kohle- und Gaskraftwerke investieren, können diese aber keine zuverlässige Energieversorgung garantieren. In besserwisserischer Manier setzten die Klima-Aktivisten auf „Alternativen“, die sich am Ende meist als umweltbelastender erweisen als die von ihnen verschmähten „fossilen“ Energiequellen.




Explodierende Stromkosten: Energiewende bereitet Großindustrie unerwartete Zusatzprobleme

Die ehemals halb-zentrale Stromversorgung Deutschlands mit Kern- und Kohlekraftwerken hatte nicht nur den Vorteil, die Verschmutzung der Luft auf bestimmte Regionen zu begrenzen (statt in jeder Küche wie zuvor); es war auch möglich, besonders energiebedürftige Verbraucher wie die Aluminium- und Stahlindustrie ortsnah mit billigem Strom in benötigter Menge zu versorgen. Den Grund für den hohen Bedarf kennt der kundige EIKE-Leser aus dem Schulunterricht: Erze wie Bauxit müssen erst mit mehr als 2000°C verflüssigt werden, um die Aluminium-Ionen zu mobilisieren, die dann via Elektrolyse reduziert und zu elementarem Metall gemacht werden. Das Schmelzen der Alusalze kann meist noch mit Gas oder Kohle bewerkstelligt werden; aber für die Elektrolyse braucht man Strom mit hohen Spannungen und hohen Stromstärken.

Da die Stromtarife für die Industrie seltsamerweise auch nach Transportstrecke berechnet werden, fallen nun viel höhere Preise an, da die zentralen Meiler nach und nach abgerissen werden. Und die vielen dezentralen Kleinkraftwerke und Ökostromanlagen, oder der nächste noch in Betrieb befindliche  Großmeiler stehen zwangsläufig weit weg von den Großverbrauchern. Ergebnis: Verdopplung der Stromkosten, die logischerweise an den Produktkäufer weitergegeben werden müssen. Deutsches Metall wird damit nicht mehr konkurrenzfähig. Heißt irgendwann, Werk schließen oder ins Ausland verlagern.

Typisches Beispiel ist die Aluhütte von Trimet in Hamburg. Bisher wird die Fabrik vom nahen Moorburg, einem neuen hocheffizinenten Kohlekraftwerk, versorgt, das Vattenfall an Silvester schließen wird. Das KKW Brokdorf, zehn mal so weit entfernt (70km), muß dann übernehmen. Dummerweise fällt Brokdorf Silvester 22 auch aus; und dann muß ein Anbieter im fast 100 km entfernen Bremen übernehmen.

Man sieht: Die Energiewende, die das Kabinett Merkel II 2011 vom Zaun brach, sorgt lediglich für eine Desindustrialisierung Deutschlands. Die Kern- und Kohlekraftwerke und die Aluhütten werden keineswegs weniger, sondern wandern nur ins benachbarte Ausland ab.

Den Akademikern im öffentlichen Dienst und in den Redaktionen mag das gleich sein – zunächst noch. Denn die Grundstoffindustrie erzeugt den Wohlstand, von dem die Steuer-Transfers letztlich finanziert werden. Daß die Hunderttausende Jobs, die zeitnah wegfallen, jemanden von den Transferempfängern  interessieren, darf bezweifelt werden. Es geht ja um die Rettung des Klimas; da müssen eben ein paar Späne fallen.




Der Mythos und die verlogene Mathematik „grüner“ Arbeitsplätze

Während des Wahlkampfs im Jahre 2020 behauptete Joe Biden, dass mehr als 3 Millionen Amerikaner bereits „in der sauberen Energiewirtschaft beschäftigt sind“. Dann prahlte er, dass „wenn strategisch ausgeführt, unsere Antwort auf den Klimawandel mehr als 10 Millionen gut bezahlte Arbeitsplätze in den Vereinigten Staaten schaffen kann, die eine stärkere, integrativere Mittelschicht wachsen lassen … und nicht nur in Städten entlang der Küsten.“

Damit wäre Joe doppelt so prahlerisch wie sein früherer Chef, der 2009 versprach, das 787 Milliarden Dollar schwere Konjunkturpaket würde „über fünf Millionen“ grüne Arbeitsplätze schaffen. Vier Jahre später berichtete die Brookings Institution, dass „von den fast 2,7 Millionen ‚grünen Jobs‘ der Obama-Biden-Regierung die meisten Busfahrer, Abwasserarbeiter und andere Arten von Arbeit waren, die nicht in die Beschreibung der ‚grünen Jobs der Zukunft‘ passen“.

Der Energieanalyst David Blackmon berichtete später, dass Obamas eigenes Arbeitsministerium das anfängliche Scheitern des Starts einräumte. Der Bericht des DOL vom September 2011 mit dem Titel [übersetzt] „Geringes Tempo bei der Vermittlung von Arbeitern in Jobs gefährdet die Beschäftigungsziele des Programms für grüne Arbeitsplätze“ stellte fest, dass nur ein Drittel der zugewiesenen Mittel ausgegeben worden war; ein Fünftel der „Abschlüsse“ und „Zertifizierungen“ ging an Personen mit einem einzigen Tag Schulung; und die Hälfte der „Absolventen“ hatte fünf oder weniger Tage Schulung. Nur 2% der Programmteilnehmer behielten ihre Jobs für mindestens sechs Monate.

Das Bureau of Labor Statistics (BLS) zählte Lobbyisten der Ölindustrie als Inhaber „grüner“ Jobs! Die Industrie für die Wartung von Klärgruben und tragbaren Toiletten hatte 33-mal mehr „grüne“ Arbeitsplätze ausgewiesen als die Solarstrom-Versorgungsunternehmen. Das BLS musste in einem Bericht vom Juni 2012, „Green Technologies and Practices – August 2011“, einräumen, dass sie nur 854.700 „grüne“ Jobs ausmachen konnten, einschließlich Hausmeister und Reinigungskräfte.

Was für ein Schwindel! Schande über sie für den Versuch, uns zu betrügen.

David Kreutzer wies in einem Bericht der Heritage Foundation darauf hin, dass Stahlarbeiter die meisten „grünen“ Industriejobs haben. Warum? Der meiste US-Stahl ist recycelter Schrott, und ein Teil des Stahls wird für die Herstellung von Windkraftanlagen verwendet. Die nächstgrößeren Gruppen waren Busfahrer, Müllsammler und Angestellte von Gebrauchtwarenläden – gefolgt von Ingenieur- und Architekturdienstleistungen. Die viel gehasste Atomindustrie machte über 80% der 44.000 „grünen“ Arbeitsplätze bei den Stromversorgern aus. Es gab fünfmal so viele „grüne“ Jobs in der sozialen Lobbyarbeit (Lobbyisten von Umweltgruppen) als in der erneuerbaren Stromerzeugung.

Ah, aber das war damals – aber wir sind heute, sagen Sie. Richtig!

Im Januar berichtete Associated Press über „Bidens unscharfe Mathematik“ in Bezug auf seine Behauptung, 1 Million neue Arbeitsplätze in der Autoindustrie zu schaffen – selbst wenn er tatsächlich die 650.000 Fahrzeuge umfassende Flotte der Regierung durch Elektroautos ersetzt und 500.000 neue Ladestationen installiert – alles auf Kosten der Steuerzahler. Theoretisch wird ein riesiges staatliches Kaufprogramm die Kosten für Elektroautos senken, und die unzähligen Ladestationen werden die Angst verringern, bei einer Hurrikan-Evakuierung in einem Fahrzeug festzusitzen, das man nicht schnell auftanken kann. Theoretisch.

Aber Moment! Jeder Arbeitsplatz für ein Elektrofahrzeug wird wahrscheinlich auf Kosten eines Arbeitsplatzes für ein Fahrzeug mit Benzinmotor gehen, und jede Ladestation für ein Elektrofahrzeug wird Arbeitsplätze in der Pipeline, in der Raffinerie, im Benzin-Einzelhandel, in der Benzinauslieferung und in anderen Sektoren vernichten. Der AP-Artikel fügt hinzu, dass Industrieanalysten und die Gewerkschaft United Auto Workers darin übereinstimmen, dass die Herstellung von E-Fahrzeugen wahrscheinlich weniger Arbeitsplätze in der Automobilindustrie bedeuten wird. Ein Grund dafür ist, dass E-Fahrzeuge viel weniger Teile haben und einfacher zu bauen sind, also weniger Arbeiter benötigen und oft nur ein neues Batteriemodul für 6.000 Dollar brauchen. Ein weiterer Grund ist, dass die Batterieherstellung leicht automatisiert werden kann. Aber das ist kaum die ganze Geschichte.

Bereits 2019, als General Motors über einen Zeitraum von drei Jahren mehr als ein Fünftel seines US-Marktanteils an Verkäufen verlor, gab das Unternehmen zu, dass es bereits mehr nicht gewerkschaftlich organisierte Autoarbeiter in China beschäftigt als gewerkschaftlich organisierte Arbeiter in den USA. Die harte Realität ist, dass es in Asien zehnmal mehr Produktionsstätten für Elektrofahrzeug-Batterien gibt als in ganz Nordamerika. Vielleicht spricht Jinping Joe Biden von der Anzahl der chinesischen „grünen“ Arbeitsplätze und dabei insbesondere über Kinder- und Fast-Sklavenarbeit in Chinas Minen und Verarbeitungsbetrieben.

Andere Analysten haben ebenfalls erkannt, dass die Ansprüche grüner Arbeitsplätze seitens der Biden-Regierung „meist falsch“ sind.

Elektrofahrzeuge sind nur ein Teil des Green New Biden Deal. Die Unterwerfung unserer Wirtschaft [der USA] unter das Pariser Klimaabkommen und seine drakonischen Umweltauflagen ist ein weiterer. Die Abkehr von Öl, Gas und Kohle – und sehr wahrscheinlich auch von Kernkraft – und all den Arbeitsplätzen, die diese Industrien schaffen, ist ein dritter. Mr. Biden folgt Deutschland und anderen Ländern der Europäischen Union auf dem Weg in den wirtschaftlichen Selbstmord.

[Hervorhebung vom Übersetzer]

Laut der Deutschen Bank löst die klimapolitische Regulierung des deutschen Automobilsektors „den größten Strukturbruch in der Branche seit Jahrzehnten aus.“ Strenge Kohlendioxid-Grenzwerte für neue Pkw in der EU für die Jahre 2021 und 2030 zwingen die Hersteller zu einem vorzeitigen Umstieg auf teurere Elektrofahrzeuge, heißt es in einem Bericht der Bank. Die daraus resultierenden Preissteigerungen, so prognostiziert die Bank, werden sich sehr negativ auf die zukünftigen Arbeitsplätze in der deutschen Autoindustrie auswirken.

Ein Grund dafür ist, dass die CO2-Grenzwerte der EU für PKWs und die Subventionen für Elektrofahrzeuge „extrem ineffiziente [teure] und kaum effektive Instrumente“ sind, um eine Emissionsreduktion im Transportsektor zu erreichen. Während staatliche Anreize und Mandate die Menschen zum Kauf von staatlich begünstigten Fahrzeugen bewegen können, verringert eine radikale Klima- und Energiepolitik die Investitionen in energieintensive Sektoren wie die Metall- und Chemieindustrie. Dies wird die Kosten für neue deutsche Autos weiter erhöhen.

Der Deutsche Gewerkschaftsbund berichtet, dass trotz des Vorstoßes für grüne Energie und Elektrofahrzeuge die Zahl der „grünen“ Arbeitsplätze in der deutschen Erneuerbare-Energien-Branche von 300.000 im Jahr 2011 auf nur noch 150.000 im Jahr 2018 gesunken sei. Viele dieser verlorenen Arbeitsplätze sind auf den Zusammenbruch der deutschen Solarindustrie zurückzuführen, da die Unternehmen von chinesischen Herstellern aus dem Geschäft gedrängt wurden, die die deutschen Preise unterboten – und einen viel einfacheren Zugang zu Rohstoffen hatten.

Die Erfolgsbilanz der amerikanischen Arbeitsplätze im Bereich der erneuerbaren Energien gegenüber der chinesischen Konkurrenz ähnelt der deutschen Erfahrung. Ein Hauptgrund ist Chinas Beinahe-Monopol auf Seltene-Erden-Metalle, die für die Grüne Revolution unerlässlich sind. Trotz dieser Tatsachen sagte Bidens „Klimabeauftragter“ John Kerry kürzlich, dass amerikanische Öl- und Gasarbeiter, die ihren Arbeitsplatz verloren haben, einfach und leicht zur Herstellung von Solarzellen arbeiten können.

Der Energieökonom Tilak Doshi [in deutscher Übersetzung beim EIKE hier] stimmt zu, dass die Faszination des Westens für erneuerbare Energien, die nur die Dekarbonisierung und letztendlich die Deindustrialisierung zum Ziel haben, ein Rezept für wirtschaftlichen Selbstmord ist. Er weist darauf hin, dass Deutschlands „grüne“ Welt riesige Windturbinen mit Flügeln aus erdölbasierten, glasfaserverstärkten Harzen beinhaltet; Motoren, die mit Eisen und seltenen Erden gebaut werden, die mit fossilen Brennstoffen gewonnen, verarbeitet und verhüttet werden; Beton, der ebenfalls fossile Brennstoffe benötigt; und Fabriken, die mit Kohle und Erdgas betrieben werden. Bei Solarmodulen ist es genau das Gleiche.

[Hervorhebungen vom Übersetzer]

Die Turbinen und Paneele werden in Wäldern, Wiesen, Ackerland und Küstengebieten installiert, wo sie landschaftlich reizvolle Ausblicke und Lebensräume für Wildtiere zerstören. Die Turbinenblätter töten gefährdete Vögel und Fledermäuse.

Das Ergebnis dieses „Rettet-den-Planeten“-Eifers? Deutschland hat eine aufkeimende Armutsrate von 17%, größtenteils dank der Abschaltung von zuverlässigen nuklearen und fossilen Kraftwerken und den daraus resultierenden explodierenden Strompreisen für Haushalte, Fabriken, Unternehmen und Krankenhäuser in den letzten 15 Jahren.

Aber zurück in die USA. Kalifornien betreibt die fünftgrößte Volkswirtschaft der Welt, indem es den größten Teil seines Rohöls aus Übersee importiert (trotz massiver Reserven im eigenen Bundesstaat) und ein Drittel seines Stroms aus anderen Staaten bezieht (ebenfalls aus politischer Opportunität). Infolgedessen zahlen die Kalifornier heute 60 % mehr als der nationale Durchschnitt für Strom für Privathaushalte, Gewerbe und Industrie, während sie gleichzeitig häufige Stromausfälle aufgrund von teurer, wetterabhängiger Energie und einer erbärmlichen Forstwirtschaft ertragen müssen. Menschen und Industrien fliehen aus dem Staat.

Und das Team Biden-Harris (Harris-Biden?) will dem Rest der Vereinigten Staaten die Verhältnisse in Kalifornien überstülpen!

[Origianlly posted on Townhall]

Link: https://www.heartland.org/news-opinion/news/the-myth-and-phony-math-of-green-jobs

Übersetzt von Chris Frey EIKE

 




Im Eis eingefrorene Alligatoren in Oklahoma

Im Südosten von Oklahoma, in McCurten County, sind die Sümpfe gefroren. Die Alligatoren, die dort leben, versuchen, sich an die Kälte anzupassen. Obwohl sie im Eis eingefroren sind, lassen sie ihre Nase draußen, damit sie atmen können.

Die Bilder der Reptilien wurden vom Oklahoma Wildlife Conservation Officer David Arbor veröffentlicht. Er nahm diese Bilder in den Red Slough Sümpfen auf. Zuvor wurde dieses Verhalten der Reptilien bei Frost in den Jahren 2018 und 2019 in North Carolina beobachtet.

Dieser Zustand ist vergleichbar mit dem Winterschlaf bei Säugetieren. Die ungewöhnliche Kälte führt dazu, dass der Stoffwechsel der Reptilien verlangsamt wird. Wenn die Tiere die Sümpfe verlassen, könnten sie sterben, weil sie ihre Körpertemperatur nicht regulieren können. Wenn die Thermometer über den Nullpunkt steigen, kehren die Alligatoren in ihren normalen Zustand zurück.

Weitere Fotos:

https://www.gismeteo.ru/news/animals/alligatory-v-oklahome-vmerzli-v-led-iz-za-ekstremalnyh-holodov-foto/

[Das ist eine russische Website, auf russisch {Eine Übersetzungsmaschine hilft}. Es geht aber auch um Oklahoma. Nur beim Aufrufen des Links erschienen bei mir anstatt der Fotos nur weiße Flächen. A. d. Übers.]

Auch auf Facebook
https://www.facebook.com/photo.php?fbid=3670670829676199&set=p.3670670829676199&type=3
Dank an Martin Siebert für diese Links.

„Die ganze Kälte, sagen sie, ist eine Anomalie – oder einfach nur eine ‚Kältewelle’“, sagt Martin Siebert. „Nein! Das ist bereits ein Trend, und ich denke, es wird noch schlimmer werden. Wenn man die Anzahl der Toten von Covid hinzufügt, gibt es einen Teil der ‚Plagen‘ im Zyklus des Beginns einer LIA, der Zyklus wiederholt sich, nicht wahr!“

Link: https://www.iceagenow.info/oklahoma-alligators-frozen-in-the-ice/

Übersetzt von Chris Frey EIKE

 




Strom-Zusammen­bruch in Texas demonstriert die politische Klima-Idiotie

Ein ungewöhnlicher Kaltlufteinbruch aus der Arktis, der sich über den gesamten Bundesstaat von der Spitze des Panhandle [die Spitze im Nordwesten] bis zum Rio Grande Valley ausbreitete, hat Millionen von Haushalten und Unternehmen hier ohne Strom gelassen.

Eine Reihe von erzwungenen Stromausfällen [Lastabwürfen] war erforderlich, um einen Zusammenbruch des Stromnetzes zu verhindern, da einstellige Temperaturen* Windturbinen einfroren und den Betrieb von Dutzenden von Kraftwerken behinderten.

[*Gemeint sind einstellige Temperaturen in Grad Fahrenheit! 10°F ≅ -12°C; 0°F ≅ -18°C. A. d. Übers.]

Wie konnte das nur hier in Texas passieren?

Wir sind doch nicht in Kalifornien, wo die übermäßige Abhängigkeit von Wind- und Solarenergie das Netz während einer Rekordhitzewelle 2020 destabilisierte.

Kalifornien führt bereits die Nation mit dem unzuverlässigsten Stromsystem und der größten Anzahl an jährlichen Stromausfällen an … 4.297 wurden zwischen 2008 und 2017 verzeichnet. Und alles wird noch viel schlimmer werden, da der Staat nun vorschreibt, dass alle neuen Häuser fast vollständig elektrisch versorgt müssen.

Mehr als 30 Städte, darunter auch San Francisco, haben bereits Verbote für neue Gasgeräteanschlüsse erlassen. Kalifornien plant, Benzin- und Dieselautos endgültig zu verbieten.

Hey Leute… wir sind hier in Texas, einem Land mit weitaus klügeren Köpfen in einem Staat, der zu Recht dafür bekannt ist, dass er über riesige Erdöl- und Erdgasvorkommen verfügt.

Texas ist kein Ort, an dem wir uns normalerweise Sorgen machen zu erfrieren, nur weil es an zuverlässiger fossiler und nuklearer Energie zum Beheizen unserer Häuser mangelt… im Gegensatz zu nördlichen Breitengraden, in denen es routinemäßig sehr kalt wird und die Stromleitungen vereist sind und ausfallen.

Was ist also zusätzlich zu den Rekord-Tiefsttemperaturen passiert, um das zu ändern?

Mir scheint, wir wurden ein bisschen zu unsanft geweckt.

Das Electric Reliability Council of Texas (ERCOT), das den Stromgroßhandelsmarkt des Bundesstaates überwacht, hat die Abhängigkeit des Netzes von zuverlässiger Kohle, Atomkraft und Erdgas in Richtung der vom Steuerzahler stark subventionierten Windenergie verschoben (hier gibt es kein kostenloses Mittagessen).

Diese Winderzeugung ist mittlerweile die zweitgrößte Stromquelle in Texas. Nach Angaben von ERCOT machte sie im vergangenen Jahr 23 % der Stromversorgung des Bundesstaates aus, hinter Erdgas, das 45 % ausmachte.

In den letzten zehn Jahren haben strenge CO2-Emissionsvorschriften dazu geführt, dass der Anteil der Kohle an der texanischen Stromversorgung um mehr als die Hälfte auf 18 % gesunken ist.

Es kam zu einer Stromkrise, da bitterkaltes Wetter die Windturbinen in Westtexas zum Einfrieren brachten, während gleichzeitig die Bewohner ihre Thermostate hochdrehten. Die Regulierungsbehörden taten, was sie konnten, um die öffentliche Sicherheit zu schützen, indem sie Gas für gewerbliche und industrielle Zwecke rationierten, um den Brennstoff für Kraftwerke und die Heizung der Haushalte sicherzustellen.

Einige Erdgasquellen froren ebenfalls ein, zusammen mit Raffinerieanlagen an einigen Orten, wodurch wiederum Erdgas für Turbinen ausfiel, die wichtige Reservestromversorgung für – bestenfalls intermittierende – Wind- und Solarstromerzeugung liefern.

Und wer hätte sich vorstellen können, was dann passierte?

Der Spotpreis für Großhandelsstrom im texanischen Stromnetz schnellte um mehr als 10.000 % in die Höhe und überschritt die Marke von 9.000 US-Dollar pro Megawattstunde. Selbst während der Sommermonate mit hoher Nachfrage würden 100 $ pro MWh als hoch angesehen werden.

Bei näherem Hinschauen könnte Texas und jeder andere Bundesstaat diese Entwicklung aufgrund der Erfahrungen mit der deutschen „Energiewende“* vorausgesehen haben, einer im Jahr 2000 eingeführten Politik zur Dekarbonisierung der Primärenergieversorgung.

[*Dieser Terminus stand so auf Deutsch im Original. Es scheint, dass der Begriff Eingang in den allgemeinen Wortschatz im Angelsächsischen findet so wie z. B. „Kindergarten“. Hier jedoch immer mit einem negativen Unterton. A. d. Übers.]

Als das Programm ins Leben gerufen wurde, stammten 6,6 % des deutschen Stroms aus erneuerbaren Quellen, vor allem aus Sonne und Wind. Bis 2019, fast zwei Jahrzehnte später, hat dieser Anteil 41 % erreicht.

Bis 2019 haben sich die durchschnittlichen Stromkosten für deutsche Haushalte im gleichen Zeitraum auf 34 US-Cent pro Kilowattstunde verdoppelt. (Vergleichen Sie dies mit 22 Cent pro kWh in Frankreich und 13 Cent in den Vereinigten Staaten).

Die mageren Bedingungen für die Versorgung mit erneuerbaren Energien haben sich in diesem Winter dramatisch verschlechtert, da das kälteste Wetter in Westeuropa seit einem Jahrzehnt Millionen von Sonnenkollektoren in Deutschland mit Schnee und Eis bedeckt und 30.000 Windturbinen außer Betrieb gesetzt hat. Der größte Teil des lebenswichtigen Stroms stammt daher aus Kohle.

Im Januar strahlte der öffentlich-rechtliche Rundfunk Berlin-Brandenburg (RBB) einen Bericht aus, der die Folgen des ständigen Abschaltens der Kohle- und Kernenergiekapazitäten des Landes zugunsten des Zubaus dieser „grünen erneuerbaren Alternativen“ zusammenfasst.

Harald Schwarz, Professor für Energieverteilung an der Universität Cottbus, brachte es auf den Punkt: „Die gesicherte Leistung von Wind + Sonne = 0“.*

[*Dieser Absatz ist im Original wirklich amüsant zu lesen. Dort heißt es: „Harald Schwarz, a professor of power distribution at the University of Cottbus, went straight to the point, saying: “die gesicherte leistung von wind + sonne = 0,” which means:

The guaranteed output of wind + sun = 0.” {Zitatende} A. d. Übers.]

Um den erneuerbaren Energien gegenüber wohlwollender zu sein, liegt der tatsächliche Nutzen angeblich zwischen null und zwei oder drei Prozent.

Die RBB-Sendung warnte weiter, dass Deutschlands vergeblicher Versuch, zuverlässige Atom- und Kohleenergie durch Wind- und Solarenergie zu ersetzen, die Schere zwischen Angebot und Nachfrage gefährlich weit öffnen wird.

Der aktuelle Trend lasse Deutschland keine wirkliche Alternative als in Zukunft verstärkt auf Erdgas aus Russland, Kohlestrom aus Polen und Atomstrom aus Frankreich zu setzen.

Und was ist mit Amerika, wo Wind- und Solarenergie zusammen höchstens vier Prozent unseres Netzstroms (nicht der Gesamtenergie) liefern, gegenüber etwa 80 Prozent aus Kohlenwasserstoffen?

Die 2-Billionen-Dollar-Agenda „Equitable Clean Energy Future“ von Biden verspricht, diese Kohlenwasserstoff-Emissionen aus der Elektrizität bis 2035 zu eliminieren und dann bis 2050 „Netto-Null-Kohlenstoff“ zu erreichen.

Um zu beweisen, dass er es ernst meint, hat Präsident Biden gleich an seinem ersten Tag im Oval Office die Keystone XL-Pipeline an der kanadischen Grenze gekappt, zusammen mit etwa 11.000 Arbeitsplätzen und 830.000 Barrel Öl pro Tag, die sie geliefert hätte und die nun mit CO2-emittierenden Zügen und Lastwagen transportiert werden müssen.

Zusätzlich zur Dezimierung unserer derzeitigen Energieversorgungs-Infrastruktur ist geplant, dass die Steuerzahler eine halbe Million Ladestationen für Elektroautos im ganzen Land finanzieren und eine gigantische Anzahl stromhungriger Elektrofahrzeuge hinzufügen müssen, um die bereits prekären Kapazitäten weiter zu belasten.

Bevor Sie sich in diese politische menschengemachte Klimakrise des Wahnsinns zu eigen machen, verlangen Sie zu wissen, woher genügend Energie kommen wird und zu welchen wirtschaftlichen und sozialen Kosten, um voll-elektrifizierte texanische Sommer- und Neuengland-Winterhäuser zu klimatisieren – plus Millionen von Plug-in-Fahrzeugen aufzuladen – an windstillen, wolkenverhangenen Tagen und Nächten – besonders während der unvermeidlichen extremen Wetterbedarfszeiten.

Autor: CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of „Climate of Corruption: Politics and Power Behind the Global Warming Hoax.“

Link: https://www.cfact.org/2021/02/21/texas-power-freeze-down-demonstrates-political-climate-craziness/

Übersetzt von Chris Frey EIKE

 




Stromnetzverbindung zwischen UK und Frankreich bewirkt wundersame Änderung in „grüne“ Energie

Doch hinter den Kulissen ist die Geschichte darüber, was in Großbritannien das Leben erhält, viel weltlicher. Verwandelt sich die Brise in leichtes Säuseln, importieren die Briten stillschweigend große Mengen Kohle- und Gasstrom über eine Verbindungsleitung mit Frankreich.

 

Der UK Stromnetzbetreiber National Grid begrüßt die neue Netzverbindung an Frankreich

Not a Lot of People Know That, Paul Homewood, 23 January 2021

„Nach fast dreijähriger Bauzeit – und trotz der Einschränkungen durch Corona – fließt kohlenstoffarmer Strom nun mit voller Kapazität durch IFA2. Unsere zweite Stromverbindungsleitung zwischen Großbritannien und Frankreich bringt uns einen Schritt weiter auf dem Weg zu Null-CO2 Emissionen.“

Die Interconnexion France-Angleterre 2 (IFA2), die sich entlang des Meeresbodens zwischen Fareham, Hampshire in Großbritannien und in der Nähe von Caen, Normandie in Frankreich, erstreckt, wurde nun in Betrieb genommen. National Grid verbreitet nun, dass kohlenstoffarmer Strom durch das 149 Meilen lange Unterwasserkabel fließt. Die Verbindung arbeitet mit Hochspannung, damit können wir überschüssige saubere Energie teilen.

National Grid

Es ist natürlich eine bemerkenswerte technische Leistung, wenn es die gesamte Energie fossiler Brennstoffe herausfiltern und nur „saubere“ Energie durchlassen kann!

Die Wirklichkeit ist jedoch das Gegenteil. Was wir bekommen, ist der Strommix an der Küste,  natürlich nur leicht „schmutziger“ Strom.

Lassen Sie es mich erklären.

Bisher haben Gas und Kohle in diesem Monat 11% der französischen Erzeugung geliefert. Kernkraft-, Wasser-, Wind- und Solarenergie werden im französischen Stromnetz jedoch immer maximiert, da sie nicht ein- und ausgeschaltet werden dürfen bzw. können und die meisten ihrer Kosten fix sind.

Anders ausgedrückt, es sind Gas, Kohle und Biomasse, die die weitere Energie liefern, die erforderlich ist, um den aktuellen  Bedarf bis zur insgesamt benötigten Energiemenge zu ergänzen:

http://energodock.com/france/electricity-shares

In dem Maße, in dem tatsächliche Strombedarf oberhalb der vorrangig eingespeisten Energie liegt, muss dies durch die variablen Kohle- und Gaskraftwerke gedeckt werden. Wie wir in der folgenden Tabelle sehen können, gab es diesen Monat nicht einmal eine Stunde, in der kein Strom aus Gas erzeugt wurde.

http://energodock.com/france/electricity-generation

Auch im Sommer war die Situation nicht anders.

Ganz einfach, Frankreich verfügt nicht (mehr) über genügend Kernkraft und erneuerbare Energien haben oft keine Laune, um den eigenen Bedarf im Land zu decken, ganz zu schweigen von einem Überschuss, der an Großbritannien verkauft werden kann.

Bisher waren in diesem Monat Kohle mit durchschnittlich 1,3 GW und Gas mit 6,9 GW dabei. Die neue IFA2 Verbindung hat eine Kapazität von 1000 MW, daher kann man mit Recht sagen, dass die gesamte zusätzliche Leistung aus Kohle stammt, wenn o.g.  Verhältnisse eingehalten werden.

Die Dinge sind natürlich komplizierter, da Frankreich ausserdem häufig Strom aus anderen Teilen Europas [viel z.B. aus Deutschland] importieren muss. Angesichts der Tatsache, dass das meiste davon immer noch auf Kohle und Gas basiert, ist die Argumentation des National Grid ein noch größeren Unsinn.

Unnötig zu erwähnen, dass National Grid dies nicht tut, um die Eisbären zu retten, sondern um Geld zu verdienen. Sie haben Verträge im Rahmen des Kapazitätsmarktes, bei denen sie für die Gewährleistung der Bereitschaftsleistung [back-up !] rund  12 Mio. GBP pro Jahr bekommen. Sie können daher auch Geld verdienen, indem sie Strom zu günstigeren Preisen vom Ausland ankaufen, ganz zu schweigen vom möglichen Export, wenn auf dem Festland gerade Mangel ist.

In der Zwischenzeit kann die Regierung behaupten, sie habe die Emissionen reduziert.

Not a Lot of People Know That

https://stopthesethings.com/2021/02/19/pump-it-up-wind-powered-britain-draining-europes-coal-fired-plants-via-french-interconnector/

Übersetzt durch Andreas Demmig

 

***

National Grid denkt voraus




Die Behauptungen der NOAA bzgl. Klima-Katastrophen sind eine Schande

Quelle

Schon auf den ersten Blick wird deutlich, dass das Ganze total betrügerisch ist. Schauen wir auf die Karte:

Wenn ein Hurrikan einen besiedelten Küstenabschnitt trifft, was fast immer der Fall ist, sind große Schäden unvermeidlich. Aber obwohl das vergangene Jahr ein Hurrikan-reiches Jahr war, wissen wir, dass die Häufigkeit von US-Hurrikanen im letzten Jahrzehnt nicht ungewöhnlich war, und wenn überhaupt, ist der langfristige Trend rückläufig. (Dabei ist erwähnenswert, dass die 1980er und 1990er Jahre unterdurchschnittlich waren, was die Wahl von 1980 als Startdatum statistisch unangemessen macht):

Quelle

Die überwiegende Mehrheit dieser fälschlicherweise als „Klima“-Katastrophen bezeichneten Ereignisse sind jedoch entweder Tornados, Hagelstürme oder Unwetter (bei denen es sich fast ausschließlich um Gewitter-/Tornadoausbrüche handelt).

Auch hier wissen wir, dass die Tornado-Aktivität seit den 1970er Jahren deutlich zurückgegangen ist. Aber man will uns glauben machen, dass Tornados und Gewitter heutzutage viel katastrophaler sind als in der Vergangenheit.

Die Antwort auf dieses Rätsel liegt darin, wie die NOAA bestimmt, was eine Milliarden-Dollar-Katastrophe ist. Der Schlüssel ist dieser Satz:

Die USA sind seit 1980 von 285 Wetter- und Klimakatastrophen betroffen worden, bei denen die Gesamtschäden/Kosten 1 Milliarde Dollar erreichten oder überschritten (einschließlich CPI-Anpassung bis 2020).

Sie berücksichtigen also zu Recht die Inflation, aber ist das genug?

Die einfache Wahrheit lautet, dass die Amerikaner viel mehr „Zeug“ haben als in den 1980er Jahren: Größere Häuser, mehr Autos, die neuesten technologischen Spielereien, teure Möbel und Kleidung und dergleichen mehr.

Wenn ein Haus abbrennt, sind die Kosten für den Wiederaufbau und die Wiederbeschaffung des Hausinhalts seit 1980 um weit mehr als die Inflation gestiegen.

Das Gleiche gilt für die lokale Infrastruktur und Dienstleistungen.

Der beste Weg, dies zu überwachen, ist die Betrachtung des BIP, nicht des VPI [= Verbraucherpreisindex], der besagt, dass $1 im Jahr 1980 jetzt $3,32 wert ist:

Das BIP ist jedoch von 2857 Mrd. $ im Jahr 1980 auf 21433 Mrd. $ im Jahr 2019 gestiegen, also um das 7,3-fache.

Quelle

Wir können die Auswirkungen des steigenden Wohlstands besser sehen, wenn wir das konstante BIP betrachten, das um den Verbraucherpreisindex bereinigt wurde:

Dieser Index des das reale Wachstum messenden BIP ist von 6,5 Billionen Dollar im Jahr 1980 auf 18,3 Billionen Dollar gestiegen und hat sich damit fast verdreifacht.

Das heißt, dass eine 1 Milliarden-Dollar-Katastrophe im Jahr 1980 einer Katastrophe von 3 Milliarden Dollar jetzt entspricht.

Wir können uns auch die Entwicklung der Hauspreise ansehen. Das untenstehende Diagramm ist mit dem VPI inflationsbereinigt, spiegelt also die realen Preise und nicht die monetären. Er ist von 81,78 auf 134,88 gestiegen, ein Faktor von 1,65:

Quelle

Von den zweiundzwanzig Milliarden-Dollar-Katastrophen des letzten Jahres, die angeblich einen Rekord darstellen, lagen neun unter zwei Milliarden Dollar. Es besteht überhaupt kein Zweifel daran, dass, wenn sie sich 1980 ereignet hätten, keine von ihnen mehr als eine Milliarde gekostet hätte.

Hurrikane

Wir können tatsächlich einen direkten Vergleich zwischen der Hurrikansaison 1985 und dem letzten Jahr anstellen. In beiden Jahren wurden sechs Hurrikan verzeichnet.

Im Jahr 1985 schlugen nur drei der Hurrikane in der Liste zu Buche mit Gesamtkosten von 9 Mrd. $. Im Vergleich dazu wurden im letzten Jahr alle sechs Hurrikane verzeichnet plus Tropensturm Eta mit Gesamtkosten von 40,1 Milliarden Dollar. Die durchschnittlichen Kosten pro Hurrikan sind von 3 Mrd. $ auf 5,7 Mrd. $ gestiegen. Dies ist ein starker Beweis dafür, dass es der zunehmende Wohlstand ist, der die steigenden Kosten von Katastrophen vorantreibt, und nicht die Auswirkungen des Klimawandels.

[Im Original folgt jetzt diese Liste mit allen Ereignissen dieser Art. Auf deren Übersetzung wird hier verzichtet. A. d. Übers.]

Link: https://wattsupwiththat.com/2021/02/21/noaas-climate-disaster-claims-are-a-sham/

Übersetzt von Chris Frey EIKE