1

Der Februar verweigert sich der CO2-Klimaerwärmung

Der Februar 2021 überraschte mit einer atemberaubenden Wetter-Rallye: Nach mit Ausnahme des Nordostens mildem Start raste er durch Schneemassen in den tiefsten Eiskeller, eilte nach Monatsmitte in den warmen Frühling, stürzte aber zum Ende auf ein kühles Vorfrühlingsniveau ab. Sein Temperaturdurchschnitt für Deutschland (DWD-Flächenmittel) lag mit etwa 1,8 Grad Celsius (°C) um ca. 0,3 Kelvin über dem Wert der international gültigen, neuen Referenzperiode von 1991 bis 2020. Im Vergleich zur alten, kälteren Referenzperiode von 1961 bis 1990 war er um ca. 1,4 °C zu mild. Aus den Werten erahnt man bereits einen Temperatursprung, der in den Jahren 1987 bis 1989 stattfand, wie wir im Folgenden zeigen werden. Es handelte sich also keinesfalls um eine kontinuierliche Erwärmung.

Wir fragen uns: Wo ordnet sich dieser Februar 2021 mit seinen 1,8°C in die bis 1881 zurückreichende Klimareihe Deutschlands ein, und wie entwickelten sich die Februar-Temperaturen langfristig? In früheren Beiträgen hatten wir die freilich subjektive Aufteilung längerer Messreihen in Klimasprünge oder Entwicklungsphasen diskutiert.

Wir wählen zunächst den DWD-Betrachtungszeitraum seit 1881 und erkennen sofort in Grafik 1, dass die kleine Eiszeit in Mitteleuropa eigentlich erst um 1900 endete. Einzuwenden wäre natürlich, dass um 1900 ein ganz anderes Deutschland mit anderen Grenzen bestand und die Wetterstationen samt ihren Daten von damals mit den heutigen Plätzen nur bedingt vergleichbar sind. Deutschland hatte damals 104 Einwohner pro Quadratkilometer; heuer sind es mit etwa 220 gut doppelt so viele, was erwärmend wirkte. Die Wetterstationen stehen heute in den von Menschen geschaffenen großflächigen Wärmeinseln, auch gab es einst typische ländliche Stationen bei Klöstern oder Forsthäusern am Waldrand oder bei frei stehenden Gutshöfen von Feudalherren. Diese durch Wärmeinseleffekte bedingte Erwärmung lassen wir zunächst außer Betracht. Beim Monat Februar sehen die vom Deutschen Wetterdienst aneinandergereihten Einzelwerte so aus:

Abbildung 1: Der Februar seit 1881 in Deutschland zeigt drei Entwicklungsphasen: Er erwärmte sich zwischen 1886 und 1926 stark, was man als letzte Erholungsphase der endenden „Kleinen Eiszeit“ interpretieren kann. In der zweiten Phase streuten die Einzelwerte am stärksten auf einem insgesamt tieferen Temperaturniveau; in diese fallen die kalten Februare 1929, 1947 und 1956, aber auch extrem milde wie etwa 1961. Diese Phase endet mit dem sehr kalten Februar 1986; danach (Klimasprung) fehlten sehr kalte Februare, aber insgesamt kühlte es sich seit 1988 wieder minimal ab. Mit der kontinuierlich und immer stärker steigenden CO2-Konzentration (grüne Kurve) lassen sich diese drei Phasen und auch die Temperaturentwicklung insgesamt nicht erklären – der größte Temperaturanstieg fand zu der Zeit statt, als die CO2-Werte kaum anstiegen, und momentan sinken die Februar-Temperaturen bei am stärksten steigenden CO2-Werten leicht.

Auf der Suche nach Gründen: NAO = Nordatlantische Oszillation. Unter der NAO versteht man in der Meteorologie die Schwankung des Druckverhältnisses zwischen dem Islandtief im Norden und dem Azorenhoch im Süden

Dieses auffällige Temperaturverhalten in drei Phasen ähnelt grob dem des Januars und lässt sich sehr gut mit dem Verhalten der NAO und der an die NAO gekoppelten Häufigkeit der Großwetterlagen mit Westanteil erklären:

Abbildungen 2a und 2b: Zentrierte, 11-jährige Gleitmittel der NAO mit Februar-Temperaturen (oben, 2a) und der Häufigkeit der im Februar meist milden Westwetterlagen (2021er Daten noch nicht vorliegend). Man achte auf die relativ gute Übereinstimmung, welche auch die in Abb. 1 dargestellten Phasen erklärt. Die NAO als „Luftdruck-Schaukel“ zwischen Portugal/Azoren und Island beeinflusst die Häufigkeit und Intensität der wintermilden Westwetterlagen.

Es ist durchaus typisch, wenngleich nicht immer so lehrbuchhaft eintretend, wie mit dem Wechsel von negativen zu positiven NAO-Werten zur Monatsmitte eine sprunghafte Erwärmung einherging:

Abbildung 3: Verlauf des täglichen NAO-Index zwischen Spätherbst 2020 und Spätwinter 2021. Fast den ganzen Winter hindurch überwogen negative NAO-Werte; erst nach Mitte Februar (rote Linie) herrschten wieder positive Werte. Doch ist die Übereinstimmung zwischen NAO-Wechsel und Witterungswechsel in Mitteleuropa keineswegs stets so „perfekt“. Eine wesentliche, weitere Ursache war der Polarwirbel, welcher sich nach einer längeren Störungsphase ab Februar wieder erholte. Bildquelle: NOAA, ergänzt

Allgemein gilt für den Februar seit 1881: Bei den Standorten der heutigen DWD-Wetterstationen ist es wärmer als bei den viel ländlicheren Standorten der Wetterstationen im Kaiserreich.

Betrachten wir nun den Zeitraum der beiden letzten Temperatursprünge anhand der DWD-Wetterstation isoliert:

Abbildung 4: Der Betrachtungszeitraum zeigt starke Variationen, insgesamt eine minimale Temperaturabnahme, wobei die beiden Februare 1929 und 1956 herausragend kalt waren

Nach dem Temperatursprung:

Abbildung 5: Von 1986 auf 1988 erreichte der Februar mit einem Temperatursprung ein höheres Wärmeniveau, seitdem kühlte er trotz Wärmeinseleffektzunahme der DWD-Wetterstationen und starkem CO2-Konzentrationsanstieg minimal ab.

Zur besseren Vergleichbarkeit legen wir die beiden Grafiken mit gleichen Intervallen nebeneinander:

Abbildung 6: Seit 1988 wurde der Februar durch einen Temperatursprung um gut 1,5°C wärmer. Auf diesem Niveau blieb der Februar annähernd bis heute

Die CO2-Konzentrationszunahme in der Atmosphäre: Starker Anstieg

Gebetsmühlenartig werden CO2 und Klimaerwärmung in Zusammenhang gebracht.

Wir gehen von einer erheblichen CO2-Konzentrationszunahme von mindestens 120 ppm seit 1881 aus, ob diese jedoch ausschließlich anthropogenen Ursprunges ist, wollen wir nicht diskutieren, sondern lediglich die vom PIK-Potsdam behauptete hohe CO2-Kimasensitiviät anhand des Artikels in Frage stellen.

Wir stellen bisher fest:

Die CO2-Kurve der Konzentrationszunahme zeigt im Vergleich zur Entwicklung der deutschen Februartemperaturen keinerlei Ähnlichkeit. Im Gegenteil: Nach dem letzten Temperatursprung nehmen die DWD-Februartemperaturen sogar minimal ab.

Auch für den Temperatursprung im Jahre 1987 auf 1988 kann CO2 nicht verantwortlich sein, das wird allerdings auch nicht behauptet. Der Temperatursprung auf ein wärmeres Plateau hat somit ausschließlich natürliche Ursachen (Zirkulationsverhältnisse – mehr Westwetterlagen bei positiven NAO-Werten).

Aus den Grafiken muss man schließen, dass die vom PIK und vom IPCC verkündete CO2-Klimasensitivität viel zu hoch angesetzt ist. CO2 hat entweder gar keinen Einfluss auf die Temperaturen oder einen nur sehr unbedeutenden. Eine politisch gewollte teure CO2-Einsparung oder CO2-Vernichtung ist wirkungslos.

Der Mensch wirkt mit bei der Temperaturentwicklung durch zunehmende Wärmeinseleffekte (WI). Klima verändert sich seit 4 Milliarden Jahren ohne Zutun des Menschen, es handelt sich um natürliche Klimaänderungen. In der Neuzeit wirkt der Mensch mit durch die ständige Ausbreitung der Wärmeflächen überall auf der Welt. Von Interesse wäre der Temperaturverlauf ohne die wärmenden menschlichen Veränderungen bei den Stationen. Vor allem in den letzten vier Jahrzehnten hat sich die Bebauung in die einst freie Fläche hinein erweitert, derzeit um 60 Hektar täglich und innerhalb der Städte und Gemeinden werden Baulücken weiter geschlossen, damit die Flächenerweiterung ins Umland – eigentlich eine Naturzerstörung – rein statistisch geringer ausfällt, was für die Politik ein Beleg für Naturschutz ist. Derzeit ist ein Siebentel der Gesamtfläche unseres Landes versiegelt. Jede Sekunde wird in der Bundesrepublik Deutschland 5,2 m2 Boden neu als Siedlungs- und Verkehrsfläche beansprucht. Das bringt die Wärme ins Umland der DWD-Wetterstationen. Siehe hier.

Im Winter wärmt zusätzlich die Abwärme der Industrie, der Haushalte und des Verkehrs die Siedlungen und deren näheres Umfeld besonders bei windstillen, kalten Hochdruckwetterlagen auf. Im Umland heizen „Biogas“-, Solar- und Windkraftanlagen ebenfalls. Insgesamt sind die WI- Effekte nach unseren bisherigen Untersuchungen im Winter aber etwas geringer als in den Frühjahrs- und vor allem den Sommermonaten. Jede Straße wirkt vor allem im Sommer wie ein heißes Wärmeband in der Landschaft. Die bäuerliche Trockenlegung der Agrarlandschaft in den letzten 50 Jahren und neuerdings auch im Wald sorgt auch im Sommer für erhöhte Bodentemperaturen außerhalb der Versiegelungsflächen, also auch in der freien Landschaft.

Kurzum, bei den Messstationen des DWD hat der Wärmeeintrag, bedingt durch anthropogene Nutzungsänderungen zugenommen und die Thermometer der Stationen messen diese Zusatzwärme aus den sich ständig vergrößernden Wärmeinseln mit. Natürlich gibt es auch Stationen mit geringen wärmenden Veränderungen. Eine solche ist in Amtsberg-Dittersdorf südlich von Chemnitz, deren Temperaturverlauf wir in der Grafik 7 wiedergeben.

Abbildung 7: Die Wetterstation in einem Vorort von Amtsberg am Fuße des Erzgebirges steht in einem großen Garten am Ortsrand. Die Trendlinie zeigt seit 1988 eine kräftigere Abkühlung als die DWD-Deutschlandtrendlinie. Die CO2-Konzentrationen der Atmosphäre sind natürlich genauso gestiegen wie überall, in dem Zeitraum um etwa 70 ppm

Ähnlich verhalten sich auch viele andere WI-arme Stationen wie Zeitz, Neugersdorf, Alfhausen, Netzstall und dergleichen mehr. Daneben gibt es natürlich stärker WI-belastete Stationen, deren Umfeld sich seit 1988 durch menschliche Bebauung stark verändert hat. Als Beispiel soll hier die einst ländliche Wetterstation Hof, die inzwischen in ein Gewerbegebiet eingewachsen ist im Vergleich zu Zeitz, einer 80 km entfernten Kleinstadt gezeigt werden. Zeitz ist nach der Wende nicht weiter gewachsen ist. Die Stadtwärme erzeugt einen Wärmeinseleffekt, der aber nach der Einheit kaum mehr zugenommen haben dürfte.

Abbildung 8: Die WI-belastete Wetterstation Hof zeigt seit 1988, dem letzten Temperatursprung, keine Abkühlung – sie wurde in ein Gewerbegebiet eingemauert – dagegen die nicht sehr weit entfernte Station Zeitz schon. Grundsätzlich ist der Februar in Zeitz immer noch wärmer, da die Wetterstation 330 Meter tiefer liegt. Wegen der Bebauungs-Stagnation wächst der WI-Effekt in Zeitz jedoch nicht mehr weiter an, zumal diese ostdeutsche Stadt ab 1990 Einwohnerverluste, bedingt durch die Abwicklung der DDR-Betriebe, erfahren hat

Höher gelegene Wetterstationen: Deutlichere Februarabkühlung – warum?

Abbildung 9: Die Wetterstation auf dem 1142 m hohen Brocken zeigt eine stärkere Februarabkühlung in den letzten 34 Jahren als das DWD-Flächenmittel. So ähnlich verhalten sich fast alle höheren Bergstationen

Auf das Phänomen der Höhen-Abkühlung, bedingt durch die verstärkte Advektion von Höhen-Kaltluft, hatten wir schon in unserem Januar-Beitrag hingewiesen. Die Auswertung der NOAA-Daten für den Rasterpunkt Deutschland (nicht identisch mit dem DWD-Flächenmittel) ergab Folgendes:

Abbildung 10: Anders als im Januar, kühlte im Februar seit dem „Klimasprung“ 1988 nur das 850-hPa-Niveau (etwa 1.500 Meter Höhe) ab, und auch dort weniger, als im Januar. Aber das erklärt, warum die Bergstationen stärker abkühlten, als das DWD-Mittel. Die Grafik endet mit 2020; die Februar-Daten für 2021 lagen noch nicht vor

Einordnung des Februars 2021 in einer langen Zeitreihe

  1. Die Wetterstation Berlin-Tempelhof

Die Aufzeichnungen beim einstigen Feudalherrengutshof begann bereits um 1700, jedoch noch sehr lückenhaft, seit 1756 sind sie regelmäßig, allerdings nur bedingt vergleichbar mit heute. Grund: Tempelhof war vor 250 Jahren ein großer Gutshof, angeordnet wie ein Tempel, daher der Name. Um den Gutshof herum waren bebaute Felder zur Nahrungsversorgung des damaligen viel kleineren Berlins. Das noch unbebaute Tempelhoffeld zwischen Berlin und dem Gutshof diente als Exerzier- und Ausbildungsplatz für die Truppen Friedrichs des Großen oder auch der sonntäglichen Erholung und Belustigung der damaligen Stadtbevölkerung.

Heute ist Tempelhof ein Stadtteil der Großstadt Berlin mit über 60 000 Bewohnern. Eigentlich handelt es sich beim Temperaturvergleich um zwei völlig verschiedene Orte am selben Fleck und noch mit demselben Namen. Trotzdem ist das Ergebnis erstaunlich.

Abbildung 11a: Die Wetterstation beim einstigen tempelartig angeordneten Gutshof auf freiem Feld außerhalb Berlins im Vergleich zur heutigen Großstadtwetterstation Tempelhof zeigt fast keine Februarerwärmung in über 260 Jahren. (In den Sommermonaten ist der Unterschied früher – heute gravierend – wegen der dann viel stärkeren WI-Effekte)

  1. Die Wetterstation auf dem Hohenpeißenberg

Wir erwähnten schon, dass 1881, der Beginn der DWD-Messreihen, in einer Kaltphase lag. Die Wetterstation auf dem Hohenpeißenberg geht 100 Jahre weiter zurück. Erwähnt werden muss lediglich, dass die Messstation bis 1936 an der Nordwand der unbeheizten Klosterkirche war, heute steht die Station frei im neu erbauten DWD-Zentrum. Allerdings sind die Wärmeinseleffekte im Winter recht gering, so dass die Standortverlegung weniger Einfluss auf die Temperaturerfassung hatte als etwa im Sommerhalbjahr.

Der Februar-Verlauf ist erstaunlich. Kaum Erwärmung seit über 230 Jahren, trotz starker CO2-Konzentrationszunahme und trotz Stationswechsels an einen wärmeren Standort.

Abbildung 11b: Die Februartemperaturen des Hohenpeißenberges zeigen trotz CO2-Zunahme und trotz der Standortverlegung 1936 und trotz des Temperatursprunges 1988 nur eine minimale Erwärmung seit über 230 Jahren. Deutlich sieht man den Föhneinfluss bei den Februartemperaturen 2021. Dieser Februar war auf dem HPB sogar der 7.wärmste in der langen Reihe

  1. Die Dale Enterprise Wetterstation mitten auf dem Land in Virginia/USA

Abbildung 11c: Die Station liegt bei einer Farm auf dem Land. Trotz starker CO2-Zunahme seit 1881 hat sich der Monat Februar seit 141 Jahren kaum erwärmt. Der Verlauf über die Jahrzehnte ist jedoch anders als in Deutschland

Wohin geht der zukünftige Februartrend in Deutschland?

Die langen Reihen zeigen: Kaum Erwärmung in einem langen Zeitraum trotz der gewaltigen wärmenden Landschaftsveränderungen.

Und nach dem Temperatursprung 1988 bis heute? Geringe Abkühlung, diese wird lediglich durch die menschenverursachenden WI-Effekte gebremst. Besonders kalte, windstille Februarnächte werden aus den Siedlungen rausgeheizt und von den Thermometern als weniger kalt registriert.

Und zukünftig in Deutschland? Das weiß niemand.

Ist vielleicht Deutschland in den letzten 34 Jahren eine Ausnahme oder gar ein Sonderfall? Wird nur bei uns der Februar in den letzten 34 Jahren minimal kälter? Wir werfen einen Blick nach Zentralengland:

Abbildung 12: Auch in Zentralengland erwärmte sich der Februar seit 34 Jahren nicht mehr

Auch in Teilen Ostasiens und in Teilen der USA blieb seit 1988 eine Februar-Erwärmung aus. Während Deutschland im Februar 2021 eine heftige, aber nur kurze Kältewelle erlebte, hielt der Winter den Südosten der USA, Skandinavien, Osteuropa und Sibirien noch länger in seinem Würgegriff; und nach Mitte Februar suchten Schnee und Kälte gar große Teile Arabiens heim.

Fazit:

Die ständige Zunahme der Wärmeinseleffekte, die Schaffung großflächiger Wärmeregionen sind der einzige menschengemachte Temperaturtreiber. Eine Einwirkung mittels CO2 gibt es nicht oder die Wirkung ist minimal, das zeigen auch alle wissenschaftlich sauber durchgeführten Versuche.

Will der Mensch den menschengemachten Anteil an der Erwärmung bekämpfen, dann muss man die Wetterstationen entweder wieder raus in die Fläche stellen oder aber in den Städten und Gemeinden die Bebauung, Versiegelung der einst freien Landschaft und die Trockenlegung der Agrar-Landschaft rückgängig machen oder zumindest einstellen.

Eine Diskussion über die Reduzierung der menschenerzeugten WI-Effekte, also eine Diskussion zum Erhalt der Natur und Landschaft wäre zu begrüßen.

Politisch verordnete, teure CO2-Einsparungen bewirken nichts. CO2 ist ein lebensnotwendiges Gas, genauso wie Sauerstoff und Wasser. Ohne CO2 wäre die Erde kahl wie der Mond. Mehr CO2 in der Atmosphäre wäre wünschenswert, denn es beschleunigt die Fotosynthese und lässt die Nahrungspflanzen schneller wachsen.

Wirklicher Natur- und Umweltschutz muss endlich in den Mittelpunkt des politischen Handelns gerückt werden. Das wäre zugleich auch Klimaschutz.




Die absurden Klima-„Faktenchecker“, die keine Fakten checken

Letzte Woche versuchte sich eine Organisation mit der Bezeichnung Climate Feedback an einem angeblichen Faktencheck eines Artikels, den James Delingpole über einen Bericht geschrieben hatte, den wir von der Global Warming Policy Foundation (GWPF) ein paar Tage zuvor veröffentlicht hatten.

Der Bericht handelte von den Auswirkungen des Klimawandels und war von Indur Goklany verfasst worden, einem amerikanischen Wissenschaftler, dessen Engagement für das Klima bis ins Jahr 1990 zurückreicht, als er zur US-Delegation für den ersten Sachstandsbericht des IPCC gehörte.

Der Climate-Feedback-Artikel hat nicht viel Aufmerksamkeit erregt, aber es ist interessant, ihn zu betrachten, weil er die Taktik offenbart, mit der versucht wird, jeden zu diskreditieren, der das offizielle „Narrativ des Untergangs“ kritisiert. Diese Taktiken werden mittlerweile auch in anderen Bereichen eingesetzt, so dass die Geschichte auch über die Welt des Klimas und der Energie hinaus Relevanz hat.

Climate Feedback lädt Klimawissenschaftler dazu ein, Zeitungsartikel zu kommentieren. Zu Delingpole’s Beitrag hieß es, „eine Mehrheit der Rezensenten markierte den Artikel als ‚Rosinenpickerei, ungenau, irreführend.“ Schauen wir mal, was sie sagten, um diese Behauptung zu rechtfertigen …

Es wird wiederholt eine Reihe von Behauptungen wiederholt, die in einem Blog-Post der Global Warming Policy Foundation (GWPF) aufgestellt wurden …“

Das ist aus dem ersten Absatz, und schon sollten die Alarmglocken läuten. Erstens, man beachte, dass es keinen Link zum Delingpole Artikel ist.

Das ist zunächst einmal hochgradig unprofessionell, aber es ist eigentlich noch schlimmer als das: Im Gegensatz zu dem, was Climate Feedback sagt, gab es keinen GWPF-Blogpost über Goklanys Bericht. Es gab nur den Bericht selbst. Natürlich war es der Bericht, auf den Delingpole verlinkte.

Und für den Fall, dass jemand denken sollte, dass dies ein versehentlicher Fehler von Climate Feedback war, wiederholt die Organisation später die Behauptung, dass Delingpole einen Blogbeitrag zitiert hat, fährt dann aber fort zu behaupten, dass dieser „nicht begutachtet“ war.

Dies scheint zu zeigen, dass Climate Feedback sehr wohl wusste, dass hinter dem Delingpole-Artikel ein formeller Bericht stand, aber man wollte ihn nicht erwähnen. Man hat sich einfach im Netz seiner eigenen Falschdarstellungen verheddert.

Darüber hinaus ist die Behauptung über die Überprüfung von Goklanys Papier eindeutig ein Hirngespinst des Autors, da Climate Feedback nicht an den internen Prozessen der GWPF beteiligt ist.

In der Tat haben wir ein Gremium von akademischen Beratern, die alle unsere Berichte überprüfen. Angesichts der vielen Versuche, sie zu zerpflücken, wären wir dumm, dies nicht zu tun.

Wir können also von Anfang an sehen, dass Climate Feedback sich vorgenommen hat, seinen Lesern ein giftiges Narrativ zu liefern.

Sowohl Goklanys Bericht als auch Delingpoles Artikel wurden mit Sorgfalt verfasst, und das Climate-Feedback-Team war daher gezwungen, auf widersprüchliche offizielle Quellen wie den Fünften Sachstandsbericht des IPCC zurückzugreifen, um sich Munition zu verschaffen.

Zum Beispiel spiegelt Delingpole’s Behauptung, dass „die meisten extremen Wetterphänomene nicht extremer, tödlicher oder zerstörerischer geworden sind“, perfekt die Position des IPCC wider, der „geringes Vertrauen“ bzgl. einer Zunahme von Dürren oder Hurrikanen zum Ausdruck gebracht hatte.

Das Beste, was er über extreme Niederschläge sagen kann, ist, dass es mehr Gebiete mit Zunahme als mit Abnahme gab. Nur bei den Hitzewellen steigt das Vertrauen in die Existenz einer Zunahme auf die schwindelerregende Höhe von „mittel“.

Wenn also die Autoren von Climate Feedback behaupten, dass die IPCC-Berichte etwas anderes sagen, muss ich ihnen sagen, dass dies nicht in der Summary for Policymakers des IPCC steht.

Ein weiteres Beispiel für eine eklatante Falschdarstellung von Delingpoles Artikel ist die Stelle, an der es heißt, dass er „eine Annahme präsentiert, dass der Klimawandel die Dürre weltweit verstärken wird und dann diese nicht existierende Erwartung der Klimawissenschaft widerlegt“.

Es ist schwer zu entscheiden, wo man anfangen soll. Erstens: Goklanys Bericht und Delingpoles Artikel beziehen sich ausschließlich auf die Vergangenheit. Keiner von beiden sagt etwas über die Zukunft der Dürre oder irgendeines anderen Wetterphänomens aus.

Was die „nicht existierende Erwartung der Klimawissenschaft“ betrifft, verweise ich die Leser erneut auf die Summary for Policymakers des AR 5 des IPCC, die besagt, dass es „wahrscheinlich“ sei, dass wir bis zum Ende des 21. Jahrhunderts eine Zunahme der Stärke und Dauer von Dürren „in regionalem und globalem Maßstab“ erleben werden.

Der AR 4 sagte fast das Gleiche. Diese Nachricht muss auch an den Gutachter von Climate Feedback, Dr. Daniel Swain, weitergeleitet werden, der behauptet, dass „es nicht wirklich Sinn macht, pauschale Aussagen über allgemeine globale Dürretrends zu machen“. Der IPCC tut es, Dr. Swain!

Und so weiter, und so weiter. Climate Feedback sagt, dass Delingpole „absichtlich mehrere Faktoren ignoriert, die einige Phänomene beeinflussen, um gegen den Einfluss des Klimas auf sie zu argumentieren. Zum Beispiel, während die Todesfälle (sic) aufgrund von Wetterereignissen entweder konstant geblieben oder im Laufe der Zeit für einige Arten von Wetterereignissen zurückgegangen sind, ist dies in erster Linie auf Verbesserungen der Warn- und Evakuierungssysteme zurückzuführen und hat wenig mit dem Klimawandel zu tun …“

Dies ist zutiefst irreführend. Delingpole diskutiert lediglich die Behauptung, dass der Klimawandel zu einem Rückgang des menschlichen Wohlergehens führen würde. Die Auflistung des 99-prozentigen Rückgangs der Sterblichkeit durch extreme Wetterereignisse zeigt einfach, dass sich das menschliche Wohlergehen nicht verschlechtert hat, was dem offiziellen Narrativ des Untergangs widerspricht.

Er sagt nichts über den Klimawandel. Delingpole sagt nicht, dass es das tut; er deutet nicht an, dass es das tut; noch deutet er auch nur schräg an, dass es das tut. Goklany tut das auch nicht. Dies ist eine einfache Falschdarstellung von Climate Feedback.

Einiges in der Climate-Feedback-Kritik ist peinlich falsch. Wenn es zum Beispiel um Waldbrände geht, heißt es: „Die durch Waldbrände verbrannte Fläche im Westen der USA hat auch aufgrund des Klimawandels deutlich zugenommen (siehe Abbildung unten)“.

Warum eine Grafik, die sich auf Waldbrände im Westen der USA bezieht, die Beobachtung von Delingpole (und Goklany) übertrumpfen sollte, dass die weltweiten Waldbrände abgenommen haben, ist mir schleierhaft.

Aber schlimmer noch, der Autor von Climate Feedback scheint die Grafik nicht wirklich verstanden zu haben – denn sie zeigt keine Zunahme der Waldbrände im Westen der USA. Es ist eine kumulative Grafik, was bedeutet, dass sie immer zunehmen wird. Das ist es, was „kumulativ“ bedeutet. Eine Beschleunigung dieser Zunahme ist jedenfalls nicht erkennbar:

Abbildung 1: Kumulative Waldfläche, die durch Waldbrände im Westen der USA von 1984-2015 verbrannt wurde. Aus Fourth National Climate Assessment (2018)[8].

Und das ist nur die Einleitung. Es gibt seitenweise solche Dinge, die die detaillierten Kommentare der „Begutachter“ darstellen. Es wäre langweilig, alles durchzugehen, aber lassen Sie mich ein paar davon verwenden, um Ihnen einen Geschmack zu geben.

Der Hurrikanexperte Kerry Emanuel nimmt Delingpole in die Pflicht, weil er sagt, dass die Häufigkeit von Hurrikans nicht zunimmt. Sein Einwand ist nicht, dass das, was Delingpole sagt, nicht stimmt, sondern dass er „vergisst zu erwähnen, dass es nie eine Konsensvorhersage gab, dass die Häufigkeit aller Hurrikane zunehmen würde“.

Wirklich? Denn wenn ich mich auf die Summary for Policymakers aus dem Vierten Sachstandsbericht des IPCC beziehe, finde ich dort die Aussage, dass es „wahrscheinlich“ ist, dass es eine Zunahme der Hurrikan-Aktivität geben wird. Der Fünfte Sachstandsbericht sagt, dass es „in einigen Becken wahrscheinlicher ist als nicht“.

Emanuel widerspricht auch der Behauptung von Delingpole, dass die Schäden durch extreme Wetterereignisse abnehmen, und sagt:

Seit Anfang der 1970er Jahre ist die Zahl der weltweiten wetterbedingten Schäden, gemessen am Weltinlandsprodukt, jährlich um 380 Prozent gestiegen. Ein Teil davon ist demografisch bedingt, z. B. hat die Küstenbevölkerung um 200 Prozent zugenommen, aber ein Großteil des Rests ist auf schlimmere Wetterkatastrophen zurückzuführen, gemessen an den Schäden“.

Ich hatte gedacht, dass die Behauptungen über die zunehmenden Schäden durch Hurrikane inzwischen endgültig widerlegt wären, aber das scheint nicht der Fall zu sein. Mir war diese Gegenbehauptung eines 380-prozentigen Anstiegs seit den 1970er Jahren nicht bekannt, und Emanuel gab kein Zitat an, also schrieb ich ihm eine E-Mail, um zu fragen, woher sie stammt.

Es stellte sich heraus, dass er die Zahlen selbst ausgearbeitet hatte, obwohl er bei den Details etwas vage war. Die Zahlen stammten aus der EM-DAT-Datenbank für globale Katastrophen, sagte er, und dass er Daten extrahiert habe, die meteorologische Katastrophen und Dürre abdeckten.

Später korrigierte er dies und sagte, dass die Daten nur tropische Wirbelstürme abdeckten. Außerdem sagte er, er habe „geglaubt“, dass er die Werte mit den Zahlen des weltweiten Bruttoinlandsprodukts der Weltbank abgeglichen habe. Er glaubte nicht, dass er die von EM-DAT gepflegten Zahlen des Verbraucherpreisindex verwendet hatte.

Das ist nicht sehr beeindruckend, oder? Aber was es noch schlimmer macht, ist, dass EM-DAT höchstselbst schon vor langer Zeit klar gemacht hat, dass seine Datenbank für Schadensabschätzungen vor etwa dem Jahr 2000 nicht zuverlässig ist.

Versicherungsansprüche sind die Hauptquelle für Schadensdaten, und immer mehr Menschen auf der ganzen Welt haben einen Versicherungsschutz, so dass es einen zugrunde liegenden Anstieg des erfassten Schadenswertes gibt, der einfach auf mehr und bessere Berichterstattung zurückzuführen ist.

Das ist der Anstieg, den Professor Emanuel gefunden hat. Fairerweise muss man sagen, dass der gute Professor ein Atmosphärenphysiker ist, so dass ein Mangel an Vertrautheit mit den Daten vielleicht nicht überraschend ist.

Das Gleiche sehen wir in den Kommentaren von Professor Jennifer Francis zum Anstieg des Meeresspiegels. Sie scheint verblüfft, wenn Delingpole Goklany wie folgt zitiert:

Eine kürzlich durchgeführte Studie hat gezeigt, dass die Erde in den letzten 30 Jahren tatsächlich mehr Land in den Küstengebieten gewonnen hat, als sie durch den Anstieg des Meeresspiegels verloren hat.

Dr. Francis ist ebenfalls Atmosphärenwissenschaftlerin und auf die Arktis spezialisiert, so dass man verstehen kann, warum sie mit der Literatur zum Meeresspiegelanstieg nicht allzu vertraut ist (aber nicht, warum Climate Feedback sie für einen Kommentar zu diesem Thema ausgewählt hat).

Wie auch immer, sie stottert:

‚Bitte stellen Sie diese von Experten begutachtete Studie eines seriösen, praktizierenden Umweltwissenschaftlers zur Verfügung, um diese kontraintuitive Aussage zu unterstützen.‘

In Anbetracht der Tatsache, dass das relevante Papier von Donchyts et al, veröffentlicht in Nature Climate Change, in Goklanys Bericht zitiert wurde, scheint es, dass Professor Francis sich entweder nicht die Mühe gemacht hatte, die Details zu überprüfen, oder dass sie nicht einmal über die Existenz des GWPF-Berichts informiert war.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/the-farcical-climate-fact-checkers-who-dont-check-facts/

Übersetzt von Chris Frey EIKE

 




Manipulation der Daten zum Meeresspiegel

Erstens: Warum zeigen die satellitengestützten Meeresspiegeldaten, dass der Meeresspiegel so viel schneller steigt als der Anstieg, der an Gezeitenstationen an den Küsten der Welt gemessen wird? Die Aufzeichnungen der Gezeitenstationen zeigen einen Anstieg in der Größenordnung von ein paar Millimetern pro Jahr, eine Rate, die sich über die etwa hundert Jahre, für die wir ausreichende Aufzeichnungen haben, kaum verändert hat. Die Satellitenaufzeichnungen (Abbildung 1) zeigen jedoch einen Anstieg von 3,3 mm/Jahr. Warum der große Unterschied?

Zweitens: Warum zeigt der satellitengestützte Meeresspiegel eine so deutliche Beschleunigung? Wie oben erwähnt, zeigen die Aufzeichnungen des Meeresspiegels von Gezeitenstationen, die viel länger sind, wenig oder keine Beschleunigung. Aber die Satellitenaufzeichnungen behaupten, dass die Rate des Meeresspiegelanstiegs um etwa einen Zehntel Millimeter pro Jahr zunimmt. Eine solche Beschleunigung würde den Anstieg des Meeresspiegels in etwa dreißig Jahren verdoppeln. Noch einmal: Warum der große Unterschied?

Zunächst einmal: Hier ist, was die Satellitendaten laut der University of Colorado Sea Level Research Group zeigen:

Abbildung 1. Meeresspiegeldaten der University of Colorado, die den Trend und die Beschleunigung zeigen. Beachten Sie, dass die Grafik keine Überschneidungen zwischen den einzelnen Satellitenaufzeichnungen zeigt. QUELLE: UCSLR-Gruppe

Ich habe diese Woche wieder über diese Fragen nachgedacht, also ging ich zu NOAA und holte mir deren Excel-Tabelle, die den kompletten Datensatz für jeden der vier Satelliten zeigt.

Ich habe die NOAA-Daten aufgezeichnet. Aber im Gegensatz zu den Colorado-Daten oben, habe ich die volle Überlappung zwischen den einzelnen Satelliten mit einbezogen. Dann habe ich die Rate des Meeresspiegelanstiegs, die von jedem der vier Satelliten angezeigt wird, separat betrachtet. Abbildung 2 zeigt das Ergebnis.

Abbildung 2. NOAA-Meeresspiegeldaten, die den Trend der einzelnen, vollständigen Satellitenaufzeichnungen und den Gesamttrend zeigen. QUELLE: NOAA-Excel-Tabelle

Es scheint, als hätte ich nach all den vielen Jahren der Verwunderung endlich eine Antwort auf meine beiden Fragen. Der Trend ist so groß und die Beschleunigung ist aus einem einfachen Grund so groß. Die beiden jüngsten Satelliten zeigen Trends, die deutlich größer sind als die der beiden früheren Satelliten. Die ersten beiden Satelliten stimmen recht gut überein, aber sie zeigen beide einen viel kleineren Trend als die beiden letzten Satelliten. Und keine der beiden Hälften der Satellitenaufzeichnungen zeigt eine Beschleunigung.

Was man oben sieht sind die Fakten, wie sie von der NOAA angegeben werden, und ich habe oben die Quelle dieser Fakten verlinkt. Und es scheint mir, dass diese Fakten mehr als ausreichend sind, um die Satellitenaufzeichnung des Meeresspiegels vollständig zu diskreditieren.

Und um zum eigentlichen Thema zurückzukehren, warum zeigen die NOAA-Daten einen Gesamttrend, der um 0,3 mm pro Jahr geringer ist als die Colorado-Daten? Das liegt daran, dass die Colorado-Daten das enthalten, was „GIA“ genannt wird, und die NOAA-Daten nicht.

„GIA“ steht für die „glaziale isostatische Anpassung“. Es gibt eine Beschreibung davon auf der Colorado-Seite hier. Sie bezieht sich auf die Veränderungen der Gesamtform der Erde aufgrund des Abschmelzens der riesigen und immens schweren Eisschilde der letzten Eiszeit.

Laut dieser Seite wird die GIA „unabhängig aus Modellen auf -0,3 mm/Jahr geschätzt (Peltier, 2001, 2002, 2009; Peltier & Luthcke, 2009)“.

Nun ist ein Computermodell nichts anderes ist als eine physikalische Umsetzung der Überzeugungen, Erkenntnisse und insbesondere der Missverständnisse der Person, die den Computer programmiert. Da Mr- Peltier an der Programmierung aller vier auf der Colorado-Seite aufgeführten Modellrealisierungen beteiligt war, ist ihre Behauptung, die vier Modelle seien „unabhängig“, lächerlich. Was wir haben, ist die Behauptung eines Mannes, dass er den GIA berechnen kann.

Welchen Effekt hat die GIA? Die Colorado-Seite sagt (Hervorhebung von mir):

Vor der Veröffentlichung 2011_rel1 haben wir die GIA bei den Schätzungen des globalen mittleren Meeresspiegels nicht berücksichtigt, aber diese Korrektur ist jetzt wissenschaftlich gut verstanden und wird von fast allen Forschungsgruppen auf der ganzen Welt auf die GMSL-Schätzungen angewendet. Die Einbeziehung der GIA-Korrektur hat den Effekt, dass frühere Schätzungen der globalen mittleren Meeresspiegelrate um 0,3 mm/Jahr erhöht werden.

Da sind also die fehlenden 0,3 mm/Jahr, angewandt von „fast allen Forschungsgruppen“ … Ich schätze, die NOAA hat das nicht mitbekommen.

Für mich ist die Behauptung, dass ein Computermodell die Veränderung des Gesamtvolumens aller verschiedenen Ozeanbecken der Welt auf die nächsten 0,3 mm pro Jahr des Meeresspiegels berechnen kann, unglaubwürdig, und zwar aus folgendem Grund.

Für den Landteil der Berechnung müssen diese „unabhängigen“ Computermodelle GPS-Höhen verwenden. Durch die Verwendung von Split-Phase-GPS und wiederholten Messungen können diese bis zu ± 10 mm oder besser genau sein, eine erstaunliche wissenschaftliche Leistung … aber das ist weit entfernt von einem Zehntel Millimeter, und das nur an Land. Nicht nur das, wir haben auch keine GPS-Messungen im ganzen Land. Sie konzentrieren sich auf die USA und Europa, während sie anderswo nur sporadisch genutzt werden.

Auf dem Meer müssen die „unabhängigen“ Modelle Satellitenmessungen verwenden, so dass sich die Frage nach der Genauigkeit und Präzision der Satellitenmessungen des Meeresspiegels selbst stellt. Diese Messungen werden durchgeführt, indem Radarwellen von der Meeresoberfläche zurückgeworfen werden und gemessen wird, wie lange es dauert, bis sie zum Satelliten zurückkehren. Hier sind wiederholte Messungen nicht möglich, da sich der Meeresspiegel an jedem Punkt ständig ändert und der Satellit selten zweimal an der gleichen Position ist. In einer aktuellen NASA-Pressemitteilung zum Sentinel-6-Satelliten, dem Nachfolger des Jason-3-Satelliten, wird der Ozeanograph Josh Willis zitiert:

Sentinel-6 wird in einer Umlaufbahn in etwa 1300 km Höhe kreisen und mit Hilfe von Radar die Oberfläche des Ozeans messen. Ein Instrument auf dem Satelliten sendet eine Radarwelle hinunter zur Erde. Die Radarwelle wird von der Meeresoberfläche reflektiert und kehrt zum Satelliten zurück. Durch die Messung der Zeit, die das Radar für den Hin- und Rückweg benötigt – und unter Berücksichtigung der Feuchtigkeit in der Atmosphäre, die das Radar verlangsamt – können die Wissenschaftler messen, wie weit die Meeresoberfläche vom Satelliten entfernt ist.

Mit anderen Worten: Der Satellit kann den Wissenschaftlern auf der Erde mitteilen, wie hoch die Ozeane sind und wie sich diese Höhe im Laufe der Zeit verändert.

Es ist wirklich eine unglaubliche technische Leistung“, sagt Josh Willis. „Wir können den Wasserstand mit einer Genauigkeit von 25 mm aus 1300 km Höhe messen.“

Eine Genauigkeit von 25 mm … und sie behaupten, sie kennen die jährliche Veränderung des Volumens der Ozeane aus dem GIA auf das nächste Zehntel eines mm der Meeresspiegelhöhe? Ich weiß, dass Genauigkeit etwas anderes ist als Präzision, und dass die Messung von Längenänderungen im Laufe der Zeit (Präzision) um eine Größenordnung besser sein kann als die Messung der Länge selbst (Genauigkeit), aber trotzdem … sorry, aber ich kaufe dem GIA die Behauptung nicht ab.

Schauen wir mal, ob ich Ihnen ein Gefühl für die Schwierigkeit der Satellitenmessungen des Meeresspiegels geben kann. Die Satelliten kreisen in einer Höhe von etwa 830 Meilen, das sind etwa 1,34 Milliarden Millimeter. Um also die Veränderung des Meeresspiegels auf ein Zehntel Millimeter genau zu messen, müssten wir in der Lage sein, den Abstand zwischen dem Satelliten und der Meeresoberfläche mit einer Genauigkeit von mehr als einem Teil in dreizehn Milliarden zu messen … und das ist selbst in einer kontrollierten Laborumgebung eine große Herausforderung.

Hier sind einige der Schwierigkeiten bei dieser Messung. Die erste ist die Messung der Höhe des Satelliten selbst. Wenn wir das nicht auf den Millimeter genau für jede Sekunde eines jeden Tages wissen, werden wir ungenaue Antworten erhalten. Der nächste Punkt ist die unterschiedliche Zusammensetzung, Temperatur, Bewölkung und Feuchtigkeit der Atmosphäre. All diese Faktoren verändern die Zeit, die das Radarsignal braucht, um zum Satelliten zurückzukehren. Dann gibt es die Meereswellen, die offensichtlich die Höhe des Ozeans um Tausende von mm verändern. Schließlich gibt es noch die „Instrumentendrift“, die unvermeidlichen Veränderungen, die bei elektronischen Messinstrumenten mit der Zeit auftreten.

Nettoergebnis? Nun, das Nettoergebnis ist in Abbildung 2 oben zu sehen, wo laut der Universität von Colorado ein Satellit sagt, dass der Meeresspiegel mit 2,5 mm/Jahr ansteigt, und nur 8 Tage nach dem Ende der Daten dieses Satelliten (das Intervall zwischen einem Satelliten und dem nächsten in der Colorado-Meeresspiegelaufzeichnung) sagt der Nachfolgesatellit, dass er mit 4,1 mm/Jahr ansteigt … no bueno. Sie behaupten, dass in 8 Tagen die Anstiegsrate um 1,6 mm pro Jahr gestiegen ist. Beachten Sie auch, dass es in beiden Hälften der Satellitenaufzeichnung absolut keine Beschleunigung gibt, sondern nur eine schrittweise Veränderung zwischen den Satelliten. Offensichtlich sind sie nicht in der Lage, jährliche Änderungen des Meeresspiegels auf den nächsten Millimeter genau zu messen, geschweige denn auf den nächsten Zehntelmillimeter.

Die Leute, die an dem Projekt arbeiten, sind jedoch alle wahre Gläubige. Im selben Artikel wird Josh Willis mit den Worten zitiert: „Wir wissen, dass die Ozeane wegen der vom Menschen verursachten Eingriffe in das Klima steigen.“

Verdammte Menschen, die sich immer in das Klima einmischen … zum Beispiel hat unser neuer „Klima-Zar“ John Kerry 5 Häuser, eine Reihe von Autos, eine Yacht und einen Privatjet, und er sagt uns, dass wir den Bus nehmen sollen, um die gefürchtete, „vom Menschen verursachte Störung des Klimas“ zu vermeiden … aber ich schweife ab.

Das Problem ist, dass der Start mit einer festen „wissenschaftlichen“ Überzeugung wie dieser dazu führt, dass die Leute, die an den Satelliten-Meeresspiegel-Datensätzen arbeiten, „befangen“ sind. Sie kleben die offensichtlich inkompatiblen Satellitenergebnisse zusammen, streichen Erdnussbutter über die Risse, damit sie nicht gesehen werden können, und verkünden der Welt, dass die Satelliten eine gefährliche Beschleunigung des Meeresspiegelanstiegs zeigen, so dass wir alle sehr besorgt sein sollten …

Ich habe schon seit einiger Zeit gesagt, dass wir den Satellitenergebnissen kein Gewicht beimessen sollten. Ich habe dies jedoch ausschließlich auf die sehr großen Unterschiede sowohl im Trend als auch in der Beschleunigung zwischen den Satelliten- und den Gezeitenstationsaufzeichnungen gestützt, sowie auf die bekannten Schwierigkeiten bei Satellitenmessungen, die oben diskutiert wurden. Ich habe diese Frage in mehreren Beiträgen untersucht, darunter „Inside The Acceleration Factory“ und „Accelerating The Acceleration“.

Aber jetzt, endlich, habe ich die Fakten, die meine Behauptung untermauern. Es gibt keine Beweise für eine Beschleunigung des Meeresspiegelanstiegs, weder in den Tidenmessungen noch in den schäbig zusammengeschusterten Satellitenaufzeichnungen. Er steigt seit geraumer Zeit in der Größenordnung von 200 mm pro Jahrhundert, und es gibt keine Anzeichen für eine Veränderung dieser Anstiegsrate.

Es steht einem also frei, das zu tun, was Obama und Bill Gates getan haben – Grundstücke am Meer kaufen. Sie verkünden lautstark, dass der Meeresspiegel gefährlich ansteigt, aber wie die Mehrheit der Klimaalarmisten überführen ihre Taten deren Worte als Scheinheiligkeit.

Link: https://wattsupwiththat.com/2021/02/21/munging-the-sea-level-data/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Einige ausschweifende Passagen Eschenbachs wurden bei der Übersetzung nicht berücksichtigt.

 




Zusammenfas­sung: Wetter­abhängige Erneuer­bare in UK 2019

Die Produktivität der erneuerbaren Energien (Wind- und Sonnenenergie) ist entscheidend. Nur wenn ihre tatsächliche Produktivität mit den Vergleichskosten kombiniert wird, können die wahren Kosten des effektiv ins Netz eingespeisten Stroms abgeschätzt werden.

Diese unkomplizierten Berechnungen beantworten die einfache Frage:

Wie viel würde es ungefähr kosten, die gleiche Menge an Strom zu erzeugen, die von der derzeitigen Flotte der wetterabhängigen erneuerbaren Energien in der EU(28) mit konventionellen Erzeugungstechnologien (Kernkraft oder Gasfeuerung) erzeugt wird, und wie sehen diese Zahlen im Vergleich aus?“.

Ende 2019 verfügte Großbritannien über eine Flotte von etwa 35 Gigawatt an wetterabhängigen erneuerbaren Energien, mehr als die Hälfte der installierten Flotte. Sie kostete etwa 62 Mrd. £ an Kapital und implizierte weitere langfristige Kosten von etwa 260 Mrd. £. Im Laufe des Jahres trugen Erneuerbare Energien etwa 7,3 Gigawatt bei, weniger als 23 %. Die kosteneffektivste Form der Stromerzeugung ist jedoch die Gasverbrennung mit weniger als 1 Mrd. £/Gigawatt. Bei der Verbrennung von Gas entsteht viel weniger CO2 als bei anderen fossilen Brennstoffen (als ob das wirklich ein Problem wäre).

Nach diesen groben Berechnungen hätte das Vereinigte Königreich durch den Einsatz von Gasfeuerungen anstelle von erneuerbaren Energien zur Erzeugung dieser 7,3 Gigawatt für das Stromnetz etwa 55 Milliarden Pfund an Kapital und langfristig etwa 230 Milliarden Pfund einsparen können.  Mit Kernkraft wären die Einsparungen zwar geringer, aber immer noch beträchtlich.  All diese zusätzlichen Kosten werden entweder von der Regierung (dem Steuerzahler) übernommen oder belasten die Stromrechnungen.

Es gibt weitere zusätzliche Kosten- und CO2-Implikationen der wetterabhängigen erneuerbaren Energien

Die obigen Vergleichszahlen berücksichtigen nur die direkten Erzeugungskosten und sind eine Unterschätzung der vollen Kosten, die durch die Nutzung wetterabhängiger erneuerbarer Energien entstehen. Die mit Erneuerbaren Energien verbundenen Nebenkosten ergeben sich aus:

● Die Unzuverlässigkeit der erneuerbaren Energien in Bezug auf Stromunterbrechungen und Stromschwankungen.

● Erneuerbare Energien sind nicht disponibel, d. h., die Wolken verziehen sich nicht und der Wind weht nicht immer dann, wenn Strom benötigt wird.

● Es ist unwahrscheinlich, dass das schlechte Timing der Erzeugung aus erneuerbaren Energien mit der Nachfrage übereinstimmt. Jede Windenergie unterliegt den Wetterschwankungen. Die Solarenergie fällt am Abend ab, also zu Zeiten des Spitzenbedarfs. Im Winter erbringt die Solarenergie nur etwa 1/9 der Sommerleistung.

● Viel zusätzliche technische Infrastruktur für den Zugang zu erneuerbaren Standorten wird benötigt.

● Die langen Übertragungsleitungen führen zu Leistungsverlusten und erhöhtem Wartungsaufwand.

● Erneuerbare Energien benötigen im Vergleich zur konventionellen Stromerzeugung (Gas- oder Kernkraftwerke) große Landflächen.

● Die fortlaufenden Kosten für die Reservekraftwerke, die zwar unverzichtbar sind, aber nur gelegentlich in der Backup-Reserve eingesetzt werden und trotzdem CO2 ausstoßen.

● Wenn genügend konventionelle Reservekapazitäten vorhanden sind, um das Netz zu stützen, dann macht es wenig Sinn, die Erzeugungskapazität mit vergleichsweise unproduktiven erneuerbaren Energien zu verdoppeln, auch wenn diese einen Teil der CO2-Emissionen ersetzen könnten.

● Jegliche Überlegungen zur Stromspeicherung mit Batterien, selbst wenn Langzeitbatterien (einige Stunden) im Netzmaßstab wirtschaftlich machbar wären.

● Erneuerbare Energien erzeugen eine unsynchronisierte Erzeugung, der es an Trägheit fehlt, um die notwendige Netzfrequenz aufrechtzuerhalten.

● Erneuerbare Energien können keine „Schwarzstart“-Erholung nach einem größeren Netzausfall bieten.

Außerdem wichtig: Diese Kostenanalyse berücksichtigt nicht:

Erneuerbare Energien sind sehr abhängig von großen Mengen an seltenen Erden und knappen Materialien, die größtenteils aus China bezogen werden.

Erneuerbare Energien verursachen unweigerlich Umweltschäden und die Zerstörung der Tierwelt.
Erneuerbare Energien „Kohlenstoff-Fußabdruck“, Wind- und Solartechnologien können während ihrer Lebensdauer niemals so viel CO2 einsparen, wie sie für ihre Materialbeschaffung,

Herstellung, Installation, Wartung und eventuellen Abriss emittieren.

Erneuerbare Energien sind von fossilen Brennstoffen abhängig, sowohl als Rohstoff für die Materialien als auch als Brennstoff für den Betrieb.

Renewables Energy Return on Energy Invested [ERoEI-Wert oder Erntefaktor], sie erzeugen während ihrer Lebensdauer möglicherweise nur einen begrenzten Überschuss an Energie, wie er für ihre Herstellung und Installation aufgewendet wurde.

Erneuerbare Energien liefern sicherlich nicht den regelmäßigen massiven Energieüberschuss, der ausreicht, um die vielfältigen Bedürfnisse einer entwickelten Gesellschaft zu decken.

Probleme der Energieerzeugung

Da die Regierung der Stromindustrie immer mehr erneuerbare Energien aufzwingt, stehen die Manager der Stromversorgungsunternehmen vor großen Problemen, da die politischen Entscheidungen auf der unpraktischen und unregelmäßig intermittierenden „erneuerbaren Energie“ beharren.  Der Berufsstolz und die Verantwortung der Stromversorgungsmanager werden versuchen, den konsistenten Service aufrechtzuerhalten, der für die Nation so wichtig ist, aber es wird immer schwieriger werden.

Konventionelle Stromerzeuger, die in Vollzeit produktiv sind, werden aus dem Geschäft gedrängt, da sie unrentabel werden.

Am Ende spielen die zusätzlichen Kosten keine Rolle, denn entweder übernimmt die Regierung (oder besser gesagt der Steuerzahler) die Rechnung, oder die zusätzlichen Kosten werden einfach über die steigenden Rechnungen an die Kunden weitergegeben: Die Kunden haben keine wirkliche Wahl, denn das Stromgeschäft ist effektiv ein Monopol.

Ein hervorragender Weg, die westlichen Volkswirtschaften zu untergraben, ist es, ihre Energieerzeugung unzuverlässig und teuer zu machen.  Dieses Ziel des grünen Denkens wird nach und nach durch die Regierungspolitik erreicht, jedoch ohne das Mandat der Wähler in der gesamten westlichen Welt.

[Alle Hervorhebungen in diesem Beitrag im Original]

Weather Dependent Renewables Productivity: what do the numbers mean?

Link: https://wattsupwiththat.com/2021/02/21/summary-uk-weather-dependent-renewables-2019/

Übersetzt von Chris Frey EIKE




Der Mythos und die verlogene Mathematik „grüner“ Arbeitsplätze

Während des Wahlkampfs im Jahre 2020 behauptete Joe Biden, dass mehr als 3 Millionen Amerikaner bereits „in der sauberen Energiewirtschaft beschäftigt sind“. Dann prahlte er, dass „wenn strategisch ausgeführt, unsere Antwort auf den Klimawandel mehr als 10 Millionen gut bezahlte Arbeitsplätze in den Vereinigten Staaten schaffen kann, die eine stärkere, integrativere Mittelschicht wachsen lassen … und nicht nur in Städten entlang der Küsten.“

Damit wäre Joe doppelt so prahlerisch wie sein früherer Chef, der 2009 versprach, das 787 Milliarden Dollar schwere Konjunkturpaket würde „über fünf Millionen“ grüne Arbeitsplätze schaffen. Vier Jahre später berichtete die Brookings Institution, dass „von den fast 2,7 Millionen ‚grünen Jobs‘ der Obama-Biden-Regierung die meisten Busfahrer, Abwasserarbeiter und andere Arten von Arbeit waren, die nicht in die Beschreibung der ‚grünen Jobs der Zukunft‘ passen“.

Der Energieanalyst David Blackmon berichtete später, dass Obamas eigenes Arbeitsministerium das anfängliche Scheitern des Starts einräumte. Der Bericht des DOL vom September 2011 mit dem Titel [übersetzt] „Geringes Tempo bei der Vermittlung von Arbeitern in Jobs gefährdet die Beschäftigungsziele des Programms für grüne Arbeitsplätze“ stellte fest, dass nur ein Drittel der zugewiesenen Mittel ausgegeben worden war; ein Fünftel der „Abschlüsse“ und „Zertifizierungen“ ging an Personen mit einem einzigen Tag Schulung; und die Hälfte der „Absolventen“ hatte fünf oder weniger Tage Schulung. Nur 2% der Programmteilnehmer behielten ihre Jobs für mindestens sechs Monate.

Das Bureau of Labor Statistics (BLS) zählte Lobbyisten der Ölindustrie als Inhaber „grüner“ Jobs! Die Industrie für die Wartung von Klärgruben und tragbaren Toiletten hatte 33-mal mehr „grüne“ Arbeitsplätze ausgewiesen als die Solarstrom-Versorgungsunternehmen. Das BLS musste in einem Bericht vom Juni 2012, „Green Technologies and Practices – August 2011“, einräumen, dass sie nur 854.700 „grüne“ Jobs ausmachen konnten, einschließlich Hausmeister und Reinigungskräfte.

Was für ein Schwindel! Schande über sie für den Versuch, uns zu betrügen.

David Kreutzer wies in einem Bericht der Heritage Foundation darauf hin, dass Stahlarbeiter die meisten „grünen“ Industriejobs haben. Warum? Der meiste US-Stahl ist recycelter Schrott, und ein Teil des Stahls wird für die Herstellung von Windkraftanlagen verwendet. Die nächstgrößeren Gruppen waren Busfahrer, Müllsammler und Angestellte von Gebrauchtwarenläden – gefolgt von Ingenieur- und Architekturdienstleistungen. Die viel gehasste Atomindustrie machte über 80% der 44.000 „grünen“ Arbeitsplätze bei den Stromversorgern aus. Es gab fünfmal so viele „grüne“ Jobs in der sozialen Lobbyarbeit (Lobbyisten von Umweltgruppen) als in der erneuerbaren Stromerzeugung.

Ah, aber das war damals – aber wir sind heute, sagen Sie. Richtig!

Im Januar berichtete Associated Press über „Bidens unscharfe Mathematik“ in Bezug auf seine Behauptung, 1 Million neue Arbeitsplätze in der Autoindustrie zu schaffen – selbst wenn er tatsächlich die 650.000 Fahrzeuge umfassende Flotte der Regierung durch Elektroautos ersetzt und 500.000 neue Ladestationen installiert – alles auf Kosten der Steuerzahler. Theoretisch wird ein riesiges staatliches Kaufprogramm die Kosten für Elektroautos senken, und die unzähligen Ladestationen werden die Angst verringern, bei einer Hurrikan-Evakuierung in einem Fahrzeug festzusitzen, das man nicht schnell auftanken kann. Theoretisch.

Aber Moment! Jeder Arbeitsplatz für ein Elektrofahrzeug wird wahrscheinlich auf Kosten eines Arbeitsplatzes für ein Fahrzeug mit Benzinmotor gehen, und jede Ladestation für ein Elektrofahrzeug wird Arbeitsplätze in der Pipeline, in der Raffinerie, im Benzin-Einzelhandel, in der Benzinauslieferung und in anderen Sektoren vernichten. Der AP-Artikel fügt hinzu, dass Industrieanalysten und die Gewerkschaft United Auto Workers darin übereinstimmen, dass die Herstellung von E-Fahrzeugen wahrscheinlich weniger Arbeitsplätze in der Automobilindustrie bedeuten wird. Ein Grund dafür ist, dass E-Fahrzeuge viel weniger Teile haben und einfacher zu bauen sind, also weniger Arbeiter benötigen und oft nur ein neues Batteriemodul für 6.000 Dollar brauchen. Ein weiterer Grund ist, dass die Batterieherstellung leicht automatisiert werden kann. Aber das ist kaum die ganze Geschichte.

Bereits 2019, als General Motors über einen Zeitraum von drei Jahren mehr als ein Fünftel seines US-Marktanteils an Verkäufen verlor, gab das Unternehmen zu, dass es bereits mehr nicht gewerkschaftlich organisierte Autoarbeiter in China beschäftigt als gewerkschaftlich organisierte Arbeiter in den USA. Die harte Realität ist, dass es in Asien zehnmal mehr Produktionsstätten für Elektrofahrzeug-Batterien gibt als in ganz Nordamerika. Vielleicht spricht Jinping Joe Biden von der Anzahl der chinesischen „grünen“ Arbeitsplätze und dabei insbesondere über Kinder- und Fast-Sklavenarbeit in Chinas Minen und Verarbeitungsbetrieben.

Andere Analysten haben ebenfalls erkannt, dass die Ansprüche grüner Arbeitsplätze seitens der Biden-Regierung „meist falsch“ sind.

Elektrofahrzeuge sind nur ein Teil des Green New Biden Deal. Die Unterwerfung unserer Wirtschaft [der USA] unter das Pariser Klimaabkommen und seine drakonischen Umweltauflagen ist ein weiterer. Die Abkehr von Öl, Gas und Kohle – und sehr wahrscheinlich auch von Kernkraft – und all den Arbeitsplätzen, die diese Industrien schaffen, ist ein dritter. Mr. Biden folgt Deutschland und anderen Ländern der Europäischen Union auf dem Weg in den wirtschaftlichen Selbstmord.

[Hervorhebung vom Übersetzer]

Laut der Deutschen Bank löst die klimapolitische Regulierung des deutschen Automobilsektors „den größten Strukturbruch in der Branche seit Jahrzehnten aus.“ Strenge Kohlendioxid-Grenzwerte für neue Pkw in der EU für die Jahre 2021 und 2030 zwingen die Hersteller zu einem vorzeitigen Umstieg auf teurere Elektrofahrzeuge, heißt es in einem Bericht der Bank. Die daraus resultierenden Preissteigerungen, so prognostiziert die Bank, werden sich sehr negativ auf die zukünftigen Arbeitsplätze in der deutschen Autoindustrie auswirken.

Ein Grund dafür ist, dass die CO2-Grenzwerte der EU für PKWs und die Subventionen für Elektrofahrzeuge „extrem ineffiziente [teure] und kaum effektive Instrumente“ sind, um eine Emissionsreduktion im Transportsektor zu erreichen. Während staatliche Anreize und Mandate die Menschen zum Kauf von staatlich begünstigten Fahrzeugen bewegen können, verringert eine radikale Klima- und Energiepolitik die Investitionen in energieintensive Sektoren wie die Metall- und Chemieindustrie. Dies wird die Kosten für neue deutsche Autos weiter erhöhen.

Der Deutsche Gewerkschaftsbund berichtet, dass trotz des Vorstoßes für grüne Energie und Elektrofahrzeuge die Zahl der „grünen“ Arbeitsplätze in der deutschen Erneuerbare-Energien-Branche von 300.000 im Jahr 2011 auf nur noch 150.000 im Jahr 2018 gesunken sei. Viele dieser verlorenen Arbeitsplätze sind auf den Zusammenbruch der deutschen Solarindustrie zurückzuführen, da die Unternehmen von chinesischen Herstellern aus dem Geschäft gedrängt wurden, die die deutschen Preise unterboten – und einen viel einfacheren Zugang zu Rohstoffen hatten.

Die Erfolgsbilanz der amerikanischen Arbeitsplätze im Bereich der erneuerbaren Energien gegenüber der chinesischen Konkurrenz ähnelt der deutschen Erfahrung. Ein Hauptgrund ist Chinas Beinahe-Monopol auf Seltene-Erden-Metalle, die für die Grüne Revolution unerlässlich sind. Trotz dieser Tatsachen sagte Bidens „Klimabeauftragter“ John Kerry kürzlich, dass amerikanische Öl- und Gasarbeiter, die ihren Arbeitsplatz verloren haben, einfach und leicht zur Herstellung von Solarzellen arbeiten können.

Der Energieökonom Tilak Doshi [in deutscher Übersetzung beim EIKE hier] stimmt zu, dass die Faszination des Westens für erneuerbare Energien, die nur die Dekarbonisierung und letztendlich die Deindustrialisierung zum Ziel haben, ein Rezept für wirtschaftlichen Selbstmord ist. Er weist darauf hin, dass Deutschlands „grüne“ Welt riesige Windturbinen mit Flügeln aus erdölbasierten, glasfaserverstärkten Harzen beinhaltet; Motoren, die mit Eisen und seltenen Erden gebaut werden, die mit fossilen Brennstoffen gewonnen, verarbeitet und verhüttet werden; Beton, der ebenfalls fossile Brennstoffe benötigt; und Fabriken, die mit Kohle und Erdgas betrieben werden. Bei Solarmodulen ist es genau das Gleiche.

[Hervorhebungen vom Übersetzer]

Die Turbinen und Paneele werden in Wäldern, Wiesen, Ackerland und Küstengebieten installiert, wo sie landschaftlich reizvolle Ausblicke und Lebensräume für Wildtiere zerstören. Die Turbinenblätter töten gefährdete Vögel und Fledermäuse.

Das Ergebnis dieses „Rettet-den-Planeten“-Eifers? Deutschland hat eine aufkeimende Armutsrate von 17%, größtenteils dank der Abschaltung von zuverlässigen nuklearen und fossilen Kraftwerken und den daraus resultierenden explodierenden Strompreisen für Haushalte, Fabriken, Unternehmen und Krankenhäuser in den letzten 15 Jahren.

Aber zurück in die USA. Kalifornien betreibt die fünftgrößte Volkswirtschaft der Welt, indem es den größten Teil seines Rohöls aus Übersee importiert (trotz massiver Reserven im eigenen Bundesstaat) und ein Drittel seines Stroms aus anderen Staaten bezieht (ebenfalls aus politischer Opportunität). Infolgedessen zahlen die Kalifornier heute 60 % mehr als der nationale Durchschnitt für Strom für Privathaushalte, Gewerbe und Industrie, während sie gleichzeitig häufige Stromausfälle aufgrund von teurer, wetterabhängiger Energie und einer erbärmlichen Forstwirtschaft ertragen müssen. Menschen und Industrien fliehen aus dem Staat.

Und das Team Biden-Harris (Harris-Biden?) will dem Rest der Vereinigten Staaten die Verhältnisse in Kalifornien überstülpen!

[Origianlly posted on Townhall]

Link: https://www.heartland.org/news-opinion/news/the-myth-and-phony-math-of-green-jobs

Übersetzt von Chris Frey EIKE

 




Im Eis eingefrorene Alligatoren in Oklahoma

Im Südosten von Oklahoma, in McCurten County, sind die Sümpfe gefroren. Die Alligatoren, die dort leben, versuchen, sich an die Kälte anzupassen. Obwohl sie im Eis eingefroren sind, lassen sie ihre Nase draußen, damit sie atmen können.

Die Bilder der Reptilien wurden vom Oklahoma Wildlife Conservation Officer David Arbor veröffentlicht. Er nahm diese Bilder in den Red Slough Sümpfen auf. Zuvor wurde dieses Verhalten der Reptilien bei Frost in den Jahren 2018 und 2019 in North Carolina beobachtet.

Dieser Zustand ist vergleichbar mit dem Winterschlaf bei Säugetieren. Die ungewöhnliche Kälte führt dazu, dass der Stoffwechsel der Reptilien verlangsamt wird. Wenn die Tiere die Sümpfe verlassen, könnten sie sterben, weil sie ihre Körpertemperatur nicht regulieren können. Wenn die Thermometer über den Nullpunkt steigen, kehren die Alligatoren in ihren normalen Zustand zurück.

Weitere Fotos:

https://www.gismeteo.ru/news/animals/alligatory-v-oklahome-vmerzli-v-led-iz-za-ekstremalnyh-holodov-foto/

[Das ist eine russische Website, auf russisch {Eine Übersetzungsmaschine hilft}. Es geht aber auch um Oklahoma. Nur beim Aufrufen des Links erschienen bei mir anstatt der Fotos nur weiße Flächen. A. d. Übers.]

Auch auf Facebook
https://www.facebook.com/photo.php?fbid=3670670829676199&set=p.3670670829676199&type=3
Dank an Martin Siebert für diese Links.

„Die ganze Kälte, sagen sie, ist eine Anomalie – oder einfach nur eine ‚Kältewelle’“, sagt Martin Siebert. „Nein! Das ist bereits ein Trend, und ich denke, es wird noch schlimmer werden. Wenn man die Anzahl der Toten von Covid hinzufügt, gibt es einen Teil der ‚Plagen‘ im Zyklus des Beginns einer LIA, der Zyklus wiederholt sich, nicht wahr!“

Link: https://www.iceagenow.info/oklahoma-alligators-frozen-in-the-ice/

Übersetzt von Chris Frey EIKE

 




Strom-Zusammen­bruch in Texas demonstriert die politische Klima-Idiotie

Ein ungewöhnlicher Kaltlufteinbruch aus der Arktis, der sich über den gesamten Bundesstaat von der Spitze des Panhandle [die Spitze im Nordwesten] bis zum Rio Grande Valley ausbreitete, hat Millionen von Haushalten und Unternehmen hier ohne Strom gelassen.

Eine Reihe von erzwungenen Stromausfällen [Lastabwürfen] war erforderlich, um einen Zusammenbruch des Stromnetzes zu verhindern, da einstellige Temperaturen* Windturbinen einfroren und den Betrieb von Dutzenden von Kraftwerken behinderten.

[*Gemeint sind einstellige Temperaturen in Grad Fahrenheit! 10°F ≅ -12°C; 0°F ≅ -18°C. A. d. Übers.]

Wie konnte das nur hier in Texas passieren?

Wir sind doch nicht in Kalifornien, wo die übermäßige Abhängigkeit von Wind- und Solarenergie das Netz während einer Rekordhitzewelle 2020 destabilisierte.

Kalifornien führt bereits die Nation mit dem unzuverlässigsten Stromsystem und der größten Anzahl an jährlichen Stromausfällen an … 4.297 wurden zwischen 2008 und 2017 verzeichnet. Und alles wird noch viel schlimmer werden, da der Staat nun vorschreibt, dass alle neuen Häuser fast vollständig elektrisch versorgt müssen.

Mehr als 30 Städte, darunter auch San Francisco, haben bereits Verbote für neue Gasgeräteanschlüsse erlassen. Kalifornien plant, Benzin- und Dieselautos endgültig zu verbieten.

Hey Leute… wir sind hier in Texas, einem Land mit weitaus klügeren Köpfen in einem Staat, der zu Recht dafür bekannt ist, dass er über riesige Erdöl- und Erdgasvorkommen verfügt.

Texas ist kein Ort, an dem wir uns normalerweise Sorgen machen zu erfrieren, nur weil es an zuverlässiger fossiler und nuklearer Energie zum Beheizen unserer Häuser mangelt… im Gegensatz zu nördlichen Breitengraden, in denen es routinemäßig sehr kalt wird und die Stromleitungen vereist sind und ausfallen.

Was ist also zusätzlich zu den Rekord-Tiefsttemperaturen passiert, um das zu ändern?

Mir scheint, wir wurden ein bisschen zu unsanft geweckt.

Das Electric Reliability Council of Texas (ERCOT), das den Stromgroßhandelsmarkt des Bundesstaates überwacht, hat die Abhängigkeit des Netzes von zuverlässiger Kohle, Atomkraft und Erdgas in Richtung der vom Steuerzahler stark subventionierten Windenergie verschoben (hier gibt es kein kostenloses Mittagessen).

Diese Winderzeugung ist mittlerweile die zweitgrößte Stromquelle in Texas. Nach Angaben von ERCOT machte sie im vergangenen Jahr 23 % der Stromversorgung des Bundesstaates aus, hinter Erdgas, das 45 % ausmachte.

In den letzten zehn Jahren haben strenge CO2-Emissionsvorschriften dazu geführt, dass der Anteil der Kohle an der texanischen Stromversorgung um mehr als die Hälfte auf 18 % gesunken ist.

Es kam zu einer Stromkrise, da bitterkaltes Wetter die Windturbinen in Westtexas zum Einfrieren brachten, während gleichzeitig die Bewohner ihre Thermostate hochdrehten. Die Regulierungsbehörden taten, was sie konnten, um die öffentliche Sicherheit zu schützen, indem sie Gas für gewerbliche und industrielle Zwecke rationierten, um den Brennstoff für Kraftwerke und die Heizung der Haushalte sicherzustellen.

Einige Erdgasquellen froren ebenfalls ein, zusammen mit Raffinerieanlagen an einigen Orten, wodurch wiederum Erdgas für Turbinen ausfiel, die wichtige Reservestromversorgung für – bestenfalls intermittierende – Wind- und Solarstromerzeugung liefern.

Und wer hätte sich vorstellen können, was dann passierte?

Der Spotpreis für Großhandelsstrom im texanischen Stromnetz schnellte um mehr als 10.000 % in die Höhe und überschritt die Marke von 9.000 US-Dollar pro Megawattstunde. Selbst während der Sommermonate mit hoher Nachfrage würden 100 $ pro MWh als hoch angesehen werden.

Bei näherem Hinschauen könnte Texas und jeder andere Bundesstaat diese Entwicklung aufgrund der Erfahrungen mit der deutschen „Energiewende“* vorausgesehen haben, einer im Jahr 2000 eingeführten Politik zur Dekarbonisierung der Primärenergieversorgung.

[*Dieser Terminus stand so auf Deutsch im Original. Es scheint, dass der Begriff Eingang in den allgemeinen Wortschatz im Angelsächsischen findet so wie z. B. „Kindergarten“. Hier jedoch immer mit einem negativen Unterton. A. d. Übers.]

Als das Programm ins Leben gerufen wurde, stammten 6,6 % des deutschen Stroms aus erneuerbaren Quellen, vor allem aus Sonne und Wind. Bis 2019, fast zwei Jahrzehnte später, hat dieser Anteil 41 % erreicht.

Bis 2019 haben sich die durchschnittlichen Stromkosten für deutsche Haushalte im gleichen Zeitraum auf 34 US-Cent pro Kilowattstunde verdoppelt. (Vergleichen Sie dies mit 22 Cent pro kWh in Frankreich und 13 Cent in den Vereinigten Staaten).

Die mageren Bedingungen für die Versorgung mit erneuerbaren Energien haben sich in diesem Winter dramatisch verschlechtert, da das kälteste Wetter in Westeuropa seit einem Jahrzehnt Millionen von Sonnenkollektoren in Deutschland mit Schnee und Eis bedeckt und 30.000 Windturbinen außer Betrieb gesetzt hat. Der größte Teil des lebenswichtigen Stroms stammt daher aus Kohle.

Im Januar strahlte der öffentlich-rechtliche Rundfunk Berlin-Brandenburg (RBB) einen Bericht aus, der die Folgen des ständigen Abschaltens der Kohle- und Kernenergiekapazitäten des Landes zugunsten des Zubaus dieser „grünen erneuerbaren Alternativen“ zusammenfasst.

Harald Schwarz, Professor für Energieverteilung an der Universität Cottbus, brachte es auf den Punkt: „Die gesicherte Leistung von Wind + Sonne = 0“.*

[*Dieser Absatz ist im Original wirklich amüsant zu lesen. Dort heißt es: „Harald Schwarz, a professor of power distribution at the University of Cottbus, went straight to the point, saying: “die gesicherte leistung von wind + sonne = 0,” which means:

The guaranteed output of wind + sun = 0.” {Zitatende} A. d. Übers.]

Um den erneuerbaren Energien gegenüber wohlwollender zu sein, liegt der tatsächliche Nutzen angeblich zwischen null und zwei oder drei Prozent.

Die RBB-Sendung warnte weiter, dass Deutschlands vergeblicher Versuch, zuverlässige Atom- und Kohleenergie durch Wind- und Solarenergie zu ersetzen, die Schere zwischen Angebot und Nachfrage gefährlich weit öffnen wird.

Der aktuelle Trend lasse Deutschland keine wirkliche Alternative als in Zukunft verstärkt auf Erdgas aus Russland, Kohlestrom aus Polen und Atomstrom aus Frankreich zu setzen.

Und was ist mit Amerika, wo Wind- und Solarenergie zusammen höchstens vier Prozent unseres Netzstroms (nicht der Gesamtenergie) liefern, gegenüber etwa 80 Prozent aus Kohlenwasserstoffen?

Die 2-Billionen-Dollar-Agenda „Equitable Clean Energy Future“ von Biden verspricht, diese Kohlenwasserstoff-Emissionen aus der Elektrizität bis 2035 zu eliminieren und dann bis 2050 „Netto-Null-Kohlenstoff“ zu erreichen.

Um zu beweisen, dass er es ernst meint, hat Präsident Biden gleich an seinem ersten Tag im Oval Office die Keystone XL-Pipeline an der kanadischen Grenze gekappt, zusammen mit etwa 11.000 Arbeitsplätzen und 830.000 Barrel Öl pro Tag, die sie geliefert hätte und die nun mit CO2-emittierenden Zügen und Lastwagen transportiert werden müssen.

Zusätzlich zur Dezimierung unserer derzeitigen Energieversorgungs-Infrastruktur ist geplant, dass die Steuerzahler eine halbe Million Ladestationen für Elektroautos im ganzen Land finanzieren und eine gigantische Anzahl stromhungriger Elektrofahrzeuge hinzufügen müssen, um die bereits prekären Kapazitäten weiter zu belasten.

Bevor Sie sich in diese politische menschengemachte Klimakrise des Wahnsinns zu eigen machen, verlangen Sie zu wissen, woher genügend Energie kommen wird und zu welchen wirtschaftlichen und sozialen Kosten, um voll-elektrifizierte texanische Sommer- und Neuengland-Winterhäuser zu klimatisieren – plus Millionen von Plug-in-Fahrzeugen aufzuladen – an windstillen, wolkenverhangenen Tagen und Nächten – besonders während der unvermeidlichen extremen Wetterbedarfszeiten.

Autor: CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of „Climate of Corruption: Politics and Power Behind the Global Warming Hoax.“

Link: https://www.cfact.org/2021/02/21/texas-power-freeze-down-demonstrates-political-climate-craziness/

Übersetzt von Chris Frey EIKE

 




Die Behauptungen der NOAA bzgl. Klima-Katastrophen sind eine Schande

Quelle

Schon auf den ersten Blick wird deutlich, dass das Ganze total betrügerisch ist. Schauen wir auf die Karte:

Wenn ein Hurrikan einen besiedelten Küstenabschnitt trifft, was fast immer der Fall ist, sind große Schäden unvermeidlich. Aber obwohl das vergangene Jahr ein Hurrikan-reiches Jahr war, wissen wir, dass die Häufigkeit von US-Hurrikanen im letzten Jahrzehnt nicht ungewöhnlich war, und wenn überhaupt, ist der langfristige Trend rückläufig. (Dabei ist erwähnenswert, dass die 1980er und 1990er Jahre unterdurchschnittlich waren, was die Wahl von 1980 als Startdatum statistisch unangemessen macht):

Quelle

Die überwiegende Mehrheit dieser fälschlicherweise als „Klima“-Katastrophen bezeichneten Ereignisse sind jedoch entweder Tornados, Hagelstürme oder Unwetter (bei denen es sich fast ausschließlich um Gewitter-/Tornadoausbrüche handelt).

Auch hier wissen wir, dass die Tornado-Aktivität seit den 1970er Jahren deutlich zurückgegangen ist. Aber man will uns glauben machen, dass Tornados und Gewitter heutzutage viel katastrophaler sind als in der Vergangenheit.

Die Antwort auf dieses Rätsel liegt darin, wie die NOAA bestimmt, was eine Milliarden-Dollar-Katastrophe ist. Der Schlüssel ist dieser Satz:

Die USA sind seit 1980 von 285 Wetter- und Klimakatastrophen betroffen worden, bei denen die Gesamtschäden/Kosten 1 Milliarde Dollar erreichten oder überschritten (einschließlich CPI-Anpassung bis 2020).

Sie berücksichtigen also zu Recht die Inflation, aber ist das genug?

Die einfache Wahrheit lautet, dass die Amerikaner viel mehr „Zeug“ haben als in den 1980er Jahren: Größere Häuser, mehr Autos, die neuesten technologischen Spielereien, teure Möbel und Kleidung und dergleichen mehr.

Wenn ein Haus abbrennt, sind die Kosten für den Wiederaufbau und die Wiederbeschaffung des Hausinhalts seit 1980 um weit mehr als die Inflation gestiegen.

Das Gleiche gilt für die lokale Infrastruktur und Dienstleistungen.

Der beste Weg, dies zu überwachen, ist die Betrachtung des BIP, nicht des VPI [= Verbraucherpreisindex], der besagt, dass $1 im Jahr 1980 jetzt $3,32 wert ist:

Das BIP ist jedoch von 2857 Mrd. $ im Jahr 1980 auf 21433 Mrd. $ im Jahr 2019 gestiegen, also um das 7,3-fache.

Quelle

Wir können die Auswirkungen des steigenden Wohlstands besser sehen, wenn wir das konstante BIP betrachten, das um den Verbraucherpreisindex bereinigt wurde:

Dieser Index des das reale Wachstum messenden BIP ist von 6,5 Billionen Dollar im Jahr 1980 auf 18,3 Billionen Dollar gestiegen und hat sich damit fast verdreifacht.

Das heißt, dass eine 1 Milliarden-Dollar-Katastrophe im Jahr 1980 einer Katastrophe von 3 Milliarden Dollar jetzt entspricht.

Wir können uns auch die Entwicklung der Hauspreise ansehen. Das untenstehende Diagramm ist mit dem VPI inflationsbereinigt, spiegelt also die realen Preise und nicht die monetären. Er ist von 81,78 auf 134,88 gestiegen, ein Faktor von 1,65:

Quelle

Von den zweiundzwanzig Milliarden-Dollar-Katastrophen des letzten Jahres, die angeblich einen Rekord darstellen, lagen neun unter zwei Milliarden Dollar. Es besteht überhaupt kein Zweifel daran, dass, wenn sie sich 1980 ereignet hätten, keine von ihnen mehr als eine Milliarde gekostet hätte.

Hurrikane

Wir können tatsächlich einen direkten Vergleich zwischen der Hurrikansaison 1985 und dem letzten Jahr anstellen. In beiden Jahren wurden sechs Hurrikan verzeichnet.

Im Jahr 1985 schlugen nur drei der Hurrikane in der Liste zu Buche mit Gesamtkosten von 9 Mrd. $. Im Vergleich dazu wurden im letzten Jahr alle sechs Hurrikane verzeichnet plus Tropensturm Eta mit Gesamtkosten von 40,1 Milliarden Dollar. Die durchschnittlichen Kosten pro Hurrikan sind von 3 Mrd. $ auf 5,7 Mrd. $ gestiegen. Dies ist ein starker Beweis dafür, dass es der zunehmende Wohlstand ist, der die steigenden Kosten von Katastrophen vorantreibt, und nicht die Auswirkungen des Klimawandels.

[Im Original folgt jetzt diese Liste mit allen Ereignissen dieser Art. Auf deren Übersetzung wird hier verzichtet. A. d. Übers.]

Link: https://wattsupwiththat.com/2021/02/21/noaas-climate-disaster-claims-are-a-sham/

Übersetzt von Chris Frey EIKE

 




Anmerkungen zum Gegen­strahlungs-Paradoxon aus einem hemisphä­rischen Blick­winkel

Einen Abgleich meines hemisphärischen S-B-Modells mit allen wesentlichen THE-Thesen hatte ich hier auf EIKE bereits als Trilogie (Darstellung, Diskussion, Ergebnis) vorgelegt. Allerdings soll dieser THE nach „neuesten Erkenntnissen“ jetzt nur noch (32°) betragen, und damit gibt es dann wiederum mehr Spielraum für den Klimaeinfluss des Menschen oberhalb von (14°C). Andererseits ist es völlig unmöglich zu beweisen, dass es irgendein Phantasieprodukt gar nicht gibt, eben weil dieses Etwas gar nicht existiert. Dazu ein Beispiel aus einer Reportage von RSH (Radio Schleswig-Holstein), gesendet am 23. Dezember 2011: Auf einem Weihnachtsmarkt wurden Besucher gefragt, ob sie denn beweisen könnten, dass es den Weihnachtsmann gar nicht gibt. Natürlich konnte keiner der Befragten einen schlüssigen Beweis erbringen. Nähern wir uns mit diesem Wissen jetzt einmal dieser sogenannten „atmosphärischen Gegenstrahlung“, die sich angeblich folgendermaßen herleitet:

1. Hochfrequente (HF) Sonneneinstrahlung (@PIR²) => Erwärmung von Materie auf der Tagseite der Erde (2PIR²)

=> 2.Erwärmte Materie strahlt über die gesamte Erdoberfläche (4PIR²) Infrarot(IR)-Strahlung ab

=> 3. Diese IR-Strahlung animiert sogenannte „Klimagase“ zu einer IR-„Gegenstrahlung“ (@4PIR²)

=> 4. Diese IR-„Gegenstrahlung“ soll wiederum vorgeblich die Erdoberfläche (@4PIR²) erwärmen beziehungsweise deren „Abkühlung verlangsamen“ =>

Jetzt wird’s schwierig, denn nun geht es gleichzeitig mit 1. (@2PIR²) und 2. (@4PIR²) weiter.

WIDERSPRUCH 1: Die Erde soll sich durch die Rückstrahlung ihrer eigenen Abstrahlung (= Gegenstrahlung) noch weiter erwärmen; eine solche „Selbstaufheizung“ widerspricht aber dem 2. HS der Thermodynamik. Denn wenn ein solcher Vorgang funktionieren würde, könnten Sie Ihren Kaminofen zum Glühen bringen, indem Sie ein paar Kästen Mineralwasser davorstellen…

Und jetzt schauen wir uns nachfolgend einmal beim Deutschen Wetterdienst (DWD) die vorgeblich gemessene atmosphärische Gegenstrahlung an:

Abbildung 1: Originalbeschreibung, „Globale (rot), direkte (magenta) und diffuse (gelb) Sonnenstrahlung sowie langwellige Gegenstrahlung der Atmosphäre (blau) an einem wolkenlosen (links) und an einem bedeckten (rechts) Oktobertag in Lindenberg“ (Quelle: DWD Deutscher Wetterdienst)

Wir gehen jetzt einfach einmal davon aus, dass die beiden Beispiele einigermaßen vergleichbare Situationen darstellen. Daher halten wir an dieser Stelle fest:

  • An einem wolkenlosen Oktobertag schwankt die vom DWD gemessene Gegenstrahlung zwischen 0:00 und 24:00 Uhr von ca. 220 bis 250 W/m².
  • An einem bedeckten Oktobertag schwankt die vom DWD gemessene Gegenstrahlung zwischen 0:00 und 24:00 Uhr von ca. 330 bis 350 W/m².
  • Es gibt nur bei wolkenlosem Himmel eine schwache optische Korrelation zwischen einem tentativen tageszeitlichen Temperaturverlauf und der sogenannten „Gegenstrahlung“, aber eine Differenz von etwa 100W/m² zugunsten einer Wolkenbedeckung.
  • Die Unterschiede in der absoluten Bestrahlungsstärke der sogenannten „Gegenstrahlung“ liegen also weniger im Ablauf von Tag und Nacht, als vielmehr im Bedeckungsgrad.

WIDERSPRUCH 2: Hier treffen also eine über Nacht unverminderte „atmosphärische Gegenstrahlung“ und die Sonneneinstrahlung des neuen Tages unvermittelt aufeinander. Die sogenannte „atmosphärische Gegenstrahlung“ und die Sonneneinstrahlung des neuen Tages müssten daher zusammen eine Resonanzkatastrophe (=Selbstverbrennung der Erde) durch einen von Tag zu Tag ungebremst fortlaufenden Temperaturanstieg verursachen.

Schauen wir weiter, in Nr. 178 der „Berichte des Deutschen Wetterdienstes“ wird auf Seite 11, oben links, eine Formel zur Berechnung der Gegenstrahlung als Leistungsfluss „A“ in W/m^2 für die 1989 in der Station Hartheim am Rhein verwendete Messapparatur angegeben:

Die „gemessene“ Gegenstrahlung „A“ wird hier im Wesentlichen als Funktion der gemessenen langwelligen IR-Strahlung und der Instrumententemperatur dargestellt. Ohne die Kenntnis der ursprünglichen Messwerte „U“ und der beiden Eichkonstanten ist es schwer, eine direkt Aussage aus dieser Formel abzuleiten. Also müssen wir uns auf anderem Wege einem Verständnis nähern. Wie Abbildung 1 beweist, ist der gemessene langwellige (IR-) Anteil tagsüber wie auch nachts über 24h vorhanden, die direkte kurzwellige Sonneneinstrahlung ist dagegen nachts nicht wirksam. Wir überführen daher die Gleichung 1 in Gleichung 2 unter der Annahme, dass der Term für die Globalstrahlung bei der Messung der „Gegenstrahlung“ nachts keine Wirkung entfaltet, also:

Wenn wir nun auf die Abbildung 1 zurückgehen und den geringen Unterschied zwischen Tag und Nacht auf die Gegenstrahlung betrachten, dann ergibt sich für eine solche Messung das folgende Bild:

  • Der Einfluss der direkten Sonneneinstrahlung auf die „Gegenstrahlung“ ist bei einem sehr geringen Temperaturgang am wolkenlosen Tag offenbar recht gut kompensiert worden und bei Nacht gar nicht vorhanden.
  • Der Einfluss von langwelliger IR-Strahlung ist Tag und Nacht über die Thermospannung „U“ messbar.
  • Der Term „SIGMA T4“, also der Einfluss der Instrumententemperatur, spiegelt sich dauerhaft Tag und Nacht im Messergebnis wider.

In der DWD-Abbildung 1 fehlt der Temperaturverlauf über die beiden dort dargestellten 24h-Tage. Da aber die Eigentemperatur „T“ des Messinstruments als ein wesentlicher Faktor in der Gleichung 1 erscheint, ergeben sich daraus erhebliche Unterschiede für die „gemessene“ Gegenstrahlung, je nachdem, ob es sich um ein beheiztes, gekühltes oder ein Instrument bei normal variabler Umgebungstemperatur handelt. In Tabelle 1 wurde der Messwert „U/el = A –  T4“ für unterschiedliche Instrumententemperaturen „T“ aus der in Abbildung 1 dargestellten „gemessenen“ Gegenstrahlung „A“ hergeleitet:

Tabelle 1 gilt im Wesentlichen auch für Tagmessungen, soweit die jeweiligen DWD-Messergebnisse korrekt um den Einfluss der Globalstrahlung korrigiert wurden. Die Analyse aus dieser Tabelle ergibt nun eindeutig, dass es sich nicht um ein beheiztes Instrument handeln kann, weil dessen Messfähigkeit zu höheren Temperaturen stark eingeschränkt wäre; denn dieses Gerät kann nur eine Einstrahlung messen, deren S-B-Temperaturäquivalent höher als die eigene Temperatur ist. Selbst ein gekühltes Instrument würde nur eingeschränkt funktionieren und müsste zur Messung einer „Gegenstrahlung“ von 220W/m² unter -23,5°C gekühlt werden. Es wäre zu erwarten gewesen, dass insbesondere der wesentliche Term „U/el“, also die Geräte-Ausgangsspannung mit dem Ergebnis des langwelligen (IR-)Strahlungsanteils, einen primären und eindeutig definierten Beitrag zum Messergebnis liefern würde. Das ist offensichtlich nicht der Fall, denn das Ergebnis der Analyse aus Tabelle 1 legt nahe, dass das Messergebnis für die sogenannte „atmosphärische Gegenstrahlung“ in allen hier aufgezeigten Temperaturbereichen von der Instrumententemperatur (T=-18°C bis +15°C) majorisiert wird. So, und jetzt stellen Sie Sich als „Messinstrument“ einfach mal die Ordowski’sche Glasplatte vor, wo eine ca. 1 m über dem Boden angebrachte Glasplatte über den Tagesverlauf immer die gleiche Temperatur wie die umgebende Luft aufweist und sich nur dann noch weiter erhitzt, wenn sie nahe an den Erdboden abgesenkt wird…

WIDERSPRUCH 3: Wir stehen hier vor dem physikalischen Paradoxon, dass eine Messapparatur, die darauf ausgelegt ist, etwas WÄRMERES zu messen als ihre Eigentemperatur, tatsächlich auch etwas KÄLTERES gemessen haben will. Die Tabelle 1 beweist aber eindeutig, dass dieses Messinstrument nicht in der Lage ist, eine niedrigere Temperatur zu messen als die Instrumententemperatur „T“ selbst, denn solche Werte wären negativ.

Wie kommen wir nun aus dieser Nummer wieder heraus?

Schauen wir also einmal weiter. In Nr. 178 der „Berichte des Deutschen Wetterdienstes“ ist auf Seite 40 eine Isoplethendarstellung der über alle Wetterlagen gemittelten Bestrahlungsstärke der Gegenstrahlung abgebildet. Diese Darstellung bildet die Tageskurven der Gegenstrahlung im Verlauf des Jahres (hier in 10-Tages-Schritten) ab.

Abbildung 2: Isoplethendarstellung der über alle Wetterlagen gemittelten Gegenstrahlung (Quelle: DWD)

Dazu heißt es dort auf Seite 37 letzter Absatz rechts, Zitat: „Obgleich die Anwesenheit von Wolken verstärkend auf die Gegenstrahlung wirkt, kann daraus nicht geschlossen werden, dass bei bewölktem Wetter generell höhere Gegenstrahlungswerte auftreten. Ganz im Gegenteil liegen die absoluten (mittleren) Maxima mit 437 W /m2 Mitte Juli um 14 Uhr im Schönwettertyp und nahezu gleich beim Windtyp. Je stärker die Bewölkung eines Wettertyps wird, desto geringer wird tendenziell dieses Maximum. Lediglich bei Nebel wird diese Regel zugunsten etwas höherer Strahlung gebrochen. Zeitlich ist die Lage des jeweiligen Maximums bei allen Wetterlagen konstant am oben genannten Zeitpunkt, mit Ausnahme des Stratusschichttyps, wo der höchste Wert erst im August um 17 Uhr erreicht wird.“

Halten wir an dieser Stelle fest:

  • Die über alle Wetterlagen gemittelte Bestrahlungsstärke der Gegenstrahlung an der Messstelle Hartheim liegt zwischen MIN= 280W/m² (nachts im Februar) und MAX=400W/m² (nachmittags in den Sommermonaten).
  • Die absoluten (mittleren) Maxima der Gegenstrahlung liegen mit 437 W/m2 Mitte Juli um 14 Uhr im Schönwettertyp und entsprechen einem S-B-Temperatur-Äquivalent von 23,2°C.

Die Messstelle Hartheim besteht heute als forstmeteorologische Meßstelle Hartheim der Albert-Ludwigs-Universität Freiburg fort. Auf der Internetseite meteo.uni-freiburg.de wird  das Jahresmittel der Lufttemperatur (1978 -2018) für diese Messstelle mit 10,6°C angegeben:

Abbildung 3: Bildunterschrift „Die Entwicklung der Jahresmitteltemperatur an der forstmeteorologischen Messstelle Hartheim von 1978 bis 2018 relativ zum 41-jährigen Mittel 1978 – 2018. Rote Jahre waren überdurchschnittlich warm, blaue Jahre kühl.“ (Quelle: Forstmeteorologische Messstelle Hartheim – meteo.uni-freiburg.de)

An dieser Stelle halten wir also fest:

  • Die Jahresmitteltemperatur an der Meßstelle Hartheim von 10,6°C entspricht einem S-B-Strahlungsäquivalent von 368W/m².

ANALYSE: Da hier nur gemittelte Werte zur Verfügung stehen, kann die nachfolgende Analyse nur eine grobe Annäherung an die tatsächlichen Gegebenheiten darstellen. Das S-B-Strahlungsäquivalent von 368W/m² für die Jahresmitteltemperatur von 10,6°C an der Meßstelle Hartheim entspricht der Bestrahlungsstärke der Gegenstrahlung im Sommerhalbjahr am Vormittag und am Abend, also im Anstieg und Abfall des Nachmittagsmaximums in Abbildung 2. Gleichzeitig liegt dieses S-B-Strahlungsäquivalent von 368W/m² ziemlich nahe an dem Mittelwert von 340W/m² zwischen MIN=280W/m² und MAX=400W/m² über den Jahresverlauf der Bestrahlungsstärke der Gegenstrahlung. Damit aber spielt die „gemessene“ Gegenstrahlung vom Betrag her in derselben Liga wie die Sonneneinstrahlung, allerdings anders als diese über den gesamten 24h-Tag. Die übertragene Wärmemenge wäre damit im groben Tagesdurchschnitt pro 24h:

Gegenstrahlung: 340W/m² * 24h = 29.376.000 Joule/m²

Sonneneinstrahlung: 368W/m² * 12h* = 15.897.600 Joule/m²

*) Tentativer Durchschnittswert über das Jahr

WIDERSPRUCH 4: Wir stellen also in grober Näherung fest, dass die Wärmezufuhr durch die sogenannte Gegenstrahlung an der Meßstelle Hartheim den Einfluss der Sonne um nahezu das Doppelte übertreffen soll. Dieses Ergebnis ist insofern eigenartig, als ja nach der vorherrschenden Klimatheorie die sogenannte Gegenstrahlung selbst erst durch die Wärmewirkung der Sonneneinstrahlung erzeugt werden soll.

  • Wir halten an dieser Stelle weiterhin fest, dass die wichtigsten Treibhausgase in der Reihenfolge ihrer Wirksamkeit der Wasserdampf, Kohlendioxid, Ozon, Methan und Distickstoffoxid sind.

Daraus folgt mein finaler Lösungsansatz für das Phänomen „atmosphärische Gegenstrahlung“:

Die sogenannten „Treibhausgase“ sind Gase, und auch noch durchsichtig, ihre Moleküle bewegen sich in großem Abstand voneinander und füllen den verfügbaren Raum gleichmäßig aus. Deren Klimawirkung soll auf der Aufnahme der terrestrischen IR-Abstrahlung beruhen, mit der wiederum die atmosphärische Gegenstrahlung befeuert werden soll. Der wesentliche Unterschied in der Gegenstrahlung an beiden Tagen der DWD-Abbildung 1 liegt aber zwischen einem wolkenlosen und einem bedeckten Himmel, also zwischen dem gasförmigen und dem flüssigen Aggregatzustand von Wasser. Und im flüssigen Aggregatzustand hat Wasser gegenüber gesättigtem Wasserdampf eine doppelt so hohe Wärmekapazität, also eine erhöhte Speicherfähigkeit für Wärme; gegenüber trockener Luft erhöht sich dieses Verhältnis sogar auf einen Faktor von etwa vier. Abbildung 1 beweist also, dass die sogenannten Treibhausgase bei der Bestrahlungsstärke der atmosphärischen „Gegenstrahlung“ bestenfalls eine untergeordnete Rolle spielen. Denn die Zusammensetzung der gut durchmischten gasförmigen Bestandteile der umliegenden Atmosphäre an der Meßstelle Hartheim dürfte sich zwischen den beiden DWD-Tagesgängen „wolkenlos“ und „bedeckt“ bis auf Menge und Aggregatzustand des Wassers nicht wesentlich verändert haben.

WIDERSPRUCH 5: Wenn dort beim DWD also überhaupt etwas gemessen worden sein sollte, dann war es wohl nicht die „atmosphärische Gegenstrahlung“ von IR-aktiven „Klimagasen“, sondern eher der Wärmeinhalt einer Zusammenballung von Wassertröpfchen, die man gemeinhin als „Wolken“ zu bezeichnen pflegt und die der Meßstelle Hartheim durch Advektion und Kondensation offenbar zusätzliche Wärme zugeführt hatten.

Im Ergebnis hat es den Anschein, als dass die an der Meßstelle Hartheim gemessene „Bestrahlungsstärke der Gegenstrahlung“ den jahreszeitlichen Beitrag von Advektion und Kondensation auf die Ortstemperatur spiegeln würde. Im Umkehrschluss dürften also die dort dargestellten Werte sehr viel eher die Temperatur von Messgerät und unmittelbarer Umgebung wiedergeben als einen unabhängigen Wert für die sogenannte Gegenstrahlung.

Wolken treten in meinem hemisphärischen S-B-Modell unter den Stichworten „Advektion“ als „fliegende Wärmflaschen“ auf, aber auch die „Kondensation“ erzeugt Wärme vor Ort, was ein befreundeter Segelflieger folgendermaßen beschrieben hatte, Zitat:

„… nachts ist die Luft oft sehr ruhig. Dadurch ist lokale Wolkenbildung möglich, an den Grenzschichten unterschiedlicher Luftzusammensetzung, die sich nur ungern vermischen. Die Dicke bzw. Dichte dieser Wolken nimmt in der Regel gegen Morgen hin zu, sodass die Masse an ‚Materie‘ zunehmend ist. Dass dem so ist beweisen manchmal auftretende lokale morgendliche Regenfälle, wenn diese Ruhewolken das ‚Wasser nicht mehr halten‘ können. Sobald durch Sonneneinstrahlung etwas Bewegung in die Atmosphäre kommt verschwinden diese Wolken genauso lokal wie sie entstanden sind und man hat die Chance auf einen herrlichen Tag…“

ERGO: Wir haben heute keine Angst mehr, von der „Erdscheibe“ herunterzufallen. Wir glauben heute nicht mehr, die Erde stünde im Mittelpunkt des Universums. Aber wir glauben, die spezifische Strahlungsleistung einer „atmosphärischen Gegenstrahlung“ zu messen und damit ein unzureichendes 2-dimensionales Klimamodell für unsere Erde zu bestätigen. Man könnte also sagen, dass die sogenannte „atmosphärische Gegenstrahlung“ die Rache der Mathematik für eine fehlerhafte physikalische Faktor4-Stefan-Boltzmann-Inversion ist, BEWEIS:

ERGEBNIS: Es gibt im streng „gleichzeitigen“ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer „gleichzeitigen“ S-B-Inversion erlaubt. Physikalisch „gleichzeitig“ bedeutet übrigens auch nicht, dass unterschiedliche „Gleichzeitigkeiten“ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften. Damit ist eine globale Faktor4-Tag=Nacht-THE-Flacherde-Inversion der Solarkonstanten physikalisch nicht statthaft.

Versuchen Sie einfach mal den Gegenbeweis: Wenn Sie die Oberfläche eines Fußballs vollständig* mit einer Taschenlampe beleuchten können, dann wäre der Faktor4-Ansatz bewiesen.

*) Hinweis für die Sophisten unter den geschätzten Kommentatoren: Dieses Beispiel unterstellt Gleichzeitigkeit mit einer einzigen Taschenlampe ohne weitere Hilfsmittel, wie Sie das beispielsweise mit der Sonne als „Taschenlampe“ im Wechsel von Tag und Nacht auf der Erde beobachten können; aber vielleicht versuchen Sie’s einfach mal mit einer Rotationsgeschwindigkeit größer 300.000 km/s…

 




Es sind keine Erwachsenen zugegen

Warum wurden diese riesigen Windmühlen überhaupt gebaut? Weil das globalistische Medien-Narrativ sagte, CO2 sei eine Bedrohung. Es ist keine Bedrohung, es ist ein Lebensgas. Also wurden die Windmühlen von Anfang an auf der Grundlage einer falschen Prämisse gebaut.

Wo sind also die Erwachsenen, die soliden, besonnenen Denker, die das Kapital auf der Grundlage von Bedarf und Effizienz lenken? Vom Winde verweht, basieren unsere Investitionen in die Infrastruktur auf den Lügen einer politischen Klasse, die sich nicht im Geringsten um die Wahrheit oder Effizienz schert.

Milliarden wurden aus öffentlichen Geldern abgezweigt, um diese Einhorn- und Regenbogen-Märchen von einer grünen Wirtschaft zu subventionieren. Was es wirklich war – war Straßenraub durch skrupellose Politiker, die nie einen Wissenschaftskurs besucht haben.

Die Krise in Texas ist also das Ergebnis dieser schlechten Entscheidungen. Verrückten wie AOC oder Al Gore zu erlauben, Entscheidungen zu treffen, ist das, was Chaos schafft. Wahrheit ist das, was sie sagen, und nicht die objektive wissenschaftliche Realität. Jetzt sagen sie, dass die globale Erwärmung den Polarwirbel erzeugt hat und dass Texas ob seines Versuchs, sich abzusondern, bestraft werden muss.

Angesichts des Umstands, dass Ihre Stimme nichts zählt, weil sie die Stimme zählen, dürfte alles nur noch sehr viel schlimmer werden.

Link: https://www.iceagenow.info/there-are-no-adults-in-the-room/

Übersetzt von Chris Frey EIKE

 




Wenn der Eissturm dräut

Am interessantesten und wichtigsten ist die durch den Polarwirbel ausgelöste Energiepolitik und ihre Auswirkungen auf das texanische Stromnetz. In der Tat hat der Stromausfall in Texas sofort eine Explosion von Hype, Konflikten und Debatten ausgelöst, die die Energiepolitik für einige Zeit prägen wird. Die Schlüsselfrage: Was sind die Risiken der erneuerbaren Energien, insbesondere der Windenergie?

In der vergangenen Woche sind die Aktien wichtiger Unternehmen aus dem Bereich der erneuerbaren Energien gefallen, vermutlich ausgelöst durch Berichte, wonach der Zusammenbruch des texanischen Windkraftsektors einer der Hauptfaktoren für den Ausfall des texanischen Stromnetzes war. Zu den bis dato hochfliegenden Windkraftfirmen, die einen Schlag einstecken mussten, gehört NextEra Energy Partners, die in der vergangenen Woche um 10 Prozent nachgaben. Andere erneuerbare Energien in verschiedenen Sektoren (Brookfield Renewable Partners mit einem Minus von sechs Prozent, Renewable Energy Group mit einem Minus von 20 Prozent) schienen Teil eines plötzlichen Abwärtssturms zu sein, der gerade dann einsetzte, als der Sektor einen wahrscheinlich übertriebenen Höhepunkt erreichte.

Ein weiterer Indikator für eine mögliche Wende in der Energiepolitik war das Aufsehen, das der texanische Gouverneur Greg Abbott bzgl. der erneuerbaren Energien erregte. Am 9. Februar, bevor der Eissturm über seinen Bundesstaat hereinbrach, erhielt Abbott eine Auszeichnung, die sein Engagement für die Entwicklung der Windenergie würdigte. „Saubere und erneuerbare Energien sind ein wertvoller Teil von Amerikas Zukunft und eng mit dem Wohlstand und Erfolg von Texas verbunden“, sagte Abbott. „Während Texas weiterhin führend in der Produktion in unserem Öl- und Gassektor ist, ist der Bundesstaat auch national und international führend in der Windenergie.“

Einige Tage später, nachdem sich die Stromausfälle in ganz Texas ausbreiteten, machte Abbott den Zusammenbruch des Stromnetzes und die Stromausfälle dafür verantwortlich, dass die erneuerbare Windenergie des Staates den Sturm nicht überstanden habe. Scharfe Angriffe folgten. Das brachte eine Runde von Gegenangriffen seitens der Medien und grüner Aktivisten mit sich, die halbwegs zutreffend feststellten, dass der Stromausfall in Texas nicht nur ein Produkt des Zusammenbruchs der Windenergie war.

In Wirklichkeit legten die heftigen Stürme und die Kälte andere Stromquellen lahm, obwohl es klar ist, dass die Windenergie fast zusammenbrach, wobei ein Großteil der Last von Erdgas übernommen wurde. Nach Angaben der U.S. Energy Information Administration (EIA) wurde der Großteil des Stroms durch fossile Brennstoffe, Kernkraft und Kohleproduktion erzeugt.

Es scheint klar zu sein, dass das texanische Stromnetz nicht auf eine Welle von eisiger Kälte und steigende Nachfrage von Menschen, die sich warm halten und ihre Haushaltsgeräte betreiben wollten, vorbereitet war.

Der Ausfall der erneuerbaren Windenergie war nicht die einzige Ursache für die Stromausfälle in Texas. Was hat noch dazu beigetragen? Offensichtlich ist eine vollständige Überprüfung der Energiepolitik des Staates erforderlich, um den gesamten politischen, wirtschaftlichen und technologischen Hintergrund zu erfassen, der die Bedingungen für das massive Versagen geschaffen hat. Hier werden die wirklichen Lehren aus dem texanischen Eissturm gezogen und die Zukunft der Energiepolitik gestaltet werden, und das nicht nur in den Vereinigten Staaten.

Die Befürworter der erneuerbaren Energien eilen zur Verteidigung von Wind- und Solarenergie, aber der Fall Texas reiht sich ein in andere Fälle auf der ganzen Welt, die darauf hindeuten, dass der große Ansturm auf den Bau von Wind- und Solarenergie, der durch massive staatliche Subventionen und Preisdiktate angeheizt wird, mit Risiken verbunden ist.

In Deutschland warnte ein McKinsey-Bericht aus dem Jahr 2019 über den Zustand des Stromnetzes: „Deutschland hat jahrzehntelang eine sehr sichere Stromversorgung genossen, aber das Blatt beginnt sich zu wenden. Im Juni dieses Jahres [2019] kam es im deutschen Stromnetz wiederholt zu kritischen Situationen: An drei Tagen wurden erhebliche Engpässe bei der verfügbaren Leistung festgestellt. In der Spitze erreichte die Lücke zwischen Angebot und Nachfrage sechs Gigawatt – das entspricht der Leistung von sechs Großkraftwerken.“

Die deutschen Probleme gehen aber noch tiefer. In einem Kommentar des Magazins Foreign Policy wurde letzte Woche die Frage gestellt, ob Deutschland zu viel subventionierte erneuerbare Energie erzeugt und damit weitere Stromausfälle und Preisverzerrungen riskiert. Der McKinsey-Bericht warnte vor Stromausfällen, anhaltend hohen Preisen und der Notwendigkeit, die Stromimporte zu erhöhen, um die Unstimmigkeiten bei der erneuerbaren Energie auszugleichen.

Das deutsche Problem ist zum Teil das gleiche, mit dem sich Texas konfrontiert sieht. Es beinhaltet die gleichen Risiken, die sich in Großbritannien, Australien und Kanada aufbauen, wo der Druck auf erneuerbare Energien weiter wächst.

[Hervorhebung vom Übersetzer]

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/terence-corcoran-when-the-ice-storm-cometh/

Übersetzt von Chris Frey EIKE

 




„Seltene Erden“ zuerst? Oder zuletzt?

Seltene Erden sind für die Technologien des 21. Jahrhunderts unverzichtbar, darunter Smartphones, Laser, Nachtsichtsysteme, Waffenleitsysteme – und GND-Technologien wie Windturbinen, Solarzellen, Batterien und Elektrofahrzeuge. Der britische Hedgefonds-Veteran James Horrocks bemerkte in einem kürzlich erschienenen Artikel: „Es ist leicht zu erkennen, warum Seltene Erden zu einem Spielball im Handelskrieg zwischen den USA und China geworden sind.“

China beherrscht den Markt

China, so Horrocks, verfügt nur über ein Drittel der weltweiten Reserven an Seltenen Erden, produzierte aber 2017 über 80 Prozent des weltweiten Angebots an Seltenerdmetallen und -verbindungen, und seine Exporte in die Vereinigten Staaten machten in diesem Jahr 78 Prozent der 17.000 Tonnen US-Importe von Seltenen Erden aus. Sogar die in den Vereinigten Staaten von Amerika abgebauten Seltenerdmetalle werden in der Volksrepublik verarbeitet – weil China jetzt die amerikanischen Vorkommen besitzt und wir lieber die billigeren Preise zahlen würden, die mit der Verarbeitung unter Chinas abscheulichen Verschmutzungs-, Lohn- und Arbeitssicherheits-Bedingungen verbunden sind.

Christopher Barnard, Direktor für nationale Politik bei der American Conservation Coalition, ist nur einer von vielen, die zustimmen, dass eine zuverlässige, erschwingliche inländische Versorgung mit Seltenerdmetallen für den Aufbau einer „grünen“ Wirtschaft entscheidend ist. Letzten Monat warnte Barnard, dass „die geopolitischen, wirtschaftlichen und ökologischen Risiken“, die mit der fast vollständigen Abhängigkeit von einer potenziell feindlichen Macht verbunden sind, „nicht länger ignoriert werden können“.

Das chinesische Beinahe-Monopol (es war noch schlimmer, bevor Japan eine neue Lieferkette aufbaute, nachdem China 2010 alle Exporte von Seltenen Erden blockiert hatte) ist größtenteils eine Schöpfung der von Aktivisten betriebenen Anti-Bergbau-Politik in den Vereinigten Staaten. Amerika hat reichlich Seltene-Erden-Vorkommen, aber sie zu fördern ist nicht fotogen. Barnard beklagt, dass das „regulatorische Minenfeld aus labyrinthischen lokalen, staatlichen und bundesstaatlichen Regeln“ die Genehmigungsverfahren zu einem zwei- bis drei Jahrzehnte dauernden Abenteuer der Frustration gemacht hat.

Trump änderte Innenpolitik, um Amerika zu helfen

In den letzten Jahrzehnten hat der Gesetzgeber die Exploration und Entwicklung von Mineralien auf mineralienreichem öffentlichem Land nahezu verboten. Die wenigen einst aktiven Seltene-Erden-Minen sind schon lange stillgelegt, vor allem wegen der hohen Kosten für die Einhaltung der Vorschriften. Mountain Pass, die einzige in den USA betriebene Mine für Seltene Erden, hat aufgrund eines Konkurses im Jahr 2016 zwei Jahre lang seine Produktion eingestellt und schickt ihr abgebautes Erz immer noch zur Verarbeitung nach China.

Um der Abhängigkeit der USA von chinesischen Importen entgegenzuwirken, unterzeichnete Präsident Trump im September 2020 die Executive Order (EO) 13953, die einen nationalen Notstand in der Bergbauindustrie ausrief. Die Anordnung beauftragte das Innenministerium mit der Steigerung der heimischen Produktion von Seltenen Erden, um die Abhängigkeit der USA von China bei diesen Bausteinen für die Technologien des 21. Jahrhunderts zu reduzieren. EO 13953 baute auf seiner EO 13817 vom Dezember 2017 auf, der den Innenminister aufforderte, entscheidende Materialien zu identifizieren und „die Anfälligkeit der Nation für Störungen bei der Versorgung mit kritischen Mineralien“ zu reduzieren, insbesondere bei denen aus China und Russland.

Viele der Empfehlungen in EO 13953 wurden in das Energiegesetz von 2021 aufgenommen, das Teil des Consolidated Appropriations Act ist, der auch die Pandemiehilfe finanziert. Das neue Gesetz verpflichtet das Energieministerium, ein Forschungs- und Entwicklungsprogramm für fortschrittliche Trenntechnologien zur Gewinnung und Rückgewinnung von Seltenen Erden und anderen kritischen Materialien aus Kohle und Kohle-Nebenprodukten durchzuführen. Ein gleichrangiges Ziel ist es, die Auswirkungen dieser Aktivitäten auf die Umwelt und die öffentliche Gesundheit zu minimieren – was für Operationen in den Vereinigten Staaten immer erforderlich ist, jedoch nicht für solche in oder durch China.

Das neue Gesetz erfordert außerdem alle drei Jahre aktualisierte Listen kritischer Mineralien sowie neue Lehrpläne für Hochschulen und Universitäten, um eine starke Belegschaft für kritische Mineralien aufzubauen; inländische, öffentlich zugängliche Ressourcenbewertungen kritischer Mineralien; Analyse- und Prognosewerkzeuge, um Märkte für kritische Mineralien zu bewerten; neue Alternativen zu, Recycling von und effiziente Produktion und Verwendung von kritischen Materialien; und mehr. Schließlich verlangt das Gesetz, dass der Direktor von National Intelligence dem Kongress regelmäßig einen Bericht über chinesische Investitionen in Mineralien vorlegt.

Ausweitung des Bergbaus

Darüber hinaus kündigte das Bureau of Land Management (das ursprüngliche BLM) in Trumps letzten Tagen als Präsident neue Entscheidungen an, die am 15. Januar in Kraft traten und den potenziellen Bergbau auf Bundesland ausweiten, den Bergbau in die Liste der Industrien aufnehmen, die eine beschleunigte Genehmigung erhalten können (was für die Inbetriebnahme neuer Minen für Seltene Erden von entscheidender Bedeutung ist), eine neue Mine in Nevada für Lithium (ein kritisches Element in Batterien für Elektrofahrzeuge) sowie einen Landtausch genehmigen sollen, um die endgültige Genehmigung einer Kupfermine in Arizona zu erleichtern.

Mit diesen letzten Handlungen hat die Trump-Administration den Grundstein dafür gelegt, dass Bidens vermeintlich „auf saubere Energie fokussierte“ neue Regierung eine Chance hat, den Rohstoffbedarf für die Technologien des 21. Jahrhunderts zu decken, hat er doch versprochen, dass diese Technologien die US-Wirtschaft von morgen antreiben werden. Natürlich könnte China seinen Einfluss nutzen, um zu versuchen, alle US-Produzenten zu unterbieten, vor allem, wenn Biden die Zölle aufhebt (oder es versäumt, sie zu verhängen), die darauf abzielen, Chinas unfaire Vorteile durch seine unethischen und schmutzigen Bergbau- und Zwangsarbeitspraktiken zu kompensieren.

Was wird Biden tun?

Werden Biden und der Kongress dies alles untergraben? Anti-Bergbau Demokraten waren schnell, um die Last-Minute-BLM Aktionen zu widersprechen. Repräsentant Paul Grijalva (D-AZ), dessen eigene Herangehensweise an den US-Bergbau als „gut für China, schlecht für Amerika“ bezeichnet wurde, sagte, dass Präsident Obamas FAST-41-Gesetz von 2015, das die Genehmigungen für Versorgungsprojekte erleichterte, „nie dazu gedacht war … den Bergbausektor abzudecken.“

Aber Rich Nolan, Präsident der National Mining Association, lobte den Schritt des BLM und erklärte: „Der amerikanische Bergbau ist der Schlüssel zur erfolgreichen Reparatur der Infrastruktur unserer Nation.“ Zuvor hatte Nolan den Standpunkt seiner Organisation bekräftigt, dass „die Technologien, die für unsere sich erholende Wirtschaft unerlässlich sind, auf einer Grundlage aufgebaut werden, die der Bergbau liefert. Es ist jetzt absolut notwendig, dass eine intelligente Politik diese Notwendigkeit und Chance erkennt.“

Die Biden-Kampagne sagte den US-Bergleuten privat, dass sie die Förderung der heimischen Produktion von Metallen unterstützen würde, die für die Herstellung von Elektrofahrzeugen, Solarpaneelen und anderen Produkten benötigt werden, die für seine Klimapläne entscheidend sind. Aber dies würde eine Abkehr von der Politik Obamas darstellen, die „rigorose Umweltvorschriften beinhaltete, die das Wachstum des US-Bergbausektors verlangsamten.“ Es ist auch ein Widerspruch für die Umweltverbände, die Biden unterstützen und beraten.

Bidens widersprüchliche Klientel

Grüne Gruppen in Arizona, Minnesota und Nevada – zusammen mit einigen indianischen Stämmen – haben begonnen, die Trommeln des Dissens‘ zu schlagen. Zum Beispiel ist Save the Boundary Waters gegen eine Kupfermine von Twin Metals in Minnesota; das Projekt hat bereits eine Bundesgenehmigung, wird aber vor Gericht angefochten. Sprecher Jeremy Drucker beschwerte sich: „Bergbauunternehmen haben EVs und den Klimawandel als Deckmantel benutzt, um ihre eigene Agenda durchzusetzen: Profit.“

Dann ist da noch Bidens Nominierung der Indianerin Deb Haaland aus New Mexico als Leiterin seines Innenministeriums. Indianergruppen haben sich gegen die schnelle Genehmigung der Resolution Copper Mine ausgesprochen, die 40 Jahre lang bis zu einem Viertel des wachsenden US-Kupferbedarfs decken könnte. Amerikanische Ureinwohner sagen, die Mine würde heiliges Land entweihen. Wie werden Haaland und ihr Chef mit diesem heiklen Thema umgehen angesichts ihrer Verbindungen zu Stämmen, die gegen die Mine sind, und der wichtigen Rolle von Kupfer für die GND?

In der Zwischenzeit fährt Biden fort, Kamala Harris als „gewählte Präsidentin“ zu bezeichnen und spricht von einer „Harris-Biden Regierung“. Man fragt sich, wie viel Einfluss die Vizepräsidentin Harris auf die Planung und Politik der Harris-Biden Regierung haben wird, da sie als Gegnerin fast aller neuen inländischen Bergbauaktivitäten bekannt ist. Anders ausgedrückt: Wer wird wirklich für unsere Energie und Wirtschaft verantwortlich sein?

Die ultimative Frage ist, sollte Amerika von China (und Russland) abhängig sein, um die Werkzeuge für die neue Wirtschaft zu liefern? Oder wird die Biden-Harris-Regierung den Ansatz von Trump zum Wiederaufbau der US-Industrie für den Abbau und die Verarbeitung von Seltenen Erden verfolgen, um eine fast totale Abhängigkeit von großen Menschenrechtsverletzern zu vermeiden? Mit anderen Worten, wird Biden-Harris die Zukunft Amerikas im Bereich der „sauberen“ Energie in die Hände von China legen?

Duggan Flanakin (dflanakin@gmail.com) is Director of Policy Research at the Committee For A Constructive Tomorrow (www.CFACT.org).

This earlier version of this article was originally published on Townhall and is used with the permission of its author.

Link: https://heartlanddailynews.com/2021/02/rare-earths-first-or-last/?

Übersetzt von Chris Frey EIKE

 




Der Stromausfall-Sicherheits­plan von Trump, der Texas hätte retten können

Damals wurde der Resilienz-Vorschlag weithin als ein kaum verhülltes Trump-Schema kritisiert, um staatliche Gelder in die Kohle- und Atomindustrie zu pumpen. Doch im Nachhinein betrachtet hätte ein bisschen mehr Ausfallsicherheit Texas vielleicht vor tagelangen schmerzhaften Stromausfällen bewahrt.

Aus dem Jahr 2017:

Rick Perry: Vorschlag es Innenministeriums bzgl. Kohle und Kernkraft wird den „Markt neu ordnen“

Perry bekräftigt seine Argumente, dass der NOPR Amerikaner schützen wird.

Energieminister Rick Perry sagte, dass eine vorgeschlagene Vorschrift zur Subventionierung von Kohle- und Kernkraftwerken „den Markt wieder ins Gleichgewicht bringt“. Damit wollte er die Unterstützung der Obama-Regierung für erneuerbare Energien korrigieren.

Sie „hatten eindeutig ihren Daumen auf der Skala in Richtung der erneuerbaren Seite,“ sagte Perry, der über seine energiepolitischen Prioritäten mit Meet the Press*-Moderator Chuck Todd und dem geschäftsführenden Direktor (CEO) von Axios CEO Jim VandeHei bei einer Veranstaltung in Washington, D.C. am Donnerstag sprach.

[*Meet The Press: Eine wöchentliche Fernsehsendung in den USA, vergleichbar mit „Anne Will“ bei uns. A. d. Übers.]

Der Antrag des DOE an die Federal Energy Regulatory Commission (FERC) würde die jahrzehntelange Energiemarktpolitik auf den Kopf stellen, indem er die Kostendeckung für Kraftwerke mit 90 Tagen Brennstoffvorrat vor Ort garantiert – etwas, das nur Kernkraft, einige wenige Wasserkraftwerke und einige größere Kohlekraftwerke bieten können.

„Wenn Sie mir garantieren können, dass der Wind morgen weht, wenn Sie mir garantieren können, dass die Sonne auf die Solarpaneele scheint … dann kaufe ich das ein. Aber das können Sie nicht“, sagte Perry.

Die Notice of Public Rulemaking (NOPR) impliziert, dass die Netzzuverlässigkeit durch die Stilllegung von Kohle- und Kernkraftwerken bedroht ist. Die Schlussfolgerungen basieren größtenteils auf einer unvollständigen Analyse einer Kältewelle im Jahre 2014, der zu Stromausfällen hätte führen können, wenn mehrere Kohlekraftwerke für die Last nicht hzur Verfügung gestanden hätten, die jetzt stillgelegt werden sollen.

Der Schritt wurde von Befürwortern sauberer Energie als politisch motiviert und faktisch unbewiesen kritisiert und hat eine Gegenreaktion von großen Teilen der Energieindustrie hervorgerufen.

Mehr: https://www.greentechmedia.com/articles/read/rick-perry-doe-coal-nuclear-proposal-is-rebalancing-the-market#gs.Fp8TJMg

Die Bundesaufsichtsbehörden lehnten den Plan ab mit der Begründung, Rick Perry habe nicht genügend Beweise dafür vorgelegt, dass die Stilllegung von Kohle- und Kernkraftwerken die Netzstabilität untergräbt. Der Plan wurde schließlich fallen gelassen, nach heftiger Lobbyarbeit der Gaswerke und von Erneuerbare-Energie-Gruppen.

Nun, da das von Rick Perry vorhergesagte Szenario in Texas tatsächlich eingetreten ist, scheint es ziemlich offensichtlich, dass Rick Perry mit den Risiken recht hatte. Kernkraftwerke und Anlagen für fossile Brennstoffe, die Zugang zu ausreichenden Brennstoffvorräten hatten, blieben meist voll in Betrieb.

Warum ist eigentlich staatliches Eingreifen erforderlich, um die Ausfallsicherheit des Netzes zu gewährleisten?

Die Vorratshaltung von Kraftstoff für mehrere Monate ist ein Kostenfaktor, der nicht zum Unternehmensgewinn beiträgt. Die Kosten für all diese Reservebrennstoffe stellen Geld dar, das stattdessen zur Tilgung von Kapitalschulden oder zur Ausschüttung von Dividenden an die Aktionäre hätte verwendet werden können. Energieversorgungsunternehmen, die diese Art von Kosten tragen, haben einen Wettbewerbsnachteil gegenüber Energieversorgungsunternehmen, die einen schlankeren Betrieb führen, indem sie ihre Reserven auf das absolute Minimum reduzieren. Die Kosten für die Vorratshaltung von Brennstoffreserven wirken sich auf den Marktanteil und das Unternehmenswachstum aus; die Verbraucher wenden sich häufig dem günstigsten Energiedienst zu, ohne die langfristigen Folgen zu bedenken.

Rick Perrys Plan hätte die finanzielle Belastung für das Vorhalten einer Brennstoffreserve vor Ort beseitigt, indem er die Stromversorger für die Kosten der Vorratshaltung umfangreicher Brennstoffreserven entschädigt hätte.

Werden Präsident Biden oder der texanische Gouverneur Greg Abbott angesichts der Tatsache, dass Resilienz-Zahlungen eine praktikable Lösung zu sein scheinen, den Energie-Resilienz-Plan von Trump/Perry aus dem Jahr 2017 umsetzen, um sicherzustellen, dass so etwas wie die Stromausfall-Katastrophe in Texas nie wieder passiert?

[Hervorhebung im Original]

Aktualisierung: Mark Baher erinnert mich daran, dass ich Rick Perrys Plan im Jahr 2017 kritisch gegenüberstand. Damals konzentrierte ich mich auf Perrys Erklärung, er wolle „den Markt wieder ins Gleichgewicht bringen“, gegen die Subventionen für erneuerbare Energien – ich hatte befürchtet, dass Perrys Plan einen Subventionswettlauf auslöst zwischen Befürwortern von erneuerbaren Energien und Befürwortern von fossilen Brennstoffen und Kernkraft. Was mir nicht klar war, war, wie begrenzt die Reserven bei einem Unwetterereignis sein würden. Perry hatte recht, ich hatte unrecht.

Link: https://wattsupwiththat.com/2021/02/20/the-trump-energy-resilience-plan-which-would-have-saved-texas/

Übersetzt von Chris Frey EIKE

 




HadCRUT5 zeigt seit 1850 eine um 14% stärkere globale Erwärmung als HadCRUT4

Dies war nicht genug. Wie die endlos angepassten GISS-, RSS- und NCEI-Datensätze hebt HadCRUT5 den Trend an – und zwar um erschreckende 14%. Die übliche Methode wird angewandt: Man korrigiert die früheren Temperaturen nach unten (wir wissen so viel besser, wie die Temperatur vor anderthalb Jahrhunderten war, als die Inkompetenten, die die Messungen damals durchgeführt hatten) und korrigiert die späteren Temperaturen nach oben, mit dem Effekt, dass der Trend steiler wird und die scheinbare Erwärmung zunimmt.

Natürlich werden ausführliche Begründungen für die Änderungen geliefert. Es liegt jenseits meiner Gehaltsklasse, diese zu bewerten. Es ist jedoch bezeichnend, dass die stark manipulierten GISS-, HadCRUT-, RSS- und NCEI-Datensätze von Klimafanatikern verwaltet werden, während der UAH-Datensatz – der einzige der großen Fünf, der in die andere Richtung gegangen ist – von Klimaskeptikern verwaltet wird.

Ich kenne die beiden Skeptiker, die den UAH-Datensatz aufbewahren. Sie sind ehrenwerte Männer, deren einziges Ziel es ist, so gut sie können, die wahre Rate der globalen Erwärmung zu zeigen. Aber ich traue dem GISS-Datensatz nicht, der wiederholt und verwerflich von seinen Bewahrern manipuliert wurde. Ich traue auch RSS nicht: Als Ted Cruz unser Diagramm zeigte, das die 18 Jahre und 9 Monate der letzten großen Pause in der globalen Temperatur zum sichtbaren Unbehagen der „Demokraten“ im Senat belegte, sagte ich voraus, dass der Verwalter des RSS-Datensatzes, der Skeptiker als „Klimaleugner“ bezeichnet, ihn manipulieren würde, um die Pause verschwinden zu lassen. Ein oder zwei Monate später kündigte er an, dass er genau das tun würde, und genau das tat er dann auch. Was HadCRUT betrifft, lesen Sie einfach die Harry-Read-Me-Datei, um zu sehen, in welch hoffnungslosem Zustand sich das befindet.

Und der NCEI-Datensatz stand viele Jahre lang unter dem Einfluss des unseligen Tom Karl. Ich habe einmal neben ihm im Repräsentantenhaus ausgesagt, wo er versuchte zu behaupten, dass meine Behauptung, dass es fast ein Jahrzehnt der globalen Abkühlung gegeben habe, unbegründet sei – obwohl sein eigener Datensatz (wie auch alle anderen) genau das zeigte.

HadCRUT5 zeigt einen Trend von 1,04 K von 1850-2020, oder drei Fünftel Grad pro Jahrhundert, was einem Anstieg von 14% gegenüber dem Trend von 0,91 K der HadCRUT4-Daten entspricht:

Aus dem HadCRUT5-Trend kann man berechnen, wie viel Erwärmung letztendlich zu erwarten wäre, wenn wir das CO2 in der Luft im Vergleich zu 2020 verdoppeln würden. Man muss auch den anthropogenen Nettoantrieb seit 1850 kennen (2,9 W/m²); das planetarische Energie-Ungleichgewicht, das durch die Verzögerung der Rückkopplung verursacht wird (0,87 W/m²); den verdoppelten CO2-Strahlungsantrieb (3. 52 W/m² als Mittelwert in den CMIP6-Modellen); den anthropogene Anteil der beobachteten Erwärmung (70 %); der exponentielle Wachstumsfaktor, der mehr Wasserdampf in wärmerer Luft erlaubt (7 % pro Grad direkter Erwärmung); und der Planck-Sensitivitäts-Parameter (0,3 K/Wm²).

Alle diese Werte sind recht aktuell, weil alle damit beschäftigt waren, die Daten für die nächste mehrtausendseitige Horrorgeschichte des IPCC auf Vordermann zu bringen, die später in diesem Jahr erscheinen soll. Die Berechnungen sind in der Tabelle zusammengefasst. Die sieben Eingangsparameter habe ich nach drei Kriterien ausgewählt: Sie sollten aktuell sein, im mittleren Bereich liegen und dem Mainstream entsprechen, d.h. aus Quellen stammen, die die Klimafanatiker akzeptieren würden.

Das Industriezeitalter von 1850-2020 ist der Basiszeitraum für die Berechnung der Rückkopplungsreaktion pro Grad Referenzsensitivität über den Zeitraum. Diese stellt sich als 0,065 heraus. Dann findet man die Einheitsrückkopplungsantwort für den 100- bis 150-Jahres-Zeitraum von 2020 (415 ppmv CO2) bis 830 ppmv CO2, indem man die Einheitsrückkopplungsantwort erhöht, um zusätzlichen Wasserdampf in wärmerer Luft zu berücksichtigen.

Schließlich multipliziert man die Referenzsensitivität von 1,053 K bei verdoppeltem CO2 mit dem Systemgewinnfaktor, der die Rückkopplungsreaktion der Einheit plus 1 ist: Die mittlere Gleichgewichtsempfindlichkeit bei verdoppeltem CO2, bekannt als ECS, stellt sich als nur 1,1 K heraus. Wenn man den HadCRUT4-Erwärmungstrend verwenden würde, wäre ECS weniger als 1 K. Ich hatte zuvor vermutet, dass der HadCRUT5-Trend 1,1 K betragen würde, was 1,2 K ECS impliziert.

Man vergleiche diese kleinen und harmlosen Werte im mittleren Bereich mit den offiziellen CMIP6-Vorhersagen: untere Grenze 2 K; mittlere Grenze 3,7 K; obere Grenze 5,7 K; ujtopischer Rand 10 K.

Man kann sich ausrechnen, um wie viel größer die Einheitsrückkopplung nach 2020 im Vergleich zur Einheitsrückkopplung von 1850-2020 wäre, wenn diese absurd überhöhten Vorhersagen der neuesten Modellgeneration richtig wären: untere Grenze 14, mittlere Grenze 19, obere Grenze 67, utopische Grenze 130.

Diese aufschlussreichen Zahlen zeigen, wie wahnsinnig und ungeheuerlich übertrieben die offiziellen Vorhersagen zur globalen Erwärmung sind. Es gibt keine physikalische Grundlage für die Annahme, dass die Einheitsrückkopplung ab 2020 auch nur das 14-fache der Einheitsrückkopplung von 1850-2020 betragen wird. Sie könnte höchstens etwa das 1,1-1,2-fache der früheren Einheitsrückkopplung betragen. Daher ist sogar die von den Modellen vorhergesagte untere Grenze der globalen Erwärmung von 2 K, die X = 14 impliziert, weit übertrieben.

Dies ist der einfachste Weg, um zu zeigen, dass die Vorhersagen der Modelle zur globalen Erwärmung ohne einen Funken Legitimität oder Glaubwürdigkeit sind. Sie sind ausgeklügelte Fiktionen. Sie leiden unter zwei Mängeln: Sie sind grob überzogen und entsprechend schlecht berechnet.

Denn, wie die Grafik zeigt, ist die ECS-Antwort auf Rückkopplungsanteile rechteckig-hyperbolisch. Der in den lächerlichen Vorhersagen der Modelle implizit enthaltene Rückkopplungsanteil (der Anteil des ECS, der durch die Rückkopplungs-Reaktion repräsentiert wird), übersteigt im Allgemeinen 0,5: aber es gibt absolut unmöglich, dass der Rückkopplungsanteil in einem nahezu perfekt thermostatischen Klima auch nur annähernd 0,5 betragen könnte. Als ich diese Grafik zum ersten Mal einer Gruppe von IPCC-Leitautoren zeigte, hörten sie plötzlich mit dem Spott auf, dem sie den größten Teil meines Vortrags unterworfen hatten. Plötzlich verstummte der führende Spötter und sagte dann: „Haben Sie das veröffentlicht?“

Nein, sagte ich, denn zu diesem Zeitpunkt hatte ich noch nicht herausgefunden, was die Klimatologen falsch gemacht hatten. „Nun, Sie müssen veröffentlichen“, sagte er. „Das ändert alles.“

Das tut es auch. Aber die Veröffentlichung wird sehr schwierig werden, nicht weil wir falsch liegen, sondern weil wir richtig liegen. Wenn es nur wenig mehr als 1 K anthropogene Erwärmung im nächsten Jahrhundert oder so geben wird, gibt es absolut keine Notwendigkeit, etwas zu tun, um dies zu verhindern. Die Abwanderung wichtiger Produktionsindustrien nach China, das mächtig von dem Klimabetrug profitiert, der im Westen von den dies subventionierenden katzbuckelnden Frontgruppen verführerisch gefördert wird, kann und sollte rückgängig gemacht werden.

Wir unternehmen Schritte, um die britische Regierung zu zwingen, der Wahrheit Beachtung zu schenken, dass die globale Erwärmung nicht mehr als ein Drittel der gegenwärtigen offiziellen Vorhersagen im mittleren Bereich betragen wird und dass daher kein Netto-Schaden daraus entstehen wird. Man verfolge, wie das jetzt weitergeht..

Link: https://wattsupwiththat.com/2021/02/21/hadcrut5-shows-14-more-global-warming-since-1850-than-hadcrut4/

Übersetzt von Chris Frey EIKE

 




Das schwächste Glied in der Kette zu mehr EV ist der Nachschub an Rohstoffen

Der Druck „grün“ zu werden nimmt zu, verkünden doch mehrere Länder Pläne, Benzin- und Dieselautos aus dem Verkehr zu ziehen. Deutschland wird den Verkauf aller neuen Benzin- und Dieselautos ab 2030 stoppen, Schottland ab 2032, und Frankreich und Großbritannien ab 2040.

Sogar Kalifornien, der derzeitige Spitzenreiter in Amerika mit 50 Prozent der EV’s im Land, ist auf den EV-Zug aufgesprungen. Der in diesem Jahr zur Wiederwahl anstehende demokratische Gouverneur Gavin Newsom hat 2020 eine Executive Order erlassen, die den Verkauf von Benzinfahrzeugen in Kalifornien bis 2035 verbietet.

Eine Tesla-Lithium-Batterie für EVs wiegt über 1000 Pfund. Zwar gibt es Dutzende verschiedener Typen derselben, aber eine solche EV-Batterie enthält normalerweise etwa:

  • 25 Pfund Lithium,

  • 30 Pfund Kobalt,

  • 60 Pfund Nickel,

  • 110 Pfund Graphit,

  • 90 Pfund Kupfer.

Wenn man sich den jeweiligen Gehalt an Erzen im Vorfeld ansieht, kann man die typische Menge Gestein abschätzen, die aus der Erde extrahiert und verarbeitet werden muss, um die reinen Mineralien zu erhalten, die für die Herstellung dieser einen Batterie benötigt werden:

● Lithium-Sole enthält in der Regel weniger als 0,1 % Lithium, was bedeutet, dass etwa 25.000 Pfund Sole benötigt werden, um die 25 Pfund reines Lithium zu erhalten.

● Der durchschnittliche Kobalterzgehalt liegt bei etwa 0,1 %, daher werden fast 30.000 Pfund Erz benötigt, um 30 Pfund Kobalt zu erhalten.

● Nickelerz hat einen durchschnittlichen Gehalt von etwa 1 %, also etwa 6.000 Pfund Erz, um 60 Pfund Nickel zu erhalten.

● Graphiterz hat typischerweise einen Anteil von 10%, also etwa 1.000 Pfund pro Batterie, um 100 Pfund Graphit zu erhalten.

● Kupfer liegt bei etwa 0,6 % im Erz, also etwa 25.000 Pfund Erz pro Batterie, um 90 Pfund Kupfer zu erhalten.

Insgesamt erfordert die Gewinnung dieser fünf Elemente zur Herstellung einer 1.000-Pfund-EV-Batterie also den Abbau von etwa 90.000 Pfund Erz. Um die gesamten Erdbewegungen zu berücksichtigen – was für den gesamten ökologischen Fußabdruck und den Energieverbrauch der Bergbaumaschinen relevant ist – muss man den Abraum abschätzen, bevor an an das Erz gelangt. Abhängig von der Art des Erzes und dem Ort, an dem es abgebaut wird, müssen zwischen 3 und 20 Tonnen Erde abgetragen werden, um an jede Tonne Erz zu gelangen.

Das bedeutet, dass für den Zugang zu etwa 90.000 Pfund Erz zwischen 200.000 und über 1.500.000 Pfund Erde ausgegraben und bewegt werden müssen – ein grober Durchschnitt von mehr als 500.000 Pfund Erz pro Batterie.

Laut dem emeritierten Technologieprofessor der Universität Cambridge Michael Kelly würde der Ersatz aller 32 Millionen Leichtfahrzeuge in Großbritannien durch Elektrofahrzeuge der nächsten Generation riesige Mengen an Material für die Herstellung von 32 Millionen EV-Batterien erfordern:

Über 50 Prozent der weltweiten Jahresproduktion von Kupfer.

200 Prozent der jährlichen Kobaltproduktion.

75 Prozent der jährlichen Lithiumkarbonat-Produktion; und

fast 100 Prozent seiner gesamten Jahresproduktion an Neodym.

Wenn man bedenkt, dass die Welt möglicherweise nicht genug Mineralien und Metalle für die EV-Batterien hat, um die EV-Wachstumsprognosen zu unterstützen, kann man leicht Folgendes erkennen:

Der kombinierte weltweite Autoverkauf im Jahr 2019 lag bei mehr als 65 Millionen Fahrzeugen pro Jahr.

Es gibt 1,2 Milliarden Fahrzeuge auf den Straßen der Welt mit Prognosen von 2 Milliarden bis 2035.

Heute sind weniger als 8 Millionen E-Fahrzeuge auf den Straßen der Welt unterwegs. Wenn die EV-Prognosen bis zum Jahr 2035 Realität werden, würden 5 bis 7 Prozent der 2 Milliarden Fahrzeuge 125 Millionen EVs auf den Straßen der Welt bedeuten, und diese Zahl könnte sich sogar verdoppeln, wenn die Regierungen das Tempo der Gesetzesänderungen erhöhen. Wenn man sich jedoch die britische Studie über die benötigten Materialien für nur 32 Millionen EV-Batterien ansieht, könnte es sein, dass es auf der ganzen Welt nicht genug Materialien gibt, um die EV-Umstellungspläne zu erfüllen.

Eine weitere schlechte Nachricht ist, dass eine einstellige Marktdurchdringung der weltweit prognostizierten 2 Milliarden Fahrzeuge auch mehr als 125 MILLIARDEN Pfund an Lithium-Ionen-Batterien bedeuten würde, allein von diesen 125 Millionen EV’s, die in den kommenden Jahrzehnten entsorgt werden müssen.

Null- und schadstoffarme Fahrzeuge gehören in der Regel Leuten mit höherer Bildung und höherem Einkommen: über 70 Prozent der EV-Besitzer haben einen vierjährigen College- oder Postgraduiertenabschluss. Dies erklärt wahrscheinlich, warum das durchschnittliche Haushaltseinkommen von EV-Käufern über 200.000 Dollar liegt. Wenn Sie nicht zu den höher Gebildeten und Einkommensstarken gehören und ein Hausbesitzer oder Bewohner einer NEUEN Wohnung sind, die über einen Ladeanschluss verfügt, haben Sie vielleicht keine Lust auf ein EV.

Eine aktuelle Studie aus dem Jahr 2021 aus Kalifornien zeigt, dass E-Fahrzeuge nur halb so oft gefahren werden wie Fahrzeuge mit Verbrennungsmotor, was noch einmal verdeutlicht, dass E-Fahrzeuge in der Regel als Zweitfahrzeuge und nicht als primäres Arbeitsfahrzeug für die wenigen Eliten, die es sich leisten können, eingesetzt werden.

Um auf die Pläne zurückzukommen, ein großes Haus zu bauen, für dessen Fertigstellung nicht genügend Materialien zur Verfügung stehen, sollten wir vielleicht von der britischen Studie über den Materialbedarf von nur 32 Millionen EV-Batterien (weniger als 7 Prozent von 2 Milliarden Fahrzeugen im Jahr 2035) lernen und uns das Ziel setzen, eine EV-Population zu erreichen, die das weltweite Angebot an Mineralien und Metallen unterstützen kann.

Autor: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics

Link: https://www.cfact.org/2021/02/15/weakest-link-to-ev-growth-is-the-material-supply-chain/

Übersetzt von Chris Frey EIKE