1

Neues Buch: Bill Gates will jetzt auch das Klima retten

„Wie wir die Klimakatastrophe verhindern“ heißt die derzeit heiß diskutierte Publikation von Bill Gates, mit der der Computer- und Medienstar durch die Talkshows zieht.

Eigentlich war der Technikgigant eher als Kritiker der Klimaszene bekannt, was zum Beispiel Maischberger in ihrer 45minütigen Interview klar anspricht. Der wendige Gates diskutiert das aber schnell weg und bekräftigt, daß er sich nun auch der Rettung der Welt vor der Klimakatastrophe widmen will. Warum gerade er, bleibt offen, weil der Mann nur für Betriebssysteme, besser: die clevere Vermarktung von umstrittenen Betriebssystemen bekannt ist.

Aber wie es halt so ist: Wird jemand reich und berühmt, fühlt er sich bemüßigt, sich von der „banalen“ Basis seines Erfolges zu emanzipieren und quasi-religiös das Schicksal der Menschen mitzubestimmen. Der bekannte Psychologe Abraham Maslow nannte dieses Phänomen „Bedürfnishierarchie“ oder „Motivationspyramide“. Da Gates übrigens keineswegs ein amerikanischer Aufsteiger nach dem Modell Tellerwäscher-Millionär ist, sondern wie Donald Trump mit dem goldenen Löffel im Mund geboren wurde, strebt er mit seiner Bill/Melinda-Gates-Stiftung nach ganz vorn in die Geschichtsbücher. Dafür bieten sich die gerade promovierten Themen wie „Pandemie“ und „Klimakollaps“ besonders an; unabhängig davon, ob die Narrative überhaupt stimmen.

Immerhin beweist Gates noch einen Rest Eigenständigkeit, in dem er klipp und klar sagt, daß es ohne moderne Kernkraftwerke nicht gehe. Auf Maischbergers ARD-typisch grünen Einwand, daß die Meiler doch gefährlich seien und jede Menge Strahlenmüll verursachten, meint er erstaunlich gelassen, daß es ja neue Konzepte gäbe, die viel sicherer seien und man eben Problem gegen Problem abwägen müsse. Und die „Klimakatastrophe“ müsse angegangen werden, eben auch mit problematischen Methoden wie Kernkraft.

Als Klimakritiker ist man daher geneigt, den Aktivismus des Bill Gates zu unterstützen, weil er, sofern erfolgreich, uns wenigstens die Energiesicherheit im Land erhielte. Nicht, daß die Massenmedien oder Klimapolitiker etwas darauf geben würden, was der unbeliebte Windows-Kapitalist für richtig hält. Gates hat mit seiner Stiftung aber die weltgrößte private Nichtregierungs-Organisation NGO aufgebaut, die über rund 46 Milliarden (!) Dollar Einlagen verfügt, deutlich mehr als die Unternehmungen des Milliardärs György/George Soros mit seiner Open Society.

Da es bei den Öko-NGOs, wie dieses Beispiel zeigt, bestenfalls ganz am Anfang um Moral und Natur, sonst aber nur um Lobbyismus für Interessengruppen geht, sind die 46 Milliarden allerdings eine Hausnummer, an der keiner so leicht vorbeikommt. ARD/ZDF-Journalisten mögen in ihrer weltanschaulichen Filterblase gefangen sein; aber dahinter steht, bewußt oder unbewußt, stets das Eigeninteresse. Denn das privilegierte Juste Milieu will entgegen der eigenen Bekundungen natürlich keineswegs auf schöne Fernreisen, bequeme Autos, windradlose Aussichten, nicht Styropor-verschandelte Altbauvillen und exotisches Essen verzichten. Und das bekommt man dadurch, daß man das sagt, was Finanzierer hören wollen.

Was steht außer der KKW-Befürwortung noch in Gatesens Buch? Angeblich untersuche er schon seit zehn Jahren mit Unterstützung zu Rate gezogener (bezahlter?) Experten wie Naturwissenschaftlern, Politologen (!) und Finanzexperten (!) den Klimawandel. Als Fazit seiner Recherche habe sich ergeben, daß die Menschheit eine „Netto-Null“-CO2-Emission erreichen müsse. Dabei ist dem Informatiker durchaus klar, daß man Stahl und Beton nicht ohne Emissionen produzieren kann; man müsse aber ausgleichen. Wie das gehen soll, wird mit einem konkreten Plan erklärt, der, grob gesagt, auf Erhöhung der technischen Effektivität und Erfindungen beruht. Also nichts Neues unter der Sonne; aber deutlich bürgerfreundlicher als die Mittelalter-verliebte Technikfeindlichkeit europäischer bzw. D/A/CH- Klimaaktivisten, die auch noch den Unterricht schwänzen und sowieso meist nichts Technisches studier(t)en.

Innovationen und Effizienz sind grundsätzlich zu begrüßen, weil sie als logische Folge von Aufklärung, Wissenschaft, Demokratie und Kapitalismus die heutige Zivilisation Europas überhaupt erst möglich machten. Problematisch ist natürlich, wenn die Erfindungen und Verbesserungen, die ja eine Menge Geld kosten, nur noch auf dem ideologischen Gebiet des „Klimaschutzes“ gemacht werden. Was nutzt ein Linienflugzeug, das mit sicherem Brutreaktor fliegt und kein CO2 ausstößt, aber thermodynamisch ineffizient und daher superteuer ist?

Das hat uns die Aufstiegsgeschichte Europas gelehrt: Geniale Erfindungen wie die Dampfmaschine von Denis Papin müssen nicht nur ihren Wirkungsgrad erhöhen, um überhaupt praktikabel zu sein; nein, sie müssen verbessert werden, um überhaupt bezahlbar zu werden. Bis 1914 zum Beispiel profitierte Deutschland von der eigenen Erfindung des Automobils überhaupt nicht, weil die wenigen im Lande fahrenden Karossen händig zusammengeschraubte Spielzeuge für Kaiser, Adel und Reiche waren. Die amerikanischen Kollegen in Detroit gingen die Sache viel intelligenter an und produzierten unsere Erfindung in Massen und billig, so daß Ford-Autos zur Wirtschaft und zur Lebensqualität der USA gewaltig beitrugen.

An die Tradition Henry Fords knüpft Bill Gates aber nicht an, wenn er Innovationen im Sinne der Verhinderung einer nicht vorhandenen Katastrophe fordert und fördert. Man sieht: Die USA haben ihre einstigen einzigartigen Umsetzungs-Fähigkeitren verloren und unterwerfen sich wie wir Europäer den irrealen Narrativen von Lobbygruppen.




Anmerkungen zum Gegen­strahlungs-Paradoxon aus einem hemisphä­rischen Blick­winkel

Einen Abgleich meines hemisphärischen S-B-Modells mit allen wesentlichen THE-Thesen hatte ich hier auf EIKE bereits als Trilogie (Darstellung, Diskussion, Ergebnis) vorgelegt. Allerdings soll dieser THE nach „neuesten Erkenntnissen“ jetzt nur noch (32°) betragen, und damit gibt es dann wiederum mehr Spielraum für den Klimaeinfluss des Menschen oberhalb von (14°C). Andererseits ist es völlig unmöglich zu beweisen, dass es irgendein Phantasieprodukt gar nicht gibt, eben weil dieses Etwas gar nicht existiert. Dazu ein Beispiel aus einer Reportage von RSH (Radio Schleswig-Holstein), gesendet am 23. Dezember 2011: Auf einem Weihnachtsmarkt wurden Besucher gefragt, ob sie denn beweisen könnten, dass es den Weihnachtsmann gar nicht gibt. Natürlich konnte keiner der Befragten einen schlüssigen Beweis erbringen. Nähern wir uns mit diesem Wissen jetzt einmal dieser sogenannten „atmosphärischen Gegenstrahlung“, die sich angeblich folgendermaßen herleitet:

1. Hochfrequente (HF) Sonneneinstrahlung (@PIR²) => Erwärmung von Materie auf der Tagseite der Erde (2PIR²)

=> 2.Erwärmte Materie strahlt über die gesamte Erdoberfläche (4PIR²) Infrarot(IR)-Strahlung ab

=> 3. Diese IR-Strahlung animiert sogenannte „Klimagase“ zu einer IR-„Gegenstrahlung“ (@4PIR²)

=> 4. Diese IR-„Gegenstrahlung“ soll wiederum vorgeblich die Erdoberfläche (@4PIR²) erwärmen beziehungsweise deren „Abkühlung verlangsamen“ =>

Jetzt wird’s schwierig, denn nun geht es gleichzeitig mit 1. (@2PIR²) und 2. (@4PIR²) weiter.

WIDERSPRUCH 1: Die Erde soll sich durch die Rückstrahlung ihrer eigenen Abstrahlung (= Gegenstrahlung) noch weiter erwärmen; eine solche „Selbstaufheizung“ widerspricht aber dem 2. HS der Thermodynamik. Denn wenn ein solcher Vorgang funktionieren würde, könnten Sie Ihren Kaminofen zum Glühen bringen, indem Sie ein paar Kästen Mineralwasser davorstellen…

Und jetzt schauen wir uns nachfolgend einmal beim Deutschen Wetterdienst (DWD) die vorgeblich gemessene atmosphärische Gegenstrahlung an:

Abbildung 1: Originalbeschreibung, „Globale (rot), direkte (magenta) und diffuse (gelb) Sonnenstrahlung sowie langwellige Gegenstrahlung der Atmosphäre (blau) an einem wolkenlosen (links) und an einem bedeckten (rechts) Oktobertag in Lindenberg“ (Quelle: DWD Deutscher Wetterdienst)

Wir gehen jetzt einfach einmal davon aus, dass die beiden Beispiele einigermaßen vergleichbare Situationen darstellen. Daher halten wir an dieser Stelle fest:

  • An einem wolkenlosen Oktobertag schwankt die vom DWD gemessene Gegenstrahlung zwischen 0:00 und 24:00 Uhr von ca. 220 bis 250 W/m².
  • An einem bedeckten Oktobertag schwankt die vom DWD gemessene Gegenstrahlung zwischen 0:00 und 24:00 Uhr von ca. 330 bis 350 W/m².
  • Es gibt nur bei wolkenlosem Himmel eine schwache optische Korrelation zwischen einem tentativen tageszeitlichen Temperaturverlauf und der sogenannten „Gegenstrahlung“, aber eine Differenz von etwa 100W/m² zugunsten einer Wolkenbedeckung.
  • Die Unterschiede in der absoluten Bestrahlungsstärke der sogenannten „Gegenstrahlung“ liegen also weniger im Ablauf von Tag und Nacht, als vielmehr im Bedeckungsgrad.

WIDERSPRUCH 2: Hier treffen also eine über Nacht unverminderte „atmosphärische Gegenstrahlung“ und die Sonneneinstrahlung des neuen Tages unvermittelt aufeinander. Die sogenannte „atmosphärische Gegenstrahlung“ und die Sonneneinstrahlung des neuen Tages müssten daher zusammen eine Resonanzkatastrophe (=Selbstverbrennung der Erde) durch einen von Tag zu Tag ungebremst fortlaufenden Temperaturanstieg verursachen.

Schauen wir weiter, in Nr. 178 der „Berichte des Deutschen Wetterdienstes“ wird auf Seite 11, oben links, eine Formel zur Berechnung der Gegenstrahlung als Leistungsfluss „A“ in W/m^2 für die 1989 in der Station Hartheim am Rhein verwendete Messapparatur angegeben:

Die „gemessene“ Gegenstrahlung „A“ wird hier im Wesentlichen als Funktion der gemessenen langwelligen IR-Strahlung und der Instrumententemperatur dargestellt. Ohne die Kenntnis der ursprünglichen Messwerte „U“ und der beiden Eichkonstanten ist es schwer, eine direkt Aussage aus dieser Formel abzuleiten. Also müssen wir uns auf anderem Wege einem Verständnis nähern. Wie Abbildung 1 beweist, ist der gemessene langwellige (IR-) Anteil tagsüber wie auch nachts über 24h vorhanden, die direkte kurzwellige Sonneneinstrahlung ist dagegen nachts nicht wirksam. Wir überführen daher die Gleichung 1 in Gleichung 2 unter der Annahme, dass der Term für die Globalstrahlung bei der Messung der „Gegenstrahlung“ nachts keine Wirkung entfaltet, also:

Wenn wir nun auf die Abbildung 1 zurückgehen und den geringen Unterschied zwischen Tag und Nacht auf die Gegenstrahlung betrachten, dann ergibt sich für eine solche Messung das folgende Bild:

  • Der Einfluss der direkten Sonneneinstrahlung auf die „Gegenstrahlung“ ist bei einem sehr geringen Temperaturgang am wolkenlosen Tag offenbar recht gut kompensiert worden und bei Nacht gar nicht vorhanden.
  • Der Einfluss von langwelliger IR-Strahlung ist Tag und Nacht über die Thermospannung „U“ messbar.
  • Der Term „SIGMA T4“, also der Einfluss der Instrumententemperatur, spiegelt sich dauerhaft Tag und Nacht im Messergebnis wider.

In der DWD-Abbildung 1 fehlt der Temperaturverlauf über die beiden dort dargestellten 24h-Tage. Da aber die Eigentemperatur „T“ des Messinstruments als ein wesentlicher Faktor in der Gleichung 1 erscheint, ergeben sich daraus erhebliche Unterschiede für die „gemessene“ Gegenstrahlung, je nachdem, ob es sich um ein beheiztes, gekühltes oder ein Instrument bei normal variabler Umgebungstemperatur handelt. In Tabelle 1 wurde der Messwert „U/el = A –  T4“ für unterschiedliche Instrumententemperaturen „T“ aus der in Abbildung 1 dargestellten „gemessenen“ Gegenstrahlung „A“ hergeleitet:

Tabelle 1 gilt im Wesentlichen auch für Tagmessungen, soweit die jeweiligen DWD-Messergebnisse korrekt um den Einfluss der Globalstrahlung korrigiert wurden. Die Analyse aus dieser Tabelle ergibt nun eindeutig, dass es sich nicht um ein beheiztes Instrument handeln kann, weil dessen Messfähigkeit zu höheren Temperaturen stark eingeschränkt wäre; denn dieses Gerät kann nur eine Einstrahlung messen, deren S-B-Temperaturäquivalent höher als die eigene Temperatur ist. Selbst ein gekühltes Instrument würde nur eingeschränkt funktionieren und müsste zur Messung einer „Gegenstrahlung“ von 220W/m² unter -23,5°C gekühlt werden. Es wäre zu erwarten gewesen, dass insbesondere der wesentliche Term „U/el“, also die Geräte-Ausgangsspannung mit dem Ergebnis des langwelligen (IR-)Strahlungsanteils, einen primären und eindeutig definierten Beitrag zum Messergebnis liefern würde. Das ist offensichtlich nicht der Fall, denn das Ergebnis der Analyse aus Tabelle 1 legt nahe, dass das Messergebnis für die sogenannte „atmosphärische Gegenstrahlung“ in allen hier aufgezeigten Temperaturbereichen von der Instrumententemperatur (T=-18°C bis +15°C) majorisiert wird. So, und jetzt stellen Sie Sich als „Messinstrument“ einfach mal die Ordowski’sche Glasplatte vor, wo eine ca. 1 m über dem Boden angebrachte Glasplatte über den Tagesverlauf immer die gleiche Temperatur wie die umgebende Luft aufweist und sich nur dann noch weiter erhitzt, wenn sie nahe an den Erdboden abgesenkt wird…

WIDERSPRUCH 3: Wir stehen hier vor dem physikalischen Paradoxon, dass eine Messapparatur, die darauf ausgelegt ist, etwas WÄRMERES zu messen als ihre Eigentemperatur, tatsächlich auch etwas KÄLTERES gemessen haben will. Die Tabelle 1 beweist aber eindeutig, dass dieses Messinstrument nicht in der Lage ist, eine niedrigere Temperatur zu messen als die Instrumententemperatur „T“ selbst, denn solche Werte wären negativ.

Wie kommen wir nun aus dieser Nummer wieder heraus?

Schauen wir also einmal weiter. In Nr. 178 der „Berichte des Deutschen Wetterdienstes“ ist auf Seite 40 eine Isoplethendarstellung der über alle Wetterlagen gemittelten Bestrahlungsstärke der Gegenstrahlung abgebildet. Diese Darstellung bildet die Tageskurven der Gegenstrahlung im Verlauf des Jahres (hier in 10-Tages-Schritten) ab.

Abbildung 2: Isoplethendarstellung der über alle Wetterlagen gemittelten Gegenstrahlung (Quelle: DWD)

Dazu heißt es dort auf Seite 37 letzter Absatz rechts, Zitat: „Obgleich die Anwesenheit von Wolken verstärkend auf die Gegenstrahlung wirkt, kann daraus nicht geschlossen werden, dass bei bewölktem Wetter generell höhere Gegenstrahlungswerte auftreten. Ganz im Gegenteil liegen die absoluten (mittleren) Maxima mit 437 W /m2 Mitte Juli um 14 Uhr im Schönwettertyp und nahezu gleich beim Windtyp. Je stärker die Bewölkung eines Wettertyps wird, desto geringer wird tendenziell dieses Maximum. Lediglich bei Nebel wird diese Regel zugunsten etwas höherer Strahlung gebrochen. Zeitlich ist die Lage des jeweiligen Maximums bei allen Wetterlagen konstant am oben genannten Zeitpunkt, mit Ausnahme des Stratusschichttyps, wo der höchste Wert erst im August um 17 Uhr erreicht wird.“

Halten wir an dieser Stelle fest:

  • Die über alle Wetterlagen gemittelte Bestrahlungsstärke der Gegenstrahlung an der Messstelle Hartheim liegt zwischen MIN= 280W/m² (nachts im Februar) und MAX=400W/m² (nachmittags in den Sommermonaten).
  • Die absoluten (mittleren) Maxima der Gegenstrahlung liegen mit 437 W/m2 Mitte Juli um 14 Uhr im Schönwettertyp und entsprechen einem S-B-Temperatur-Äquivalent von 23,2°C.

Die Messstelle Hartheim besteht heute als forstmeteorologische Meßstelle Hartheim der Albert-Ludwigs-Universität Freiburg fort. Auf der Internetseite meteo.uni-freiburg.de wird  das Jahresmittel der Lufttemperatur (1978 -2018) für diese Messstelle mit 10,6°C angegeben:

Abbildung 3: Bildunterschrift „Die Entwicklung der Jahresmitteltemperatur an der forstmeteorologischen Messstelle Hartheim von 1978 bis 2018 relativ zum 41-jährigen Mittel 1978 – 2018. Rote Jahre waren überdurchschnittlich warm, blaue Jahre kühl.“ (Quelle: Forstmeteorologische Messstelle Hartheim – meteo.uni-freiburg.de)

An dieser Stelle halten wir also fest:

  • Die Jahresmitteltemperatur an der Meßstelle Hartheim von 10,6°C entspricht einem S-B-Strahlungsäquivalent von 368W/m².

ANALYSE: Da hier nur gemittelte Werte zur Verfügung stehen, kann die nachfolgende Analyse nur eine grobe Annäherung an die tatsächlichen Gegebenheiten darstellen. Das S-B-Strahlungsäquivalent von 368W/m² für die Jahresmitteltemperatur von 10,6°C an der Meßstelle Hartheim entspricht der Bestrahlungsstärke der Gegenstrahlung im Sommerhalbjahr am Vormittag und am Abend, also im Anstieg und Abfall des Nachmittagsmaximums in Abbildung 2. Gleichzeitig liegt dieses S-B-Strahlungsäquivalent von 368W/m² ziemlich nahe an dem Mittelwert von 340W/m² zwischen MIN=280W/m² und MAX=400W/m² über den Jahresverlauf der Bestrahlungsstärke der Gegenstrahlung. Damit aber spielt die „gemessene“ Gegenstrahlung vom Betrag her in derselben Liga wie die Sonneneinstrahlung, allerdings anders als diese über den gesamten 24h-Tag. Die übertragene Wärmemenge wäre damit im groben Tagesdurchschnitt pro 24h:

Gegenstrahlung: 340W/m² * 24h = 29.376.000 Joule/m²

Sonneneinstrahlung: 368W/m² * 12h* = 15.897.600 Joule/m²

*) Tentativer Durchschnittswert über das Jahr

WIDERSPRUCH 4: Wir stellen also in grober Näherung fest, dass die Wärmezufuhr durch die sogenannte Gegenstrahlung an der Meßstelle Hartheim den Einfluss der Sonne um nahezu das Doppelte übertreffen soll. Dieses Ergebnis ist insofern eigenartig, als ja nach der vorherrschenden Klimatheorie die sogenannte Gegenstrahlung selbst erst durch die Wärmewirkung der Sonneneinstrahlung erzeugt werden soll.

  • Wir halten an dieser Stelle weiterhin fest, dass die wichtigsten Treibhausgase in der Reihenfolge ihrer Wirksamkeit der Wasserdampf, Kohlendioxid, Ozon, Methan und Distickstoffoxid sind.

Daraus folgt mein finaler Lösungsansatz für das Phänomen „atmosphärische Gegenstrahlung“:

Die sogenannten „Treibhausgase“ sind Gase, und auch noch durchsichtig, ihre Moleküle bewegen sich in großem Abstand voneinander und füllen den verfügbaren Raum gleichmäßig aus. Deren Klimawirkung soll auf der Aufnahme der terrestrischen IR-Abstrahlung beruhen, mit der wiederum die atmosphärische Gegenstrahlung befeuert werden soll. Der wesentliche Unterschied in der Gegenstrahlung an beiden Tagen der DWD-Abbildung 1 liegt aber zwischen einem wolkenlosen und einem bedeckten Himmel, also zwischen dem gasförmigen und dem flüssigen Aggregatzustand von Wasser. Und im flüssigen Aggregatzustand hat Wasser gegenüber gesättigtem Wasserdampf eine doppelt so hohe Wärmekapazität, also eine erhöhte Speicherfähigkeit für Wärme; gegenüber trockener Luft erhöht sich dieses Verhältnis sogar auf einen Faktor von etwa vier. Abbildung 1 beweist also, dass die sogenannten Treibhausgase bei der Bestrahlungsstärke der atmosphärischen „Gegenstrahlung“ bestenfalls eine untergeordnete Rolle spielen. Denn die Zusammensetzung der gut durchmischten gasförmigen Bestandteile der umliegenden Atmosphäre an der Meßstelle Hartheim dürfte sich zwischen den beiden DWD-Tagesgängen „wolkenlos“ und „bedeckt“ bis auf Menge und Aggregatzustand des Wassers nicht wesentlich verändert haben.

WIDERSPRUCH 5: Wenn dort beim DWD also überhaupt etwas gemessen worden sein sollte, dann war es wohl nicht die „atmosphärische Gegenstrahlung“ von IR-aktiven „Klimagasen“, sondern eher der Wärmeinhalt einer Zusammenballung von Wassertröpfchen, die man gemeinhin als „Wolken“ zu bezeichnen pflegt und die der Meßstelle Hartheim durch Advektion und Kondensation offenbar zusätzliche Wärme zugeführt hatten.

Im Ergebnis hat es den Anschein, als dass die an der Meßstelle Hartheim gemessene „Bestrahlungsstärke der Gegenstrahlung“ den jahreszeitlichen Beitrag von Advektion und Kondensation auf die Ortstemperatur spiegeln würde. Im Umkehrschluss dürften also die dort dargestellten Werte sehr viel eher die Temperatur von Messgerät und unmittelbarer Umgebung wiedergeben als einen unabhängigen Wert für die sogenannte Gegenstrahlung.

Wolken treten in meinem hemisphärischen S-B-Modell unter den Stichworten „Advektion“ als „fliegende Wärmflaschen“ auf, aber auch die „Kondensation“ erzeugt Wärme vor Ort, was ein befreundeter Segelflieger folgendermaßen beschrieben hatte, Zitat:

„… nachts ist die Luft oft sehr ruhig. Dadurch ist lokale Wolkenbildung möglich, an den Grenzschichten unterschiedlicher Luftzusammensetzung, die sich nur ungern vermischen. Die Dicke bzw. Dichte dieser Wolken nimmt in der Regel gegen Morgen hin zu, sodass die Masse an ‚Materie‘ zunehmend ist. Dass dem so ist beweisen manchmal auftretende lokale morgendliche Regenfälle, wenn diese Ruhewolken das ‚Wasser nicht mehr halten‘ können. Sobald durch Sonneneinstrahlung etwas Bewegung in die Atmosphäre kommt verschwinden diese Wolken genauso lokal wie sie entstanden sind und man hat die Chance auf einen herrlichen Tag…“

ERGO: Wir haben heute keine Angst mehr, von der „Erdscheibe“ herunterzufallen. Wir glauben heute nicht mehr, die Erde stünde im Mittelpunkt des Universums. Aber wir glauben, die spezifische Strahlungsleistung einer „atmosphärischen Gegenstrahlung“ zu messen und damit ein unzureichendes 2-dimensionales Klimamodell für unsere Erde zu bestätigen. Man könnte also sagen, dass die sogenannte „atmosphärische Gegenstrahlung“ die Rache der Mathematik für eine fehlerhafte physikalische Faktor4-Stefan-Boltzmann-Inversion ist, BEWEIS:

ERGEBNIS: Es gibt im streng „gleichzeitigen“ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer „gleichzeitigen“ S-B-Inversion erlaubt. Physikalisch „gleichzeitig“ bedeutet übrigens auch nicht, dass unterschiedliche „Gleichzeitigkeiten“ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften. Damit ist eine globale Faktor4-Tag=Nacht-THE-Flacherde-Inversion der Solarkonstanten physikalisch nicht statthaft.

Versuchen Sie einfach mal den Gegenbeweis: Wenn Sie die Oberfläche eines Fußballs vollständig* mit einer Taschenlampe beleuchten können, dann wäre der Faktor4-Ansatz bewiesen.

*) Hinweis für die Sophisten unter den geschätzten Kommentatoren: Dieses Beispiel unterstellt Gleichzeitigkeit mit einer einzigen Taschenlampe ohne weitere Hilfsmittel, wie Sie das beispielsweise mit der Sonne als „Taschenlampe“ im Wechsel von Tag und Nacht auf der Erde beobachten können; aber vielleicht versuchen Sie’s einfach mal mit einer Rotationsgeschwindigkeit größer 300.000 km/s…

 




Fukushima-Gedenken gekippt – echte Experten passen nicht in die Atomangst-Gedenkstunde

Wie jedes Jahr, so sollte auch diesmal der „Opfer der Reaktorhavarie“ von Fukushima gedacht werden. Dazu wollte der Ausschuss für Umwelt und nukleare Sicherheit des Deutschen Bundestages im Format eines Öffentlichen Fachgesprächs diverse Fachleute zu Wort kommen lassen.

Das Problem: Es gibt bisher kein einziges Opfer der Reaktorhavarie, und unter „Fachleuten“ versteht die Ausschussvorsitzende Sylvia Kotting-Uhl (Bündnis 90/Grüne) offenbar eher so etwas wie Greenpeace-Aktivisten. Denn eine solche – aus Japan – sollte eingeladen werden. Die AfD wollte auch hier die vielbeschworene Vielfalt herstellen, auch der Freiheit der Wissenschaft öffentlichen Wirkraum geben und damit den Bundestag beim Wort nehmen, der in der aktuellen Stunde vom 18.2.21 genau diese – entgegen der Realität- gerade beschworen hatte und schlug dem Ausschuss eine echte Wissenschaftlerin vor. Es war eine Krebs- und Mikropathologin des renommierten Imperial College London. Sie lehrt dort als ausgewiesene Expertin für gesundheitliche Strahlenwirkungen.

Das durfte natürlich nicht sein. Wenn schon „Wissenschaftler“, dann ausschließlich solche, die der Fukushima-Strahlenpanik das Wort reden. Manche ihrer Vertreter werden gelegentlich schon mal „Mietwissenschaftler“ genannt.

Doch die konnten die anderen Fraktionen, einschließlich der GroKo, offenbar nicht mehr so schnell auftreiben, denn nicht jeder Wissenschaftler gibt sich für so ein Spiel her.

Nach lautstarker Diskussion, dabei sollen gegen die AfD  Vorwürfe wie „Verhöhnung der Opfer“ und – noch schlimmer – Verharmloser von „Kinderkrebs“ erhoben worden sein,  wurde mit Mehrheit der Fraktionen kurzerhand beschlossen, die Veranstaltung gar nicht erst öffentlich stattfinden zu lassen. Und da außerdem kein wirklicher Sachverständiger geheuert werden konnte, muss nun -via Auswärtiges Amt- der deutsche Botschafter aus Tokyo den Ersatz spielen.

Problem erledigt.

Dieser Umgang mit Wissenschaft ist leider symptomatisch, nicht nur für das Parlament, sondern auch und vor allem für die Regierung. Man denke nur an die vom BMI bestellten Studien zum Anschüren der Corona-Panik im März 2020 welche unter massiver Mitwirkung eines bis dato völlig unbekannten Doktoranden der Germanistik entstanden, der sich bisher vor allem durch ungebrochene Mao-Tse-Dong Verehrung auszeichnete, aber die entscheidenden Schreckensbilder beisteuern durfte.

Wegen dieser, wenn auch umfassend geleugneten, Angriffe auf die grundgesetzlich garantierte Freiheit der Wissenschaft, gab es im Plenum kürzlich –auf Anregung der AfD Fraktion- eine Aktuelle Stunde. Details dazu hier

Zur eindeutigen Politik-Abhängigkeit der deutschen Wissenschaft hier ein wichtiges Essay.

Der Beitrag basiert in Teilen auf einer Pressemitteilung der AfD Fraktion im Deutschen Bundestag.




Es sind keine Erwachsenen zugegen

Warum wurden diese riesigen Windmühlen überhaupt gebaut? Weil das globalistische Medien-Narrativ sagte, CO2 sei eine Bedrohung. Es ist keine Bedrohung, es ist ein Lebensgas. Also wurden die Windmühlen von Anfang an auf der Grundlage einer falschen Prämisse gebaut.

Wo sind also die Erwachsenen, die soliden, besonnenen Denker, die das Kapital auf der Grundlage von Bedarf und Effizienz lenken? Vom Winde verweht, basieren unsere Investitionen in die Infrastruktur auf den Lügen einer politischen Klasse, die sich nicht im Geringsten um die Wahrheit oder Effizienz schert.

Milliarden wurden aus öffentlichen Geldern abgezweigt, um diese Einhorn- und Regenbogen-Märchen von einer grünen Wirtschaft zu subventionieren. Was es wirklich war – war Straßenraub durch skrupellose Politiker, die nie einen Wissenschaftskurs besucht haben.

Die Krise in Texas ist also das Ergebnis dieser schlechten Entscheidungen. Verrückten wie AOC oder Al Gore zu erlauben, Entscheidungen zu treffen, ist das, was Chaos schafft. Wahrheit ist das, was sie sagen, und nicht die objektive wissenschaftliche Realität. Jetzt sagen sie, dass die globale Erwärmung den Polarwirbel erzeugt hat und dass Texas ob seines Versuchs, sich abzusondern, bestraft werden muss.

Angesichts des Umstands, dass Ihre Stimme nichts zählt, weil sie die Stimme zählen, dürfte alles nur noch sehr viel schlimmer werden.

Link: https://www.iceagenow.info/there-are-no-adults-in-the-room/

Übersetzt von Chris Frey EIKE

 




Wenn der Eissturm dräut

Am interessantesten und wichtigsten ist die durch den Polarwirbel ausgelöste Energiepolitik und ihre Auswirkungen auf das texanische Stromnetz. In der Tat hat der Stromausfall in Texas sofort eine Explosion von Hype, Konflikten und Debatten ausgelöst, die die Energiepolitik für einige Zeit prägen wird. Die Schlüsselfrage: Was sind die Risiken der erneuerbaren Energien, insbesondere der Windenergie?

In der vergangenen Woche sind die Aktien wichtiger Unternehmen aus dem Bereich der erneuerbaren Energien gefallen, vermutlich ausgelöst durch Berichte, wonach der Zusammenbruch des texanischen Windkraftsektors einer der Hauptfaktoren für den Ausfall des texanischen Stromnetzes war. Zu den bis dato hochfliegenden Windkraftfirmen, die einen Schlag einstecken mussten, gehört NextEra Energy Partners, die in der vergangenen Woche um 10 Prozent nachgaben. Andere erneuerbare Energien in verschiedenen Sektoren (Brookfield Renewable Partners mit einem Minus von sechs Prozent, Renewable Energy Group mit einem Minus von 20 Prozent) schienen Teil eines plötzlichen Abwärtssturms zu sein, der gerade dann einsetzte, als der Sektor einen wahrscheinlich übertriebenen Höhepunkt erreichte.

Ein weiterer Indikator für eine mögliche Wende in der Energiepolitik war das Aufsehen, das der texanische Gouverneur Greg Abbott bzgl. der erneuerbaren Energien erregte. Am 9. Februar, bevor der Eissturm über seinen Bundesstaat hereinbrach, erhielt Abbott eine Auszeichnung, die sein Engagement für die Entwicklung der Windenergie würdigte. „Saubere und erneuerbare Energien sind ein wertvoller Teil von Amerikas Zukunft und eng mit dem Wohlstand und Erfolg von Texas verbunden“, sagte Abbott. „Während Texas weiterhin führend in der Produktion in unserem Öl- und Gassektor ist, ist der Bundesstaat auch national und international führend in der Windenergie.“

Einige Tage später, nachdem sich die Stromausfälle in ganz Texas ausbreiteten, machte Abbott den Zusammenbruch des Stromnetzes und die Stromausfälle dafür verantwortlich, dass die erneuerbare Windenergie des Staates den Sturm nicht überstanden habe. Scharfe Angriffe folgten. Das brachte eine Runde von Gegenangriffen seitens der Medien und grüner Aktivisten mit sich, die halbwegs zutreffend feststellten, dass der Stromausfall in Texas nicht nur ein Produkt des Zusammenbruchs der Windenergie war.

In Wirklichkeit legten die heftigen Stürme und die Kälte andere Stromquellen lahm, obwohl es klar ist, dass die Windenergie fast zusammenbrach, wobei ein Großteil der Last von Erdgas übernommen wurde. Nach Angaben der U.S. Energy Information Administration (EIA) wurde der Großteil des Stroms durch fossile Brennstoffe, Kernkraft und Kohleproduktion erzeugt.

Es scheint klar zu sein, dass das texanische Stromnetz nicht auf eine Welle von eisiger Kälte und steigende Nachfrage von Menschen, die sich warm halten und ihre Haushaltsgeräte betreiben wollten, vorbereitet war.

Der Ausfall der erneuerbaren Windenergie war nicht die einzige Ursache für die Stromausfälle in Texas. Was hat noch dazu beigetragen? Offensichtlich ist eine vollständige Überprüfung der Energiepolitik des Staates erforderlich, um den gesamten politischen, wirtschaftlichen und technologischen Hintergrund zu erfassen, der die Bedingungen für das massive Versagen geschaffen hat. Hier werden die wirklichen Lehren aus dem texanischen Eissturm gezogen und die Zukunft der Energiepolitik gestaltet werden, und das nicht nur in den Vereinigten Staaten.

Die Befürworter der erneuerbaren Energien eilen zur Verteidigung von Wind- und Solarenergie, aber der Fall Texas reiht sich ein in andere Fälle auf der ganzen Welt, die darauf hindeuten, dass der große Ansturm auf den Bau von Wind- und Solarenergie, der durch massive staatliche Subventionen und Preisdiktate angeheizt wird, mit Risiken verbunden ist.

In Deutschland warnte ein McKinsey-Bericht aus dem Jahr 2019 über den Zustand des Stromnetzes: „Deutschland hat jahrzehntelang eine sehr sichere Stromversorgung genossen, aber das Blatt beginnt sich zu wenden. Im Juni dieses Jahres [2019] kam es im deutschen Stromnetz wiederholt zu kritischen Situationen: An drei Tagen wurden erhebliche Engpässe bei der verfügbaren Leistung festgestellt. In der Spitze erreichte die Lücke zwischen Angebot und Nachfrage sechs Gigawatt – das entspricht der Leistung von sechs Großkraftwerken.“

Die deutschen Probleme gehen aber noch tiefer. In einem Kommentar des Magazins Foreign Policy wurde letzte Woche die Frage gestellt, ob Deutschland zu viel subventionierte erneuerbare Energie erzeugt und damit weitere Stromausfälle und Preisverzerrungen riskiert. Der McKinsey-Bericht warnte vor Stromausfällen, anhaltend hohen Preisen und der Notwendigkeit, die Stromimporte zu erhöhen, um die Unstimmigkeiten bei der erneuerbaren Energie auszugleichen.

Das deutsche Problem ist zum Teil das gleiche, mit dem sich Texas konfrontiert sieht. Es beinhaltet die gleichen Risiken, die sich in Großbritannien, Australien und Kanada aufbauen, wo der Druck auf erneuerbare Energien weiter wächst.

[Hervorhebung vom Übersetzer]

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/terence-corcoran-when-the-ice-storm-cometh/

Übersetzt von Chris Frey EIKE

 




Kamele im Schnee: in Vorderasien wüten Eisstürme

Nach PIK, Quarks&Co und dem DWD sind sowohl Schneestürme wie auch das aktuelle Frühlingswetter unbestreitbare Beweise für die menschgemachte Klimaerwärmung.

Darüber können die Araber im Maghreb und in Vorderasien nur lachen: Von der arabischen Halbinsel erreichen uns Filme von schneebedeckten Kamelen in der Wüste, in Libyen bauen Kinder Schneemänner, und in der Kriegsprovinz Idlib in Syrien fallen über 20 cm Schnee. Dieses Video einer Nachrichtenseite ist aufschlußreich:

Fundstück FB

Der Scheichberg bei Damaskus in Syrien. Privates Foto.




Bidens New Green Deal: Bereitstellung der grünen Blackout-Kultur auch in Ihrer Nähe

Routinemäßige Stromrationierung und Massenausfälle sowie die höchsten Strompreise in den USA sind Teil der kalifornischen Politik für erneuerbare Energien.

Da die Demokraten nun vor der Einführung ihres Green New Deal stehen, ist es an der Zeit, einen Blick darauf zu werfen, was diese Politik für die wichtigste Volkswirtschaft der Welt bedeuten wird.

 

Freuen Sie sich auf Energieknappheit, Kostensteigerungen und Energierationierung

News Max, Larry Bell, 29 January 2021

Lernen Sie nun, was Ihre zukünftigen CO2-Fußabdrücke bedeuten, mit denen Sie gegen das Hohe Tribunal für Nachhaltigkeit verstoßen, genauer gegen die „Klima- und Energiegerechtigkeit“.

Die voraussichtlichen Gebühren?

Zu Ihren Sünden gehören das Eigentum und der Betrieb eines Fahrzeugs mit Verbrennungsmotor, Manipulationen an den Einstellungen ihres Heizungsthermostaten- und / oder ein übermäßiger Stromverbrauch, basierend auf der Anzahl der Personen in Ihrem Haushalt.

Warum sollten Sie mir glauben?

Ganz einfach, weil die Amerikas seit kurzem kontrollierende politische Partei, bereits im Schnellzugtempo ihre Abwrack-Agenda initiiert hat, um 80% der reichlich vorhandenen und zuverlässigen fossilen Energie abzuschalten und durch blutarme, intermittierende Wind- und Solarenergie zu ersetzen, welche bislang max. 5% an Strom dazutun konnte.

Darüber hinaus wird der Plan den Strombedarf und die Stromkosten erheblich erhöhen, indem die bei den meisten so ungeliebten Elektroautos stark subventioniert werden.

Wenn die unvermeidlichen Stromausfälle auch bei Ihnen auftreten, wird die Rationierung mit größter Sicherheit folgen. Und Sie können darauf wetten, dass Ihre letzte Glühbirne das sehr ernst nimmt.

An seinem ersten Tag im Oval Office kappte Präsident Biden die Restarbeiten an der Keystone XL-Pipeline an der kanadischen Grenze, was geschätzt 11.000 Arbeitsplätzen auflöst und die 830.000 Barrel Öl pro Tag, die trotzdem gebraucht werden, müssen nun mit teureren Schienen und Lastwagen transportiert werden. [solange das noch geht]

Im Rahmen seiner 2-Billionen-Dollar-Agenda „Equitable Clean Energy Future“ hat Präsident Biden zugesagt, Amerika erneut in das Pariser Klimaabkommen von 2015 aufzunehmen: Beseitigung der Kohlenstoffemissionen aus Elektrizität bis 2035 und Verlagerung von Öl, Erdgas und Kohle, um „Netto-“ Null Kohlenstoffemissionen bis 2050 zu erreichen.

Kurz gesagt, die Biden-Agenda wird eine Energieressource ausblenden,

  • die Investitionen in neue Fabriken in Höhe von über 200 Milliarden US-Dollar stimuliert hat,
  • Millionen von Arbeitsplätzen geschaffen,
  • wichtige Einnahmen von Bund und Ländern erzielte,
  • das Handelsdefizit um mehrere hundert Milliarden US-Dollar verringert und
  • die politische Flexibilität Amerikas und Einfluss auf ausländische Gegner und Verbündete gleichermaßen erweitert hat.

China und Indien sind nicht an den  Klimapakt gebunden und  werden weiterhin ihre Pläne unter Ausbau der Kohle- und Ölentwicklung verfolgen ungeachtet einer Erhöhung [der so geschassten] Co2 Emissionserhöhungen.

Zum Thema: In 2019 berichtete die Internationale Energieagentur  (IEA), dass die USA länderbezogen führend bei der Reduzierung der energiebedingten CO2-Emissionen war und gleichzeitig ein solides Wirtschaftswachstum verzeichnete.

… Außerdem stellte die IEA fest, dass 80% des Anstiegs der CO2-Emissionen aus Asien stammten und dass sowohl China als auch Indien erheblich zum Anstieg beitrugen.

In der Zwischenzeit werden andere Exekutivmaßnahmen die US-Öl- und Gasförderung drosseln, die unser Land kürzlich unabhängig gemacht hat, indem neue Öl- und Gaspachtverträge für öffentliche Grundstücke und Gewässer gekündigt wurden.

Joe Biden wird sein Kabinett vor allem mit radikalen Klimaaktivisten bestücken, die befugt sind, einen enormen regulatorischen Einfluss auf alle wichtigen Bereiche des amerikanischen wirtschaftlichen und sozialen Lebens auszuüben.

Der frühere Bürgermeister von South Bend, Indiana und demokratischer Präsidentschaftskandidat  Pete Buttigieg wurde zum Transportminister von Biden ernannt. Buttigiegs Hauptargument im Wahlkampf war, er würde sich dafür einsetzen, „…dass ab 2035 alle neuen Fahrzeuge keine Emissionen mehr ausstoßen“.

Nicht erklärt wird, wie alle hinzugefügten Plug-Ins nachts aufgeladen werden, wenn die Sonne untergegangen ist und der Wind nicht weht.

Die frühere Gouverneurin von Michigan, Jennifer Granholm, ist Joe Bidens Wahl zur Energieministerin, wird die Verantwortung tragen, sein Wahlversprechen einzuhalten, 550.000 Ladestationen für Elektrofahrzeuge zu bauen, als Teil seines Plans zur „Bekämpfung des Klimawandels“. Wen interessiert es dann noch, dass Klimawandel bereits stattgefunden hat, als unser Planet zum ersten Mal eine Atmosphäre hatte.

Mit einer Verordnung vom 27. Januar wird offiziell ein Büro für Domestic Climate Policy im Weißen Haus eingerichtet, das von der „Klimazarin“ Gina McCarthy geleitet wird, die zuvor die EPA der Obama-Biden-Regierung leitete. Die Verordnung schafft auch einen Interagency Council für Umweltgerechtigkeit im Weißen Haus und einen Beirat für Umweltgerechtigkeit im Weißen Haus.

Was genau umfasst „Umweltgerechtigkeit“?

Eine umfassende Präsidialrichtlinie fordert verstärkte Maßnahmen zum  Schutz der öffentlichen Gesundheit und der Umwelt  und zur Rechenschaftspflicht der Umweltverschmutzer, einschließlich derer, die „multi kolorierte“ und einkommensschwache Kommunen überproportional schädigen.

Und wer kann da wirklich dagegen sein? Niemand will Luft-, Land- oder Wasserverschmutzung, was eigentlich nichts mit einem verantwortungsvollen und sauberen Umgang mit fossilen Brennstoffen oder der Emission von natürlicher pflanzlicher Nahrung, dem atmosphärischem CO2 zu tun hat.

Weniger als 24 Stunden nach seiner Amtseinführung begrüßte Biden auch die nordöstliche Rechts- und Rassenjustizprofessorin Shalanda Baker als stellvertretende Direktorin für „Energiegerechtigkeit“ im Energieministerium in seiner Verwaltung.

Laut der gemeinnützigen Initiative für Energiegerechtigkeit bezieht sich Energiegerechtigkeit ähnlich wie Umweltgerechtigkeit auf „..das Ziel, eine gerechte soziale und wirtschaftliche Teilhabe am Energiesystem zu erreichen und gleichzeitig die sozialen, wirtschaftlichen und gesundheitlichen Belastungen für diese überproportional zu verringern, die durch das Energiesystem verursacht werden. “

Wer möchte möglicherweise jemandem die Energiegerechtigkeit verweigern, insbesondere der überproportional benachteiligte Bevölkerungsgruppen mit niedrigem Einkommen aller Rassen? Mir scheint, dass die größte Gerechtigkeit darin besteht, die Energiekosten zu senken und die nutzbare Energiemenge für alle zu erhöhen… das direkte Gegenteil von dem, was die Biden-Agenda vorsieht.

Ein  Vorbote der kommenden Ereignisse kam bereits  während einer Hitzewelle im Jahr 2020, als Stromausfälle in kalifornischen Städten und Gemeinden auftraten, weil zuverlässige Kernkraftwerke und Kraftwerke mit fossilen Brennstoffen aus dem Netz genommen wurden.

Kalifornien ist bereits führend in Amerika, mit dem am wenigsten zuverlässigen Stromnetz und der größten Anzahl von jährlichen Ausfällen… Zwischen 2008 und 2017 wurden 4.297 Stromausfälle registriert. Die  Bedingungen werden sich nur noch weiter verschlechtern,  da der Staat jetzt verlangt, dass alle neuen Häuser fast vollständig elektrisch sind. Mehr als 30 Städte, einschließlich San Francisco, haben bereits Verbote für neue Anschlüsse von Gasheizgeräten erlassen. Kalifornien plant, Benzin- und Dieselautos zu verbieten.

Es gibt für niemanden im energiereichen Amerika einen Grund, auf erschwingliche und zuverlässige Energie zu verzichten, um den Planeten vor einem unmerklichen Anstieg der Erwärmung um vielleicht 0,06 ° C zu retten, der einzig auf hypothetischen Computermodellen des IPCC basiert, die gegenüber den offiziellen Aufzeichnungen, um zwei- bis dreimal zu heiße Erwärmungen voraussagen.

Weder Solar- noch Windkraft sind umweltfreundlicher als Kohlenwasserstoffe, wenn der Abbau und die giftigen Seltenerdmaterialien, aus denen sie hergestellt werden, berücksichtigt werden.

Künstliche Energieknappheit, die auf Umwelt- und Energiegerechtigkeit beruht, wird nur zu Rechtfertigungen für eine Rationierung führen, um die Energiearmut gerechter zu verteilen.

News Max

 

https://stopthesethings.com/2021/02/16/bidens-new-green-deal-delivering-californias-blackout-culture-to-a-town-near-you/

Übersetzt durch Andreas Demmig

****

Abschlußbild auf STT: Die Kalifornier leben seit Jahren den Green New Deal.

Dazu der Bericht in der FAZ : (Beachten Sie das Datum!)

ENERGIEKRISE: Blackout in Kalifornien

VON DIETMAR HOCHMUTH, PALO ALTO-AKTUALISIERT AM 24.03.2001-14:24

… Bestes Beispiel ist Kalifornien. In dem Sonnenstaat gewöhnt man sich an die Stromkrise wie Europa an die Maul- und Klauenseuche.




Sind Computer bessere Piloten?

Fluch oder Segen?

Am 9. Januar 2021 verunglückte Flug J-182 kurz nach dem Start von Jakarta; alle 62 Personen an Bord kamen ums Leben. Eine offizielle Stellungnahme zur Ursache gibt es noch nicht, es spricht jedoch vieles dafür, dass es auch hier ein Problem mit dem Computer gab, genauer gesagt mit der „Autothrottle“, einer Art Tempomat. Siehe auch hier.

Ist der Computer an Bord („Computer“ steht hier für die gesamte digitale Automatisierung im Flugzeug) also ein Fluch oder ein Segen? Bevor wir das untersuchen machen wir drei willkürliche, aber nützliche Unterscheidungen an unserem Fluggerät:

Da gibt es zuerst den „Airframe“, das „eigentliche“ Flugzeug sozusagen, bestehend aus Rumpf, Tragflächen und den diversen Rudern und Klappen. Man könnte das als Skelett des Flugzeugs bezeichnen. Dann gibt es die Motoren, das sind die Muskeln. Das dritte Element umfasst alles, was die Vorgänge im Flug beobachtet und steuert. Das nennen wir „Cockpit“, es ist das Gehirn.

Evolution

Das Skelett hat sich seit den frühen Jets wenig verändert. Die Profile der Tragflächen sind heute zwar raffinierter und es gibt „Winglets“, aber die Geometrie ist die gleiche wie früher: Tiefdecker, gepfeilte Flügel und die Motoren hängen in Gondeln darunter. Das war bei der Boeing 707 vor siebzig Jahren so, und so ist es noch heute beim Dreamliner oder dem A350 von Airbus.

Die Muskeln dagegen haben sich deutlich verbessert. Aus dem „Turbojet“ wurde der „Turbofan“, der weniger verbraucht und nicht so laut ist. Der ist zwar nach wie vor eine Turbine, der Antrieb kommt aber nicht nur vom Rückstoß der „Auspuffgase“, sondern primär von der Luft, die von einem riesigen „Fan“ nach hinten geblasen wird.

Deswegen haben Turbofans einen größeren Durchmesser als ihre Vorgänger. Versucht man nun die neuen Muskeln an das alte Skelett zu bauen, dann kann es Probleme geben; da passen die dicken Muskeln dann nicht mehr gut unter die Flügel, weil das Skelett zu kurze Beine hat. Das war der eigentliche Murks, den sich Boeing bei der problematischen 737 Max geleistet hat (siehe hier).

Kein Dinosaurier

Der Fortschritt des Gehirns aber war eher Revolution als Evolution. Die heutigen Jets sind mit Sicherheit keine Dinos, deren Kopf bei der Entwicklung nicht mitkam, sondern eher Neurotiker, deren Hirn zu schnell gewachsen ist.

Warum Computer an Bord? So wie im Rest der Welt gibt es auch im Flieger unzählige Aufgaben, die sich immer in ähnlicher Weise wiederholen. Wichtige Stellgrößen müssen aus Gewicht, Temperatur, Wind etc. bei jedem Flug berechnet werden, und auch bei der Navigation gibt es beliebig viel Mathematik.

Solche Jobs haben früher der Flugingenieur oder der Pilot gemacht, heute überlässt man das dem „Flight Management System“, das beispielsweise ausrechnet, wieviel Power man zum Start braucht und welchen Kurs man steuern muss, um trotz Seitenwind ans Ziel zu kommen. Mit solchen Daten ausgerüstet kann der Pilot nun das Flugzeug bewegen, er kann starten, steigen, cruisen, und letztlich landen.

Fast all diese Jobs kann er aber auch dem Autopiloten überlassen, auch der kann Höhe und Steigrate halten, Kurs steuern, etc., und zwar besser als der Mensch. Und der Autopilot ist  so programmiert, dass er keinen Unsinn machen kann. Er kann sogar den Menschen daran hindern Unsinn zu machen, etwa zu stark ins Ruder zu treten oder einen Looping zu fliegen.

Die Automatisierung des Cockpits war sicher der größte Fortschritt in der Fliegerei. Sie hat den Flugingenieur, den dritten Mann im Cockpit, überflüssig gemacht und sie hat unzählige mehr oder weniger dramatische menschliche Fehler verhindert, die durch Müdigkeit oder Schlamperei passiert wären.

Insgesamt sind die heutigen Flieger ein wunderbares Ergebnis technologischer Kompetenz, trotz allen „Bashings“, das die Industrie bei jeder Gelegenheit erfährt.

Zwischen Langweile und Panik

Es ist aber auch keine Frage, dass die Anforderungen an mentale Belastbarkeit und kognitive Fähigkeiten der Piloten durch die Automatisierung gesenkt wurden.

Ein Flug, insbesondere über lange Strecken, verlangt den Piloten zwar bei Start,  Abflug , Anflug und bei der Landung einiges ab, aber unterwegs gibt’s wenig zu tun, außer dem Autopiloten dabei zuzuschauen, wie er alles richtig macht und hin und wider mit den Fluglotsen zu plaudern.

Der Autopilot aber ist nicht unfehlbar. In schwerer Turbulenz etwa oder bei Systemfehlern wird er sich unter lautem Alarm verabschieden. Der Pilot muss jetzt von einer Sekunde auf die andere vom Bediener eines Computers zum Luftfahrer alter Schule mutieren. Langweile schlägt in Panik um, und manchmal ist er dann überfordert.

Ein tragisches Beispiel dafür ist Air France Flug 447 von Rio nach Paris. Der stürzte am 1. Juni 2009 aus 11 Kilometer Höhe in den Atlantik, wobei alle 228 Insassen ums Leben kamen. Ein Sensor für die Geschwindigkeit war vereist, dem Autopiloten wurden jetzt unrealistische Daten geliefert und er schaltete sich automatisch ab. Einer der Piloten übernahm das Kommando, machte aber elementare fliegerische Fehler. Er brachte den Airbus in einen „Stall“, d.h. die Tragflächen verloren den Auftrieb und die ganze Maschine hörte auf ein Flugzeug zu sein.

In der Ausbildung lernt der Pilot, wie er sich aus dieser fatalen Lage befreit. In diesem Zustand der Panik aber stand dem Mann am Steuer das notwendige Können nicht zur Verfügung. Über drei Minuten fiel das Flugzeug durch die Luft  bis es auf dem Meer zerschellte.

Der kritische Moment

Die Statistik berechnet weniger als einen tödlichen Crash pro einer Million Flüge. Die Summe aus Flugzeug, Crew und „Air Traffic Control“ (das sind Fluglotsen und Tower, etc.) scheint also eine zuverlässige Sache zu sein. Es ist in der Tat eines der perfektesten Systeme, das der Mensch erschaffen hat und eines der wenigen, das weltweit, über alle Grenzen hinweg nahtlos funktioniert. Wenn Politik mit derselben Professionalität betrieben würde wie die Fliegerei, dann hätten wir es gut.

Gerade deshalb ist jeder Unfall ein Anlass, um an Schwachpunkten zu arbeiten.

Piloten haben sich angewöhnt, dem Computer zu 100% zu vertrauen. Wenn der dann einen Fehler macht, reagieren sie nicht routiniert – das ist logisch, denn es passiert ja so gut wie nie. Sie fragen in der Situation nicht „Was muss ich jetzt machen?“  sondern  „Was macht der denn jetzt?“ Statt sofort 100% Verantwortung für den Flugzustand zu übernehmen geben sie dem Computer die Schuld für das Problem.

Wir Menschen neigen dazu, in Panik gemäß unserer frühkindlichen Prägungen zu reagieren. Wir rufen „Mama“ oder laufen weg. Dem Piloten muss in der Ausbildung eine andere frühkindliche Prägung zuteil werden: „Attitude – Speed – Power.“ In der ersten Sekunde der Krise muss er sich um die Lage des Flugzeugs, die Geschwindigkeit und den Antrieb kümmern. Das sind die Überlebensfaktoren.

Erst wenn das gesichert ist kann er – oder der andere Pilot – sich um den Rest kümmern, etwa  um den Computer, der gleichzeitig „Pull up“ und „Speed“ kräht und außerdem noch drei Alarmglocken eingeschaltet hat.

In seiner Ausbildung trainiert der Pilot solch kritische Situationen im echten Luftraum, unter echter Schwerkraft, allerdings in  kleineren Maschinen, mit einem oder zwei Propellern und mit weniger Computerei an Bord. In einem echten Airliner hat er nie einen Stall oder Spin ausprobiert. Er hat also nie in Echt erlebt was passiert, wenn da Attitude, Speed und Power nicht stimmen.

Die schwachen Glieder der Kette

Solche kritischen Situationen werden nur im Flugsimulator trainiert, und je öfter, desto besser eignen sich Piloten die richtigen Reflexe an und behalten sie bei. Zeit im Simulator ist aber teuer, auch weil sie den Piloten von der Arbeit abhält, und so mag es Airlines geben, die hier an der falschen Stelle sparen.

Ein anderer Schwachpunkt scheinen die Sensoren zu sein, die Sinnesorgane des Flugzeugs, die etwa Geschwindigkeit und Anstellwinkel signalisieren. Das Versagen dieser vergleichsweise billigen Teile kann gigantischen Schaden anrichten, wie bei den erwähnten Boeing Max und Air France 447. Aber nicht nur die Verkehrsflieger leiden an dieser Achillesferse.

Die US Airforce verlor einen Bomber vom Typ B2, dessen Sensoren beim Start die falsche Geschwindigkeit angaben. Die Piloten hatten versucht abzuheben, obwohl das Flugzeug noch zu langsam war. Die 1,4 Milliarden teure Maschine zerschellte wegen des Versagens einer lächerlich simplen Komponente.

Vielleicht ist das kennzeichnend für unsere Zeit: die Computerei hat gigantische Fortschritte gemacht, aber vernünftige Sensoren bekommt man nicht hin. Das wäre eine Aufgabe für angewandte, klassische Physik. Deren Blütezeit aber ist Vergangenheit.

Das Wunder im Hudson

Kommen wir zurück zur Frage: ist der Mensch das schwächste Glied in der Kette der Flugsicherheit? Sollte man den Piloten aus Fleisch, Blut und Gehirn also aus dem Cockpit verbannen und alles Computern überlassen?

Das wäre keine gute Idee. Ein Computer kann nur auf Situationen reagieren, für die er programmiert ist. Er ist nicht mehr als ein sehr zuverlässiger Fachidiot. Die Wirklichkeit aber ist vielfältig, und es werden immer Dinge passieren, die außerhalb seiner „Envelope“ liegen, außerhalb des einprogrammierten Bildes, welches der Computer von der Welt hat. Hier sind menschliche Intelligenz und Kreativität unersetzlich.

Oder glauben Sie, dass ein Computer einen A320 nach Ausfall beider Motoren sicher in New Yorks Hudson River gelandet hätte? Am 15. Januar 2009 tat Sully Sullenberger genau das. Auf dem US-Airways-Flug 1549 waren kurz nach dem Start in knapp 1000 m Höhe kanadische Wildgänse in die Triebwerke geraten und hatten sie zerstört. Sully hatte die Geistesgegenwart, sofort die „APU“, das kleine Hilfstriebwerk im Heck der Maschine zu starten, um Elektrizität und Hydraulik für die Steuerung zu haben. Als Segelflugpilot wusste er, dass man auch ohne Motoren fliegen kann. So glitt er zu einer Landung im Wasser, die sanft genug war, dass alle an Bord überlebten; für die leichtsinnigen Gänse aus Kanada hingegen kam jede Hilfe zu spät.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




„Seltene Erden“ zuerst? Oder zuletzt?

Seltene Erden sind für die Technologien des 21. Jahrhunderts unverzichtbar, darunter Smartphones, Laser, Nachtsichtsysteme, Waffenleitsysteme – und GND-Technologien wie Windturbinen, Solarzellen, Batterien und Elektrofahrzeuge. Der britische Hedgefonds-Veteran James Horrocks bemerkte in einem kürzlich erschienenen Artikel: „Es ist leicht zu erkennen, warum Seltene Erden zu einem Spielball im Handelskrieg zwischen den USA und China geworden sind.“

China beherrscht den Markt

China, so Horrocks, verfügt nur über ein Drittel der weltweiten Reserven an Seltenen Erden, produzierte aber 2017 über 80 Prozent des weltweiten Angebots an Seltenerdmetallen und -verbindungen, und seine Exporte in die Vereinigten Staaten machten in diesem Jahr 78 Prozent der 17.000 Tonnen US-Importe von Seltenen Erden aus. Sogar die in den Vereinigten Staaten von Amerika abgebauten Seltenerdmetalle werden in der Volksrepublik verarbeitet – weil China jetzt die amerikanischen Vorkommen besitzt und wir lieber die billigeren Preise zahlen würden, die mit der Verarbeitung unter Chinas abscheulichen Verschmutzungs-, Lohn- und Arbeitssicherheits-Bedingungen verbunden sind.

Christopher Barnard, Direktor für nationale Politik bei der American Conservation Coalition, ist nur einer von vielen, die zustimmen, dass eine zuverlässige, erschwingliche inländische Versorgung mit Seltenerdmetallen für den Aufbau einer „grünen“ Wirtschaft entscheidend ist. Letzten Monat warnte Barnard, dass „die geopolitischen, wirtschaftlichen und ökologischen Risiken“, die mit der fast vollständigen Abhängigkeit von einer potenziell feindlichen Macht verbunden sind, „nicht länger ignoriert werden können“.

Das chinesische Beinahe-Monopol (es war noch schlimmer, bevor Japan eine neue Lieferkette aufbaute, nachdem China 2010 alle Exporte von Seltenen Erden blockiert hatte) ist größtenteils eine Schöpfung der von Aktivisten betriebenen Anti-Bergbau-Politik in den Vereinigten Staaten. Amerika hat reichlich Seltene-Erden-Vorkommen, aber sie zu fördern ist nicht fotogen. Barnard beklagt, dass das „regulatorische Minenfeld aus labyrinthischen lokalen, staatlichen und bundesstaatlichen Regeln“ die Genehmigungsverfahren zu einem zwei- bis drei Jahrzehnte dauernden Abenteuer der Frustration gemacht hat.

Trump änderte Innenpolitik, um Amerika zu helfen

In den letzten Jahrzehnten hat der Gesetzgeber die Exploration und Entwicklung von Mineralien auf mineralienreichem öffentlichem Land nahezu verboten. Die wenigen einst aktiven Seltene-Erden-Minen sind schon lange stillgelegt, vor allem wegen der hohen Kosten für die Einhaltung der Vorschriften. Mountain Pass, die einzige in den USA betriebene Mine für Seltene Erden, hat aufgrund eines Konkurses im Jahr 2016 zwei Jahre lang seine Produktion eingestellt und schickt ihr abgebautes Erz immer noch zur Verarbeitung nach China.

Um der Abhängigkeit der USA von chinesischen Importen entgegenzuwirken, unterzeichnete Präsident Trump im September 2020 die Executive Order (EO) 13953, die einen nationalen Notstand in der Bergbauindustrie ausrief. Die Anordnung beauftragte das Innenministerium mit der Steigerung der heimischen Produktion von Seltenen Erden, um die Abhängigkeit der USA von China bei diesen Bausteinen für die Technologien des 21. Jahrhunderts zu reduzieren. EO 13953 baute auf seiner EO 13817 vom Dezember 2017 auf, der den Innenminister aufforderte, entscheidende Materialien zu identifizieren und „die Anfälligkeit der Nation für Störungen bei der Versorgung mit kritischen Mineralien“ zu reduzieren, insbesondere bei denen aus China und Russland.

Viele der Empfehlungen in EO 13953 wurden in das Energiegesetz von 2021 aufgenommen, das Teil des Consolidated Appropriations Act ist, der auch die Pandemiehilfe finanziert. Das neue Gesetz verpflichtet das Energieministerium, ein Forschungs- und Entwicklungsprogramm für fortschrittliche Trenntechnologien zur Gewinnung und Rückgewinnung von Seltenen Erden und anderen kritischen Materialien aus Kohle und Kohle-Nebenprodukten durchzuführen. Ein gleichrangiges Ziel ist es, die Auswirkungen dieser Aktivitäten auf die Umwelt und die öffentliche Gesundheit zu minimieren – was für Operationen in den Vereinigten Staaten immer erforderlich ist, jedoch nicht für solche in oder durch China.

Das neue Gesetz erfordert außerdem alle drei Jahre aktualisierte Listen kritischer Mineralien sowie neue Lehrpläne für Hochschulen und Universitäten, um eine starke Belegschaft für kritische Mineralien aufzubauen; inländische, öffentlich zugängliche Ressourcenbewertungen kritischer Mineralien; Analyse- und Prognosewerkzeuge, um Märkte für kritische Mineralien zu bewerten; neue Alternativen zu, Recycling von und effiziente Produktion und Verwendung von kritischen Materialien; und mehr. Schließlich verlangt das Gesetz, dass der Direktor von National Intelligence dem Kongress regelmäßig einen Bericht über chinesische Investitionen in Mineralien vorlegt.

Ausweitung des Bergbaus

Darüber hinaus kündigte das Bureau of Land Management (das ursprüngliche BLM) in Trumps letzten Tagen als Präsident neue Entscheidungen an, die am 15. Januar in Kraft traten und den potenziellen Bergbau auf Bundesland ausweiten, den Bergbau in die Liste der Industrien aufnehmen, die eine beschleunigte Genehmigung erhalten können (was für die Inbetriebnahme neuer Minen für Seltene Erden von entscheidender Bedeutung ist), eine neue Mine in Nevada für Lithium (ein kritisches Element in Batterien für Elektrofahrzeuge) sowie einen Landtausch genehmigen sollen, um die endgültige Genehmigung einer Kupfermine in Arizona zu erleichtern.

Mit diesen letzten Handlungen hat die Trump-Administration den Grundstein dafür gelegt, dass Bidens vermeintlich „auf saubere Energie fokussierte“ neue Regierung eine Chance hat, den Rohstoffbedarf für die Technologien des 21. Jahrhunderts zu decken, hat er doch versprochen, dass diese Technologien die US-Wirtschaft von morgen antreiben werden. Natürlich könnte China seinen Einfluss nutzen, um zu versuchen, alle US-Produzenten zu unterbieten, vor allem, wenn Biden die Zölle aufhebt (oder es versäumt, sie zu verhängen), die darauf abzielen, Chinas unfaire Vorteile durch seine unethischen und schmutzigen Bergbau- und Zwangsarbeitspraktiken zu kompensieren.

Was wird Biden tun?

Werden Biden und der Kongress dies alles untergraben? Anti-Bergbau Demokraten waren schnell, um die Last-Minute-BLM Aktionen zu widersprechen. Repräsentant Paul Grijalva (D-AZ), dessen eigene Herangehensweise an den US-Bergbau als „gut für China, schlecht für Amerika“ bezeichnet wurde, sagte, dass Präsident Obamas FAST-41-Gesetz von 2015, das die Genehmigungen für Versorgungsprojekte erleichterte, „nie dazu gedacht war … den Bergbausektor abzudecken.“

Aber Rich Nolan, Präsident der National Mining Association, lobte den Schritt des BLM und erklärte: „Der amerikanische Bergbau ist der Schlüssel zur erfolgreichen Reparatur der Infrastruktur unserer Nation.“ Zuvor hatte Nolan den Standpunkt seiner Organisation bekräftigt, dass „die Technologien, die für unsere sich erholende Wirtschaft unerlässlich sind, auf einer Grundlage aufgebaut werden, die der Bergbau liefert. Es ist jetzt absolut notwendig, dass eine intelligente Politik diese Notwendigkeit und Chance erkennt.“

Die Biden-Kampagne sagte den US-Bergleuten privat, dass sie die Förderung der heimischen Produktion von Metallen unterstützen würde, die für die Herstellung von Elektrofahrzeugen, Solarpaneelen und anderen Produkten benötigt werden, die für seine Klimapläne entscheidend sind. Aber dies würde eine Abkehr von der Politik Obamas darstellen, die „rigorose Umweltvorschriften beinhaltete, die das Wachstum des US-Bergbausektors verlangsamten.“ Es ist auch ein Widerspruch für die Umweltverbände, die Biden unterstützen und beraten.

Bidens widersprüchliche Klientel

Grüne Gruppen in Arizona, Minnesota und Nevada – zusammen mit einigen indianischen Stämmen – haben begonnen, die Trommeln des Dissens‘ zu schlagen. Zum Beispiel ist Save the Boundary Waters gegen eine Kupfermine von Twin Metals in Minnesota; das Projekt hat bereits eine Bundesgenehmigung, wird aber vor Gericht angefochten. Sprecher Jeremy Drucker beschwerte sich: „Bergbauunternehmen haben EVs und den Klimawandel als Deckmantel benutzt, um ihre eigene Agenda durchzusetzen: Profit.“

Dann ist da noch Bidens Nominierung der Indianerin Deb Haaland aus New Mexico als Leiterin seines Innenministeriums. Indianergruppen haben sich gegen die schnelle Genehmigung der Resolution Copper Mine ausgesprochen, die 40 Jahre lang bis zu einem Viertel des wachsenden US-Kupferbedarfs decken könnte. Amerikanische Ureinwohner sagen, die Mine würde heiliges Land entweihen. Wie werden Haaland und ihr Chef mit diesem heiklen Thema umgehen angesichts ihrer Verbindungen zu Stämmen, die gegen die Mine sind, und der wichtigen Rolle von Kupfer für die GND?

In der Zwischenzeit fährt Biden fort, Kamala Harris als „gewählte Präsidentin“ zu bezeichnen und spricht von einer „Harris-Biden Regierung“. Man fragt sich, wie viel Einfluss die Vizepräsidentin Harris auf die Planung und Politik der Harris-Biden Regierung haben wird, da sie als Gegnerin fast aller neuen inländischen Bergbauaktivitäten bekannt ist. Anders ausgedrückt: Wer wird wirklich für unsere Energie und Wirtschaft verantwortlich sein?

Die ultimative Frage ist, sollte Amerika von China (und Russland) abhängig sein, um die Werkzeuge für die neue Wirtschaft zu liefern? Oder wird die Biden-Harris-Regierung den Ansatz von Trump zum Wiederaufbau der US-Industrie für den Abbau und die Verarbeitung von Seltenen Erden verfolgen, um eine fast totale Abhängigkeit von großen Menschenrechtsverletzern zu vermeiden? Mit anderen Worten, wird Biden-Harris die Zukunft Amerikas im Bereich der „sauberen“ Energie in die Hände von China legen?

Duggan Flanakin (dflanakin@gmail.com) is Director of Policy Research at the Committee For A Constructive Tomorrow (www.CFACT.org).

This earlier version of this article was originally published on Townhall and is used with the permission of its author.

Link: https://heartlanddailynews.com/2021/02/rare-earths-first-or-last/?

Übersetzt von Chris Frey EIKE

 




Der Stromausfall-Sicherheits­plan von Trump, der Texas hätte retten können

Damals wurde der Resilienz-Vorschlag weithin als ein kaum verhülltes Trump-Schema kritisiert, um staatliche Gelder in die Kohle- und Atomindustrie zu pumpen. Doch im Nachhinein betrachtet hätte ein bisschen mehr Ausfallsicherheit Texas vielleicht vor tagelangen schmerzhaften Stromausfällen bewahrt.

Aus dem Jahr 2017:

Rick Perry: Vorschlag es Innenministeriums bzgl. Kohle und Kernkraft wird den „Markt neu ordnen“

Perry bekräftigt seine Argumente, dass der NOPR Amerikaner schützen wird.

Energieminister Rick Perry sagte, dass eine vorgeschlagene Vorschrift zur Subventionierung von Kohle- und Kernkraftwerken „den Markt wieder ins Gleichgewicht bringt“. Damit wollte er die Unterstützung der Obama-Regierung für erneuerbare Energien korrigieren.

Sie „hatten eindeutig ihren Daumen auf der Skala in Richtung der erneuerbaren Seite,“ sagte Perry, der über seine energiepolitischen Prioritäten mit Meet the Press*-Moderator Chuck Todd und dem geschäftsführenden Direktor (CEO) von Axios CEO Jim VandeHei bei einer Veranstaltung in Washington, D.C. am Donnerstag sprach.

[*Meet The Press: Eine wöchentliche Fernsehsendung in den USA, vergleichbar mit „Anne Will“ bei uns. A. d. Übers.]

Der Antrag des DOE an die Federal Energy Regulatory Commission (FERC) würde die jahrzehntelange Energiemarktpolitik auf den Kopf stellen, indem er die Kostendeckung für Kraftwerke mit 90 Tagen Brennstoffvorrat vor Ort garantiert – etwas, das nur Kernkraft, einige wenige Wasserkraftwerke und einige größere Kohlekraftwerke bieten können.

„Wenn Sie mir garantieren können, dass der Wind morgen weht, wenn Sie mir garantieren können, dass die Sonne auf die Solarpaneele scheint … dann kaufe ich das ein. Aber das können Sie nicht“, sagte Perry.

Die Notice of Public Rulemaking (NOPR) impliziert, dass die Netzzuverlässigkeit durch die Stilllegung von Kohle- und Kernkraftwerken bedroht ist. Die Schlussfolgerungen basieren größtenteils auf einer unvollständigen Analyse einer Kältewelle im Jahre 2014, der zu Stromausfällen hätte führen können, wenn mehrere Kohlekraftwerke für die Last nicht hzur Verfügung gestanden hätten, die jetzt stillgelegt werden sollen.

Der Schritt wurde von Befürwortern sauberer Energie als politisch motiviert und faktisch unbewiesen kritisiert und hat eine Gegenreaktion von großen Teilen der Energieindustrie hervorgerufen.

Mehr: https://www.greentechmedia.com/articles/read/rick-perry-doe-coal-nuclear-proposal-is-rebalancing-the-market#gs.Fp8TJMg

Die Bundesaufsichtsbehörden lehnten den Plan ab mit der Begründung, Rick Perry habe nicht genügend Beweise dafür vorgelegt, dass die Stilllegung von Kohle- und Kernkraftwerken die Netzstabilität untergräbt. Der Plan wurde schließlich fallen gelassen, nach heftiger Lobbyarbeit der Gaswerke und von Erneuerbare-Energie-Gruppen.

Nun, da das von Rick Perry vorhergesagte Szenario in Texas tatsächlich eingetreten ist, scheint es ziemlich offensichtlich, dass Rick Perry mit den Risiken recht hatte. Kernkraftwerke und Anlagen für fossile Brennstoffe, die Zugang zu ausreichenden Brennstoffvorräten hatten, blieben meist voll in Betrieb.

Warum ist eigentlich staatliches Eingreifen erforderlich, um die Ausfallsicherheit des Netzes zu gewährleisten?

Die Vorratshaltung von Kraftstoff für mehrere Monate ist ein Kostenfaktor, der nicht zum Unternehmensgewinn beiträgt. Die Kosten für all diese Reservebrennstoffe stellen Geld dar, das stattdessen zur Tilgung von Kapitalschulden oder zur Ausschüttung von Dividenden an die Aktionäre hätte verwendet werden können. Energieversorgungsunternehmen, die diese Art von Kosten tragen, haben einen Wettbewerbsnachteil gegenüber Energieversorgungsunternehmen, die einen schlankeren Betrieb führen, indem sie ihre Reserven auf das absolute Minimum reduzieren. Die Kosten für die Vorratshaltung von Brennstoffreserven wirken sich auf den Marktanteil und das Unternehmenswachstum aus; die Verbraucher wenden sich häufig dem günstigsten Energiedienst zu, ohne die langfristigen Folgen zu bedenken.

Rick Perrys Plan hätte die finanzielle Belastung für das Vorhalten einer Brennstoffreserve vor Ort beseitigt, indem er die Stromversorger für die Kosten der Vorratshaltung umfangreicher Brennstoffreserven entschädigt hätte.

Werden Präsident Biden oder der texanische Gouverneur Greg Abbott angesichts der Tatsache, dass Resilienz-Zahlungen eine praktikable Lösung zu sein scheinen, den Energie-Resilienz-Plan von Trump/Perry aus dem Jahr 2017 umsetzen, um sicherzustellen, dass so etwas wie die Stromausfall-Katastrophe in Texas nie wieder passiert?

[Hervorhebung im Original]

Aktualisierung: Mark Baher erinnert mich daran, dass ich Rick Perrys Plan im Jahr 2017 kritisch gegenüberstand. Damals konzentrierte ich mich auf Perrys Erklärung, er wolle „den Markt wieder ins Gleichgewicht bringen“, gegen die Subventionen für erneuerbare Energien – ich hatte befürchtet, dass Perrys Plan einen Subventionswettlauf auslöst zwischen Befürwortern von erneuerbaren Energien und Befürwortern von fossilen Brennstoffen und Kernkraft. Was mir nicht klar war, war, wie begrenzt die Reserven bei einem Unwetterereignis sein würden. Perry hatte recht, ich hatte unrecht.

Link: https://wattsupwiththat.com/2021/02/20/the-trump-energy-resilience-plan-which-would-have-saved-texas/

Übersetzt von Chris Frey EIKE

 




HadCRUT5 zeigt seit 1850 eine um 14% stärkere globale Erwärmung als HadCRUT4

Dies war nicht genug. Wie die endlos angepassten GISS-, RSS- und NCEI-Datensätze hebt HadCRUT5 den Trend an – und zwar um erschreckende 14%. Die übliche Methode wird angewandt: Man korrigiert die früheren Temperaturen nach unten (wir wissen so viel besser, wie die Temperatur vor anderthalb Jahrhunderten war, als die Inkompetenten, die die Messungen damals durchgeführt hatten) und korrigiert die späteren Temperaturen nach oben, mit dem Effekt, dass der Trend steiler wird und die scheinbare Erwärmung zunimmt.

Natürlich werden ausführliche Begründungen für die Änderungen geliefert. Es liegt jenseits meiner Gehaltsklasse, diese zu bewerten. Es ist jedoch bezeichnend, dass die stark manipulierten GISS-, HadCRUT-, RSS- und NCEI-Datensätze von Klimafanatikern verwaltet werden, während der UAH-Datensatz – der einzige der großen Fünf, der in die andere Richtung gegangen ist – von Klimaskeptikern verwaltet wird.

Ich kenne die beiden Skeptiker, die den UAH-Datensatz aufbewahren. Sie sind ehrenwerte Männer, deren einziges Ziel es ist, so gut sie können, die wahre Rate der globalen Erwärmung zu zeigen. Aber ich traue dem GISS-Datensatz nicht, der wiederholt und verwerflich von seinen Bewahrern manipuliert wurde. Ich traue auch RSS nicht: Als Ted Cruz unser Diagramm zeigte, das die 18 Jahre und 9 Monate der letzten großen Pause in der globalen Temperatur zum sichtbaren Unbehagen der „Demokraten“ im Senat belegte, sagte ich voraus, dass der Verwalter des RSS-Datensatzes, der Skeptiker als „Klimaleugner“ bezeichnet, ihn manipulieren würde, um die Pause verschwinden zu lassen. Ein oder zwei Monate später kündigte er an, dass er genau das tun würde, und genau das tat er dann auch. Was HadCRUT betrifft, lesen Sie einfach die Harry-Read-Me-Datei, um zu sehen, in welch hoffnungslosem Zustand sich das befindet.

Und der NCEI-Datensatz stand viele Jahre lang unter dem Einfluss des unseligen Tom Karl. Ich habe einmal neben ihm im Repräsentantenhaus ausgesagt, wo er versuchte zu behaupten, dass meine Behauptung, dass es fast ein Jahrzehnt der globalen Abkühlung gegeben habe, unbegründet sei – obwohl sein eigener Datensatz (wie auch alle anderen) genau das zeigte.

HadCRUT5 zeigt einen Trend von 1,04 K von 1850-2020, oder drei Fünftel Grad pro Jahrhundert, was einem Anstieg von 14% gegenüber dem Trend von 0,91 K der HadCRUT4-Daten entspricht:

Aus dem HadCRUT5-Trend kann man berechnen, wie viel Erwärmung letztendlich zu erwarten wäre, wenn wir das CO2 in der Luft im Vergleich zu 2020 verdoppeln würden. Man muss auch den anthropogenen Nettoantrieb seit 1850 kennen (2,9 W/m²); das planetarische Energie-Ungleichgewicht, das durch die Verzögerung der Rückkopplung verursacht wird (0,87 W/m²); den verdoppelten CO2-Strahlungsantrieb (3. 52 W/m² als Mittelwert in den CMIP6-Modellen); den anthropogene Anteil der beobachteten Erwärmung (70 %); der exponentielle Wachstumsfaktor, der mehr Wasserdampf in wärmerer Luft erlaubt (7 % pro Grad direkter Erwärmung); und der Planck-Sensitivitäts-Parameter (0,3 K/Wm²).

Alle diese Werte sind recht aktuell, weil alle damit beschäftigt waren, die Daten für die nächste mehrtausendseitige Horrorgeschichte des IPCC auf Vordermann zu bringen, die später in diesem Jahr erscheinen soll. Die Berechnungen sind in der Tabelle zusammengefasst. Die sieben Eingangsparameter habe ich nach drei Kriterien ausgewählt: Sie sollten aktuell sein, im mittleren Bereich liegen und dem Mainstream entsprechen, d.h. aus Quellen stammen, die die Klimafanatiker akzeptieren würden.

Das Industriezeitalter von 1850-2020 ist der Basiszeitraum für die Berechnung der Rückkopplungsreaktion pro Grad Referenzsensitivität über den Zeitraum. Diese stellt sich als 0,065 heraus. Dann findet man die Einheitsrückkopplungsantwort für den 100- bis 150-Jahres-Zeitraum von 2020 (415 ppmv CO2) bis 830 ppmv CO2, indem man die Einheitsrückkopplungsantwort erhöht, um zusätzlichen Wasserdampf in wärmerer Luft zu berücksichtigen.

Schließlich multipliziert man die Referenzsensitivität von 1,053 K bei verdoppeltem CO2 mit dem Systemgewinnfaktor, der die Rückkopplungsreaktion der Einheit plus 1 ist: Die mittlere Gleichgewichtsempfindlichkeit bei verdoppeltem CO2, bekannt als ECS, stellt sich als nur 1,1 K heraus. Wenn man den HadCRUT4-Erwärmungstrend verwenden würde, wäre ECS weniger als 1 K. Ich hatte zuvor vermutet, dass der HadCRUT5-Trend 1,1 K betragen würde, was 1,2 K ECS impliziert.

Man vergleiche diese kleinen und harmlosen Werte im mittleren Bereich mit den offiziellen CMIP6-Vorhersagen: untere Grenze 2 K; mittlere Grenze 3,7 K; obere Grenze 5,7 K; ujtopischer Rand 10 K.

Man kann sich ausrechnen, um wie viel größer die Einheitsrückkopplung nach 2020 im Vergleich zur Einheitsrückkopplung von 1850-2020 wäre, wenn diese absurd überhöhten Vorhersagen der neuesten Modellgeneration richtig wären: untere Grenze 14, mittlere Grenze 19, obere Grenze 67, utopische Grenze 130.

Diese aufschlussreichen Zahlen zeigen, wie wahnsinnig und ungeheuerlich übertrieben die offiziellen Vorhersagen zur globalen Erwärmung sind. Es gibt keine physikalische Grundlage für die Annahme, dass die Einheitsrückkopplung ab 2020 auch nur das 14-fache der Einheitsrückkopplung von 1850-2020 betragen wird. Sie könnte höchstens etwa das 1,1-1,2-fache der früheren Einheitsrückkopplung betragen. Daher ist sogar die von den Modellen vorhergesagte untere Grenze der globalen Erwärmung von 2 K, die X = 14 impliziert, weit übertrieben.

Dies ist der einfachste Weg, um zu zeigen, dass die Vorhersagen der Modelle zur globalen Erwärmung ohne einen Funken Legitimität oder Glaubwürdigkeit sind. Sie sind ausgeklügelte Fiktionen. Sie leiden unter zwei Mängeln: Sie sind grob überzogen und entsprechend schlecht berechnet.

Denn, wie die Grafik zeigt, ist die ECS-Antwort auf Rückkopplungsanteile rechteckig-hyperbolisch. Der in den lächerlichen Vorhersagen der Modelle implizit enthaltene Rückkopplungsanteil (der Anteil des ECS, der durch die Rückkopplungs-Reaktion repräsentiert wird), übersteigt im Allgemeinen 0,5: aber es gibt absolut unmöglich, dass der Rückkopplungsanteil in einem nahezu perfekt thermostatischen Klima auch nur annähernd 0,5 betragen könnte. Als ich diese Grafik zum ersten Mal einer Gruppe von IPCC-Leitautoren zeigte, hörten sie plötzlich mit dem Spott auf, dem sie den größten Teil meines Vortrags unterworfen hatten. Plötzlich verstummte der führende Spötter und sagte dann: „Haben Sie das veröffentlicht?“

Nein, sagte ich, denn zu diesem Zeitpunkt hatte ich noch nicht herausgefunden, was die Klimatologen falsch gemacht hatten. „Nun, Sie müssen veröffentlichen“, sagte er. „Das ändert alles.“

Das tut es auch. Aber die Veröffentlichung wird sehr schwierig werden, nicht weil wir falsch liegen, sondern weil wir richtig liegen. Wenn es nur wenig mehr als 1 K anthropogene Erwärmung im nächsten Jahrhundert oder so geben wird, gibt es absolut keine Notwendigkeit, etwas zu tun, um dies zu verhindern. Die Abwanderung wichtiger Produktionsindustrien nach China, das mächtig von dem Klimabetrug profitiert, der im Westen von den dies subventionierenden katzbuckelnden Frontgruppen verführerisch gefördert wird, kann und sollte rückgängig gemacht werden.

Wir unternehmen Schritte, um die britische Regierung zu zwingen, der Wahrheit Beachtung zu schenken, dass die globale Erwärmung nicht mehr als ein Drittel der gegenwärtigen offiziellen Vorhersagen im mittleren Bereich betragen wird und dass daher kein Netto-Schaden daraus entstehen wird. Man verfolge, wie das jetzt weitergeht..

Link: https://wattsupwiththat.com/2021/02/21/hadcrut5-shows-14-more-global-warming-since-1850-than-hadcrut4/

Übersetzt von Chris Frey EIKE

 




Das schwächste Glied in der Kette zu mehr EV ist der Nachschub an Rohstoffen

Der Druck „grün“ zu werden nimmt zu, verkünden doch mehrere Länder Pläne, Benzin- und Dieselautos aus dem Verkehr zu ziehen. Deutschland wird den Verkauf aller neuen Benzin- und Dieselautos ab 2030 stoppen, Schottland ab 2032, und Frankreich und Großbritannien ab 2040.

Sogar Kalifornien, der derzeitige Spitzenreiter in Amerika mit 50 Prozent der EV’s im Land, ist auf den EV-Zug aufgesprungen. Der in diesem Jahr zur Wiederwahl anstehende demokratische Gouverneur Gavin Newsom hat 2020 eine Executive Order erlassen, die den Verkauf von Benzinfahrzeugen in Kalifornien bis 2035 verbietet.

Eine Tesla-Lithium-Batterie für EVs wiegt über 1000 Pfund. Zwar gibt es Dutzende verschiedener Typen derselben, aber eine solche EV-Batterie enthält normalerweise etwa:

  • 25 Pfund Lithium,

  • 30 Pfund Kobalt,

  • 60 Pfund Nickel,

  • 110 Pfund Graphit,

  • 90 Pfund Kupfer.

Wenn man sich den jeweiligen Gehalt an Erzen im Vorfeld ansieht, kann man die typische Menge Gestein abschätzen, die aus der Erde extrahiert und verarbeitet werden muss, um die reinen Mineralien zu erhalten, die für die Herstellung dieser einen Batterie benötigt werden:

● Lithium-Sole enthält in der Regel weniger als 0,1 % Lithium, was bedeutet, dass etwa 25.000 Pfund Sole benötigt werden, um die 25 Pfund reines Lithium zu erhalten.

● Der durchschnittliche Kobalterzgehalt liegt bei etwa 0,1 %, daher werden fast 30.000 Pfund Erz benötigt, um 30 Pfund Kobalt zu erhalten.

● Nickelerz hat einen durchschnittlichen Gehalt von etwa 1 %, also etwa 6.000 Pfund Erz, um 60 Pfund Nickel zu erhalten.

● Graphiterz hat typischerweise einen Anteil von 10%, also etwa 1.000 Pfund pro Batterie, um 100 Pfund Graphit zu erhalten.

● Kupfer liegt bei etwa 0,6 % im Erz, also etwa 25.000 Pfund Erz pro Batterie, um 90 Pfund Kupfer zu erhalten.

Insgesamt erfordert die Gewinnung dieser fünf Elemente zur Herstellung einer 1.000-Pfund-EV-Batterie also den Abbau von etwa 90.000 Pfund Erz. Um die gesamten Erdbewegungen zu berücksichtigen – was für den gesamten ökologischen Fußabdruck und den Energieverbrauch der Bergbaumaschinen relevant ist – muss man den Abraum abschätzen, bevor an an das Erz gelangt. Abhängig von der Art des Erzes und dem Ort, an dem es abgebaut wird, müssen zwischen 3 und 20 Tonnen Erde abgetragen werden, um an jede Tonne Erz zu gelangen.

Das bedeutet, dass für den Zugang zu etwa 90.000 Pfund Erz zwischen 200.000 und über 1.500.000 Pfund Erde ausgegraben und bewegt werden müssen – ein grober Durchschnitt von mehr als 500.000 Pfund Erz pro Batterie.

Laut dem emeritierten Technologieprofessor der Universität Cambridge Michael Kelly würde der Ersatz aller 32 Millionen Leichtfahrzeuge in Großbritannien durch Elektrofahrzeuge der nächsten Generation riesige Mengen an Material für die Herstellung von 32 Millionen EV-Batterien erfordern:

Über 50 Prozent der weltweiten Jahresproduktion von Kupfer.

200 Prozent der jährlichen Kobaltproduktion.

75 Prozent der jährlichen Lithiumkarbonat-Produktion; und

fast 100 Prozent seiner gesamten Jahresproduktion an Neodym.

Wenn man bedenkt, dass die Welt möglicherweise nicht genug Mineralien und Metalle für die EV-Batterien hat, um die EV-Wachstumsprognosen zu unterstützen, kann man leicht Folgendes erkennen:

Der kombinierte weltweite Autoverkauf im Jahr 2019 lag bei mehr als 65 Millionen Fahrzeugen pro Jahr.

Es gibt 1,2 Milliarden Fahrzeuge auf den Straßen der Welt mit Prognosen von 2 Milliarden bis 2035.

Heute sind weniger als 8 Millionen E-Fahrzeuge auf den Straßen der Welt unterwegs. Wenn die EV-Prognosen bis zum Jahr 2035 Realität werden, würden 5 bis 7 Prozent der 2 Milliarden Fahrzeuge 125 Millionen EVs auf den Straßen der Welt bedeuten, und diese Zahl könnte sich sogar verdoppeln, wenn die Regierungen das Tempo der Gesetzesänderungen erhöhen. Wenn man sich jedoch die britische Studie über die benötigten Materialien für nur 32 Millionen EV-Batterien ansieht, könnte es sein, dass es auf der ganzen Welt nicht genug Materialien gibt, um die EV-Umstellungspläne zu erfüllen.

Eine weitere schlechte Nachricht ist, dass eine einstellige Marktdurchdringung der weltweit prognostizierten 2 Milliarden Fahrzeuge auch mehr als 125 MILLIARDEN Pfund an Lithium-Ionen-Batterien bedeuten würde, allein von diesen 125 Millionen EV’s, die in den kommenden Jahrzehnten entsorgt werden müssen.

Null- und schadstoffarme Fahrzeuge gehören in der Regel Leuten mit höherer Bildung und höherem Einkommen: über 70 Prozent der EV-Besitzer haben einen vierjährigen College- oder Postgraduiertenabschluss. Dies erklärt wahrscheinlich, warum das durchschnittliche Haushaltseinkommen von EV-Käufern über 200.000 Dollar liegt. Wenn Sie nicht zu den höher Gebildeten und Einkommensstarken gehören und ein Hausbesitzer oder Bewohner einer NEUEN Wohnung sind, die über einen Ladeanschluss verfügt, haben Sie vielleicht keine Lust auf ein EV.

Eine aktuelle Studie aus dem Jahr 2021 aus Kalifornien zeigt, dass E-Fahrzeuge nur halb so oft gefahren werden wie Fahrzeuge mit Verbrennungsmotor, was noch einmal verdeutlicht, dass E-Fahrzeuge in der Regel als Zweitfahrzeuge und nicht als primäres Arbeitsfahrzeug für die wenigen Eliten, die es sich leisten können, eingesetzt werden.

Um auf die Pläne zurückzukommen, ein großes Haus zu bauen, für dessen Fertigstellung nicht genügend Materialien zur Verfügung stehen, sollten wir vielleicht von der britischen Studie über den Materialbedarf von nur 32 Millionen EV-Batterien (weniger als 7 Prozent von 2 Milliarden Fahrzeugen im Jahr 2035) lernen und uns das Ziel setzen, eine EV-Population zu erreichen, die das weltweite Angebot an Mineralien und Metallen unterstützen kann.

Autor: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics

Link: https://www.cfact.org/2021/02/15/weakest-link-to-ev-growth-is-the-material-supply-chain/

Übersetzt von Chris Frey EIKE

 




Netto-Verluste: Subventionierte Wind- und Solarindustrien zerstören mehr Arbeitsplätze als jemals zuvor

Der Mythos über sogenannte „grüne“ Energiearbeitsplätze ist genau das – nur ein Mythos..

Südaustraliens Besessenheit von Wind- und Sonnenstrom trieb die Strompreise durch das Dach und ganze Branchen aus dem Geschäft. Der [Bundes-] Staat hat einen wirtschaftlichen Rückstau, der entscheidend von den Verteidigungsausgaben des Commonwealth abhängt, um einige bedeutende Arbeitsplätze beim Bau von Fregatten und U-Booten für die Marine zu erhalten.

Und Südaustralien ist nicht der einzige Ort auf der Welt, an dem subventionierte, zeitweise und völlig unzuverlässige Windkraft zu einer nachgewiesenen sozialen und wirtschaftlichen Katastrophe geworden ist  –  Ach nein. Die unvermeidlichen Konsequenzen des Versuchs, eine Wirtschaft nach den Launen des Wetters zu führen, sind universell.

In diesem Beitrag behandelte STT  eine sehr detaillierte Studie aus Wisconsin über die Auswirkungen steigender Strompreise (verursacht durch die massiven Subventionen für Wind und Sonne) auf reale Arbeitsplätze. Basierend auf tatsächlichen Daten, nicht auf Modellen und Annahmen – hat Wisconsins popliges 10% Ziel für Erneuerbaren Strom ein Loch in Höhe von Milliarden US-Dollar in der jährlichen Wirtschaftstätigkeit geschlagen; vernichtet jährlich 10.000 echte Arbeitsplätze; und Überraschung, Überraschung – es gibt keine Anzeichen für den viel gepriesenen Boom für „grüne“ Arbeitsplätze – wie es die Windindustrie, ihre Parasiten und Gaukler seit langem versprochen haben.

Und jeder Job, der auf Dauer von ständigen Steuerzuschüssen abhängt, ist keine sinnvolle Beschäftigung. Es ist Wohlfahrt [und Betrug am Steuerzahler] unter einem anderen Namen.

Der Zusammenhang zwischen Subventionen für Wind- und Solarenergie und „grünen“ Arbeitsplätzen wird ziemlich offensichtlich, sobald die Subventionen gekürzt werden. Als Europa Anfang 2019 begann, sie zu kürzen, lag die Windindustrie in den Seilen: Der deutsche Bau von WKAs kam zum Stillstand .In der EU war 2018 „das schlechteste Jahr für neue Windenergieanlagen seit 2011“

Der Zusammenbruch der Hersteller von Windkraftanlagen und Solarmodulen war plötzlich und erstaunlich, aber nicht überraschend. Die neue „grüne“ Wirtschaft wurde brandig; Tausende von Arbeitsplätzen wurden über Nacht abgebaut: in 2018 baute die deutsche Solarindustrie 80.000 Arbeitsplätze ab und der dänische Turbinenhersteller Vestas hat allein in einem Werk 600 Mitarbeiter seines „geschätzten“ Teams entlassen

In Anbetracht dieser Beispiele braucht es eine ziemlich mutige Seele, um irgendwo für einen Glücksfall „grüner Jobs“ zu werben.

Aber es gibt viele, die sich in den Hallen der Macht eingenistet haben  – diejenigen, die Fakten und Beweise ignorieren, als wären sie lästige Buschfliegen bei einem Outback-Rennen. Das Problem ist, dass Sie sie nur so lange verscheuchen können, bis sie schließlich zurückkommen, um Sie zu beißen.

Der Australier Adam Creighton wirft einen Blick auf die großen „grünen“ Jobs.

 

Der Revolution grüner Arbeitsplätze geht die Puste aus

The Australian, Adam Creighton, 13 February 2021

Früher war das „Lernen des Programmierens“ der Schlüssel für Arbeitnehmer, die vor dem wirtschaftlichen Ruin standen, um wieder bezahlte Arbeit  zu bekommen.

Der neue US-Außenminister John Kerry forderte kürzlich die Arbeiter auf, die sich über die Schließung der Keystone XL-Pipeline durch die Biden-Regierung ärgerten, „zu lernen, wie man Sonnenkollektoren herstellt“.

Der vom vorherigen Präsidenten Donald Trump, genehmigte Ausbau von mehr als 500 km Pipeline, hätte Öl aus Alberta, Kanada, zu Raffinerien in Illinois und Texas gepumpt.

So wie Programmierjobs immer noch nur einen winzigen Anteil an den Arbeitsplätzen ausmachen, werden auch „grüne Jobs“ – vage definierte, tugendhafte Arbeit zur Eindämmung des Klimawandels – dem Hype nicht gerecht.

Inmitten der wirtschaftlichen Unsicherheit durch Corona werden jedoch nur wenige Trost in der Erfolgsbilanz grüner Arbeitsplätze finden. Zwar stieg in der Dekade bis 2019 die Zahl der Beschäftigten im Bereich der erneuerbaren Energien in Australien um beeindruckende 120 Prozent, alle zusammen summieren sich nun auf 27.000, bei mehr als 13 Millionen Arbeitskräften.

Laut einer Analyse des Instituts für öffentliche Angelegenheiten stellen Arbeitsplätze im Bereich erneuerbare Energien im selben Zeitraum von 10 Jahren, 1 Prozent der neu geschaffenen Vollzeitarbeitsplätze. „Gegenüber jedem Vollzeitjob im Bereich erneuerbare Energien gibt es 56 Arbeitsplätze in der Landwirtschaft, im Bergbau und im verarbeitenden Gewerbe“, erklärt Daniel Wild, ein IPA-Forscher.

Die frühere ACTU-Chefin Jennie George [Australian Council of Trade Unions ~Arbeitergewerkschaft] wies letzte Woche auf „Kohlenstoffarbeiter“ in den Bereichen Kohlebergbau, Gas- und Ölförderung, Erzeugung fossiler Brennstoffe und integrierte Stahlherstellung hin.

Es kann nun wirklich keiner behaupten, dass grüne Jobs nicht genug Zeit hatten, sich zu vermehren. Das Ziel für erneuerbare Energien, nach dem Stromhändler mehr als 20 Prozent des Stroms aus erneuerbaren Quellen beziehen müssen, wurde bis 2020 vollständig umgesetzt. In Queensland verfügen fast 40 Prozent der Haushalte über Solarmodule auf dem Dach, während in Südaustralien routinemäßig berichtet wird, dass 70 Prozent des Stroms aus erneuerbaren Quellen stammen.

[Note to Adam ~ Nebenbei bemerkt: Sie sind ausgebildeter Wirtschaftswissenschaftler und sollten Ihre Statistik vorwärts-und-rückwärts beherrschen. Es kann nicht schaden, die 70% Zahl im obigen Absatz „im Durchschnitt“ zu erklären. Wenn die Sonne untergeht und ruhiges Wetter einsetzt, können Sie in Südaustralien (oder Queensland) um keinen Preis Wind- oder Sonnenenergie kaufen. Oh, und übrigens, Strom wird nicht „im Durchschnitt“ verbraucht. Der arme Mensch auf der Intensivstation braucht ihn hier und jetzt, nicht nur, wenn der Wind weht oder die Sonne aufgeht.]

Wir sollten bereits einen Boom grüner Arbeitsplätze erleben.

Deutschland, das den Übergang zu erneuerbaren Energien so ernst nimmt, dass es ein Wort dafür hat „Energiewende“, bietet eine warnende Geschichte. Bis 2030 sollen 65 Prozent des Stroms aus erneuerbaren Quellen stammen.

Vergangenen Woche wurde berichtet, dass sich die Zahl der Arbeitsplätze im deutschen Sektor für erneuerbare Energien – Produktion und Installation – von 300.000 im Jahr 2011 auf rund 150.000 im Jahr 2018 fast halbiert hatte, was nur teilweise durch einen Zuwachs von 30.000 in Service und Wartung auf insgesamt rund 80.000 ausgeglichen wurde.

Chinas wachsende Wettbewerbsfähigkeit bei der Herstellung von Solarmodulen erklärt den Verlust. Von den zehn größten Solarmodulherstellern der Welt sind in acht China. Wenn Chinas Löhne zu stark steigen, wäre Indien im Einsatz.

Wenn das deutsche verarbeitende Gewerbe nicht mithalten kann, kann es das australische auch nicht. Solange sich die Löhne und Bedingungen in fortgeschrittenen Ländern nicht wesentlich verschlechtern, werden ihre Arbeiter keine Sonnenkollektoren herstellen, wie Kerry anpreist.

Was gibt es sonst noch in „grün“? Für die meisten Arbeitslosen ist es keine Option, in einem großen Unternehmen ein „Leiter für Nachhaltigkeit“ für 500.000 USD pro Jahr zu werden.

Erneuerbare Energien sind grundsätzlich weniger arbeitsintensiv als die Energieversorgung aus herkömmlichen Energiequellen. Für den Betrieb von Kohle-, Gas- und Kernkraftwerken sind Hunderte, manchmal Tausende Facharbeiter erforderlich. Im Gegensatz dazu werden Sonnenkollektoren und Windturbinen nach ihrer Inbetriebnahme weitgehend vergessen.

 [Nebenbei bemerkt: In großen Solarfeldern gibt es für einige „glückliche“ Menschen die ständige Aufgabe, Unkrautvernichter zu versprühen und die Sonnenkollektoren mit Wasser zu waschen, um Schmutz und Staubablagerungen zu entfernen. Auch die Wartung von Windkraftanlagen beschäftigt einige Jungs. Getriebe und Generatoren müssen häufig nach einigen Jahren ausgetauscht werden , ebenso gebrochene Schaufeln , bevor sie zerfallen und in alle Richtungen abfliegen. Als unerwartetes Nebengeschäft gab es einen Anstieg der Arbeitsplätze für Trucker und Bulldozer-Betreiber, die an der Bestattung der Überreste beteiligt waren (siehe Bild im Original vom verbuddeln der Überreste). Die mit den WKAs verbundenen Betriebs- und Wartungskosten beginnen bei etwa 25 USD pro gelieferter MW / h und steigen mit der Zeit . Also kaum ein „fertig und vergessen“ Betrieb.]

Natürlich kann es wirtschaftlich schlecht sein, eine bestimmte Energiequelle nur deshalb zu wählen, wenn dadurch eine große Anzahl von Arbeitsplätzen erhalten bleibt. Die Wirtschaftsgeschichte besteht aus einer Reihe neuer arbeitssparender Geräte, mit denen Arbeitnehmer andere, höherwertige Aufgaben erledigen können.

Entscheidend ist letztendlich, wie billig und zuverlässig die Energie bereitgestellt werden kann. Die Strompreise wirken sich auf die Beschäftigung im verarbeitenden Gewerbe, in der Landwirtschaft und im Bergbau sowie auf die gesamte Wirtschaft aus. Erneuerbare Energien haben eine große oberflächliche Anziehungskraft: Wenn die Sprüche von „kostenloser“ Energie wahr wären, sollten die Stromrechnungen fallen und unsere Wirtschaft von einer der größten Kosten befreit werden, ganz zu schweigen von den beschworenen geringeren Kohlendioxidemissionen, die zur Eindämmung der globalen Erwärmung beitragen würden.

Die Strompreise sind jedoch mit wachsenden Anteilen erneuerbarer Energien [im Durchschnitt!] nicht gesunken. Im Gegenteil, weltweit hat die Einführung von Solar- und Windkraft zu einem außerordentlichen Anstieg der Stromkosten geführt, der den Rückgang der Fertigungsarbeiten in den Industrienationen zusätzlich beschleunigt hat.

Von Anfang der neunziger Jahre bis 2017 erlitt Australien den Preisanstieg vom  billigsten Strom weltweit zum teuersten der Welt – [in ständigem Wettlauf mit Deutschland und Dänemark, vielleicht nun auch mit Kalifornien]. Die Preise sind zuletzt etwas gesunken, aber das scheint eher auf aktuell  geringere Einspeisung von Wind-und Solarstrom bei „schlechten Wetterverhältnissen“ hinzudeuten.

Der „Rohstoff“ für erneuerbare Energien mag selbst „kostenlos“ sein, aber der Bau, die Errichtung und die Wartung der Windräder und Panels – und die massiven teuren Batterien, die nun vermehrt angepriesen werden – sind alles andere als preiswert. Ohne Subventionen wird niemand in einen Sektor investieren, der keine Rendite bringt.

Ironischerweise hat die Fokussierung auf Wind-und  Solarenergie durch die Verteuerung von Strom, Australiens Möglichkeiten zur Herstellung von Solarmodulen [und Windräder] untergraben. Wenn wir bis 2050 den Netto-Nullpunkt erreichen müssen, scheint Atomkraft eine bessere Option zu sein als Wind und Sonne. Selbst wenn es teurer als Kohle und Gas ist, erfordert es zumindest mit dieser Stromquelle hochqualifizierte Arbeitskräfte und arbeitet zuverlässig rund um die Uhr.

The Australian, genehmigter Nachdruck (ohne Bezahlsperre) in

https://www.miningday.com.au/green-jobs-revolution-running-out-of-power/

 

https://stopthesethings.com/2021/02/15/net-loser-subsidised-wind-solar-industries-destroy-more-jobs-than-they-ever-create/

Übersetzt durch Andreas Demmig

 




Naturschutz : Basis gegen den Coup der Lobbyisten*

Im November 2019 rückte Jörg-Andreas Krüger (52) als Nachfolger von Olaf Tschimpke (63) an die Spitze des Naturschutzbunds Deutschland (NABU). Krüger, zuvor Mitglied der Geschäftsleitung des WWF, nahm alsbald Kontakt zur Partei- und Fraktionsspitze der Grünen in Berlin auf.

Monatelang verhandelte ein kleiner Kreis um den neuen Präsidenten mit Grünen-Parteichef Robert Habeck und dem Vize-Chef der Grünen-Bundestagsfraktion Oliver Krischer über ein abgestimmtes Strategiepapier zum schnelleren Ausbau der Windenergie. Anfang Dezember 2020 meldete die „Süddeutsche Zeitung“ den ausgehandelten Schulterschluss zwischen der einflussreichen Umweltschutzorganisation und den Grünen. Deren erklärtes Ziel ist 100 Prozent „Ökostrom“ bis 2030.

Schulterschluss für Ökostrom

In einem vierseitigen Positionspapier „zur Beschleunigung eines naturverträglichen Ausbaus der Windenergie“ erläutern die Vertragspartner ihre Vorstellungen von einem „besseren Klimaschutz“ im Einklang mit dem Naturschutz. Dass fast nichts an diesen Plänen „Öko“ ist, empört zahllose NABU-Aktive im ganzen Land.

Auf seiner Internetseite wirbt der NABU visuell für eine zukünftige Normalität in den ländlichen Gegenden, wie sie den tonangebenden Parteifunktionären vorschwebt. Ein Foto zeigt eine von Hecken umsäumte Agrarlandschaft mit einem angrenzenden Windpark. 16 Windräder ragen hoch in den blauen Himmel auf. Die Atmosphäre ist friedlich. Bilder wie dieses können jedoch die tiefe Spaltung auf allen Ebenen des NABU mit seinen über 800.000 Mitgliedern nicht kaschieren.

Mit seinem Coup hat Krüger den Naturschutzverband ohne Rücksprache mit der Basis und ohne formellen Beschluss auf einen Kurs umgesteuert, der eine Zerreißprobe nach sich ziehen könnte. Mit den Grünen und der Energiewirtschaft fordert jetzt auch der NABU, zwei Prozent der Landfläche Deutschlands für den Bau von Windparks freizugeben. De facto liefe dies auf eine Verdopplung der jetzt schon mit Windkraftanlagen besetzten Fläche hinaus.

Da der Platz für neue Windräder immer knapper wird, kann ein Zubau von weiteren Anlagen auch in bereits belasteten Regionen ermöglicht werden, sofern diese als „Vorranggebiete“ ausgewiesen sind. Nach dem Prinzip „Zuckerbrot und Peitsche“ sollen Bundesländer, die ihre Ziele übererfüllen, finanziell belohnt werden. Wer sie nicht erreicht, muss einen Ausgleich schaffen.

NABU droht Zerreißprobe

In dem Papier finden sich weitere Vorschläge, die auf eine erhebliche Stärkung der Windkraftinvestoren abzielen. Der stärkste Tabubruch aus Sicht der Kritiker: Lange Planungs- und Genehmigungsverfahren mit Rechtsstreitigkeiten aufgrund von Belangen des Artenschutzes könnten in Zukunft verhindert werden, wenn für die Interessen der Windenergiewirtschaft der Ausnahmegrund der „öffentlichen Sicherheit“ angewendet wird.

Damit plädieren Grüne und NABU für die Erteilung artenschutzrechtlicher Ausnahmen vom Tötungsverbot. Nur Gegenden, in denen besonders viele windenergiesensible Vogelarten heimisch sind, sollen zu Ausschlussgebieten erklärt werden. Übrig bleibt von der behaupteten Aufwertung der Naturschutzbelange in dem Strategiepapier einzig der Ausschluss von weiteren Windparks in nicht dafür ausgewiesenen Flächen.

Bislang war der NABU eine der letzten großen Naturschutzorganisationen, die bei den zahllosen lokalen Konflikten wegen geplanter Windparks noch den Vogel- und Artenschutz ins Feld führte. Kein anderer Umweltverband klagte so häufig gegen die Windindustrie. Unterschätzt wurde von der NABU-Leitung der Widerstand von Tausenden mit Herzblut engagierten Mitgliedern vor Ort, aber auch von einigen Vorsitzenden einflussreicher Landesverbände. Nicht alle wollen namentlich zitiert werden.

Protest medial wenig beachtet

Von einem Kampf gegen den Vogelschutz ist die Rede. Statt ein Stoppschild gegen den Ausverkauf der Natur aufzurichten, der in den ländlichen Gegenden seit Jahren läuft, gebe nun nach Maßgabe der Bundesspitze auch der letzte Anwalt der Umwelt grünes Licht für immer mehr Windräder in den Gemeinden und weitere Rodungen in den Wäldern. Man werde sich „bis zum letzten Hemd gegen diese Nummer wehren“. Bezeichnenderweise wurde den Stimmen zorniger Aktiver gegen ein aus dem Ruder gelaufenes Verständnis von Klimaschutz lediglich von dem wenig bekannten Online-Magazin Riffreporter/Flugbegleiter Gehör verschafft, einer Genossenschaft von freien Journalisten.

Lob erntete die neue NABU dagegen vom Bundesverband Windenergie. Die Branche kann nun mit Rückendeckung des NABU gegen dessen eigene Mitglieder vorgehen, wenn sich diese mit Bürgerinitiativen vehement gegen Windparkprojekte in ihrer Region wehren.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  19. Februar 2021, S.4; EIKE dankt der PAZ-Redaktion sowie der Autorin Dagmar Jestrzemski für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/ ; Hervorhebungen im Text: EIKE-Redaktion.

=================================================================




Klimaschau 17 – die Tagesschau von Sebastian Lüning

Thematisch sortiertes Beitrags-Verzeichnis aller Klimaschau-Ausgaben: http://klimaschau.tv