1

Claudia Kemfert bei Lanz: Gut behauptet ist glatt daneben!

Der Teil, in welchem Kemfert Markus Lanz und Friedrich Merz Rede und Antwort steht, ist hier als Video-Ausschnitt verfügbar. Die wesentlichen Aussagen (ab Minute 9:47) zur Energiewende und deren Machbarkeit sind hier transkribiert:

Merz: Wir können das hier alle machen, nur, wenn uns gleichzeitig hier in Deutschland die Wirtschaft kaputtgeht, wenn die Arbeitsplätze verlorengehen.

Kemfert: Das ist genau das Argument, was ich meine…

M.: Sie kriegen mit Windenergie und Sonnenenergie die Arbeitsplätze nicht ersetzt…

K: Doch, natürlich, so, doch, wir sind jetzt hier an einem Punkt…

M.: …die in der Stahlindustrie, der Zementindustrie in der gesamten Papierindustrie und überall ver … Nein, da sind wir an ´nem Punkt, wo wir uns nicht einig werden. Da sind einige unterwegs, die glauben, man könnte das ganze System sozusagen auf den Kopf stellen und dann Umwelt machen, und wir machen hier zwei Prozent der weltweiten Emissionen und drumherum werden die Kernkraftwerke hochgefahren und die Kohlekraftwerke hochgefahren, damit Deutschland mit Strom versorgt werden kann.

K: Das stimmt alles nicht

M.: Die Rechnung geht nicht auf, …

Kemfert: Ja aber, das stimmt [nicht], man muss jetzt wirklich massiv, nein, nein, aber man muss wirklich widersprechen, weil das tatsächlich nicht. … Keiner der Punkte. Also wir können auch dieses Land mit einer Energieversorgung aus erneuerbaren Energien sicherstellen. Sie haben in Ihrer Partei zugelassen, dass wir viele Jobs in der Solarindustrie verloren haben, auch in der Windindustrie. Wir könnten auch Solarenergie auch in Deutschland wieder produzieren, in Europa jetzt auch durch die Wirtschaftshilfen, die dort getätigt werden. Das ist das eine. Jobs entstehen … wichtige Industriejobs, die dort entstehen.

Installierte Leistung vs. Verbrauch per Mai 20121 á la Kemfert  verdreifacht.

Energiewirtschaftlich macht es auch Sinn, gerade wenn wir die Industrie dekarbonisieren, dass wir auch dort Ökostrom nutzen zur Herstellung von Wasserstoff, grünen Wasserstoff, und da auch die Möglichkeit schaffen, die Industrie hier im Land zu lassen. Wir wollen ja nicht, dass die abwandert. Nur Ihre Argumente sind immer, das muss man auch bezahlen, Sie sagen aber indirekt mit dem Marktinstrument, der Preis, das hab´ ich Ihnen eben schon vorgerechnet, der würde massiv nach oben gehen und das schadet ja der Industrie. Also insofern muss man da schon eine Balance finden, den Preis jetzt so vorzugeben macht dann Sinn, weil sich die Industrie auch auf diese Preisorientierung einstellen kann. Und: Der Strompreis sinkt, um diesen Punkt zu machen, mit einem höheren CO2-Preis sinkt der Strompreis, weil die EEG-Umlage sinkt. […].

Kommentar:

Zu diesem Wortwechsel einige Bemerkungen: Frau Kemfert meint, dass sich die Energieversorgung Deutschlands komplett mittels erneuerbarer Energieträger sicherstellen lasse. Dann springt sie zur Produktion von Solarmodulen und Windkraftanlagen, wo viele Jobs verloren gingen. Das hat mit Energieversorgung allerdings nichts zu tun. Wichtig scheint ihr der Seitenhieb gegen Merz zu sein: Sie haben in Ihrer Partei zugelassen, … „. 

Frau Prof. Kemfert macht nun das Fass „Industrie und Verhinderung der Abwanderung, grüner Wasserstoff, Dekarbonisierung und Kosten“ auf. Sie meint wohl den CO2-Preis, der vorgegeben werden sollte. Zwecks Kalkulierbarkeit. Ob und wann nach ihrer Meinung der Preis tragbar ist, darauf geht sie nicht ein.

Vom Zertifikatehandel spricht sie überhaupt nicht. Vor allem aber beantwortet sie nicht, weswegen es nicht stimme, was Friedrich Merz eingeworfen hat und weshalb wir „dieses Land mit einer Energieversorgung aus erneuerbaren Energien sicherstellen“ können. Frau  Kemfert belegt ihre Behauptung nicht. Deshalb fragt Markus Lanz höflich, aber bestimmt nach:

Lanz: […] Woher kommt der Strom für die ganzen Elektroautos, die wir demnächst haben? Woher kommt der Strom, für den Wasserstoff, den wir erzeugen müssen, wenn wir CO2-freien Wasserstoff, äh …, Stahl erzeugen wollen? Und so weiter…

K: Richtig!

L.: …und so weiter. Ich kenne Projektionen von Kollegen von Ihnen, die sagen, in den nächsten paar Jahren wird der Energiebedarf einfach sich verdoppeln.

K: Nein, das stimmt nicht!

L.: Exakt verdoppeln.

K: Nein, nein, also da muss man jetzt unterschei …

L.: Kurz, nur ganz kurz, darf ich mal kurz ausreden?

K: Bitte.

L.: Die Frage ist: Wo kommt dieser ganze Strom…

K: Genau!

L.: …her, wenn wir gleichzeitig sagen, wir gehen raus aus der Kohle, wir gehen auch raus aus der…

K: Guter Punkt! Genau!

L.: …Atomkraft.

K.: Genau. Der Strom kommt aus erneuerbaren Energien, weil…

L.: Der gesamte deutsche Strom!

K.: …weil zwei Dinge passieren. Und das ist einmal diese fehlerhafte Annahme, die hier zugrunde gelegt wird. Der sogenannte Primärenergiebedarf, das ist der Energiebedarf, den wir auch für Wärme und Mobilität nutzen, sinkt, wenn wir den Ökostrom sofort nutzen. Das heißt der Ökostrom in die Wärmepumpe plus energetische Gebäudesanierung sinkt der Primärenergiebedarf. Der Öko …, das stimmt, der Ökostrom, die Mobilität, aber auch dort sinkt der Primärenergiebedarf, weil wir eine viel höhere Effizienz haben, weil wir Elektromobilität nutzen … sprich der Primärenergiebedarf halbiert sich, aber der Strombedarf erhöht sich…

L: Ja!

K.: ...und der Strombedarf erhöht sich und da kommt es jetzt darauf an, wie effizient wir sind, wenn wir im großen Stil Wasserstoff produzieren, den in die Autos tun, dann verschwenden wir ganz viel Ökostrom und müssen ganz viel zubauen. Wenn wir den aber direkt in die Ökoau … , Elektroautos tun, den Ökostrom, dann reduzieren wir den Primärenergiebedarf. Und das können wir schon auch in Deutschland sicherstellen. Die Frage mit der Industrie…

L.: Wir sind das einzige Land der Welt, dass das geht.

K.: […] Es ist nicht nur Glauben, wir können´s empirisch belegen. Und wir können´s auch fach…, in der Fachwelt darlegen. Das sind nicht nur wir, das sind die Scientists for Future. Die haben im Rahmen eines umfassenden Projektes das dargelegt, dass das funktioniert und auch wissenschaftlich bewiesen. (bis Minute 13:44)

Kommentar:

Die Antwort von Claudia Kemfert ist ein Konvolut von Sachverhalten, die alle irgendetwas mit Energieversorgung, mit Energiewende und mit regenerativ verfügbar gemachter Energie zu tun haben. Nur mit der Beantwortung der Frage, die Markus Lanz gestellt hat, damit hat die Antwort nichts zu tun.

Hinzu kommt, dass die Aussagen in Teilen falsch sind. Wenn Frau Prof. Kemfert davon spricht, dass sich der Primärenergiebedarf halbiert, wenn sich der Strombedarf erhöht, ist das Unfug. Erneuerbar erzeugter Strom ist Teil des Primärenergieverbrauchs. Wobei im grünen Teil des Balkens auch die Gasherstellung und die Verflüssigung von Biomasse und nicht nur die Stromherstellung enthalten ist.

Dass Wasserstoffherstellung und die Rücktransformation in Strom sehr energieintensiv sind, weiß Frau Prof. Kemfert. „Ganz viel zubauen“ hieße konkret eine Versechzehnfachung (!) der installierten Leistung Windkraft und eine Verzweiunddreißigfachung (!) der installierten Leistung Photovoltaik, bezogen auf eine definierte Strommenge zum Laden von Autoakkus.

So viel zusätzliche installierte Leistung ist nötig, um den Strom über den (Um-)Weg „Wasserstoff“ (= aus 100 Prozent Strom werden 25 Prozent) bereitzustellen. Frau Kemfert hat also durchaus recht, wenn sie im Bereich Elektromobilität vom Wasserstoffpfad abrät. Das gilt jedenfalls so lange, wie die erneuerbare Stromerzeugung nicht 100 Prozent und mehr des Bedarfs Deutschlands zumindest im Durchschnitt deckt. Dieses Mehr kann dann als wirklich grüner Wasserstoff gespeichert werden. Das aber ist heute und wird auch in weiterer Zukunft nicht der Fall sein.

Frau Kemfert liegt mit ihrer Behauptung, die komplette Energieversorgung Deutschlands sei praktisch zu Tages- und Nachtzeit regenerativ sicherzustellen, komplett neben der Realität. Zur Frage, ob durch Elektromobilität tatsächlich fossiler Brennstoff eingespart wird, sei das Video mit den Ausführungen von Prof. Hans-Werner Sinn empfohlen.

Die regenerative Stromerzeugung sah in den vergangenen Jahren wie dieser Chart aus. Etwa 50 Prozent beträgt die regenerative Stromerzeugung. Sie ist, von den praktisch kaum ausbaubaren Energieträgern Biomasse und Wasserkraft abgesehen, höchst volatil und nur schwer kalkulierbar. Mangels ausreichender Speichermöglichkeiten wird ein weiterer Ausbau der Wind- und Photovoltaik zu zeitweise, vor allem in der Mittagsspitze, erheblichem Überangebot mit starkem Preisverfall führen.

Belege für meine Behauptungen liefern die wöchentlichen Analysen der Kolumne „Woher kommt der Strom?“. Wie Frau Kemfert hingegen etwas fachlich und empirisch belegen will, bleibt bis auf den Verweis auf den 16-Punkte-Diskussionsbeitrag der Scientists for Future ihr Geheimnis. Doch selbst eine Umsetzung von deren Ideen reicht bei weitem nicht aus, um den um mehr als die Hälfte steigenden Strombedarf Deutschlands ab 2030 zu decken. Also hakt Friedrich Merz nach. Friedrich Merz fragt Frau Prof. Kemfert noch mal (Minute 14:51):

Merz: Wo kommt der Strom für die Aluminiumindustrie her, die sekundengenau den Strom braucht?

Kemfert: Das erläutere ich Ihnen gerne, weil es dazu wissenschaftliche Erkenntnisse gibt, die da folgendermaßen sind. Wir müssen in der Tat Solarenergie und Windenergie ausbauen, der Ökostrom, damit produzieren wir Wasserstoff, der auch in die Industrie geht. Die Frage ist in der Tat, ob wir das in Deutschland alleine können, oder ob wir den Wasserstoff importieren müssen. Da gibt es ja auch Kooperationen in Ländern, wo Ökostrom preiswert zur Verfügung steht und diesen Wasserstoff dann zu importieren, halte ich durchaus auch für sinnvoll. Da laufen ja auch Projektevorhaben und Kooperationen. Der Rest der Energie, der Ökostrom, den wir da brauchen, ist zu jeder Tages- und Nachtzeit produzierbar und auch speicherbar.

Es gibt genügend Studien, die belegen, dass wir ausreichend Speicher haben. Schon heute auch im Einsatz hätten, wenn wir den Markt dafür zulassen würden. Also eine Vollversorgung mit erneuerbaren Energien ist möglich

M.: Also ich komm‘ vom Land. Bei mir zuhause scheint nachts die Sonne nicht.

K.: Ja, aber da weht zum Beispiel auch der Wind, auch bei Ihnen. Dazu gibt es empirische Erkenntnisse…

Der Beitrag erschien zuerst bei ACHGUT hier

M: Es gibt Tage, da weht null Wind, wir haben keine Sonne.

K.: …wie auch der Wind… Sie machen ein Extremszenario, was wir nachweisen können, was es einmal im Jahr maximal für zehn Tage gebe. Die restlichen Tage haben wir erneuerbare Energien im Überschuss. Und das ist wissenschaftlich belegt.

Kommentar:

Frau Kemfert meint, mit dem Begriff „wissenschaftlich“ einen Beleg für die Richtigkeit ihrer Aussagen an sich zu haben. Das erinnert an ein Kind, dass die Augen zu macht und glaubt, nicht gesehen zu werden. Der weitere Ausbau von Windkraft- und Photovoltaikanlagen ist keine wissenschaftliche Erkenntnis, sondern für Energiewender eine Binsenweisheit. Dann präsentiert Frau Prof. Kemfert wieder das Thema „Wasserstoff“. Scientists for Future haben die Herstellung von Strom und Wasserstoff (ein feines Feature des Dlf zum Thema) völlig richtig problematisiert. Dass da „Kooperationen und Projektvorhaben“ laufen, ist ja schnell gesagt. Diese werden aber keinesfalls das Wasserstoffvolumen liefern können, das notwendig ist, um z.B die bundesdeutsche Stahl- und Chemieindustrie „grün“ zu machen. Das sind fromme Wünsche, die mit der Wirklichkeit nicht viel zu tun haben. Genauso wie der letzte Satz nach dem Einwurf von Friedrich Merz:

Kemfert:

(M: Es gibt Tage, da weht null Wind, wir haben keine Sonne)

wie auch der Wind … Sie machen ein Extremszenario, was wir nachweisen können, was es einmal im Jahr maximal für zehn Tage gebe. Die restlichen Tage haben wir erneuerbare Energien im Überschuss. Und das ist wissenschaftlich belegt.

Kommentar:

Die letzten beiden Sätze von Frau Prof. Kemfert sind nicht „wissenschaftlich“. Sie sind falsch. Genau wie die Behauptung, es gäbe „ausreichend Speicher“, die angeblich der Markt nicht zulässt. Das ist Unfug. Ohne Wenn und Aber. Selbstverständlich gibt es Flauten. Auch nachts. Doch selbst wenn der Wind weht. Ohne konventionelle Energieträger, die regelmäßig fehlenden Strom bis zur Deckung des Bedarfs auffüllen, ohne die konventionelle Stromerzeugung wären in Deutschland schon längst die Lichter ausgegangen.




Die Mai-Bundesliga-Tabelle – Vorschlag einer CO2-Freiwilligen­steuer in Deutschland

Der Hohenpeißenberg (HPB) gibt eine erste Antwort

Wenig verändert: Schon über 200 Jahre betrieben die Mönche im dortigen früher unbeheizten Kloster eine Wetterstation, die an der nördlichen Außenwand des Anbaus an der Klosterkirche in etwa 7 m Höhe neben einem Fenster angebracht war. Nach Gründung des Reichswetterdienstes mit normierten neuen Standortbedingungen wurde die Station nach 1936 an einen wärmeren und etwas tiefer gelegenen Standort verlegt, der inzwischen zu einem umfangreichen DWD-Messzentrum ausgebaut wurde. So steht die neue Wetterhütte frei auf dem DWD-Messfeld und ist der Sonne ausgesetzt. Im Mai 2021 waren es 183 Sonnenscheinstunden. Wir schätzen die menschengemachte Wärmeinselzugabe aufgrund des Standortwechsels auf etwa 0,3 bis 0,5 C ab dem Jahre 1936 ein, d.h. die seitdem gemessenen Temperaturen müsste man entsprechend nach unten korrigieren, was wir nicht getan haben, denn die Grafik 1 ist auch so eindeutig zur Verdeutlichung der Überschrift. Mai 2021: 8,2 °C, deutlich unter dem 240 jährigen Schnitt von 10°C

Grafik 1: Die Grafik zeigt deutlich, dass die warmen Maimonate, als die deutschen Maienlieder entstanden sind, vor über 200 Jahren konzentriert auftraten. Das momentane Temperaturplateau des Wonnemonates Mai befindet sich seit 1988 leicht über dem Schnitt der letzten 240 Jahre. Die kalten Jahrzehnte um 1881 sind in der Grafik gut zu erkennen.

Fazit: Die warmen Maimonate lagen in früheren Jahrhunderten.

Grafik 2: Auch bei der Wetterstation in Berlin-Tempelhof liegen die wirklich heißen Maimonate lange zurück. Wie schon beim HPB sind auch in Berlin um 1881 die Maimonate am kältesten. Mit 12,6°C lag der Mai 2021 in Berlin deutlich unter dem 265 jährigen Gesamtschnitt von 13,8°C

Im Gegensatz zum HPB ist die Wetterstation Tempelhof eine typische Wärmeinselstation. Einst lag sie einige Kilometer außerhalb von Berlin bei einem Gutshof, der tempelartig angeordnet war. Inzwischen hat die Großstadt den Gutshof geschluckt und ein neuer Stadtteil ist am selben Ort erwachsen.

Es existieren auch länger zurückliegende Deutschlanddaten, die sich aber nur auf wenige Stationen berufen können, bzw. die Daten wurden interpoliert. Wir verwenden für die nächste Grafik die Deutschlanddaten ab 1800, seit 1881 sind es die offiziellen DWD-Daten. Quelle

Die 15 wärmsten Maimonate Deutschlands in Form einer Bundesligatabelle.

Man achte auf die Jahreszahlen der warmen Maimonate. Der Mai 2019, 2020 und 2021 wären ein Absteiger aus der ersten Liga. Komisch in diesen letzten 3 Jahren waren die gemessenen CO2-Konzentrationen doch am höchsten.

Grafik 3: Unser Dichter Johann Wolfgang Goethe lebte noch zu den Zeiten des viertwärmsten Maimonats (1811) in Deutschland. Der Mai 2020 ist keineswegs an 16.ter Stelle, mit seinen 10,7°C er wurde auf dieser Grafik nur im Vergleich zu den 15 wärmsten eingezeichnet. Ein Ausreißer aus der Neuzeit, der sonnenreiche Mai 2018 führt die Deutschland-Tabelle an.

Auch diese Grafik zeigt: Das momentane Wärmeplateau des Monates Mai ist keineswegs ein hohes Niveau seit Beginn der Temperaturmessungen in Deutschland.

Vergleich der Maimonate mit den CO2-Messungen: Die Keeling Kurve

Nur 3 der 15 wärmsten Maimonate Deutschlands liegen im Zeitraum der ansteigenden CO2-Keeling-Kurve. Messbeginn am Mauna Loa: 1958

Grafik 4: Die CO2-Konzentrationen der Atmosphäre steigen vor allem nach dem Kriege stark an. Behauptet wird, dass die Ursache des CO2-Anstieges fast ausschließlich anthropogenen Ursprunges wäre. Zumindest seit der Corona-Krise darf man Zweifel anmelden, denn inzwischen ist der Wert im Mai 2020 auf 419 ppm angewachsen und keinesfalls in den letzten 15 Monaten gesunken.

Weiter wird behauptet, dass dieser CO2-Anstieg die Haupt-Ursache der Temperaturerwärmung wäre, die es aber für den Monat Mai in Mitteleuropa über einen längeren Zeitraum gar nicht gibt.

Fazit: 1) Die CO2-Konzentrationen steigen seit 1958 stetig an, sie sind auch im letzten Jahr trotz lock-down weiter gestiegen.

2) Der Monat Mai ist der Beweis, dass CO2 gar keinen oder höchstens einen minimalen Einfluss auf die Temperaturen hat.

Vorschlag: Wer weiterhin an ein Treibhausgas Kohlendioxid glaubt, für solche Menschen möge die neue Regierung eine CO2-Freiwilligensteuer einführen, damit diese Gläubige ihr Gewissen beruhigen können.




Die grosse Transformation- Corona und Klima. Der Weg in die globale Neuordnung.

Corona und Klima sind die allesbestimmenden Themen- und sie werden es bleiben. Denn sie dienen einem ‚höheren Zweck‘. Es wird Angst geschürt, um die Menschen gefügig für Änderungen zu machen.

Klima und Corona  werden durch Politik und Medien als eine viel höhere Gefahr dargestellt, als sie in Wirklichkeit sind. Der Autor weist mit Hilfe öffentlich zugänglicher Daten offizieller Stellen nach, dass wir sowohl beim Thema Klima als auch beim Thema Corona in die Irre geführt und manipuliert werden.

Corona und Klima dienen letztendlich demselben Ziel: dem Umbau des gesamten gesellschaftlichen und wirtschaftlichen Zivilisationsgefüges. Klima und Corona sind die Transmissionsriemen, um das Ziel eines »Great Reset« oder einer »Great Transformation« (Weltwirtschaftsforum) voranzutreiben.

Schon fordert man nach dem Corona-Lockdown auch einen Klima-Lockdown. Dabei werden die Freiheiten und Grundrechte dauerhaft eingeschränkt und warnende stimmen diffamiert und in eine kriminelle Ecke gestellt.

Offizielle Aussagen u.a. des Weltwirtschaftforums belegen, dass das alles keine Verschwörungstheorie ist, sondern tatsächlich so von langer Hand geplant ist. Reiche werden reicher, Arme bleiben arm und werden mehr, die Bürger werden überwacht und umerzogen.

Das Buch trägt folgende Kennungen
SBN-10: 3887931645,
ISBN-13: 978-3887931643
ist IDEA- Verlag erschienen  und kostet 19,80€



Verheerende Folgen „grüner“ Energiepolitik II: Das gigantische Abfall-Problem „grüner“ Energie

Riesige Mengen an Erde müssen abgebaut werden, um die spärlich vorhandenen Mineralien und Elemente zu gewinnen, die für die Herstellung der Akkupacks benötigt werden, die Elektroautos antreiben und die zusätzliche Energie liefern sollen, wenn der Wind nicht weht oder die Sonne nicht scheint. Bei der Raffinierung dieser Mineralien entsteht giftiger Schlamm, der die angrenzende und nachgelagerte Umwelt und die Menschen vergiftet. Ein noch Energie-intensiverer Abbau und eine noch Energie-intensivere Fertigung sind notwendig, um die Verbundwerkstoffe herzustellen, aus denen die Rotorblätter und Türme der Windkraftanlagen gefertigt werden. Für die Herstellung und den Transport der zehntausende Tonnen Kohlendioxid-intensiven Betons, der zur Verankerung jeder Windturbine benötigt wird, werden enorme Energiemengen verbraucht. Riesige Landflächen, meist erstklassige Aussichtspunkte, Lebensraum für Wildtiere und Wanderkorridore, werden in Energie erzeugende Industrieparks verwandelt, wenn Wind-„Farmen“ und riesige Solaranlagen errichtet werden.

Hinzu kommen die riesigen Abfallmengen, die entstehen, wenn Batterien, Windturbinen und Solarpaneele vorzeitig ausfallen oder am Ende ihrer Lebensdauer einfach nicht mehr funktionieren, und die sich nur schwer verarbeiten, recyceln oder entsorgen lassen.

Forscher beginnen, sich mit der letzteren Schwierigkeit zu befassen, die sich am Horizont abzeichnet: der Umgang mit der riesigen Menge an Abfall, die durch die enorme Expansion der grünen Energietechnologien entstehen wird. Das Magazin Science zum Beispiel schrieb kürzlich:

Das Batteriepaket eines Tesla Model S ist ein Meisterwerk der Ingenieurskunst. Tausende von zylindrischen Zellen mit Komponenten aus aller Welt wandeln Lithium und Elektronen in genügend Energie um, um das Auto hunderte von Kilometern anzutreiben, wieder und wieder, ohne Auspuffemissionen. Doch wenn die Batterie das Ende ihrer Lebensdauer erreicht hat, verblassen ihre grünen Vorteile. Wenn sie auf einer Mülldeponie landet, können ihre Zellen problematische Giftstoffe freisetzen, darunter Schwermetalle. Und das Recycling der Batterie kann eine gefährliche Angelegenheit sein, warnt die Materialwissenschaftlerin Dana Thompson von der University of Leicester. Schneidet man zu tief oder an der falschen Stelle in eine Tesla-Zelle, kann es zu einem Kurzschluss kommen, brennen und giftige Dämpfe freigesetzt werden.

Das ist nur eines der vielen Probleme, mit denen Forscher wie Thompson konfrontiert sind, die versuchen, ein neu auftretendes Problem anzugehen: wie man die Millionen von Batterien für Elektrofahrzeuge (EV) recyceln kann, die die Hersteller in den nächsten Jahrzehnten voraussichtlich produzieren werden. Die aktuellen Batterien für Elektrofahrzeuge „sind wirklich nicht für das Recycling ausgelegt“, sagt Thompson, ein Forschungsstipendiat an der Faraday Institution, einem Forschungszentrum in Großbritannien, das sich mit Batteriefragen beschäftigt.

Wie „Science“ weiter berichtet, entwickeln Regierungen Regeln, die ein gewisses Recycling von Batterien vorschreiben. Dies wird jedoch ein schwieriges und kostspieliges Unterfangen sein, das die ohnehin schon hohen Kosten für grüne Energie weiter in die Höhe treiben wird, denn:

Batterien unterscheiden sich stark in ihrer Chemie und Konstruktion, was es schwierig macht, effiziente Recyclingsysteme zu schaffen. Und die Zellen werden oft mit zähen Klebstoffen zusammengehalten, die es schwierig machen, sie auseinander zu nehmen. Das hat zu einem wirtschaftlichen Hindernis beigetragen: Für Batteriehersteller ist es oft billiger, frisch abgebaute Metalle zu kaufen als recycelte Materialien zu verwenden.

Das oben beschriebene Problem berührt noch nicht einmal die Frage, wie die Welt mit den Millionen von Batterien umgehen wird, die in riesigen Lagerhäusern platziert werden, um Backup- oder Ersatzstrom für die riesige Wind- und Solarenergie-Expansion der Biden-Harris-Regierung bereitzustellen.

Schon bevor Biden seinen großen Vorstoß zur Ausweitung des Einsatzes von Elektrofahrzeugen und industriellen Wind- und Solarenergieanlagen begann, kämpften Städte, Bundesstaaten und Regionen bereits damit, mit dem zunehmenden Abfall von stillgelegten Windturbinen und Solarmodulen fertig zu werden, der aus den vergangenen zwei Jahrzehnten des Ausbaus von Wind- und Solarenergie resultierte – gefördert und angetrieben durch verschiedene Arten von Bundes- und Staatssubventionen und andere Formen der Unterstützung.

In der April-Ausgabe 2017 von Waste Management wurde konservativ geschätzt, dass die Entwickler von Windenergieanlagen bis 2050 weltweit 43 Millionen Tonnen Abfall von Windturbinenblättern entsorgen müssen. Obwohl theoretisch etwa 90 Prozent der Kleinteile einer Turbine recycelt oder verkauft werden können, gilt dies nicht für die Rotorblätter, die aus einem Verbundstoff aus Harz, Glasfaser und anderen Materialien bestehen.

Diese Rotorblätter sind teuer in der Stilllegung und im Transport. Sie sind bis 100 m lang, so dass die Betreiber sie vor Ort in kleinere Stücke schneiden müssen, bevor sie mit spezieller Ausrüstung zu einer Deponie transportiert werden – wenn denn eine gefunden werden kann, die für die Annahme zertifiziert ist und dies noch tut.

Gemeinden, die zertifizierte Deponien betreiben, lehnen Windradflügel zunehmend ab, selbst wenn sie für die Annahme den doppelten Betrag pro Tonne verlangen können, benötigen diese doch enorm viel Platz, müssen mit erheblichem Aufwand zerkleinert werden, benötigen Hunderte von Jahren zum Abbau und geben dabei oft Methan und flüchtige organische Verbindungen in die Umwelt ab.

Wenn Präsident Biden das nächste Mal auf der Bühne steht und einen weiteren Durchbruch in der grünen Energietechnologie anpreist, sollten die Menschen ihn – und die Hersteller und andere Regierungsvertreter, die diese Technologie vorantreiben – fragen, wie die Materialien entsorgt werden und zu welchen Kosten.

Solange die Regierung diese und andere Fragen dazu nicht beantworten kann, sollte sie aufhören, diese ineffizienten und wirtschaftlich und ökologisch kostspieligen Technologien vorzuschreiben und zu subventionieren.

[Hervorhebung vom Übersetzer]

QUELLEN: Science (behind paywall); Science; National Geographic; Environment & Climate News; Environment & Climate News; Committee for a Constructive Tomorrow; The Heartland Institute; The Heartland Institute

Link: https://www.heartland.org/news-opinion/news/green-energy-policies-are-built-on-slavery-child-labor

Übersetzt von Chris Frey EIKE

 




Warum die Grünen für den Dual Fluid Reaktor sein werden

Deutschland aber sortiert Energieressourcen wacker nach Freund/Feindbild und steigt aus den wichtigsten Energieträgern aus. Dass es dabei zum energetischen Geisterfahrer geworden ist, macht den Bundeswirtschaftsminister Altmaier stolz:

Wir sind das einzige Industrieland dieser Größe, das gleichzeitig aus der friedlichen Nutzung der Kernenergie und dann 15 Jahre später aus der Nutzung der Kohleverstromung aussteigt. Das sind die historischen Aufgaben und die Leistung, die wir zu vollbringen haben.“ Das ist eben so, einem Geisterfahrer kommen tausende Geisterfahrer entgegen.

Aus dem Ausland beobachtet man diese Entwicklung mit Kopfschütteln. Am 22.04. berichtete die FAZ über ein Interview mit William Magwood, dem Generaldirektor der Nuclear Energy Agency (NEA), in welchem die Energieversorgung der Zukunft beleuchtet wird. Der Titel des Artikels lautet; „Deutschland steuert in eine unglückliche Situation”.

Auf die Frage: „Wie steht es um die Sicherheit der modularen Mini-Reaktoren, von denen gerade viel die Rede ist?“ antwortet Magwood:

Ich halte diese kleinen modularen Reaktoren für mögliche Gamechanger, weil sie Charakteristika aufweisen, die die großen kommerziellen Reaktoren nicht haben. Das macht sie noch sicherer. Nehmen Sie zum Beispiel die, die Nuscale in den Vereinigten Staaten entwickelt und die durch die amerikanischen Aufsichtsbehörden gerade geprüft wird. Die Besonderheit dieses Kraftwerks ist, dass es aus mehreren kleinen Reaktorkernen besteht und jeder dieser Kerne von enorm viel Wasser umschlossen. So kann es niemals zu einer Kernschmelze kommen. Auch Pläne für gasgekühlte und Flüssigsalzreaktoren werden vorangetrieben“.

Die nächste Frage lautet: „Was halten Sie von Dual Fluid Reaktoren, an denen auch deutsche Wissenschaftler forschen?“ Magwood:

Sie kombinieren verschiedene technologische Verfahren, die schon funktionieren. Dual Fluid Reaktoren könnten sich als sehr effizient erweisen, da sie mit hoher Temperatur arbeiten. Zudem sind sie klein, kompakt und sicher. Aber einen solchen Reaktor hat noch niemand gebaut, womit Fragen zur Genehmigung und Wirtschaftlichkeit offen bleiben. Wenn jemand die Ressourcen aufbringen würde, könnte ein Demonstrationskraftwerk innerhalb einer Dekade stehen“.

Das Zeug zum Game Changer

Der Dual Fluid Reaktor wurde in Deutschland erfunden und muss, wie so viele andere deutsche Erfindungen, auswandern. Die Dual Fluid Energy Inc. ist jetzt ein kanadisches Unternehmen. Warum? Die kanadische Regierung schätzt und fördert die Kernkraft als Zukunftstechnologie. Die kanadische Bevölkerung sieht Kernkraft überwiegend als Chance. Das Land ist nukleartechnisch erfahren und kann auf eine ununterbrochene Expertise zurückreifen.

Achgut.com hat schon mehrfach über den Dual Fluid Reaktor berichtet, etwa hier und hier. Der neue Kernkraftwerkstyp hat wirklich das Zeug zum Game Changer. Es ist richtig, es hat ihn noch niemend gebaut. Aber das ist wohl mit allen Neuerungen so.

Beim kleinsten Modell des Dual Fluid Reaktors beträgt der Erntefaktor 800 (energy returned on investment / EROI). Er bezeichnet das Verhältnis von gewonnener Energie zur Gesamtheit an eingesetzter Energie für Bau, Brennstoff, Unterhalt, Sicherheit, Rückbau eines Kraftwerks etc. Zum Vergleich – bei den „Erneuerbaren“ beträgt der Erntefaktor 4. Liebe Leser, schauen Sie sich die deutschen Windspargellandschaften an. Wir stehen erst am Anfang der Energiewende. Zur höheren Versorgung mit Ökoenergie muss künftig noch ein Vielfaches dieser Monster hinzugebaut werden. Die Windkraft benötigt viele hundertmal so viel Fläche für die gleiche Erzeugung, wie der Dual Fluid Reaktor.

Der Reaktor kann jedes spaltbare Material nutzen. Als Schnellspaltreaktor verwertet er neben Atommüll auch Natur-Uran oder Thorium. Atommüll wird dadurch zum Wertstoff. Der verschrieene deutsche Atommüll reicht mit dem Dual Fluid Reaktor für eine Vollversorgung Deutschlands bei heutigem Verbrauch ganze 350 Jahre lang. Im Ergebnis wäre kein Endlager mehr nötig, da die Strahlung der Reststoffe des neuen Reaktors nach 300 Jahren auf dem Niveau von Natur-Uran ist. Insofern wird aus der erfolglosen deutschen  Endlagersuche vielleicht eines Tages doch noch eine Erfolgsgeschichte.

Ich wage mal eine Prognose: In 10 Jahren werden diejenigen, die heute für die Zerstörung der Kernenergie gesorgt haben, die Kernkraft zur Rettung des Klimas propagieren. Sie werden völlig vergessen haben, dass sie, um zu dieser Erkenntnis zu gelangen, einen ganzen Wirtschaftszweig unter Milliardenverlusten zerstört haben. Sie werden ihren Irrtum aber nicht zugeben, sondern darüber rabulieren, dass die neuen Reaktortypen ja ganz anders sind, viel besser, viel sicherer, ohne den ewigen Abfall und zum Wohle der ganzen Menschheit. Konnte ja keiner ahnen.

Ein paar Milliarden müssen bis zum Moment der grünen Einsicht allerdings noch vernichtet werden und ein paar Jahre Schamfrist müssen wohl auch noch vergehen.

Niemand auf der ganzen Welt ist den deutschen Vorreitern gefolgt

Wie ich darauf komme? Erstens: Politiker haben kein Problem, ihre Ansichten um 180° zu ändern, wenn es ihnen opportun und nützlich für die Macht erscheint. Am 27. Mai 1998 sagte Merkel als damalige Bundesministerin für Umwelt, Naturschutz und Reaktorsicherheit dem deutschen Bundestag: „Meine Damen und Herren, ich habe immer deutlich gemacht und werde dies auch weiter deutlich machen, dass ich die friedliche Nutzung der Kernenergie für verantwortbar halte – gerade und insbesondere in Deutschland.“ Ein gutes Jahrzehnt später, nach dem Tsunami mit dem folgenden Reaktorunglück in Fukushima und den bevorstehenden Wahlen in Baden Württemberg änderte sie bekanntlich ihre Meinung und legte per Telefonanruf ach Kernkraftwerke sofort still, um danach den endgültigen Ausstieg aus der Kernenergie zu zementieren.

Merkel nutzte für die Begründung ihrer Atom-Wende eine von ihr handverlesene Ethikkommission, in der allerhand Volk vertreten war, nur keine Fachleute. Jetzt will es keiner gewesen sein. Leider sind inzwischen fast alle Kernkraftwerke Deutschlands abgeschaltet und nach 2022 ist Schluss.

Zweitens: Es lässt sich immer weniger kaschieren, dass die Energiewende krachend gescheitert ist. Niemand auf der ganzen Welt ist den deutschen Vorreitern gefolgt, nicht einmal die Japaner. Deutschland als energetisches Beispiel, wie man es nicht machen soll. Die Kosten dieser Fehlentscheidung explodieren immer weiter, kein Ende in Sicht. Die Energieversorgung verkommt zum Glücksspiel, keiner der medial gehypten dummsinnigen Energiewenderettungsringe funktioniert. (hier) (hier) (hier) und der blödsinnigste (hier).

Jetzt fabulieren grüne Bundestagsabgeordnete, dass man ja Grundlast gar nicht braucht. „Die Zukunft der Energieversorgung wird angebotsorientiert sein“, sagt Frau Silvia Kotting-Uhl im hohen Hause des Bundestags – und der ganze Saal bricht nicht in ein homerisches Gelächter aus. Frau Kotting-Uhl ist ihres Zeichens Germanistin und Kunstgeschichtlerin, was sie zur Vorsitzenden des wichtigen Umweltausschusses qualifiziert. Für sie ist Grundlast etwas Gestriges und wird nicht gebraucht. So wie im Mittelalter die Windmüller nur mahlen konnten, wenn der Wind wehte, so soll wohl nach ihrer Vorstellung Energie „angebotsorientiert“ für die Industrie zur Verfügung gestellt werden. Und der Bundeswirtschaftsminister Altmaier bastelt schon mal an einem entsprechenden Gesetz für den kommenden Stromsozialismus.

Doch die Wähler werden wohl irgendwann einmal unfroh reagieren, wenn es bei Flaute oder Dunkelheit regelmäßig zur Stromrationierung oder gar zum Blackout kommt. Der Umfragewind dreht sich, je mehr die Bürger mit den realen Folgen der Energiewende leben müssen. Daher will die Regierung die enormen Kosten des Energiewende-Unfugs mit dem massiven Einsatz von Steuermitteln kaschieren – für die Stromkunden und Steuerzahler heißt das: rechte Tasche, linke Tasche. Steuerzahler sind nämlich in der Regel auch Stromkunden.

Die Sprengung der rotgrünen Kernenergiegegnerschaft wird aus dem Inneren der grünen Bewegung kommen. So wie die Grünen heute die Gefahren der Kernenergie aufbauschen, werden sie übermorgen die Vorteile der Kernreaktoren der Vierten Generation preisen. So vehement, wie sie heute gegen Kernenergie sind, so vehement werden sie morgen dafür sein. Was stört einen Politiker schon ihr Geschwätz von gestern? Zumal, wenn er wohlversorgt seine Pension genießt.

Der Beitrag erschien zuerst bei ACHGUT hier

 




Die Scheintoten der zahlreichen Ökokatastrophen

Die UN-Berichte geben an:

Tschernobyl: Strahlentote:  47 Helfer, Erkrankungen von 4.000 Kindern in der Umgebung an  Schilddrüsenkrebs, davon 9 Todesfälle, zusätzlich 4.000 geschätzte Todesfälle durch zusätzliche Fälle verschiedener Arten Krebs.

Wer bei Tschernobyl heute schon von 8.047 Toten redet, hat momentan folgende Bilanz:

Bilanz: 56 Tote, 7.991 Scheintote, denn zum Glück leben noch 3991 Kinder mit einer Erkrankung der Schilddrüse, und die übrigen Bürger mit dem erhöhten Risiko leben sicher mehrheitlich auch noch.

Fukuschima:   Strahlentote: Noch keine. Etwa 550 indirekte Tote durch Evakuierung. Mögliche spätere Strahlenerkrankungen 15- 1300, mögliche zusätzliche Krebsfälle 24 – 2.500.

Bilanz: keine Strahlentoten, 550 kollaterale Tote, 39 – 3.800 Scheintote.

Hier wird begrifflich gern etwas durcheinander gebracht, um Aufmerksamkeit zu erzielen. Einmal gibt es den monokausalen Tod, mit eindeutiger Ursache, Beispiel Verkehrsunfall, Absturz etc., bei dem man sagen muss „ erlag seinen schweren Verletzungen durch …“. Das sind die kleineren Zahlen.

Die großen Zahlen, die wir etwas medienkritisch als Scheintote bezeichnen, könnte man als Risikogruppe bezeichnen, das würde jeder sofort richtig verstehen. Die Vorwegnahme des Todes in den Medien kommt sicher bei den Betroffenen auch nicht gut an.

Wenn es sich um eine große Gruppe handelt, die einer Anzahl von verschiedenen Belastungen durch Umwelteinflüsse wie Gefahrstoffe, Lärm, Luft, Wasser, Radioaktivität, Stress etc. ausgesetzt ist, so lassen sich die genauen kausalen Zusammenhänge bei jeder einzelnen Person nicht mehr finden. Die Belastung lässt sich eventuell schwer von der ohnehin vorhandenen natürlichen Belastung trennen. Was man dann noch machen kann, ist es, die Statistik zu bemühen. In den meisten Ländern der Erde werden alle Todesursachen, die als nicht natürlich eingestuft werden, in Kategorien registriert.

Anhand von Statistiken kann man versuchen, die Teilwirkung von einzelnen Belastungen dadurch zu erfassen, dass man den Faktor zahlenmäßig erfasst, und die Anzahl von vorzeitigen Erkrankungen in den einzelnen Kategorien notiert.  Das ist schwierig, weil man oft die Teilwirkung anderer Faktoren nicht konstant halten kann, und Wechselwirkungen nicht ausschließen kann.  Die Übertragbarkeit von solchen Statistiken ist oft nicht gegeben. Dennoch ist natürlich eine Statistik besser als nichts, wenn sie zumindest die Tendenz richtig zeigt. Mit einer solchen Statistik kann man dann rechnen, und Prognosen abgeben.

Wenn man so etwas verwendet, muss man aber die Öffentlichkeit ins Bild setzen und einen klaren begrifflichen Unterschied zwischen den monokausalen Todesfällen wahren.  Ansonsten muß man es sich gefallen lassen, daß man genannt wird als jemand, der Scheintote in die Medien gesetzt hat.

Mit einem Artikel der Forscher Corbett, Winebrake, Eyring und anderen, in Folgenden die Autoren genannt, wurde ich zum ersten Mal aufmerksam auf die Methodik der Scheintoten. Ziel war die Begründung für die weitere Regulierung von Brennstoff in der Schifffahrt, die bei der IMO auf der Tagesordnung stand. Dazu wurde ein unangreifbarer Artikel gebraucht.

Die Schiffahrt vollbringt eigentlich transporttechnische Wunder: mit nur 3-4 % des Brennstoffverbrauches aller Transportsysteme der Welt erbringt sie etwa 90% der weltweiten Transportleistung. Daraus muss man, sofern möglich, schlußfolgern, dass die Schifffahrt ein sehr energie- und damit Ressourcen-  schonendes Transportsystem darstellt. Man sollte versuchen, noch viel mehr Transporte auf Schiffe zu verlegen.

Daß all das regelmäßig in politischen Sonntagsreden erwähnt wird, aber selten wirklich passiert, zeigt die Verlogenheit der Verkehrspolitik, und besonders der deutschen. Sie war und ist nicht auf Energieeffizienz ausgerichtet, sondern auf Verkaufsmaximierung. Mehr Verkehr, mehr Autos, mehr Kraftstoff, mehr Mineralölsteuer, mehr Maut. Dort wird das Geld verdient.

Da man dieses Dilemma nicht öffentlich erkannt haben will, und es auch nicht auflösen möchte, muss man die Bemühungen in eine andere Richtung lenken. Beim Straßenverkehr kann man weitere Verminderungen der Abgasemissionen nicht mehr erzielen, weil man dort schon bei einem relativ hohen Aufwand angekommen ist. Die beste Entlastung der Luft wäre die absolute Verminderung der Abgasmenge, indem man mit dem Transportgut auf Bahn und Schiff umsteigt, aber das ist politisch nicht wirklich gewollt.

Was sich inzwischen ganz von selbst entwickelt hat, ist die Benutzung von Schweröl als Brennstoff für Schiffsdieselmotoren. In den Raffinerien, die Erdöl bekommen und durch Trennung die saubere Ware für die Tankstellen herstellen, bleibt die weniger saubere Fraktion des Erdöles als sogenanntes Schweröl übrig. Es ist dickflüssiger als Benzin und Tankstellendiesel, und enthält auch unerwünschte Beimengungen. Es kann bei entsprechender Erwärmung und Reinigung auch in Dieselmotoren eingesetzt werden. Im letzten Viertel des 20. Jahrhunderts werden nach intensiver und teurer Entwicklungsarbeit aller Hersteller die Schiffsmaschinen schweröltauglich. Dabei wird das Schweröl allerdings an Bord nochmals aufwendig gereinigt, ehe es dem Motor zugeführt wird. Einziger Begleitstoff, der bei dieser Reinigung nicht entfernt werden kann, ist der Schwefel.

Somit entsteht eine recht vernünftige Arbeitsteilung: Die Flotte der Landfahrzeuge bekommt den saubersten möglichen Brennstoff, damit ihre Katalysatoren und sonstigen Filter funktionieren, während das Schweröl mit dem Schwefel auf hoher See zum Einsatz kommt. Vor der Benutzung an Bord wird das Schweröl aufgeheizt und gereinigt. Die abgetrennten Stoffe werden an Bord gesammelt und als Brennstoffschlamm wieder zur Entsorgung an Land verbracht. Abgase von Schwerölmotoren enthalten deshalb mehr Schwefeldioxid als Abgase von normalen Dieselfahrzeugen, je nachdem, wie hoch der Schwefelgehalt im Brennstoff ist.  Allerdings ist Schwefeldioxid nicht sehr langlebig. Es wird in feuchter Umgebung schnell gebunden und kann sich daher über dem Wasser  kaum konzentrieren.

Der große Unterschied im Schwefelgehalt, der bewusst aufgebaut wurde, um die Risiken an Land zu senken, fällt nun plötzlich ins Auge. Daraus wird nun von neuen Mitspielern eine ganz neue  Argumentationskette aufgebaut: Die hohen Forderungen für den möglichst niedrigen Schadstoffgehalt von Abgasen, die man bei Straßen- und Schienenfahrzeugen in Europa schon erzielt hat, muss nun nach deren Meinung auch die Schifffahrt erzielen. Zu diesem Zweck wird nun von unseren Autoren eine breite Aufregung über das „schmutzige und giftige Schweröl“ in allen Medien losgetreten. Die Schifffahrt selber stellt sich kaum öffentlich dar, aber die neuen Mitspieler, die in den Medien die Erklärung der Schifffahrt übernommen haben,  müssen scheinbar noch einiges dazu  lernen. In deren öffentlichen negativen Darstellungen zum Schweröl fehlt immer ein wichtiges System im Schwerölbetrieb: die Aufbereitungsanlage für Brennstoff an Bord.

Sie reden über einen Stoff, mit dem Schiffsmechaniker und Ingenieure bereits Jahrzehnte oft in direktem Hautkontakt stehen und damit umgehen müssen, weil sie auch diese Reinigungsanlagen für Brennstoff betreiben müssen. In der Brennstoffaufbereitung werden mit Filtern und Zentrifugen alle Begleitstoffe, die größere Partikel oder größere Dichten als Brennstoff haben, abgetrennt. Ansonsten wäre das Schweröl für den Betrieb unbrauchbar, weil eben zu schmutzig.

Die Forderungen nach sauberen Abgasen von Schiffen führten bereits dazu, dass den Anhang VI der MARPOL-Konvention ausgearbeitet wird. Er reguliert zwei Zusammenhänge:

  1. Die Entstehung von Stickoxiden zu begrenzen wird durch konstruktive Gestaltung des Motors und eine zusätzliche Bauteildokumentation realisiert,
  2. und der Schwefelgehalt der Abgase wird limitiert, indem der Schwefelgehalt im Brennstoff limitiert wird.

Die Emissionen beider Stoffe sind nicht langzeitstabil, Stickoxide und Schwefeloxide werden in der Luft innerhalb weniger Tage natürlich abgebaut. Es lohnt sich also eigentlich nicht, bei Schiffen einen hohen Aufwand zu treiben, nur um der Natur zuvorzukommen.

Dieser Sachverhalt wird nun von den neuen Mitspielern, zu denen unsere Autoren gehören,  ausgeblendet. Die Grundidee ist, wenn man die immerhin 3-4% vom Weltbrennstoffverbrauch rechnet, die Schiffe benötigen, so kann man mit einer Abgasbehandlung zumindest auf dem Papier einige tausend Tonnen Schadstoffe einsparen. Politisch ist das gut durchsetzbar, denn die IMO hat spezielle Mechanismen, um die Konventionen nachträglich zu verschärfen, die von den Vertretern der Nationen schon unterzeichnet sind. Dieser Mechanismus heißt „MARPOL ANNEX“, in unserem Fall ist es Nummer VI.

Die Tonnenideologie muss noch wissenschaftlich abgesichert werden. Dabei muss die Ferne der Schiffe vom Menschen möglichst wegdiskutiert, und der natürliche Abbau der Stoffe als möglichst geringfügig dargestellt werden. Nur so ist es zu verstehen, wenn man zur Einstimmung auf die wissenschaftliche Gratwanderung der  Autoren 2008 plötzlich solchen neuen Unfug liest wie: „Die meisten Schifffahrtsrouten befinden sich in Landnähe (!) Das kann man wirklich nur behaupten, wenn 400 km Nähe bedeuten…“

Auch darf man auf keinen Fall Luftmesswerte benutzen, denn sie stützen die These von der Wirkung von Schiffsabgasen an Land nicht. Beispiel Deutschland, die Luftqualität im Zentrum Hamburgs ist im Vergleich immer schlechter, als an der Elbe oder in Brunsbüttel neben der Schleuse. Wenn man Messwerte zur Kenntnis nehmen würde, müsste man merken, dass seit der Entschwefelung von Abgasen in Kohlekraftwerken das Schwefeldioxid in der Luft nur eine Tendenz kennt: nach unten. Es ist auf einem solchen historischen Tiefstand,  es dass es die ganze Limitierung von Schwefel im Brennstoff eigentlich lächerlich macht.

Hier muss ein neues Erklärungsmodell her, das die Schwefelgesetze und vielleicht auch das geplante Geschäft mit Umwelttechnik retten soll. Das Erklärungsmodell heißt jetzt „Partikel“ oder Feinstaub.

In einer Versuchsreihe mit einem Dieselmotor in Hamburg  im Labor des Germanischen Lloyd wurde versucht, Klarheit über die Zusammensetzung Partikeln in Abgasen von Motoren zu bringen. Es wurden verschiedene Sorten Brennstoff benutzt, Dieselöl und Schweröl, der Schwefelgehalt wurde systematisch erhöht, während die anderen Bestandteile annähernd gleich gehalten wurden. Die Partikel im Abgas wurden mit Filtern zurückgehalten und gewogen.  Wesentliche Partikel fallen in folgenden Gruppen an:  1. Ruß, 2. Schwefeldioxid oder Sulfat, 3. Wasser, 4. Teilverbrannter Brennstoff, 5. Asche.

Das Ergebnis war einfach: bei erhöhtem Schwefelgehalt im Brennstoff fand sich mehr Schwefeldioxid im Abgas, und mehr Wasser, Alle übrigen Anteile veränderten sich kaum. Man kann kaum etwas anderes erwarten, denn was in den Motor hineingeht, muss hinten wieder herauskommen.

Von den Partikeln, die sich im Abgas befinden, sind Ruß (Black Carbon = BC) und teilverbrannter Brennstoff (Particular Organic Matters = POM) die gefährlichen Sorten, da bekannt ist, daß sie Lungenkrebs erzeugen können. Schwefeldioxid und Sulfat gehört nicht zu den Krebserzeugern, es reizt die Luftwege bei größeren Konzentrationen. Der Rest ist eher unkritisch.

Damit kommt man zu zwei wichtigen Aussagen: bei Erhöhung des Schwefelgehaltes steigt die Gesamtmenge der Partikel im Abgas an, allerdings bleiben die Mengen der krebserzeugenden Partikel konstant. Diese, Ruß und teilverbrannter Brennstoff,  könnten durch eine optimale Verbrennung im Motor reduziert werden, aber nicht durch Begrenzung des Schwefelgehaltes. Diese nicht unwesentliche Tatsache wird konsequent verschleiert. Man geht scheinbar stillschweigend davon aus, dass eine Begrenzung des Schwefels im Brennstoff die Gesundheitslage verbessern könnte, weil insgesamt weniger Partikel entstehen.

Im Artikel unserer Autoren geht man nun großflächig und ganz gewissenhaft vor: man stellt ein Emissionsinventar auf, d. h. alle Schadstoffquellen der Welt werden modelliert, und die Schifffahrt auf ihren Routen auch. Dann wird die Ausbreitung der Partikel modelliert, indem man die Modelle der allgemeinen Zirkulation benutzt. Was ist das? Die allgemeine Zirkulation bildet die Windgürtel der Erde nach, und ist somit eine gute Annäherung für die geografische Verschiebung von Luftmassen, und damit auch der Partikel.

Zur Einschätzung der Schiffsemissionen ergeben sich mit dem Modell nun die Möglichkeiten, ihre alleinige Wirkung auf die Konzentration zu sehen, indem man die übrigen Emissionen wegläßt. Dabei stellt sich heraus, daß die höchsten erzielbaren Konzentrationen von Feinstaub mit Schiffen in der Nähe von Hauptschifffahrtslinien bei zwei Mikrogramm pro Kubikmeter Luft liegen. Die Erhöhung der an Land schon vorhandenen, meistens wesentlich höheren Konzentrationen (7-14 Mikrogramm ) kann man ebenfalls nachweisen, indem man an Land einmal ohne, und einmal mit den Schiffsemissionen rechnet. Die Ergebnisse zeigen, daß die Konzentrationen von Partikeln aus Schiffsemissionen die Konzentration an Land um 0.5 bis 1.5 Mikrogramm pro Kubikmeter Luft anheben kann.

Damit ist man nun in der Lage, flächendeckend die Wirkung der Schifffahrt nachzubilden. Um die Wirkung auf die Bevölkerung zu ermitteln, ordnen die Autoren nun die Bevölkerungszahlen den Wohnorten zu, und können somit errechnen, für wieviel Menschen es welche Erhöhung der Feinstaubwerte gibt.

Anhand von statistischen  Zusammenhängen zur Konzentration von Feinstaub, und den erwähnten Fällen von Lungenkrebs fühlt man sich nun in der Lage, eine weltüberspannende Prognose zu Erkrankungen mit und noch einmal ohne die Partikelanteile der Schifffahrt zu machen.

Methodisch ist das bis dahin ganz in Ordnung, und die Zahlen mögen für interne Abschätzungen brauchbar sein. Sie wurden aber umgehend publiziert, um Beschränkungen beim Schwefelgehalt durchzusetzen. Auf dem langen Weg bis zu diesem Ergebnis mussten die Autoren aber einige Schwachstellen der Zusammenhänge in Kauf nehmen:

Nach der Emission wurde der Feinstaub nur noch als Partikel abgebildet, nicht mehr in den einzelnen Fraktionen. Damit wurde automatisch dem Schwefeloxid gleiche Lebensdauer und  Wirkung zugeschrieben wie dem Rest der Partikel, was so nicht stimmt.  Damit ging der Sachzusammenhang der Wirkungen verloren, und Wirkung wurde mit Masse gleichgesetzt.

Der Zusammenhang der Sterblichkeit der Menschen abhängig vom Feinstaubgehalt der Luft ist  aus Statistiken der USA übernommen worden, ohne die Zusammensetzung des Feinstaubes dort und des Feinstaubes von Schiffen zu vergleichen.  Aus diesen Statistiken wurden die Herzerkrankungen und Lungenkrebs gemeinsam berücksichtigt, wobei der Zusammenhang der Herzerkrankungen mit Abgasen nicht nachgewiesen ist.

Schwellenwerte wurden nicht berücksichtigt. In Deutschland gelten für PM 10 als zulässig 50 Mikrogramm pro Kubikmeter, Jahresmittel 40, die werden nur in Städten mit starkem Autoverkehr besonders bei Inversionslagen erreicht. Die Hintergrundbelastung (7-14) und die Konzentrationen aus der Schiffahrt (+1.5) sind weit darunter.

Mechanismen der Ausfällung der Partikel aus der Luft wurden nicht modelliert. Der Fakt, dass Schwefeloxid schnell Wasser an sich bindet, und damit Kondensationskeime schafft, welche für schnelleres Abregnen sorgen, wurde nicht berücksichtigt.  Der Abbau des übrigen Feinstaubes erfolgt hauptsächlich durch Regen. Niederschläge haben die  Autoren nicht nachgebildet, jedenfalls wurde es nicht erwähnt.

Besonders hohe Konzentration von Feinstaub erfolgt über Land in trockenen Inversionswetterlagen. Auch zur Berücksichtigung solcher Spitzen und ihrer Wirkung finden wir keine Hinweise.

Daras folgt, dass die Bevölkerung, die mit Partikeln aus Schiffsabgasen in Berührung kommt, wahrscheinlich systematisch kleiner ist, als von den Autoren angegeben.

Die Differenz der beiden Szenarien, mit und ohne Schiffsemissionen,  sind die Zahlen, die hier als Tote in die Öffentlichkeit gelangt sind.  Das suggeriert, daß man für jeden Todesfall eine genaue Todesursache angeben kann. In Wirklichkeit ist die Sache aber komplexer, jeder Mensch stirbt an der Summe von verschiedenen Ursachen. Gerade die Ursachen von Krebs sind vielfältig und nur teilweise bekannt. Die Ergebnisse der Studie zeigen bei all ihren Schwächen mit Sicherheit richtige Tendenzen auf,  die Ergebnisse wären sogar akzeptabel,  wenn man sie nicht in der Presse als „Tote durch Schiffsabgase“ sondern als „Risikofaktor einer Prognose“ bezeichnen würde.

Wer einen Zeitungsartikel liest, und 20.000 Tote genannt bekommt, stellt sich einen Berg mit 20.000 Leichen vor, bei denen als unmittelbare Todesursache Rauchvergiftung oder Lungenkrebs, ausgelöst  durch Schiffsabgase, auf dem Totenschein steht.  Das ist Panikmache. In Wirklichkeit gibt es diese klare Zuordnung von Ursache und Wirkung so nicht. Es sterben weltweit jährlich weit mehr Menschen an Krebs, und jeder einzelne Fall davon wird ausgelöst durch eine Summe verschiedensten Ursachen. Die Berechnungen der Autoren drücken lediglich die Stärke einer Teilwirkung aus, die als Ursache in Frage kommt.  Den genauen Auslöser festzumachen, ist nur bei wenigen Krebsarten gelungen.

Aber die gravierendsten Fehler werden jetzt bei der Interpretation der Ergebnisse gemacht.

In einer zweiten Rechenschleife werden nun verschiedenen geplante Schwefelbeschränkungen berücksichtigt, und die gesamten Partikelmengen der Schiffe um die Schwefelanteile entsprechend verringert. Niemandem erinnert sich, dass nur Ruß (BC) und teilverbrannter Brennstoff (POM) die Krebsmacher sind, und daß diese durch Schwefelbeschränkungen nicht verringert werden.

Die Tonnenideologie führt zwangsweise zum gewünschten Ergebnis. Der Schwefel wird reduziert, die Feinstaub Konzentrationen sinken um minimale Beträge, die gleichen statistischen Kurven damit multipliziert ergeben geringere Wahrscheinlichkeiten von Erkrankungen, und diese geringen Unterschied, multipliziert mit einer viel zu großen Bevölkerung, ergibt schließlich beeindruckende Zahlen.

Der Beantwortung einer Grundfrage, die zur Wahrung des Überblicks dient und an den Anfang aller Betrachtungen gehört,  wird im gesamten Beitrag konsequent ausgewichen,

Die Grundfrage lautet:

Ist der Risikofaktor für die Gesundheit von Menschen durch Feinstaub aus Abgasen der Schifffahrt überproportional im Vergleich zu Ihrem Brennstoffverbrauch, oder nicht?

Ein „JA“  würde bedeuten, dass die Maßnahmen der Schifffahrt tatsächlich unzureichend wären.

Die Antwort ist gut versteckt,  aber wir haben die Puzzleteile gefunden, und zusammengesetzt.

Alle Todesfälle durch städtischen Feinstaub werden durch Corbett mit 800.000 pro Jahr, an anderer Stelle mit 737.000 pro Jahr angegeben. Die Zahl müsste  erhöht werden, um die ländlichen Fälle zu berücksichtigen, das tun wir aber nicht. Diese Daten sind älter, so dass wir einen Vergleich mit den Berechnungen der Inventare 1a und 1b von 2001 machen könnten. Dort sind nur Ruß (BC) und Organik (POM) und SO4 berücksichtigt, was unserer Auffassung von den Verursachern am nächsten kommt.  1 c ist zu hoch, da hier alle Partikel in Betracht gezogen werden. Der Mittelwert aus der Betrachtung 1a und 1b wäre in etwa realistisch, das ist (18.920 + 38.870) /2 = 57.790/2 = 28.895  Fälle.

Im Verhältnis zu den nach eigenen Angaben der Autoren  737.000 Personen starken Risikogruppe durch Feinstaub insgesamt weltweit wären das 3,92 % durch die Teilwirkung der Emissionen der Schifffahrt. Das ist fast genau der Anteil des Brennstoffes, den die Schifffahrt vom gesamten Brennstoffverbrauch des Transportes bekommt. Eine überproportionale Gefährdung durch Schweröl und Schwefel, wie gern herbeigeredet wird, ist also nicht erkennbar.

Somit muss die Einrichtung der Schwefelemissions-Kontrollgebiete als nahezu wirkungslos angesehen werden. Wirkungslos, was die Luftqualität betrifft. Eine andere Wirkung entfalten sie täglich. Durch das Umstellen von Brennstoffen kommt es gelegentlich zu Ausfällen von  Hilfs- und Hauptmaschinen, also zum Verlust des Antriebes oder zu Ausfällen der Stromversorgung an Bord. Die Betriebssicherheit von Schiffen ist zeitweise stark vermindert, das häuft sich an den Grenzen der Schwefelkontrollgebiete. Für solche Vorkommnisse gibt es noch keine Meldepflicht, denn sie war in der Vergangenheit nicht notwendig.  Reeder und Schiffsführungen werten das heute als eigenes Versagen, wenn Motoren den Temperaturschock oder unterschiedliche Brennstoffe nicht vertragen. Wenn möglich, werden solche Ereignisse noch vertuscht.

Das alles spielt den selbsternannten Schiffahrtsfachleuten noch in die Hände. Das wird sich aber ändern, denn auch Schiffspersonale und Schiffsbetreiber werden die neuen Spielregeln begreifen. Daß das Umstellen von Kraftstoff gefährlich ist, ist längst bekannt. Daß sich aus Motorausfällen gefährliche Situationen entwickeln können, ist auch nicht neu. Wenn man ab sofort eine Meldepflicht für solche Komplikationen einführen würde, würden die Neueingänge von Fällen sofort sprudeln. Daß diesen Risiken keine Vorteile beim Umweltschutz gegenüberstehen, wird man hoffentlich bald begreifen. Wenn nicht, wird die Sache durch das Produkt aus Risiko und Zeit gelöst, indem irgendwann der unvermeidliche erste Schiffsverlust eintritt, für den man als Ursache nennen muss: „Umweltschutz“.

Joachim Illge ist Schiffsingenieur und befuhr alle Weltmeere. Auf Kiribati gab er Kurse für zukünftige Kollegen.




Milliardenfacher Insektentod an Windrädern*

Der Rückgang landlebender Insekten ist ein globales Phänomen mit sehr unterschiedlichen regionalen Ausprägungen. Das ergab eine von einem internationalen Forscherteam am Deutschen Zen-trum für integrative Biodiversitätsforschung Halle-Jena-Leipzig, der Universität Leipzig und der Martin-Luther-Universität Halle-Wittenberg durchgeführte Metastudie, die bereits im April letzten Jahres veröffentlicht wurde.

Dabei wurden erstmals Daten aus 1676 Orten weltweit ausgewertet, um Veränderungen der Insektenzahlen, nicht der Arten, zu untersuchen. Die Daten wurden zwischen 1925 und 2018 erhoben. Die Analyse ergab einen Rückgang der landlebenden Insekten um jährlich 0,92 Prozent, was einem Rückgang von 24 Prozent innerhalb der letzten drei Jahrzehnte entspricht.

Dagegen stieg die Zahl der Wasserinsekten wie Libellen und Köcherfliegen zuletzt um 1,08 Prozent pro Jahr. Das wird auf Gewässerschutzmaßnahmen zurückgeführt.

Seit dem Ende des Zweiten Weltkriegs und zunehmend seit 2005 werden die stärksten Rückgänge der Insekten für Teile der USA und Europas verzeichnet, und zwar vor allem für Deutschland. Der stärkste Rückgang wurde bei fliegenden Insekten wie Schmetterlingen, Wildbienen und Schwebfliegen beobachtet, die bei der Bestäubung vieler Pflanzen einen wichtigen Beitrag leisten. Vom Insektenschwund unmittelbar betroffen sind insektenfressende Vögel.

Eindeutige Studie des DLR

Ohne Insekten würden die Ökosysteme zusammenbrechen, und die Erde wäre unbewohnbar für Menschen. Die wesentlichen Ursachen für diese dramatische Entwicklung sind bekannt: die intensive Landwirtschaft mit Überdüngung und hohem Pestizideinsatz, die Zerstörung von Lebensräumen durch Bodenversiegelung sowie nach neuerer Erkenntnis auch die sogenannte Lichtverschmutzung bei Nacht in den Städten. Da die meisten Insekten nachtaktiv sind, lassen schätzungsweise eine Milliarde Insekten ihr Leben in einer einzigen Sommernacht an Deutschlands Lichtquellen. Allen Faktoren ist gemein, dass sie mit den Aktivitäten des Menschen zusammenhängen.

Durch eine 2019 veröffentlichte Studie von Forschern des Deutschen Zentrums für Luft- und Raumfahrt (DLR) ist als weiterer Faktor des Insektensterbens die Wechselwirkung von Fluginsekten und Windturbinen bekannt geworden.

Eine Modellrechnung führte zur Annahme, dass die Größenordnung der von Windturbinen geschlagenen Fluginsekten relevant für die gesamte Insektenpopulation sein könnte. Die Forscher empfahlen, die Verluste näher zu untersuchen. Anlass der Studie waren die Überreste von Fluginsekten an Rotorblättern, die zu hohen Einbußen beim Wirkungsgrad der Windkraftanlagen führen können und die Entstehung einer Reinigungsindustrie für Rotorblätter zur Folge hatten. Der Zusammenprall der Fluginsekten mit den bis zu 60 Meter langen Rotorflügeln und ihre tödliche Verwirbelung durch die arbeitenden Turbinen geschieht während der Wanderbalz der Insekten. Dabei nutzen Insekten starke, gleichmäßige Luftströmungen in Höhen bis zu 2000 Meter gleichsam als Fahrstuhl, um zur Eiablage in ihre Brutgebiete zu gelangen. Wissenschaftler bezeichnen diese Schicht als „Insektenmigrationsschicht“. Dieser wichtige Lebensraum wird auch von Vögeln und Fledermäusen genutzt. Durch den milliardenfachen Insektentod an Windrädern kurz vor der Eiablage könnten sich exponentielle Verlustraten für die Insekten ergeben.

Kein Verträglichkeitsnachweis

Es ist bezeichnend, dass das alarmierende Ergebnis der Studie in den Medien sogleich vielstimmig zerredet wurde. Auch im Maßnahmenpaket des Bundesumweltministeriums zur Rettung der Insekten vom letzten Oktober ist der Insektenschlag durch Windturbinen nicht berücksichtigt worden, was der Umweltministerin Svenja Schulze (SPD) schwer anzulasten ist. Forscher beklagen, dass es immer noch keinen Verträglichkeitsnachweis von Windanlagen gegenüber Fluginsekten gibt. Christian Voigt vom Leibniz-Institut für Zoo- und Wildtierforschung, Berlin, hat in einem im Januar veröffentlichten Aufsatz darauf aufmerksam gemacht, dass Scheimpflug-Lidarmessungen bei arbeitenden Windrädern eine hohe Insektenaktivität in der Risikozone der Turbinen bestätigen. Seine Forderungen an die Politik: Wir müssen verstehen, wie die Anziehung der Insekten durch Windräder wirkt, desgleichen die Interaktionen von Insektenfressern, Vögeln und Fledermäusen, mit Windturbinen. Wir müssen ferner die Schlagraten von Insekten durch Windräder mit Bezugsgrößen in Verbindung bringen, um zu ermitteln, wie stark diese zum Niedergang der Insektenpopulationen beitragen. Und wir brauchen Erkenntnis darüber, in welchem Umfang die Insektenverluste durch Windräder zur Veränderung der Ökosysteme beitragen.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  4. Juni 2021, S.4; EIKE dankt der PAZ-Redaktion sowie der Autorin Dagmar Jestrzemski  für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/ ; Hervorhebungen im Text: EIKE-Redaktion.

=================================================================




Droht uns durch Klima­engineering eine neue Eiszeit?

NTV hatte am 12. Januar 2019 berichtet, Zitat:

Bisher waren Forschungen zum SRM, auch solares Geoengineering genannt, auf das Labor und Computersimulationen beschränkt. Doch dieses Jahr wollen Wissenschaftler erstmals den Schritt nach draußen wagen: Forscher der Harvard-Universität planen ein Experiment, bei dem kleine Partikel in einer hohen Luftschicht ausgebracht werden, wie das Magazin „Nature“ berichtete. Untersucht werden soll so die „Stratospheric Aerosol Injection“ (SAI), eine Variante des solaren Geoengineerings, bei der ein Partikelmantel einen Teil der Sonnenstrahlen ablenkt und die Sonne so verdunkelt wird. Das Projekt mit dem Namen Stratospheric Controlled Perturbation Experiment (SCoPEx) hat mit Bill Gates einen berühmten Förderer und könnte schon in der ersten Jahreshälfte starten. Ein Ballon soll bis in die Stratosphäre aufsteigen, in rund 20 Kilometern Höhe soll er dann Wolken kleiner Partikel aus Kalziumkarbonat, also Kalk, ausstoßen. Anschließend messen Sensoren an dem Ballon, wie sich diese ausbreiten.“

Als Förderer des SCoPEx-Projekts werden angegeben:

William and Flora Hewlett Foundation; The Open Philanthropy Project; Pritzker Innovation Fund; The Alfred P. Sloan Foundation; VoLo Foundation; The Weatherhead Center for International Affairs; G. Leonard Baker, Jr.; Alan Eustace; Ross Garon; Bill Gates; John Rapaport; Michael Smith; Bill Trenchard.”

Dem EIKE-Artikel „‚Klimaschutz‘: Riskantes Spiel mit dem Wetter“ vom 7. Februar 2021 war zu entnehmen, dass ein erster Praxistest im Rahmen des SCoPEx-Experiments offenbar bereits für Juni 2021 geplant gewesen sei. Aber aus diesem SCoPEx-Test wird nun offenbar vorerst nichts werden, wie die taz am 5. April 2021 unter dem Titel „Klimamanipulation abgeblasen“ gemeldet hatte, Zitat:

Ende letzter Woche gaben Harvard und SSC [staatliche schwedische Raumfahrtgesellschaft] bekannt, dass die Pläne auf Eis gelegt würden: Es gebe in der internationalen Wissenschaft einen Bedarf nach weiterer Diskussion zu diesem Thema, denn bislang gebe es ‚keinen Konsens, inwieweit ein solcher Versuch angemessen ist‘. Die SSC-Mitteilung führt eine weitere Begründung an, die eine Beteiligung Schwedens am Test auf absehbare Zeit unmöglich machen dürfte: ‚Es fehlen heute internationale Abkommen bezüglich der Forschung im Geoengineering-Sektor.‘“

Bevor man mit dem solaren Klimaantrieb unserer Erde herumspielt kann uns ja vielleicht die Aga-Kröte mal erzählen, was bei nicht bis zu Ende gedachten menschlichen Eingriffen in natürliche Abläufe so alles passieren kann.

Schauen wir uns nachfolgend also einmal genauer an, ob ein solcher Eingriff in die terrestrische Temperaturgenese mit oder ohne ein internationales Abkommen tatsächlich angemessen wäre

Kiehl & Trenberth lassen in ihrem konventionellen IPCC-Modell KT97 die Vektor-Richtung der solaren Einstrahlung [1] mit einem Skalar-Trick verschwinden und fokussieren ihren Tag=Nacht-Faktor4-Flacherdeansatz für die Solarkonstante „So/4“ auf die radiale Abstrahlung der Erde [3]. Die gesamte Ursachen-Wirkungs-Kette für die terrestrische Temperaturgenese lautet aber,

Aussage 1:

Solare HF-Einstrahlung@PIR² [1]=> Erwärmung von Materie@2PIR² [2]=> IR-Abstrahlung@4PIR² [3]

Der EIKE-ArtikelAnthropogener Treibhauseffekt: nach wie vor zu schwach für die Klimakatastrophe!“ von Dr. Roland Ullrich enthält die bekannte KT97-Darstellung mit einer atmosphärischen Gegenstrahlung von 333W/m². Dort wurde auch eine Gleichung für die globale Verteilung der Sonneneinstrahlung aufgestellt:

GLEICHUNG 1: So + Evap + Erad + Konv + X = 0 (Dr. Roland Ullrich)

Die in einem späteren Artikel von Dr. Ullrich nachgereichte „realistische Darstellung der Energiebilanz der Erde“ verschleiert durch Prozentangaben wiederum die zugehörigen spezifischen Leistungen:

Abbildung 1: „Realistische Darstellung der Energiebilanz der Erde“ – Quelle: Sekundärzitat aus „Oberflächenbilanz und Kirchhoff’sche Knotenpunktregel“ von Dr. R. Ullrich

Durch die Prozentangaben in Abbildung 1 wird aber auch noch die Betrachtungsperspektive (PIR² oder 2PIR² oder 4PIR²) verschleiert. Allein der Term „Von Ozeanen und Land absorbiert 51%“ entspräche bezüglich der Solarkonstanten (So=1.367W/m²) einer spezifischen Strahlungsleistung von 697W/m² mit einem rechnerischen S-B-Temperaturäquivalent von 60°C. Und für die „atmosphärische Gegenstrahlung“ taucht dort lediglich der aufsteigende IR-Term „Von der Atmosphäre absorbierte Wärmestrahlung 15%“ (entsprechend 205W/m² von So) auf, der jedoch nicht auf die Erdoberfläche zurückgeführt wird. Von daher bleibt dort der fiktive atmosphärische Antrieb für den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ rechnerisch völlig im Dunklen. Und damit fehlt wiederum jede Erklärung, wie die Lücke von 155W/m² in der konventionellen Faktor4-Klimatheorie zwischen einer fehlerhaft abgeleiteten „natürlichen Gleichgewichtstemperatur“ unserer Erde von (-18°C) und der sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. (15°C) geschlossen werden sollte.

Die Vektorrichtung der parallelen solaren HF-Einstrahlung kann nämlich nur über die Erwärmung von Materie in eine radiale terrestrische IR-Abstrahlungsrichtung transformiert werden. Denn Photonen wandeln sich nun mal nicht freiwillig von kurzwelliger HF-Strahlung (solar=niedrige Entropie) zu langwelliger IR-Strahlung (terrestrisch=hohe Entropie) um; dazu bedarf es vielmehr in einem Zwischenschritt der Erwärmung von Materie (Aussage1: [2]), und das ist nur auf der Tagseite der Erde möglich. Dazu passt auch die Aussage von Prof. Dr. Heinz Fortak aus seinem Buch Meteorologie von 1971, Sekundärzitat aus einer Email vom 21.05.2021 um 21:08 Uhr an einen reduzierten Skeptiker-Email-Verteiler mit Dank an Dr. Gerhard Kramm:

Der Strahlungsanteil in Hoehe von 3.52 kWh/(m2 d) (42 %), welcher das System Erde – Atmosphaere effektiv erwaermt, besteht aus der kurzwelligen Strahlungsabsorption in der Atmosphaere und am Erdboden (17 % + 47 % = 64 %) abzueglich des Energiebetrages, der zur Verdunstung des Wassers benoetigt wurde. Der „Kreislauf“ der langwelligen Strahlung zwischen Erdoberflaeche und Atmosphaere traegt nicht zur Erwaermung des Systems bei. Die effektive langwellige Ausstrahlung nach oben von 64 % dient zur Aufrechterhaltung des Strahlungsgleichgewichts an der Obergrenze der Atmosphaere.“

Damit können wir für einen (IN=OUT)-Gleichgewichtszustand feststellen,

Aussage 2:

(Solare HF-Einstrahlung [1] @2PIR² [2] = terrestrische IR-Abstrahlung @4PIR² [3]) @ NST=CONST

Und wenn wir in Ermangelung von Alternativen mit Durchschnittswerten argumentieren, führt die Gleichsetzung NST=Tphys zu

Aussage 3:

Hinweis zur Temperatur auf der Nachtseite: Die Umgebungsgleichung des S-B-Gesetzes stellt die Ausgangssituation für meine Betrachtung der Nachtseite unserer Erde dar. Dadurch werden die Temperaturverhältnisse und die daraus abzuleitenden Flussrichtungen der Energie von warm zu kalt eindeutig definiert, aber der physikalische Ausgleichsmechanismus kann und wird selbstverständlich alle Arten des Energietransportes umfassen, wie ich das in der Vergangenheit bereits mehrfach ausgeführt hatte (beispielsweise hier: Land-Seewind-System und hier: 6. ERKENNTNIS).

Kommen wir jetzt noch einmal zu dem Modell KT97 von Kiehl & Trenberth zurück. Es ist klar hervorzuheben, dass der Ausdruck „S0“ in der Wissenschaft eindeutig für die Solarkonstante von 1.367 W/m² steht; das Faktor-4-Derivat von Kiehl & Trenberth leitet sich dagegen aus (S0/4) her. Und schließlich wäre hier von den KT97-Anhängern noch zu klären, wie ein IR-Spektrum von bis zu 120°C (@ S0) auf der Tagseite unserer Erde (generell S0 (1-ALBEDO)*COS(Zenitwinkel)) mit dem ominösen „Faktor4“ gemittelt wird, um so 4x das IR-Spektrum von -18°C (@235W/m²) zu erzeugen; insbesondere, wo dabei die höheren, ausschließlich auf der Tagseite erzeugten IR-Frequenzen abbleiben sollen (hier in Abbildung 6 dargestellt). Auf der anderen Seite kann Energie nicht einfach so verschwinden. In der Gleichung 1 sind aber Kondensation („Kond“) und Advektion („Adve“) nicht enthalten, es sei denn implizit in „Evap“ und „Konv“, was diese Terme dann allerdings mit („Evap“=„Evap“-„Kond“) und („Konv“=„Konv“-„Adve“) selbst auf „0“ bringen würde. Klarer wird vielleicht eine hemisphärische Betrachtung:

Es ergibt sich daraus die nachfolgend in Tabelle 1 dargestellte Situation:

 

Der Bodenwärmefluss sowie der Term „X“ aus Gleichung 1 sind hier nicht aufgeführt. Setzen wir einmal anstelle von Term „X“ einen Albedo-Antrieb ein:

Tabelle 1: Die Temperaturgenese auf unserer Erde [1]=>[2]=>[3] wird durch die ozeanischen Wärmespeicher mit einer Mitteltemperatur von etwa 15°C gestützt.

Die orbitalen Milanković-Zyklen stellen die einzige bekannte unabhängige Zeitreihe dar, die mit ihrem Frequenzspektrum die Schwankungen der paläoklimatischen Temperaturproxys für die letzten 420.000 Jahre in etwa abbilden können. Die Albedo unserer Erde ist dagegen die einzige bekannte Variable, die über eine Beeinflussung des reflektierten Anteils der Sonnenstrahlung die dafür notwendigen Schwankungen des solaren Klimaantriebs verursachen kann. Der Antrieb „X“ kann daher als +/-DELTA ALBEDO durch ein Albedo-Forcing beschrieben werden:

Gleichung 3: (S0 – S0*ALBEDO +/- S0*DELTA ALBEDO)@PIR² = (Merw + Evap + Konv)@2PIR²

Die linke Seite der Gleichung 3 bestimmt also, welche spezifische solare Strahlungsleistung überhaupt für die terrestrische Temperaturgenese zur Verfügung steht, und zwar zwischen einer Albedo von „0“=Schwarzkörper und „1“=Diskokugel, respektive 1.367W/m² und 0W/m². Manchmal wird die Zeit (t) ebenfalls eingebunden, aber das würde insofern zu Komplikationen führen, weil die Verweildauer von Wärme in den globalen Strömungssystemen von Atmosphäre und Ozeanen sehr unterschiedlich ist. Verstehen wir die Gleichungen 2 und 3 also eher als Ergebnis einer langjährigen Durchschnittsbetrachtung. An einer Weltformel für die Temperatur hatte ich mich hier einmal versucht, und hier an einem natürlichen Klimamechanismus.

Und jetzt schauen wir einmal genauer auf unser Eiszeitalter:

Wir leben gegenwärtig in einem Interglazial der gegenwärtigen Eiszeit, also irgendwo zwischen der letzten Kaltzeit und der nächsten, wie die nachfolgende Abbildung mit den Temperaturproxys der antarktischen Vostok-Bohrung zeigt:

Abbildung 2: Isochrone Interpolation der Temperaturproxys aus den Vostok-Daten [1]
In den vergangenen 420.000 Jahren beschränkten sich die sogenannten Warmzeiten oder Interglaziale auf Zeiträume von jeweils 10.000 bis 15.000 Jahren. Unser aktuelles Interglazial besteht nun bereits seit etwa 12.000 Jahren, hat also voraussichtlich noch zwischen 0 und 3.000 Jahre Bestand. Und dann wird es wieder für etwa 100.000 Jahre lang ziemlich kalt, mit Gletschern im norddeutschen Tiefland und allem was so dazu gehört. Damit sollte uns aber auch die Frage interessieren, was genau den Wechsel von einer Warmzeit zu einer Kaltzeit hervorruft.

Köppen und Wegener machen in ihrem Werk „Die Klimate der geologischen Vorzeit“ (Bornträger 1924, Nachdruck bei Schweizerbart) die sommerliche Sonneneinstrahlung in höheren geographischen Breiten für den Wechsel von Warm- und Kaltzeiten verantwortlich.

Abbildung 3: Rekonstruktion der Sonnenstrahlung des Sommerhalbjahres in höheren Breiten im Quartär seit 650.000 Jahren, aus Köppen & Wegener (1924), Graphik von M. Milanković, gemeinfrei aus Wikipedia

Nach Köppen und Wegener kommt es bei einer Kaltzeit nämlich gar nicht darauf an, wie extrem kalt es im Winter wird, sondern wie viel Schnee und Eis über den Sommer liegen bleibt. Das gilt insbesondere für die polaren Regionen in den höheren geographischen Breiten, wo durch eine solche Erhöhung der sommerlichen Albedo dann weitere Sonneneinstrahlung reflektiert wird, sodass dadurch keine Materie mehr erwärmt werden kann und folglich die Temperaturen sinken.

Die dänischen Forschungseinrichtungen für die Arktis präsentieren auf ihrem Polar Portal die Daten über den Zustand zweier Hauptkomponenten der Arktis, der grönländischen Eisdecke und des Meereises. Die nachfolgende Abbildung von diesem Portal zeigt, wie die Oberfläche des grönländischen Eisschildes täglich an Masse gewinnt und verliert, also die Oberflächenmassenbilanz. Die Massenverluste durch Abkalben von Gletschern sind dort nicht enthalten.

Abbildung 4: Oberflächenmassenbilanz der aktuellen Saison für das Grönländische Eisschild gemessen in Gigatonnen (1 Gt entspricht 1 Milliarde Tonnen und entspricht 1 Kubikkilometer Wasser). Die dunkelgraue Kurve zeichnet den Mittelwert aus dem Zeitraum 1981-2010. Quelle: Dänisches Polar Portal

Das hellgraue Band in Abbildung 4 zeigt die jährlichen Masseunterschiede von Jahr zu Jahr für den Zeitraum 1981-2010, wobei die niedrigsten und höchsten Werte für jeden Tag weggelassen worden sind. Wir können deutlich erkennen, dass der Masseverlust des Grönländischen Eisschildes erst Anfang Juni beginnt und bereits in der 2. Augusthälfte endet, also auf etwa drei Monate im Jahr beschränkt ist und im Maximum auf den Juli fällt. Wenn sich dieser kurze Zeitraum der Schmelze in den höheren geographischen Breiten noch weiter einschränken würde, bliebe dort dann von Jahr zu Jahr etwas mehr Schnee und Eis liegen und es würde immer mehr Sonnenstrahlung reflektiert und trüge nicht mehr zur terrestrischen Temperaturgenese bei. Wir erinnern uns an den Unterschied zwischen der spezifischen Strahlungsleistung und der übertragenen Wärmemenge:

Abbildung 5: Zum Unterschied zwischen Leistung und Arbeit der solaren Einstrahlung. Links: Gemittelte 24h-tagesdurchschnittlich zurückgerechnete Strahlungsleistung der Sonne in Abhängigkeit von der Jahreszeit und der geographischen Breite über ein Jahr (Abbildung 22 b aus Kramm et al. (2017): … (b) solar radiation reaching the Earth’s surface; … as predicted for one year starting with TDB=2,455,197.5 (January 1, 2010, 00:00 UT1) – Creative Commons License CC BY 4.0)´. Rechts: Die maximale spezifische solare (Strahlungs-)LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel (nicht flächengetreu – weitere Erläuterungen sind hier zu finden)

In den höheren geographischen Breiten ist also die solare Arbeit im Sommerhalbjahr sogar noch größer als in den Tropen, die maximal mögliche S-B-Gleichgewichtstemperatur folgt allerdings immer dem höchsten Sonnenstand zwischen den beiden tropischen Wendekreisen des Krebses und des Steinbocks, wobei diese Temperatur aufgrund von Konvektion und Verdunstung nirgendwo erreicht wird. Einen möglichen Wirkmechanismus für ein natürliches Klimaforcing hatte ich hier auf KS beschrieben.

Es gibt auf unserer Erde keine Energiequelle, die den Wechsel zwischen Kalt- und Warmzeiten verursachen kann. Die orbitalen Milanković-Zyklen stellen die einzige bekannte unabhängige Zeitreihe dar, die mit ihrem Frequenzspektrum die Schwankungen der paläoklimatischen Temperaturproxys für die letzten 420.000 Jahre in etwa abbilden können. Aber selbst die Schwankung der solaren Einstrahlung innerhalb dieser Zyklen reicht vom Betrag her als Erklärung für den Wechsel von klimatischen Kalt- und Warmzeiten nicht aus. Die Albedo unserer Erde ist die einzige bekannte Variable, die über eine Beeinflussung des reflektierten Anteils der Sonnenstrahlung die dafür notwendigen Schwankungen des solaren Klimaantriebs verursachen kann, und zwar, ganz generell nach Gleichung (3) betrachtet, zwischen den Extrema einer Albedo von „0“=Schwarzkörper und „1“=Diskokugel, entsprechend einer temperaturwirksamen spezifischen solaren Strahlungsleistung von 1.367W/m² respektive 0W/m².

Die Klimasensitivität der Sonnenstrahlung

Den „Antrieb X“ aus Gleichung (1), Zitat:Man sieht in der Tabelle, dass der Antrieb X um ca. 7 Watt/m2 wächst für jeweils 1 Grad Temperaturerhöhung“, hatte ich nicht übernommen. Stattdessen hatte ich in Gleichung (3) den variablen Term (+/- S0*DELTA ALBEDO) mit der Erd-Albedo eingeführt. Wie ich hier auf KS bereits einmal ausführlich dargestellt hatte, können die Schwankungen des natürlichen Paläo-Klimaantriebs als (+/-DELTA ALBEDO) durch ein Albedo-Forcing beschrieben werden, und zwar mit 13,67 [W/m²] pro Prozent Albedo und 9 [W/m²] pro Kelvin:

Douglas und Clader [2] geben die Klimasensitivität k der Sonneneinstrahlung aus eigenen Versuchen zu

Gleichung 4: Delta T/Delta F = k = 0,11 +/- 0,02  [°Celsius / Wm2]  an.

Damit ergibt sich für die Vostok-Temperaturproxys von 5,44°C bis 18,06°C um die sogenannte globale Durchschnittstemperatur (NST) von 14,8°C eine Schwankungsbreite der spezifischen solaren Strahlungsleistung von:

Gleichung 5: DELTA FV@NST = +29,36 [W/m²] und -85,36 [W/m²]

Dieser Betrag stimmt in etwa mit den Berechnungen von Lascar et al. [3] überein, die für 65°N / 120°E eine Schwankung der Sonneneinstrahlung von bis zu +/- 50 [W/m²] über orbitale Zyklen angeben. Aus der Solarkonstanten von 1.367 [W/m²] und der Albedo von Douglas und Clader [1] mit a = 0,3016 ergibt sich eine reflektierte/refraktierte Energiemenge von 412,29 [W/m²], die nicht zur Klimaentwicklung beiträgt. Daraus wiederum lässt sich ein Beitrag von 13,67 [W/m²] pro Prozent Albedo ermitteln und, umgerechnet auf die Extremwerte der absoluten Vostok-Temperaturproxys, eine Schwankungsbreite für die Albedo der Erde von:

Gleichung 6: F@amin =  412,29  – 29,36  [W/m²]  =   382,93 [W/m²]  mit dem Albedo  amin0,2801

Gleichung 7: F@amax =  412,29  + 85,36  [W/m²]  =  497,65 [W/m²]  mit dem  Albedo  amax = 0,3640

In der nachfolgenden Abbildung sind die Vostok-Temperaturproxys in Albedoschwankungen umgerechnet worden, und zwar beginnend mit einer Albedo von 0,3016 für die aktuelle „gemessene“ globale Durchschnittstemperatur (NST) von 14,8° Celsius:

Abbildung 6: Die Varianz der Erdalbedo über die Warm- und Kaltzeiten abgeleitet aus den Vostok Temperaturproxys [1]
Übrigens: Kaltzeiten dürften jeweils in einem Zeitabschnitt beginnen, in dem die Nordsommer auf das Abhel der elliptischen Erdbahn fallen, weil dort die Sommersonne schwächer ist als im Perihel; und genau in diesem Abhel befinden wir uns gerade. Und wenn Sie jetzt die Abbildung 6 auf Sich wirken lassen, würden Sie da auf die Idee kommen, die Albedo unserer Erde künstlich zu erhöhen?

Die Menschheit hat mit der Albedo unserer Erde möglicherweise erstmals einen echten „Kipp-Punkt“ für unser globales Klima zu fassen bekommen. Und im heiligen Klimawahn sollten wir jetzt nicht wie unwissende Kinder an dieser Stellschraube herumpfuschen und das Klimaparadies unserer Warmzeit zerstören.

Aber eine Stimme aus dem Off sagte, „Beruhige Dich, denn es könnte schlimmer kommen…“

Und natürlich kommt es noch schlimmer. In einem EIKE-Artikel erklärt Professor Valentina Zharkova, wie sich aus dem zyklischen Wechsel des Solardynamos zwischen einem poloidalem und einem toroidalem Magnetfeld durch deren Interferenz eine Schwebungsfunktion ergibt. Diese Schwebung verursacht Schwankungen der Gesamtabstrahlung unserer Sonne (Total Solar Irradiance =TSI), die wiederum zu Großen Solarzyklen von 350-400 Jahren führen sollen, wie die nachstehende Abbildung zeigt:

Abbildung 7: Rekonstruierte Kurve der Sonnenaktivität für 1200-3300 n. Chr. (aus einer Zusammenfassung auf EIKE, Daten von Zharkova et al. (2020).

Und das ist immer noch nicht alles. V.M. Velasco Herrera, W. Soon und D.R. Legates haben gerade einen neuen Artikel mit dem Titel, “Does Machine Learning reconstruct missing sunspots and forecast a new solar minimum?” veröffentlicht. In der Presseerklärung heißt es dazu u.a., Google-übersetztes Zitat:

Die drei Wissenschaftler haben einem Algorithmus für maschinelles Lernen beigebracht, wie man zugrunde liegende Muster und Zyklen in den Sonnenflecken der letzten 320 Jahre erkennt. Der Algorithmus entdeckte dann eine bisher unbemerkte Wechselwirkung zwischen den 5,5-jährigen Sonnenhalbzyklen (blau) und den 120-jährigen Gleissberg-Doppelzyklen […], die es ihm ermöglichte, die früheren Vorhersagen eines ruhigen halben Jahrhunderts zu bestätigen – Vorhersagen, die jetzt von Sonnenphysikern geteilt werden.“

Die nachfolgende Abbildung zeigt eines der Ergebnisse von Velasco Herrera et al.:

Abbildung 8: “The Sun may be quiet for half a century” aus der Presseerklärung von Velasco Herrera et al. (2021)

Auch nach diesen Ergebnissen einer KI-Signalanalyse der Sonnenflecken steht uns offenbar ein solares Minimum bevor. Und sogar die NASA rechnet für die kommenden Jahre mit einem neuen solaren Minimum, Zitat aus einem EIKE-Artikel:

Die neue Untersuchung wurde von Irina Kitiashvili geleitet, einer Forscherin des Bay Area Environmental Research Institute am Ames Research Center der NASA im kalifornischen Silicon Valley. Sie kombinierte Beobachtungen von zwei NASA-Weltraummissionen – dem Solar and Heliospheric Observatory und dem Solar Dynamics Observatory – mit Daten, die seit 1976 vom bodengestützten National Solar Observatory gesammelt wurden.“

Abbildung 9: Die Vorhersage der NASA für den Sonnenzyklus 25 zeigt, dass er der schwächste der letzten 200 Jahre sein wird. (Abbildung aus einem EIKE-Artikel)

Man macht sich also grundsätzliche Gedanken über eine Verminderung der Globaltemperatur durch eine künstliche geotechnische Verringerung der solaren Einstrahlung, und zwar ausgerechnet zu einem Zeitpunkt, wo

  • das gegenwärtige Interglazial in seinem letzten Drittel steht,
  • die Nordsommer auf das Aphel der elliptischen Erdbahn mit den größten Sonnenabstand fallen
  • und für die nächsten Jahrzehnte durch mehrere unabhängige Forschungsergebnisse ein solares Minimum vorausgesagt wird.

Das Orakel von Delphi würde uns an dieser Stelle vielleicht weissagen, dass wir den befürchteten menschengemachten Hitzekollaps unserer Erde sicher vermeiden werden, wenn wir es durch Klimaengineering schaffen sollten, dass im Sommer der höheren geographischen Breiten in aufeinander folgenden Jahren zunehmend mehr und mehr Schnee und Eis liegen bleiben. Allerdings war das Orakel von Delphi auch immer so höflich, sich über die Konsequenzen eines vermeintlichen Erfolges auszuschweigen…

Referenzen

[1] Vostok ice-core data [NOAA]: Petit, J.R., et al., 2001, Vostok Ice Core Data for 420,000 Years. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2001-076. NOAA/NGDC Paleoclimatology Program, Boulder CO

[2] Douglas and Clader (2002): Climate sensitivity of the Earth to solar irradiance. GEOPHYSICAL RESEARCH LETTERS, VOL. 29, NO. 16, 10.1029/2002GL015345, 2002

[3] Laskar et al.:  Orbital, precessional, and insolation from -20Myr to +10Myr. Astronomy & Astrophysics 270, 522-533 (1993) – Figure 5




Die Klimaschau von Sebastian Lüning: Wie neutral ist das Bundesverfassungsgericht? Klimaschutz-Urteil 2021




Die Klimabewegung ist eine Religion*

Sein Buch «Apocalypse Never – why environmental Alarmism hurts us all» brachte im vergangenen Sommer eine kühle Brise in die aufgeheizte Klimadebatte, kühle Vernunft. Der amerikanische Wissenschaftspublizist Michael Shellenberger zeigt in seiner Analyse, die mittlerweile in siebzehn Sprachen vorliegt, anhand Dutzender von Beispielen, warum die Weltuntergangs-Warnungen der Klima-Aktivisten falsch sind, ja schädlich für Wirtschaft, Gesellschaft und Umwelt. Im Gespräch hier räumt er auf mit den überrissenen Erwartungen an erneuerbare Energien wie Wind und Solar. Der 49-jährige Shellenberger zählt zu den renommiertesten Wissenschaftsautoren und ist auch in der Politikberatung in mehreren Ländern engagiert.

Weltwoche: Herr  Shellenberger, die USA kehren unter der Regierung Biden zurück zum Pariser Abkommen und versprechen, den Ausstoss ihrer Treibhausgase gemäss den Pariser Zielen zu reduzieren. Welchen Effekt erwarten Sie? Ist das gut für die Welt?

Michael Shellenberger: Der Effekt ist gleich null.  In den USA sind die CO2-Emissionen seit dem Jahr 2000 stärker  zurückgegangen als in jedem anderen Land der Welt. Verglichen mit 2005, beträgt der Rückgang jetzt 22 Prozent, das Pariser Ziel für die USA lag bei 17 Prozent. Es wurde also weit übertroffen. Und zwar aus Gründen, die nichts zu tun haben mit dem Pariser Abkommen.

Weltwoche: Aus welchen Gründen?

Shellenberger: Fracking und  Erdgas  sind entscheidende Stichworte. Erdgas verursacht etwa halb so viel CO2-Emissionen wie Kohle, und so bringt die seit längerem laufende Verlagerung weg von Kohle, hin zu Gas eine erhebliche Entlastung. Unter Trump erfolgte die Verlagerung ebenso schnell wie unter Obama, die Emissionen sanken sogar beschleunigt.

Weltwoche: Und was ist nun die Wirkung des Pariser Vertrags?

Shellenberger: Das Pariser Abkommen ist reine Public Relations.  Und mehr als das wird es auch nie sein, ein Beschäftigungs-Programm für Diplomaten.

Weltwoche: Dann sind die Bemühungen zur Stärkung des Pariser Prozesses auch für die ganze Welt eine reine  Zeitverschwendung?

Shellenberger: In gewisser Hinsicht ist es sogar schlimmer, weil dies der Idee Vorschub  leistet, es sei vor allem Sache der Bürokraten, über Energieangebote, -nutzung und Güterproduktion in den jeweiligen Ländern zu entscheiden.

Weltwoche: Aber der Staat hat bezüglich Umweltschutz und Energieverwendung doch bestimmte Aufgaben, oder nicht?

Shellenberger: Die weitaus wichtigste Grösse mit Blick auf die Energie ist deren Preis, denn dieser bestimmt das Wirtschaftswachstum. Umweltqualität wird verbessert durch effizientere Kraftwerke, Anlagen und Fahrzeuge, nicht durch Ankündigungen an Uno-Konferenzen.  Die Politik kann durchaus einen günstigen Einfluss ausüben. Die  US-Regierung etwa förderte die Fracking-Revolution, was zu billigem Erdgas und dadurch zu einem Ersatz der Kohleverbrennung sowie drastisch sinkenden CO2-Emissionen führte.

Weltwoche: Die Europäer sind aber nicht auf dieser Schiene.

Shellenberger: Nein, sie stehen zurzeit vor der  Frage ,  ob sie Erdgas  sowie    erneuerbare Energien  wie Solar und  Wind ausbauen oder  ob sie die Kernenergie stärken sollen.

Weltwoche: Für Kernenergie sieht es in Deutschland und der Schweiz schlecht aus.

Shellenberger: Da hat die Politik sie verbannt, aber in den Niederlanden, in Grossbritannien oder Frankreich laufen Debatten zu deren Ausbau. Ein Vergleich von Deutschland mit Frankreich ist höchst interessant: Pro Elektrizitätseinheit stösst Frankreich nur einen Zehntel der CO2-Emissionen von Deutschland aus, und der französische Strompreis ist halb so hoch. Deutschland hat zusätzlich Schwierigkeiten mit Solar und Wind. Windräder stossen auf viel lokalen Widerstand, und jüngste Meldungen über Zwangsarbeit in China weckten politischen Widerstand gegen den Import von Solarpanels.

Weltwoche: Gerade in Europa besteht aber der Eindruck, dass der ganze Uno-Apparat mit Klimaabkommen, Konferenzen, Weltklimarat und Klimaforschung doch eine Energiewende bewirkt.

Shellenberger: Er bringt PR, die den Druck erhöht, Kernkraftwerke abzuschalten, die wetterabhängigen erneuerbaren  Energieformen  auszubauen und den armen Ländern moderne Nahrungsmittelproduktion und Energiesysteme vorzuenthalten. Das sind die Auswirkungen auf die Welt.

Weltwoche: Es gibt also Gewinner und Verlierer. Wer sind die Gewinner?

Shellenberger: Gewinner sind die Chinesen, die  Solarpanels  produzieren, Schattenbanken wie Blackrock, die das finanzieren, sodann globale  Eliten, die ihr Statusbewusstsein und Überlegenheitsgefühl pflegen, und auch  junge Leute, die sich gegen Eltern, Institutionen und Vorgesetzte auflehnen.

Weltwoche: Und die Verlierer?

Shellenberger: Länder  aus Subsahara-Afrika, weil man sie daran hindert, moderne Energie- und  Ernährungssysteme zu erstellen. In geringerem Ausmass auch Südamerika und  Südasien. Die  Klimadebatte  schadet vor allem schwächeren Leuten und schwächeren Ländern.

Weltwoche: Wehren sich die Verlierer nicht?

Shellenberger: Es gibt Widerstand in unterschiedlichen Formen. Indien etwa setzt weiterhin stark auf Kohle und stellt daneben einfach ein paar Solarpanels auf, um europäische Diplomaten zufriedenzustellen und auch um der Jugend in Entwicklungsländern  das Gefühl zu geben, sie sei Teil der globalen Elite. Entwicklungsländern wäre mit Industrialisierung und verbesserter Organisation viel besser gedient, um der Armut zu entkommen und die Wälder zu schützen.

Weltwoche: Wann kam die ganze Umwelt- und Klimabewegung eigentlich in Gang? Der Erdgipfel in Rio 1992 war ein  Kick – aber woher kam dann die Dynamik?

Shellenberger: Nach meiner Einschätzung hat diese ganze apokalyptische  Klimadiskussion  so richtig an Bedeutung gewonnen, als die apokalyptische Nuklearwaffen-Diskussion auslief. Am Ende des Kalten Krieges fand eine Art Ablösung statt. Bereits die Nuklearwaffendebatte war ihrerseits ein Ersatz für frühere Apokalypsevorstellungen, damals zu Faschismus und Kommunismus. Hinzu kam, dass in den frühen neunziger Jahren auch die Angst vor  Überbevölkerung verblasste und Mainstream-Denker sich dem Klima zuwandten.

Weltwoche: Soll man denn überhaupt etwas unternehmen gegen die Erderwärmung?

Shellenberger: Ja, man muss immer versuchen, von technologisch schlechteren zu fortschrittlicheren Energieträgern zu gelangen: von Holz zu Kohle  und Wasserkraft, von da zu Erdgas  und schliesslich zu Kernenergie. Kernenergie und Erdgas haben grosse Vorteile punkto Verlässlichkeit und Umweltqualität, weit über die Klima-Aspekte hinaus.

Weltwoche: Was ist denn langfristig der erstrebenswerte Energiemix?

Shellenberger: Ich glaube, am  Schluss dieser Energietransformationen  werden wir praktisch zu hundert Prozent Kernkraft haben.  Mit jedem Schritt wird die Wirtschaft weniger Carbon-intensiv: von Kohle zu Erdgas zur Wasserstoffwirtschaft, getrieben durch Nuklearenergie.

Weltwoche: Findet die Kernenergie denn genug politische Unterstützung?

Shellenberger: Ich glaube, es wird eine Weile brauchen.  Das war auch bei Kohle der Fall. Nach der ersten Dampfmaschine  im frühen 18. Jahrhundert  dauerte es fast siebzig Jahre, bis James Watt mit seiner moderneren Dampfmaschine kam. Die Nukleartechnologie ist jetzt 75 Jahre alt, die Nutzung als Energiequelle knapp  sechzig Jahre. Kernenergie ist eine sehr anspruchsvolle Technologie, da ihr primärer Zweck ja die Waffe war.  Deshalb hat sie sich als Energiequelle vor allem über jene Länder verbreitet,  die auch die Atomwaffe besitzen. Dass Frankreich über so viel Kernkraft verfügt, hängt mit seiner Rolle als Atommacht zusammen.  Grossbritannien kann aus dem gleichen Grund ebenfalls gut mit Kernenergie umgehen. In Westeuropa sonst ist dagegen die Angst  davor grösser. Aber ich glaube, diese nimmt mit der Zeit ab.

Weltwoche: Sehen Sie auch bei den modernen Reaktortypen einen Zusammenhang zwischen Atommacht und Energienutzung?

Shellenberger: Das sehe ich so. Die verbindende Beziehung ist der Prozess der Kernspaltung, der zu beherrschen ist.

Weltwoche: Und ist diese Technologie wirklich zuverlässig genug kontrollierbar?

Shellenberger: Bis heute ist das ziemlich gut gelungen. Kernenergie breitet sich nur langsam von Land zu Land aus. Das ist gut so, denn jedes  Mal,  wenn ein neues Land dazukommt, ergeben sich Risiken, die am Anfang am grössten sind. Der gefährlichste Zeitpunkt für Nordkorea war vor einigen Jahren. In der Kernenergieproduktion gab es einzelne Unfälle wie Tschernobyl oder Fukushima, aber diese machten die Branche besser, weniger anfällig.

Weltwoche: Die Hauptkräfte der Umwelt- und Klimapolitik sehen das aber nicht als Lösung. Sie wollen eine radikale Umkehr im Energiekonsum und eine vollständige Abkehr von fossiler Energie bis 2050 oder früher, eine Art Vollbremsung. Sie sagen, die Wissenschaft zeige klar, dass man sofort handeln müsse, sonst sei es zu spät, und das Klimasystem kippe. Es herrscht eine Alarmstimmung, die selbst lokale Parlamente dazu bringt, den Klimanotstand auszurufen.

Shellenberger: Da wird vieles miteinander vermischt. Meiner Ansicht nach ist die  Wissenschaft zum Klimawandel gut fundiert. Sie  besagt,  dass die Erde wärmer wird und dass menschengemachte Emissionen Erwärmung bewirken. Ich finde es  gut,  dass es  Meinungsunterschiede zur Frage gibt, wie gross der Anteil der Menschen daran ist. Nach meiner Einschätzung ist er ziemlich  bedeutend,  die Rolle der CO2-Emissionen bezüglich Treibhauseffekt ist nicht umstritten.

Weltwoche: Also ist der Alarm angebracht?

Shellenberger: Nein. Die Klimawissenschaftler versagen anderswo, nämlich bei der Antwort auf die Frage, welche Auswirkungen die höheren Temperaturen haben können. Die alarmistischen Warnungen vor katastrophalen Entwicklungen sind völlig abwegig. Wir sehen keine Zunahme der Häufigkeit von Wirbelstürmen, die damit verbundene Anzahl Todesfälle nimmt ab, die Kosten nehmen nicht zu.  Auch bei Trockenheit und Überschwemmungen gibt es keine Steigerungen. Die besten verfügbaren Schätzungen der Entwicklung von Wirbelstürmen im nächsten halben Jahrhundert in den USA  deuten darauf hin,  dass die Frequenz um 25 Prozent abnehmen und die Intensität um 5 Prozent zulegen wird. Fehlinformation  verbreiten Klimawissenschaftler also zu den Auswirkungen der Erwärmung, nicht zur Tatsache der Erwärmung. ›››

Weltwoche: Ohne dramatische Schilderungen von Auswirkungen lassen sich wohl die wissenschaftlichen Daten schlecht verkaufen.

Shellenberger: In meinem Buch «Apocalypse Never» versuche ich, genau zwischen diesen zwei Dingen zu trennen. Die  Erderwärmung ist Tatsache und grossenteils  menschengemacht, das ist das eine. Das andere aber betrifft die Auswirkungen der Erwärmung. Da ist Alarmismus fehl am Platz.

Weltwoche: Wäre es also billiger, die Folgen des Klimawandels zu parieren, als die Erwärmung zu bekämpfen?

Shellenberger: Es hängt davon ab, was Sie mit Bekämpfung der Erwärmung meinen. Wie ich vorhin sagte, haben die USA  ihre CO2-Emissionen mehr als jedes andere Land in der Menschheitsgeschichte innerhalb der letzten zwanzig Jahre verringert. Und in dieser Zeit wurden die USA als Klimabösewicht beschimpft.  Aber jetzt kommt der Clou: Das war mit keiner wirtschaftlichen  Einbusse verbunden – im Gegenteil: Der Erdgaspreis sank, und  das ersparte den Konsumenten Kosten von hundert Milliarden Dollar pro Jahr.  Es ist also noch dramatischer, als wenn man sagt, das eine verursache weniger Kosten als das andere:  Wir reduzierten  CO2-Emissionen,  indem wir saubere Energien billiger machten, also einen Gewinn realisierten.

Weltwoche: Das tönt wie ein Geheimrezept.

Shellenberger: Die einzigen Massnahmen, die wirklich wichtig sind, sind die Übergänge von Energieform zu Energieform: von Kohle zu Erdgas zu Nuklearenergie. Das ist das Zentrale am Ganzen und gar nicht kompliziert.

Weltwoche: Ist diese Lösung nicht allzu bequem, zu billig?

Shellenberger: Es gibt viele Lügen im Zusammenhang mit dem Klima, aber die allergrösste Lüge ist, dass die Bekämpfung des  Klimawandels  ökonomische  Opfer nötig mache.  Das ist nur dann wahr, wenn wir meinen, wir müssten zurückgehen in der Zeit, zurück zu den erneuerbaren  Energieformen.  Wenn wir aber vorwärtsgehen in Richtung Erdgas und Nuklearenergie, dann sind keine Opfer nötig, im Gegenteil, dann schafft man mehr Wohlstand.

Weltwoche: Aber viele würden jetzt einwenden, erneuerbare Energien seien etwas Gutes, denn diese seien näher bei der Natur und man beute die Vorräte nicht aus.

Shellenberger: Ja, genau so ist es. Und deshalb sage ich: Es handelt sich da um eine Religion. Die Bewegungen für erneuerbare Energien und Umwelt bilden eine Religion. Es sind biblische Argumente, die da vorgebracht werden: Wir Menschen lebten seinerzeit in einem harmonischen Zustand mit der Natur, wir verletzten dann die Natur, schadeten ihr, vergewaltigten sie mit  technischem Lernen und Wissen, mit fossilen und nuklearen Brennstoffen. Wir  fielen ab von der Natur, sind Gefallene, schuldig. Wir müssen deshalb aufhören, Fleisch zu  essen. Das ist ein zentraler Punkt in vielen Religionen:  kein Fleisch, kein Vergnügen,  nicht herumreisen,  sonst wird die Welt zugrunde gehen.  Wie es im Buch der  Offenbarungen  festgehalten ist: Die Apokalypse kommt.

Weltwoche: Moment, man kann doch sagen, das Warnen vor der Apokalypse soll Massnahmen zur Abwendung derselben bewirken.

Shellenberger: Ich glaube, der Zweck des  Alarmismus  ist einfach der  Alarmismus selber. Ziel ist nicht die Verringerung der CO2-Emissionen, denn dann würde man Erdgas und Nuklearenergie anvisieren. Die Klimainteressengruppen wollen jedoch Solar- und Windenergie. Warum? Einerseits,  weil man das in Harmonie mit der Natur sieht, und  anderseits,  weil sie  finden,  man müsse Opfer bringen.

Weltwoche: Es müssen Kosten anfallen?

Shellenberger: Ja, und zudem: Die nicht verlässlichen Energieformen brauchen mehr Kontrolle und autoritäre Strukturen. Nehmen Sie die Elektrizitätsnetze. Angebot und Nachfrage lassen sich am besten in Einklang bringen in Systemen mit einer kleinen Anzahl grosser Kraftwerke. Nimmt man nun die erneuerbaren Energien dazu, muss man enorm viele Ausrüstungen, Steuerungen, Beschäftigte und  staatliche  Instanzen hinzufügen. So kann man Kosten generieren und die Leute zum Zahlen zwingen.

Weltwoche: Welche Länder werden die schnellsten sein in der Entwicklung neuer Energieversorgungskombinationen?

Shellenberger: Die reichen, entwickelten Länder befinden sich in einer gewissen Führungskrise, auch die  Biden-Administration, deren  Klimapläne  widersprüchlich sind. Deutschland hat ebenfalls grosse Probleme mit dem Übergang. Die einfachste Antwort auf die Frage ist deshalb: China. Weil dessen Wirtschaft wächst, weil es zentralisiert ist – wobei allerdings die  Interessengruppen für Solar, für Nuklear und für  Kohle einander bekämpfen und die Kommunistische Partei  den Marktkräften wenig Raum gibt.

Weltwoche: Wie sehen Sie denn langfristig die Perspektiven für die Solarenergie? Sonnenlicht ist ja gratis, warum soll man das nicht voll nutzen?

Shellenberger: Jahrelang wurde  erzählt, dass Solarpanels billiger würden, weil das Nutzen von Sonnenlicht zur Erzeugung elektrischer Energie immer effizienter werde.  Solarpanels  sind nun aus drei Gründen billiger geworden: Erstens werden sie subventioniert von China,  zweitens  lässt die chinesische Regierung zu, dass die schmutzigste Form von Kohlenergie zu deren Produktion verwendet wird, drittens ist Zwangsarbeit im Spiel. Nicht technischer Fortschritt drückte den Preis. Und der Rohstoff  Silizium wird nun teurer.  Nach meiner Einschätzung wird Solarenergie immer ein schönes Nischenprodukt bleiben, geeignet für kleinere Anwendungen.

Weltwoche: Aber viele Länder machen ja die Solarenergie zu einem Pfeiler ihrer Versorgung.

Shellenberger: Ich glaube, wenn die Solar-Blase platzen wird, dann werden die Leute aus ihrer Trance erwachen und sehen: Es gibt keinen Weg zu einer von Solarkraft angetriebenen  Wirtschaft.

Weltwoche: Sehen Sie für den Fall, dass die Klimawelle abebben sollte, eine nächste grosse Strömung, die entstehen könnte? Was für eine?

Shellenberger: Im Moment sind es eigentlich zwei Religionen, zwei säkulare Religionen, welche die Szene prägen. Die eine dreht sich, wie gesagt, um Klima und Umwelt. Daneben hat sich eine andere Religion entwickelt, die von den Themen Identität, Rasse, biologisches und soziales Geschlecht und Ähnlichem besessen ist. Die zentrale Idee  ist da, dass bestimmte Menschen eine Opferrolle einnehmen und dass Opfer heilig sind. Ich werde diese neue Religion in meinem nächsten Buch aufgreifen.

Weltwoche: Funktioniert diese Strömung denn ähnlich wie die Umweltbewegung?

Shellenberger: Sie ist etwas anders gelagert, aber  beide Religionen sind sehr stark getrieben durch Eliten, die nach der Aufweichung der früher starken nationalen Identitäten neue zu schaffen  versuchen. Es geht um neue Gruppen, neue Stämme,  neue  Politiken,  moralisch aufgeladene Debatten über Opferrollen. Passt als Schwesternreligion  gut zur Klimabewegung.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : | Die Weltwoche, Nr. 22 (2021) | 03. Juni 2021 ;

EIKE dankt der Redaktion der WELTWOCHE und dem Autor  Beat Gygi sowie dem Interview-Gesprächspartner Michael Shellenberger(USA) für die Gestattung der ungekürzten Übernahme des Beitrages, wie schon bei früheren Beiträgen :  http://www.weltwoche.ch/ ; Hervorhebungen und Markierungen v.d. EIKE-Redaktion.

=================================================================

 




Die Matrix

Ordnung am Himmel

Vor gut hundert Jahren haben zwei Astronomen versucht Ordnung in das Chaos am nächtlichen  Firmament zu bringen. Sie nahmen die einzigen beiden Eigenschaften, die sie beobachten konnten – Helligkeit und Farbe – und ordneten jedem Stern entsprechend zwei Zahlen zu. Die Farbe wurde durch Temperatur repräsentiert: die rötlichen Kandidaten waren eher „kühl“, während bläulich für hohe Temperatur stand. Bei der Helligkeit hat man auch noch die Entfernung von der Erde herausgerechnet und bekam so die absolute Leuchtkraft.

Die beiden Werte nun trugen sie in ein Diagramm ein: Helligkeit auf der vertikalen y-Achse, Temperatur auf der horizontalen x-Achse. Das machten sie für sehr viele Sterne, aber die Arbeit hat sich gelohnt. Das Ergebnis sehen sie hier.  

Die Sterne sind offensichtlich nicht wild über die Ebene aus Helligkeit und Farbe verstreut, sondern es gibt Gruppen, wie etwa die Roten und die weißen Zwerge. Die liebe Sonne liegt voll im Mainstream, wird aber demnächst zu einen Roten Riesen degenerieren, sich ausdehnen und dabei die Erde in sich aufnehmen und verdampfen lassen. Das wird dann der finale Beitrag zu Global Warming sein. Die Grünen werden allerdings auch dann, in ein paar Milliarden Jahren, die SUV-Fahrer dafür verantwortlich machen.

Diese Darstellung der Sternenwelt wurde nach ihren beiden Schöpfern „Hertzsprung-Russell-Diagramm“ genannt. Es war ein gigantischer Sprung vorwärts für die Astronomie, die dadurch Einblick in die Spielregeln von Leben und Sterben am Himmel gewann.

Die armen Hunde

Solch eine zweidimensionale Darstellung als Matrix kann aber auch auf Erden sehr hilfreich sein, etwa in Unternehmen. Dort gibt es oft viele Ideen, was man noch alles machen könnte. Und jeder Protagonist ist sicher, dass seine Idee die beste ist, dass sie gigantische Gewinne bringen würde. Welche sollte man nun verfolgen?

Zunächst ist nur sicher, dass das Geld kostet. Man kann also nicht alles machen. Da kamen die Denker von McKinsey und General Electric mit einem guten Vorschlag: Laßt uns für jede Idee die folgenden zwei Parameter abschätzen: 1. Wie kompetent ist unsere Firma auf dem Gebiet und 2. Wie attraktiv ist dieser Markt überhaupt.

Diese Parameter drücken wir nun nicht – wie die Astronomen – durch Zahlen und Dezimalstellen aus, sondern klassifizieren einfach „niedrig“, „mittel“ „und hoch“. Und dann erstellen wir ein Diagramm, in dem diesmal die Attraktivität senkrecht und die Kompetenz waagerecht aufgemalt sind. Da jedes der beiden Kriterien drei Möglichkeiten hat, entstehen jetzt genau neun Felder, und das Diagramm sieht aus wie ein Schachbrett für Babys.

Fallbeispiel: Sollte die Firma Bosch eine neue Schreibmaschine auf den Markt bringen? Da hätte man aber „niedrige Kompetenz“ und der Markt schreit auch nicht nach solchen Geräten, also wird dem Produkt auch  „niedrige Attraktivität“ bescheinigt. Diese Kombination von „niedrig“ / „niedrig“ landet in unserer Matrix im Feld links unten, die das Etikett „Poor Dog“ trägt. Wir lassen also die Finger von diesem Hund.

Anruf von Elon Musk

Anderes Szenario: Ihr Telefon klingelt und am anderen Ende ist Elon Musk.

Er sagt: Guten Morgen aus USA. Mein Stab hat Sie als Leser von Think-Again und der Achse des Guten identifiziert, wir haben also Grund zur Annahme, dass Sie über hohe Intelligenz und reife Urteilskraft verfügen. Meine Frage: Sollen wir für den deutschen Markt ein Geschäft mit Backup-Batterien bei Stromausfall entwickeln?

Sie: Einen Moment Elon, da nehm‘ ich meine neun Felder Portfolio-Analyse zu Hilfe.  So. Wie schätzen Sie die Kompetenz Ihres Unternehmens in Sachen Batterie ein?

Elon: I beg your pardon? Ihre Frage überrascht mich. Haben Sie noch nie von TESLA gehört? In Sachen Lithiumionen sind wir Nummer eins auf der Welt.

Sie tragen also bei „Kompetenz“ die Wertung „hoch“ in Ihre Matrix ein. Jetzt müssen Sie noch bewerten, wie attraktiv der Markt für solche Produkte ist. Aber da müssen Sie nicht lange nachdenken: Kohle und Atom sind weg, Wind und Sonne flatterhaft, Tschechien und Frankreich sind überfordert. Da wird es Stromausfall geben – so sicher wie das Amen in der Kirche. Also werden alle verantwortungsvollen Familienväter vorsorgen und Batterie plus Inverter im Haus installieren. Entsprechend tragen Sie „high“ auch bei Attraktivität ein.

Der Vorschlag von Elon landet mit „high“ / „high“ in der oberen rechten Ecke der Matrix – und da leuchten die Sterne, es ist ein „Star“ Projekt, sozusagen der Antipode vom „Poor Dog“.

Sie antworten also:

Hallo Elon, sorry for the wait, full steam ahead, es ist ein Star Produkt. Du hast grünes Licht von mir!

Elon: Thank you buddy und 10% Discount für Dich beim ersten Kauf einer Batterie für Deine Villa. So Long.

(Manchmal hat diese Portfolio-Matrix übrigens nur vier Feldern und rechts und links sind vertauscht, aber das Prinzip bleibt der gleiche).

Zwei interessante Kriterien

Was sich bei Sternen und in Unternehmen bewährt hat, das könnte man doch auch zur Beurteilung von Menschen benutzen, etwa von Politikern, die sich uns zur Wahl stellen. Da müssen wir nur die zwei richtigen Parameter für unsere Matrix finden.

Ich schlage vor, wir bewerten unseren Kandidaten zunächst hinsichtlich der  Fähigkeiten, die erforderlich sind, um das angestrebte Amt zu führen. Dazu gehören Fachwissen, Intelligenz, Erfahrung im Umgang mit komplexen Situationen, Augenmaß und die Fähigkeit zu Delegieren. Fassen wir all das mal unter „Kompetenz“ zusammen.

Unser Kandidat muss aber noch mehr mitbringen, damit er für die Allgemeinheit von Nutzen ist. Zur gerade beschriebenen Kompetenz muss sich das totale Commitment für das gemeinschaftliche Ziel gesellen. Der Politiker muss willens sein, persönliche Interessen für die Gemeinschaft zu opfern. Er muss bereit sein, sich selbst eine blutige Nase zu holen. Bezeichnen wir diesen Aspekt seiner Persönlichkeit mal als „Charakter“.

Wo landen unsere Helden?

Kompetenz und Charakter sind also die Kriterien für die Auswahl unserer Kandidaten.

Wenn Sie Lust haben, dann können Sie zur Prüfung dieser Aussage einmal Politiker Ihrer Wahl nach diesem System bewerten. Ordnen Sie Charakter bzw. Kompetenz jeweils auf der Skala niedrig – mittel – hoch ein und übertragen die Werte in die Graphik ein  (dabei hilft cut and paste and print). Charakter ist vertikal, Kompetenz horizontal.

Das gibt dann ein Quadrat, in dem Nelson Mandela vielleicht oben rechts und Jimmy Carter oben links positioniert wären, und Richard Nixon eher rechts unten.

Sie können natürlich auch aktuelle Politiker und Kandidatinnen in dieser Matrix abbilden, aber wichtig: Sagen Sie nicht „Ach, die Annalena ist so sympathisch, der gebe ich ganz einfach ein „hoch“ in Kompetenz und ein „hoch“ in Charakter“.  Falsch! So würden wir das Pferd am Schwanz aufzäumen.

Die Argumentation muss umgekehrt sein. Sie könnten vielleicht sagen: Annalena hat in ihrer bisherigen politischen Tätigkeit sehr gute Übersicht bei komplexen Aufgabenstellungen bewiesen und sie verfügt über hochkarätiges Fachwissen in Völkerrecht und Energietechnik. Außerdem ist vorbildlich, wie sie politische Dinge von persönlichen Belangen trennt, insbesondere solche finanzieller Art. Da kann man ihr keine Heimlichtuerei vorwerfen, da zeigt sie Charakter. Also, die Bewertung: hoch / hoch.

Aber nehmen Sie bitte Ihre eigene Einschätzung, das hier ist nur ein konstruiertes Fallbeispiel.

Zwischen Zecke und Collie

So naheliegend die Klassifizierung nach Kompetenz und Charakter ist, so schwierig kann es sein, die beiden Kriterien objektiv zu bewerten. Genauso ging es den Topmanagern von McKinsey, Boston und GE mit ihren Ideen für neue Geschäftsfelder. Zur Erleichterung haben sie dann den Feldern ihrer Matrix Tiere zugeordnet. Da gab es dann etwa den armen Hund, den Stern und die beliebte „Cash Cow“.

Unsere Matrix für Politiker bietet auch Tiere. So gibt es da zunächst den „Border Collie“, kompetent genug, um eine ganze Schafsherde unter Kontrolle zu halten, aber 100% treu dem Schwur, seine Überlegenheit nicht zum persönlichen Nutzen zu missbrauchen; etwa indem er ein Lämmlein heimlich fürs Dinner auf die Seite schafft. Unser Urteil: hoch / hoch. Welcher unserer Politiker bzw. Kandidaten passt in dieses Feld? Sie sind am Zug!

Links oben ist das Schaf, also „treu und dumm“. Guter Charakter, stellt seinen Vorteil nicht in den Vordergrund und kommt so in einer Gemeinschaft von Hunderten ohne Konflikte klar. Aber inkompetent genug, um seine Gebeine für ein „Lamb-Shank“ zur Verfügung zu stellen. Das Urteil: hoch/ niedrig.

Das nationale Portfolio

Dem Schaf diagonal gegenüber ist die Hyäne, die schon als Jungtier ihre Geschwister killt, um das eigene Überleben zu sichern. Sie ist mit allen Wassern gewaschen und mit Kiefern ausgerüstet, die jeden Knochen zermalmen. Das ist schlechter Charakter gepaart mit hoher Kompetenz.  Urteil: niedrig / hoch. Davon sollten wir die Finger lassen.

Die Zecke, dagegen, eines der erbärmlichsten Resultate der Evolution, verbringt ihr trostloses Dasein auf einem Grashalm um sich ein paar mal im Leben an einen Warmblüter zu heften, sich vollzusaugen, und dem Wirt dafür die Frühsommermeningoenzephalitis (was für eine elegante Wortschöpfung) anzuhängen. Unser Urteil: charakterlos und inkompetent in den Dingen des Lebens: niedrig / niedrig.

Ihre Aufgabe ist es nun, Kandidaten oder Amtsinhaber zu klassifizieren und uns Ihr Urteil mitzuteilen – einfach per Leserbrief. Bei genügend Antworten werden wir das finale Portfolio der deutschen Politik im nächsten Post veröffentlichen. Schreiben Sie uns also einen Leserbrief mit Ihren Urteilen, etwa im Format:

 „Felix Mustermann, Charakter niedrig / Kompetenz mittel, liegt zwischen Zecke und Hyäne“.

So jemanden hätte ich übrigens … ich verrate aber nicht wen.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Klima-Paradigma (neue Ausgabe), ‚Great Reset‘, und das Problem von Philosophen mit Fakten und Klima

Der Autor Ernst Peter Ruewald hat die erste Auflage überarbeitet und erweitert

Wir haben sein  Buch „Das Klima-Paradigma“ bereits am 30.10.20 in erster Auflage auf hier vorgestellt.

Inzwischen ist eine verbesserte und aktualisierte Ausgabe (Paperback und gebunden erschienen; doch, damit man kein Restexemplar bekommt, muß man darauf achten, daß auf der Buchvorderseite der Haupttitel nicht-kursiv gedruckt ist).

Die Ebuch-Version ist unverändert, hat aber den Vorteil, daß die meisten der ca. 500 Quellenhinweise per Klick im Internet zugänglich sind; die zusätzlichen in der neuan Druckausgabe müssen noch per Hand eingegeben werden.

Beim Erscheinen im September 2020 konnte noch nicht auf „Unerwünschte Wahrheiten“ [1] Bezug genommen werden. Dies ist nun an vielen Stellen nachgeholt. Insbesondere ist ein kurzer Abschnitt über die „Kipppunkt-Hypothese“ (S. 45) eingefügt, wo auf die entsprechenden Kapitel zu den vermeintlichen Klima-Kippelementen in [1] verwiesen wird. Der Autor hat nämlich bei Diskussionen oft die Erfahrung gemacht, daß, nachdem in den meisten Fragen Einigkeit erreicht worden ist, schließlich der Einwand gebracht wird: „aber die gefährlichen Kipppunkte müssen doch vermieden werden!“.

Zielsetzungen des Klimaparadigma-Buchs sind nicht allein die wissenschaftstheoretischen Grundlagen, sondern auch die Ausleuchtung übergeordneter Gesichtspunkte, wie politische Hintergründe, philosophische Aspekte, Prioritätsfragen, etc. Eine Hauptthese ist, daß das Klima nicht das Weltproblem Nummer eins ist und die angebliche „Klimakatastophe“ ein virtuelles Konstrukt darstellt. Umso mehr folgt daraus, z.B. daß für den Staat die Versorgungssicherheit absoluten Vorrang vor Maßnahmen für eine fiktive, allenfalls in Jahrzehnten akut werdende „Klimakrise“ haben muß, insbesondere dann, wenn diese Maßnahmen das Risiko von Versorgungsblackouts maßgeblich erhöhen. (S. 99)

Die Prioritätensetzung hat zwei Aspekte: die der Wichtigkeit und die der zeitlichen Dringlichkeit. Diesbezüglich ist (S.17, S.100) u.a. die sehr besonnene Einschätzung von Vahrenholt/Lüning ( [1], S.12 und Kap. „Was tun?“ S. 344-347) hervorzuheben: «Wir haben ausreichend Zeit, nach technologischen Lösungen zu suchen, die fossilen Energieträger ohne Wohlstandsverlust und Naturzerstörung abzulösen.»   Allerdings bleibt offen, warum wir das tun sollten. Oder – um es mit dem Wissenschaftler und Technik-Philosophen Indur Goklany zu sagen: „Wenn die fossilen Ressourcen aus dieser Welt verschwinden, werden sie es nicht mit einem lauten Knall tun, sondern mit einem leisen Seufzer“ … und fährt sinngemäß fort: Einfach deswegen weil die Menschheit etwas Besseres gefunden hat.

Einige Kapitel wurden erweitert, z.B. (S. 74) „Konvergenz von Klima-, Migrations- und Corona-Politik“ bzw. (S. 107) „Exkurs: Staatsversagen in der Corona-Krise. Corona und Klima“.

Nach Meinung des Autors haben die „Klimakatastrophe“ bzw. die „Corona-Pandemie“ in ihrer Dramatik jeweils nur eine schwache Faktenbasis und es geht dabei nicht in erster Linie um die „Rettung“ des Klimas oder von Menschenleben, sondern um die Durchsetzung einer „Großen Transformation“ der gesamten Gesellschaft.

Besonders explizit äußert sich Klaus Schwab,  Direktor der Weltwirtschaftsforums WEF, der einerseits die relative Harmlosigkeit der Corona-Pandemie einräumt: «the least deadly pandemics the world has experienced over the last 2000 years», diese andererseits aber als einmalige Chance für einen totalen ‚Great Reset‘, d.h. Umbruch in Richtung einer „Ökodiktatur“  (die er natürlich mit humanitaristischen Wertbegriffen quasi-paradiesisch umschreibt) ansieht. (S. 109)

In Deutschland haben Parlament und Regierung das Feld gründlich beackert, unterstützt und defacto unangreifbar gemacht durch das BVerfG.

Fritz Vahrenholt hat sich zu dem BVerfG-Beschluß sehr sachlich und kritisch auf Tichys Einblick geäußert:  „Das Verfassungsgerichtsurteil zum Klimaschutz stützt sich auf fragwürdige Quellen„. Sein Fazit:

„Wir bräuchten dringend eine Abkühlung. Nicht nur in der CO2-Debatte. Sondern auch des Klimas selbst. Nur wenn die von vielen Wissenschaftlern erwartete Abkühlung in diesem Jahrzehnt eintritt, ist der deutsche soziale Rechtsstaat noch zu retten.“

 

Quellenangaben

[1] Fritz Vahrenholt/ Sebastian Lüning: „Unerwünschte Wahrheiten. Was Sie über den Klimawandel wissen sollten“, (Langen-Müller), Sep. 2020

 

[2] Christopf Lütge/ Michael Esfeld: „Und die Freiheit? Wie die Corona-Politik und der Missbrauch der Wissenschaft unsere offene Gesellschaft bedrohen“, München (Riva-Verlag), Apr. 2021.

 

[3] Gerhard Engel: „Von Fakten zu Normen“ (insbes. Kap. 3.2 „Klimaschutz“), S. 43-59 in:

Christopf Lütge/ Gerhard Vollmer (Hrsg.), „Fakten statt Normen? Zur Rolle einzelwissen-schaftlicher Argumente in der naturalistischen Ethik“, Baden-Baden (Nomos), 2004

 

[4] Gerhard Engel: »Menschengemachter Klimawandel«? Ein Symposion.
In: Aufklärung und Kritik 16 (2009), Heft 1, S. 65-93.

 

[5] Dieter Birnbacher: „Klimaethik. Nach uns die Sintflut?“, (Reclam), 2016




Verheerende Folgen „grüner“ Energiepolitik I: Sie fußt auf Sklaven- und Kinderarbeit

Asiaten und Afrikaner, viele von ihnen Kinder, werden versklavt und sterben in Minen, Raffinerien und Fabriken, um die Mineralien und Metalle zu gewinnen, die für die von den Demokraten vorgeschriebenen grünen Energietechnologien benötigt werden. Den Politikern und ihren Anhängern scheint das egal zu sein. Die traditionellen Forderungen der Demokraten nach der Anerkennung der universellen Menschenrechte bleiben auf der Strecke, so scheint es, angesichts der angeblichen „existenziellen Krise“ des Klimawandels, die von ihnen verlangen könnte, mehr für die Flutversicherung für ihre teuren Häuser am Strand zu zahlen.

Es ist nicht nur ich, der das sagt. Amnesty International und zahlreiche Medien haben in den letzten Wochen recherchiert und berichtet, dass der größte Teil des für die Batterien benötigten Kobalts, die für Präsident Joe Bidens großen Elektrofahrzeug-Vorstoß erforderlich sind, aus kleinen Minen in der Demokratischen Republik Kongo (DRC) stammt. Kobalt ist ein notwendiges Metall in den wiederaufladbaren Batterien, die heute fast jedes elektronische Gerät auf der Welt antreiben, einschließlich Handys, Laptops, Tablets und ja, auch Elektrofahrzeuge und die Magneten, die in Windturbinen verwendet werden.

Die DRC produziert mehr als die Hälfte des heute verwendeten Kobalts – mehr als alle anderen Länder der Welt zusammen.

Die Regierung der DRC hat eine schreckliche Bilanz von Menschenrechtsverletzungen, und viele der Arbeiter in den Kobaltminen des Landes sind versklavte oder praktisch versklavte Kinder. Deseret News berichtet, dass eine Frau, deren eigenes Kind nebst einem jungen Cousin bei der Arbeit in einer Kobaltmine in der DRC ums Leben gekommen waren, sagte: „Unsere Kinder sterben wie Hunde.“

Dies ist keine neue Nachricht. Mit den jüngsten Schlagzeilen wie „Without Dirty Mining, You Can’t Make Clean Cars“ (Ohne schmutzigen Bergbau kann man keine sauberen Autos bauen), die endlich anerkennen, dass grüne Energietechnologien auf vorzeitigen Todesfällen, Sklaverei und Kinderarbeit in weniger entwickelten Ländern aufbauen, ist dies schon seit einiger Zeit bekannt.

Amnesty International berichtet, dass mehr als 40.000 Kinder in Kobaltminen in der Demokratischen Republik Kongo arbeiten, wo jedes Jahr Hunderte, wenn nicht Tausende, bei Höhleneinstürzen und anderen Minenunfällen sowie durch bergbaubedingte Krankheiten sterben.

Das meiste Kobalt wird für chinesische Konzerne, die in der Demokratischen Republik Kongo operieren, produziert oder von ihnen gekauft, die das Metall nach China verschiffen, wo es raffiniert und in alle möglichen elektronischen Geräte von Mobiltelefonen bis hin zu Displaysystemen für Kampfjets eingebaut wird.

Berichte über Kinder- und Sklavenarbeit kursieren seit Jahren, und den radikalen Umweltschützern im Westen, die jetzt die Politik der Demokratischen Partei dominieren, ist das egal. Tatsächlich sind sie die ersten, die argumentieren, dass es zu viele Menschen auf der Welt gibt.

Kinder- und Sklavenarbeit wird nicht nur für Batterien und Magnete ausgebeutet, die Bestandteil von Elektrofahrzeugen, Windturbinen, Batterielagern, die als Notstromversorgung für industrielle Solaranlagen dienen, und anderen grünen Energietechnologien sind. Eine Studie der Sheffield Hallam University in Großbritannien berichtet, dass eine einzige Provinz in China 45 Prozent des Polysiliziums produziert, aus dem Solarmodule bestehen, die größtenteils in China montiert werden. Das Polysilizium und die Solarmodule werden von uigurischen Muslimen in chinesischen Sklavenarbeitslagern hergestellt.

„Solarpaneele sind wegen des Klimawandels sehr gefragt“, berichtet die BBC. „Die weltweite Produktion von Solarpaneelen nutzt Zwangsarbeit von Chinas uigurischen Muslimen in der Provinz Xinjiang aus. Polysilizium … wird unter massivem Zwang gewonnen, eine Behauptung, die von den chinesischen Behörden bestritten wird.“

Kobalt und Polysilizium sind nur zwei der unzähligen Mineralien, Metalle und Verbundstoffe, die der gesamten modernen Elektronik zugrunde liegen und für die die Welt von China und anderen unterdrückerischen Regimen abhängig ist, indem sie sowohl rohe und veredelte Materialien als auch zusammengesetzte Produkte kaufen. Wenn die Biden-Harris-Regierung, andere Führer der Demokratischen Partei der USA und die Führer anderer Industrieländer ihren Kurs nicht ändern, wird Kinder- und Sklavenarbeit noch weiter zunehmen, denn jede einzelne grüne Energietechnologie, die sie vorantreiben, hängt von diesen Mineralien und Elementen ab.

Der kurzsichtige Fokus des Westens auf die Bekämpfung des Klimawandels tötet und versklavt Menschen, während die Regierungen unmittelbarere, dringlichere und allzu oft tödliche Übel ignorieren, die den ärmsten Menschen schaden. Milliarden von Dollar und Euro in verschiedenen „grünen Entwicklungsfonds“ bezahlen die Diktatoren der Entwicklungsländer und ermutigen sie, wegzuschauen, während Kinder sterben. Wenig, wenn überhaupt etwas von diesem Geld erreicht die Menschen, die in den Minen leiden, noch wird das wenige Geld, das sie bekommen, sie für den Verlust von geliebten Menschen entschädigen, die in Mineneinstürzen oder in versteckten Gräbern in Sklavenarbeitslagern begraben wurden.

Es muss nicht so sein. Die Vereinigten Staaten und Europa haben Optionen, wenn wir bereit sind, einige Opfer zu bringen. Wir könnten Sanktionen gegen China, die Demokratische Republik Kongo und andere Länder verhängen, die Sklaven- und Kinderarbeit einsetzen. Russland ist der zweitgrößte Kobaltproduzent der Welt, und die Philippinen und Kuba sind die viert- und fünftgrößten Produzenten. Das ist die imperialistische Lösung: anderen Ländern vorzuschreiben, welche Arbeitsstandards sie haben sollen. Wir spielen bereits die Rolle von Öko-Imperialisten, indem wir den Entwicklungsländern den Zugang zur Finanzierung von Kraftwerken für fossile Brennstoffe verweigern, die ihnen helfen könnten, sich aus der Armut zu befreien – was ist da ein weiteres grün-kolonialistisches Machtspiel?

Ein solches Vorgehen würde kurz- und mittelfristig zu einer Verknappung dieser Technologien oder Elemente führen. Es würde mit ziemlicher Sicherheit auch dazu führen, dass diese Länder eine Reihe von Gegensanktionen und Zöllen auf Waren verhängen, die sie von den Vereinigten Staaten und Europa beziehen.

In der besten aller möglichen Welten könnten China, die Demokratische Republik Kongo und andere Länder auf unsere Sanktionen reagieren, indem sie Arbeitsstandards wie in den Industrieländern einführen, einschließlich unserer Lohnskalen und Gesundheits- und Sicherheitsstandards. In diesem Fall würden die Preise für diese Technologien steil ansteigen. Und wenn China, die Demokratische Republik Kongo und andere die gleichen Umweltstandards wie die Vereinigten Staaten und Europa einführen würden, würde der Strom dieser gefragten „grünen“ Energietechnologien völlig versiegen, weil, wie in den Vereinigten Staaten heute, fast niemand mehr in der Lage wäre, irgendetwas abzubauen oder zu veredeln, egal wo.

Eine andere Option, die wohl die beste für die Arbeiter in den Vereinigten Staaten und für die wirtschaftliche und nationale Sicherheit Amerikas ist, wäre es, den Abbau kritischer Mineralien in den Vereinigten Staaten zu erlauben. Jegliche Umweltschäden, die durch den Abbau entstehen, würden den Menschen in den Vereinigten Staaten auferlegt, die die grünen Technologien fordern. Das wäre fair.

Das ist es, was Präsident Trump versucht hat, indem er Zölle auf chinesische Solarpaneele erhob und versuchte, die Genehmigung von Minen für kritische Mineralien zu erhalten. Aber ohne sich ob ihrer Heuchelei zu schämen haben Biden und Vizepräsidentin Kamala Harris vor kurzem angedeutet, dass der Abbau kritischer Mineralien in den Vereinigten Staaten keine Option ist. Während sie zugeben, dass wir kritische Elemente wie Kobalt für grüne Energietechnologien und Elektroautos benötigen, haben mehrere Quellen innerhalb der Biden-Regierung die Entscheidung des Präsidenten verlauten lassen, dass die Vereinigten Staaten sich weiterhin auf andere Länder für die Metalle und Mineralien verlassen werden, die für den Bau von Elektrofahrzeugen und anderen grünen Energietechnologien notwendig sind, um „Umweltschützer zu beschwichtigen“, berichtet Reuters. Und weiter:

„Die Pläne werden ein Schlag für die US-Bergleute sein, die gehofft hatten, dass Biden in erster Linie auf Metalle aus dem Inland setzen würde, wie es seine Kampagne im letzten Herbst signalisiert hatte, um seine Ambitionen für eine weniger Kohlenstoff-intensive Wirtschaft zu erfüllen“.

Biden hofft offenbar, dass befreundete Länder wie Australien, Brasilien und Kanada den Bedarf an kritischen Mineralien decken, damit wir unsere Abhängigkeit von China verringern können, ohne dass in den Vereinigten Staaten neuer Bergbau betrieben wird. Australien und Kanada haben jedoch Umwelt- und Arbeitsstandards wie wir, was höhere Preise für diese Güter bedeutet. Eine Steigerung der Produktion in Brasilien wird wahrscheinlich bedeuten, dass mehr Ureinwohner des Amazonas vertrieben werden, werden doch immer größere Gebiete des Regenwaldes gerodet, um die kritischen Mineralien abzubauen.

Kinder- und Sklavenarbeit ist das wahre Erbe des Biden-Harris-Vorstoßes für grüne Energie. Wenn wir die für diese Technologien kritischen Elemente nicht hier produzieren, werden sie im Ausland von den billigsten Anbietern bezogen, selbst wenn sie durch mehrere Zwischenländer gehen müssen, um ihre schmutzige und tödliche Herkunft zu verschleiern. Für Biden und andere westliche Klimaalarmisten müssen die Menschen und die Umwelt in anderen Ländern geopfert werden, um die Welt vor dem Klimawandel zu „schützen“ und gleichzeitig die Annehmlichkeiten des Westens so weit wie möglich zu erhalten.

Die Ausbeutung der am meisten gefährdeten Menschen und Umgebungen der Welt heute in der vergeblichen Hoffnung, einen winzigen Anstieg des Meeresspiegels und etwas wärmere Temperaturen in der Welt in 100 Jahren zu verhindern, ist dumm und moralisch bankrott.

QUELLEN: Amnesty International; Deseret News; BBC; CNN; Forbes; American Spectator; Reuters

Link: https://www.heartland.org/news-opinion/news/green-energy-policies-are-built-on-slavery-child-labor

Übersetzt von Chris Frey EIKE

 




Globale Erwärmung ursächlich für 37% aller Todesfälle aufgrund von Hitze seit 1991 … gähn!

Studie macht Klimawandel für 37 Prozent der Hitzetoten weltweit verantwortlich
„Das sind hitzebedingte Todesfälle, die eigentlich verhindert werden können. Es ist etwas, das wir direkt verursachen“, sagte ein Epidemiologe.

Mehr als ein Drittel der weltweiten Hitzetoten jedes Jahr sind direkt auf die globale Erwärmung zurückzuführen, so die neueste Studie, die die menschlichen Kosten des Klimawandels berechnet.

Aber die Wissenschaftler sagen, dass dies nur ein Bruchteil der Gesamtkosten des Klimawandels ist – noch mehr Menschen sterben durch andere extreme Wetterereignisse, die durch die globale Erwärmung verstärkt werden, wie Stürme, Überschwemmungen und Dürren – und die Zahl der Hitzetoten wird mit steigenden Temperaturen exponentiell wachsen.

Dutzende von Forschern, die die Hitzetoten in 732 Städten rund um den Globus von 1991 bis 2018 untersuchten, berechneten, dass 37 Prozent durch höhere Temperaturen aufgrund der vom Menschen verursachten Erwärmung verursacht wurden, so eine Studie, die am Montag in der Zeitschrift Nature Climate Change veröffentlicht wurde.

[…]

Etwa 35 Prozent der Hitzetoten in den Vereinigten Staaten können auf den Klimawandel zurückgeführt werden, so die Studie. Das sind insgesamt mehr als 1.100 Todesfälle pro Jahr in etwa 200 US-Städten, die von 141 in New York getoppt werden. Honolulu hatte mit 82 Prozent den höchsten Anteil an Hitzetoten, die auf den Klimawandel zurückzuführen sind.
[…]
NBC News

Die Studie von „Dutzenden von Forschern“ befindet sich hinter einer Zahlschranke.

Die Anzahl von Hitzetoten wird mit steigenden Temperaturen exponentiell zunehmen“

Warum nimmt sie nicht schon jetzt exponentiell zu?

Abbildung 1. Hitzebedingte Todesfälle in den USA, 1979-2018. „Zwischen 1998 und 1999 hat die Weltgesundheitsorganisation die internationalen Codes zur Klassifizierung von Todesursachen überarbeitet. <b>Daher können Daten von vor 1999 nicht ohne weiteres mit Daten von 1999 und später verglichen werden</b>.“ US EPA

Mehr als ein Drittel der jährlichen Hitzetoten auf der Welt sind direkt auf die globale Erwärmung zurückzuführen“

Also… müssen wir weniger kältebedingte Todesfälle haben… oder?

Abbildung 2. Kältebedingte Sterberate in den USA, 1979-2016. Seit 1999 ist die kältebedingte Sterberate etwa doppelt so hoch wie die hitzebedingte Sterberate. US EPA

Honolulu hatte den höchsten Anteil an hitzebedingten Todesfällen, der auf den Klimawandel zurückzuführen ist, nämlich 82 Prozent.“

Laut CDC gab es von 1999-2016 so wenige hitzebedingte Todesfälle in Honolulu County, dass eine zuverlässige Todesrate nicht berechnet werden kann. Das ist die gesamte Insel Oʻahu. Aufgrund von Beschränkungen der Verwendung von Daten werde ich die tatsächliche Zahl oder sogar den Link zum Datensatz nicht veröffentlichen. Wenn Sie jedoch „CDC WONDER“ googeln (oder Duck Duck Go), können Sie Stunden damit verbringen, durch mehr Todesursachen zu waten, als ich jemals dachte.

Aber es wird noch komischer …

Abbildung 3: Honolulu HI, Klimawandel seit <i>The Ice Age Cometh</i> GISS

Und jetzt zu etwas ganz Anderem …“

Dieses „Problem“ wurde vor über 20 Jahren gelöst…

Abstract

Hitze ist die wichtigste wetterbedingte Todesursache in den Vereinigten Staaten. Zunehmende Hitze und Feuchtigkeit, die zumindest teilweise mit dem anthropogenen Klimawandel zusammenhängen, lassen vermuten, dass es zu einem langfristigen Anstieg der hitzebedingten Sterblichkeit kommen könnte. Wir berechneten die jährliche Übersterblichkeit an Tagen, an denen die scheinbare Temperatur – ein Index, der Lufttemperatur und Luftfeuchtigkeit kombiniert – einen Schwellenwert für 28 große Ballungsräume in den Vereinigten Staaten von 1964 bis 1998 überstieg. Die hitzebedingte Sterblichkeitsrate ging im Laufe der Zeit in 19 der 28 Städte deutlich zurück. Für den 28-Städte-Durchschnitt gab es 41,0 +/- 4,8 (Mittelwert +/- SE) hitzebedingte Todesfälle pro Jahr (pro Standardmillion) in den 1960er und 1970er Jahren, 17,3 +/- 2,7 in den 1980er Jahren und 10,5 +/- 2,0 in den 1990er Jahren. In den 1960er und 1970er Jahren wiesen fast alle Studienstädte eine deutlich über dem Normalwert liegende Sterblichkeit an Tagen mit hohen scheinbaren Temperaturen auf. In den 1980er Jahren gab es in vielen Städten, insbesondere im typisch heißen und feuchten Süden der USA, keine erhöhte Sterblichkeit. In den 1990er Jahren breitete sich dieser Effekt nordwärts über die Städte im Landesinneren aus. Diese systematische Desensibilisierung der Großstadtbevölkerung gegenüber hoher Hitze und Luftfeuchtigkeit im Laufe der Zeit kann auf eine Reihe von technologischen, infrastrukturellen und biophysikalischen Anpassungen zurückgeführt werden, einschließlich der zunehmenden Verfügbarkeit von Klimaanlagen.

Davis, Knappenberger, Michaels, and Novicoff, 2003

The answer is blowing in the…” window

Reference

Davis, R. E. , Knappenberger, P. C. , Michaels, P. J. , & Novicoff, W. M. (2003). Changing heat‐related mortality in the United States. Environmental Health Perspectives, 111(14), 1712–1718. 10.1289/ehp.6336 [PMC free article] [PubMed] [CrossRef] [Google Scholar]

Link: https://wattsupwiththat.com/2021/06/01/global-warming-caused-37-of-heat-related-deaths-since-1991-yawn/

Übersetzt von Chris Frey EIKE

 




EuGH verurteilt den deutschen Staat wegen Luftverschmutzung

Der Europäische Gerichtshof verurteilt Deutschland wegen angeblich zu verdreckter Luft in den Städten. Das höchste Gericht der Europäischen Union hat einer Vertragsverletzungsklage stattgegeben, die die EU-Kommission gegen Deutschland angestrengt hatte. Denn in den Jahren 2010 bis 2016 seien die Grenzwerte von 40 µg/m3 überschritten worden. Die Klage bezieht sich ausdrücklich auf die Jahre von 2010 bis 2016, nicht mehr auf die Folgejahre 2017 und 2018.

»Mit seinem heutigen Urteil hat der Gerichtshof festgestellt«, so heißt es in der EU-Mitteilung, »dass Deutschland dadurch gegen die Richtlinie über Luftqualität1 verstoßen hat, dass der Jahresgrenzwert für Stickstoffdioxid (NO2) in 26 der 89 beurteilten Gebiete und Ballungsräume vom 1. Januar 2010 bis einschließlich 2016 systematisch und anhaltend überschritten wurde.«

Es handele sich um den Ballungsraum Berlin, den Ballungsraum und den Regierungsbezirk Stuttgart, den Regierungsbezirk Tübingen, den Ballungsraum Freiburg, den Regierungsbezirk Karlsruhe (ohne Ballungsräume), den Ballungsraum Mannheim/Heidelberg, den Ballungsraum München, den Ballungsraum Nürnberg/Fürth/Erlangen, das Gebiet III Mittel- und Nordhessen, den Ballungsraum I Rhein-Main, den Ballungsraum II Kassel, den Ballungsraum Hamburg, Grevenbroich (Rheinisches Braunkohlerevier), Köln, Düsseldorf, Essen, Duisburg/Oberhausen/Mülheim, Hagen, Dortmund, Wuppertal, Aachen, die urbanen Bereiche und den ländlichen Raum im Land Nordrhein-Westfalen, Mainz, Worms/Frankenthal/Ludwigshafen und Koblenz/Neuwied.

Der Stundengrenzwert für NO2 sei in zwei Gebieten systematisch und anhaltend überschritten worden: Im Ballungsraum Stuttgart und im Ballungsraum I Rhein-Main.
»Daher hat der Gerichtshof der Klage der Europäischen Kommission für die genannten Zeiträume in vollem Umfang stattgegeben.«

Der EuGH weist ausdrücklich in einer Fußnote darauf hin, dass die vorliegende Klage nicht die Folgejahre 2017 und 2018 betreffen würde. Hier habe Deutschland geltend gemacht, dass die fraglichen Grenzwerte eingehalten worden seien. Der Gerichtshof verwarf das Argument Deutschlands, dass die EU-Kommission durch maßgebliche eigene Versäumnisse zum Missstand beigetragen habe. Denn die damals gültige Schadstoffnorm Euro 5 für Dieselautos habe sich als problematisch erwiesen.

Der Abmahnverein Deutsche Umwelthilfe e.V. begrüßt die Verurteilung und kündigt weitere Klagen an. Das Klagegeschäft in Sachen Umwelt ist offenbar immer noch sehr lukrativ, während der DUH-Chef Jürgen Resch sich selbst immer noch als Vielflieger betätigt.

Dagegen haben die Autobesitzer gigantische Wertverluste vor allem ihrer Dieselfahrzeuge erlitten. Diese teilweise neuwertigen Autos fahren zudem jetzt in östlichen Ländern und in Afrika.

Vielleicht liefert auch eine Feststellung im heutigen Urteil des EuGH eine neue Geschäftsgrundlage der Klimaklageindustrie: Denn Kraftfahrzeuge seien nicht die einzige Ursache von NO2, sagt der EuGH ausdrücklich. Die EU-Abgasnorm entbinde die Mitgliedsstaaten zudem nicht von der Verpflichtung, die Grenzwerte für Luftschadstoffe einzuhalten. Jetzt könnten Klagen gegen Kachelöfen losgetreten werden.

Erwartbar war dieses Urteil des EuGH. Nicht behandelt hat der EuGH, wie die gemeldeten Werte zustande kamen, wie richtig die Messstationen standen und welche Bedeutung die Grenzwerte tatsächlich haben.

Kritik am Urteil kam von der AfD. Marc Bernhard, Sprecher der Landesgruppe Baden-Württemberg der AfD-Bundestagsfraktion und Mitglied im Umwelt-Ausschuss kommentierte: »In Kindergärten gilt ein NO2-Richtwert von 60 Mikrogramm, an Arbeitsplätzen ein Grenzwert von 950 Mikrogramm. Ginge es den Lobbygruppen hinter dieser Klage tatsächlich um Gesundheitsschutz, würden sie sich nicht an wissenschaftlich unhaltbaren und von über 100 renommierten Lungenärzten infrage gestellten NO2-Grenzwerten an Verkehrswegen abarbeiten.«

Dass der NO2-Gehalt in der Luft mit Verkehr oder Industrie tatsächlich vermutlich wenig zu tun hat, zeigte sich an dem unfreiwilligen Experiment »Lockdown«. Der rapide gesunkene Verkehr in Stuttgart führte keinesfalls zu entsprechend sinkenden NO2- und Feinstaubwerten. Der Diesel ist also wohl kaum der Schuldige und der Wert der Messstationen generell fraglich.

Einen Zusammenhang mit möglichen Gesundheitsgefahren gibt es auch nicht. Weder NO2 noch Feinstaub zeitigen in den geringen Konzentrationen, um die es hier geht, irgendwelche gesundheitlichen Effekte. Die Grenzwerte, die die EU festgelegt hatte, sind offensichtlich politisch motiviert. Naheliegend ist das Muster: NGOs lobbyieren über die Bande in Brüssel für exorbitant niedrige Grenzwerte. Brüssel drängt daraufhin auf Einhaltung und kommt mit Klagen. Nutznießer sind schließlich Organisationen wie die »Deutsche Umwelthilfe«.

Doch der Blick auf die Daten der Messstellen fördert Überraschendes zutage: Die NO2-Jahresmittelwerte sind zwar stark gesunken. 2019 lagen sie am Neckartor laut Landesanstalt für Umwelt bei 53 µg/m3. Der Grenzwert liegt bei 40 µg/m3. Ein willkürlicher Wert, eine wissenschaftliche Grundlage dafür gibt es nicht. In den USA liegt er bei 103 µg/m3; am Arbeitsplatz sind in Deutschland 950 µg/m3, in der Schweiz sogar 6000 µg/m3 erlaubt.

Ein deutlicher Unterschied zu den gemessenen 53 µg/m3 an Deutschlands angeblich gesundheitsgefährlichster Straße.

Die CDU-Minister Baden-Württembergs setzten 2019 zusätzliche Messungen im Stadtgebiet Stuttgarts durch. Deren Ergebnisse: zwischen 20 und 30 µg/m3 NO2. Das ist extrem gering und liegt nahe an den natürlichen Werten, die zwischen 10 und 20 µg/m3 schwanken, bei Gewitter deutlich mehr. Zum Vergleich: Beim Spaghettikochen auf dem Gasherd erreichen sie schon mal bis zu 1400 µg/m3, im Kölner Dom lässt das Abbrennen der Opferkerzen den NO2-Wert auf 200 µg/m3 ansteigen.

 

Der Beitrag erschien zuerst bei TE hier