1

Friedrich-Naumann-Stiftung im Propaganda-Modus gegen die „Klimaleugner“ – wissenschaftlich verbrämte Propaganda auf „liberale“ Art

Ist der Ruf erst ruiniert…

Die Friedrich-Naumann-Stiftung hatte mal den Ruf besonders kontroversen Meinungen in Politik und Wissenschaft ein Forum zu geben. War sie es doch, welche die erste größere Konferenz zur Klimafrage unter reger Beteiligung auch Klima realistischer Wissenschaftler im Jahre 2005 in Gummersbach abhielt.

Doch diese Zeiten sind vorbei. Spätestens seit dem Wechsel ihrer Führung vom erzliberalen FDP Mann Wolfgang Gerhard zum glatteren Karl-Heinz Paqué, wurde der Kurs geschmeidiger. Nicht mehr anecken wollen, scheint die neue Leitlinie zu sein, sondern für „regierungsfähig“ um jeden Preis gehalten zu werden. Die Vorgaben dazu stammen wohl vom Vorsitzenden Christian Lindner, der im Parlament nicht den Ort sieht, in dem um die besten Lösungen für das Land, wenn nötig auch heftig gestritten wird, in dem die Opposition noch ihren Job macht, sondern in dem er einer „staatlichen Verantwortungsgemeinschaft“ das Wort redet. Bei soviel Verantwortungssinn kann echte Opposition nur stören. Oder wenn der FDP Abgeordnete Marco Buschmann fordern darf: „Eine Begrenzung des CO₂-Ausstoßes gemäß wissenschaftlicher Erkenntnis ist daher eine Pflichtaufgabe des Staates.“1.

In so einem Biotop ist es auch für die Friedrich-Naumann-Stiftung angebracht tunlichst mit den Wölfen zu heulen, und auf die in ihren Augen sehr störenden „Klimaleugner“ einzudreschen. Streng wissenschaftlich natürlich, zumindest verkauft sie so Ihren Mann der Stunde, den promovierten theoretischen Chemiker Mats Simmermacher, dem dieser nette Job zufiel. Er durfte dann mit dem Jungphilosophen und für manche nette Äußerung im Parlament bekannten – ebenfalls promovierten – Lukas Köhler auf einer Vortragsveranstaltung sprechen, die Corona-zeitgeistgemäß virtuell abgehalten und zu der öffentlich eingeladen wurde.

Vorweg eine allgemeine Betrachtung des Verhaltens junger „Liberaler

Bevor wir aber auf die wesentlichen Schmankerln seines Vortrages eingehen, darf eine kleine allgemeine Beobachtung der einführenden Worte nicht fehlen. Sie zeigt – vermutlich unbeabsichtigt – wie sehr die Jungliberalen, die dort zu Wort kommen, dem grünen Zeitgeist hinterherhecheln. Denn gleich zu Anfang des Videos geht es politisch überaus korrekt zu. Alles wird sorgfältigst gegendert. Sie sprechen von „Teilnehmenden“, statt von Teilnehmern (schließen also nicht nur Männlein und Weiblein ein, sondern auch noch alle vielfältigen Diversen), sie sprechen auch von Wissenschaftlerinnen und Wissenschaftlern, von Fachkolleginnen und Fachkollegen etc. etc. Nur bei Klimawandel-„Leugnern“, wie wir schon im Titel der Veranstaltung böswillig verunglimpft werden, wird nur in der männlichen Form gesprochen. Ob das schlecht oder gut für so herausragende „Pseudowissenschaftler“ ist, wie wir auch generell von diesen Herren genannt werden, wie es z.B. die Damen und herausragenden Wissenschaftlerinnen Dr. Sally Balliunas oder Prof. Judith Curry sind, mögen diese selbst beurteilen. Vermutlich juckt es sie nicht, selbst wenn sie es wüssten. Doch zeigt es einmal mehr, wie sehr sich die FDP schon in die links-grüne Begriffswelt eingewöhnt hat.

Die potentiellen Wähler danken es ihnen. Gerade arbeitet man hart an der Unterschreitung der schon in Sichtweite befindlichen drei Prozent Schwelle, von Hürde kann man ja in diesem Bereich nicht mehr reden.

Und Mats Simmermacher legte dann auch gleich für die „Zuhörenden und Zusehenden“ richtig los.

Der Vortrag im Internet (hier abrufbar)

Leider rechnet er – wie vielfach seine berühmten Kollegen u.a. Stefan Rahmstorf auch – damit, dass sein Publikum seinen wissenschaftlich anmutenden Kurven und Behauptungen nicht im Detail folgen kann und deshalb glauben muss.

Das nutzte er ungerührt aus, bspw. wenn er Zeitachsen drastisch verkürzt, um die Graphen darin dann als Klimaänderungen zu verkaufen, oder wenn er bspw. plötzlich die Temperaturdimension bei der Erwärmung der Meere weglässt und dem staunenden Publikum eine Achse mit der Dimension Joule x 1022 vorlegt (Min. 38). Deren Trend ist natürlich positiv, sonst hätte er es nicht gebracht, um dann zu behaupten, dass sei „gemessen“ worden. Vielleicht glaubt er das ja selber, weil er sich in seinem Labor noch nie mit der Problematik der Bestimmung physikalischer Größen in globalem Maßstab beschäftigt hat.

Nur, wenn das so ist, dann ist das bestenfalls dumm, aber nicht wissenschaftlich. Wahr ist allein, dass es erst seit dem Jahr 2000 beginnend, Daten werden ab 2005 veröffentlicht, ein Forschungsprogramm existiert, bei dem autonome Schwimmkörper (ARGO Flotte) mit hochauflösenden Sensoren versuchen in einem Gebiet von 1000 x 1000 km, also 1 Mio km². das Profil bis in 2000 m Tiefe zu bestimmen versuchen. Alles andere davor ist bestenfalls klug geschätzt, bzw. aus anderen Quellen hochgerechnet. Ziel der ARGO Flotte ist den Wärmeinhalt dieser rel. riesigen Wassermenge auf 10 W/qm genau zu bestimmen. Die gesuchte Genauigkeit ist allerdings illusorisch, wie jeder Messtechniker2 sofort weiß, und auch die riesige Fläche schrumpft auf Punktgröße, wenn man sie in Beziehung zur Gesamtfläche der Ozeane von knapp 400 Mio km2 setzt.

Damit beinhalten sämtliche Daten, die Herr Simmermacher zeigt, und wir sprechen hier von wenigen Hundertstel Grad sowie deren Verläufen, im Vergleich riesige Fehlerbalken. Aber die lässt der „Wissenschaftler“ Simmermacher einfach weg. Und von vergleichbarer Güte ist auch der Rest seiner Behauptungen. Sie sind damit wirklich leicht zu widerlegen. Allein deswegen, weil sie schon hundertfach vorgetragen, und hundertfach widerlegt wurden.

Soviel als Einführung, und nun in die Sachdebatte.

Am 28. Juli 2020 wurde per Video-Schaltung eine Vortrags-Veranstaltung (https://www.youtube.com/watch?v=heI_CZtRIsM) abgehalten mit dem Titel „Klimawandelleugner auf dem wissenschaftlichen Prüfstand“.

Schaut man sich die Folien im Video durch, so wird deutlich, dass der Vortragende genau DAS macht, was er den Klima-Skeptikern vorwirft: Selektive Auswahl von passenden Behauptungen unter Auslassung von nicht passenden Fakten.

Anmerkung: Alle gezeigten Folien aus dem Vortrag sind Sreenshots aus dem YT Video zu Zitatzwecken, im Sinne des Urheberrechtes.

Unter diesen Gesichtspunkten hier in Folgendem einige Anmerkungen:

Zu Folie 3 :

Behauptungen des Referenten, wie er sie Skeptikern in den Mund legt.

  1. „Das Klima wandelt sich nicht“.

Uns ist niemand bekannt, der DAS behauptet; folglich – eine nahezu dümmliche und letztlich bösartige Unterstellung.

  1. „CO2 ist nicht die Ursache“.

In der Skeptiker-Gruppe gibt es mehrheitlich ernst zu nehmenden Wissenschaftler, welche die physikalische Wirksamkeit der Treibhausgase betonen. Einige sehen sie eher als unerheblich an, andere weisen ihnen eine genügend große Rolle zu. Daher lautet Frage auch dort n i c h t „Ist CO2 ein Treibhausgas?“, sondern „Wie groß ist die Wirkung von CO2, insbesondere von zusätzlichem CO2 ?“. Grundsätzlich unbestritten auch beim IPCC ist: Die Wirkung von zusätzlichem (anthropogenem) CO2 muss nach einem logarithmischen Gesetz abnehmen:

Genau DAS weiß auch das IPCC :

DAS bedeutet:

Die modellierte weitere Erderwärmung über 1°C hinaus beruht nicht auf der Wirksamkeit von CO2, sondern auf einer sekundären Verstärkungs-Hypothese; diese ist in den Messungen in der Atmosphäre jedoch nicht auffindbar:

Diese Zusammenhänge und Messungen scheinen dem Referenten nicht bekannt zu sein(?).

  1. „Der Klimawandel ist nicht schlimm“

Es bleibt wohl das Geheimnis des Referenten, was er wissenschaftlich unter „schlimm“ versteht: Ein schwammiger Begriff aus dem Kindergarten – oder hat uns der Referent hier eine wissenschaftliche Definition vorenthalten ?

     4. „Die Wissenschaft ist sich uneinig“

Ist dem Referenten eine Wissenschaft bekannt, wo grundsätzlich und „für alle Zeiten“ eine „Einigkeit“ besteht? Unter anderem und zum Beispiel bei der aktuellen CORONA-Debatte nicht!

Zu Folie 4 :

Die dort gezeigte Graphik (der unbestrittenen!) säkularen Erwärmung verbirgt den wichtigen Hinweis, dass die „Erwärmungs-Spitzen“ 1998 und 2015/16 nicht die Folge von anthropogenem CO2 sind, sondern verursacht wurden durch die Witterungs-Ereignisse „Super-El Nino“, mit der Folge, dass mittlerweile die Temperaturen wieder zurück gehen (Aktuell sind es 14,02 – ha,ha – °C):

Zu Folie 5 :

Die hier vom Referenten angesprochenen Erwärmungspause ist nun keine „Erfindung“ der Skeptiker, sondern eine Feststellung des IPCC :

So darf also der Referenten-Vorwurf des „Cherry Picking“ getrost an das IPCC weiter geleitet werden!

Wenn der Referent außerdem wiederholt auf die Tatsache hinweist, dass alle von ihm aufgeführten Institute zu sehr ähnlichen Verläufen kommen, um damit die Güte der Daten zu belegen, dann führt er wieder das Publikum in die Irre. Denn FAKT ist, alle Institute verwenden dieselben Rohdaten. Es gibt keine anderen. Diese sind allerdings nur auf wenige Prozent der Landmasse konzentriert, vor 1920 auf nur sehr wenige, dann bis 1965 etwas mehr und dann wieder weniger, und zudem von schlechter Qualität. Auf See sind die Messstellen noch viel weniger als auf Land, konzentrieren sich auf die Hauptschifffahrtsrouten – immerhin stellen die Ozeane 71 % der Weltoberfläche- und sind von noch schlechterer Qualität. Dieses Manko wird allerdings durch die viel höhere Wärmeträgheit des Wassers etwas gemildert.   Daher sind die Unterschiede nur den Methoden geschuldet, mit denen die qualitativ schlechten und wenigen Rohdaten aufbereitet werden. Es macht schließlich auch keinen Unterschied ob man den Mittelwert einer Zahlenmenge von links nach rechts, rechts nach links oder wie sonst immer bildet. Er bleibt immer gleich, nur wenn man andere, abweichende Zahlen (Daten) nimmt ändert er sich eventuell.

Zu Folie 6 : „Ungebrochene Erwärmung in den Ozeanen“:

Dort werden keine Temperatur-Messungen gezeigt, sondern „Wärmeanomalien mit der Dimension 1022 J“. Was darf man sich darunter vorstellen? Direkte Temperaturmessungen sind da doch wohl anschaulicher, und die zeigen das Gegenteil der Referenten-Behauptungen :

Überdies stellt der Referent Zeitreihen dazu als aus „Messungen“ gewonnen vor, ohne seinem Publikum mitzuteilen, dass es erst seit 2005 ein Projekt (ARGO Flotte s.o) gibt um wenigstens in einem vglw. winzigen Ausschnitte zu echten, evtl. brauchbaren Messungen zu gelangen. Alle Angaben davor sind reine grobe Schätzungen, eine Tatsache die der Referent tunlichst seinem Publikum verschweigt

Zu Folie 7 – 9 : „Massenverlust der Eisschilde“

Die Ergebnisse der NASA stehen in krassem Gegensatz zu den Darstellungen des Referenten:

Und auch den ESA-Auswertungen des Grönländischen Eisschildes gegenüber halten die Aussagen des Referenten nicht stand, denn die zeigen in der Realität das :

Zu Folie 10 :

Diese vom Referenten gezeigte Folie beweist(!) genau DAS, worauf die Skeptiker stets hinweisen :

Es gibt keine Beschleunigung des seit Jahrtausenden steigenden Meeresspiegels. Aber das kommt beim Referenten nicht vor. Er verschweigt einfach, dass der Meeresspiegel seit dem Ende der Eiszeit ständig steigt, seit einigen tausend Jahren mit ca. 15 ± 15 Zentimetern pro Jahrhundert.

Mehr noch: Es gibt viele Regionen, in denen sich der Meeres-Anstieg abschwächt, wie z.B. an der Nordsee-Küste :

Zu Folie 11 + 12 :

Leichter Beitrag der Sonne zur Erwärmung bis etwa 1980, danach eher kühlender Einfluss“

Woher der Referent diese nahezu abenteuerliche Aussage hat, bleibt sein Geheimnis. Möglicherweise hat er in dem international renommierte Buch „Die Kalte Sonne“ nur den Titel gelesen, und als Einziges das Wort „KALT“ verstanden !?Denn seine Folie (Minute 43:45), wie auch seine Ausführungen, zeigen einzig und allein die sog. TSI, also die Gesamteinstrahlung der Sonne auf die Erde. Er vernachlässigt völlig die vielfältigen anderen Einflüsse Sonne auf die Erde, wie sie sich besonders mit dem Sonnenwind manifestieren. Dieser wiederum moduliert die ständig auf die Erde einprasselnde kosmische Höhenstrahlung, wie Svensmark und Shaviv so überzeugend nachwiesen, und damit die Wolkenbildung. Diese hat einen Einfluss auf die Erdtemperatur, die um ein Vielfaches größer ist als die geringe Varianz der TSI.

F a z i t :

Die selektiven Folien und Aussagen des Referenten bei dieser FDP-Veranstaltung halten in weiten Teilen eines Überprüfung nicht stand, sondern sind absichtlich unvollständig, bzw. getunt und daher oft irreführend. Der Referent hat letztlich genau DAS gemacht, WAS er den Klima-Skeptikern vorwirft: Verdrehung von Argumenten und Fakten !

2 Das ist völlig absurd. Nicht nur weil man keinerlei Daten vor 2005 und früher hat, die einen Vergleich ermöglichen, schon gar nicht mit der erforderlichen Genauigkeit, sondern auch, weil die angegebene Genauigkeit niemals und unter keinen Umständen erreicht werden kann.
Wer das behauptet, hat in seinem Leben noch nie eine Temperatur-Messung, geschweige denn eine Messung unter erschwerten Bedingungen durchgeführt. Wenn Sie sehr gut sind, dann schaffen sie evtl. ± 0,5 ° oder ± 1 °. Aber auch nur dann, wenn die Biester in ihrer fünfjährigen Lebensdauer ständig gewartet und nachkalibriert werden. Was nicht geschieht. Mehr dazu hier.




Jenas Klimaschutzkoordinator – koordiniert er oder koordiniert er nicht?

An öffentlichen Stellen sind derzeit Plakate gegen „Kapitalistische Klimazerstörer-Bande“ angebracht. Wir fragten bei der Jenaer Pressestelle: Dies fällt ja nun in den Zuständigkeitsbereich des Klimaschutzkoordinators.

Hat der Klimaschutzkoordinator diese Plakataktion koordiniert oder nicht? Wurden die Kosten für das Drucken und Kleben aus vom Klimaschutzkoordinator akquirierten Geldern oder seinem sonstigen Budget ganz oder teilweise finanziert? Wird die Stadt die Kosten für das Entfernen der Plakate aus den vom Klimaschutzkoordinator akquirierten Geldern bezahlen?

Ist der Stadt und dem Oberbürgermeister etwas darüber bekannt, ob im Stadtrat Personen sitzen, die in die Klimaszene vernetzt sind, und wenn ja, wird erwogen, denen die Kosten für das Beseitigen der Plakate in Rechnung zu stellen?

Der Pressesprecher widmet sich vollumfänglich der Politik der Hauptaufgabe, und die ist, den eigenen Posten zu sichern. Mit denen legt er sich nicht an, also antwortet er gar nicht, denn lieber lässt er sich vorhalten, seine Pressesprecherei zu unterlassen, als zu entscheiden, welche der beiden peinlichen Möglichkeiten zutrifft. Und nebenbei, so will es scheinen, wird der Oberbürgermeister geschrötert, so eine Wahlperiode geht schneller herum als gedacht.


* Das Senioren-Akrützel ist die Jenaer Studentenzeitung für Alte und solche, die es werden wollen. Das Akrützel ohne Vorsilbe, die junge Stud*ierendenzeitung, wurde von Bernd Zeller und Spießgesellen 1990 gegründet. Das heutige Uni-Akrützel hat aber mit der ursprünglichen Wende-geprägten Zeitung nichts mehr zu tun, da dort wieder sozialistische Inhalte wie vor `89 Verbreitung finden. Natürlich in modernisierter, besser: postmoderner Form, da es hauptsächlich um Kampf gegen den menschgemachten Klimawandel, Kampf gegen rechts, Kampf gegen Rassismus und Kampf gegen Sexismus geht. Ein Jubiläums-Artikel (30J.) über den Gründer Bernd Zeller zum Beispiel verglich diesen mit dem falschmeinenden Uwe Tellkamp:

„[Er] arbeitete wie der umstrittene Dresdner Schriftsteller Uwe Tellkamp, vielleicht politisch sein sächsisches Äquivalent, vor Beginn des Medizinstudiums vier Jahre als Hilfspfleger.“

Deswegen hat Zeller das reaktionäre Senioren-Akrützel gegründet, in dem der Geist von Gestern, also 1989, wiederbelebt wird. Ob das ursprüngliche Akrützel den Klimaschutz befürwortet hätte, wenn dieser schon bekannt gewesen wäre? Ich glaube nicht: Der gelernte DDR-Bürger hat gelernt, schnell zu merken, wenn Sozialisten ihn hereinlegen wollen.

Bernd Zeller betreibt auch einen Videoblog und gibt die Zellerzeitung heraus – amüsieren Sie sich!




Woher kommt der Strom? Still ruht die See

Nur an einem Tag, am Sonntag, übertraf die Stromerzeugung mittel erneuerbarer Energieträger die 50-Prozent-Marke. Dreimal lag sie unter 50 Prozent, dreimal sogar unter 40 Prozent. An sechs Tagen wurde per Saldo Strom importiert. Nur am Samstag wurden 0,01 TWh per Saldo exportiert. In der Tabelle, erstellt mit Hilfe der Energy-Charts, können Sie die Werte nachlesen und eigene Analysen fahren. Der aus der Tabelle generierte Chart veranschaulicht die Zahlen. Im- und Exportzahlen finden Sie wie immer noch mal grafisch dargestellt für die 29. Woche und das aufgelaufene Jahr 2020. An dieser Stelle möchte ich darauf hinweisen, dass Polen einen Teil seiner Stromversorgung regelmäßig mit aus Deutschland importiertem Strom sicherstellt.

Pro Tag kauft das Land 0,03 TWh Strom aus Deutschland. Auch in der 29. Woche. Wenn ausnahmsweise und ganz selten mal Strom nach Deutschland exportiert wird, geschieht dies aus spekulativen Gründen im Rahmen von Preisdifferenzgeschäften. Das Gerede vom Kohlestrom aus Polen, den Deutschland angeblich bei Bedarf importiert, ist schlichter Unfug. Dass Polen zwar in geringem Umfang, aber immerhin, auch auf Windkraftanlagen setzt, belegt dieser Bericht.

Wenn Sie die Abbildung anklicken, sehen Sie die 29. Woche in der Übersicht. Die geringe Windstromerzeugung fällt sofort auf. Vor allem auch die sehr schwache Stromerzeugung auf See (dunkelblau unten). Wären da nicht die grundlastfähigen erneuerbaren Energieträger Biomasse und Wasserkraft, sähe es zumindest zu den Zeiten, wenn die Sonne keinen Strom liefert, sehr schlecht aus. So wird zumindest noch am Sonntag ein durchschnittlicher Anteil des mittels erneuerbarer Energieträger erzeugten Stroms die 50-Prozent-Marke überschritten. Im Durchschnitt der Woche bleiben gleichwohl nur 39,4 Prozent, gut 15 Prozent weniger als der bisherige Jahresdurchschnitt (Abbildung 1). Der absolute Tiefpunkt der Stromerzeugung mittels erneuerbarer Energieträger gesamt war der Donnerstag mit 30,7 Prozent Anteil der Tagesstromerzeugung. Wind- und Sonnenstrom trugen 14,92 Prozent bei. Der Rest war Strom aus Biomasse und Wasserkraft.

Wie groß der Anteil der konventionellen Stromerzeugung in der 29. Woche war, zeigt Abbildung 2. Im Chart der Abbildung 3 ist die konventionelle Stromerzeugung aufgeschlüsselt. Abbildung 4 zeigt die Salden- und Preisentwicklung. Der Strom Im- und Export der einzelnen Länder wird angezeigt. Angebot und Nachfrage werden abgebildet. Der Strompreis schwankt zwischen 14,76 €/MWh und 58,70 €/MWh. Raten Sie mal, wer den niedrigen und den hohen Preis bezahlen muss.

Die Tagesanalysen

Sonntag, 12.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 53,33 Prozent, davon Windstrom 12,38 Prozent, Sonnenstrom 25,71 Prozent, Strom Biomasse/Wasserkraft 15,24 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Sonntag hat einen Stromerzeugungsanteil erneuerbare Energieträger von 53,33%. Das ist fast der Durchschnitt von 54,9%. Dass am frühen Morgen und nach dem Ende der täglichen Sonnenstromerzeugung Strom hinzugekauft werden muss, ist ein bereits üblicher Sachverhalt. Dass die zu zahlenden Preise dann relativ hoch sind, ist ebenfalls üblich. Dieser Sonntag ist ein Beispiel für die Preisdifferenzgeschäfte, die Polen ab und zu macht. Morgens für über 20 €/MWh Strom verkaufen; in der Mittagsspitze den Strom für unter 20 €/MWh zurückkaufen: Hier klicken. Das relativiert den recht hohen Preis, den Polen am Abend zahlen muss.

Montag, 13.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 45,30 Prozent, davon Windstrom 5,98 Prozent, Sonnenstrom 25,64 Prozent, Strom Biomasse/Wasserkraft 13,68 Prozent. Die Agora-Chartmatrix: Hier klicken.

Am Montag steigt der Strombedarf in Deutschland. In der Spitze werden über 71 GW benötigt (Sonntag gut 58 GW). Die geringe Windstromerzeugung wird über Tag durch gute Sonnenstromerzeugung ergänzt. Was in der Mittagsspitze zu Exporten führt. Für den Rest des Tages muss Strom importiert werden. Aus welchen Ländern, zu welchem Preis: Hier klicken.

Dienstag, 14.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 42,62 Prozentdavon Windstrom 9,02 Prozent, Sonnenstrom 19,67 Prozent, Strom Biomasse/Wasserkraft 13,93 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung lässt noch mal nach, die Sonnenstromerzeugung ebenfalls. Die konventionellen Kraftwerke erzeugen auf Hochtouren. Dennoch bleiben – gewollte – Lücken am Morgen und am Abend. Die am Morgen wird verhältnismäßig günstig geschlossen. Die am Abend recht teuer. Österreich macht profitable Preisdifferenzgeschäfte.

Mittwoch, 15.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 33,33 Prozent, davon Windstrom 5,41 Prozent, Sonnenstrom 12,61 Prozent, Strom Biomasse/Wasserkraft 15,32 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung bleibt weiter schwach. Die Sonnenstromerzeugung lässt nochmals nach. Den ganzen Tag muss per Saldo Strom von unseren Nachbarn gekauft werden, damit der Bedarf Deutschlands gedeckt werden kann. Preise von über 57 €/MWh werden erzielt. Preise, die Deutschland bezahlt.

Donnerstag, 16.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 30,70 Prozent, davon Windstrom 4,39 Prozent, Sonnenstrom 10,53 Prozent, Strom Biomasse/Wasserkraft 15,79 Prozent. Die Agora-Chartmatrix: Hier klicken.

Wind- und Sonnenkraftwerke erreichen heute den Tiefpunkt ihrer Stromerzeugung. Wieder wird den ganzen Tag Strom importiert. Dementsprechend ist das Preisniveau. Ich vermute, dass die konventionellen Stromhersteller ihre Erzeugung nicht hochfahren, weil sie in Kürze einen massiven Anstieg der Stromerzeugung mittels erneuerbarer Energieträger befürchten. Der würde negative Preise nach sich ziehen. Wer profitiert vom Stromexport nach Deutschland? Hier klicken

Freitag, den 17.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 36,13 Prozent, davon Windstrom 4,20 Prozent, Sonnenstrom 16,81 Prozent, Strom Biomasse/Wasserkraft 15,13 Prozent. Die Agora-Chartmatrix: Hier klicken.

In der Tat, die Wind- und Sonnenstromerzeugung steigt auf niedrigem Niveau. Der Strom muss über Mittag relativ günstig abgegeben werde. Doch das Preisniveau insgesamt fällt. Lag die Preisspitze gestern bei knapp 60 €/MWh, so liegt sie heute bei knapp 45 €/MWh. Die Im- und Exportländer: Hier klicken.

Samstag, 18.7.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 41,12 Prozent, davon Windstrom 2,80 Prozent, Sonnenstrom 22,43 Prozent, Strom Biomasse/Wasserkraft 15,89 Prozent. Die Agora-Chartmatrix: Hier klicken.

Wer macht heute feine Preisdifferenzgeschäfte? Österreich, die Schweiz und Dänemark. Die Sonnenstromerzeugung läuft zufriedenstellend, die Windstromerzeugung hat ihren Wochentiefpunkt. Die konventionelle Stromerzeugung am Morgen und am Abend legt Lücken in der Versorgung offen. Nichts Neues also.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen?

Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Zuerst erschienen bei der Achse des Guten; mit freundlicher Genehmigung.

Rüdiger Stobbe betreibt seit vier Jahren den Politikblog  www.mediagnose.de

 




Meine gesammelten Weltuntergänge

Von Adrien Tournachon - Image from page 321 of "The expression of the emotions in man and animals" (1872), No restrictions, https://commons.wikimedia.org/w/index.php?curid=43941518

The eve of destruction – der Vorabend des Weltuntergangs!

Ich war frische 17, als ich die Sturmglocken der Apokalypse vernahm. Ich empfing sie auf der Mittelwelle via Radio Luxemburg, your station of the stars. Dabei war Barry McGuire, als er 1965 den Song seines Lebens einsang (angeblich in nur einer halben Stunde), gerade mal 30 Jahre alt. Und viel gesehen oder gar Welterschütterndes erlebt hatte blonde Folkie mit der niedlichen Strubbelfrisur, der eine Rolle in „Baywatch“ hätte einnehmen können, mitnichten.

Barry war ein ganz normaler Musikus seiner Zeit, ein bisschen politisiert, gewiss, doch keineswegs radikal. Den Text des Songs „Eve Of Destruction“, der sich über fünf Millionen Mal verkaufen sollte und ihn, Barry, langfristig zu einem wohlhabenden, kurzzeitig sogar weltbekannten Mann machte, hatte er nicht selber verfasst. Er mochte das Untergangslied, das er am Ende einer Studiosession müde und ziemlich schludrig röchelte, nicht sonderlich, wie er später zugab.

Autor der düsteren Ballade („If the button is pushed, there’s no running away”) war ein gewisser P.F. Sloan, der sich ansonsten hauptsächlich mit harmlosen Surferliedchen über Wasser hielt, wie sie Mitte der 1960er-Jahre in den USA florierten.

Wovon handelt das Stück überhaupt? Also, da beklagt einer den Zustand der Welt, die ihm untergangsgeweiht vorkommt. Atomwaffen, Krieg und Rassismus, Unterdrückung, Hass und Hetze allerorten. Von „Red China“ (wie man Maos Sklavenstaat zu nennen pflegte) bis „Selma, Alabama“ (wo Polizisten reihenweise Teilnehmer der legendären amerikanischen Bürgerrechtsmärsche zusammenknüppelten).

Diese Kalamitäten will jedoch ein imaginärer Freund des erweckten Sängers, der für die ignorante Mehrheit steht (gewissermaßen der Urtypus des Leugners), einfach nicht wahrhaben: „Ah, you don’t believe we´re on the eve of destruction”.

Da kann man auch gleich von der Klippe hüpfen

Was Barry da zum Besten gab, war kein Protestlied, sondern ein Doom Song. Protestlieder wie Dylans „The Times They Are a-Changin‘“ oder Donovans “Universal Soldier” klagen ebenfalls an, jaunern rum, lesen den Mächtigen die Leviten, enthalten aber letztlich die frohe Botschaft: Mit uns ist die neue Zeit! Doom Songs dagegen verkünden den unvermeidlichen Untergang. Da kann man auch gleich von der Klippe hüpfen.

Überraschenderweise verkaufen Armageddon-Gesänge sich blendend. Der „Vorabend der Zerstörung“ wurde 1965, als sich der Vietnamkrieg ausweitete, zu einem Riesenhit. Obwohl – beziehungsweise weil – ihn zahlreiche Radiostationen in den USA anfangs boykottierten. In Deutschland gab es 20 Jahre später ein paar ähnliche Gruselklopfer, davon später.

Was mich betraf, so war ich mit meinen siebzehn Jahren schon ganz hübsch untergangsgeübt. Ich besaß vage Erinnerungen an Gespräche der Erwachsenen über Beinahe-Katastrophen. Von Korea war öfters die Rede gewesen, auch von Ungarn. Mein ältester Bruder brachte bei Besuchen die linke Zeitschrift „Konkret“ mit, die er redigierte.

Auf den großformatigen Titelseiten waren manchmal die filigranen Zeichnungen des Apokalypse-Künstlers Wolfgang Grässe abgedruckt, etwa in Zusammenhang mit dem Algerienkrieg. Algerien war vor Vietnam das Lieblingssujet der Linken; die dortigen Gräuel galten ihnen als Vorgeschmack auf globale Barbarei. An welcher der Westen die Schuld trug, versteht sich.

Den Mauerbau kriegte ich voll mit, ebenso die Kuba-Krise. 1963 öffnete mir die Mutter eines Freundes, den ich abholen wollte, tränenüberströmt die Haustür. Sie hatte gerade im Rundfunk vom Attentat auf Kennedy gehört. Der junge, so agil wie viril wirkende US-Präsident war der Liebling vieler Deutscher. Frauen schwärmten für ihn. Sein Tod, so fürchtete auch die Mutter meines Freundes, werde die Welt verändern, könnte auch unser kleines, kuscheliges Wirtschaftswunderland in den Abgrund reißen.

Strauß weg und der Atomkrieg auf Eis

Die politische Stimmung war seit den mittleren 1950ern grundiert mit latenter Angst vor dem Atomtod, den die (von der DDR maßgeblich gesteuerte) Ostermarschbewegung unermüdlich an die Wand malte. Als Leibhaftiger war der Verteidigungsminister und Atomwaffenfan Franz Josef Strauß auserkoren, auf den sich die westdeutsche Linke schon lange vor seiner unrühmlichen Rolle in der „Spiegel“-Affäre eingeschossen hatte.

Es war für sie, die Linke, de facto ein herber Verlust, dass Strauß 1962 wegen der Affäre zurücktreten musste. Einen besseren Buhmann – gegen Strauß war Bonds Gegenspieler Blofeld ein Peter Alexander – bekam sie nie wieder.

Strauß weg und der Atomkrieg auf Eis, war damit nun erstmal Ruhe im Panikorchester? Njet! Jetzt ging es erst richtig los mit den Ängsten. Ab 1968 schüttete es aus allen Rohren, von allen Seiten. Vietnam stand weiterhin auf dem Zettel, dazu kam der Kampf gegen die Notstandsgesetze, gegen den Radikalenerlass (von den Linken als „Berufsverbote“ geframt), gegen die angebliche Isolationsfolter an recht kommod im Knast untergebrachten RAF-Terroristen, gegen die Volkszählung. Letztere Kampagne war wahrscheinlich die ulkigste, paranoideste, die in der BE-ERR-DE je stattgefunden hat.

Wirkungsmächtiger waren allerdings zunehmend jene Ängste, die sich auf Gesundheit, Natur und Umwelt bezogen. Angst vor Aids versetzte die halbe Welt in Stockstarre. Einer Generation junger Bundesdeutscher, die mehrheitlich wenig zu befürchten hatte, wurde der Spaß am Sex gründlich vermiest. Und zwar, weil aus durchaus honorigen, sozusagen solidarischen Gründen die Mär verbreitet wurde, die HIV-Seuche könnte „jeden überall treffen.“

Das Waldsterben hielt sich jahrelang an der Spitze der Panikcharts. Derzeit wird es wieder aus der Kiste geholt. Vergänglicher war der Rummel um das Ozonloch. Nach dem international durchgesetzten Verbot von FCKW gab das Loch seinen Geist weitgehend auf.

Die Ozonangst war sowieso entbehrlich, denn die Reaktorschmelze in Tschernobyl nahm nunmehr alle Angstlust in Anspruch, welche Deutsche aufzubringen vermochten. Die kanarische Insel La Gomera, bei den Hippies zur Freude der Einheimischen aus der Mode, war auf einmal wieder voll mit Ökos, die sich aus Verstrahlungsfurcht an den Atlantik flüchteten.

Wie ein zu lange stehen gelassenes Soufflé

„Noch ein Jahr nach der Katastrophe fühlten sich laut einer Allensbach-Umfrage 33 Prozent der deutschen Männer und 40 Prozent der deutschen Frauen ‚sehr bedroht‘“, schrieb der Spiegel, traditionell einer der emsigsten Treiber und Profiteure der deutschen Angstgesellschaft.

Ein imposanter Panik-Event fand 1983 statt, mit den Massenprotesten gegen die sogenannte Nachrüstung. Über eine Million Bundesbürger gingen am 22. Oktober gegen das Vorhaben der Nato auf die Straße, raketenrüstungstechnisch mit der Sowjetunion gleichzuziehen. Die Bewegung hatte auch Ohrwürmer. Nena landete mit „99 Luftballons“ einen Kassenschlager („99 Jahre Krieg, ließen keinen Platz für Krieger. Heute zieh ich meine Runden, seh die Welt in Trümmern liegen“).

Noch doomiger hörte sich ein Sänger namens Hans Hartz an, der mit seiner entfernt an Joe Cocker erinnernden Stimme nölte: „Die weißen Tauben fliegen nicht mehr, ab morgen gibt’s statt Glas nur Scherben. Komm her und schenk uns noch mal ein, Marie, die Welt reißt von der Leine.“

Indes, die Welt blieb hartnäckig auf ihrer Leine hängen. Seltsamer noch: Als die – durch Aufrufe wie den „Krefelder Appell“ stark von westdeutschen Kommunisten gesteuerte – Anti-Nato-Kampagne nicht fruchtete, fiel die von Medien und Prominenten hochgejazzte Bewegung rasch in sich zusammen wie ein zu lange stehen gelassenes Soufflé. Ein paar Jahre später kollabierte auch die Sowjetunion.

Gehen wir jetzt mal in den schnellen Vorlauf. Sonst kommt man nie durch mit all den Ängsten und Weltuntergängen. Über die der schlaue „Diplom-Kulturwissenschaftler“ und „Zeit“-Redakteur Johannes Schneider Bescheid weiß: „Die Menschheit hat sich zu allen Zeiten gern mit ihrem Ende befasst. Deshalb bemerkt sie nicht, dass es jetzt so weit ist.“

Dafür könnte ich den Johannes küssen.

Inmitten allem möglichen Rinderwahn- und Schweinepestgedöns passierte dann – 9/11. Ungezählte Male fiel fortan der Satz: „Danach wird nichts mehr so sein, wie es war.“

Das geschah so nicht ganz. Es kam wegen der Anschläge zu keiner globalen Konfrontation, keinem Börsencrash. Freilich, das Fliegen veränderte sich erheblich, hin zum Ungemütlichen für Passagiere. Dann, 2008, endlich eine schwere Finanzkrise! Und wieder hieß es, ab subito würde die Welt eine andre. Doch der robuste Kapitalismus verkraftete den Brocken. Weil Krisen nun mal zum Kapitalismus gehören, das ist ja seine Geschäftsgrundlage.

Am Pegel Cuxhaven nicht sehr viel zu bemerken

Jahre gingen ins Land. Eisbären oder Robben oder Insekten starben aus, nur um zwei, drei Jahre nach ihrer Todesanzeige zurückzukehren, manchmal in größeren Populationen als zuvor. Dramatisch stiegen die Meeresspiegel, so barmten Medien. Allein, auf der pazifischen Insel Kiribati und am (bei Fachleuten als Referenzpunkt geschätzten) Pegel Cuxhaven war davon nicht sehr viel zu bemerken.

Vor zwei Jahren startete ein gemütskrankes Mädchen aus Schweden eine Panikattacke wider die Vernunft. Die Veranstaltung schien wie ein Wunder aus Lourdes. Eine kleine Heiländin kuriert die moribunde Mutter Erde! Doch dann kam Corona, und der ganze Zirkus kippte zurück auf Wiedervorlage. So schnell vergeht der Ruhm der Umwelt.

Nach Corona wird, Sie ahnen es längst, natürlich nichts mehr so sein wie früher. Das schreiben die Medien. Killt das Virus vielleicht gar den Kapitalismus? Das glaubt und hofft der Philosoph Slavoj Zizek. Was mich an ein Graffito erinnert, das ich einst auf dem Klo des romanischen Seminars der Uni Hamburg las. Es ging so: „Gott ist tot (Nietzsche, 1882)“. „Nietzsche ist tot (Gott, 1900)“. Nicht, dass ich den Kapitalismus mit Gott vergleichen möchte! Und Zizek keinesfalls mit Nietzsche, bewahre.

Ach, es ist ein Elend mit dem Weltuntergang. Bereitet man sich auf einen vor, steht bereits der nächste in der Tür. Was dräut uns künftig? Wie wäre es mal wieder mit einem kleinen Nuklearkrieg? Oder: Hacker legen die Welt lahm? Zombieaufstand in den Metropolen? Trump bleibt Präsident?

In meinem Alter habe ich es gut. Die größte anzunehmende Katastrophe für das Land, in dem ich mehr oder minder gut und gerne lebe, ist bereits eingetreten. 15 Jahre Merkel und ihre Wenden, ärger kann’s nun nicht mehr kommen. Nicht mal dann, wenn der nächste Bundeskanzler Andreas Scheuer hieße.




Zurechtgebogene Regeln: Warum die Lärmschutzbestimmungen für Windkraftanlagen völlig unzureichend sind

Drei Jahrzehnte Täuschung durch die Windindustrie: Die Chronologie einer globalen Verschwörung von Stille und List

Männer wie  Steven Cooper , Dr. Bob Thorne und Les Huson demonstrieren die Ethik und Integrität, die man mit einem erlernten Beruf verbindet. Aber es gibt viele andere, die Dollars gegenüber Anstand gewählt haben und alles tun und sagen, was ihre Paymaster von der Windindustrie ihnen sagen, bis hin zu fiktiven Zahlen in gefälschten Lärm-Compliance-Berichten: Pacific Hydro & Acciona’s Acoustic „Berater“ fälscht „Compliance“ -Berichte für nicht konforme Windparks

Der Zusammenhang zwischen pulsierendem, niederfrequentem Geräusch der Windgeneratoren und neurophysiologischen Effekten wurde bereits vom Max-Planck-Institut in Deutschland herausgestellt: Waffe für die Opfer von Windparks: Deutsche Forschung zeigt, dass Infraschall-Exposition Stress, Schlafstörungen und mehr verursacht

[Auf Eike bereits in vielen Beiträgen erwähnt. Sehen Sie bitte auch Suchergebnisse am Ende der Seite. Ein Link vorab, von dem die Befürworter nichts wissen wollen: Das Umweltbundesamt stellt fest: Infraschall ist schädlich – der Übersetzer]

In den letzten zehn Jahren hat Steven Cooper an den richtigen Methoden gearbeitet, um die Geräusche industrieller Windkraftanlagen und ihre Auswirkungen auf Schlaf und Gesundheit richtig zu messen.

Bei seinen letzten Bemühungen hat Steven gemeinsam mit Christopher Chan die folgende Studie veröffentlicht.

 

Determination of Acoustic Compliance of Wind Farms
Bestimmung der akustischen Konformität von Windparks
Akustik 2020 (2) 416-450
Steven Cooper und Christopher Chan
22. Juni 2020

 

Abstrakt

In der ganzen Welt gibt es Probleme mit Windparks, die zwar die Genehmigungsbedingungen erfüllen und trotzdem zu Lärmbeschwerden führen. Zulassungsgrenzen werden normalerweise in A-bewerteten Pegeln (dB (A) für die Nähe von Privathaushalten ausgedrückt. Die Entfernung vom Windpark zu Wohngebieten kann zu Schwierigkeiten bei der Ermittlung des dB (A) -Beitrags des Windparks führen, da das Gesamtgeräusch Hintergrundgeräusche enthält, die eine Maskierung [~Verdeckung] des Windkraftanlagengeräuschs bewirken können.

Die Bestimmung des Umgebungshintergrunds an einem Empfängerstandort (ohne Einfluss des Windparks) stellt Herausforderungen dar, da der Hintergrundpegel mit dem Wind und den verschiedenen Jahreszeiten im Laufe des Jahres variiert. Ein-Aus-Tests von Windparks finden normalerweise nicht bei hoher Windparkleistung statt und schränken diesen Ansatz für die Prüfung der akustischen Konformität eines Windparks ein. Die Verwendung einer vor mehr als 20 Jahren entwickelten Regressionsanalysemethode wird in Frage gestellt. Anomalien in Bezug auf Compliance-Verfahren und die auf realen Erfahrungen basierende Regressionsanalysemethode werden diskutiert.

 

Schlussfolgerungen

  • Lärmrichtlinien / -standards / -richtlinien für Windparks auf der ganzen Welt haben eine Reihe von Lärmpegeln, wobei die meisten Grenzwerte auf einer Version einer Leq-Metrik [equivalent continous sound level] basieren, die den A-bewerteten Pegel verwendet.
  • In Australien basiert die Bewertung und Konformitätsprüfung von Windparks auf der ursprünglich in Großbritannien entwickelten Regressionslinienmethode.
  • Einige Windparks in Australien und Neuseeland verursachen Lärmbeschwerden in dem Maße, das die Bewohner ihre Häuser verlassen – obwohl der Windpark „akustisch“ den einschlägigen Genehmigungsbedingungen entspricht (basierend auf der Regressionslinienmethode).
  • Australische Gerichte stützen sich auf die Richtlinien der Planungs- oder Umweltbehörden – ungeachtet dessen, dass es kein evidenzbasiertes Material gibt, um die für Windparks festgelegten Lärmkriterien zu unterstützen oder um sicherzustellen, dass keine Auswirkungen auftreten.
  • Der Betrieb eines Windparks erfordert Wind. Es wird anerkannt, dass das Vorhandensein von Wind dazu führt, dass das Umgebungsgeräusch zunimmt.
  • Die Erzeugung von unhörbaren Windturbinengeräuschen (dh. Beiträgen unterhalb der Hörschwelle), die dazu führten, dass Personen (die über mehrere Jahre Turbinengeräuschen ausgesetzt waren) den Betrieb des Testsignals identifizieren konnten, hat zu diesem technischen Thema Fragen aufgeworfen.
  • Die Cape Bridgewater-Studie identifizierte eine Korrelation des A-bewerteten Niveaus mit der Windgeschwindigkeit und nicht mit der Leistung des Windparks. Es ist relativ einfach, eindeutige Schmalband-Spektralkomponenten zu identifizieren, die mit dem Betrieb eines Windparks verbunden sind. Es ist jedoch schwierig , den A-bewerteten Beitrag des Windparks zur Validierung der vorhergesagten Werte zu bestimmen .
  • Die Ableitung des dB (A) -Beitrags des Windparkgeräuschs erfordert die Trennung des Windkraftanlagengeräuschs von vom Wind beeinflussten Umgebungsgeräusch und dem verbleibenden Umgebungsgeräusch.
  • Der Schwerpunkt dieses technischen Artikels lag auf der Ermittlung von Herausforderungen bei der Ableitung des Windkraftanlagenbeitrags. Aus Sicht der Psychoakustik ist es wichtig, den tatsächlichen Lärmbeitrag eines Windparks in der Umgebung zu bestimmen, in der er auftritt.
  • Wenn man den Beitrag des Windkraftanlagengeräuschs als Teil des vorhandenen Umgebungsgeräuschs nicht bestimmen kann, kann man die Wirksamkeit der vorhergesagten Geräuschpegel nicht bewerten.
  • Wenn die vorhergesagten Werte falsch sind, kann die Verwendung der A-bewerteten Dosis-Wirkungs-Kurven von Pedersen et al. Keith et al., Davy, Janssen, Kuwano oder die WHO sind möglicherweise unangemessen sein.
  • In ähnlicher Weise könnten Schlafstudien zum Lärm von Windkraftanlagen die falschen Schwellenwerte bestimmen.
  • Zwei Fallstudien haben die Testergebnisse geliefert, um den A-bewerteten Windpegel für die Instrumente zu ermitteln, die für die unbeaufsichtigte Erfassung des Umgebungsgeräuschs verwendet werden, und um eine zusätzliche windbasierte Komponente der Umgebung zu identifizieren, die mit dem Wind auf der Vegetation zusammenhängt. Die beiden Fallstudien waren frei von Windkraftanlagengeräuschen und zeigten, dass in Umgebungen mit geringer [Lärm-] Umgebung der Einfluss windinduzierter Vegetationsgeräusche größere Abstände erfordert als von Hansen und Bolin vorgeschlagen.
  • In zwei Fallstudien wurden Probleme im Zusammenhang mit Konformitätstests festgestellt und die Möglichkeit in Frage gestellt, dass ein Windpark jederzeit akustisch konform sein wird.
  • Probleme im Zusammenhang mit der Prüfung der akustischen Konformität von Windparks in Australien haben ergeben, dass zusätzliche Untersuchungen erforderlich sind, um den tatsächlichen Lärmbeitrag von Windparks über eine Reihe von Betriebsparametern zu bestimmen, bevor eine vollständige akustische Konformität festgestellt werden kann.
  • Wenn man den Lärmbeitrag eines Windparks (innerhalb oder außerhalb einer Wohnung) nicht bestimmen kann, welche Geräuschpegel sollten dann für Schlafuntersuchungen von Windkraftanlagen in einem Labor verwendet werden?
  • Die Konsequenz der Bestimmung des tatsächlichen Lärmbeitrags von Windparks an Empfängerstandorten könnte eine Überprüfung der Lärmpegel erfordern, die für Planungszwecke und in der psychoakustischen Erforschung des Lärms von Windparks verwendet wurden (und derzeit verwendet werden).

Acoustics 2020 (2) 416-450 [PDF version of full article]

https://stopthesethings.com/2020/07/08/rigged-rules-why-wind-turbine-noise-regulations-are-totally-inadequate/

Übersetzt durch Andreas Demmig

Zum Thema: Auf Eike finden Sie bereits mehrere Beiträge dazu: Für Sie gesucht: https://eike.institute/?s=Infraschall




Moderne historische Temperaturen

Beginnen möchte ich mit der Erläuterung, wo Colle Gnifetti überhaupt liegt. Das Ungewöhnliche an diesem Eisbohrkern ist nämlich, dass er aus Europa stammt, genauer aus den Alpen auf der Grenze zwischen Italien und der Schweiz.

Abbildung1: Orte, aus denen die in der Studie untersuchten Eisbohrkerne stammen.

Das ist gut, weil es in Europa einige der längsten Temperaturreihen aufgrund von Thermometermessungen gibt.

Interessant an diesem Standort ist, dass Eiskernbohrungen normalerweise an den buchstäblichen Enden der Erde, in der Antarktis und in Grönland und so weiter, erfolgen. Aber diese Stätte liegt nicht weit von der Margherita-Hütte entfernt in einer Höhe von über 4500 Metern.

Abbildung 2. Die beste Werbung aller Zeiten für den Beruf des Glaziologen.

Nun wollte ich sehen, wie gut die Eiskernaufzeichnungen mit den Temperaturaufzeichnungen übereinstimmen. Also berechnete ich drei Datensätze aus dem Berkeley Earth Festlands-Datensatz. (Ich habe den Festlands-Datensatz verwendet, weil ich mit einer Stelle an Land vergleiche. Es besteht jedoch nur ein minimaler Unterschied zur Verwendung ihres „Land- und Ozean“-Datensatzes).

Der erste von mir berechnete Datensatz ist die globale Temperaturanomalie. Der nächste Datensatz ist die Temperaturanomalie der nördlichen Hemisphäre. Schließlich betrachtete ich eine ungefähr quadratische Gitterbox von 6° Länge und 4° Breite um Colle Gnifetti selbst.

Merkwürdigerweise passen von diesen drei am besten die Daten der Nordhalbkugel zu den Aufzeichnungen von Colle Gnifetti. Abbildung 3 unten zeigt den Vergleich. Ich habe die Eiskerndaten linear angepasst, um die beste Übereinstimmung mit den Daten Berkeley Earth zu erzielen.

Warum die lineare Anpassung? Weil die Varianz einer einzelnen Eiskernaufzeichnung an einem Ort hoch oben auf einem Berg anders ist als z.B. die Varianz der durchschnittlichen Festlands-Temperatur auf der Nordhalbkugel. Dies erlaubt es uns, die Aufzeichnungen auf der gleichen Skala zu vergleichen.

Hier ist also der Vergleich zwischen Thermometerdaten und dem jüngstenen Ende der Colle Gnifetti Eiskerndaten. Die Datenquellen sind in der Grafik aufgeführt.

Abbildung 3. Temperaturen von Berkeley Earth nur auf dem Festland und Eiskerntemperaturen von Colle Gnifetti. Die Eiskerntemperaturen wurden linear angepasst, um die beste Anpassung an die modernen Daten zu erzielen, indem sie mit etwa 1,6 multipliziert und etwa 0,2°C abgezogen wurden. Im Hintergrund erkennt man die Bohrhütte am Colle Gnifetti.

Ich liebe es, wenn sich zwei völlig unterschiedliche Datensätze auf so hervorragende Weise aneinanderreihen. Meine Einschätzung ist, dass der Eiskern von Colle Gnifetti die Temperatur auf der Nordhalbkugel sehr gut reflektiert. Die einzige wirkliche Anomalie ist neueren Datums, wenn die beiden divergieren. Keine Ahnung, woran das liegt. Die Antwort kann in beiden Datensätzen liegen. Aber man beachte die ausgezeichnete Übereinstimmung der großen Spitzen und Schwingungen im früheren Teil des Datensatzes an.

Jetzt, da wir den Paläodatensatz mit dem modernen Datensatz und der Varianz abgeglichen haben, können wir einen Blick auf die Aufzeichnung der Temperaturschwankungen im Eiskern über die gesamte Zeitspanne der Daten werfen.

Abbildung 4. Colle Gnifetti Eiskerntemperatur, linear angepasst an das Best Fit aktueller Daten, wie in Abbildung 3 dargestellt. Der Hintergrund ist das Bohrgebiet, unten rechts ist die Bohrhütte bei Colle Gnifetti.

Dies ist ein äußerst faszinierender Temperaturdatensatz. Man erkennt die langsame Abkühlung von etwa 1400-1500 an in die Kleine Eiszeit sehen, die um 1700 ihre Talsohle erreicht hat.

Interessant ist auch der Gesamtbereich der schnellen Temperaturschwankungen. Zum Beispiel fiel die Temperatur in den fünfzig Jahren von 1190 bis 1240 um 2,3°C.

Und die Steilheit der natürlichen Erwärmungstrends ist aufschlussreich. In 35 Jahren, von 850 bis 885, stieg die Temperatur um 2,3°C.

Um einen weiteren Blick auf Erwärmung und Abkühlung zu werfen folgt hier ist eine Grafik der dreißigjährigen Abfolge der Trends in den Daten.

Abbildung 5. 30-jährige Abfolge der Temperaturaufzeichnung des Eiskerns von Colle Gnifetti.

Die aktuelle 30-jährige Abfolge der Temperaturtrends bewegen sich in der Größenordnung von 0,1 – 0,2°C/Dekade. Aber wie man sieht, ist diese Erwärmungsrate in der Aufzeichnung kaum ungewöhnlich. Tatsächlich war der Trend in der Aufzeichnungsperiode zweimal viermal so groß wie in der Neuzeit. Und die aktuelle Erwärmungsrate wurde in der Vergangenheit schon viele Male überschritten.

Also … welche Art von Schlussfolgerungen und Fragen können wir aus den Daten ziehen? Hierzu noch einmal Abbildung 4 von oben:

Abbildung 4 (Wiederholung)

Erstens: Was zum Teufel hat die großen Temperaturschwankungen verursacht? Der frühere Teil dieser Paläo-Aufzeichnung zeigt Schwingungen, die sowohl viel größer als auch viel schneller erfolgten als alles, was es in der heutigen Zeit gibt. Nennen Sie mich verrückt, aber auf einem Planeten mit natürlich auftretenden Erwärmungen von z.B. über zwei Grad C innerhalb von 35 Jahren von 850 auf 885 sehe ich nicht, wie man solche natürlichen Schwankungen ausschließen kann, wenn man sich die relativ unscheinbare und sicherlich in keiner Weise anomale moderne Aufzeichnung ansieht.

Damit komme ich zu meiner Empfehlung für den Bereich der Klimawissenschaft – man höre endlich auf, die Zukunft zu projizieren, und beginne über die Vergangenheit nachzudenken. Solange wir nicht erklären können, warum die Temperaturen um das Jahr 1200 herum abstürzten, in nur fünfzig Jahren um 2,3°C sank, um dann genauso wieder zu steigen, haben wir KEINE GRUNDLAGE FÜR IRGENDWELCHE PROJEKTIONEN!

Aber ich schweife ab … als nächstes sehen wir in den Daten eine Erwärmung ab dem Ende der Kleinen Eiszeit, also etwa ab dem Jahr 1700. Sie tritt in zwei Wellen auf. Der erste Temperaturanstieg, von etwa 1700 bis 1790, ist sowohl schneller als auch stärker als der nachfolgende Anstieg von etwa 1820 bis zur Gegenwart.

Tatsächlich ist der derzeitige Temperaturanstieg, angeblich durch CO2 angeheizt, der langsamste Anstieg der verschiedenen längerfristigen Temperaturanstiege in dieser Paläo-Aufzeichnung. Jeder andere Temperaturanstieg ist steiler. Ich dachte, dass CO2 angeblich für eine schnellere Erwärmung verantwortlich sein sollte, aber hier draußen in der realen Welt gibt es eine langsamere Erwärmung.

Weiter. In diesem Eiskernrekord herrschte zum Höhepunkt der späteren „Mittelalterlichen Warmzeit“ um 1190 ungefähr die gleiche Temperatur wie heute. Die frühere Wärmespitze um das Jahr 920 ist jedoch etwa ein halbes Grad wärmer ausgefallen. Es scheint, dass die gegenwärtigen Temperaturen nicht so ungewöhnlich sind, wie oft behauptet wird.

Zum Schluss noch die Vorbehalte. Der wichtigste Vorbehalt ist die zugrunde liegende Annahme der Invariabilität – dass ceteris paribus die Vergangenheit nach den gleichen Regeln funktioniert wie die Gegenwart.

Um zum Beispiel das jüngere Ende der Eiskerndaten linear so anzupassen, dass es am besten zu den modernen Temperaturdaten passt, multipliziert man es mit etwa 1,6 und subtrahiert etwa 0,2. Die obige Abbildung geht davon aus, dass Gleiches auch in der Vergangenheit zutrifft. Dies ist eine sehr vernünftige Annahme, wir kennen keinen Grund, warum es nicht so sein sollte … und doch …

Nächster Vorbehalt? Es ist nur eine einzelne Studie. Ich würde mich freuen, wenn die eine Auflösung von zwei Jahren ermöglichenden verbesserten Verfahren mehr genutzt würden.

Angesichts dieser Vorbehalte finde ich den Datensatz jedoch sehr aufschlussreich.

Hier an der nordkalifornischen Küste ist der Sommer in vollem Gange. An vielen Tagen heizen sich die Täler im Landesinneren auf. Die erwärmte Luft steigt auf und zieht kühle, feuchte Luft aus dem kalten, nahen Ozean an. Dies kühlt die gesamte, dem Meer zugewandte Seite des Küstengebirges ab, einschließlich unserer paar Hektar … so dass es heute hier kühl und neblig ist.

Die lokale Symmetrie gefällt mir sehr gut. An einem Ort wird es wärmer … und an einem anderen kälter. Wunderbar.

Ergänzung: Es ist sehr instruktiv, die gelisteten Temperaturen mit den Daten hier zu vergleichen: A Chronological Listing of Early Weather Events.

Link: https://wattsupwiththat.com/2020/07/24/ancient-temperatures/

Übersetzt von Chris Frey EIKE




Schummel-Programme im Diesel – jetzt auch im Elektro-Auto?

Diesel-Käufer erinnern sich an den Skandal von Volkswagen & Co: Halbseidene Vereine wie die Deutsche Umwelthilfe DUH des Vielfliegers Jürgen Resch hatten völlig unrealistische Emissionswerte verlangt, was man in den Konzernen mit Schummelprogrammen statt mit politischem Protest beantwortete. Ergebnis waren heftige Strafzahlungen und Erstattung an die Kunden; zudem ein Riesenärger.

Nun scheinen Tesla&Co. nachzuziehen: Der ADAC stellte mit Messungen fest, daß rund ein Viertel der Energie beim Laden verlorengeht; abhängig vom Modell. An der Anzeige merkt man das aber nicht; die zeigt an, was auch die Ladestation sagt. Analog dazu würde beim Verbrenner von 40 Litern Super zehn Liter danebenlaufen oder schon beim Eintreffen im Motor irgendwie verdampfen. Ob die DUH und andere Nicht-Regierungsorganisationen nun protestieren werden, oder gar Luisa Neubauer-Reemtsma und Großkusine Carla von FFF? Wäre mit Abmahnen nicht genau wieder viel Geld zu verdienen? Jürgen Resch ist ja für seinen aufwändigen (und etwas klimaschädlichen) Lebensstil bekannt.




CO2 und Corona – update

In meinem ersten Bericht habe ich gezeigt, dass an der CO2-Messstation in Mauna Loa (Hawaii) seltsamerweise nichts von diesem starken Rückgang der CO2-Emissionen zu sehen war. Eine der Kommentare war, dass dies aufgrund der Zeitverzögerung zwischen Emissionen und atmosphärischen Messungen möglicherweise noch nicht sichtbar ist. Deshalb werde ich heute auf diese Zeit eingehen und schließlich die neuesten Daten betrachten.

Die Forscher schätzen, dass die täglichen globalen CO2-Emissionen Anfang April 2020 gegenüber dem Durchschnittswert von 2019 um 17% gesunken sind. In der Spitze sanken die Emissionen in einzelnen Ländern durchschnittlich um bis zu 26%. Die Auswirkungen auf die jährlichen Emissionen von 2020 hängen von der Dauer und dem Umfang der Maßnahmen ab, natürlich jedoch hauptsächlich von den wirtschaftlichen Folgen dieser Maßnahmen.

Quelle: IPCC AR5 chapter 6 final, page 7

Im ersten Beitrag habe ich erklärt, dass die dem Menschen zugeschriebenen CO2-Emissionen auf die Verwendung fossiler Brennstoffe und die Zementherstellung zurückzuführen sind. Im Kohlenstoffkreislauf machen diese anthropogenen CO2-Emissionen 4% der jährlichen Gesamtmenge an CO2 aus [wie vom IPCC in obiger Grafik rot geschrieben], die in die Atmosphäre freigesetzt wird. Der Rest stammt aus natürlichen Quellen. Die Hypothese dazu ist, dass diese riesigen natürlichen CO2-Ströme im Gleichgewicht waren bzw. sind und infolgedessen der relativ kleine hinzugefügte anthropogene CO2-Strom die einzige Ursache sein muss, für den seit der industriellen Revolution angestiegenen CO2-Gehalts in der Atmosphäre. Es wird angenommen, dass [einzig] das anthropogene CO2 nicht absorbiert wird und den CO2 Gehalt von 280 ppm um 1880 daher auf derzeit etwa 415 ppm ansteigen lässt [~kumuliert].

Quelle: NOAA

Die obige Tabelle zeigt die Datenreihe von Manua Loa auf Hawaii. Ich habe diese Daten auch im vorherigen Beitrag verwendet, um zu sehen, ob ich eine Reaktion auf die stark gesunkenen Emissionszahlen gesehen habe. Die schwarze Linie zeigt den Trend, die rote Linie die Messwerte. Dieser Sägezahn ist das Ergebnis des Einflusses der Jahreszeiten auf die Blätter der Bäume. Dann wissen Sie sofort, dass es sich um Bäume außerhalb der tropischen Zone handelt, in diesem Fall in der gemäßigten und subarktischen Zone. Wenn die neue Saison im Frühjahr beginnt, nehmen die Bäume viel CO2 aus der Atmosphäre auf und die CO2-Linie nimmt ab. Fallen die Blätter im Herbst, wird viel CO2 durch Fäulnis freigesetzt und die Linie erreicht Spitzenwerte. Das Gleichgewicht der natürlichen Flüsse (gemäß der Hypothese) gilt daher für einen Zeitraum von 1 Jahr, aber anscheinend nicht für kürzere Zeiträume. Ich hoffe, dass ich später darauf zurückkommen kann.

Quelle: Wikipedia

Die obigen Karten zeigen die räumliche Verteilung von CO2 in der Atmosphäre für Mai und Oktober 2011. Der Abbau von organischem Material erreicht in der nördlichen Hemisphäre NH im Mai (und in der südlichen Hemisphäre SH im Oktober) Spitzenwerte. Der Höhepunkt im Mai ist darauf zurückzuführen, dass die größten Wälder der NH, insbesondere in Sibirien, aber auch in Nordamerika und Nordeuropa, Ende April / Anfang Mai ihre neuen Blätter erhalten. Die Tatsache, dass das Kartenbild im Oktober nicht das Gegenteil von Mai ist, liegt daran, dass sich der größte Teil der Landfläche auf der NH befindet und es daher dort die größte Waldfläche gibt. Der „Sägezahn“ im atmosphärischen CO2-Signal ist daher hauptsächlich das Ergebnis ausgedehnter Wälder auf der NH.

Quelle:  Wikipedia

CO2 ist ein gut durchgemischtes Gas und ist schließlich gleichmäßig in der Atmosphäre verteilt. Aber, die Mischung von der NH zur SH (und umgekehrt) dauert einige Zeit. Dies basiert auf einer „Zeitverzögerung“ von ungefähr 1 Jahr. Verantwortlich dafür sind die sogenannten Hadley-Zellen in den Tropen, die eine Mischung zwischen den beiden Hemisphären erheblich verlangsamen (siehe Abbildung oben).

Die Verdrängung von CO2 ist in jeder der Hemisphären ziemlich schnell. Die horizontale Verteilung erfolgt über die großen Windsysteme auf der Erde. Es ist bekannt, dass sich die Jetstreams innerhalb weniger Tage um die Erde bewegen. Die vertikale Dispersion ist viel schneller und zwar aufgrund der kontinuierlichen Turbulenzen in der Troposphäre, die fast überall auftreten und der Tatsache, dass die Troposphäre relativ dünn ist, nur etwa 8 bis 14 km hoch.

Die NOAA, die für die CO2-Messungen in Mauna Loa und einer Reihe anderer Stationen verantwortlich ist, schätzt die „Zeitverzögerung“ zwischen den CO2-Emissionen und der Messung in Mauna Loa auf wenige Wochen:

„Der Mai ist der Wendepunkt zwischen der gesamten Zersetzung während der Wintermonate und dem Beginn der Photosynthese, die mit der Rückkehr der Blätter zu den Bäumen im Frühjahr auftritt. CO 2  Messungen auf der ganzen Welt spiegeln dieses Muster wieder. Spitzenwerte für CO2 Konzentration finden jedes Jahr im Mai statt, unabhängig von der Höhe dieses Peaks … ..   Die Messung an der Sternwarte dort (Manua Loa-red.) hinkt dem Festland hinterher, es kann einige Wochen dauern, bis sich saisonale Schwankungen auf den Breitengrad von Mauna Loa ausbreiten. (NOAA).

Quelle:  NOAA

Die obige Grafik zeigt die täglichen Messungen des atmosphärischen CO2 auf Mauna Loa von Mai 2019 bis Mai 2020. Die letzten täglichen Messungen (schwarze Punkte) liegen nahe bei 418 ppm. Es wird erwartet, dass sie sich an der Spitze der „saisonalen Höhe“ befinden und nun nach dem oben beschriebenen Zyklus bis Oktober sinken werden.

Aufgrund der begrenzten Zeitspanne zwischen den CO2-Emissionen und den Messungen in Mauna Loa sowie der weiträumigen anthropogenen CO2-Emission ist davon auszugehen, dass die Emissionen von Januar-April 2020 aufgrund der Korona-Maßnahmen messbar sein sollten. Wie ich im vorigen Beitrag geschrieben habe, ist jedoch keine Abnahme oder wenigstens Stagnation des Anstiegs des atmosphärischen Signals zu erwarten. Von Februar bis März gibt es einen leichten Rückgang, aber wie wir später sehen werden, ist dieser Rückgang jedes Jahr im CO2-Signal.

Bisher habe ich mich auf die Messungen in Mauna Loa beschränkt, aber NOAA hat drei weitere Stationen auf der Erde: Barrow in Alaska, Amerikanisch-Samoa im tropischen Pazifik und den Südpol. NOAA liefert CO2-Werte für die gemeinsamen 4 Stationen aus dem Jahr 2010. Diese unterscheiden sich kaum voneinander: Die Daten der 4 Stationen sind aufgrund der Zeitverzögerung zwischen NH und SH im Durchschnitt 1,25 ppm niedriger als die von Manau Loa. Unten finden Sie eine grafische Darstellung der täglichen CO2-Daten und der von NOAA bereitgestellten Trendlinie. Diese Trendlinie ist die Signallinie abzüglich der saisonalen Schwankungen:

Daten: NOAA

Durch Subtrahieren des Trendsignals von den gemessenen CO2-Daten erkenne ich das Signal und kann leicht erkennen, ob im Jahr 2020 im Vergleich zu den Vorjahren etwas Besonderes vor sich geht:

Daten: NOAA

Der Schwerpunkt liegt natürlich hauptsächlich auf den Monaten Januar bis Mai 2020. Gibt es einen visuellen Effekt des starken Rückgangs der CO2-Emissionen in diesen Monaten? Ich sehe es nicht. Obwohl der Höchststand von Mai 2020 etwas niedriger ist als der von 2019, gilt dies auch für die Jahre 2011, 2014 und 2017. Vielleicht ist der Effekt vorhanden, aber dann ist er so gering, dass er im Signal verborgen ist.

Ich habe noch zwei andere Methoden verwendet, um mögliche Abweichungen in den Daten für 2020 zu finden. In der folgenden Grafik habe ich beispielsweise den Tageswert eines Jahres zuvor ab dem 1. Januar 2011 von jedem Tageswert abgezogen. Also 1-1-2011 minus 1-1-2010 und so weiter. Auf diese Weise kann der Zeitraum ab dem 1. Januar 2020 niedrigere Werte aufweisen. So sieht das Ergebnis aus:

Daten: NOAA

Im Jahr 2020 sind keine nennenswerten Abweichungen gegenüber den Vormonaten zu verzeichnen. Ich habe den Durchschnitt aller Daten mit einer dünnen braunen Linie angezeigt. Der Gipfel 2016 ist wahrscheinlich das Ergebnis des damals starken El Niño.

Schließlich habe ich das Wachstum des CO2-Gehalts zwischen dem 1. Januar und dem 1. Mai eines jeden Jahres von 2010 bis 2020 untersucht, um festzustellen, ob der Anstieg des CO2-Gehalts in diesem Zeitraum im Jahr 2020 von den 10 letzten Jahren abweichen würde:

Daten: NOAA

Auch hier sind für den Zeitraum vom 1. Januar 2020 bis 1. Mai 2020 im Vergleich zu den anderen Jahren keine spürbar niedrigeren Zahlen zu verzeichnen. Von den 11 gemessenen Jahren hatten 4 eine niedrigere Punktzahl als 2020 und 6 eine höhere Punktzahl. Das Wachstum von 2020 liegt immer noch 1,86 ppm über dem Durchschnitt von 1,79 ppm für den gesamten Zeitraum 2010-2020.

Schlussfolgerungen:

Der plötzliche starke Rückgang der Wirtschaftstätigkeit infolge der Koronakrise liefert einen unerwarteten Einblick in die Robustheit der Hypothese, auf der die Theorie der globalen Erwärmung basiert, nämlich dass 100% des Anstiegs des atmosphärischen CO2 seit der industriellen Revolution aus der menschlichen Nutzung fossiler Brennstoffe und der Zementherstellung stammt. Die Zahlen bis einschließlich Mai 2020 zeigen keine Auswirkungen des starken Rückgangs der globalen anthropogenen Emissionen von 17%. Das Fehlen einer Reaktion in den atmosphärischen CO2-Daten kann nicht das Ergebnis einer monatelangen „ Zeitverzögerung “ zwischen Emissionen und Messungen sein, da die Verzögerung von NOAA in mehreren Hemisphären auf einige Wochen geschätzt wird.

Ich bin von Natur aus sehr vorsichtig und halte auch jetzt andere Szenarien für möglich, aber diese Ergebnisse überraschen mich. Wenn in den kommenden Monaten keine merkliche Abnahme (oder auch Zunahme?) des CO2-Gehalts beobachtet wird, sollten wir uns diese Hypothese noch einmal genauer ansehen, ob die Zunahme des CO2-Gehalts ausschließlich auf menschliche Aktivitäten zurückzuführen sei.

Auf jeden Fall ist klar, dass ein Rückgang der CO2-Emissionen um bis zu 17% offenbar so wenig Einfluss auf die CO2-Konzentrationen in der Luft hatte, dass all diese ehrgeizigen teuren Pläne der Niederlande und der EU eines zeigen: Die Propaganda von „Verhindern Sie eine katastrophale Erwärmung durch Vermeidung von CO2“ gehört in den Müll. Denn am Ende dieser fragwürdigen CO2-Hypothese redet man uns diese schreckliche Erwärmung als böses Zukunftsbild ein.

Corona hat zu einem ungeplanten weltweiten Klimaexperiment geführt. Es muss noch viel Wasser in das Meer fließen, bevor Länder mit ehrgeizigen Klimaschutzplänen die CO2-Emissionen um etwa 17% senken können und diese 17% die atmosphärischen CO2-Konzentrationen reduzieren könnten.

https://klimaatgek.nl/wordpress/2020/06/05/co2-en-corona-deel-2-2/

Übersetzt durch Andreas Demmig




Klimahypothesen im aktuellen Diskurs

Die Vereinsziele des FWP (hier), sein Programm von 2019 und 2020 hier. Unter den bisherigen Rednern hatten  Prof. Werner Münch, Ministerpräsident a.D. Sachsen-Anhalt sowie Rainer Wieland, Vizepräsident des EU-Parlaments beim Publikum besonderes Interesse geweckt. Insbesondere der Vortrag von Prof. Werner Münch mit dem Titel „Sind Freiheit und Rechtsstaatlichkeit in unserer Demokratie gefährdet? – Eine kritische Bilanz“ als FWP-Video wird hier zum Anschauen empfohlen.

Ein Merkmal der FWP-Vorträge ist die relativ freie Zeitbegrenzung, Vorträge  bis zu einer Stunde und sogar etwas darüber hinaus sind üblich. Das hat Vor- und Nachteile. In unserer Zeit, in welcher Gründlichkeit oft der schnellen Information weichen muss, ist es wohltuend. Aber auch die Auffassung vieler Zuhörer, ein Vortrag könne über alles sprechen, nur nicht über eine 3/4 Stunde, hat natürlich etwas für sich.

Neben Wirtschaft und Politik kommen in den FWP-Veranstaltungen gleichgewichtig auch Technik und Naturwissenschaft zu Wort.  So hat beispielsweise im Januar 2020 Prof. Helmut Alt im FWP über „Energiewende zwischen Wunsch und Wirklichkeit“ gesprochen. Am 26.03.2020 war dann das hier besprochene „Klima – Hypothesen im aktuellen wissenschaftlichen Diskurs“ an der Reihe. Die Coronabeschränkungen machten dem Vortrag vor größerem Publikum einen Strich durch die Rechnung. Er wurde aber als Video aufgenommen, wobei nur der FW-Vorstand und einige Techniker – insgesamt etwa 15 Personen – als Zuschauer anwesend waren. Er ist nachfolgend in voller Länge gezeigt, eine kurze Einführung des FWP findet sich hier.

 
Da alle ppt-Folien im Video lediglich von der Kamera aufgenommen wurden, können in Einzelfällen Details undeutlich zu sehen sein. Daher sind hier ergänzend alle Folien des Vortrags als pdf zu sehen Klima_CO2_Ludwigshafen_Lü als pdf.

 




Die „Nationale Wasserstoffstrategie“ soll u.a. die Energiewende retten, die Mobilität über Wasserstoff betreiben: eine quantitative Energiebetrachtung zu einer Wasserstoff- Illusion

Die Energiewende kann ohne Stromspeicher nicht funktionieren.
Nun scheitert mit der ausgerufenen H2-Technologie auch die letzte Hoffnung auf eine Lösung der Stromspeicherproblematik.
Das bedeutet nicht nur das Ende der Energiewende, es steht für die E-Mobilität auch kein CO2-freier Strom zur Verfügung, von der Rohstoffversorgung (Lithium, Cobalt) und dem Recycling abgesehen.
Aber auch die Umstellung der Verbrenner auf H2-Technologie führt zu einem unerträglichen Energieverbrauch.
Dennoch werden die Ökoideologen gegen alle Realitäten ihre seit Jahrzehnten propagierten Weltuntergangsszenarien weiter predigen, obwohl der Einfluss von CO2 auf das Klima marginal ist (die 2% Deutschlands am weltweiten CO2-Ausstoss ohnehin).
Ein Umlenken wird es erst nach den ohne Stromspeicher zwangsläufig auftretenden Stromstillständen mit Toten geben (siehe Australien).

 

Fazit

a)Leistungsaufwand Strom zur Lösung des Stromspeicherproblems über Wasserstoff

Um die Stromspeicherproblematik bei der Stromerzeugung mit Wasserstoff zu lösen, muss in 4 Stufen (Stromerzeugung über Wind+Sonne (Überschussstrom) – H2O-Elektrolyse – H2-Speicherung – H2-Verbrennung mit Rückverstromung) mit einem Gesamtwirkungsgrad von 40% (bewusst optimistisch angesetzt) spätestens in 2038 neben der normalen Stromleistung von etwa 69 Gigawatt (GW) die Leistung um 59 GW auf 128 GW angehoben werden mit einer erforderlichen täglichen Stromerzeugung von im Mittel 1660+1416 = 3078 GWh/Tag,  in 2050 auf insgesamt 69+75 = 144 GW bei einer Stromerzeugung von insgesamt 3460 GWh/Tag.

b) Leistungsaufwand Strom für die Umstellung der Verbrennungsmotoren auf Wasserstoff einschließlich des dabei anfallenden Stromspeicherproblems

Für die Umstellung der Verbrennungsmotoren auf H2-Technologie in 2050 – wenn man sich nach a) dieser Mühe noch unterzieht – muss im ersten Schritt Wasserstoff in 3 Stufen (Stromherstellung aus Wind+Sonne – H2O-Elektrolyse – H2-Speicherung) mit einem Gesamtwirkungsgrad von 63% hergestellt werden.
Ausgehend von einer täglichen Leistung von 38 GW und einer äquivalenten Stromerzeugung von 913 GWh/Tag für das Betreiben der Verbrennungsmotoren in Deutschland errechnet sich dann unter Berücksichtigung des genannten Wirkungsgrades eine erforderliche Stromleistung von 60 GW bei einer Stromerzeugung von 1440 GWh/Tag.
Aber bei der Stromerzeugung über Wind+Sonne ist auch hier durch ihre Fluktuation eine Stromspeicherung erforderlich, d.h. es muss abermals das bereits zitierte 4-Stufen-Verfahren bis zur H2-Verbrennung mit Rückverstromung mit einem Wirkungsgrad von 40% angewandt werden.
Das erforderliche Speichervolumen errechnet sich zu 30 GW, multipliziert mit dem bekannten Wirkungsgrad von 40% ergibt eine Leistungsanforderung  von 75 GW mit einer Stromerzeugung in 2050 von 1800 GWh/Tag für die Lösung des Speicherproblems bei der Umstellung von Verbrennern auf H2-Technologie.
Alleine für die Umstellung von Verbrennungsmotoren auf H2-Technologie ist dann eine Stromleistung von insgesamt
60+75 = 135 GW bei einer Stromerzeugung von 1440+1800=3240 GWh/Tag erforderlich.

c)    Summe a)+b)

Insgesamt wäre dann für die Lösung der Speicherproblematik bei der Stromerzeugung sowie für die Umstellung der Verbrenner auf H2-Technologie in 2050
– eine Stromleistung von 144+135 = 279 GW sowie
– eine Stromerzeugung von 3460+ 3240 = 6700 GWh/Tag erforderlich

Fazit:  Ein Energie-Irrsinn ungeahnten Ausmaßes, obwohl die Wirkungsgrade optimistisch angesetzt wurden.
Wie schrieb das BMWi im Juni 2020: „Der Stoff hat das Zeug zu einem Hollywoodstreifen“.

  1. Einleitung und Aufgabenstellung

„In der Klimadebatte haben wir den Wandel von prominenten Wissenschaftlern zu Hohepriestern erlebt“ (Thea Dorn (1)) mit dem Ergebnis einer nicht funktionierenden Energiewende in Deutschland, da Wind und Sonne nicht gewillt sind, den erforderlichen Strom zu liefern.
Diese nicht funktionierende Energiewende sollte zunächst für eine Kugel Eis zu haben sein (Trittin), am Ende wiesen die letzten Kostenbetrachtungen Beträge von bis 6-7 Billionen € für die Sektorkopplung aus. (2-5)
Nun soll eine Wasserstoffstrategie her, u.a. um das ungelöste Problem der Energiewende – die Stromspeicherproblematik – zu lösen.
Insgesamt fördert der Bund die Wasserstofftechnologie über das neue Konjunkturprogramm mit 9 Milliarden €.
Ziele der neuen Wasserstofftechnologie sind u.a.:
1. Das Problem der Stromspeicherung zu lösen
2. Als Ersatz für fossile Gase
3. Wasserstoff soll in der Industrie, im Verkehr, in Gebäuden und in der Stromerzeugung genutzt werden mit dem Ziel der Klimaneutralität in 2050
4. Anstreben der Weltmarktführerschaft in der H2-Technologie

Bis 2030 sollen 5 GW als „grüne“ Strommenge (durch H2O-Elektrolyse mit Hilfe von Wind und Sonne – Überschussstrom) erzeugt werden. Insgesamt erwartet die Regierung bis 2030 einen Wasserstoffbedarf von bis zu 110 TWh. Eine fehlende Differenz soll entweder importiert oder aus „nicht grünem“ Quellen gewonnen werden wie „blauem“ Wasserstoff aus Erdgas und „türkisem“ Wasserstoff aus Methan.
Nun wird auch die EU aktiv. Bis 2030 sollen in ganz Europa 13-15 Milliarden € in die Herstellung von H2 investiert werden, außerdem 50-100 Milliarden in die entsprechenden Wind- und Solarkapazitäten. Ziel ist der flächendeckende Einsatz von Wasserstoff mit der Klimaneutralität in 2050.

Viele Studien des BDI, der Deutschen Akademie der Technikwissenschaften (Acatech) oder der Deutschen Energieagentur (Dena) kommen zu dem Ergebnis, dass Klimaneutralität in 2050 nur mit Wasserstoff erreicht werden kann.

In einer früheren Arbeit war herausgestellt worden, dass bis zum Kohleausstieg in 2038 bzw. der Klimaneutralität in 2050 weder die erforderliche Stromspeicherkapazität beigestellt noch die hohen stündlichen Stromschwankungen über Gaskraftwerke ausgeglichen werden können. (6)

Im Folgenden sollen daher quantitative Energiebetrachtungen durchgeführt werden
a) für die Lösung der Stromspeicherproblematik durch den Einsatz von Wasserstoff bis zur ausschließlichen Stromerzeugung über die alternativen Energien in 2050
b) für die Umstellung aller Verbrennungsmotoren auf die Wasserstofftechnologie bis zur ausschließlichen Stromerzeugung über die alternativen Energien in 2050.

Sicherheitsfragen zur Handhabung des Wasserstoffes durch den hohen Zündbereich, die hohe Flammgeschwindigkeit und die hohe Detonationskraft werden nicht behandelt.
Neben dem CO2-Ausstoß über Industrie, Gebäude, etc. sind die hier behandelten Sektoren Energiewirtschaft (Stromerzeugung) und Verkehr mit über 50% die höchsten CO2-Emittenten (Bild 1). (6)

Bild 1: Entwicklung der CO2-Emissionen nach Kategorien

Das nationale Treibhausminderungsziel von mindestens 65% bis 2030 (Beschluss am 03.07.2020) und das Bekenntnis der Bundesregierung auf dem UN-Klimagipfel vom Herbst 2019, Treibhausneutralität bis 2050 zu verfolgen, ist Ziel der begonnenen H2-Technologie.

  1. Berechnung des Energie- und Wasserstoffverbrauches für die Lösung des Stromspeicherproblems bis zur ausschließlichen Stromerzeugung über alternative Energien in 2050

Um den Wasserstoffverbrauch bis 2050 für die zwingend erforderliche Stromspeicherung berechnen zu können, wurde von den vorläufigen Verbrauchskennzahlen in 2019 nach AGEB ausgegangen und die mit fallender Stromerzeugung über Kohle und der erforderlichen zunehmenden Stromerzeugung über die alternativen Energien bis 2038 die Zunahme der notwendigen Stromspeicherkapazität errechnet – das gleiche gilt im zeitlichen Anschluss für die Herausnahme der fossilen Gase von 2038 bis 2050: Tafel 1; Bild 2. (vgl. auch (7))

Tafel 1

Dabei wird von einer gleichbleibenden Stromerzeugung von 606 TWh entsprechend 69,1 GW bis 2050 ausgegangen – einschließlich Exportüberschuss -, auch wenn weltweit bis 2040 von einer Steigerung des Energiebedarfes von 25% ausgegangen wird. Der Stromimportsaldo wurde nicht berücksichtigt.

Bild 2:  Stromerzeugungskapazitäten der verschiedenen Stromerzeuger 2019 bis 2050 (7)

In Bild 2 wird über den nicht fluktuierenden erneuerbaren Energien einschließlich der „Sonstigen“ zunächst die Stromerzeugungskapazität über Erdgas und Öl zuerst bis 2038 als konstant, um von 2038 bis 2050 im Sinne der ausgeglichenen CO2-Bilanz gegen Null angesetzt.

Darüber zeigt Bild 2 die Stromerzeugung über Kernkraft und Kohle, bis schließlich Wind und Sonne die in 2038 erforderliche Leistung (einschließlich der erforderlichen Stromspeicher) bis 69,1 GW abdecken, wobei gleichzeitig das Ausmaß der Fluktuation von Wind und Sonne sichtbar wird.
Für die Berechnung der zu installierenden Wind- und Solaranlagen wird von einem Nutzungsgrad von Wind+Sonne von 2019 ausgegangen: 17,6%.
Der Anteil der erneuerbaren Energien liegt in 2019 bei 38,8%.

Aus den Angaben zum Kohleausstieg ergibt sich ein Kapazitätsabbau der sicheren Stromerzeuger einschließlich der Herausnahme der Kernkraft  in 2022 wie folgt: KKW -8,1 GW, BKK -2,8 GW, SKK -1,3 GW (Linearität unterstellt), zusammen rd. 12 GW (Bild 2).
Für die Berechnung der Stromspeicherkapazität muss immer wieder herausgestellt werden, dass die mittlere Stromleistung von 69,1 GW nur aufrecht erhalten werden kann, wenn der oberhalb dieses Mittelwertes anfallende Strom aus Wind+Sonne gespeichert und bei Stromleistungen über Wind+Sonne unterhalb dieses Mittelwertes wieder eingespeist werden kann. (Bild 2)
So müssen z.B. in 2038 durch die fluktuierende Stromerzeugung über Wind+Sonne der zwischen 291 GW und 69,1 GW anfallende Strom in Stromspeichern gesammelt werden, um ihn bei nicht ausreichender Stromleistung zwischen 22 GW und 69,1 GW wieder einzuspeisen.
Die dann erforderliche Speicherleistung liegt dann nach Bild 2
– in 2038 bei    (69,1-22)/2 = 23,6 GW entsprechend 567 GWh/Tag bei einer täglichen Erzeugung von 1660 GWh
– in 2050 bei    (69.1-10)/2 =  30 GW entsprechend 720 GWh/Tag
– bei möglichen täglichen Spitzenleistungen von 80 GW sogar bei 35 GW (vgl. auch (7)).

Ein Ziel der H2-Technologie ist es, die ausgewiesene erforderliche Stromspeicherleistung über Wasserstoff dergestalt zu decken, dass der über der mittleren Stromleistung von 69,1 GW anfallende Strom aus Wind+Sonne (Überschussstrom) in Wasserstoff umgewandelt wird, um ihn dann wieder zur Deckung der noch ungelössten Speicherproblematik in Strom umzusetzen.

Nun sollen nach dem Konzept der „Nationalen Wasserstoffstrategie“ über die Herstellung von „grünem“ Strom aus Wind+Sonne die zitierten mittleren
–  23,6 GW  bzw. 567 GWh/Tag   in 2038  und
– 30 GW  bzw. 720 GWh/Tag    in 2050
über „grünen“ Wasserstoff nach der H2O-Elektrolyse abgedeckt werden.

Der Energieaufwand für die Wasserelektrolyse ist gewaltig.
Geht man von den thermodynamischen Daten der Wasserspaltung aus nach
H2O = H2+ 1/2 O2       -57810 kcal/kmol
errechnet sich für die Herstellung von einem Nm3 H2 ein Energieverbrauch von 3 KWh bzw. ein Energieverbrauch für
1 kg H2  von 33 KWh.
Da der energetische Wirkungsgrad der Wasserelektrolyse bei etwa 70% und niedriger liegt, kann bei positiver Betrachtung von einem Energieverbrauch für die Herstellung von
1 kg H2 von etwa 47 KWh
ausgegangen werden.

4-Stufen-Plan zur Erzeugung von H2 mit anschließender Verstromung für die Lösung des Speicherproblems

Der notwendige Verfahrensweg der Stromherstellung über Wind und Sonne (Überschussstrom) über die H2O-Elektrolyse, die H2-Speicherung  bis zur H2-Verbrennung mit Rückverstromung sieht wie folgt aus:

–  Stufe 1: Stromerzeugung über Wind und Sonne (aus Überschussstrom)
– Stufe 2: H2O-Elektrolyse mit Wirkungsgrad 70%
– Stufe 3: H2-Speicherung in einem Netz mit Verlusten von 10%. Im
Erdgasnetz sind nur etwa 10% H2 zulässig.
– Stufe 4: H2-Verbrennung mit Rückverstromung, Wirkungsgrad 60%

Damit sind die aus dem Schrifttum bekannten Wirkungsgrade bewusst günstig angesetzt.
Bei den angesetzten Wirkungsgraden ergeben sich folgende Verluste:

– Stufe 2:   33/0,7 = 47 KWh/kg H2
– Stufe 3:   1×0,9 = 0,9 kg H2. Bedeutung für Stufe 2: 47/0,9 = 52 KWh/kg H2
– Stufe 4:   52 KWh/kg H2/0,6 = 87 KWh/kg H2

Wirkungsgrad der Stufen 1-4 damit:   33/87 bzw. 40 %
Laut einer Studie der Ludwig- Bölkow-Systemtechnik liegt der Wirkungsgrad dieses Verfahrensweges  bei 30-40%.
Bei dieser Betrachtung wurde nicht berücksichtigt, dass bei den ständigen Schwankungen der Stromerzeugung über Wind+Sonne zwischen praktisch null GWh (nachts bei Windstille) und der Stromerzeugung nahe der installierten Leistung immer wieder Leistungen abgeregelt werden müssen.
Diese Aussage hat umso mehr Gewicht, weil bereits bei den Wind- und Solarerzeugungsverhältnissen in 2019 die stündlichen Stromschwankungen bereits Werte  bis +/- 8 GW annehmen, in 2038 sogar bis +/- 22 GW je Stunde, die zwangsläufig abgeregelt werden müssen. (vgl. (7))

Diese Verlustbetrachtungen für dieses 4-Stufen-Verfahren von 40% bedeuten für die Berechnung der Energieaufwendungen für die Lösung des Stromspeicherproblems (immer auf Mittelwerte bezogen):

  • in 2038: Zunahme von 567 GWh/Tag bzw. 23,6 GW auf 1418 GWh/Tag mit 59 GW
  • in 2050: Zunahme von 720 GWh/Tag bzw. 30 GW auf 1800 GWh/Tag mit 75 GW

Das bedeutet für die zu erbringende Leistung der Wind- und Solaranlagen (gleiches Verhältnis wie 2019 unterstellt):

– in 2038: Zunahme von 47,3 GW (Tafel 1) + 59 GW  = 109 GW
– in 2050: Zunahme von 58,3 GW (Tafel 1)  + 75 GW  = 133 GW       (Bild 3)

Damit steigt die zu erzeugende tägliche Strommenge in 2050 auf
1660 GWh/Tag  +  1800 GWh/ Tag   auf 3460 GWh/Tag  –
ein nicht zu überbietender Wasserstoff-Albtraum, ohne auf all die damit verknüpften Probleme (z.B. Stromnetz) eingehen zu wollen.

Der Plan der „H2-Strategie“ sieht vor, in 2030  5 GW „grünen“ Strom anzubieten. Aus Bild 2 wird deutlich, dass bereits in 2030 alleine eine Stromspeicherung über „grünen“ Wasserstoff von über 20 GW von Nöten wären zur Lösung des Speicherproblems.


Bild 3:
Aufzubringende Stromleistung über Wasserstoff zur Lösung des Speicherproblems bei der Stromerzeugung sowie der Umstellung der Verbrenner auf H2-Technologie.

 

  1. Berechnung des Energieverbrauches für die Umstellung von Verbrennungsmotoren auf Wasserstofftechnologie

Unterzieht man sich nach diesen Ausführungen dennoch der Mühe, eine quantitative Energiebetrachtung der Umstellung von Verbrennungsmotoren auf H2-Technologie anzustellen, so wird das Unternehmen H2-Technologie noch abenteuerlicher:
In einer früheren Arbeit (8) war die zu erbringende Stromerzeugung bei einer Umstellung von 45 Mio. Verbrennungsmotoren für PKW sowie diversen Nutzfahrzeugen und Bussen errechnet worden: 337 000 GWh/a bei einer gleichmäßigen Aufladung über 24 Stunden entsprechend 38 GW im Jahre 2050.
Der Hype der Umstellung von Verbrennungsmotoren auf E-Mobilität fußte auf der Vorstellung, dass
a) die Energiewende funktioniert und der Strom ausschließlich über regenerative Energien CO2-frei bei einem gelösten Speicherproblem hergestellt werden kann
b) die Anforderungen an den überhöhten Abbau des CO2-Ausstoßes über Verbrennungsmotoren je Flotte nur mit einem hohen Anteil an E-Autos erfüllt werden können.
Aber der Hype um die E-Mobilität lässt nach, da
a) CO2-freier Strom über die Energiewende ohne die genannten Stromspeicher nicht erzeugt werden kann
b) nach den zuletzt veröffentlichen Studien der „CO2-Rucksack“, der bei der Batterieherstellung anfällt, erst nach einer Fahrleistung von 219 000 km ein elektrisches Auto der Golfklasse ein entsprechendes Auto mit Dieselmotor im Hinblick auf seinen CO2-Ausstoß schlägt. Die durchschnittliche Lebenserwartung eines PKW liegt in Deutschland bei 180 000 km. (vgl. auch FAZ, 10.01.2020)
c) die Versorgung der Batterien mit Lithium, Cobalt, etc. einschließlich der Entsorgung der Batterien mit unübersehbaren Problemen behaftet ist.

Nun soll nach dem Konzept der „Nationalen Wasserstoffstrategie“ u.a. auch der Verkehr in die H2-Technologie einbezogen werden. Es gilt dann in 2050:

337 000 GWh/a    entsprechen 913 GWh/Tag (38 GW)

3-Stufen-Erzeugung von Wasserstoff für die Umstellung der Verbrenner auf Wasserstoff

Wie bereits in Kapitel 2 ausgeführt, müssen in den ersten 3 Stufen 52 KWh je kg H2 aufgebracht werden, was einem Wirkungsgrad von 33/52 bzw. 63% entspricht.
Das bedeutet, dass täglich anstelle von 913 GWh/Tag (38 GW)      1440 GWh/ Tag (60 GW) aufgebracht werden müssen. (Bild 3)

4-Stufen- Erzeugung von Wasserstoff für die Lösung des Speicherproblems bei der Umstellung von Verbrennern auf Wasserstoff

Bei der Stromerzeugung ausschließlich über Wind+Sonne  wird naturgemäß erneut durch die Fluktuation von Wind+Sonne eine Stromspeicherung erforderlich.
Da dieser Verfahrensschritt bis zur Rückverstromung des Wasserstoffes zum Ausgleich der Stromspeicher erfolgen muss, gilt auch hier die 4-Stufen- Erzeugung:
–  in 2050 müssen dann 60/2 = 30 GW gespeichert werden, für die
– 75 GW bereitgestellt werden müssen entsprechend einer Stromerzeugung von 1800 GWh/Tag  (Bild 3).

Damit ist in 2050 für die Umstellung der Verbrenner auf H2-Technologie ausschließlich über Wind+Sonne insgesamt folgende Leistung erforderlich:

  • H2-Technologie                                                            60 GW
  • Abdeckung Leistung für Stromspeicher               75 GW
                                                Summe                              135 GW

–    mit einer erforderlichen Stromerzeugung von 3240 GWh/Tag (Bild 3).

Insgesamt in 2050 erforderliche Installation an Wind -und Solaranlagen zur Lösung des Speicherproblems bei der Stromerzeugung und bei Umstellung der Verbrenner auf H2-Technologie

GW                 GW inst.                GWh/Tag

– Stromerzeugung
aus Wind+Sonne                  58,3(Tafel1)   331 (Tafel 1)           1400
– Stromspeicherung H2      75                    426                          1800
– Umstellung Verbrenner    60                    340                          1440
– Ausgleich Stromspeicher
bei Umstellung
auf Verbrenner                       75                    426                           1800

– Summe                                 268                1523                          6440

 

Aus 58,3 GW Stromleistung über Wind+Sonne in 2019 werden 268 GW in 2050 (Nutzungsgrad 17,6% – Kapitel 2), aus 331 GW zu installierende Wind-+Solaranlagen in 2019 werden 1523 GW, aus 1400 GWh/Tag werden 6440 GWh/Tag – ein Energie-Irrsinn.

Flächenbedarf

Die Installation von 1523 GW über Wind- und Solaranlagen erfordert die Belegung einer nicht unerheblichen Fläche.
Setzt man den Flächenbedarf einer 3 MW- Windanlage mit nur 0,1 km2 an und das Verhältnis von Wind- und Solarleistung mit 73:27 an (Tafel 1), so ergibt sich ein Flächenbedarf von
1523 x 0,73 x 0,1/3  = 37 000 km2,
ohne die Fläche der Solaranlagen, die mit 10 km2/ GW angegeben werden.
Die Fläche Deutschlands beträgt 357 000 km2, davon 182 000 km2 Landwirtschaft, 111 000 km2 Wald, 50 000 km2 Siedlung und Verkehrsfläche, etc.  – wo auch immer die Windräder stehen sollen.

 

  1. Schlussbetrachtung

Nicht unerwähnt soll die mögliche Weiterverarbeitung des Wasserstoffes zu Methan nach dem Power-to-Gas-Verfahren bleiben, den sog. E-Fuels. Schließlich läge der Vorteil in der Nutzung der bestehenden Infrastruktur (Fahrzeuge, Tankstellen, Erdgasnetz, etc.).
Der unüberbrückbare Nachteil dieses Verfahrens liegt jedoch bei einem hoffnungslosen Wirkungsgrad in der Größenordnung von deutlich unter 30%.
Hinzu kommt, dass bei der bisherigen Betrachtung von durchschnittlichen täglichen Kennzahlen in 2019 bzw. in 2050 ausgegangen wird. Es können jedoch im Winter sog. Windflauten von z.B. 14 Tagen auftreten, in denen praktisch weder Wind noch Sonne Strom erzeugen können.
Um derartige Zeiträume zu überbrücken, müssten gigantische Kapazitäten an H2-Speichern geschaffen werden mit gigantischen Verlusten und Kosten.
Im Übrigen gelten die hier durchgeführten Betrachtungen nur für die Sektoren Stromerzeugung und Verkehr, die nur für etwas mehr als 50% des CO2-Ausstosses verantwortlich zeichnen. (vgl. Bild 1)
Nun hat das Kabinett zusammen mit der Industrie am 15.07.2020 das „Handlungskonzept Stahl“ beschlossen, die Herstellung von „grünem“ Stahl.
Die Stahlkocher stehen für ein Drittel aller Treibhausgasemissionen der deutschen Industrie.
Nun sollen die Anlagen für die Stahlerzeugung von Kokskohle auf CO2-frei produzierten Wasserstoff umgerüstet werden, also auf „grünen“ Wasserstoff.
Industrievertreter veranschlagen Investitionen von 30 Milliarden €, davon 10 Milliarden € bis 2020.
Für die Umstellung auf „grünen“ Stahl ebenso wie die Umstellung der Chemieindustrie , etc. auf eine „grüne“ Produktion sind große Bedenken für die aufzubringende Energie angebracht. Der hier optimistisch angesetzte Wirkungsgrad von 63% für die Herstellung des Wasserstoffes bzw. der Energieverlust von mindestens 37% stellt gemessen am Einsatz des Kohlenstoffes vor allem im Stahlbereich eine hoffnungslose Belastung dar, von den verfahrenstechnischen Schwierigkeiten abgesehen.
Im Übrigen schätzt der Branchenverband VCI, dass sich der Strombedarf der chemischen Industrie von Mitte der 2030er Jahre an auf 628 Terawattstunden mehr als verzehnfachen würde, das wäre mehr als die gesamte Stromproduktion in Deutschland im Jahre 2018 (9), ein weiteres hoffnungsloses Unterfangen für den Ausbau der alternativen Energien oder gar die Wasserstofftechnologie.

Nun scheitert der letzte Anker zur Rettung der Energiewende durch die ausgerufene H2-Strategie hoffnungslos.
Summiert man all die deutschen ideologischen Vorstellungen der letzten Jahrjahrzehnte wie die Vorstellung vom Weltuntergang durch höhere CO2-Gehalte in der Atmosphäre, die daraus resultierende, auf der Welt einzigartige Energiewende bis hin zur Rettung der Energiewende durch die nun ausgerufene H2-Strategie, so scheint der letzte Schritt für das Ende der Erfolgsgeschichte der deutschen Industrie nun eingeläutet zu sein.
Schließlich werden Realitäten in Deutschland durch eine weitgehende grün-rote Ideologie in fast allen Parteien verdrängt, unterstützt von den Nutznießern dieser ideologischen Vorstellungen bis hin zu den Klimawissenschaftlern, die zu diesem geistigen Fundament massiv beigetragen haben.
Die deutsche Intelligenz schaut ohne Gegenwehr zu, wie Ökoideologen mit jahrelanger Propaganda den Weltuntergang durch CO2 zur Meinungshoheit hochstilisiert haben, was letztlich in dem hier beschriebenen Energie- Irrsinn mündete.
Wie schrieb kürzlich Frau Thea Dorn (1) über diese Klimawissenschaftler: „ Nicht predigen sollt ihr, sondern forschen“.

  1. Quellen
    „Zeit“, 24/2020
    2. Düsseldorfer Institut für Wettbewerbsökonomik: vgl. M. Limburg: EIKE, 10.10.2016
    3. Wissenschaftsakademien Leopoldina, Acatech und Union. FAZ 15.11.2017
    4. Wissenschaftsakademien Leopoldina, Acatech und Union: Rechnungen zur Sektorkopplung
    5. Beppler, E.: „Bevor der Planet kollabiert, versinkt Deutschland in Stromausfällen“, EIKE,23.08.2019
    6. Umweltbundesamt
    7. Beppler, E.: „Der industrielle Niedergang Deutschlands wird nun durch den Beschluss des Bundestages zum Kohleausstieg besiegelt, obwohl die Wirkung von CO2 auf den sog. Treibhauseffekt marginal ist“; EIKE,26.03.2020
    8. Beppler, E.: „Der Kohleausstieg ist im Sinne einer Absenkung des CO2-Ausstosses ein Flop – und nun wird auch noch der Hype um die E-Mobilität zum Flop – quo vadis Industrieland Deutschland“; EIKE, 06.05.2019
    9. FAZ, 21.07.2020



Strom-Wasserstoff­umwandlung macht u.a. dann Sinn, wenn es darum geht, sehr teuren Strom zu erzeugen …

Nach 20 Jahren EEG fällt unserer Politik eine Lösung ein, die allerdings erst noch entwickelt werden muss

Deutschland fährt mit dem EEG sein Stromversorgungssystem erkennbar konsequent an die Wand. Die Abschaltung der Grundlastkraftwerke ist beschlossen, wie solche dann aber bereitgestellt werden soll, ist nicht bekannt. Man erkennt, dass die von der (angeblichen) „Energiefachfrau“ C. Kemfert propagierte Lösung: Wir brauchen gar keine Grundlast, denn „intelligente Netze“ lösen das Problem, zwar hilft, die „Intelligenz“ aber darin besteht: Ist kein Strom da, gibt es eben auch keinen. Und wer dann doch einen will, hat dafür hohe Kosten zu bezahlen, besser, den benötigten vorsorglich selbst zu speichern. Richtig „intelligent“ wird dann nur die konsequente Auflistung und Abrechnung der Zusatzkosten.

Irgendwie scheint man das den Bürgern (noch) nicht als die grandiose Lösung (un)intelligenter Politik zumuten zu wollen. Dafür gibt es doch noch zu viele nicht-GRÜN Wähler.
Obwohl unsere Versorger kein Problem damit haben, diese „intelligente“ Mangelverwaltung ihren Kunden als Zukunftslösung bereits anzupreisen und Vertriebsfirmen dazu gründen:
EIKE 18.05.2017: [13]Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern

Könnte die ehemalige DDR das Strategie-Vorbild sein?

Nun haben solche, auf stetigem Mangel basierenden Versorgungsmodelle in der ehemaligen DDR gut funktioniert, zumindest bis zu dem Zeitpunkt, als es zu vielen Bürgern dann doch „auf den Keks“ ging. Das lag aber nach heutiger Lesart nicht am Lösungssystem, sondern an der damals noch fehlenden „Intelligenz“. „Intelligent“ Mangel zu haben, ist deshalb die politisch gewollte Zukunftslösung.
Unsere unfehlbare Kanzlerin wurde in und mit einem solchen System sozialisiert. Ein Gedanke drängt sich deshalb auf: Hat sie das Ziel, nun ganz Deutschland in solche – für sie aufgrund ihrer dortigen Sozialisierung „heimelige“ – Verhältnisse zu bringen?

Herr Thomas Kreuzer von der CSU erzählte es etwas höflicher ausgedrückt im BR24 Sonntagsgespräch [8] [9]. „Kompetent“, wie unsere Politiker heutzutage durchgängig sind, konnte er allerdings einige der gelisteten Probleme verneinen, weil er die sicher greifende Lösung wusste: Man muss nur noch die erforderliche Technik entwickeln:
Thomas Kreuzer: [8]Wir müssen also … die Maßnahmen so wählen, dass wir Erfolg haben, und dies ist meines Erachtens nur durch einen Durchbruch in der Technik möglich. Und wenn es nicht gelingt, Energie zu speichern, was wir im Moment nicht können … zum Beispiel mit Wasserstoff, dann wird es ganz, ganz schwierig, die Ziele zu erreichen …

Eine seit über 30 Jahren nicht in die Gänge gekommene Technologie wird es nun richten

Nun ist die Wasserstofftechnologie schon „uralt“ und an der Brennstoffzellentechnologie wird seit mindestens 30 Jahren entwickelt. Und diese letzten Dreißig Jahre hat es erkennbar keinen Durchbruch gegeben.

Geradezu ein Veteran ist dieser Technologie ist die Firma Ballard Power. Auch damals geschah etwas Ähnliches – und scheiterte gnadenlos. Der Aktienkurs erzählt lückenlos diese Geschichte, deren Wiederholung nun ansteht:

Bild 1 Kurs Ballard Power seit Beginn des ersten Brennstoffzellenbooms Ende des letzten Jahrhunderts

Aber Politiker wissen inzwischen: Probleme liegen grundsätzlich nur daran, dass nicht genügend Geld ausgegeben wurde.
Also wurde der sichere Kardinalfehler behoben und den Versprechern der endlich richtigen Lösung Geld in Hülle und Fülle locker gemacht.

Damit soll die doch plausible Rechnung gelingen: Wenn eine weibliche Person 9 Monate benötigt, um ein Kind zu gebären, brauchen 9 weibliche Personen nur noch einen Monat (genau das umzusetzen, probiert die EU schon mal unter der Ärztin v. d. Leyen mit ihrer Corona-Impfstoffkampagne). Bei der Wasserstoffstrategie hat diese einfache Divisionsrechnung noch einen zusätzlichen Haken: Das verfügbare (Technologie-)„Sperma“ weist unglaubliche Mängel auf, die – um es mit einem Vergleich zu sagen – mit Sicherheit zu einer Problemschwangerschaft und Geburt eines*r stark bis schwerst-Behinderten führen.

Aiwanger präsentiert eierlegende Wollmilchsau [6]

In einem Video informierte Wirtschaftsminister Aiwanger in seiner unnachahmlichen Art und niederbayerischen Präzision über die neue, bayerische Wasserstoffstrategie:
H. Aiwanger ab 00:44: Russland würde uns Wasserstoff in beliebigen Mengen zu günstigen Preisen liefern können. Wir denken an Nordafrika. Es kann Marokko sein. Und es sind große, internationale Herkünfte von Australien bis Chile in der Debatte.

Bild 2 BR24 Video vom 29.05.2020, Vorstellung der Bayerischen Wasserstoffstrategie. YouTube Link

Während sonst alles Mögliche nun verstärkt lokal erzeugt werden soll, bis herunter zur Virus-Schutzmaske, ist es nun besonders strategisch, mit das Wichtigste, was ein Technologieland benötigt: Seine Energie, auszulagern und rund um die Welt – mit Schwerpunkt Afrika (lt. Entwicklungsminister Müller) – einzukaufen und dazu über weiteste Strecken zu transportieren.

Natürlich macht Bayern eine solch geradezu idiotische Strategie (rein persönliche, unbelegte Meinung des Autors, die niemand teilen muss) nicht alleine.
Im Kern ist es ein Strategiethema des Bundes. Und dort sind diesmal nicht nur die Vorreiter (besonders höflich ausgedrückt) an selten(st) erkennbarer Kompetenz aber absoluter, bedingungsloser Merkelhörigkeit, Frau S. Schulze und P. Altmaier beteiligt, auch unser sonst eher glücklose CSU-Entwicklungsminister ist dabei. Und wenn Herr Dr. Müller eine seiner ausgefeilten Strategien angekündigt hat, kommt immer irgendwann in irgendeiner Zukunft der sichere Durchbruch. Zumindest das Geld dafür ist mit Sicherheit ausgegeben (und oft in erheblichem Maß auf speziellen Konten gelandet).
IWR.de 10.06.2020: [10] Bundesregierung verabschiedet Nationale Wasserstoffstrategie
Berlin – Das Bundeskabinett hat heute (10.06.2020) die lange erwartete Nationale Wasserstoffstrategie beschlossen. Wasserstoff soll künftig entscheidend zur Dekarbonisierung wichtiger deutscher Industriebranchen sowie des Verkehrssektors beitragen.
… Die jetzt verabschiedete Wasserstoffstrategie soll nach dem Wunsch der Bundesregierung die Weichen dafür stellen, dass Deutschland bei Wasserstofftechnologien die Nummer 1 in der Welt wird. Dazu sollen die Potenziale für Wertschöpfung, Beschäftigung und den Klimaschutz möglichst schnell erschlossen und genutzt werden. „Denn Wasserstoff wird ein Schlüsselrohstoff für eine erfolgreiche Energiewende sein“, so Bundeswirtschaftsminister Peter Altmaier nach dem Kabinettsbeschluss. Er werde als Energieträger der Zukunft sowohl in Deutschland als auch weltweit einen wichtigen Beitrag zur Erreichung der Klimaziele leisten. Dabei wolle Deutschland eine Vorreiterrolle einnehmen, wie vor 20 Jahren bei erneuerbarer Energien.
… „Grüner Wasserstoff und seine Folgeprodukte wie Methanol können das saubere Öl von morgen werden“, so die Einschätzung von Bundesentwicklungsminister Dr. Gerd Müller. Müller betont, dass in diesem Zusammenhang vor allem Länder in Nordafrika aufgrund des hohen Solarpotenzials als geeignete Produktionsstandorte für grünen Wasserstoff in Frage kommen. Gemeinsam mit Marokko werde jetzt die erste industrielle Anlage für Grünen Wasserstoff in Afrika entwickelt. „Damit schaffen wir dort Arbeitsplätze für die vielen jungen Menschen, stärken die Technologieführerschaft in Deutschland und helfen, die internationalen Klimaziele wirksam zu erreichen“, so Müller weiter.

Tritt Wirtschaftsminister Aiwanger in die Fußstapfen von F. J. Strauß und Bayern wird ein weltweiter Technologieführer?

Manche können sich noch erinnern: Der ehemalige, Bayerische Ministerpräsident F. J. Strauß machte aus einem bettelarmen Agrarstaat durch Konzentration auf die damals völlig neuen Technologien Elektronik (und moderne Militärtechnik) ein Erfolgsmodell, das man heute (noch) sehen und auch (noch) vorzeigen kann. Dies gelang ihm damals auch, weil die reichen Montanländer viel zu „satt“ und stolz waren, sich für solche Technologie zu interessieren.

Scheinbar besteht eine solche Konstellation heute wieder im Land. Tesla baut seine alles andere vernichtende Innovation Elektroauto im Osten und die parallel laufende Solarstrategie wird bald flächendeckend viele Handwerksbetriebe und Installateure beschäftigen … Da hat niemand mehr Zeit und Ressourcen für Wasserstoff.

Eine geradezu ideale – in der Geschichte so seltene Gelegenheit – für Wirtschaftsminister Aiwanger, in einem zum Beispiel wegen der Autokrise derzeit und vielleicht noch viel länger stark unterbeschäftigtem Land das Steuer herumzureißen und damit in die Fußstapfen des geradezu legendären F. J. Strauß zu treten, also Bayerns Geschichte „mit zu schreiben“ …

Made in Bavaria soll zum Wasserstoff-Gütesiegel werden

Wenn Aiwanger informiert, ist „Kompetenz“ spürbar, zumindest, so lange er buchstabengetreu vom Blatt abliest, was er allerdings oft vergisst. Erkennbar hat er Redenschreiber*innen, die gut fabulieren können:
[5] Bayerns Wirtschafts- und Energieminister Hubert Aiwanger hat die Bayerische Wasserstoffstrategie vorgestellt. Danach will sich der Freistaat zu einem weltweiten H2-Technologieführer entwickeln.
Aiwanger: „Made in Bavaria soll zum Wasserstoff-Gütesiegel werden. Mit unseren hervorragenden Forschern und den innovativen Tech-Unternehmen werden wir eine Wasserstoffwirtschaft entwickeln, die den Hightech-Standort Bayern stärkt, Arbeitsplätze schafft und nicht zuletzt auch den Transformationsprozess der bayerischen Fahrzeug- und Zulieferindustrie unterstützt.“

Wasserstoff (H2) und bayerische Innovationskraft sollen im Verbund Wohlstand sichern und zugleich den Ausstieg aus der Nutzung fossiler Energieträger voranbringen. Angestrebt werde dabei eine Arbeitsteilung zwischen dem Technologieland Bayern und Regionen, die grünen Wasserstoff produzieren. „Wir wollen die weltweit führenden Wasserstofftechnologien entwickeln. Unsere künftigen Partner nutzen dann unsere Innovationen dank nahezu unbegrenzt verfügbarer erneuerbarer Energien wie Sonne und Wind für die Erzeugung, den Transport sowie die Verwendung von grünem Wasserstoff“, erläuterte Aiwanger.

Zur Marktaktivierung wird die Staatsregierung zudem kombiniert Elektrolyseanlagen und Brennstoffzellenfahrzeuge wie Busse und Nutzfahrzeuge/Lkw fördern. Damit sollen vor allem neue Wertschöpfungsmöglichkeiten für Tankstellen-Standorte in der breiten Fläche geschaffen werden: an kommunalen Betriebshöfen, bei Stadtwerken, für Fuhrpark- und Omnibusunternehmen. Zudem soll 2021 die weltweit erste LOHC-Tankstelle in Erlangen den Betrieb aufnehmen. Noch in diesem Jahr wird erstmals innovative bayerische Brennstoffzellen-Technologie in einem umgebauten Lkw-Prototypen auf Bayerns Straßen fahren.

Wasserstoff aus Elektrolyse: Was schrieben Fachpersonen, bevor unsere Politik die Lösung vorschrieb?

Es lohnt, Publikationen zu lesen, die verfasst wurden, als Fachpersonen noch Fachwissen und nicht politische Vorgabenerfüllungen publizierten:

Univ.-Prof. Dr.-Ing. Martin Doppelbauer, Karlsruher Institut für Technologie: [7] Strategiepapier elektrische Pkws – aktueller Stand und zukünftige Entwicklung
Wasserstoff ist ein höchst flüchtiges Gas mit einer geringen volumetrischen Energiedichte. Daher muss man zum Transport und zur Lagerung entweder auf extrem tiefe Temperaturen (-255 °C – fast wie im Weltraum) oder auf extrem hohe Drücke (700 bis 1000 bar – wie am Meeresgrund des Marianen Grabens) ausweichen. Die dazu erforderliche Anlagentechnik ist unvermeidlich aufwändig und somit teuer. Außerdem sind die Wirkungsgrade grundsätzlich schlecht, weil viel Energie zur Erzeugung dieser extremen Bedingungen benötigt wird. Da diese Zusammenhänge physikalisch bedingt sind, ändert sich daran auch in ferner Zukunft und auch mit beliebig hohem Forschungsaufwand gar nichts.

Das bedeutet ganz konkret: Für eine Umstellung des Pkw-Verkehrs auf Wasserstoff müssten wir die gesamte heutige Infrastruktur für Lagerung, Verteilung und Verkauf komplett neu bauen. Und zwar wegen der geringeren Energiedichte nahezu doppelt so groß, also doppelt so viele Tankschiffe, doppelt so große Zwischenlager, doppelt so viele Tank-Lkws und doppelt so viele Bodentanks in den Tankstellen. Außerdem müssen wir alles in Kryotechnik für Temperaturen nahe am absoluten Nullpunkt bauen, wodurch die Kosten noch einmal in etwa verdoppelt.
Und dann brauchen wir auch noch die Produktionsanlagen: Für die Erzeugung des Stroms, für die Elektrolyse und für die Verflüssigung.
Eine gasförmige Verteilung von Wasserstoff im Großmaßstab, das heißt für hunderttausende oder gar Millionen von Pkws, ist vollkommen unmöglich. Die technisch erreichbare volumetrische Energiedichte von gasförmigem Wasserstoff ist nochmals um knapp eine Größenordnung (Faktor 10) niedriger als die von flüssigem Wasserstoff. Dementsprechend würden die Aufwendungen für die Infrastruktur ins Unermessliche steigen.
Bedingt durch die schlechte Wirkungsgradkette, ausgehend vom Off-Shore Windpark bis zum Elektromotor im Auto einschließlich flüssiger Verteilung und Hochdruckbetankung, ist der Bedarf an Primärenergie für die Erzeugung von Wasserstoff für Brennstoffzellen in Pkws rund 5- bis 6-fach höher als bei Batteriefahrzeugen.

… Es ist leicht abzuschätzen, dass der Strombedarf für den Wasserstoffbetrieb aller 47 Mio. Pkws in Deutschland rund 1,5-fach größer ist als die gesamte heutige Stromproduktion. Daher müssten wir die derzeitig erzeugte Menge an Strom also mehr als verdoppeln. Gleichzeitig wollen wir auch noch alle Kern- und Kohlekraftwerke abschalten und durch regenerative Stromerzeugung ersetzen – wie soll das gehen? Die Kosten für den Aufbau einer Infrastruktur für die Erzeugung und Verteilung von flüssigem Wasserstoff sind schier unvorstellbar und betragen alleine für Deutschland über hundert Milliarden Euros. Genaue Zahlen sind unbekannt und nicht seriös anzugeben, da die erforderlichen Einrichtungen noch niemals in einer entsprechenden Größe und Menge gebaut wurden.

… Die Ladegeschwindigkeit von FCEVs (Wasserstoffautos) ist unbestritten schneller als die von BEVs (Elektroautos) – rund 10 Minuten für einen vollen Tank mit 400 bis 600 km WLTP Reichweite, je nach Fahrzeug. Das bedeutet aber, dass man wie früher neben dem Fahrzeug wartet und keine Zeit für eine Pause hat. Anschließend muss die Tankstelle einen internen Höchstdruckspeicher mit 900 bis 1000 bar nachfüllen, so dass für rund eine halbe Stunde kein weiteres Fahrzeug bedient werden kann (oder nur mit wesentlich langsamerer Füllgeschwindigkeit). Die Kosten einer Wasserstofftankstelle sind übrigens astronomisch hoch und übertreffen die Kosten einer Schnellladesäule um mehr als eine Größenordnung.

Herstellungsaufwand und Preise Die Herstellung von Brennstoffzellen-Pkws ist gegenüber heutigen Verbrennerfahrzeugen (ICE = Internal Combustion Engine) deutlich aufwändiger. Das resultiert zum einen aus den größeren Fahrzeugabmessungen und zum zweiten aus den vielfältigen Nebenaggregaten, die zum Betrieb eines Brennstoffzellenstacks erforderlich sind.44 Daraus ergeben sich nicht nur höhere Anschaffungspreise, sondern auch höhere Wartungs- und Reparaturkosten sowie eine kürzere Lebensdauer

Um es einmal ganz deutlich zu sagen: Brennstoffzellen-Pkws sind technisch, ökonomisch und letztlich auch ökologisch ein Unsinn. Ebenso unsinnig ist der Aufbau einer Pkw-Tankstelleninfrastruktur für Wasserstoff. Das alles dient einzig den kommerziellen Interessen einiger großer Wasserstoff- und Erdölkonzerne und ist eine Verschwendung von Steuergeldern. Ich gebe dem Thema Wasserstoff für die Zukunft von Pkws keinerlei Chancen gegenüber Batteriespeichern. Wir täten gut daran, nicht auf eine veraltete und aus grundsätzlichen physikalisch/chemischen Gründen unterlegene Technik zu setzen, denn das bringt den Industriestandort Deutschland in Gefahr.

Dr.-Ing. Hartmut Euler, Ministerialdirigent, Abteilungsleiter für Technologie im schleswig-holsteinischen Wirtschaftsministerium (Auszüge): [2] Wasserstoff aus Strom oder „power to gas“ – der verlustreiche, teure und unnötige Weg

Wasserstoff aus Strom oder „power to gas“ also die Umwandlung von hochwertigem Strom in die einfachen Brennstoffe Wasserstoff und/oder Methan führt aus prinzipiellen naturwissenschaftlichen Gründen, die mit dem 2. Hauptsatz der Thermodynamik zusammenhängen (Wertigkeit der Energie und Energieentwertung) immer zu Verlusten von in der Praxis 2/3 bis 3/4 des Energiegehalts des Stroms. Bei der Rückverstromung werden also in der Regel nur 1/4 bis maximal 1/3 des eingesetzten Stroms, also des gleichen Produkts, zurückgewonnen….

In einem konkreten Versuch der Universität Kiel in Büsum im Jahr 2003 gingen sogar zwischen 85 % bis 87 %, also mehr als 5/6 des eingesetzten Stroms ungenutzt verloren, nur 13 % bzw. 15 % des eingesetzten Stroms konnten wiedergewonnen werden [1]. Die Energieverluste von 2/3 bis 3/4 bleiben auch dann bestehen, wenn nicht rückverstromt wird. Auch in anderen Anwendungsbereichen wie im Verkehr ergibt sich, dass eine Strom-Wasserstofflokomotive 3-5 mal mehr Energie verbrauchen würde, als eine Elektro oder Diesellokomotive, Strom-Wasserstoffautos benötigen 3-4 mal mehr Energie als Elektroautos und „normale“ Autos. Beim Einsatz in der Industrie verhalten sich die Relationen in der Regel nicht anders.

Betrachtet man die Verluste isoliert, so sind diese Verluste beim Strom-Wasserstoffweg mehr als 30 mal höher als bei effizienten Speichern. Diese Verluste müssen durch zusätzlichen Strom und durch zusätzliche Stromerzeugungsanlagen ausgeglichen werden. Dieser zumeist nicht betrachtete Aspekt macht den „Wasserstoff aus Strom“- Weg nicht nur extrem verlustreich, sondern auch extrem teuer.

Aus all diesen Gründen trägt in einer der „Leituntersuchungen“ zur Energiewende der Bundesregierung, der Studie „Wege zu 100 % erneuerbarer Stromversorgung“ des Sachverständigenrats für Umweltfragen, Wasserstoff als Speicher überhaupt nicht, nicht in einer Stunde des Jahres zur Systemoptimierung bei. Strom-Wasserstoff und „power to gas“ spielt also in dem wissenschaftlich begründeten Konzept der Energiewende als Problemlösung gar keine Rolle

Ein Wasserstoff – Feldversuch mit allem dazu gehörigem Equipment – vom Elektrolyseur bis zum Wasserstoffmotor – wurde vor 10 (Anmerkung: Beendet ungefähr im Jahr 2003) Jahren vom schleswig-holsteinischen Wirtschaftsministerium in einem Projekt beim Forschungs- und Technologiezentrum Westküste der Universität Kiel in Büsum gefördert.
Im zusammenfassenden Bericht heißt es:
„Man kann aus den Werten nun den Wirkungsgrad aus unseren Versuchen berechnen. Betrachtet man die Wasserstoffgasspeicherung bei 15 bar, kommt man auf einen Wert von 15 %, geht man über die Speicherung bei 200 bar, so ergeben unsere Versuche 13 % Stromausbeute des ursprünglich in den Elektrolyseur eingespeisten Stromes“ (Anmerkung:[1]) 13 – 15 % des dem Netz entnommenen Stroms konnten zurückgespeist werden; 85 % bzw. 87 % des Stroms gingen bei der Umwandlung von Strom in Wasserstoff und Rückumwandlung in Strom in dem konkreten Versuch zu Wind-Wasserstoff 2003 am FTZ in Büsum verloren. An dem Versuch waren immerhin bedeutende Fachfirmen wie Norsk Hydro und Jenbacher beteiligt.

Seit 2012 existiert eine Skizze für ein konkretes Wasserstoff-Speicher-Projekt in Schleswig-Holstein, das mit positiven Argumenten „klimaschonend und effizient“ begleitet wurde. Bei Licht betrachtet ist jedoch das Gegenteil der Fall.
Folgende Daten: Es wird unter Einsatz von einer Beladeenergie von 35 GWh Strom aus dem Stromnetz (hier sei 100 % Windenergie unterstellt) in eine vorhandene Kaverne gepresst, was bei Berücksichtigung der Verluste in die Ein-/und Ausspeisung aus der Kaverne 17 GWh ausspeicherbaren Energiegehalt in Form von Wasserstoff ergibt. (GWh Gigawattstunde = 1 Mio. kWh) Eine überschlägige Rechnung ergibt hieraus folgende Bilanz: a. Speicherwirkungsgrad: die angegebene Beladeenergie von 35 GWh Strom entspricht dem Jahresertrag von etwa 5 Windkraftanlagen mit 3 MW bei 2300 Vollbenutzungsstunden – wird in 17 GWh ausspeicherbarem Energiegehalt in Form von Wasserstoff umgewandelt (Wirkungsgrad wegen der Einpressverluste in die Erde nur ca. 50 % statt der oben angegebenen 80 %) Hieraus kann man mit einem Motor / einer Brennstoffzelle bei realistischen 40 % Wirkungsgrad etwa 6,7 GWh, (ca. 1/5 der Ausgangsmenge) bei sehr optimistischen 50 % etwa 8,5 GWh Strom (ca. 1/4 der Ausgangsmenge) wiedergewinnen.
Der Strom von etwa 4 der 5 Windkraftanlagen geht ungenutzt, vollständig und unwiederbringlich verloren; die Anlagen kosten aber Geld und benötigen Fläche.

Die Wasserstoffwirtschaft ist ein weiteres, totgeborenes Kind. Stoppt die Ideologen!

steht in der folgenden Stellungnahme [4] Dr. Geisenheiner at al. 25.03.2020 (Auszüge): Fachliche Stellungnahme Wasserstoffwirtschaft
Energieverschwendung pur!
Die Wasserstoffwirtschaft schafft dabei mehr Probleme als sie löst. Die Energieeffizienz für die Nutzung bei Fahrzeugen und bei Wärme ist katastrophal schlecht. Das würde exorbitante Stromerzeugung erfordern. Die Energiewende im Sektor Verkehr ist schon nicht mit der Batterie-basierten E-Mobilität zu schaffen. Mit der Wasserstoffwirtschaft, die sehr viel schlechtere Wirkungsgrade aufweist,
Der rechnerisch nötige Ausbau der VEE für die Dekarbonisierung mit Sektorkopplung auf mehr als das 15-fache ist wegen des Flächenbedarfs, der Umweltschäden und der gewaltigen Kosten nicht möglich. Die Bürgerinitiativen, unterstützt vom Groll der Betroffenen, werden sich zusätzlich dagegenstellen.

Das kann keiner bezahlen
Die Kostendimension einer Wasserstoffwirtschaft führt nach einer groben Abschätzung zu 0,22€/kWh für die Anwendung Heizen 2. Das ist rund 5-fach teurer als der heutige Erdgaspreis.
Eine ähnliche Situation ergibt sich im Transportsektor. Hier sind die H 2-Treibstoffkosten auch 5-fach teurer, als mit heutigen Kraftstoffen. Eine Steuerbefreiung kann für den Endkunden die Kosten etwas mildern, es bleiben dann aber die Einnahmeverluste der Steuer, die auf anderem Wege zu kompensieren sind. Der Ansatz Wasserstoff über VEE zu erzeugen und so CO2-Ausstoß einzusparen, ist
Technischer und ökonomischer Unsinn. Konzeptloser Aktionismus
Dauernd gibt es neue Ideen, die grundsätzliche Mängel der Energiewende beheben sollen, ohne dass dies mit ihren Folgeauswirkungen im Rahmen eines ganzheitlichen Konzepts durchdacht und quantifiziert wurde. Die erneute Idee einer großkalibrigen Wasserstoffwirtschaft als Komponente der Energiewende wird der Industrienation Deutschland schwersten Schaden zufügen.
Die Wasserstoffwirtschaft ist ein weiteres, totgeborenes Kind. Stoppt die Ideologen!

Das Öko-Institut e.V. schrieb dazu: [3] … Falls sich die Stromkosten auf 0 € / MWh reduzieren sollten, verringern sich die Erzeugungskosten für Wasserstoff auf 29 € / MWh und die Kosten für synthetisches Methan auf 70 € / MWh.
Bedingt durch die hohen Wirkungsgradverluste und die hohen Kapitalkosten sind die Kosten für Elektrolysewasserstoff fast dreimal höher als der aktuelle Preis für Erdgas. Die Kosten für synthetisches Methan liegen nahezu um den Faktor 4,5 höher als die aktuellen Kosten von Erdgas
… In den nächsten zwanzig Jahren zeichnen sich also keine sinnvollen Anwendungsmöglichkeiten für synthetisches Methan als Flexibilitätsoption für den Stromsektor ab, die über einige wenige Demonstrationsprojekte hinausgehen …

Wirkungsgrad der Power to Gas Technologie mit Rückverstromung

Die vorhergehenden, etwas unübersichtlichen Darlegungen finden sich in einem ganz aktuellen Paper zusammengefasst:
Dr. Geisenheiner at al. 25.03.2020: [4] Fachliche Stellungnahme Wasserstoffwirtschaft

Daraus die Wasserstoff-Prozess-Verlustgrafik:

Bild 3 [4] Wirkungsgrad der Prozesskette Strom – Wasserstoff – Rückverstromung (die Transportverluste werden bei längeren Transortzeiten bedeutend größer als in dieser Grafik angegeben)

Keinen Schreck bekommen: So viel kostet mit Wasserstoff zwischengespeicherter Strom

In einer Artikelserie wurden damals die Kosten von Speichertechnologien grob dargestellt:
EIKE 18.06.2015: [11] Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
Für Powert to Gas mit Rückverstromung wurde der Netto-Ausspeisepreis damals mit 20 €ct/kWh bei einem Strombezug von 4,8 €ct/kWh abgeschätzt (mit damals erheblich besser angenommenen Wirkungsgraden und ohne Transportverluste).

Beispiel: Der Ökolieferant bekommt für seinen Strom – ob er ihn einspeist oder abregeln muss – beispielsweise 4 €ct/kWh bezahlt. Der private Endkunde bezahlt dafür aufgrund der Steuern und Zusatzkosten ca. 30 €ct/kWh an seiner Steckdose
Über Powert to Gas zwischengespeicherter Strom kostet netto an der Kostenstelle, so er, mit 4 €ct/kWh entnommen wurde nun mindestens 20 €ct/kWh. Darauf kommt nun die Kostentreppe, wodurch der private Verbraucher dafür linear hochgerechnet 1,5 €/kWh bezahlt.

Das erscheint hoch. Allerdings kam der Autor beim damaligen Nachrechnen einer neueren Pilotanlage auf noch erheblich höhere Kostenwerte mit geschätzten 33,6 ct / kWh für den am Entnahmeknoten zurückgespeisten Strom [12]. Ein „Verbilligungseffekt“ ist bisher also nicht erkennbar. Sicher ein Grund, warum bei der Power to Gas Technologie immer nur Erfolge, aber nie die vollständigen Kosten ausgewiesen werden.

Selbstverständlich kann die Politik die Nebenkosten beeinflussen. Dann fehlt ihm aber dieses Geld für die vielen Maßnahmen zu Weltrettungen, Pandemie-Ausfallzahlungen und EU-Transferzahlungen an unsere privat reicheren – aber immer geldhungrigen – EU-Nachbarn. Es ist deshalb unwahrscheinlich, dass größere Abstriche bei den Steueraufschlägen gemacht werden (können). An den erheblichen Fixkostenaufschlägen kann die Politik sowieso nichts drehen, sondern nur subventionieren.

Man mache sich also die neue, politische Vorgabe klar: Strom im Wert von ca. 4 €ct/kWh wird dank dieser grandiosen Strategie mit „umgewandeltem“ Strom zu mindestens 20 … 33 €ct/kWh „gemischt“. Damit liegt der künftige Strompreis für Privatverbraucher je nach erforderlichem Speicherstromanteil (können im Winter für bis zu 14 Tage fast 100 % sein), irgendwo zwischen 30 €ct … 1,5 (2,5) €/kWh.
Nach heutigem Stand. Kommt der Wasserstoff weit weg aus dem Ausland, sind nochmals Kostenerhöhungen von 10 … 20 % zuzufügen und das wird bestimmt nicht das Ende darstellen.

Wie hoch muss die Sturheit des Festhaltens an der Abschaltung der Grundlastkraftwerke und panische Angst vor dem technischen Scheitern des EEG in den politischen Köpfen schon sein, um trotzdem die Wasserstoffstrategie zu starten

Beim Vergleich der Darstellungen der Fachpersonen mit den euphorischen Strategieankündigungen unserer Politiker:
[6] «Wir wollen bei den neuen Wasserstofftechnologien hin zu grünem Wasserstoff weltweit führend sein.» – Nicht weniger strebt die deutsche Regierung nach den Worten von Wirtschaftsminister Peter Altmaier (CDU) mit einer am Mittwoch verabschiedeten Nationalen Wasserstoffstrategie an. Diese sei die größte Innovation im Bereich Klimaschutz und Energiewende seit dem Entscheid, mit dem Erneuerbare-Energien-Gesetz (EEG) in großem Ausmaß Energie aus Sonne, Wind und Biomasse zu fördern, fügte Altmaier an, als er die Strategie zusammen mit Vertretern weiterer Ministerien den Medien vorstellte …

… kommen unweigerlich (aber nicht neu) Fragen zum geistigen Zustand unserer Politikkaste auf. Es zeigt jedoch nur, dass das vergleichbare (Pseudo-)Problem Klimawandel bezüglich der „Lösungsstrategie“ kein Einzelfall, sondern seit „Merkel“ ganz einfach Methode ist, die an ein Land erinnert, in dem unsere unfehlbare Kanzlerin sozialisiert wurde: (Stur) Vorwärts immer – rückwärts nimmer.
Im Klartext: Wenn etwas angeordnet ist, darf auf keinen Fall über den Sinn nachgedacht und schon gar nicht korrigiert werden. Es ist immer geradlinig bis zum (bitteren) Ende durchzuführen.
Ein in der Deutschen Geschichte seit dem letzten Kaiser bekanntes Verhalten „unfehlbarer Führungspersonen“. Allerdings ist auch das vollkommene Versagen der Opposition in Deutschlands Geschichte symptomatisch. Das (wieder) erreicht zu haben, ist für Merkel also nicht einzigartig.
Nun ist es allerdings nicht mehr nur ein „Problem Merkel“, sondern auch ein „Problem Söder“, der den GRÜNEN ebenfalls bedingungslos in den Hintern kriecht.

Neben dem EEG wird es das nächste Subventionsgrab werden

NZZ: [6]Allerdings hat er mindestens zwei Pferdefüße: Noch ist er meist zu teuer, um konkurrenzfähig zu sein, und in Deutschland gibt es viel zu wenig erneuerbare Energie für seine Herstellung. Dem versucht die Wasserstoffstrategie mit 38 Einzelmaßnahmen abzuhelfen. So stellt das Papier unter anderem Investitionskosten-Zuschüsse für den Betrieb von Elektrolyseanlagen und den Aufbau eines Wasserstoff-Tankstellennetzes in Aussicht.

Und ausgehen wird es wie bei Solar und teilweise Windkraftanlagen, nun allerdings gleich von vornherein als besondere Strategie ausgegeben: Produziert wird das wichtige Gut Energie im Ausland:
[6] … Gleichwohl wird Deutschland laut dem Papier mittel- und langfristig in erheblichen Ausmaß Wasserstoff importieren müssen. Deshalb will die Regierung Partnerschaften mit Ländern eingehen, in denen aufgrund der geografischen Lage Wasserstoff effizient produziert werden kann. Dies gilt namentlich für das sonnenverwöhnte Afrika.

Und wie beim Klimawandel sind Forschung und Industrie nach anfänglichem Zögern wieder begeistert

10.06.2020 BDEW zur Nationalen Wasserstoffstrategie
… „Es ist gut, dass die lange erwartete Nationale Wasserstoffstrategie der Bundesregierung nun endlich vorliegt. Sie formuliert wichtige Grundlagen für die Dekarbonisierung von Industrie, Verkehr und Wärmesektor mit gasförmigen Energieträgern. Darauf müssen wir aufbauen und in der Umsetzung Tempo machen. Mit der Strategie zeigt die Bundesregierung, dass leitungsgebundene, gasförmige Energieträger ein zentraler Baustein der Energiewende und für das Erreichen der Klimaschutzziele sind“, sagt Kerstin Andreae, Vorsitzende der BDEW-Hauptgeschäftsführung.
BR24 Video vom 29.05.2020, Vorstellung der Bayerischen Wasserstoffstrategie:
00:22 Peter Wasserscheid, Zentrum Wasserstoff Bayern: Also ich glaube, technologisch hinken wir nicht hinterher … der Aufbruch, diese Technologie wirklich zu industrialisieren und eine Wasserstoffwirtschaft zu schaffen, der war bisher nötig.

Bezüglich der Kosten ist unseren Politikern längst eine Lösung eingefallen: Den CO2-Preis so hoch zu schrauben, dass die bisher „viel zu billigen Energien“ so teuer wie durch Elektrolyse erzeugter Wasserstoff werden

Wenn etwas nicht zu konkurrenzfähigen Preisen hergestellt werden kann, gibt es einen Lösungsweg: Die Wettbewerbsprodukte auf das vergleichbare Niveau verteuern. In einer vom Staat ausgehebelten Wirtschaft ist das machbar, und dank dem Klimak(r)ampf inzwischen auch problemlos umzusetzen.
Es geschieht, indem der CO2-Preis einfach auf die von den GRÜNEN (und Freitagshüpfer, und Umweltbundesamt) geforderten 180 EUR/Tonne und dann weit darüber hinaus angehoben wird.

Es wird so kommen. Denn unsere Politiker benötigen viel, viel Geld, die EU benötigt viel viel Geld, die Klimawandel-Reparationszahlungen an sich „betroffen“ meldende Länder kosten viel viel Geld, die bedingungslose Sozialleistungsversorgung des laufend einreisenden, vorwiegend afrikanischen, aufgrund deren Reproduktionsrate nie endenden Jugendüberschusses kostet viel, viel Geld; weitere Aufzählungen fast beliebig möglich.
Wenn man es nicht schon hätte, spätestens jetzt müsste man die CO2-Bepreisung als Einnahmequelle erfinden.

Für die Bayerische GRÜNEN-Vorsitzende, Katharine Schulze ist es ein undenkbares Gräuel [8]. Es gibt aber auch Personen, die etwas anders als diese hochbesoldete Lachpuppe denken.

Bild 4 Catharina Schulze. Video-Screenshot [9]
Es wird nicht mehr allzu lange dauern, bis auch bei uns ein Wunsch umgeht: Oh du Land, welches einen Trump vorzuweisen hat: Wie bist du zu beneiden …
Bevor es allerdings so weit kommen könnte, wird das Wählen nicht genehmer Parteien vielleicht verboten und nicht nur die EU-Präsident*in vollkommen unabhängig von Wahlergebnissen in Hinterzimmern von Parteigrößen*innen ausgeknobelt …

Quellen

[1] Christians-Albrechts Universität zu Kiel, Jahresbericht 2002/2003 Forschungs- und Technologiezentrum Westküste, Büsum, Vanselow, Klaus; Voigt, Wolfgang; Bojens, Gero; Hein, Burger: „Fortschritt des FEEDWings-Projektes zur Windenergiespeicherung

[2] Dr.-Ing. Hartmut Euler, Ministerialdirigent, Abteilungsleiter für Technologie im schleswig-holsteinischen Wirtschaftsministerium: Wasserstoff aus Strom oder „power to gas“ – der verlustreiche, teure und unnötige Weg

[3] Öko-Institut e.v., Studie März 2014: Prüfung der klimapolitischen Konsistenz und der Kosten von Methanisierungsstrategien

[4] Dr. Geisenheiner at al. 25.03.2020: Fachliche Stellungnahme Wasserstoffwirtschaft

[5] pv magazine 29. MAI 2020: BAYERISCHES STAATSMINISTERIUM FÜR WIRTSCHAFT, LANDESENTWICKLUNG UND ENERGIE Aiwanger: „Made in Bavaria wird zum Wasserstoff-Gütesiegel“

[6] NZZ 11.06.2020: Deutschland steckt Milliarden in eine Wasserstoffstrategie

[7] Univ.-Prof. Dr.-Ing. Martin Doppelbauer, Professur für Hybridelektrische Fahrzeuge, Karlsruher Institut für Technologie: Strategiepapier elektrische Pkws – aktueller Stand und zukünftige Entwicklung (V1.5)

[8] EIKE 25, Juli 2020: Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 2

[9] EIKE 24, Juli 2020: Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 1

[10] IWR.de 10.06.2020: Bundesregierung verabschiedet Nationale Wasserstoffstrategie

[11] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

[12] EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle

[13] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern




Die Mehrkosten für die Erzeugung wetterabhängiger erneuerbarer Energie in der EU (28): 2020 – Teil 2

Teil 1 : https://eike.institute/2020/07/25/die-mehrkosten-fuer-die-erzeugung-wetterabhaengiger-erneuerbarer-energie-in-der-eu-28-2020-teil-1/

Alle Tabellen und Daten stammen von https://www.eurobserv-er.org/ und sind vom Autor zusammengestellt

Vergleichende Kosten der Technologien zur Erzeugung erneuerbarer Energie in Europa

In Teil 1 fanden Sie die Tabelle mit  einer Kapitalbewertung der aktuellen wetterabhängigen erneuerbaren Energieflotte der EU für 2020 (28) von ~ 500 Mrd. EUR mit voraussichtlichen laufenden Kosten von ~ 2.000 Mrd. EUR. Insgesamt macht diese Investition in erneuerbare Energien in der EU (28) ~ 35% der auf dem Typenschild angegebenen Erzeugungskapazität aus, liefert jedoch nur ~ 10% des tatsächlichen Strombeitrags. Damit ist dies ungefähr das Doppelte der Kosten für die Bereitstellung der gleichen Leistung mit Kernkraftwerken und mehr als das 11-fache der Kosten bei Verwendung von gasbefeuerten Kraftwerken [Kurzer Ausdruck des Autors: Gasfeuerung] zur gleichwertigen Stromerzeugung.

Observ’ER, screenshot-2020-07-06-at-10.17.49

Die dreiteilige Tabelle zeigt, wie die von der Regierung favorisierten erneuerbaren Technologien zu den Mehrkosten in Europa beitragen.

  • Onshore-Windkraft ist die kostengünstigste wetterabhängige Technologie. Bei den Investitionsausgaben ist es im Allgemeinen nur 10% billiger als die Kernenergie und auf lange Sicht nur etwa 1,4-mal so teuer. Dieser Kostenunterschied berücksichtigt jedoch nicht das Problem der wetterabhängigen Nicht-Dipatachabilität. Onshore-Windenergie ist etwa sechsmal teurer in Bezug auf Kapital und langfristige Ausgaben als Gasfeuerung.
  • Offshore-Windenergie ist am kosten-ungünstigsten, da sie etwa zwei- bis dreimal so teuer ist wie Kernkraft, aber etwa 11 bis 15 Mal teurer als Gasfeuerung.
  • Solar-PV ist etwas kostengünstiger als Offshore-Windenergie. Die Installation ist 1,6- bis 2,6-mal teurer als die von Kernkraft und langfristig 10- bis 12-mal teurer als Gasfeuerung.
  • Offshore-Wind- und Solar-PV sind zusammen für mehr als 60% der Mehrkosten der EU-Flotte (28) für Energien verantwortlich, obwohl sie nur etwa ~ 37% der Leistung der erneuerbare Energien produzierten.

Diese erheblichen Mehrkosten zeigen die Verschwendung, die der europäischen Bevölkerung sowohl durch direkte Steuern für die Subventionen für wetterabhängige Energien als auch durch europaweite Aufstockung der Stromrechnungen durch die Regierungen zwangsweise auferlegt wird. Diese Verschwendung stellt eine sehr regressive Steuerbelastung dar, die den Ärmsten in der europäischen Gesellschaft auferlegt wird. Dies führt europaweit zu einer immer größeren „Energiearmut“.

 

Anteile Teilnahme und Kosten für einzelne europäische Nationen

Die primären Nationen, die an wetterabhängigen erneuerbaren Energien in der EU(28) beteiligt sind und ihre lokalen „Verbindlichkeiten“ in Höhe von insgesamt ~ 344 GW, sind nachstehend grafisch dargestellt. Diese Ergebnisse basieren auf aktuellen EurObserve’ER-Informationen und vergleichenden Kosteninformationen für 2020 der US- EIA [Informationsagentur des Energieministeriums].

Der von EurObserv’ER gemeldete Nennanschlusswert der wetterabhängigen erneuerbaren Anlagen der EU 2020 (28) ist nachstehend aufgeführt:

Observ’ER, screenshot-2020-07-04-at-13.56.11

Deutschland hat aufgrund seiner langfristigen „Energiewende“ -Politik etwa das Dreifache des Engagements anderer europäischer Nationen in erneuerbare Energien. Übersichtlicher zu erkennen als %-Wert.

Observ’ER, screenshot-2020-07-04-at-11.27.32-1

Obige Anschlusswerte können auch in Gigawatt per Millionen Einwohner je Land dargestellt werden:

Observ’ER, screenshot-2020-07-04-at-11.28.31

Nationale Anteile der Investitionen von ~ 500 Mrd. € + [im englischen: bn – Billion] in wetterabhängige erneuerbare Energien sind nachstehend aufgeführt:

Observ’ER, screenshot-2020-07-04-at-17.29.06-1

Oben aufgeführte nationale Investitionen in wetterabhängige erneuerbare Energien der EU (28) führen [bereits] langfristig zu ~ 2.000 Mrd. EUR  Ausgaben:

Observ’ER, screenshot-2020-07-04-at-17.29.34

Die kürzlich erfassten Kostenunterschiede zwischen Erzeugungstechnologien unter Berücksichtigung ihrer Produktivität sind nachstehend aufgeführt:

Observ’ER, screenshot-2020-07-05-at-07.35.17

Für weitere Details schauen Sie bitte hier:

https://edmhdotme.wordpress.com/excess-costs-of-uk-weather-dependent-renewable-energy-2019/

 

Vergleich zu Gaskraftwerken

Mit ~ 1,1 Mrd. EUR / Gigawatt Kapitalkosten und ~ 3,5 Mrd. EUR / Gigawatt auf lange Sicht ist der Einsatz von Erdgas das derzeit kostengünstigste und effizienteste Mittel zur Stromerzeugung. Im Folgenden werden die zusätzlichen Mehrkosten, die durch erneuerbare Technologie in den wichtigsten europäischen Ländern entstehen gegenüber Gaskraftwerken angezeigt. Es ist zu beachten, dass bei der Gasfeuerung nur ~ 1/2 der CO2-Emissionen von Kohlefeuerung und ~ 1/2 von CO2-Emissionen der Biomasse entstehen

Diese Kapital-Mehrkosten belasten die Volkswirtschaften einzelner europäischer Nationen gemäß den US- EIA-2020-Daten mit ~450 Mrd. € zusätzlich.

Observ’ER, screenshot-2020-07-04-at-11.51.46-1

Die langfristigen Mehrkosten im Vergleich zum Einsatz von Gaskraftwerken belaufen sich auf ~ 1.800 Mrd. €.

Observ’ER, screenshot-2020-07-04-at-11.52.25

Vergleich zu Kernkraftwerken

Mit ~ 6,7 Mrd. EUR / Gigawatt Kapitalkosten und ~ 16,1 Mrd. EUR / Gigawatt auf lange Sicht ist die Kernenergie ein wirksames und effizientes Mittel zur konsistenten Stromerzeugung mit null CO2-Emissionen und geringem Landverbrauch. In Bezug auf die Kapitalkosten kann Onshore-Windenergie nominell kostengünstig sein. Dieser Vergleich bezieht sich jedoch nur auf die Gesamt-Anschlussleistung, ohne die intermittierende und variable Leistung der Windenergie zu berücksichtigen.

Diese Berechnungen zeigen die zusätzlichen Kosten, die die Volkswirtschaften einzelner europäischer Nationen gemäß den US-EIA 2020-Daten belasten, Unter Berücksichtigung der wetterabhängigen Produktivitätszahlen für erneuerbare Energien, belaufen sich diese auf insgesamt ~ 85 Mrd. EUR Kapital-Mehrkosten. Noch teurer werden Offshore-Windkraft und Solar-Voltaik.

Observ’ER, screenshot-2020-07-04-at-11.53.10-1

Die langfristigen Mehrkosten gegenüber Kernkraft belaufen sich auf ~980Mrd. €

Observ’ER, screenshot-2020-07-04-at-11.53.47-1

 

Zusammenfassung

Diese einfachen Berechnungen zeigen das Ausmaß der unmittelbaren und langfristigen Kosten, die mit wetterabhängigen erneuerbaren Energien in der gesamten EU verbunden sind (28). Sie belaufen sich Finanzierungskosten von mehr als 500 Milliarden Euro und Lebensdauerkosten von mehr als 2.000 Milliarden Euro. sollten sie [nur in dieser schon vorhandenen Größenordnung] für ~ 10% der EU-Stromerzeugung (28) aufrechterhalten werden.

Die Kapitalkosten für den Ersatz der gesamten Leistung von 65 GW europäischer erneuerbarer Energieerzeugung durch zuverlässige, abrufbare Gaskraftwerke würden ~ 71 Mrd. EUR betragen, und die gesamte europäische Stromerzeugungskapazität von 600 GW könnte durch Gasbefeuerung für ~ 660 Mrd. € ersetzt werden. Die CO2-Emissionen aus der Gasverbrennung betragen 1/2 der Kohleverbrennung und etwa 1/3 der Nutzung von Biomasse.

Der von den Befürwortern wetterabhängiger erneuerbarer Energien ins Spiel gebrachte Vorteil, soll darin liegen, dass etwa 10% der europäischen Stromerzeugung durch „nominell“ CO2-neutrale Technologien ersetzt werden. Die Stromerzeugung verursacht insgesamt etwa 1/4 der gesamten CO2-Emissionen in Europa.

Im Jahr 2019 emittierte Europa ~ 3.330 Millionen Tonnen CO2,das sind  ~ 9,7% der globalen CO2-Emissionen. Dementsprechend werden für anteilige ~ 10% von o.g. ~ 25% von 3.330 Millionen Tonnen CO2, die derzeitigen Ausgaben für erneuerbare Energien begründet, um ein mögliches Maximum von ~ 83 Millionen Tonnen CO2-Emissionen in ganz Europa abzuwenden. Dieser Wert ignoriert die CO2- und Energiekosten für die Herstellung, Installation usw. der erneuerbaren Energien. Die maximal vermiedenen Emissionen durch wetterabhängige erneuerbare Energien in Europa betragen in 2919:

  • ~ 2,5 % der europäischen Co2 Emissionen von 3,330Millionen Tonnen
  • ~ 0,24% der weltweiten CO2-Emissionen von 34.164 Millionen Tonnen
  • ~16 % des Wachstums der CO2-Emissionen aus Entwicklungsländern von 504 Millionen Tonnen

https://edmhdotme.wordpress.com/global-man-made-co2-emissions-1965-2019-bp-data/

 

Ausklang:

Daher sollte die Frage gestellt werden: „Macht die Kapitalbindung von ~ 1/2 Billionen € und die wahrscheinlichen zukünftigen Ausgaben von ~ 2 Billionen € wirtschaftlich einen Sinn, nur um ~ 10% der europäischen Stromerzeugung durch unzuverlässige Kapazitäten zu ersetzen und damit evtl. ~ 2,5% der europäischen CO2-Emissionen abzuwenden?“

Wenn die Verwendung wetterabhängiger erneuerbarer Energien nicht mit der möglichen „Rettung des Planeten“ trotz des sinkenden EU-Anteils (28) an den CO2-Emissionen verwurschtelt werden würden, würden wetterabhängige erneuerbare Energien, aufgrund ihren tatsächlichen Kosten, ihrer Unwirksamkeit und ihrer inhärenten Unzuverlässigkeit als Mittel zur Stromerzeugung auf nationaler Ebene ausgeschlossen werden.

Die gesamten jährlichen CO2-Emissionen der EU (28) werden bereits durch das jährliche Wachstum der CO2-Emissionen in China und den Entwicklungsländern weit übertroffen.

https://edmhdotme.wordpress.com/quantifying-futility-2020-estimate-of-future-co2-emissions/

 

Es ist wichtig, die Frage zu stellen, welchen tatsächlichen Wert diese von der EU und den Regierung zwangsweise eingeführten Mehrausgaben in der westlichen Welt für die Verbesserung der globalen Umwelt haben, um möglicherweise nicht nachweisbare Temperaturerhöhungen bis zum Ende des Jahrhunderts zu verhindern, insbesondere im Kontext, dass die Entwicklungsländer ihre CO2-Emissionen erhöhen werden, um den Lebensstandard in den kommenden Jahrzehnten weiter zu verbessern.

Der Versuch, die CO2-Emissionen allein in der westlichen Welt zu reduzieren, um ein simuliertes „wärmendes“ Klima zu kontrollieren, wird noch fragwürdiger, wenn die Temperaturaufzeichnungen der letzten drei Jahrtausende eher das Ende unserer gegenwärtigen Erwärmung als interglaziale Epochenansätze vermuten lassen.

https://edmhdotme.wordpress.com/there-is-no-man-made-climate-emergency/

 

Im Gegensatz zu einem gefährlichen Schadstoff wirkt sich atmosphärisches CO2 in jeder Hinsicht jedoch positiv auf das Leben auf der Erde aus, indem das Pflanzenwachstum durch Düngung und die Trockenheitstoleranz erheblich gesteigert werden. Jeder Bruchteil der geringen Erwärmung, die wir seit der kleinen Eiszeit aufgrund von anthropogenem CO2 erlebt haben könnten, war eindeutig auch ein direkter Vorteil für die Landwirtschaft und den menschlichen Komfort.

https://edmhdotme.wordpress.com/the-excess-costs-of-weather-dependent-renewable-power-generation-in-the-eu28w/

Wir danken Herr Ed Hoskins für die freundliche Erlaubnis, seine Ausarbeitung zu übernehmen.

Übersetzt durch Andreas Demmig




Weltuntergang ist abgesagt*

Immer diese Überraschungen! Wie auf dem Opernplatz in Frankfurt. Wie auf dem Schlossplatz in Stuttgart. Wie auf der Domplatte in Köln. Unerklärlich! Wer behauptet da, das hätte man wissen können? Nun ja, wenn immer derjenige die höchste Anerkennung erhält, der das Spiel „Ich sehe nichts, wo du nichts siehst“ besonders gut beherrscht, dann sind solche Überraschungen zu erwarten. Wegsehen will gelernt sein.

Nach den Krawallen am Opernplatz in Frankfurt versteckte sich die Polizei nicht hinter der beschwichtigenden Ausrede, es seien junge Leute der Partyszene gewesen. Man stellte umgehend fest, die Mehrzahl der Randalierer habe einen Migrationshintergrund. Das ist wenig aussagekräftig in einer Stadt, in der mehr als 75 Prozent des Nachwuchses einen Migrationshintergrund haben. Viele Krawallmacher kamen aus Hanau und Offenbach, alles Sammelbecken von Zuwanderern und Problemfällen. Selbstverständlich bekam die Polizei gleich eins auf den Deckel, weil sie auf die Herkunft hinwies. Wieder einmal machte sie sich des Rassismus verdächtig, wieder einmal stellte sie ihr „Racial Profiling“ unter Beweis.

In diesem unterkühlten Bibber-Sommer des Jahrganges 2020, dessen sonnige Tage wie Ausrutscher wirken, müssen sich Prediger des Unterganges Fransen an den Mund reden, um einem fröstelnden Publikum den Unterschied zwischen Klima und Wetter zu erklären.

Trotzdem konnten sie bei aller Anstrengung nicht durchdringen bei Menschen, welche die gerade zuvor abgestellte Heizung wieder aktivierten. Es sei denn, sie haben eine von diesen supermodernen Heizungen, die sich bei 17 Grad vollautomatisch selbst anstellen. Wer so etwas entwickelt oder kauft, der kann ohnehin nicht von der fortschreitenden Erderwärmung überzeugt sein. Andernfalls wäre eine solche Heizung die nutzloseste Erfindung des letzten Jahrzehnts.

Seit Tagen ist die Welt der Klima-Notständler erschüttert. Ein Buch sorgt für Verwirrung. Geschrieben hat es Michael Shellenberger. Er gehörte einst zu den Propheten des baldigen Untergangs, die keine Nachweise mehr erbringen mussten. Sein Name war Nachweis genug. Was er sagte, war richtig, ganz allein, weil er es gesagt hatte. Einfach unfehlbar. Das US-Nachrichtenmagazin „Time“ hatte ihn einst auf die Liste der „Heroes of the Environment“ gesetzt, also zu den Umwelthelden. Mehr Ritterschlag geht nicht. Seit er sich für die Kernkraft einsetzt, ist sein Ruf allerdings lädiert.

Und nun das! Der Guru des Unterganges widerruft. Er gehörte auf die Seite der Guten, jetzt wechselte er auf die Seite der Klimaleugner, aus dem Paulus wurde ein Saulus. Wir haben in unserer schwindenden Kultur gelernt: Paulus prima, Saulus schlecht. Und nun gesteht ein Verräter in einem Beitrag für das Wirtschaftsmagazin „Forbes“, über Jahre die Welt an der Nase herumgeführt zu haben. Dafür bittet der gewandelte Klimaleugner sogar um Entschuldigung: „Im Namen von Umweltschützern überall auf der Welt möchte ich mich offiziell für die Klima-Panikmache entschuldigen, die wir in den vergangenen 30 Jahren erzeugt haben.“

Was schreibt der Mann da? Meinte er tatsächlich „Klima-Panik“? Und alle machen mit. Jeder nutzt die Wissenschaft, wie es ihm passt. Allen voran die Weltgesundheitsorganisation und der Weltklimarat. Für Shellenberger haben beide Organisationen „durch wiederholte Politisierung der Wissenschaft“ ihre Glaubwürdigkeit verloren. Dann weist dieser abtrünnige Mensch auch noch vollkommen überflüssigerweise darauf hin, dass allem Katastrophengeschrei zum Trotz der Kohlendioxidausstoß in Deutschland, Großbritannien und Frankreich seit den 70er Jahren sinke.

Shellenbergers Anhänger, also die von gestern, rätseln. Hat der Guru versehentlich zu viel Chrystal Meth geschluckt? Geriet er unter den Druck von Donald Trump? Möglich. Oder noch schlimmer: Geriet er in die Fänge von Jair Bolsonaro? Noch eher möglich, schließlich stand Prophet Shellenberger beim Kampf für den Regenwald in der ersten Reihe. Und nun entschuldigt er sich, „wie stark wir Umweltschützer die Öffentlichkeit getäuscht haben“. Das Ende der Welt sei nämlich noch gar nicht nahe. Welche Überraschung!

Noch ein Weltuntergang, der ausfällt. Diesmal ist es allerdings eine Absage ganz ohne Corona. Abgesagte Weltuntergänge häufen sich in lockerer Folge, seit die Drohungen vom Ende der Welt von den alttestamentarischen Propheten auf die Klimaschützer übergingen. „Der stumme Frühling“, den der Club of Rome voraussagte, ist immer noch mit Vogelsang gefüllt. Die Borkenkäfer wüten in den Wäldern erfolgreicher als der saure Regen. Die Stickoxide gehen nicht zurück, wenn die Autos nicht fahren. Stattdessen finden Wissenschaftler ständig neue Spuren grundlegenden Wandels der Welt. Jüngste Entdeckung ist das wohl älteste Haus eines Menschen in der Wüste von Libyen. Vor 200.000 Jahren siedelte er am Rande eines riesigen Binnenmeeres. Liebhaber von Fossilien sammeln schon lange versteinerte Muscheln aus der Sahara. In Grönland wachsen auch diesen Sommer Tomaten in Gewächshäusern. Trotzdem verdient Grönland noch lange nicht den Namen, den ihm einst Erik der Rote gab: Grünland. Am anderen Ende der Welt, dort, wo heute die Pinguine ihre Runden drehen, in der Antarktis, lauerten einst Krokodile im Sumpf und trabten Urpferdchen über das Land. Aktuell fanden Wissenschaftler das Fossil eines Froschlurchs im ewigen Eis. Da hat sich wohl ganz schön viel verändert, vollkommen ohne den Menschen.

Doch solche Zeiträume hatten die Menschen wohl nicht im Sinn, die laut Shellenberger überzeugt sind, dass der Klimawandel die Menschheit töten werde. Das glauben 50 Prozent der Befragten. Meinungsforscher in Großbritannien ermittelten, dass 20 Prozent der Kinder Albträume der Klimafurcht haben. Britische Umweltschützer unkten, der Klimawandel töte Kinder. Und da fragen wir noch, was die Kids bei „Fridays for Future“ so aggressiv, so selbstgerecht wütend macht. Gegen die Einflüsterer des Klimakillers war der Rattenfänger von Hameln, gewiss kein Kinderfreund, ein Stümper.

Offensichtlich ist die späte Erkenntnis für Katastrophenprediger Shellenberger keine Offenbarung, die über Nacht über ihn kam. Die Zweifel müssen schon länger vorhanden gewesen sein. Allein, fehlte es an Mut, aus der Panikmache auszusteigen. Aus Angst, seine Freunde und die Gelder seiner finanziellen Förderer zu verlieren, nicht mehr das große Rad drehen zu können, machte er wider besseres Wissen weiter. Die wenigen Male, bei denen er vorsichtige Zweifel äußerte, hat er immer bald bereut. Dann wurde das Klima für den Klima-Aktivisten eisig. Auch jetzt wieder. Das Magazin „Forbes“ nahm den Beitrag Shellenbergers, aus dem hier zitiert wird, aus dem Blatt. Angeblich wegen „redaktioneller Richtlinien“.

Greta hilf! Aber von Greta ist nichts zu hören. Die schweigt schon seit Wochen eisig. Ach so, das könnte an Sommerferien in Schweden liegen? Na, da kann man nichts machen.

 

=================================================================

)*  Anmerkung der EIKE-Redaktion : Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung; 24. Juli 2020, S.24  ; EIKE dankt der PAZ-Redaktion sowie dem Autor Klaus J. Groth für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

=================================================================




„Fiese Fasern“: Carbonfasern in Windkraftanlagen

Carbonfasern gelten als Werkstoff der Zukunft. Die Fasern werden mit speziellen Kunststoffen in eine Form eingebettet und dann durch Erwärmen ausgehärtet. Es entsteht ein „Supermaterial“: strapazierfähig, hochfest und dabei leichter als Stahl.

Es handelt sich bei Carbonfasern um Kohlenstofffasern, auch kurz Kohlefasern oder CFK genannt. Es handelt sich dabei um industriell gefertigte, hochfeste, (quasi endlos) lange Fasern aus kohlenstoffhaltigen Ausgangsmaterialien, die durch an den Rohstoff angepasste chemische Reaktionen in graphitartigangeordneten Kohlenstoff umgewandelt werden. Eine zweite Form von eingesetztem Kohlenstoff sind mikroskopisch dünne Röhrchen, sogenannte Nanotubes, die wegen ihrer besonders hohen Festigkeit ebenfalls zur Verstärkung in Kunststoffen verwendet werden.

Bei Bränden, mit Erreichen von Temperaturen über 650° C, verbrennen die Carbonfasern nicht vollständig, sondern sie zerlegen sich und erreichen dabei u. a. auch eine kritisch gefährliche Größe, die beim Einatmen in die Lungengefäße eindringen kann. Da auch eine Aufnahme über die Haut nicht ausgeschlossen werden kann, wird auf eine besondere Gefahrenlage und auf besonderen Vorsichtsmaßnahmen hingewiesen. In Verbindung mit der Freisetzung von diesen Carbonfasern, incl. Nanotubes wird als Schutzmaßnahme für die Feuerwehr- und Rettungseinsatzkräfte die gleiche Schutzausrüstung wie bei Unfällen mit radioaktiven Stoffen angeordnet. Somit müssen spezielle ABC-Züge der Feuerwehr und gegen chemische, biologische, radiologische, nukleare und explosive Gefahren geschützte CBRN(E)-Trupps, zum Einsatz kommen [1]. Es ist also kein Wunder, dass Carbonfasern umgangssprachlich auch „Fiese Fasern“ genannt werden.

Die Weltgesundheitsorganisation stuft die Fasern als krebsverdächtig ein. Im Gefahrstoffrecht sind sie der Kategorie 3, krebserregend zugeordnet [2]. Bereits 2012 warnte der BUND in einer Veröffentlichung vor den Gefahren, die im Brandfall von Nanotubes ausgehen [3]. 2014 griff das Bundesamt für Infrastruktur, Umweltschutz und Dienstleistung der Bundeswehr das Thema auf und warnte vor lungengängigen Carbonfaser-Bruchstücken nach Bränden [4]. Ebenfalls im Jahr 2014 griff die Deutsche Feuerwehrzeitung dieses Thema auf. Nach einem Brandversuch mit Carbonfasern konnten 90.000 Fasern je Kubikmeter Luft ermittelt werden. Jede dieser Fasern birgt das Risiko, eine erste Krebszelle zu verursachen [5].

Große Teile von Flugzeugen werden aus dem neuen Material gebaut. Auch Automobile sind mit Karosserien oder Bauteilen aus Carbonfasern (CFK) auf dem Markt. Wenn es hier zu einem Brand kommt, lässt sich die Gefahr der Faserfreisetzung örtlich lokalisiert relativ einfach mit Schaum oder anderen Bindemitteln bekämpfen. Die CFK-Fasern stecken aber auch in immer mehr Windrädern.

Genau hier schlummert eine verkannte Gefahr, da Windkraftanlagen im Brandfall wegen ihrer großen Höhe nicht löschbar sind und es so zu einer nicht beherrschbaren Emission an „Fiesen Fasern“ aus großer Höhe über einen längeren Zeitraum kommen kann. Dabei ist es nicht möglich, die Emission örtlich zu begrenzen, vielmehr bestimmt die Wetterlage die Art und Weite der Ausbreitung. Diese Tatsache bleibt bei allen bisherigen Abstandsdiskussionen hinsichtlich angrenzender Wohnbebauung oder Sperrradius der Feuerwehr unberücksichtigt! Unstrittig dürfte sein, dass der im Normalfall angelegte Sperrradius der Feuerwehr von 500 Metern um die brennende Windkraftanlage nicht ausreichend ist. Unstrittig dürfte auch sein, dass die bisherigen Mindestabstände von Wohnanlagen zu Windkraftanlagen diese Gefahr in keiner Bauvorschrift berücksichtigen.

Hierzu sagt Prof. Dr. Sebastian Eibl vom Bundesamt für Infrastruktur, Umweltschutz und Dienstleistung der Bundeswehr: „Wenn die Fasern Dimensionen dünner als drei Mikrometer erreichen und gleichzeitig eine Mindestlänge von fünf Mikrometern aufweisen, dann sind sie nach der Definition der Weltgesundheitsorganisation als krebsverdächtig eingestuft.“ Nach einem Brand verändert sich die Struktur, die Fasern werden winzig. Atmet man sie ein, können sie in die Lungengefäße eindringen und dort verbleiben. Als Reaktion können dort spezielle Tumore, ähnlich wie bei einer Asbestvergiftung, entstehen. Auch eine Aufnahme über die Haut ist möglich. Wichtig ist, dass der Körper keine Möglichkeit hat, diese Fasern auszuscheiden. Das ist der eigentliche Grund für die Gefährlichkeit der „Fiesen Fasern“[6].

Nach Auskunft des Bundeswehr-Luftwaffenkommandos wurden in Mecklenburg-Vorpommern nach dem Absturz eines Eurofighters 1.295 Tonnen ‚organoleptisch‘ belasteter, also kontaminierter Boden der fachgerechten Entsorgung zugeführt. Darüber hinaus wurden an der Absturzstelle eines Hubschraubers in Aerzen insgesamt 372 Tonnen Erde ausgehoben, in beiden Fällen wurde die Ernte auf den umliegenden Feldern vernichtet. Der Bodenaushub wurde durch einen Entsorgungsfachbetrieb abgefahren und direkt dort der Behandlung zugeführt.

Im Falle eines Brandes an einer WKA mit Carbon-Materialien werden die anfallenden Mengen an Bodenaushub um ein Vielfaches höher ausfallen, je nach kontaminierter Fläche.

Bisher konnten folgende Brände an Windkraftanlagen, bei denen eine Emission durch Fiese Fasern nicht ausgeschlossen werden kann, in Windindustriegebieten dokumentiert werden:

· am 30.03.2012 in Groß Eilsdorf, Niedersachsen;

· am 27.03.2013 in Groß-Bisdorf, Mecklenburg Vorpommern;

· am 26.06.2018 in Wrohms-Osterrade, Schleswig Holstein.

In allen drei Fällen waren Windturbinen des Typs Vestas V 112 mit 3,0 Megawatt Nennleistung betroffen. Laut Mitteilung des TÜV-Verband (VdTÜV) [7] kommt es zu rund 50 gravierenden Schäden an Windenergieanlagen pro Jahr. D.h. 3,3 % aller rund 30.000 WEA in der BRD erreichen nicht ihre Soll-Lebensdauer von 20 Jahren. Ein Großteil der Schäden ist auf Brände zurückzuführen [8].

Obwohl diese Problematik bereits seit Jahren bekannt ist, wird sie in den Genehmigungsverfahren bis heute ignoriert, und dies trotz der bekannten Warnungen. Wir stellen daher die Frage, welche Auswirkungen die ignorierten Gefahren auf die Typengenehmigung der Windkraftanlagen und die einzelnen Genehmigungsprozesse haben. Sind Abstände kleiner als das Zehnfache der Anlagenhöhe aus Aspekten des Brandschutzes überhaupt verantwortbar?

Zuletzt hat das Umweltbundesamt das Thema in Zusammenhang mit der völlig ungeklärten Entsorgungsfrage dieses Materials aufgegriffen. Inwieweit die Verwendung dieses Materials in Windkraftanlagen mit dem Bundesimmissionsschutzgesetz, welches explizit den Entsorgungsweg mit einschließt, überhaupt vereinbar ist, ist nach wie vor offen. Laut §1 Abs. 2 des Gesetzes dient es auch der „Vermeidung schädlicher Umwelteinwirkungen durch Emission in Luft, Wasser und Boden unter Einbeziehung der Abfallwirtschaft“. Ein geschlossener Stoffkreislauf wäre bei diesem Material zwingend vorzuschreiben, ist jedenfalls heute aber nicht gegeben. Dadurch sollte ein Einsatz von CFK in Windkraftanlagen unzulässig sein, denn das Kreislaufwirtschaftsgesetz (KrWG) fordert, „den Schutz von Mensch und Umwelt bei der Erzeugung und Bewirtschaftung von Abfällen sicherzustellen“.

Dass die Hersteller der Windkraftanlagen die verbauten Materialien, insbesondere die verbauten Carbonfasern, die zur Verstärkung der Rotorblätter, zur Beschichtung der Rotorblattoberflächen, als Begleitheizung in Rotorblättern zum Enteisen, in Gondelgehäusen und in Bremsbelägen zum Einsatz kommen, als Betriebsgeheimnis einstufen, mutet in diesem Zusammenhang grotesk an. Nach der REACH-Richtlinie der EU wäre dies zwingend vorgeschrieben. Daraus ergibt sich, dass auch die Genehmigungsbehörden nicht wissen, ob und welche Mengen an Carbonfaser-Verbundwerkstoffen in den jeweiligen Anlagen verbaut sind.

Lediglich Nordex gibt für seine Anlage N 117/2400 5,6 Tonnen verbaute carbonfaserverstärkte Kunststoffe (CFK) an. Zur Größenordnung: Ein Eurofighter hat ein Gesamtgewicht von 11,0 Tonnen.

Unter Berücksichtigung der genannten Sachverhalte ist eine sorgfältige Analyse der Stoffströme und der Gefährdungslage unabdingbar, um adäquate Entsorgungskonzepte gemäß BImSchG und KrWG abzuleiten.

Welchen Einfluss das fehlende Entsorgungskonzept auf Typen- und Baugenehmigungen für Windkraftanlagen hat, ist die interessante Frage. Festzuhalten ist, dass die Politik diese Frage bislang ignoriert hat. Das Kreislaufwirtschaftsgesetz wird nachweislich nicht eingehalten.

Zu klären wird nun sein, wie dieses Ignorieren von Gesetzen in die Genehmigungsabläufe für Windparks eingebracht werden kann. Viel schwerer wöge, wenn festgestellt würde, dass Windkrafthersteller, Genehmigungsbehörden, Projektierer, Verwaltungen und Betreiber strafbewehrte Fehler begangen haben, denen nachgegangen werden kann.

(1) Bundeswehrübung in Faulbach 2019 Videoübertragung SWR
https://www.facebook.com/FeuerwehrFaulbach/videos/2169664943088958/

https://www.main-echo.de/regional/kreis-miltenberg/Bundeswehruebung-in-Faulbach-Hubschrauber-stuerzt-ab-und-brennt;art3999,6674709

[2] ARD Mittagsmagazin: Wenn Carbon brennt – Achtung Gesundheitsgefahr https://www.youtube.com/watch?v=HYltgsiuobI

[3] https://www.process.vogel.de/bund-warnt-vor-risiken-durch-nanotubes-a-363781/#:~:text=Nanotubes%20BUND%20warnt%20vor%20Risiken%20durch%20Nanotubes&text=Der%20Bund%20f%C3%BCr%20Umwelt%20und,CNT)%20in%20Laufenburg%20am%20Oberrhein.

[4] Bundesamt für Infrastruktur, Umweltschutz und Dienstleistungen der Bundeswehr – Zentrale Stelle für Arbeitsschutz der Bundeswehr, Info-Brief 08/2014, „Nur in der Ausnahmesituation eines Brandes von CFK-Material ist es möglich, dass Faserbruchstücke entstehen, die von der Weltgesundheitsorganisation (WHO) als krebsverdächtig eingestuft sind. Diese Carbonfaserbruchstücke stellen, zusätzlich zu akuten Gefährdungen wie Hitzeeinwirkung und Exposition gegenüber toxischen Brandprodukten, für direkt an Brand-Unfällen beteiligte Personenkreise, z.B. Feuerwehr, Rettungskräfte oder Unfalluntersucher, eine weitere Gefährdung dar.“

[5] Sebastian Eibl und Norbert Scholz, „Besondere Gefährdung beim Abbrand von Carbon-Kunststoffen“, Brandschutz, Zeitschrift für das gesamte Feuerwehrwesen, für Rettungsdienst und Umweltschutz, 68. Jahrgang, Juni 2014: „Feuerwehrangehörige sind zwar im Einsatz durch eine Persönliche Schutzausrüstung mit umluftunabhängigem Atemschutz geschützt. Weitere Rettungskräfte bzw. unbeteiligte Personen können jedoch nach dem Löschen des Brandes ungeschützt einer Faserstaubbelastung ausgesetzt sein.“

[6] https://www.universimed.com/ch/fachthemen/gesundheitsgefaehrdung-durch-lungengaengige-kohlenstofffasern-beim-abbrand-von-carbonkunststoffen-2098532

[7] https://www.vdtuev.de/news/tuev-verband-fordert-umfassendere-sicherheitskontrollen-bei-windraedern

[8] https://www.keinewindkraftimemmertal.de Unfallliste

Der Beitrag erschien zuerst beim Deutschen Arbeitgeber Verband hier




Umgebungs­gleichung (Stefan-Boltzmann-Gesetz) / ungerecht­fertigte Kritik an Ulrich O. Weber / Strahlungs­gleichgewicht / Mittelwert­bildung

Die Verfechter des natürlichen Treibhauseffektes benötigen diesen, um zu erklären, warum die Abstrahlung der Erde um soviel geringer ist als die mittlere Temperatur an der Erdoberfläche an Strahlungsleistung nach dem S-B-Gesetz erzeugen würde. Um trotzdem ein Gleichgewicht mit der Einstrahlung zu erreichen, benötigt sie jedoch ein kompliziertes rückgekoppeltes und vor allem lückenhaftes Gegenstrahlungsmodell. Das alles hat seine Ursache in der Mittelung der einfallenden solaren Strahlung durch den Teiler 4 für die gesamte Kugel. Es ist aber unbestreitbare Tatsache, dass nachts die Sonne nirgendwo scheint. Physikalisch ausgedrückt bedeutet dies, dass jeweils nur eine Halbkugel die solare Strahlung aufnimmt, während zeitgleich die gesamte Kugel Strahlungsleistung wieder abgibt, um auf diese Weise zu einem Gleichgewicht zwischen Ein- und Ausstrahlung zu gelangen. Unser Autor A. Agerius (Pseudonym, der wirkliche Name ist der Redaktion bekannt) hat nun in seinem Modell auf andere Weise als U. Weber nachgewiesen, dass sich sämtliche Messwerte der ERBS-Satellitenreihe auf einfache Weise abbilden und vor allem reproduzieren lassen, wenn man die Halbkugel-Ein- und Ganzkugel-Abstrahlung konsequent und Schicht für Schicht anwendet. Eine Gegenstrahlung wird dafür nicht mehr benötigt. Um dem Prinzip von Occam´s Razor zu genügen, nachdem die einfachste Erklärung für Naturerscheinungen fast immer die Richtige ist, stellen wir diese, für viele überraschende Herleitung, hier zur Diskussion.

A. Agerius26.07.2020

In 4 Themenblöcken werden die Stichworte im Titel betrachtet. Sie sind inhaltlich verbunden:
A. Umgebungsgleichung (Stefan-Boltzmann-Gesetz)

„Anmerkungen zur hemisphärischen Mittelwertbildung mit dem Stefan-Boltzmann-Gesetz“ (von Ulrich O. Weber,veröffentlicht am 11. September 2019 durch EIKE, Europäisches Institut für Klima & Energie)

Der Ansatz von Herrn Weber ist in Beiträgen auf EIKE und in seinen Büchern ausführlich dargestellt. Diese Modellierung berücksichtigt keine atmosphärischen, horizontalen und vertikalen Umschichtungen. Ihr perspektivischer Bezugspunkt ist die Kugeloberfläche. Zwei unabhängige Vergleichsrechnungen durch einen Bekannten, Diplomingenieur der Elektrotechnik, und mir wurden mit diesem Modell über Mantelringe mit 1 Grad Schritten bei solarer Einstrahlung von 1367 W/m², auch als Total Solar Irradiance TSI bezeichnet, und mit einer Albedo a = 0,30 berechnet. Wir erhielten als Global Mean Temperature für die Erde T = 15,3°Celsius. Dieser Ansatz ist ein in sich komplett unabhängiger Beweis, dass es für die Herleitung dieser Mitteltemperatur keines Treibhauseffektes von 33 K bedarf.

Herr Weber schrieb in diesem Artikel: „In der üblicherweise dargestellten Form lautet das Stefan-Boltzmann-Gesetz: P/A = σ T4. Diese Form stellt den astronomischen Spezialfall für eine Umgebungstemperatur T0 von 0 Kelvin dar.“ Und „Die allgemeine Form des Stefan Boltzmann-Gesetzes wird auch als Umgebungsgleichung bezeichnet: P/A = σ (T4 – T04).“ Einer der Kommentatoren auf der EIKE-Blogseite beanstandete, dass die Formulierung als Umgebungsgleichung so nicht in der originalen Veröffentlichung von Boltzmann steht. Auch im nächsten Artikel, „Safety First“, spricht Herr Weber die Umgebungsgleichung an.

„Safety First: Zum besseren Verständnis meiner hemisphärischen Energiebilanz“ (von Ulrich O. Weber, veröffentlicht am 29. Juli 2019 durch EIKE)

Herr Weber entgegnet: „Offenbar konnten die geschätzten Kommentatoren mit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes in der Form ´P/A =  * (T4-T04)´, die dieser Betrachtung zugrunde liegt, aber recht wenig anfangen,…“ Dem Leser des EIKE-Blogs, stellt sich die Frage: Ist die Kritik der Kommentatoren gerechtfertigt?

B. Ungerechtfertigte Kritik an Ulrich O. Weber

Hierzu verweise ich auf „Physik für Ingenieure“, ein seit 50 Jahren gültiges Standardwerk abertausender deutscher Maschinenbauer und Bauingenieure, Zitatanfang: „So ist die effektiv abgestrahlte Leistung eines „schwarzen“ Körpers ΔPs = σ A (T14 – T24) für einen „grauen“ Körper gilt ΔPs = ε σ A (T14 – T24)

Beispiel 7. Ein schwarzer Körper hat die Oberfläche A = 1 cm² und die Temperatur T1 = 373 K. Bei der Umgebungstemperatur ϑ = 20 °C strahlt er 6,76 10-2 W ab. Ist er jedoch nicht „schwarz“, sondern reflektiert er 20%, so kann er nur 80% absorbieren. Da sich das Absorptionsvermögen wie das Emissionsvermögen verhält, emittiert er – wenn er strahlt – auch nur 80% der Leistung, das ist 5,41 10-2 W.“ 1 Zitatende, [Hervorhebungen verändert]

ΔPs = 5,41 10-2 W = σ A (T14 – T24) = 5,6704 10-8 Wm -2 K-4 1.0 10-4 m² 0.80 (3734 K4 – 293,154 K4)

Hieraus folgt: Das Emissionsvermögen kann nicht größer als das Absorptionsvermögen sein. Dies gilt explizit für Strahlung, sonst würde der 1. Hauptsatz der Thermodynamik verletzt werden. Die obige Darstellung gehorcht auch dem 2. HS, Wärme fließt immer (ohne äußere Einwirkung) von warm nach kalt. Diese Hauptsätze der Physik gelten selbstverständlich auch für ihre Unterdisziplinen wie Klimawissenschaft, Atmosphärenphysik, Meteorologie und Ozeanografie.

Um die Bedeutung „Umgebungsgleichung“ für den EIKE-Blogleser besser zu veranschaulichen, folgt ein Beispiel aus dem Alltag:

Ein ca. 2.5 m² großer Flur eines denkmalgeschützten Altbaus benötigt einen neuen Heizkörper. Für den Flur seien +18°C Raumtemperatur ausreichend, bei -10°C Außentemperatur. Dies führt zu einem dem Alter des Gebäudes angepassten Dimensionswert von 100 W/m² Raumfläche. Die notwendige Heizleistung für den Flur erfordert somit zu 250 W. Die Vorlauftemperatur der Gaszentralheizung beträgt am Einlassventil 70°C, die Rücklauftemperatur 55°C. Die mittlere Oberflächentemperatur der Heizfläche weist damit 62.5°C auf. Der hierzu gehörige Anpassungsfaktor von mittlerer Heizflächentemperatur und Raumlufttemperatur beträgt in dieser Kombination f >= 1,37. Die Mindestauslegung wird somit zu 1,37 x 250 W = 343 W bestimmt. Gewählt wird ein Plattenheizkörper Typ 22 der Länge 1 m, Bauhöhe 400 mm mit einer Norm- Wärmeleistung von 970 W/m. 388 W = 970 W/m x 0,4 m. Mit T1 = 62,5 °C = 335,65 K und T2 = 18°C = 291,15 folgt:

Ein 1. Thermometer misst auf der Mitte des Plattenheizkörpers T = 62,5 °C, das 2. Thermometer misst im Raum T = 18°C.

ΔPs / A = 312 W/m² = σ (T14 – T24) = 5.6704 10-8 Wm -2 K-4 (335.654 K4 – 291.154 K4)

Ludwig Eduard Boltzmann (1844 – 1906) hatte bei seiner wissenschaftlichen Veröffentlichung noch nicht die praktischen Anwendungen ΔPs = σ A (T14 – T24), siehe Physik für Ingenieure2 im Blick. Die Kritik an Herrn Ulrich O. Weber ist somit nicht gerechtfertigt.

Übertragen der Umgebungsgleichung auf die Erde:

a Ein erstes Thermometer sei in 2m Höhe ein zweites Thermometer befände sich in ca. 70km Höhe.

T1 = 15,2 °C = 288,35 K und T2 = -18,89 °C= 254,26 K

ΔPs / A = σ (T14 – T24) = 5,6704 10-8 Wm -2 K-4 (288.354 K4 – 254,264 K4) = 155,02 W/m²

b Ein erstes Thermometer sei in 70km Höhe ein zweites befände sich in ca. 200km Höhe

T1 = -18,89 °C= 254,26 K und T2 = -273,15 °C= 0 K

ΔPs / A = σ (T14 – T24) = 5.6704 10-8 Wm -2 K-4 (254.264 K4 – 0 K4) = 236.99 W/m² ~ -18.88 °C

c Ein erstes Thermometer sei in 2m Höhe ein zweites befände sich nun in ca. 200km Höhe

T1 = 15,2 °C = 288,35 K und T2 = -273,15 °C= 0 K

ΔPs / A = σ (T14 – T24) oder 5,6704 10-8 Wm -2 K-4 (288,354 K4 – 04 K4) = 392,01 W/m² ~ 15,20 °C

Oder 155,02 W/m² + 236,99 W/m² = 392,01 W/m²

Die Darstellung als Umgebungstemperatur – ich verwende jetzt bewusst die Formulierung von Herrn Ulrich O. Weber – zeigt die Wärmeleistung pro m² der Erde, hier 392,00 W/m² ~ 15,20°C fließt mit (288,354 K4 – 04 K4) von warm nach kalt und nicht umgekehrt. Lässt dies noch hypothetischen Raum für eine Gegenstrahlung in der Unterwissenschaft Atmosphärenphysik zu? Hotspots3 in der Atmosphäre als eigenständige Wärmequellen werden nicht gemessen, auch nicht mit Wetterballonen.

C. Strahlungsgleichgewicht

Die Hypothese der Gegenstrahlung (Back Radiation mit 324 W/m²) in der Strahlungsbilanz als Strahlungsgleichgewicht der Erde modellierten Kiehl und Trenberth 1997 in Earth´s Annual Global Mean Energy Budget. Die unten dargestellte FIG.7. wurde dreimal in IPCC Berichten, zuletzt 2007, an prominenter Stelle dargestellt. Ihr Gegenstrahlungsansatz ist die theoretische Basis der IPCC Klimamodelle. Im Modell mit Gegenstrahlung absorbieren IR-aktive Gase wie z. B. CO2. Diese würden im Anschluss bei ihrer Re-Emission eine Gegenstrahlung von 324 W/m² verursachen.

Bildnachweis: J. T. Kiehl and Kevin E. Trenberth, 1997, Earth´s Annual Global Mean Energy Budget, FIG.7. S.206 IPCC, Climate Change 2007, Cambridge University Press 2007 abgebildet auch in den IPCC Reporten 2007, 2001 und 1995

Bildnachweis:erstellt von A. Agerius, 2020

In der Darstellung oben sind römischen Zahlen eingetragen.Sie markieren horizontale Schnittebenen durch die Atmos-phäre. Ihre Strahlungsflüsse entsprechen dem Bild 1.

 

Kiehl und Trenberth verwenden Pfeile zur Darstellung von Strahlungsflüssen (W/m²). Diese Art der Darstellung erinnert an Kraftvektoren der technischen Mechanik.4 Wenn man diesen Gedanken zu Grunde legt, drängt es sich auf, das Schnittkraftprinzip anzuwenden. Ein unter Spannung – Kraft geteilt durch Fläche – stehendes Bauteil wird hierbei virtuell, wie mit einem Messer, durchtrennt. Alle an der Schnittfläche auftretenden Größen werden sichtbar und müssen Gleichgewichtsbedingungen gehorchen. Bei einem Bauteil wären dies Schub- Druck-, Zugkräfte, bzw. Biegespannungen, Momente, Torsion etc. In der diesem Textblock folgenden Anordnung von Zahlen in 8 Zahlenzeilen ist dies in Analogie zur Mechanik für den Strahlungsfluss aufbereitet. Auch hier muss sich ebenfalls ein horizontales und vertikales Gleichgewicht als Strahlungsgleichgewicht ausbilden.

Zur besseren Veranschaulichung für FIG.7. werden 8 Ebenen (I bis VIII) eingeführt und die horizontale Betrachtung mit „= 0“ am Zeilenende berücksichtigt. Mit dem Minus Zeichen (-) zeigt der Strahlungspfeil (in der Analogie dem Kraftvektor vergleichbar) in Richtung Erde, mit Plus Zeichen (+) in Richtung Orbit, vertikales Gleichgewicht. Die Zahlenwerte in W/m² sind aus FIG.7. KT97 entnommen: Zwischen Ebene II und III wurde virtuell nach dem Schnittkraftprinzip (gelb markiert) durchgeschnitten und die Strahlungsflüsse anschließend angetragen. Hierbei wird sichtbar, dass bei Kiehl und Trenberth in FIG.7. +67 in der zeichnerischen Darstellung fehlen. Ohne +67 gibt es einen Sprung im Strahlungsfluss.

Blau, Vergleich mit Satellitenmesswerten, zuzüglich 2 Albedos a = 0,3129 bzw. 0.088

Erläuterung: Zeile I bis III ohne „gleichzeitig“ ↑+67 bildet sich vertikal ein Sprung im Strahlungsfluss aus. Die Energiebilanz von Kiehl und Trenberth kann somit das Gleichgewichtskriterium „∑ H = 0“ in Zeile III nicht erfüllen. Dies verlangt aber eine Bilanz. Bsp. Geschäftsbilanz: Einer Ausbuchung -67.000 Euro in Unterkonto A „Verkauf“ ist „gleichzeitig“ eine Einbuchung von +67.000 Euro in Unterkonto B „Umsatz“ zugeordnet.

Zeile IV bis VIII wie zuvor.

Kiehl und Trenberth berufen sich auf Satellitenmessungen: „The ERBE [Earth Radiation Budget Experiment] (see Ramanathan et al. 1989) provided nearly 5 yr of continuous data from the mid.1980s.

The global annual mean of these data (Kiehl et al. 1994) indicate that the outgoing longwave radiation is 235 Wm-2 ,…”5 [Ergänzungen vom Autor hinzugefügt] Hinter „see Ramanathan et al. 19896” steht u.a. Bruce Barkstorm. Er war der Chefingenieur beim Bau der ERBS Satelliten (Teil des ERBE Programms der NASA). Um ein Modell zu entwickeln, das seine eigenen Satelliten Messwerte erklärte, zeichnete Barkstorm die Strahlungsflüsse in seiner eigenen Darstellung als Pfeile. Er formulierte damit als Erster die Hypothese der Gegenstrahlung in Verbindung mit Satellitendaten. Kiehl und Trenberth übernahmen sein Prinzip -Strahlungen wie Kraftvektoren darzustellen – und verfeinerten nur sein Modell.

In FIG.7. KT97 weisen die obigen 5 Werte einen direkten Bezug zu den ERBS Messwerten auf und haben folgende Bedeutung:

Reflected Solar Radiation, ins Orbit zurück geworfene Strahlung, kurzwellige Strahlung 107 W/m²

Outgoing Longwave Radiation, von der Atmosphäre abgestrahlte langwellige Strahlung 235 W/m²

Longwave cloud forcing, langwellige Strahlung beim Vorhandensein von Bewölkung 30 W/m²

Albedo, Anteil der ins Orbit reflektierten Strahlung, 107 W/m² / (107 W/m² + 235 W/m²) 0.3129

Clear Sky Albedo, der Bodenanteil der Albedo 30 W/m² / 342 W/m² 0.0877

Satellitenmesswerte des ERBS Satelliten in einem Modellvergleich:

KT97 schafft es 5 von 11 Messreihen im Modell KT97 abzubilden. Bezüglich longwave radiation tritt eine Differenz von rund 8 W/m² (242.9 – 235) auf. Das cloud forcing von 30.8 W/m² ist zwar mit 31 W/m² gut modelliert, aber in den 235 W/m² nach FIG.7. enthalten. „The longwave cloud forcing, clear minus cloudy sky flux, is 30 W/m-2, which agrees closley with the annual mean ERBE value, as it should because both clear and cloudy sky top-of atmosphere fluxes are tuned to the ERBE data.”7 Die von Satelliten gemessene CLEAR-SKY LONGWAVE RADIATION von 276.3 W/m² kann in FIG.7. nicht dargestellt werden. Im Modell fehlen so 41.3 W/m² (276.3-235). Lange Zeit waren die oben aufgelisteten Messwerte einer breiten Öffentlichkeit nicht zugänglich. Bei 15°C als globale Durchschnitts Temperatur macht eine Strahlungsdifferenz von 5 W/m² zwischen Messwert und Modellwert fast 1C° aus (Pariser Klimaakkord?). Beim Betrachten von roter und blauer Spalte drängen sich damit zwei Fragen auf:

  • Kann man ein Modell entwickeln, das alle Messwerte abbildet?
  • Kann ein solches Modell eine möglichst geringe Abweichung zwischen Messwert und Modellwert aufweisen und welche Aussagen lässt ein solches Modell dann zu?

An dieser Stelle möchte ich überleiten zu D. Mittelwertbildung, denn man kann ein anderes Modell entwickeln und dazu spielt der Faktor 2 eine entscheidende Rolle.

D. Mittelwertbildung

„Nachdem sich der Rauch verzogen hat: Stefan-Boltzmann auf den Punkt gebracht“ (von Ulrich O. Weber, veröffentlicht am 16. Februar 2017 durch EIKE)

Herr Weber formuliert hierin: „Die alternative Herleitung berechnet sich mit dem Strahlungsgleichgewicht des S-B Gesetzes für eine Halbkugelbetrachtung in einem Zweischichtfall für Atmosphäre und Erdoberfläche: (Solarkonstante/2) => netto 390 W/m² => +14,8°Celsius.Mit der Solarkonstante von 1368 W/m² /2 = 684 W/m² schreibt Herr Weber in einer anderen Schrift:

684 [W/m²] – 214 [W/m²] – 80 [W/m²] = 390 [W/m²] 8

Hierin sind 80 W/m² 2 mal 40 W/m² des atmosphärischen Fensters von KT97 und 214 W/m² 2 mal 107 W/m² reflektierter Strahlungsanteil durch eine Albedo von 0.3129 verglichen mit KT97.

Herr Limburg, der Vizepräsident von EIKE, 2019 auf der 13. EIKE im Vortrag „Was Sie schon immer über den Treibhauseffekt wissen wollten…“ Zum Modell mit 1368 W/m²/ 2 Einstrahlung: „Ohne jetzt den Breitengrad […] mit zu berücksichtigen, kann man ganz grob annehmen, dass auf die Halbkugel rund 684 W/m², also die Hälfte, pro m² fällt. Das würde die ganz erste Näherung sein, für jeden, der sich mit der Frage beschäftigt, stellt sich die Frage: wo kommt denn die Energie her? Die Treibhausforscher, die dem IPCC zuarbeiten, sehen das aber ganz anders. Die erfinden plötzlich eine Rundumsonne. Plötzlich ist die Sonne von beiden Seiten da und bestrahlt beide Seiten gleichmäßig. Zwar nicht mit der vollen Leistung, sie wird gedimmt. Die 684 W/m² werden nochmal halbiert. Das geht dann auf die Kugeloberfläche. Wir haben statt 684 W/m² plötzlich von beiden Seiten, jeweils auf die Halbkugel bezogen, gleich große 342 W/m². Das ist zumindest eine Überlegung, die man an anstellen kann.“9

Bildnachweis: EIKE

Die Satellitenmesswerte des ERBS Satelliten könnte man mit einem Halbkugelmodell in Beziehung setzen. Der Satellit ERBS hatte 15-Umläufe um die Erde am Tag. Die ERBS-Messwerte der Scanner, die auf die Erde gerichtet sind, sind aus einer Mittelwertbildung entstanden, einer Mittelung aus Tag- und Nachtmessung.

Die Erdkugel als beleuchtete Halbkugel grafisch im Augenblick der Einstrahlung 0 bis 180 Grad und 180 bis 360 Grad so dargestellt:

        X

X               X

         X

Der Standort des Satelliten ist von der solaren Einstrahlung auf die Erde unabhängig.

Fall 1: 0 bis 180 Grad:

15 Mal in 24 h für ERBS ist die halbe Erdkugel beleuchtet

+

Fall 2: 180 bis 360 Grad:

15 Mal in 24 h für ERBE ist eine halbe Erdkugel unbeleuchtet, aber in dieser Zeit strahlt die Sonne auf die beleuchtete Seite. Um auf die Satellitenwerte verweisen zu können, muss der Standpunkt der Messung berücksichtigt werden, die Perspektive des Satelliten während des Messvorganges. Steht der Satellit im Erdschatten, ist die TSI = 0 W/m². ISRModel = Incoming Solar Radiation auf Modellebene:

In der Messung:

Daraus folgt:

In der Perspektive des Satelliten: TSI im Mittel = (1368 W/m² + 0) / 2 = 684 W/m²

Übertragen auf ein Modell, das auf Mittelwerten beruht:

Der Faktor 2 lässt sich deshalb auch aus der Mittelwertbildung ableiten.

Werden Satellitenmesswerte als Strahlungsbeträge wie folgt umgruppiert, weisen sie eine horizontale und vertikale Gleichgewichtsbeziehung bzw. einzelne Symmetrieachsen auf. Dies gilt bis in den einzelnen ermittelten Datensatz und ist dem 1. HS der Thermodynamik, der Energieerhaltung, geschuldet.

(Mit clear sky albedo = 0.1345 = 92 W/m² /684 W/m² und a = 0.269 = 184 W/m² / 684 W/m²)

Modell 5: rot Abgleich mit Satellitenmesswerten, albedo a = 0.2690, bzw. 0.1345

Bildnachweis, A. Agerius FIG8 b Modell 5 clear sky11

 

 

Wenn die Strahlungsbilanz als Modell aus der Perspektive des Satelliten gerechnet wird, dann erscheinen alle vom ERBS Satelliten gemessenen 11 Datenreihen als Mittelwerte der 5- jährigen Messung gleichzeitig.

Grafische Darstellung der Strahlungsbilanz mit Satellitenmesswerten des Satelliten ERBS im 5- jährigen Mittel nach CEDA als Gegenmodell zu KT97, getrennt nach cloudy sky FIG8a und clear sky FIG8b:

Bezüglich shortwave cloud forcing gelingt die Trennung nicht ganz. Der Abweichung beträgt 11.5% (11.5% = 48/416 x100). Dies wird in Kauf genommen. Die gesamte Modellabweichung macht nur weniger als fünf Tausendstel der „top of“ gemessenen Gesamtstrahlung aus (4.8 = 2.0 W/m² /414.5 x 1000) oder ist damit < = 2 Watt/m² zum Messwert. Ich nenne es Modell 5. In KT97 werden die Messwerte, auf die sich Kiehl und Trenberth berufen, unzureichend abgebildet. Darüber hinaus gibt es zusätzliche Kritikpunkte an KT97, die in diesem kleinen Artikel nicht angesprochen werden können. Die exakte Ableitung von Modell 5, Werte für Konvektion, Wärmeleitung, atmosphärisches Fenster, weitere 14 Kritikpunkte an KT97, ein Vergleich mit Messwerten der Satelliten TERRA und AQUA des NASA CERES Programms siehe Quellenangabe12.

Zusammenfassung:

Der Strahlungs- und der Temperaturverlauf von der Erdoberfläche in Richtung Orbit entsprechen der Umgebungsgleichung siehe Abschnitt B. Die Formulierung einer Umgebungsgleichung P/A = σ (T4 – T04) aus dem Boltzmann Gesetz von Herrn Weber ist daher richtig. Die Umgebungsgleichung bildet ab, dass Wärme von warm nach kalt fließt, gemäß den Regeln der Thermodynamik. Das Modell von Kiehl und Trenberth, Abschnitt C, zeigt die Erde in der treffenden Beschreibung von Herrn Limburg als „eine Rundum-Sonne [allseitige Einstrahlung] bei gedimmter Einstrahlleistung“. KT97 beruft sich einerseits auf Satellitenmesswerte, kann aber andererseits nur sehr wenige davon abbilden und diese zeigen dann eine große Abweichung zwischen Modell und Messwertmittel.

Die durchschnittliche Oberflächentemperatur der Erde von ca. 15°C kann in KT97 nur mit der Modellhypothese von hoher Gegenstrahlung (324 W/m²) erklärt werden. Aber auch langwellige Strahlungsaussendung gemäß Stefan-Boltzmann benötigt eine Ursprungs-Temperatur als Ursache. In KT97 würde aber Wärme von kalt nach warm fließen. Weber`s Ansatz, Abschnitt A, betrachtet die Einstrahlung auf eine Halbkugel, aber die Abstrahlung von der Gesamtkugel aus der Perspektive der Kugeloberfläche. Dies führt ebenfalls zu einer Durchschnittstemperatur von 15°C, aber die Einführung der Idee einer Gegenstrahlung ist hierzu nicht erforderlich.

Der Ansatz Agerius (Modell 5), Abschnitt D, wurde aus der Perspektive des Satelliten entwickelt. Die Sonneneinstrahlung auf der Halbkugel reicht aus, um die Erde mit einer Durchschnittstemperatur von ca.15°C zu erwärmen. Die Abstrahlung erfolgt auch hier über die Oberfläche der Gesamtkugel. Alle Satellitenmesswerte lassen sich im Modell Agerius dann ebenfalls darstellen und dies mit einer Abweichung von <= 2 W/m² zwischen Modell und Messwertmittel. Beide Strahlungsverläufe clear und cloudy sky, Abschnitt D, benötigen keine Gegenstrahlung von 324 W/m² und schließen sie damit aus. Mit 714 W/m² (390 + 324) würde die Erde zu heiß werden. Mit den voneinander unabhängigen Modellen, Weber und Agerius, aus unterschiedlichen Perspektiven bzw. Bezugspunkten entwickelt, ist eine Gegenstrahlungshypothese und damit auch ein natürlicher Treibhauseffekt von 33 K für die Erklärung und Herleitung der realen Temperaturwerte nicht erforderlich.

1 Dobrinski, Krakau, Vogel., Physik für Ingenieure, 7. überarbeitete Auflage, Stuttgart, Teubner Verlag, ISBN 3-519-16501-5, Kap. 2.6.3 Strahlung S.195

2 Dobrinski, Krakau, Vogel., Physik für Ingenieure, 7. überarbeitete Auflage, Stuttgart, Teubner Verlag, ISBN 3-519-16501-5, Kap. 2.6.3 Strahlung S.195.

3 Physiker Dr. Rainer Link „Dieser Hot Spot wird nicht gemessen!“ in: Warum die Klimamodelle des IPCC fundamental falsch sind! Der Aufsatz ist im Web als pdf abrufbar.

4 A. Agerius, 2019, Kritische Analyse zur globalen Klimatheorie, zu B. Barkstorm und Culmann Verfahren, S.78.

5 KT97, S.198.

6 Barkstorm, Ramanathan and Harrison (1989), CLIMATE AND THE EARTH’S RADIATION BUDGET, in PHYSICS TODAY, American Institute of Physics.

7 KT97, S. 201, linke Spalte, 2 Satz.

8 Weber, 2017, Klima-Revolution, Ein atmosphärischer Treibhauseffekt ist nicht erkennbar, BoD, Norderstedt, ISBN:978-3-74483-562-6.

9 Herr Michael Limburg, Vizepräsident von EIKE, im Vortrag auf der 13. Internationalen EIKE- Klima und Energiekonferenz in München am 23. November 2019, https://youtu.be/-x5sgNfKvto

10 A. Agerius, 2019, Kritischen Analyse zur globalen Klimatheorie, ISBN 978-3-7497-1977-8, S.52.

11 A. Agerius, 2019, Kritischen Analyse zur globalen Klimatheorie, S.53.

12 A.Agerius, 2019, Kritische Analyse zur globalen Klimatheorie, Widerlegung der Basisstudie KT97 des IPCC mit den Messwerten des ERBS Satelliten an einem neuen Modell, Tredition, (Deutsch) ISBN 978-3-7497-1977-8.

A.Agerius,2019, Critical analysis of the global climate theory,Disproof of basic study of IPCC CO2 greenhouse effect, KT97, with measure values of ERBS satellite on a new model, Tredition (English) ISBN 978-3-7497-2137-5.