1

Nicht nur Käse aus Holland: Wasserstoff

Der einzige und vermeintliche Vorteil einer solchen Technik ist, dass kein CO2beim Einsatz entsteht, was den geltenden Klimadogmen sehr entgegen kommt. CO2ist bekanntlich ein Molekül von ca. 0,1 mm Größe (Greta Thunberg kann, qualitätsjournalistisch bestätigt, CO2-Moleküle mit bloßem Auge sehen, was nach ophthalmologischen Erkenntnissen auf diese Größe schließen lässt), das bei zunehmender Konzentration in der Luft aufgrund der Zusammenstöße mit dem Kopf schwere Schädel-Hirn-Traumata auslösen kann, die sich in manischer Klimahysterie äußern.

Elementarer Wasserstoff hat allerdings den Nachteil, dass das nächste natürliche Vorkommen ca. 150 Millionen Kilometer oder 8,3 Lichtminuten entfernt ist und eine Temperatur von 5.500°C aufweist, was Gewinnung und Transport etwas problematisch machen. Wasserstoff muss folglich auf der Erde aus anderen Stoffen produziert werden.

Stand heute

Das und der technisch nicht gerade unheikle Umgang mit elementarem Wasserstoff haben seinen Einsatz bislang auf wenige industrielle Bereiche beschränkt, aber das soll ja anders werden. Man produziert ihn derzeit hauptsächlich durch thermische Formierung von Erdgas (Methan) mit Wasser oder partielle Oxidation von Erdgas, wobei Wasserstoff und CO2entstehen, alternativ auch durch Zersetzung von Methan im elektrischen Lichtbogen, wobei neben Wasserstoff elementarer Kohlenstoff anfällt. Da Erdgas bei unter 4 ct/kWh liegt, die Verluste erträglich sind und man bei den Produktionsprozessen bislang auf nichts Rücksicht nimmt, ist das ökonomisch in Ordnung. Aus klimadogmatischer Sicht müsste das CO2der ersten Verfahren abgeschieden und gelagert werden, was den Wirkungsgrad unter 50% treiben würde, und da der Kohlenstoff des letzten Verfahrens, in dem fast die Hälfte der Energie steckt, ebenfalls unbrauchbar wäre, landet man auch da bei der gleichen Wirkungsgradhausnummer. Zudem widerspricht der Einsatz von Erdgas Ressourcendogmen.

Wasserstoff aus Wind und Sonne

Dogmatisch korrekt und obendrein effizienter wäre eine komplett CO2-freie Produktion durch die Elektrolyse von Wasser, bei der immerhin ca. 85% der eingesetzten Energie im Wasserstoff landen würde. Dazu braucht man Strom. Den könnte man aus AKWs beziehen, Kosten z.Z. ca. 4 ct/kWh, langfristige Tendenz: abnehmend. Würde man das machen, wären bei einem Grundpreis von knapp 5 ct/kWh nachfolgende Verluste je nach Anwendung vermutlich kein großes Problem.

Will man aber nicht (Kein-AKW-Dogma). Es muss alles mit Windkraft oder Fotovoltaik gemacht werden, Kosten ca. 12 ct/kWh, Tendenz langfristig eher zunehmend. Da in Summe ohnehin nicht genügend Wind und Sonne zur Verfügung steht, zeitweise aber manchmal zu viel, will man diesen zeitweisen Überschuss für die Wasserstoffproduktion nutzen. So weit die offizielle Version, die bereits daran hapert, dass es nicht genügend Wind- und Sonnenstrom für alle Anwendungsgebiete gibt und geben wird. Aber das verschweigt man besser.

Die Niederländer wollen nun im Groninger Land einen neuen riesigen Windpark bauen. Der sollte zunächst soundsoviel Wohnungen versorgen können, falls der Wind weht, und ansonsten Wasserstoff produzieren. Inzwischen haben die Niederländer nachgerechnet: das mit den Wohnungen lohnt irgendwie nicht, also planen sie jetzt, nur Wasserstoff aus dem Windstrom zu produzieren. So um die 800.000 to/a sind geplant und irgendwie soll der Wasserstoff dann auch zu den Industrien an Rhein und Ruhr und zu Verbrauchern anderswo kommen. Die Niederländer meinen, das lohnt sich (für sie). Schauen wir uns das mal genauer an.

Ein paar Eckdaten

Im weiteren schauen wir auf ein paar Zahlen. Manche sind problemlos in Tabellenwerken zu finden, bei anderen ist das weniger einfach. Doch zunächst einmal zu den einfachen Sachen: Wasserstoff ist ja fürchterlich energiereich. Pro Kilogramm liegt er im Vergleich mit anderen Energieträgern deutlich an der Spitze, wobei wir hier die Verbrennungsenthalpie bei vollständiger Verbrennung betrachten.

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/kg 286.000 50.125 49.620 32.750

Diese Werte werden gerne verkauft, um dem Betrachter den Wasserstoff schmackhaft zu machen. Für den Transport ist aber das Volumen interessanter als das Gewicht, und da sieht die Bilanz für den Wasserstoff weniger brillant aus:

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/m³ (Gas) 25.535 35.803 128.500 (~82*10⁶)
kJ/m³ (F) 20,2*10⁶ 21*10⁶ 28*10⁶ ~82*10⁶

Egal wie man es betrachtet, Steinkohle liegt volumenmäßig an der Spitze. Aufgelistet ist der Energieinhalt bei Normaldruck/Temperatur als Gas und sowie als Flüssiggas. Wenn man Gas komprimiert, liegt man irgendwo dazwischen. NPT-Wert * Druck in bar = Energieinhalt. Auch als Flüssiggas bringt Wasserstoff gerade einmal 70 kg/m³ auf die Waage und hat dann eine Temperatur von -252°C, die Alkane wiegen immerhin schon um die 500 kg/m³ (bei -160°C und 0°C), Kohle bei ca. 2,5 to. Solche Daten, die für den Transporteur interessanter sind, muss man allerdings selbst ausrechnen.

Die Frage wäre dann: Gas oder Flüssiggas? Die Russen liefern ihr Erdgas durch Röhren zu uns, die US-Amerikaner verflüssigen es und liefern es per Tanker. Ziemlich leicht lässt sich ermitteln, womit man bei Flüssiggas zu rechnen hat:

Verluste Wasserstoff Erdgas
Verflüssigung ≥35% ~12%
Lagerung pro Tag ~3% ~0,1%

Verflüssigung kostet recht viel Energie, was einer der Gründe ist, weshalb das US-Gas auch teurer ist als das russische, aber das nur nebenbei. Bei Erdgas (Siedepunkt -161°C) hält sich das trotzdem noch in Grenzen, Wasserstoff mit einem um fast 100°C niedrigeren Siedepunkt ist aber ein echtes Problem: In Houston eingeschifft wäre in Rotterdam weniger als die Hälfte übrig. Was für die Niederländer auch gelten würde, wie wir gleich sehen werden.

Die Logistik der Niederländer

Für die niederländische Wasserstoffproduktion kommt ein anderes Problem hinzu, das sie praktisch auf einen Stand mit Wasserstoff aus Houston setzen würde, würden sie auf Flüssigwasserstoff setzen: mit einem Atomkraftwerk könnte man den Wasserstoff „just-in-time“ in der Menge produzieren, in der er benötigt wird, die Niederländer müssen aber so produzieren, wie der Wind weht. Nimmt man Stromleistungen aus Wind und Leistungsbedarf der Kunden als Vorbild für eine Wasserstoffwirtschaft, bedeutet das über den Daumen gepeilt, dass von den 800.000 to/Jahr über den Daumen gepeilt ein Drittel bis zur Hälfte längere Zeit gelagert werden müsste. Nach Elektrolyse, Verflüssigung, Transport und Lagerung kämen noch bestenfalls 35% der Energie an, was mit allem Drumherum bereits zu einem Preis von knapp 50 ct/kWh ab Tank führen würde.

Das Mittel der Wahl ist somit der Transport von Wasserstoff als Gas durch Pipelines, weil die üblichen Druckgasflaschen mit 50 l Inhalt,  300 bar Fülldruck und 50 kg Gewicht wohl kaum  lukrativ sind. Auch in Pipelines muss das Gas allerdings komprimiert werden. Bei AKW-Wasserstoff käme man vermutlich mit den üblichen 16 bar aus. Bei den großen Mengen, die bei Windkraftproduktion zwischengespeichert werden müssten, müsste man aber auch Gaskavernen, in denen das Erdgas zwischengespeichert wird, einsetzen und bei höheren Drücken arbeiten. Wenn man Gas komprimiert, muss Volumenarbeit geleistet werden, außerdem erhitzt sich Gas bei Kompression. Da weder die Temperatur in den Leitungen/Speichern gehalten werden kann noch an der Verbraucherseite die mechanische Energie bei der Entspannung genutzt wird, handelt es sich um reine, bei größer werdendem Druck steigende Verluste. Die sind zwar nicht so spannend wie bei der Verflüssigung, aber bei ca. 80 bar bleiben ohne Berücksichtigung anderer Verluste wie beispielsweise Erzeugen und Halten des Kissendrucks in den Kavernen oder Druckerhöhungen in längeren Leitungen vom Windstrom noch ca. 60% übrig. Beim Verbraucher dürften also auch hier nur knapp über 50% ankommen.

Solche Zahlen sind übrigens schon nicht mehr ganz einfach zu ermitteln. Zum einen redet man ungern über Verluste, zum anderen werden alle möglichen Schönrechnungsfaktoren eingerechnet. Wir kommen später noch darauf zurück. Solche Transportverluste entstehen zwar auch beim Erdgas, aber beim Wind-Wasserstoff müssen wir mindestens vom 5-fachen des Grundpreises von Erdgas ausgehen und dieser Faktor findet sich in allen Zahlen wieder. Zudem spielen auch noch weitere individuelle Randbedingungen mit. Als Kunde ahnt man vermutlich so ganz langsam, wohin sich die Abrechnung für die Heizung bewegt, wenn statt Erdgas niederländischer Wasserstoff eingesetzt wird.

Power-2-Gas

Die Pipeline-Version hat allerdings die Nebenbedingung, dass man auch Pipelines zur Verfügung hat. Wenn genügend vorhanden sind, kann man Erdgaspipelines außer Betrieb nehmen und umwidmen, ansonsten müsste man neue bauen. Das Gleiche gilt für Speicherkavernen. Als Alternative zum Wasserstofftransport bietet sich Power-2-Gas an, wobei man den Wasserstoff gar nicht erst transportiert, sondern mit CO2zu Methan umwandelt. Da die Reaktion zwischen Wasserstoff und CO2in der Gesamtbilanz exotherm ist, sieht das gar nicht so schlecht aus, wenn man die Abwärme nutzen kann.

Hier dreht allerdings die Schönfärberei voll auf. Realistisch betrachtet kommen von der Windkraft vermutlich ca. 60% im Methan an, das dann dem normalen Erdgas untergemischt werden kann. Spezialisten rechnen das unter Hinzuziehen aller möglichen Nebenbedingungen und theoretischer Optionen auf Werte nahe 100% hoch, also Wind=Gas. Eine der Mogelpackungen, die drinstecken: Wo bekommt man das CO2her? Richtig, aus CO2-Abscheidung aus anderen Prozessen. Das kostet ebenfalls wieder Energie, die bezahlt werden muss, was letztlich auch den Preis für das künstliche Erdgas weiter aufbläht. Die Kreuz- und Querrechnung ist ohne viel Aufwand kaum zu durchschauen und ob wirklich alle theoretischen Effekte auch in der Praxis genutzt werden können, ist fraglich. Man liegt sicher nicht weit daneben, wenn man unterstellt, dass bei P2G in der Gesamtbilanz ungefähr 40% des primären Windstroms ankommen. Mit entsprechenden Auswirkungen auf die Preise.

Wasserstoffträger

Besonders im Zusammenhang mit dem immer mehr platzenden E-Mobilitätstraum werden dem Publikum gerne flüssige organische Wasserstoffträger verkauft (dass Wasserstoffgas an Tankstellen eine dumme Idee sein könnte, scheint selbst Grünen ohne Knallgasreaktion einzuleuchten). Der Wasserstoff wird hierbei bei erhöhten Temperaturen chemisch in ein Molekül eingebaut und aus diesem bei noch höheren Temperaturen wieder freigesetzt. Handelsüblich sind etwa 150°C und höherer für Schritt 1 sowie 300°C für Schritt 2, jeweils in Gegenwart bestimmter Katalysatoren. Schritt 1 ist exotherm, wobei man versuchen kann, die Verluste durch Nutzen der Abwärme zu minimieren, Schritt 2 endotherm, d.h. es muss auf jeden Fall Energie zugeführt werden. Es ist etwas schwierig, an Daten zu gelangen, aber Wirkungsgrade bis zu 70% scheinen halbwegs realistisch zu sein. Die Datenlage ist deshalb schwierig, weil die den Wasserstoff nutzenden Brennstoffzellen einen höheren Wirkungsgrad als Benzinmotoren aufweisen, was sich propagandistisch besser macht als die Einzelwerte. Vermutlich sieht die Gesamtbilanz ohne alles Schönen kaum anders aus als bei Benzin.

Wieviel Wasserstoff kommt dabei zusammen? Nehmen wir als Rechenbeispiel einmal Toluol (verwendet werden andere verwandte Verbindungen, aber Toluol, ein Benzolabkömmling, war mal ein Kandidat), das bei einer Molmasse von 92 g/mol insgesamt 3 mol = 6 g Wasserstoff reversibel binden kann. Pro Kubikmeter kann Toluol bei einer Dichte von 0,87 g/cm³ umgerechnet ca. 14 kg Wasserstoff speichern, was einem Energieinhalt von 4*10⁶ kJ entspricht. Das ist gerade einmal 1/5 dessen, was ein LNG-Erdgasfahrzeug im gleichen Volumen mit sich führt. Nicht gerade der Renner. Bei der Untersuchung anderer Möglichkeiten, Wasserstoff an irgendetwas zu binden, findet man kein wirklichen Unterschiede zu diesen Werten.

Zum Transport von Wasserstoff eignen sich organische Wasserstoffträger somit eher nicht, und auch für die Mobilität kommen neben dem relativ geringen Energieinhalt und der damit notwendigen Tankstellendichte andere Probleme hinzu. An der Tankstelle muss man erst die alte Flüssigkeit ablaufen lassen, bevor man den Tank neu füllen kann, und auch der Tankwagen fährt voll wieder zurück und nicht leer. Auch mit AKW-Wasserstoff stellt sich die Frage, ob das wirklich die Technik der Zukunft ist, mit dem Preisgefüge, das sich aus Windkraft-Wasserstoff ergibt, braucht man diese Frage allerdings gar nicht erst zu stellen.

Strom-Speicher

Die Gastechniken werden auch als Energiepuffer für windschwache Zeiten gehandelt, d.h. man macht aus dem Gas in einem Kraftwerk wieder Strom, wenn kein Wind weht. Wäre genügend Strom vorhanden, wären Gasspeicher als solche vermutlich im Gegensatz zu allen anderen Ideen tatsächlich skalierbar, d.h. man könnte möglicherweise genügend Kavernen als Puffer bauen. Dummerweise landen wir bei P-2-G-2-P bei Wirkungsgraden um die 30%, d.h. in Überschusszeiten muss der Wind 3 kWh Überschussstrom produzieren, um in Mangelzeiten 1 kWh wieder zurück gewinnen zu können. Wir können uns die weiter Diskussion vermutlich sparen.

Außer Spesen nichts gewesen

Wie schon erwähnt, war es teilweise nicht ganz einfach, realistische Zahlen aus dem üblichen Mogelwerk heraus zuziehen und ich erhebe keinen Anspruch, wirklich die letzten technischen Details berücksichtigt zu haben. Wer in den Zahlen einen Rechenfehler findet, darf ihn auch gerne behalten. Aber auch Korrekturen dürften die Bilanzen nur unwesentlich ändern. Technisch ist alles machbar, großenteils auch vom Standpunkt eines Ingenieurs hochinteressant, aber bezüglich der Dogmenbefriedigung, unter der alles firmiert, skaliert mal wieder nichts. Da die große Stromwende einschließlich der Elektromobilität aus einer ganzen Reihe von Gründen nicht funktioniert und das selbst dem grünen Ideologieapparat auffällt, verkauft man dem Volk nun die nächste Technik ausgerechnet auf Basis des Nichtfunktionierenden nach dem Motto „wenn etwas nicht funktioniert und obendrein zu teuer ist, propagiere ich eben etwas, was überhaupt nicht funktioniert und noch teurer ist“. Und keiner lacht.

 

Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.

 

 




Liste der Wissenschaftler, die menschengemachten Klimawandel für Humbug halten

Der ein oder andere wird es mitbekommen haben: Wikipedia, dieses Mal en.wikipedia hat die Liste der Wissenschaftler, die dem “wissenschaflichen Konsens über globale Erwärmung” (List of scientists who disagree with the Scientific consensus on global warming) widersprechen, gelöscht. Die Klima-Mafia macht nicht einmal mehr den Versuch, die Zensur, das Umschreiben der Geschichte und das Fälschen von Daten zu kaschieren. Es wird alles ganz offen betrieben.

Das ist eine normale Entwicklung, denn Mitglieder von Kulten verlieren immer mehr Beziehung zur Realität, werden ihrer Sache, weil niemand widerspricht, immer sicherer und halten sich für unangreifbar. Douglas Pratt hat dieses Stadium als den Übergang vom passiven zum aktiven Fundamentalismus (und Terrorismus) beschrieben. Die schon zuvor vorhandene Unfähigkeit, von der eigenen Ansicht abweichende Meinungen auch nur zu akzeptieren, bricht sich nun als offen aggressives Verhalten Bahn, an dessen Endpunkt, je nach dem Widerstand, der für Fanatiker dieser Art natürlich vollkommen unerwartet kommt, oftmals Terrorismus steht. Zur Durchsetzung des eigenen Glaubens gegen rationale, kritische Zweifler ist jedes Mittel recht.

Die Hintergründe und der Werdegang des endgültigen Abschieds von Wikipedia aus dem Kreis der ernstzunehmenden Seiten, ist auf Elektroverse gut beschrieben. Wir wollen mit diesem Post dafür sorgen, dass die Liste der Wissenschaftler, die Rückgrat genug haben, um sich gegen Klima-Mafia und Irrationalität zu stellen, nicht in Vergessenheit gerät, und es der Klima-Mafia am Ende nicht noch gelingt, ihre Lüge vom angeblichen Konsens unter Wissenschaftlern über den Klimawandel durchzusetzen, weil es unmöglich geworden ist, im Internet und an sonstigen Stellen noch Spuren von denen, die diesen Wahnsinn mit rationalen Argumenten bekämpft haben, zu finden.

Wir haben daher die Liste, für die Wikipedia keine Verwendung mehr hat, gesichert. Es gibt sie hier als PDF.Wikipedia-List-of-Scientists

Ladet die Liste herunter, verbreitet die Liste, damit niemand sagen kann, er hätte noch nie davon gehört, dass Wissenschaftler dem Irrsinn des menschengemachten Klimawandels widersprochen hätten. Denn darin besteht offenkundig das Ziel der Klima-Mafia: Die falsche Behauptung vom angeblichen Konsens der Wissenschaftler zur religiösen Wahrheit aufzubauen, um ein perfektes Vehikel zu haben, Bürger zu erpressen und ihnen unter dem Vorwand “Klimaschutz” so viel abzupressen (Geld und Freiheit natürlich) wie möglich.

Die Benennung der Liste als “List of scientists who disagree with the Scientific consensus on global warming” zeigt übrigens schon, wie denkbehindert manche bei Wikipedia sind. Dass man kaum von einem “Konsensus” sprechen kann, wenn man eine Liste zusammenstellt, deren bloße Existenz gerade zeigt, dass es KEINEN Konsens gibt, sollte jedem, mit normalen Verstand Begabten eigentlich auffallen, ihm einsichtig sein. Dass es bei Wikipedia wohl niemandem aufgefallen ist, sagt eigentlich schon alles über die geistige Klarheit der dort versammelten.

Der Beitrag erschien zuerst bei ScienceFiles hier




Klimawandel-Gerichtsverfahren fallen wie Dominosteine

Eine Handvoll Städte in Kalifornien – selbst Großverbraucher fossiler Treibstoffe – forderten das US-Berufungsgericht auf, die vorhersehbare Abweisung ihrer Klage wegen öffentlichen Ärgernisses rückgängig zu machen und fünf Energieerzeugern die gesamte Schuld an der globalen Erwärmung zuzuschieben: BP, Chevron, ConocoPhillips, ExxonMobil und Royal Dutch Shell.

Die Städte hoffen darauf, den Unternehmen Milliarden Dollar abzuknöpfen, die für den Bau von Deichen, besseren Entwässerungssystemen und so weiter anfallen – in der Erwartung steigenden Meeresspiegels und zunehmenden Extremwetters aufgrund des Klimawandels.

Aber kein Kläger hat bisher jemals Erfolg gehabt bei derartigen Klagen.

Im Gegenteil, alle diese Verfahren beginnen wie Dominosteine zu kollabieren, erinnern die Gerichte doch die Kläger daran, dass für derartige Themen die Legislative und die Exekutive zuständig sind – und nicht die Judikative. Erstere haben die Fähigkeit und die Erfahrung, die Klimapolitik festzulegen.

Die Klima-Aktivisten hätten diese Lektion schon im Jahre 2011 lernen können, als der Oberste Gerichtshof gegen acht US-Staaten und andere Kläger urteilte, welche Behauptungen der Erregung öffentlicher Unordnung durch Treibhausgas-Emissionen erhoben hatten, erzeugt von Kraftwerken.

Das Gericht kam im Verfahren von American Electric Power vs. Connecticut einstimmig zu dem Urteil, dass der Clean Air Act [Luftreinhaltegesetz], unter welchem derartige Emissionen Gegenstand der Verordnungen der EPA sind, derartigen Verfahren vorangeht.

Die Richter betonten, dass „der Kongress eine Experten-Agentur ins Leben gerufen hat, hier die EPA … die mit Sicherheit besser für den Job ausgerüstet ist als individuelle Amtsrichter“, und die viel besser in der Lage ist, „den potentiell erreichbaren Nutzen für die Umwelt gegen den Energiebedarf unserer Nation und die Möglichkeit wirtschaftlicher Schäden abzuwägen“.

Das Gericht stellte außerdem fest, dass dies für „Fragen nationaler und internationaler Politik“ allgemein gelte, und ermahnte uns, dass der zunehmende Trend zu nutzlosen Klagen wegen öffentlichen Ärgernisses ein Problem darstellt.

Die kalifornischen Städte unter Führung von Oakland und San Francisco versuchten, dieses Präzedenz-Urteil des obersten Gerichtshofes zu umgehen, indem sie sich auf die internationale Natur der fraglichen Emissionen beriefen.

Aber dieser Schuss ging nach hinten los, als im Jahre 2018 Bundesrichter William Alsup urteilte, dass einem weltweiten Problem „nur in einem viel größeren Rahmen begegnet werden könne als durch einen Amtsrichter oder ein Gerichtshof in einem Verfahren bzgl. öffentlichen Ärgernisses“. Alsup, ein von Clinton ernannter Richter, stellte fest: „Ohne fossile Treibstoffe wären nahezu unsere sämtlichen monumentalen Fortschritte unmöglich gewesen“.

[Hervorhebung vom Übersetzer]

Im Juli 2018 verwarf ein Bundesrichter in Manhattan in einem praktisch identischen, von New York City angestrengten Verfahren die Klage aus den gleichen Gründen. Die Stadt ging in Berufung.

Inzwischen gibt es auch Klagen des gleichen Hintergrundes von Rhode Island und einer Reihe von Stadtregierungen, einschließlich Baltimore, gegen Energieunternehmen. Wie in den anderen gescheiterten Fällen verlangt man auch hier Milliarden Dollar.

Der Liste gescheiterter Klagen wurde im vorigen Monat die Zurückweisung des Berufungsgerichtes der so genannten „Kinder“-Klage hinzugefügt. Der Unterschied zu anderen Verfahren bestand hierbei darin, dass man eine Gruppe von Kindern als Kläger gegen die [US-]Bundesregierung in Stellung brachte.

Der ganze Beitrag steht hier.

Übernommen aus dem Rundbrief der GWPF vom 9. März 2020 und übersetzt von Chris Frey EIKE




„Streetscooter“: Erste Groß-Pleite der Elektromobilität

Welcher Großstadtbewohner kennt sie nicht, die kleinen gelben Elektroflitzer der Post, mit denen die Briefträger bequem und effizient Briefe und kleine Päckchen zum Bürger bringen? Schon vor geraumer Zeit erreichten mich via Facebook Nachrichten, daß die E-Flitzer vor allem im Winter es gerade so wieder zurückschaffen; aber nur, wenn die Heizung ausbleibt. Ohne Heizung nützt allerdings ein Fahrzeug mit geschlossener Karrosserie nichts; denn Fahrtwind produzieren die Kleinautos wenig.

Ähnlich äußerten sich natürlich unsere Leser-Reporter hier im Kommentarbereich, die illusionslos und kühl die Postflitzer beobachteten. Nun zieht die Konzernleitung der Post nach und beendet das Experiment Streetscooter.

Die Firma war einmal ein kleines Startup, also eine junge dynamische Privatfirma in einem „sexy“ Bereich wie künstliche Intelligenz oder Klimaschutztechnik. Die Deutsche Post kaufte dieses Unternehmen mit wohlwollender Begleitung der ökobegeisterten Presse und polierte ihr sinkendes Image damit etwas auf. Allerdings muß sich ein PR-Coup, wenn er auf Elektrochemie beruht, auch über Jahre im Alltag bewähren, und das haben die Postflitzer offenbar nicht. Ein noch mit Briefen beladenes E-Fahrzeug zurück in den örtlichen Werkhof schieben, wenn der Akku leer ist, fällt aus; dafür ist der Scooter dann doch zu groß und schwer. Oder man muß die Routen (im Winter) kürzer planen, was die Effizienz verringert. Da Briefe nur tagsüber geliefert werden, kann man die Flitzer zwar bequem nachts laden. Wenn aber während der Arbeitszeit nachgeladen werden muß, dauert das Stunden, und diese Zeit hat man nicht.

Man denke an das Berliner E-Bus-Experiment: Die Lithiumbusse fahren von 8 bis 12; danach übernehmen die Dieselfahrzeuge. Unser Referent Prof. Alt spricht in diesem Zusammenhang von doppelter Infrastruktur, die natürlich auch etwa doppelt so teuer ist. Vermutlich mußte die Post eine ähnlich ineffiziente Doppel-Flotte mit etwa 13.000 Streetscootern bewirtschaften. Die Flitzer fielen mutmaßlich häufiger aus und mußten dann repariert und durch Diesel-Bullys ersetzt werden.

Ein Kommentator von n-tv gibt die Schuld allerdings der trägen Konzernleitung der Post. Ein Projekt wie eine Elektroflitzer-Flotte müsse eben von flexiblen Startup-Managern mit Herz & Haltung betrieben werden, dann ginge das auch.

Streetscooter hätte eine dynamische, kreative und risikofreudige Führung verdient gehabt – und die Möglichkeit, sich eigenständig am Kapitalmarkt mit den notwendigen Mitteln zu versorgen.

Überzeugend ist das nicht: Startup oder Post, beide müssen sich an die Hauptsätze der Thermodynamik und die Regeln der Ökonomie halten (oikos nomos – Gesetze der Haushaltung). Denn eines darf man nicht vergessen: Die Deutsche Post ist ein Wirtschaftskonzern, der Geld verdienen muß. Die Stadtverwaltung von Berlin kann mit Fehlplanung nach Belieben Geld verbrennen – es sind zwangserhobene Steuern; und die dortigen ökosozialistischen Politiker mit Rechenschwäche sind gewählt und stehen nicht mit ihrem Privatvermögen für ihr Versagen ein.

Nun könnte man sagen, Tesla hat geschafft, was im n-TV-Zitat oben gefordert wird. Mitnichten: Elon Musk ist zwar Öko-Medienliebling, hat aber in den USA bereits Milliarden Dollar an Subventionen erhalten. Ohne die wäre er längst bankrott oder ein Minihersteller für eine Nische. Dasselbe erleben wir Deutschen ja nun in Brandenburg: Weil die Groko an der medialen Sexyness von Tesla Anteil haben will, wird die „Gigafactory“ dort mächtig gefördert. Daß dafür noch mächtiger ein ganzer Wald abgeholzt wird und billigere (?) polnische Werker eingestellt werden müssen, ist so jemandem wie Wirtschaftsminister Altmaier gleichgültig. Der Presse meist wohl auch.




Über den grandiosen Betrug des Klima-Alarmismus‘

Es gab im Jahre 1880 gerade mal 26 Stationen, davon nur 4 auf der Südhemisphäre. Selbst noch im Jahre 1900 machten die globalen Stationen mit 664 nur 2,8% der Anzahl von Stationen im Jahre 2000 aus.

Die Temperaturen über den Ozeanen, die 71% des Globus‘ überdecken, wurden entlang von Schiffsrouten gemessen, hauptsächlich auf der Nordhemisphäre und auch dort nur erratisch und mit unterschiedlichen Messverfahren. Trotz dieser Schwächen und der Tatsache, dass es absolut keine glaubwürdigen Temperaturdaten auf Raster-Niveau gab während des Zeitraumes von 1880 bis 2000 auf den Ozeanen der Südhemisphäre (welche 80,9% dieser Hemisphäre überdecken), fingen NOAA und NASA Anfang der 1990er Jahre damit an, globale mittlere Temperaturdaten zu schätzen und zu veröffentlichen.

Um das Problem zu illustrieren, veröffentlichte das Wall Street Journal (WSJ) am 16. Januar 2020 einen Leitartikel von Robert Lee Hotz, in dem man liest: „NASA und NOAA stuften das Jahr 2019 als das zweitwärmste Jahr seit 1880 ein. Die Welt habe globale Temperaturen nahe an Rekordwerten erlebt, sagten Klimawissenschaftler der [US-]Bundesregierung“. – Diese Behauptung wurde erhoben trotz der Tatsache, dass es absolut keine vertrauenswürdigen Temperaturdaten über diesen Zeitraum gibt aus über 40% der Planetenoberfläche (0.5*0.809 =0.4+).

Nach dem Jahr 2000 wurden Treibbojen eingesetzt. Aber als die beste Technologie speziell für diesen Zweck zum Einsatz kam, nämlich die ARGO-Bojen, gab es eine Enttäuschung, weil diese keinen Aufwärtstrend zeigten. Daher wurden die Daten der Bojen „adjustiert“. John Bates, zuständig für Datenqualität bei der NOAA, räumte ein: „Sie hatten gute Daten von den Bojen … und ,korrigierten‘ diese mit den schlechten Daten von Schiffen. Man ändert niemals gute Daten, damit sie zu schlechten Daten passen, aber genau das hat man getan – nur damit es so aussieht, als würde sich der Ozean erwärmen“. Nach diesen Änderungen reichte er seinen Rücktritt ein.

Das war aber nur das jüngste Beispiel von Datenmanipulation. Ursprünglich wiesen diese globalen Daten einen zyklischen Verlauf auf, ähnlich den zuvor bekannt gemachten Daten der Nordhemisphäre. Diese lagen während der 1930er und 1940er Jahre hoch und in den 1970er Jahren niedrig. Im Verlauf der Zeit wurden dann die zuvor offiziell genannten GAST-Daten modifiziert dergestalt, dass der Zyklus entfernt wurde und ein immer steiler aufwärts führender linearer Trend in jeden neuen historischen Datensatz eingebracht wurde.

Begutachtete, veröffentlichte und reproduzierbare Forschungen haben gezeigt: „die Ergebnisse belegen, dass die drei GAST-Datensätze keine valide Repräsentation der Realität sind.

Tatsächlich ist die Größenordnung der Adjustierungen historischer Daten, aus denen ihr zyklischer Temperaturverlauf entfernt worden war, vollkommen inkonsistent mit veröffentlichten und glaubwürdigen Temperaturdaten aus den USA und von anderswo. Folglich ist es trotz der jüngsten Behauptungen einer Rekord-Erwärmung unmöglich, aus den Datensätzen von NOAA und NASA abzuleiten, dass die letzten Jahre die wärmsten jemals gewesen sind“.

Die derzeitige Klimapolitik – auf der Grundlage unzuverlässiger Temperaturaufzeichnungen – bedroht unsere nationalen ökonomischen und Sicherheits-Interessen. Mit der immer extremer werdenden Klimapolitik droht als Konsequenzen daraus, diese Aufzeichnungen nicht in Frage zu stellen, eine Lawine von Rechtsstreitigkeiten auf der Grundlage des Treibhausgas-Endangerment Finding. Ebenso bedeutsam ist, dass diese Rechtsstreitigkeiten bedeutende Hindernisse sind für die Einrichtung der erforderlichen Infrastruktur, um Energie-Unabhängigkeit und ökonomisches Wachstum zu erhalten und zu verstärken.

[Hervorhebung vom Übersetzer]

Außerdem hat der Finanz-Sektor der USA bereits seine Unterstützung für die Entwicklung konventioneller Energiequellen drastisch verringert, hauptsächlich aufgrund der fortgesetzten Rufe nach gesetzlicher Zerschlagung der Industrie fossiler Treibstoffe. Auch diese Rufe stehen auf der Grundlage der invaliden globalen Temperaturaufzeichnungen von NOAA und NASA. Die Lage setzt die Energiesicherheit unserer Nation einem erheblichen Risiko aus, und das bedeutet, dass auch unsere ökonomische und nationale Sicherheit in großer Gefahr sind.

———-

[Es folgt eine längere Darstellung der Studie mit dem Titel „On the Validity of NOAA, NASA and Hadley CRU Global Average Surface Temperature Data & The Validity of EPA’s CO2 Endangerment Finding, Abridged Research Report“ von Dr. James P. Wallace III, Joseph S. D’Aleo ABD und Dr. Craig D. Idso vom Juni 2017. Diese wird wegen der vielen technischen Einzelheiten hier nicht mit übersetzt. Die Studie ist der Anlass für obigen Beitrag vom Mitautor der Studie Joseph S. D’Aleo, in welchem die Folgerungen aus der Studie beschrieben werden.

Es gibt in dem Beitrag noch ein Video über den „Superbowl“ der Daten-Manipulation von Tony Heller:
https://youtu.be/hElTSfQEdsk
Link: http://icecap.us/index.php/go/joes-blog/addendum_to_our_research_report_on_validity_of_gast_and_the_endangerment_fi/

Übersetzt von Chris Frey EIKE




Die Elektromobilität killt den Autohandel

Vor kurzem mußte Hamburgs größter VW/VAG-Händler Konkurs anmelden. Gründe wurden nicht genannt; aber ein ähnlicher Fall von 2018 in der Stadt legt nahe, daß die massiven Wertverluste von Diesel-Fahrzeugen schuld sind. Rund 1.400 Arbeitsplätze stehen nun zur Disposition. Zur Erinnerung: Die Automobilindustrie hat schon vor über zehn Jahren eine derart schlechte politische Lobbyarbeit gemacht, daß Profiteure und Ideologen aus dem ökosozialistischen Komplex, zum Beispiel die Umwelthilfe DUH, unrealistisch niedrige Abgas-Grenzwerte durchdrücken konnten. Die Industrie „wehrte“ sich mit getürkter Steuerungssoftware für die Motoren. Da jedes einzelne Fahrzeug damit ausgerüstet war, mußte der Trick früher oder später bekannt werden. Mit dem Ergebnis, daß die Medien des Ö.S.-Komplexes zum fröhlichen Halali auf die ihnen sowieso verhaßte großkapitalistische Autoindustrie bliesen.

Nach der angeblichen Luftverschmutzung durch hochmoderne, ultrasaubere deutsche Dieselaggregate wird nun der angeblich menschgemachte Klimawandel vorgeschoben, um zum nächsten Schlag gegen unsere wichtigste Industrie anzusetzen. Die bei EIKE bereits besprochenen EU-Flotten-Grenzwerte für Kohlendioxid setzen die Autohersteller unter Druck, möglichst viele Elektromobile an den Mann zu bringen, die aber kaum jemand haben will. Werden daher zu wenige verkauft, drohen gewaltige Strafzahlungen, die von der EU-Zentralregierung in Brüssel eingetrieben werden. Die Autobauer geben den Druck nun nach unten weiter und drängen die örtlichen Händler, den Kunden mehr von den unbeliebten Elektromobilen (und Hybriden, Plugin) aufzuschwatzen. Gerade VW-Händler haben den Schwarzen Peter gezogen, weil der Hersteller sämtliche Modelle mit Verbrennungsmotoren auslaufen läßt und in zehn Jahren nur noch Akku-Wagen anbieten wird. Was passieren wird, ist klar: Der traditionell kühl rechnende deutsche Autokäufer läßt sich von überteuerten Dessin-Spielereien wie dem VW Beetle oder von angeblichen Moral-Klimaschutzautos wie dem ID.3 nicht beeindrucken und geht zur Konkurrenz, die noch ordentliche hochgezüchtete Wärmekraftmaschinen in ihren Fahrzeugen anbietet. Produziert werden diese natürlich schön weit weg; sicher vor deutschen und EU-ropäischen Weltrettungs-Verrückten.

Wie sieht der Verkaufsdruck der Hersteller konkret aus? Die Händler für PSA-Fahrzeuge zum Beispiel müssen eine monatliche „CO2-Vorgabe“ erfüllen. Werden zu wenige Elektro-Opel und E-Peugeots abgesetzt, sinkt der Gewinn des Autohauses empfindlich. Die Händler wissen um die Unbeliebtheit der Öko-Klima-Mobile und beschweren sich schon über die zu hohen Anforderungen. Bei Audi-Händlern, die ebenfalls die CO2-Pistole auf die Brust gesetzt bekamen, wirkte der Protest immerhin halbwegs; statt 25% müssen die Häuser „nur“ noch 20% E-Autos verkaufen.

Die Pointe: Wegen Lieferengpässen eines Lithium-Akku-Herstellers (LgChem) werden zu wenige E-Fahrzeuge hergestellt. Die Klima-Autos sind also nicht nur unbeliebt; sie werden auch nicht produziert. Erinnert mich an den Trabi, Sie nicht auch? Die Rennpappe mußte man zu DDR-Zeiten nehmen, weil es (außer Wartburg) nichts anderes gab. Und dann mußte man auf den Plastebomber auch noch über zehn Jahre warten, weil Sachsenring in Zwickau im Schnarchmodus produzierte. Sozialismus, was will man erwarten?

Passend dazu die Nachricht, das der neue E-Trabi, Volkswagen ID.3 genannt, der passenderweise im alten Trabiwerk Mosel hergestellt wird, wahrscheinlich nicht wie geplant im Frühjahr ausgeliefert werden kann, sondern wegen – tata!- ausgerechnet Softwareproblemen sondern erst im Herbst zum Kunden kommt.

Übrigens will VW offenbar seine örtlichen Händler mit Rundum-Service-Angebot loswerden. Die neuen Elektro-Trabis ID.3 werden offiziell von der Zentrale verkauft; das Autohaus zeigt dem Kunden nur noch das Fahrzeug. Der Hersteller Tesla arbeitet immer schon so. Da wundert es nicht, daß ein Wirtschaftsberater (KPMG) mit einem erheblichen Autohaussterben rechnet: die Hälfte bis 2025.




Wikipedia entfernt die Namen klimaskeptischer Wissenschaftler aus der Historie

Was ihn aber wahrscheinlich mehr gefreut hätte, ist die großartig verdrehte Begründung des zuständigen Redakteurs:

„Das Ergebnis war Löschen. Dies liegt daran, dass ich hier einen Konsens sehe, dass es keinen Wert hat, eine Liste zu haben, die die Eigenschaften vereint von
a) Wissenschaftler im allgemeinen Sinne dieses Wortes und
b) Nichtübereinstimmung mit dem wissenschaftlichen Konsens über die globale Erwärmung. “

Mit anderen Worten, dieser Wikipedia-Editor sagt: Wenn Sie ein Wissenschaftler sind, der nicht an die menschgemachte globale Erwärmung glaubt, sind Sie automatisch kein Wissenschaftler.

Tatsächlich sind es viele Zehntausende Wissenschaftler, die der Theorie einer von Menschen verursachten globalen Erwärmung skeptisch gegenüber stehen, darunter einige der bedeutendsten Experten auf diesem Gebiet, wie z.B.  die Physiker Dr. Richard Lindzen vom MIT und Dr. Will Happer von Princeton.

Aber die Art von intoleranten Linken, die dazu neigen, Wikipedia-Seiten zu bearbeiten, wollen nicht, dass Sie dies erfahren.

Ihre archivierte Debatte, über die „Liste der Wissenschaftler, die mit dem wissenschaftlichen Konsens über die globale Erwärmung nicht einverstanden sind“, bietet einen faszinierenden, wenn nicht geradezu überraschenden Einblick in ihre Denkweise.

Die Herausgeber bezeichnen diese oft bedeutenden Wissenschaftler als „Trottel“ und „Club of Fools“ [~Verein der Deppen].

Einer sagt:

Es ist bekannt, dass verdrehte Typen solche Listen autoritativ klingender Personen führen, um ihre eigene Legitimität zu stärken und diese Liste ist nur eine weitere in diesem Genre. Es ist schon lange Zeit, die zu löschen.

Ein anderer sagt:

Die Liste ist eine Synthese , um den Leser in die Irre zu führen, ihn glauben zu lassen, es gäbe erhebliche Zweifel an der Realität der globalen Erwärmung.

Dieser Letzte ist wirklich sehr von sich eingenommen. Sein Beitrag wird wahrscheinlich am besten in der Stimme der Comic Figur von The Simpsons gelesen, dem er auch physisch ähnelt:

Noch vor zehn Jahren war mir und anderen klar, dass dieser Artikel zu einem schlecht geschriebenen Zusammenhang von nicht bemerkenswerten Randtheorien und der Befürwortung religiöser Gesichtspunkte geworden war. Zehn Jahre später sind ein Dutzend Wissenschaftler gestorben, die früher den Klimawandel bestritten haben.

Außerhalb eines weiteren Dutzend nicht aussterbender Menschen in den Vereinigten Staaten, glaubt praktisch kein anerkannter Wissenschaftler, dass der Klimawandel nicht vom Menschen verursacht wurde und insgesamt schädliche Auswirkungen auf uns und unsere Welt haben wird. Als wissenschaftliche Gemeinschaft verfügen wir auch über viel mehr Informationen und Daten und der Konsens ist größer geworden (fast 99,9% der Wissenschaftler stimmen zu), da auf den Nachrufseiten die Andenken weiterhin für diejenigen veröffentlicht werden, die mit dem wissenschaftlichen Konsens nicht einverstanden sind.

Jeder hat sein Leben fortgesetzt. In der Zwischenzeit habe ich einen Master of Art im Unterrichten von Sekundarwissenschaften erworben. Ich finde immer noch Schüler, die nicht an die Evolution glauben, und in einigen Bereichen bleibt die natürliche Auslese umstritten, aber absolut niemand – keine Lehrer, keine Schüler, keine Gelehrten – bestreitet mehr ernsthaft den Klimawandel.

Diese Liste, die etwa ein Dutzend Menschen auflistet, die sich selbst noch an ihrem Grab dem Konsens verweigern, schrumpft jeden Tag und ist ein Beispiel für die betrügerische Verbreitung von Zweifeln und Unsicherheiten , wie Johnuniq feststellte . Irgendwann in den letzten zehn Jahren ist der Leugnungs-ismus des Klimawandels die nächste Alchemie , des Äther und der Astronomie geworden.

Sicher, es gibt eine Handvoll Gläubiger in diesem Bereich, Area 51 , Kalte Fusion , Okkultismus im Nationalsozialismus , AIDS-Verleugnung und das Zeitalter des Wassermanns , aber es sind so wenige, dass die Auflistung in einem Artikel dieser Seite ihnen ein  extrem unangemessenes Gewicht verleiht. Die Liste ist auch als Gish-Galopp geschrieben – eine ganze Reihe unlogischer Argumente mit ihren eigenen Zirkelschlüssen, um den Mangel an Beweisen zu verschleiern. Bearian ( Diskussion ) 18:13, 14. November 2019 (UTC)

[Als Gish gallop wird genannt, einen Gegner in kurzer Zeit mit einer schnellen Reihe vieler fadenscheiniger Argumente, Halbwahrheiten und falscher Darstellungen zu konfrontieren, was es ihm oft unmöglich macht, alle in einer Debatte zu widerlegen – hmm, an was erinnert mich das nur? Der Übersetzer]

Einige mutige Gegenstimmen versuchen, gegen die Zensur zu argumentieren.

Einer kommt mit dem Punkt, dass die Wissenschaftler auf der Liste nicht gerade verdrehte Typen sind:

Werfen wir einen Blick auf die Liste der Personen, die für Ihre sogenannten „Randtheorien, die für religiöse Zwecke entwickelt wurden“ verantwortlich sind.

    • Patrick Moore, einer der Gründer von Greenpeace;
    • Ivar Giaever, erhielt 1973 den Physik-Nobel Preis;
    • Judith Curry, pensionierte Leiterin der Abteilung für Atmosphärische Wissenschaften des Georgia Institute of Technology;
    • Richard Lindzen, pensionierter Leiter der Abteilung für Atmosphärische Wissenschaften des Massachusetts Institute of Technology und Mitglied der National Academy of Sciences (Sie wissen, dass Einstein dort Mitglied war);
    • Vincent Courtillot, Mitglied der Französischen Akademie der Wissenschaften;
    • Khabibullo Abdussamatov, Mitglied der Russischen Akademie der Wissenschaften;
    • John Christy, Professor an der Universität von Alabama in Huntsville, der die von NOAA und NASSA verwendeten Temperaturdaten aufbewahrt und zu den IPCC-Berichten beiträgt;
    • Roy Spencer, der die Daten mit John Christy aufbewahrt;
    • Frederich Seitz, ehemaliger Präsident der Nationalen Akademie der Wissenschaften.

Ein anderer weist darauf hin, dass einer der Zwecke von Wikipedia darin besteht, Menschen bei der Recherche zu helfen:

Dies ist ein gültiger Listenartikel, da er Menschen hilft, Wissenschaftler dieses Typs zu finden.

Aber die beste Antwort ist diese:

Mit Entschuldigungen an Leute, denen glauben gemacht wurde, dass die Wikipedia –Klima Zusammenstellungen den Ton angeben … Wen veralbern wir hier? Dies ist ein wichtiger, seit langem bestehender Artikel, der den im Wesentlichen permanent manipulierten Artikeln über das Klima ein kleines Stückchen Ausgewogenheit hinzufügt.

Natürlich macht sein tapferer Beitrag keinen Unterschied. Wikipedia hat es längst aufgegeben, eine neutrale Informationsquelle zu sein. Wenn Sie die linken Werte nicht teilen, sind Sie dort wirklich nicht willkommen.

Breitbart.com

https://wattsupwiththat.com/2020/03/09/delingpole-wikipedia-airbrushes-list-of-climate-sceptic-scientists-out-of-history/

Übersetzt durch Andreas Demmig




Woher kommt der Strom? Es bleibt desaströs

Agora-Wochenchart

Woher kommt der Strom? Erläuterungen …

(Wochentabelle Energy-Charts: Hier klicken. Daraus generierter Wochenchart: Hier klicken).

Zum Wochenbeginn bricht die Windstromerzeugung innerhalb von 15 Stunden auf ein Viertel ein. Eine enorme Stromunterdeckung entsteht. Strom wird zum zweithöchsten Preis der Woche importiert. Der höchste Preis wird zum Wochenende aufgerufen, als Deutschland wiederum eine Stromlücke füllen muss. Dabei ist es müßig, darüber nachzudenken, ob die dritte Strom-Unterdeckung – es gab eine dritte in der Mitte der Woche – der Woche 9 von deutschen Kraftwerken hätten abgedeckt werden können. Man hätte es sicher gekonnt, hat es aus Kostengründen aber nicht getan. Der Strom war im Markt, also wurde er importiert.

Doch was geschieht, wenn das benachbarte Ausland wegen Eigenbedarfs den Strom nicht zur Verfügung stellen kann. Dann muss der Strom selbst noch teurer hergestellt werden. Strom für verhältnismäßig kurze Zeiträume. Stromerzeugung, die, wenn der Wind wieder stärker weht, heruntergefahren werden sollte. Geht das? ist das technisch überhaupt möglich? Wenn ja, zu welchen Kosten. Können diese dann im Markt erzielt werden?

Aktuell sieht es so aus, dass das bereits vielfach genannte Mantra gilt: Benötigt Deutschland Strom, ist der Preis hoch, gibt Deutschland Strom ab, sind die Preise niedrig. Österreich zum Beispiel füllt seine Pumpspeicher immer wieder günstig auf und versorgt seine Bürger mit Strom aus Deutschland. Deshalb liegt der Strompreis in Österreich heuer zwischen 0,17 und 0,24 €/kWh. Die Aufschlüsselung des Im- und Exports Deutschland finden Sie für die 9. Woche hier, für das bisherige Jahr 2020 hier.  Hier noch die Charts mit der Analyse einer theoretisch angenommenen Verdoppelung und Verfünffachung der installierten Leistung Wind- und Sonnenkraft. Beide Charts belegen, dass eine Verstetigung der Stromerzeugung – stetiger Strom, sichere und kontinuierlich fließende Energie ist für ein Industrieland unabdingbar – sehr schwierig bis unmöglich sein wird.

Die Tagesanalysen

Sonntag, 23.2.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 74,48%, davon Windstrom 62,07%, Sonnenstrom 1,38%, Strom Biomasse/Wasserkraft 11,03%. Die Agora-Chartmatrix: Hier klicken.

Heute ab 9:00 Uhr liegt der Strompreis nicht mehr im negativen Bereich. Mehr als 23,57 € werden pro MWh in der Spitze allerdings nicht erreicht. Zwar sind die Strompreise, die erzielt werden, nicht auskömmlich. Zumal Windmüllern der garantierte EEG-Preis vergütet wird. Aber immerhin, die Negativpreiszeiten sind diese Woche, wenn man vom Morgen 0:00 Uhr absieht, erst mal vorbei. Praktisch verschenkt wird der Strom allerdings zumindest einmal immer noch.

Montag, 24.2.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 60,96%, davon Windstrom 45,89%, Sonnenstrom 3,42%, Strom Biomasse/Wasserkraft 11,64%. Die Agora-Chartmatrix: Hier klicken.

Der Tag mit der ersten Strom-Unterdeckung der Woche 9. Hier ist sehr schön zu erkennen, dass der Anteil des regenerativ erzeugten Stroms rapide fällt, die Strom-Unterdeckung entsteht und die Preise anziehen. Pumpspeicherstrom reicht nicht aus, um die Lücke zu schließen. Die anderen konventionellen Stromerzeuger verharren auf dem erreichten Niveau.

Dienstag, 25.2.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 65,68%, davon Windstrom 51,58%, Sonnenstrom 4,14%, Strom Biomasse/Wasserkraft 10,06%. Die Agora-Chartmatrix: Hier klicken.

Nachdem sich die regenerative Stromerzeugung am 24.2.2020 über Tag inkl. Sonnenstrom wieder „erholt“ hat, beginnt heute, am 25.2.2020, der langsame Abstieg zum „erneuerbaren Tiefpunkt“ der Woche am Donnerstag mit einer weiteren Stromunterdeckung. Die Windstromerzeugung lässt nach: Die Strompreise steigen. Dieses Phänomen konnte bereits mehrfach beobachtet werden. Auskömmlich sind die Preise gleichwohl nicht. Es werden nicht einmal 40 €/MWh erreicht.

Mittwoch, 26.2.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 47,62%, davon Windstrom 31,97, Sonnenstrom 4,08%, Strom Biomasse/Wasserkraft 11,56%. Die Agora-Chartmatrix: Hier klicken.

Heute tut sich eine Mini-Stromlücke auf. Die Stromversorgung ist insgesamt auf Kante genäht. Der Im-/Exportsaldo geht gegen Null. Pumpspeicherstrom ergänzt morgens und abends nahezu vollständig den benötigten Strom. Dennoch muss zwecks Netzstabilisierung Strom importiert und exportiert werden.

Donnerstag, 27.2.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 37,67%, davon Windstrom 22%, Sonnenstrom 4,35%, Strom Biomasse/Wasserkraft 11,18% Die Agora-Chartmatrix: Hier klicken.

Der „erneuerbare Tiefpunkt der Woche“. Nur noch um die 6 GW liefern Wind und Sonne, 7 GW liefern Biomasse und Wasserkraft um 17:00 Uhr. Macht 13 GW. Benötigt werden 73 GW. Heute importiert Deutschland absolut mehr Strom, als es exportiert. Zu zum Teil saftigen Preisen.

Freitag, 28.2.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 56,17%, davon Windstrom 40,12%, Sonnenstrom 5,56%, Strom Biomasse/Wasserkraft 10,49%. Die Agora-Chartmatrix: Hier klicken. & Samstag, 29.2.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 73,38%, davon Windstrom 57,14%, Sonnenstrom 5,19%, Strom Biomasse/Wasserkraft 11,04%. Die Agora-Chartmatrix: Hier klicken.

In der Nacht zum Freitag steigt die Windstromerzeugung wieder an. Um in der Nacht zum Samstag noch mal zuzulegen. Auf einmal ist viel zu viel Strom im Markt. Die Preise fallen, fallen um 0:00 Uhr sogar fast auf die 0 €/MWh-Marke und steigern sich am Samstag auf maximal 16 €/MWh. Es ist einfach desaströs. Zuviel Strom aus erneuerbaren, regenerativen Energieträgern = Geringe Preise; zu wenig Strom aus erneuerbaren, regenerativen Energieträgern = Geringe Preise. Der Stromkunde merkt davon nichts. Er muss die EEG-Umlage zahlen. Für ihn gibt es nur hohe Preise. Es ist ein Desaster. Einen Effekt wird die deutsche Energiewende nicht haben. Außer einen abschreckenden.

In der vergangenen Woche hat es neue prozentuale Rekorde der Stromerzeugung durch erneuerbare Energieträger gegeben. Solche Rekorde sind allerdings nur ein Marketing-Gag. Selbstverständlich hat es bereits des Öfteren eine höhere regenerative Stromerzeugung gegeben als am 22.2.2020. Auch im Jahr 2020, konkret am 11.2.2020 (Abbildung). Absolut gesehen. Nur war der Strombedarf zum Zeitpunkt dieses absoluten Rekordwertes viel höher als an den prozentualen „Rekord“-Tagen.

Unfug mit prozentualen Rekorden

Prozentuale Rekorde in Sachen Stromerzeugung mittels erneuerbarer Energieträger funktionieren nur mit entsprechend wenig Strombedarf, also an Samstagen, Sonn- und Feiertagen. So auch diesmal am 22.2.2020 (Abbildung), der Tag, der den Ostermontag 2019 ablöst (Abbildung 1), der nur knapp eine Woche später am Samstag, den 22.2.2020 nochmal getoppt wird (Abbildung 2).

Ein ähnlicher Unfug wie die Prozentrekorde sind die immer wieder kommunizierten Ziele in Sachen Ausbau Wind- und Sonnenkraftwerke. Der in der Vergangenheit am meisten genannte Wert ist das 65 Prozent-Ziel. Bleibt die Frage, Prozent wovon? Angesichts der massiven Ausbaupläne der Elektromobilität kann nicht davon ausgegangen werden, dass der aktuelle Strombedarf Deutschlands netto (Abbildung 3) gemeint ist. Oder etwa doch? Man weiß es nicht. Man erfährt es nicht.

Wie unsinnig und verwirrend die Information per Ziele in Prozent ist, belegt ein Kurzbericht des Deutschlandfunks vom 5.3.2020 (Abbildung 4), der den ebenfalls recht kurzen Artikel des Spiegel bezogen auf die Prozentzahlen nicht korrekt wiedergibt. Da ist von 55 Prozent die Rede, die angeblich nicht erreicht werden. Dabei meint der Spiegel, dass bis 2030 eben nur 55 Prozent erreicht werden könnten, und nicht die angesagten 65 Prozent (Abbildung 5).

Bemerkenswert ist in diesem Zusammenhang, dass sich der Chef des Think-Tanks Agora-Energiewende, Patrick Graichen, zu Wort meldet, und die Zahlen, welche die Bundesregierung in zwei Gutachten produziert, als viel zu optimistisch sieht:

Graichen: Ich habe mir die Gutachten angeguckt und da stecken jede Menge noch optimistische Annahmen drin. Da wurde jetzt schon ganz im Sinne der Bundesregierung gerechnet, weil, da wird zum Beispiel davon ausgegangen, dass die Erneuerbaren ausgebaut werden wie geplant. Wir sehen aber ja gerade eine Windkrise großen Ausmaßes. Kaum mehr Windräder werden gebaut. Ich persönlich bin da skeptisch, dass das, was da aufgeschrieben wird, überhaupt erreicht wird. (Abbildung 6)

Zum Schluss möchte ich dem geneigten Leser die Rede unseres Bundeswirtschaftsministers Peter Altmaier im Bundestag vom 6.3.2020 zur Kenntnis bringen. Es ist meines Erachtens ein Dokument der Unkenntnis, ein Dokument der Perspektivlosigkeit für die Nichtenergiewendewirtschaft, insgesamt ist es meines Erachtens ein Dokument des Grauens (Abbildung 7).

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: hier klicken. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Zuerst erschienen bei der Achse des Guten; mit freundlicher Genehmigung.

Rüdiger Stobbe betreibt seit vier Jahren den Politikblog  www.mediagnose.de




Stromversorgung 2030

Lager B beruft sich dabei auf die Physik und wird angeführt von professionellen Leuten wie Hanns-Werner Sinn, dem ehemaligen Chef des IfO-Instituts, der seit 2012 bei jeder neuen Idee aufgrund durchaus mit normaler Schulbildung nachvollziehbaren Rechenmethoden vorrechnet, dass auch das nicht klappt.

Dazwischen steht die Gruppe der Politiker, Regierungen und Behörden mit der Behauptung „Wir haben alles durch gerechnet und es funktioniert!“, wobei sie allerdings auf genaueres Nachfragen keine Antwort geben oder sich notfalls auch für nicht zuständig erklären. Gruppe B bringt das in der Meinung, man müsse nur korrekte und prüfbare Informationen verbreiten und die Irrtümer aufklären, mehr oder weniger zur Verzweiflung, denn die von ihr gelieferten Fakten werden schlicht als Minderheitsmeinung abgetan. Grotesk: während eine Greta Thunberg auf einer Pressekonferenz der EU-Kommission herumtönt, „mit der Physik kann man nicht diskutieren“, wird hier genau das getan.

Aber ist die Politik wirklich einfach nur borniert und unbelehrbar? Treibt sie die Gesellschaft mit geschlossenen Augen trotz aller Warnungen in die Katastrophe eines totalen Blackouts, der selbst nach Gutachten des Bundestages das Ende der zivilisierten Gesellschaft bedeuten könnte? Oder stecken andere, noch perfidere Gedanken dahinter, die selbst Gruppe B nicht berücksichtigt? Schauen wir mal.

DIE WELT sprach mit dem Chef der Kohle-Sparte von E.on, Andreas Schierenbeck. Der sagt: „Der von der Bundesregierung beschlossene Kernkraft- und Kohleausstieg wird eine erhebliche Stromlücke zur Folge haben…Im Ergebnis schalten Sie große Kraftwerkskapazitäten ab, obwohl in Deutschland eine Stromlücke droht, wie Sie sagen…Einen Blackout kann sich bei uns in Deutschland keiner mehr vorstellen. Ich habe lange genug in den USA gelebt und weiß, was zwei Wochen Blackout bedeuten. / Link zum Fundstück

Das 65%-EE-Ziel 2030

Der EE-Ausbau ist am Limit. Immer mehr Bürger wehren sich gegen die weiteren Ausbau, weil sich allmählich auf dem Land die Einsicht breit macht, dass die Anlagen alles andere als umweltfreundlich und gesundheitsneutral sind. Wie weit die Politiker von der Realität entfernt sind, verrät ein Kommentar der Grünenpolitikerin Katharina Schulze, die auf einem Foto Windräder hinter einem Dorf für ein Fotomontage hält. Die Branche kriselt. In Sachsen wurden beispielsweise 2019 nur 12 neue Anlagen gebaut.

Das passt nicht in das politische Bild. Stellvertretend für andere Medien berichtet die Leipziger Volkszeitung am 27.2.2020, das nach Ansicht mehrerer Bundesminister die gerade eingeführte 1000m-Abstandsregel für Windkraftanlagen von Wohnsiedlungen in eine unverbindliche Empfehlung umgewandelt werden muss, da ansonsten das Ziel einer 65%-igen Versorgung aus EE im Jahr 2030 nicht umsetzbar ist. Am 7.3.2020 legt Sachsens Ministerpräsident Kretschmer (CDU) eben dort noch mal nach und fordert, die Instrumente, mit denen sich die Bürger heute erfolgreich gegen weitere Anlagen wehren (z.B. Umweltschutz, Verbandsklage), abzuschaffen, um nicht ständig durch Leute aufgehalten zu werden, die „damit eigentlich nichts zu schaffen haben“.

65% bedeutet aber mehr oder weniger eine Verdopplung der heutigen Anlagenzahl bis 2030, zumal zunehmend mehr windschwache Gebiete erschlossen werden müssen. Was ist an den 65% so bedeutend, dass den Betroffenen und ihren Vertretern die Rechte an der Mitwirkung entzogen werden sollen?

Der Energie-Monitoringbericht 2019

Eine Antwort erhält man aus dem Energie-Monitoring-Bericht 2019 des Bundeswirtschaftsministeriums, der die Versorgungssicherheit mit Strom bis zum Jahr 2030 behandelt. Erstaunlicherweise ist EE kein zentrales Thema, sondern wird nur am Rande erwähnt und mit einer bestimmten Versorgungskapazität als vorhanden vorausgesetzt.

Ein genanntes Ziel des Netzausbaus bis 2030 ist die Beseitigung der derzeitigen Stromüberproduktion und der damit verbundenen Stromexporte, die teilweise zu Negativpreisen stattfindet. Dass die Überproduktion ein Resultat der Unvereinbarkeit der volatilen EE mit den Großkraftwerken ist, die aus verschiedenen Gründen den Schwankungen der EE-Produktion nicht folgen können, wird nicht erwähnt. Es wird schlicht an der beschlossenen sukzessiven Abschaltung der Kraftwerke festgehalten, womit das Ziel erreicht wird.

Die durch die Abschaltungen entstehende Versorgungslücke soll durch den priorisierten Bau kleinerer Gaskraftwerke von 20 MW bis 250 MW abgefangen werden. Im Zusammenhang mit diesem Kraftwerksbau soll eine Dezentralisierung und Segmentierung der Netzstruktur erfolgen. Kleinkraftwerke dieser Größenordnung sind in der Lage, mit der Volatilität der EE Schritt zu halten, womit das Erreichen des No-Exportziels garantiert wäre.

Den Autoren ist allerdings klar, dass diese Umrüstung auf Kleinkraftwerke die bisherige 100%-Versorgung bei Dunkelflauten nicht übernehmen kann. Im Monitoringbericht wird die Stromversorgung 2030 daher als eine gesamteuropäische Aufgabe definiert. Länder mit einem temporärem Versorgungsengpass müssen aus anderen EU-Ländern mit dortigen temporären Überschüssen versorgt werden. Um 2030 eine 100%-Bedarfsdeckung erreichen zu können, wird eine Erhöhung der Kapazität der Übergabeleitungen zu anderen EU-Ländern auf 55% des Gesamtbedarfs vorgesehen. Anders ausgedrückt liegt die Eigenversorgungskapazität im Fall einer Dunkelflaute nur noch bei 45%. Und hier haben wir den Grund für die Wichtigkeit des Erreichens des 65%-Ziels bei den EE zu sehen: werden diese nicht erreicht, Erzeugung und Netz aber in der beschriebenen Weise umgebaut, kommt es zu einer mehr oder weniger permanenten Unterversorgung.

Die gesamteuropäische Lösung ist allerdings eine Mogelpackung. Der Bericht weist ausdrücklich darauf hin, dass jedes EU-Land einen solchen Monitoringbericht ohne zentrale Koordination oder Abgleich mit den Nachbarn für sich selbst erstellt. Nach den EU-Vorgaben marschieren die anderen EU-Länder aber in die gleiche Richtung und bauen ihre klassischen Kapazitäten ab. Hanns-Werner Sinn u.a. haben nachgewiesen, dass Dunkelflauten über mehrere Länder hinweg keineswegs eine Seltenheit sind, d.h. die Nachbarn können mit hoher Wahrscheinlichkeit bei einem Strommangel nicht liefern. Im Monitoringbericht wird darauf nicht eingegangen, aber die Möglichkeit angesprochen, dass Strom über sehr weite Strecken transportiert werden muss. Eine Betrachtung der Verluste, wenn nach diesem Modell Strom aus Spanien hier Lücken schließen soll, wird allerdings wieder ausdrücklich ausgeschlossen, ebenfalls der Fall, dass Frankreich den Strom ebenfalls benötigt und hier nichts ankommt.

Trotz dieser Verschleierungstaktik ist den Autoren anscheinend klar, dass eine zumindest zeitweise Unterversorgung nicht zu umgehen ist. Der Bericht sagt im Klartext, dass der heutige Anspruch auf eine (weitestgehend) störungsfreie Versorgung auf Dauer nicht aufrecht zu erhalten ist, d.h. es ist mit Stromausfällen zu rechnen. Wie diese aussehen werden, wird durch die technische Maßnahmen indirekt beschrieben: die Netzstruktur soll dezentralisiert und segmentiert werden, zudem soll durch technische Maßnahmen die Regelabweichung von der Netzfrequenz so erweitert werden, so dass Frequenzverluste, die heute zur Notabschaltung führen, noch problemlos verkraftet werden können. Für den Nichttechniker sieht das harmlos aus, für den Techniker ist allerdings klar: ein Blackout soll 2030 nicht mehr total sein, wie er es heute wäre, sondern sich technisch lokalisieren lassen.

Das ist ein zentraler Punkt der Mangelplanung, weshalb er genauer erläutert zu werden verdient: bisher schaltet sich bei einer Überlast im Netz meist ein Kraftwerk ab, das die Netzfrequenz nicht halten kann, was in einer Kaskade dazu führt, dass weitere Kraftwerke bei dem Versuch, die zusätzlich Last aufzufangen, ebenfalls abschalten mussten. Da Teilnetze meist nicht separat abgeschaltet werden können, sind Notabschaltungen infolge von Überlast daher oft sehr weiträumig, aber infolge der stabilen Netze auch äußerst selten (Ausfälle infolge von Leitungsstörungen sind oft begrenzter, aber ein anderes Problem; hier geht es um grundsätzliche Unterversorgung).

Die technische Beschreibung im Monitoringbericht ist zwar allgemein gehalten, legt aber den Schluss nahe, dass zukünftig ein versorgtes Netzsegment bei Bedarf abgeschaltet werden kann, bevor die Kraftwerke selbst abschalten müssen. Etwas salopp gesprochen fällt nicht in ganz NRW der Strom mitsamt den Kraftwerken aus, sondern gezielt nur in Köln, während der Rest weiter versorgt wird. Bleibt die Unterversorgung längere Zeit bestehen, besteht technisch die Möglichkeit, nach einigen Stunden Düsseldorf vom Netz zu trennen und dafür Köln wieder aufzuschalten. D.h. man versucht nicht, einen Blackout zu vermeiden, sondern ihn zu beherrschen.

Im Falle einer Dunkelflaute ohne Importmöglichkeiten wäre theoretisch so die Hälfte der Republik ohne Strom, aber ein allgemeiner Blackout würde vermieden werden können. Konkret: bei einer 4-Tage-Dunkelflaute wie im Januar 2020 müsste sich die Bevölkerung darauf einrichten, über diesen Zeitraum hinweg statistisch nur jeweils einen halben Tag mit Strom versorgt zu werden.

Ist das so geplant? Eine kontrollierte Unterversorgung? Zumindest gibt die technische Beschreibung im Monitoringbericht, auch wenn sie oft nur in Nebensätzen gehalten wird, diese Möglichkeit her. Dazu passt auch ein „Notfallkochbuch“, das ausgerechnet jetzt vom Bundesamt für Katastrophenschutz heraus gegeben wird und nur Sinn macht, wenn es tatsächlich zu häufigeren und längeren Stromausfällen kommt. Und es würde auch die Unbelehrbarkeit der Politik durch Gruppe B erklären.

Berichtslücken

War schon die fehlenden Abstimmung der EU-Länder bei der Erstellung ihrer Monitoringberichte eine gravierende Lücke, so gibt es im Bericht weitere, teilweise in dem sie erwähnt werden, teilweise indem sie eben nicht erwähnt werden.

So prognostiziert der Bericht einen Rückgang des Strombedarfs bis 2030 um satte 8%. Mit keinem Wort erwähnt wird die E-Mobilität, die alleine, würde sie bis 2030 in dem Maßstab greifen, den die Politik vorsieht, einen Mehrbedarf von ca. 20% bedeuten würde. Ist die E-Mobilität klammheimlich bereits abgeschrieben? Auch die derzeit hippe Wasserstofftechnologie, die ebenfalls einen größeren Bedarf an elektrischem Strom besitzt, taucht mit keinen Wort auf. Stromspeichertechniken, bislang in aller Politiker Munde, werden nirgendwo erwähnt. Erwähnt werden lediglich so genannte Sektorkopplungen, also Verknüpfungen mit anderen Technikbereichen, allerdings meist in allgemeiner Form als Einsparpotentiale. Das Problem daran ist allerdings, dass die meisten Sektorkopplungsprojekte nach deren speziellen Berichten darin bestehen, anstelle anderer Energieformen Strom einzusetzen. Also auch hier eher Mehr- als Minderbedarf.

Auf die Kosten wird ebenfalls nicht eingegangen. Die Stilllegung der funktionierenden Großkraftwerke, der Gaskraftwerksbau und der Netzumbau dürften zusammen mit dem weiteren Ausbau der EE dafür sorgen, dass sich die Strompreise bis 2030 nach heutiger Kaufkraft nahezu verdoppeln. Dass eine Wirtschaft bei derartigen Preisen und notorischer Unterversorgung nicht funktionieren kann, dürfte jedem klar sein. Ob damit hinter dem Monitoringbericht tatsächlich eine Vorstellung von einer funktionierenden Gesellschaft im Jahr 2030 steht, darf wohl bezweifelt werden. Mehr Licht auf diesen Aspekt wirft ein weiterer Bericht.

Die Digitalisierung

Der Digitalisierungsreport ist ein weiteres Papier aus dem BMWi. Durch Digitalisierung des Versorgungsnetzes sollen zukünftige Versorgungsprobleme gelöst werden – auch das ein Versprechen verschiedener Politiker.

Die bereits jetzt anlaufende Digitalisierung besteht für den Stromkunden in einer Umrüstung der vorhandenen Stromzähler durch elektronische Zähler. Diese sollen es ermöglichen, dass der Stromkunde dann seine Geräte einschaltet, wenn der Strom preislich günstig ist, womit im Grund ein schon älteres Prinzip aufgegriffen wird: per Impuls wurde früher vom teuren Tagstrom auf den billigeren Nachtstrom umgeschaltet und damit elektrische Nachtspeicheröfen aufgeheizt, die tagsüber die Wohnungen warm hielten. Elektronische Zähler können das natürlich viel feiner auflösen.

Wer genauer darüber nachdenkt, wird unschwer ein paar Pferdefüße finden. Einen Geschirrspüler mag man noch so programmieren können, dass er nachts um 3 Uhr sein Programm abspult, aber bei anderen Großverbrauchern wie Waschmaschinen wird das schon schwieriger, Gefriergeräte besitzen ohnehin keine Automatik, die einen (energetisch obendrein ungünstigen) Betrieb zwischen -30°C und -18° erlauben und beim Küchenherd hört es endgültig auf, sich an günstige Tarife halten zu wollen. Was steckt wirklich dahinter?

Eine Antwort liefert ein Blick auf die Kosten: die Umrüstung eines Hausanschlusses kostet nach Angaben der Verbraucherschutzorganisationen mehrere tausend Euro Umrüstungskosten, was nur zu rechtfertigen ist, wenn das neue Gerät nicht nur zählen, sondern gezielt auch Stromkreise im Haushalt ein- und ausschalten können soll. Im Klartext: nicht nur der Wohnungsinhaber kann nach Bedarf Geräte gezielt ein- und ausschalten, auch der Stromversorger kann das und bei einer Unterversorgung gezielt Stromkreise abkoppeln. Dazu muss aber der Sicherungskasten komplett neu verdrahtet werden und daher auch die Kosten.

Der Digitalisierungreport bleibt aber hier nicht stehen. Die Digitalisierung soll total sein und alle Lebensbereiche umfassen, in denen messbare Daten anfallen. Konkret in Bezug auf die Stromversorgung ist beispielsweise ein automatischer Abgleich mit der Zahlungsfähigkeit des Kunden denkbar. Diese Feinsteuerungsmöglichkeit über die Netzsegmente des Monitoringberichtes hinaus machen durchaus Sinn, kann doch im Endausbau der Versorger individuell entscheiden, wer noch Strom bekommt und wer nicht.

Fazit

Ist das der Plan? Ich kann das nur aus der Sicht des Ingenieurs beantworten, indem ich analysiere, was technisch und logisch einen Sinn ergibt. Das dabei irgendwelche wichtigen Informationen übersehen werden, ist eher unwahrscheinlich, da zu oft danach gefragt worden und keine Antwort gegeben worden ist. Auch aus den Formulierungen der Ingenieure, die solche Berichte schreiben, geht diese innere Logik hervor. Also ja, das ist der Plan.

Wird der so hart durchgezogen? Dazu kann ich natürlich wenig sagen. Die Entwicklungen sind möglich, aber die Leute dahinter werden sicher abwägen, was umsetzbar ist und was zumindest aufgeschoben werden muss.

Was ist der Master-Plan und wer steckt dahinter? Dazu weiß ich nichts zu sagen, da gibt es sicher andere Leute, die Netzwerke besser erkennen können. Sicher nicht alle, die heute vollmundig herumtönen, denn nicht wenige Politiker weisen den notwendigen intellektuellen Hintergrund nicht auf.

Im Gegensatz zur Befürchtung der Gruppe B hinsichtlich einer Unbelehrbarkeit wissen die entscheidenden Personen in der Politik sehr wohl, in welche Richtung der Zug fährt, zumindest was die Stromversorgung angeht. Und das ist einerseits nicht die Richtung, die Gruppe A vorgegaukelt wird, und andererseits zu bösartig, als dass Gruppe B so etwas in die Überlegungen einbeziehen möchte. Hier wird eine Kontrolle der Gesellschaft durch Beschneidung des Zugangs zu Energie geplant bis hin zu individuellen Maßnahmen. Die Implikationen müssen wohl kaum erläutert werden.

Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.




Suche nach Beschleu­nigung an den völlig falschen Orten

Also klickte ich ach den entsprechenden Satelliten-Aufzeichnungen der University of Colorado. Aber nach dem Plot erkannte ich, dass man im Jahre 2018 aufgehört hatte. Nirgendwo konnte ich auf der Website eine Begründung dafür finden.

Abbildung 1: Meeresspiegel-Aufzeichnung der University of Colorado. Man beachte, dass es sich um einen Zusammenschnitt von vier Satelliten-Datensätzen handelt, die alle in ziemlich guter Übereinstimmung zu stehen scheinen.

Ich wollte aktuellere Aufzeichnungen und fand die AVISO-Website. Das ist die französische Gruppe,welche die Original-Satellitenmessungen aufzeichnet.

Ich musste jedoch lachen, als ich auf der AVISO-Website suchte und die folgende Graphik fand:

Abbildung 2: Alle neun verfügbaren Satelliten-Aufzeichnungen bzgl. des Meeresspiegels

HILFE! Ich hatte wirklich keine Ahnung, dass es so schlimm war. Es scheint, als ob die guten Leute in Colorado einfach ein paar passende Aufzeichnungen obiger Gruppe herausgepickt und sie zusammengeschweißt hätten und das dann eine valide Aufzeichnung passend für alle Zwecke genannt haben.

Ich andererseits würde sagen, dass hier genug Daten vorliegen, um uns vielleicht einen Trend mit viel Unsicherheit zu zeigen … aber aus diesem Mischmasch eine Beschleunigung heraus kitzeln? Dass ich nicht lache.

Wie auch immer, ich beschloss, noch einen Blick auf den „Referenz“-Datensatz von AVISO zu werfen. Dieser ist oben grün eingezeichnet. Er ist im Wesentlichen identisch mit dem Datensatz aus Colorado, läuft aber bis Ende 2019. Also analysierte ich ihn.

Nun habe ich jüngst mit einem selbst entwickelten Analyse-Verfahren bzgl. des Meeresspiegels gearbeitet. Es basiert auf einer Analyseart mit der Bezeichnung „Complete Ensemble Empirical Mode Decomposition“ (CEEMD). Mehr dazu in diesem Beitrag von mir.

Das CEEMD-Verfahren dient dazu, Stück für Stück die zugrunde liegenden Zyklen der zu analysierenden Datensätze zu erkennen und zu entfernen. Danach bleibt etwas übrig, das man „Residuum“ nennt. Alle identifizierbaren Zyklen sind dann entfernt.

Natürlich lassen sich mit diesem Verfahren keine Zyklen erkennen, die so lang wie der Datensatz oder noch länger sind. Bei meiner letzten Analyse beispielsweise betrachtete ich 40 bis 50 Jahre lange Datensätze. Hier ein Beispiel über 44 Jahre:

Abbildung 3: Eine CEEMD-Analyse der Tidendaten aus Fishguard in Wales.

Wie man sieht, ist ein Zyklus über 33 Jahre nicht entfernt worden – er ist zu lang, um in einem 44 Jahre langen Datensatz aufgelöst zu werden.

Und dies belegt ein riesiges Problem, wenn man zu ergründen versucht, ob sich die Rate des Meeresspiegel-Anstiegs beschleunigt. Man weiß, dass die Tidendaten sehr langzeitliche Zyklen von 50 Jahren oder mehr aufweisen. Aber wie schon in meinem Beitrag mit dem Titel „Accelerating The Acceleration“ beschrieben, haben die Personen, welche die „US Sea Level Report Card” erstellten, die Tidendaten beschnitten. Alles vor dem Jahr 1969 wurde entfernt … was garantiert, dass das Signal immer noch Zyklen enthält. Und dies wiederum garantiert, dass jedwede Schlussfolgerungen von ihnen bedeutungslos sind.

Das andere Problem ist, dass man in der „US Sea Level Report Card” nicht einmal versucht, die Tidenzyklen zu entfernen. Sie scheinen närrischerweise zu glauben, dass man einfach nur schauen muss, ob sich in den Rohdaten eine Beschleunigung zeigt … aber stattdessen machen sie nichts anderes als einfach irgendwelche langzeitlichen Tidenzyklen zu messen.

Nach diesem Prolog möchte ich mir jetzt die längsten Zeitreihen mit Aufzeichnungen des Meeresspiegels vornehmen. Es gibt einige wenige mit Zeitreihen von 100 bis über 150 Jahren. Das ist lang genug, um die meisten der langzeitlichen Zyklen zu entfernen. Wie oben zog ich das CEEMD-Verfahren heran, um die Zyklen zu entfernen, was lediglich das zugrunde liegende Residuum zurücklässt. Als Erstes nahm ich mir die Aufzeichnung von Cuxhaven vor, die sich über 176 Jahre erstreckt.

Welche längerzeitlichen Meeresspiegel-Zyklen werden mit dem CEEMD-Verfahren entfernt? Hier folgen die empirisch erkannten Gruppen von Zyklen, welche die Zeitreihe von Cuxhaven ausmachen:

Abbildung 4: Perioden der Gruppen von Zyklen, welche mittels des CEEMD-Verfahrens aus den Cuxhaven-Daten entfernt worden sind.

Wie zu erwarten war, ergibt sich eine Anzahl kurzfristiger Zyklen zwischen 1 und 5 Jahren. Energie steckt auch in Zyklen über 8, 17 und 29 Jahren oder so. Man beachte, dass einer der größten Zyklen fast 50 Jahre umfasst … und das unterstreicht die Dummheit, a) die persistenten langzeitlichen Zyklen nicht zu entfernen und b) die Verwendung von Datensätzen kurzer Zeiträume beim Versuch zu bestimmen, ob sich eine Beschleunigung zeigt.

Und schließlich zeigt sich auch immer noch etwas Energie in über 50 Jahre langen Zyklen. Darum braucht man sehr lange Zeitreihen, um festzustellen, ob es eine Beschleunigung gibt.

Was also bleibt als Residuum übrig, wenn man all diese Zyklen aus den Cuxhaven-Daten entfernt? Das hier:

Abbildung 5: CEEMD-Analyse der Meeresspiegel-Daten aus Cuxhaven. Die schwarz-weiße Linie sind die Cuxhaven-Originaldaten.

Wie man sieht, zeigen sich keinerlei Anzeichen einer Beschleunigung in den Cuxhaven-Daten. Man rufe sich ins Gedächtnis, dass wir während der letzten 30 Jahre davor gewarnt worden waren, dass der Anstieg des Meeresspiegels sich beschleunigen würde und Städte versinken würden … jedoch sieht es so aus, als hätte der Ozean das nicht mitbekommen.

Ich möchte nochmals demonstrieren, wie sehr man in die Irre geführt wird bei der Verwendung kurzer Zeitreihen und ohne die zugrunde liegenden Tidenzyklen aus den Originaldaten zu entfernen. Hier noch einmal die vorige Graphik, zusätzlich mit einer Gauss-Glättung in Blau der Originaldaten nach dem Jahr 1950:

Abbildung 6: Wie Abbildung 5, aber mit einer Gauss-Glättung der Daten nach dem Jahr 1950.

Also, falls alles, was wir haben, die 68 Jahre nach 1950 sind und außerdem keinerlei Zyklen in den Daten entfernt worden sind, dann betrachten wir die blaue Gauss-Glättung und gehen nach Hause mit der ziemlich festen Überzeugung, dass der Anstieg des Meeresspiegels von 1950 bis etwa 1975 gleich blieb und sich seitdem beschleunigt hat … und nichts davon entspricht der Wahrheit. Es handelt sich lediglich um eine der längerzeitlichen Tiden-Schwingungen, welche mittels des CEEMD-Verfahrens entfernt worden waren. Und unglücklicherweise verwechseln viel zu viele Wissenschaftler auf der ganzen Welt diese Schwingungen mit einer zugrunde liegenden Beschleunigung.

Aber ich wollte hier nicht aufhören und betrachtete einige andere langzeitliche Meeresspiegel-Datensätze. Wie zu erwarten war, stammen die meisten aus Europa. Hier z. B. ein 170 Jahre umfassender Datensatz von Wismar:

Abbildung 7: Eine CEEMD-Residuum-Analyse. Die schwarz-weiße Linie markiert die tatsächlichen Daten.

Und auch hier: kein Anzeichen irgendeiner Beschleunigung in den Daten aus Wismar.

Und hier folgen jetzt ohne große Kommentare weitere langzeitliche Meeresspiegel-Datensätze. In allen Fällen markiert die schwarz-weiße Linie mit Punkten die Originaldaten:

Ich erkenne einfach nicht die gerüchteweise ausgestreute Beschleunigung in diesen Daten. Ich würde außerdem sagen, dass die frühen Daten aus Ijmuiden in den Niederlanden sehr komisch aussehen … aber schauen wir auf ein paar Aufzeichnungen aus den USA:

Man beachte den stärkeren Trend in Baltimore, von dem bekannt ist, dass er die Folge vom Absinken des Landes ist, wie sie an den meisten Abschnitten der US-Ostküste beobachtet wird:

Und zum Schluss dieses Abschnitts folgt hier der längste ununterbrochene Datensatz, den ich kenne, nämlich der von Stockholm in Schweden – 217 Jahre lang:

Man erkennt, wie sich Skandinavien immer noch davon erholt, von Billionen Tonnen Eis bedeckt gewesen zu sein während der jüngsten großen Vereisung. Das Land hebt sich tatsächlich schneller als der Ozean steigt.

Das also ist die Mehrheit langzeitlicher Tiden-Datensätze. Ich muss sagen, ich sehe einfach nicht die von den Eierköpfen behauptete Beschleunigung. Ich weiß nicht, wie sie ihre Ergebnisse berechnet haben, aber die besten langzeitlichen Datensätze, die es gibt, zeigen einfach nicht die Beschleunigung, die gefunden zu haben sie behaupten.

Zum Schluss möchte ich den Kreis schließen zum Anfang dieses Beitrags, also zu den zusammen geschusterten AVISO-Satellitendaten. Was AVISO und die Colorado-Leute in Kombination als ihre finalen Daten ausgeben, sieht so aus:

Abbildung 8: Die vier von Colorado und AVISO ausgewählten Meeresspiegel-Daten von Satelliten aus den neun bestehenden Satelliten-Datensätzen bzgl. des Meeresspiegels.

Sehr merkwürdig … die Meeresspiegel-Satellitendaten sollen angeblich bis auf ein tausendstel Millimeter pro Jahr genau sein – warum gibt es dann so große Differenzen zwischen den verschiedenen Satelliten-Aufzeichnungen?

Wie auch immer, hier noch einmal die gleichen Daten, diesmal mit einer schwarzen Linie, welche ihren finalen Datensatz markiert, wie er sich aus der Kombination der vier Datensätze ergibt:

Abbildung 9: Die vier von Colorado und AVISO herausgepickten Datensätze aus den neun bestehenden Satelliten-Datensätzen, zusammen mit deren kombiniertem Verlauf, dargestellt in schwarz.

Nun ja … und hier schließlich die CEEMD-Analyse jener kombinierten Aufzeichnung:

Abbildung 10: CEEMD-Analyse des Satelliten-Datensatzes von AVISO/Colorado. Er besteht aus zusammengefügten verschiedenen Satelliten-Datensätzen. Die Zeitpunkte der Zusammenfügung sind gekennzeichnet durch die gepunkteten roten Linien.

Und nun – gibt es eine Beschleunigung in jener Aufzeichnung?

Nun, hinsichtlich der Frage, ob sich eine Beschleunigung in jenem zusammengefügten Satelliten-Datensatz zeigt, möchte ich die vier gewichtigsten Worte sagen, die ein Wissenschaftler sagen kann:

Wir. Wissen es. Nicht.

Wir wissen es aus mehreren Gründen nicht. Erstens, es handelt sich um einen zusammengefügten Datensatz, und Änderungen der Trendlinie zeigen sich durchweg nur bei und nach den Zusammenfügungen. Das ist schon ziemlich verdächtig, besonders angesichts der Differenzen in den initialen individuellen Datensätzen.

Zweitens, die Aufzeichnung umfasst nur 27 Jahre, so dass es einfach nicht genug Daten sind, um viele Folgerungen zu ziehen. Dies gilt vor allem, weil die Variationen einer Linie ziemlich klein sind.

Drittens, der Anstieg erfolgte genau entlang der linearen Trendlinie bis zum Jahr 2005. Vorher zeigte sich also keinerlei Beschleunigung. Dann begann die Rate um das Jahr 2005 abzunehmen … Verlangsamung anstatt Beschleunigung? Warum? Und dann – dem zusammengefügten Datensatz zufolge begann ein rascherer Anstieg um das Jahr 2011. Warum? Jene drei Phänomene, also erst eine gerade Linie, dann Verlangsamung, dann Beschleunigung, dürften kaum einem monotonen CO2-Anstieg geschuldet sein. Auch gehen sie in keiner Weise konform mit irgendeiner erwarteten Beschleunigung.

Und schließlich, wie bei vielen oben gezeigten Tidenaufzeichnungen scheinen die Satellitendaten über und unter die Trendlinie zu springen. Nirgendwo in der Aufzeichnung zeigt sich eine eindeutige Beschleunigung.

Diskussion und Schlussfolgerungen

Die Langzeit-Tidendatensätze stimmen alle darin überein, dass es keine Beschleunigung gibt, weder in der Anfangs- noch in der Endzeit der Aufzeichnungen. Ja, sie schwanken oftmals ein wenig um die Trendlinie, aber es gibt keinerlei Belege für eine CO2-induzierte Beschleunigung der Rate des Meeresspiegel-Anstiegs.

Der Satelliten-Datensatz andererseits ist eine Zusammenfügung von vier aus neun verfügbaren Datensätzen des Meeresspiegels. Die Trendänderungen scheinen in Verbindung zu stehen mit den Nahtstellen. Unglücklicherweise ist diese gekittete Aufzeichnung einmal zu kurz und zum Anderen zu unterbrochen, um irgendwelche Erkenntnisse bzgl. Beschleunigung zu gewinnen.

Link: https://wattsupwiththat.com/2020/03/08/looking-for-acceleration-in-all-the-wrong-places/

Übersetzt von Chris Frey EIKE

======================================================================

Anmerkung/Ergänzung der EIKE-Redaktion :

… und so sieht es an der Deutschen Nordsee-Küste aus :

======================================================================




Virginias „Saubere-Ökonomie-Gesetz“ dürfte ziemlich schmutzige Folgen haben

Der Mehrheitsführer im Senat Dick Saslaw hat gesagt, dass Virginia „ein Klimaproblem hat und dass man dieses nicht umsonst lösen könne“. Allerdings ist die Klimakrise erheblich übertrieben oder beruht auf falschen Computer-Modellen. Noch schlimmer ist, dass die „Lösung“ auf allen Ebenen sehr teuer ist, aber bzgl. des globalen Klimas nicht die Spur eines Unterschiedes ausmachen würde.

In den USA gab es während der letzten 35 Jahre weniger starke Tornados (Stärke F3 bis F5) als während der 35 Jahre zuvor, im Jahre 2018 war nicht ein einiger aufgetreten. Häufigkeit und Stärke von Hurrikanen haben sich seit 1850 kaum verändert – außer dass es in den USA erfreulicherweise von 2005 bis 2017 eine rekordlange Zeit gab, in der nicht ein einziger starker Hurrikan auf das US-Festland übergegriffen hatte. Nach einem Anstieg um rund 120 cm nach der letzten Eiszeit ist der Meeresspiegel während der letzten 150 Jahre mit lediglich 2 bis 30 cm pro Jahrhundert gestiegen, wobei ein großer Teil des vermeintlichen Anstiegs tatsächlich auch auf Absinken von Land zurückzuführen ist, so wie es auch an der Küste von Norfolk-Virginia der Fall ist.

Wasser, Eis und Wasserdampf haben einen erheblich größeren Einfluss auf Temperatur, Klima und Wetter der Erde als Kohlendioxid und alle anderen atmosphärischen Gase zusammen, schreibt Greenpeace-Mitbegründer Patrick Moore. Die Ozeane haben einen um das Tausendfache größeren Wärmegehalt als die Atmosphäre. Wolken halten sowohl Wärme zurück als auch dass sie einfallende Sonnenenergie reflektieren. Und Wissenschaftler können immer noch nicht menschliche von den natürlichen Faktoren bei all dem unterscheiden.

Aber die Demokraten in Virginia bestehen darauf, dass man sich in einer Klimakrise befindet und dass man zur Lösung derselben die Pflicht hat, fossile Treibstoffe zu verbieten.

Virginias „Kohlenstoff-frei“-Gesetze würde die Schließung von etwa 6200 MW Stromerzeugung auf Kohlebasis zur Folge haben sowie ein Verbot der Errichtung neuer, mit Erdgas betriebener Einheiten. In China gibt es mittlerweile 900.000 MW Kohlekraftwerke, weitere für 200.000 MW sind im Bau, und geplant sind nochmals 150.000 MW (alles in China). Das berichtet Greenpeace. Außerdem finanziert und betreibt das Land den Bau zahlreicher Kohle- und Gaskraftwerke in Afrika und Asien. In Indien gibt es bereits hunderte Kohlekraftwerke, [in deutscher Übersetzung beim EIKE hier], 400 weitere sind in Planung. China und Indien planen oder bauen bereits hunderte neuer Flughäfen und Millionen weitere Autos auf die Straße zu bringen.

Selbst wenn also CO2 mehr als nur eine triviale Rolle bzgl. Klimawandel spielt, könnten die Maßnahmen von Virginia die zukünftige Erwärmung allenfalls um nicht messbare 0,001 bis 0,01 Grad reduzieren. Die Details des Gesetzes sind aufschlussreich – und Besorgnis erregend.

Das fast schon in Kraft gesetzte Gesetz würde die Schließung des neuesten und saubersten Kohlekraftwerkes in den USA zur Folge haben, solange es nicht die CO2-Emissionen bis zum Jahr 2030 um 83% reduzieren kann mittels einer immer noch nicht erprobten „carbon capture and storage“-Technologie. Aber selbst wenn das funktionieren würde, würde jene Technologie Millionen pro Jahr kosten – und ein Drittel des vom Kraftwerk erzeugten Stromes benötigen. So viel zum Thema ,nicht umsonst‘ für Anwohner.

Um den wegfallenden Strom zu ersetzen, müssten die Energie-Unternehmen von Virginia Offshore-Windturbinen für 5200 MW installieren – offenbar vom Typ GE 12 MW Haliade-X, hergestellt in einer neuen Fabrik in der Provinz Guangdong (China), die südlich von Wuhan gebaut werden soll. Es würden 433 dieser Kolosse benötigt, von denen jede Einzelne die Wasseroberfläche um 260 Meter überragen würde, etwa 40 km vor der Küste von Norfolk-Virginia in 15 bis 20 m tiefem Wasser. (Zum Vergleich, das Washington Monument ist „nur“ 170 Meter hoch).

Das fortwährende Einwirken von Salzwasser und von häufigen Stürmen wird die Turbinen korrodieren lassen, was deren Leistung mit jedem Jahr schlechter werden lässt. Will man tatsächlich 5200 MW Strom erzeugen, würde das erfordern, dass die 433 Turbinen 24 Stunden lang an 7 Tagen der Woche100% ihrer Kapazität Strom liefern. Sollten sie nur während der Hälfte dieser Zeit Strom erzeugen, würde Virginia 866 derartiger Monstren benötigen.

Klima-Aktivisten und Big Wind erwarten, bis zu 30.000 MW Windkapazität vor der Ostküste bis zum Jahr 2030 zu errichten. Mit 100% Kapazität würde man dafür 2500 gigantische Heliade-X-Turbinen brauchen! Die Auswirkungen auf Radar, Luftverkehr und U-Boote, auf die Schifffahrt und die Fischerei wären enorm. Die Rotorblätter würden zahllose Vögel zerschmettern. Vibrationen und der Lärm durch Infraschall würde die Navigation von Walen und Delphinen noch viele Kilometer entfernt davon durcheinander bringen.

Da diese Turbinen auf öffentlichem Land stehen, müssen das Innenministerium, die nationale Fischerei-Behörde und andere Regierungsagenturen vollständig und sehr sorgfältig die kumulierten Auswirkungen all dieser menschlichen Aktivitäten auf die Umwelt evaluieren. Gleiches gilt für die kumulierten Auswirkungen des globalen Bergbaus, der Verarbeitung und Herstellung zum Bau und zur Installation der Windturbinen.

Zur Errichtung dieser Monster-Windmühlen braucht man Millionen Tonnen Beton, Stahl, Kupfer, seltene Erden, Karbon-Fiberglas und andere Rohmaterialien. Diese zu gewinnen wiederum erfordert die Bewegung von Milliarden Tonnen Gestein in neuen oder erweiterten Minen auf der ganzen Welt, aber vermutlich nicht in den USA. Wind- und Solarenergie wären fast ausschließlich abhängig von der Einfuhr derartiger Materialien, Komponenten und fertigen Produkten – zumeist aus China oder im Besitz von Chinesen. Verschmutzung, Arbeitsbedingungen, die Zerstörung von Land und Habitaten, Kinderarbeit und Verletzungen grundlegender Menschenrechte, Krebs- und andere Erkrankungen bei Arbeitern und Anwohnern wären galoppierend und für die meisten Amerikaner verabscheuungswürdig.

Derzeit gibt es praktisch keine technischen Schwergeräte, welche 12-MW-Turbinen errichten können. Man stelle sich einmal vor, wie lange es dauern würde, 400 bis 2500 davon vor der Ostküste zu errichten – und sie zu reparieren und zu ersetzen, wenn sie altern – oder nach einem gewaltigen Hurrikan wie dem Great Atlantic Hurricane of 1944, welcher die gesamte Offshore-Stromerzeugung zum Erliegen bringen dürfte.

Das Saubere-Ökonomie-Gesetz legt fest, dass weitere 16.100 MW zum Ersatz fossiler Treibstoffe durch Photovoltaik-Solarpaneele erzeugt werden würden. Auf der Grundlage eines 400 MW-Solarkraftwerkes in Spotsylvania County, Virginia würden diese Paneele eine Landfläche überziehen, die 3,5 mal größer ist als die Fläche der Hauptstadt Washington!

In Virginia herrschen nicht die Bedingungen wie in Arizona. Wolken, Nächte und sub-optimaler Sonnenschein während eines großen Teils des Tages lassen es wahrscheinlich erscheinen, dass diese Millionen Paneele tatsächlich kaum mehr als 3200 MW erzeugen – unvorhersagbar und unzuverlässig. Um die gesamten, gesetzlich festgelegten 16.100 MW Strom zu erhalten, müsste Virginia bis zu 18 mal die Fläche von Washington mit Paneelen überziehen.

Das Gesetz in Virginia (es ist inzwischen von beiden Kammern durchgewinkt worden) verlangt außerdem, dass Versorgungsunternehmen „3100 MW Energie-Speicherkapazität konstruieren oder zur Verfügung stellen müssen“, vorzugsweise Batterien. Das ist verwirrend, erzeugen doch Batterien keinen Strom (MW); sie speichern einfach durch Kohle, Gas, Kernkraft, Wind oder Solar erzeugte Energie (MWh). Falls die Gesetzgeber 3100 MWh meinen, würde Virginia 36.500 Tesla 85-kilowatt-hour battery packs von je einer halben Tonne benötigen – und damit noch mehr Lithium und Kobalt, aus der Erde gekratzt in Gebieten mit verheerenden Standards bzgl. Umwelt und Menschenrechten.

Wird Virginia verlangen, dass seine Materialien und Komponenten für Wind, Sonne und Batterien verantwortungsbewusst beschafft werden? Wird es unabhängig verifizierte Zertifizierungen verlangen, dass keine davon mit Kinderarbeit verbunden ist und alle in Übereinstimmung mit den Gesetzen, Vorschriften und ethischen Codes der USA und Virginias für Sicherheit am Arbeitsplatz, gerechte Löhne, Luft- und Wasserverschmutzung, Erhaltung der Tierwelt und die Wiedergewinnung von Minengebieten produziert werden? Wird es erfordern, dass alle vermeintlichen sozialen Kosten von Kohlenstoff die sozialen Vorteile von Kohlenstoff-basierten Brennstoffen und Kohlendioxid anerkennen?

Um die von den Offshore-Windturbinen erzeugte Windenergie zu den Gemeinden westlich des Appalachian Trail zu transportieren, bedarf es vieler neuer Fernleitungen. Umweltaktivisten opponieren unnachgiebig gegen Gas-Pipelines, welche in einer Tiefe von etwa 200 m unter der Erde verlaufen. Wie werden sie auf die multiplen Fernleitungen und Masten reagieren, welche eine zusätzliche erhebliche Beeinträchtigung der Landschaft mit sich bringen?

Wind-, Solar-, Batterie- und Biotreibstoff-Alternativen sind eben nicht sauber, grün, erneuerbar oder nachhaltig! Das Saubere-Ökonomie-Gesetz repräsentiert im schlimmsten Falle greenwashing, Pseudo-Tugendhaftigkeit und Kontrolle seitens der Regierung. Sie ersetzen zuverlässigen und bezahlbaren Strom durch teuren und unzuverlässigen Strom. Wenn der Gesetzgeber Virginias immer wieder behauptet, dass all diese Maßnahmen „im öffentlichen Interesse seien“, dann ist das schlicht und ergreifend nicht so.

Die Eliminierung fossiler Treibstoffe bedeutet, dass die Preise von Licht, Heizung, Kühlung usw. nebst anderen Kosten für jedermann in die Höhe schießen – darunter Schulen, Krankenhäuser und Geschäftsbereiche. Die Umweltauswirkungen werden sich in den USA und global potenzieren – ohne jeden Vorteil für das Klima.

In Virginia und Amerika haben linke Stadtverwaltungen und Landkreise illegalen Einwanderern, darunter Kriminellen, ihren „Segen“ erteilt. Zahlreiche konservative Gemeinden in Virginia haben sich nicht entsprechend geäußert. Vielleicht ist es für sie an der Zeit, dem Ansturm des Klima-Alarmismus‘ und von pseudo-erneuerbaren Energie-Phantasien zu trotzen – indem sie sich zur Sanktionierung fossiler Treibstoffe bereit erklären.

Autor: Paul Driessen is senior policy advisor for CFACT and author of Cracking Big Green and Eco-Imperialism: Green Power – Black Death

Link: https://www.cfact.org/2020/03/08/virginias-clean-economy-act-will-have-dirty-results/

Übersetzt von Chris Frey EIKE




Der Stromverbraucherschutz NAEB über die „Fakepower“, den überteuerten Ökostrom und die deutsche Volkswirtschaft

Herr Prof. Appel,

1. Warum bezeichnen Sie den Ökostrom als Fakepower?

Die Leistung des Wind- und Solarstroms wird vom Wetter bestimmt und nicht vom Bedarf. Nicht bedarfsgerechter Strom hat einen geringen Wert. Bei Mangel muss er durch bereitstehende Kraftwerke ergänzt werden, bei Überschuss muss er entsorgt werden. Die Entsorgungskosten sind die negativen Preise an den Strombörsen. Im stürmischen Februar dieses Jahres kostete die Entsorgung von überschüssigem Windstrom 21,5 Millionen Euro. Den Erzeugern wurde dieser Strom vorher mit 325,7 Millionen Euro vergütet. Wir Verbraucher mussten also für den nicht gebrauchten Strom 347,2 Millionen Euro bezahlen.

Von der Politik wird dieser teure Strom, für den es oft keine Abnehmer gibt, als Energieversorgung der Zukunft gepriesen. Das ist eine Täuschung (Englisch: fake) der Bevölkerung. Um das deutlich zu machen, bezeichnet der Stromverbraucherschutz NAEB Wind- und Solarstrom als „Fakepower“.

2. Wer sind die Gründer Ihres Vereins? Was war Ihre jeweilige Motivation, aktiv zu werden?

Die Gründer des gemeinnützigen Vereins „Stromverbraucherschutz NAEB e.V.“ sind vorwiegend Fachleute der Energiewirtschaft im Rentenalter, die über Jahrzehnte für eine sichere Stromversorgung gearbeitet haben. Sie waren und sind sich klar über die Tatsache, eine gesunde moderne Volkswirtschaft kann nur mit einer sicheren und bezahlbaren Stromversorgung existieren. Diese Basis sahen sie durch die ideologisch begründete Hinwendung der Regierung und der sie tragenden Parteien zur Versorgung Deutschlands mit Fakepower nicht mehr gegeben. Der Verein will die Bevölkerung über die Folgen der deutschen Energiewendepolitik aufklären: Weiter steigende Strompreise, Deindustrialisierung, Umweltschäden, Aufgabe heimischer Energiequellen (Braunkohle), längerer Stromausfall, Arbeitsplatzverluste, Abbau des Lebensstandards, Umverteilung von Arm nach Reich, um nur Einige zu nennen.

3. Wie denken Sie über die CO2-Theorie des menschgemachten Klimawandels? Ist die Theorie eine Erfindung von politiknahen Wissenschaftlern und Profiteuren, oder hat sie ihre Berechtigung, ist unser Planet in Gefahr?

Jeder, der einseitig eine Reduktion von CO2 fordert, ohne auf den Bedarf für den Pflanzenwuchs einzugehen, ist für mich kein Gesprächspartner. Meine Kenntnisse über die Strahlenkunde erlauben mir die Aussage: Selbst eine Verdopplung des derzeitigen CO2-Gehaltes von 0,04 Prozent in der Luft bewirkt keine wesentliche Temperaturerhöhung auf der Erde. Die Forderung, CO2 aus fossilen Brennstoffen im Namen der Klimarettung zu mindern, kommt von den Profiteuren, die ihre gesetzlich verankerten Einspeisevergütungen nach dem Erneuerbaren-Energien-Gesetz (EEG) behalten und erweitern wollen, und von Instituten, die damit lukrative Forschungsaufträge aus Steuergeldern erhalten.

4. Wie sehen Sie die nahe Zukunft der deutschen Wirtschaft? Werden wir desindustrialisiert werden, oder wird der Widerstand, zum Beispiel der Windkraftgegner, die Klimapolitik umkehren?

Die deutsche Wirtschaft wandert schon seit Jahren wegen zu hoher Energiekosten ab. Volkswirtschaftliche Daten belegen das: Die Reinvestitionsquote, also die Erneuerung alter Anlagen, ist seit mehr als zehn Jahren auf etwa 90 Prozent gesunken*. Gleichzeitig ist Deutschland Weltmeister im Kapitalexport mit 7 Prozent des Bruttoinlandsprodukts (die EU-Vorgaben erlauben maximal 4 Prozent). Mit abgeschriebenen Anlagen wird mehr Geld verdient, das ins Ausland fließt, um dort neue und modernere Betriebe aufzubauen. Die Maschinen werden weitgehend aus Deutschland geordert. Der Maschinenbau floriert dadurch zurzeit. Wenn die alten Betriebe in Deutschland zu hohe Reparaturkosten aufweisen, werden sie an „Investoren“ verkauft, die die Firmen ausschlachten und dann insolvent werden lassen. Der Abbau vieler tausend Arbeitsplätze in den Grundstoff- und Autoindustrien sind ein Beleg für diese Darstellung.

Die mehr als 1.000 Antiwindkraft-Initiativen, bundesweit organisiert in dem Verband „Vernunftkraft“, werden einen schnellen weiteren Ausbau von Windgeneratoren an Land verhindern. Viele von Ihnen sind aber NIMBYs (not in my backyard, dt. in etwa: nicht vor meiner Haustür). Sie unterstützen die Klimapolitik und wollen nur nicht direkt davon belästigt werden. Windkraftanlagen sind nicht wirtschaftlich. Nur mit der Forderung, keine Subventionen für Fakepower, kann erfolgreich gegen den weiteren Ausbau von Fakepower Front gemacht werden.

5. Wie sehen Sie die Lösungskonzepte der Energiewendekrise der Minister Altmaier und Karliczek, die Wasserstofftechnologie? Kann sie die Kosten und technischen Beschränkungen der Ökostrom-Produzenten verringern?

Die Energiewendekrise zeigt, hier wurde ein falscher Weg beschritten, der in einer Sackgasse endet. Mit der Wasserstofftechnologie wird dazu eine neue Sau durchs Land getrieben. Es ist zwar richtig, mit Wasserstoff kann Strom erzeugt werden, Autos angetrieben werden und Wärme erzeugt werden. Doch die Erzeugung der dazu benötigten Wasserstoffmengen mit Fakepower ist in Deutschland nicht möglich. Allein für die Stromversorgung müsste die Zahl der Windgeneratoren von derzeit 30.000 auf 170.000 mehr als verfünffach werden. Dazu müssten dann noch der Strom für die Herstellung der Treib- und Brennstoffe kommen. Der Platz in Deutschland reicht dafür nicht. Die Wasserstofftechnologie treibt die Stromkosten auf mehr als einen Euro/Kilowattstunde, weil bei den Umwandlungsprozessen hohe Verluste anfallen.

*Anmerkung der Redaktion: Eine Quote von 100% heißt Erhalt der Qualität; über 100% heißt Verbesserung.




“Forschen in der Klimaküche” – Die ARD in intellektueller Eiszeit arktischen Ausmaßes

Seit dem 17. Dezember treibt das Schiff durch die Arktis. 672 Kilometer hat die Polarstern bis zum 27. Februar mehr oder minder Huckepack auf einer Eisscholle zurückgelegt, im Zick-Zack, so dass es in gerader Strecke nur 406 Kilometer sind. Es ist derzeit arschkalt in der Arktis: -38,2 Grad Celsius, nicht wirklich angenehme Arbeitstemperaturen. In all der Zeit ist die Polarstern dem Nordpol auf 156 Kilometer Entfernung nahe gekommen. Die Ingenieure, die sich an Bord befinden, haben auf dem Eis eine 900 Meter lange Landebahn angelegt. Warum: Es ist nicht nur saukalt, das Eis ist auch sehr dick. Um 10 Zentimeter pro Woche wird es dicker. Seit Dezember hat sich die Dicke des Eises nahezu verdoppelt: 1.60 Meter Eis sind es im Durchschnitt. Das hat die Kapitan Dranitsyn zu spüren bekommen. Der Eisbrecher hat die neue Crew zur Polarstern gebracht und Vorräte, dafür aber so lange ge- und so viel Treibstoff verbraucht, dass ein zweiter Eisbrecher der Kapitan Dranitsyn entgegen kommen muss, weil das Schiff nicht mehr genug Treibstoff für den Rückweg hat. Es ist eben richtig kalt in der Arktis.

Wie kalt es genau ist, das ist so eine Frage. Denn eines der interessantesten Ergebnisse, das die Forscher bislang gefunden haben: Man kann der Temperaturmessung nicht trauen. Über dem Eis ist es deutlich kälter als in 20 Metern Höhe, auf dem Schiff werden andere Temperaturen gemessen als mit einem Wetterballon. Der Unterschied zwischen den Messungen ist mit vier Grad Celsius nicht gerade gering, schon gar nicht, wenn man bedenkt, dass die derzeitige Temperaturanomalie, die angeblich eine Erderwärmung, die durch Menschen verursacht sein soll, darstellt, nicht einmal ein Grad Celsius ausmacht. Es könnte sich dabei um einen Messfehler handeln. Das jedenfalls legen die Ergebnisse von der Polarstern nahe. Die Forscher haben auch bereits einen Nachtspaziergang gemacht und kleine Uboote haben das Leben unter dem Eis erkundet. Eisbären und Polarfüchse finden sich in der Nachbarschaft und Robben unter dem Eis …

Ja, man hätte wirklich eine schöne und interessante Geschichte über die 70 Millionen Euro Steuergelder, die gerade in der Arktis ausgegeben werden, machen können. Keine der Informationen, die wir oben über das, was die Forscher der Polarstern so im Eis der Arktis treiben, zusammengestellt haben, stammt übrigens von der ARD-Tagesschau. Die meisten Informationen kommen vom “Maritime Executive“. Dort wird niemand von Gebührenzahlern ausgehalten, weshalb die Texte Informationen enthalten und unterhaltsam sein müssen, damit sie gelesen werden.

Der Text, den Kilian Pfeffer aus dem ARD-Hauptstadtstudio über die MOSAIC-Expedition der Polarstern zusammengepinselt hat, enthält keine einzige Information zum Forschungsaufenthalt. Der Text ist wie ein Räucherstäbchen, angezündet, um sich mit einem Geruchsschleier, der kurzzeitig das Interesse umstehender Nasen weckt, zu umgeben. Er verbreitet viel Rauch, enthält aber keinerlei Feuer.

Schon der Titel “Forschen in der Klimaküche” wirkt gequält, ist aber wohl dem politischen Auftraggeber des Textes geschuldet.

Gleich im ersten Satz des Textes gibt es das erste wissenschaftliche Ergebnis, vielleicht auch nicht: “Die Dunkelheit, das war die größte Herausforderung”. Ja. Im arktischen Winter ist es dunkel, weil so weit im Norden die Sonne nicht scheint und, es halt dunkel ist. Denn es gibt in der “Polarnacht kein natürliches Licht”. Gut, dass wir das nun wissen. “Dynamisch, fordernd und wunderschön”, so beschreibt “Julia Regnery vom Alfred-Wegner InstitutE ihren Aufenthalt in der Arktis. Ja. Man hätte auch progressiv, anstrengend und klasse sagen können. Der Gehalt wäre derselbe gewesen. Leerformeln, hinter denen sich alles und nichts verbergen kann. Erkenntnis aus der Arktis. Noch eine Erkenntnis: “wenn es unter minus dreißig Grad kalt ist”, dann dauert es bis zu 20 Minuten ehe der Schlitten oder das Schneemobil bereit ist. Kilian Pfeffer verwöhnt seine Leser wirklich mit umfänglichen wissenschaftlichen Erkenntnissen. In der Arktis ist es saukalt und deshalb muss man mehr anziehen, was mehr Zeit einnimmt, als weniger anzuziehen. Und deshalb dauert das. Was hätten wir nur ohne diese Arktisexpedition über die Schwierigkeiten der Vorbereitung bei Minustemperaturen gewusst. Nichts!

Und dann kommt das Unvermeidliche: Pfeffer muss sich mit der Wissenschaft am Aufenthaltsort abgeben. “Gewaltige Mengen Daten”, so verrät er seinen staunenden Leser, seien bereits gesammelt worden. Wozu? Welche Daten? Worüber? Pfeffer gibt dem dummen Leservolk keine Information. Es sind gewaltige Mengen, das muss für die Dummen reichen. So wie der Hinweis, dass die “gewaltigen Mengen”, von denen “Expeditionsleiter Rex” sagt, dass er keine Ahnung hat, ob sich der Aufwand mit den gewaltigen Mengen Daten lohnt, natürlich sagt er das nicht so, sondern in ein Gleichnis vom Uhrwerk verpackt, reichen muss, um die Hoffnung zu legitimieren, dass man ein “besseres, stabileres Klimamodell” entwickeln wolle.

Das derzeitige Klimamodell ist also nicht gut und nicht stabil – interessant.

Damit muss es sein Bewenden haben. Mehr verrät der Kilian Pfeffer den Lesern der Tagesschau nicht. Es reicht, wenn sie wissen, dass 70 Millionen Euro dafür ausgegeben werden, Licht in die arktische Dunkelheit zu bringen. Aber halt, die Mitte des Beitrags ist für den offenkundigen Auftraggeber des Beitrags ohne relevanten Inhalt reserviert. Dort findet sich Folgendes:


Quelle: Bjørn Christian Tørrissen

“Eine Summe von 70 Millionen Euro fließt aus dem Bundesforschungsministerium in dieses Projekt. Das ist es wert, meint Ministerin Anja Karliczek. “Wir wissen, dass der Einfluss der Eismassen in der Arktis auf das weltweite Klima gigantisch ist. Wir sagen immer so schön: Das ist die Klimaküche dort oben – und dass die Arktis sich erwärmt, und zwar doppelt so schnell wie der Rest der Erde. Das zeigt schon, wie groß die Dramatik ist und dass die Geschwindigkeit beispiellos ist.”

Falls Sie bislang noch nicht an der geistigen Klarheit deutscher Politdarsteller zweifeln, beginnen Sie umgehend damit. Die Arktis ist also die Klimaküche, die sich “doppelt so schnell wie der Rest der Erde erwärmt”, was zeigt, wie groß die Dramatik ist und dass die Geschwindigkeit beispiellos ist, die Geschwindigkeit der Dramatik oder die Geschwindigkeit der Eisschollen oder die der Köche in der Klimaküche. Niemand weiß worauf sich das Wortgestammel, das belegen soll, dass 70 Millionen Steuereuro nicht in den Sand gesetzt sind, beziehen soll, aber wir wissen nun, dass Ministerdarsteller Karliczek seine Informationen aus dem Spiegel bezieht.

Dort darf Anders Levermann schon 2017 ungestraft behaupten: “Die Arktis erwärmt sich doppelt so schnell wie der Rest des Planeten”, sagt Anders Levermann vom Potsdam-Institut für Klimafolgenforschung”. Das Potsdam-Institut für Klimafolgenforschung (PIK) lebt bekanntermaßen davon, einen menschengemachten Klimawandel herbeizureden und die Vertreter des Instituts reagieren neuerdings sehr empfindlich auf Kritik, die natürlich ungehörig ist, angesichts der Überzeugung der PIK-er, dass sie das Klima kontrollieren.

Die Belege dafür, dass die Arktis sich “doppelt so schnell wie der Rest des Planeten” erwärmt, bestehen im Wesentlichen darin, dass die mit Eis bedeckte Meeresfläche zurückgegangen sei und das Eis immer dünner werde und dunkles Wasser, das absorbiere Sonnenenergie und erwärme sich im Gegensatz zu Eis, das weiß sei und Sonne reflektiere, vor allem im arktischen Winter … ladiladilada.

Derzeit findet selbst der Ableger von NOAA, das National Snow and Ice Data Center an der University of Colarodo in Boulder in der Arktis so viel Eis, wie schon lange nicht mehr. Die folgende Abbildung stammt vom heutigen Tag und zeigt, dass derzeit mehr Meereseis in der Arktis zu finden ist, als in den Jahren 2018, 2016, 2014 usw. Die Ausdehnung des Meereseises ist größer als im Durchschnitt der Jahre 2001 bis 2010 und liegt ziemlich genau im Range des Durchschnittes für die Jahre 2011 bis 2019. Kurz: Falls sich die Arktis wirklich doppelt so schnell erwärmt wie der Rest des Planeten, dann führt diese Erwärmung dazu, dass es mehr Meereseis gibt.

Nicht nur das, die Erwärmung hat auch zum Ergebnis, dass die Dicke des Meereseises, wie oben auf Grundlage der nagelneuen Forschungsergebnisse von den Wissenschaftlern der Polarstern beschrieben wurde, pro Woche um 10 Zentimeter steigt, und darüber hinaus hat die doppelt so schnelle Erwärmung zum Ergebnis, dass die Eisdicke, wie sie Cryosat misst, seit Jahren weitgehend unverändert ist und in den letzten Jahren eher zunimmt als abnimmt.

Es ist dies die ulkigste Erwärmung, die uns je untergekommen ist. Aber in einem Zeitalter, in dem Irre zu Rechtsextremisten umetikettiert werden, oben unten und eins und eins Acht ergibt, ist das vermutlich nur ein neuer Kollateralschaden, der der Vernunft zugefügt wird, von Politdarstellern und ihren Medienkaspern die alle eines gemeinsam haben: Keine Ahnung.

Übrigens haben öffentlich-rechtliche Sender einen Bildungsauftrag. Das nur, damit es nicht vollständig in Vergessenheit gerät.

Der Beitrag erschien zuerst bei ScienceFiles hier




Der Sonntagsfahrer:  Streetscooter – die nackte Kanone der Post

Vor allem aber sind Sie, liebe Leser, in guter Gesellschaft, denn der Herrgott liest Achgut.com. So schrieb ich in dieser Kolumne ziemlich genau vor einem Jahr:

Ich habe mich entschlossen, den Herrgott auf meine Seite zu ziehen. Zu diesem Zweck werde ich mich in das kleine Kirchlein mit dem Zwiebelturm begeben, das direkt gegenüber meiner Wohnstatt in den bayrischblauen Himmel ragt. Dort werde ich auf einer harten Bank Platz nehmen, hinauf in das barocke Gewölbe zu den Engeln blicken und Fürbitte für die wirklich Beladenen und Verdammten leisten.

Es folgten fünf Fürbitten von denen die vierte lautete:

„Oh Herr, stehe den Zustellern der Post bei, die einem elektrischen Streetscooter ausgeliefert sind.“

Im Alltag, so begründete ich meine Bitte bei der letzten Instanz, blieben Streetscooter mitten in der Pampa auf der Strecke liegen. Zusteller müssten mehr auf den Ladestand der Batterie achten als auf ihre Arbeit, aus Sorge darum, ob sie es noch bis nach Hause schaffen. An manchen Tagen sei es fürchterlich kalt in den Dingern, weil der Heizungsventilator nicht angestellt werden könne, wenn man nicht liegenbleiben wolle.

Und nun, hallelulj, Luja, sog i, hat der Herr meine Fürbitte erhört. Die Medien vermeldeten Anfang der Woche:

„Die Deutsche Post wird die Produktion ihrer Streetscooter-Elektrotransporter im Laufe des Jahres einstellen“.

Damit hat Posthäuptling Frank Appel den Streetscooter  in die letzten Ladegründe geschickt, wo er zusammen mit ähnlichen Projekten in Frieden ruht.

Er sagte, dass die kleinen Elektrofahrzeuge im Jahr 2019 rund 100 Millionen Euro Verlust erwirtschaftet hätten. Das Aus für die Produktion sei daher „die logische Konsequenz“. Das Erstaunliche an dieser logischen Konsequenz ist lediglich, dass sie dem Postchef erst jetzt dämmerte. Frank Appel liest ganz offenbar nicht achgut.com, sondern hat sich entschlossen, im tiefen Tal der Ahnungslosen zu verharren. Also beispielsweise den Spiegel zu lesen. Dort wurden noch im Oktober wunderbare Durchhalteparolen formuliert: „Mit dem Elektrolaster Street Scooter hat die Deutsche Post die Autobranche vorgeführt.“

Auf die Ladeanzeige starren, wie das Kaninchen auf die Schlange

Die selektive Wahrnehmung im Führer-Tipi von Häuptling gelbe Post ist nachvollziehbar, der Schamane hat in solchen Sachen immer die Deutungshoheit. Bei der Lektüre des Sonntagsfahrers hätte sich Appel hingegen schon im Herbst vergangenen Jahres in stiller Verzweiflung vom Dache seines Streetscooters stürzen müssen. Seherisch wurden diese güldenen Worte formuliert:

„Die Post glaubte, mehr vom Auto zu verstehen als mental so beschränkte Firmen wie Daimler oder Volkswagen. Also wurde man 2010 Hersteller des Streetscooter, das ist  ein elektrischer Transporter für das kleine Paket zwischendurch. Die Medien überschlugen sich vor Begeisterung [Siehe Chronik unten] über die gelben Visionäre, die Postboten aber bekamen mit der Reichweiten-Angst zu tun. Sie starrten auf die Ladeanzeige, wie das Kaninchen auf die Schlange, und bekamen kalte Füße, weil die Heizung zu viel Strom verbrauchte. Inzwischen dämmert es, dass der Streetscooter zwar kein Benzin verbrennt, dafür aber Geld. Für 2019 ist von einem signifikanten zweistelligen Millionenbetrag die Rede, der umweltfreundlich in Rauch aufgeht.„Mindestens in den nächsten beiden Jahren setzen wir das fort“, sagt Postchef Frank Appel, das Ganze sei eine sehr gute Story.

Und dann erfuhren die Leser von Achgut.com auch vorab das absehbare Ende dieser Dienstfahrt:

„So etwas nennt man neue deutsche Unternehmensführung. Man kann sie mit dem sozialistischen Motto „Vorwärts immer, rückwärts nimmer“ beschreiben oder auch mit einem jüdischen Witz: Moische sitzt im falschen Zug und ein Mitreisender fragt: ‚Warum steigst Du nicht aus und kehrst um?‘. Darauf Moische: ‚Ich sitze im falschen Zug und mit jeder Station wird die Rückreise länger.‘ “

Nun ist Frank Appel aus dem falschen Zug ausgestiegen und steht ohne Heizung und mit kalten Füssen in der Provinz, ähnlich einem Streetscooter mit leergefahrener Batterie. Die „sehr gute Story“ ist jetzt nicht mehr ganz so sehr gut, hat aber einen erhöhten Unterhaltungswert. Dafür sorgt der Mitbegründer des Elektrotransporter-Herstellers, Professor Günther Schuh, der ist nämlich traurig. Und er hat auch eine ganz einfache Erklärung für das Laster-Desaster: „Hier waren Erfinder und total begeisterte 500 Leute am Werk. Die wollten die Welt retten. Sie sind einfach an den falschen Partner gekommen“.

So komische Leute, die rechnen können

Die Rettung der Welt ist in der Tat erstrebenswert, man sollte es aber vielleicht mit einem Ford Transit versuchen, da kommt man weiter. Besonders, wenn man in der realen Welt unterwegs ist, mit Physik und Kunden und so. Das sind so komische Leute, die rechnen können. Ein Streetscooter ist nämlich ungefähr doppelt so teuer wie zum Beispiel ein Ford Transit. Der hat zudem eine niedrige Ladekante, eine funktionierende Heizung, fährt autobahntaugliche 160 km/h und hat eine Reichweite von weit über 500 Kilometern.

Eine Leserbriefschreiberin, die offenbar vom  Fach stammt, führt unter diesem Beitrag in Die WELT noch ein paar weitere bei der Rettung des Planeten hinderliche Details an: „Wenn sich bei dem Scooter der Spareffekt über die Lebensdauer einstellt, sollte man bedenken, dass Nutzfahrzeuge zum überwiegenden Teil über drei Jahre geleast und dann gegen ein neues Fahrzeug getauscht werden. Der Anreiz für Firmen, auf Elektro umzusteigen, dürfte somit gegen Null tendieren“.

Also da liegt kein Segen drauf: Für die Streetscooter-Erfinder ist die Post der falsche Partner. Für die Kunden ist der Streetscooter der falsche Partner. Für die Weltrettung ist totale Begeisterung der falsche Partner. „Quel bordel“ würde der Franzose sagen.

So liefert das wahre Leben immer wieder wunderschöne Methaphern für den Segensreichtum von Geschäftsideen, die letztlich durch staatliche Interventionen zustande kommen. Ein Kamel ist ein Pferd, das von einem Ausschuß unter Leitung von Peter Altmaier entworfen wurde und der Streetscooter ist ein Formel 1 für den großen Preis von Hobbitland.  „Wir schaffen das Unmögliche nicht, weil wir es erst gar nicht versuchen“, sagt Streetscooter Mitbegründer Günther Schuh und fährt damit in der musikalischen Spur von Richard Wagner: „Deutsch sein heißt, eine Sache um ihrer selbst willen zu tun“. Ich fürchte da hilft nur Elvis Presley weiter, der die Sache schon 1952 richtig stellte: „Return to sender, adress unknown“.

Die Geschichte des Streetscooters hat eine Menge Pointen und es wäre eine Schande, wenn diese verloren gingen. Achgut.com-Leser R.R. hat deshalb eine wunderbare Chronik der Berichterstattung in den deutschen Medien zusammengestellt, die ich unseren Lesern nicht vorenthalten möchte. Sie zeigt exemplarisch die mediale Erregungskurve solcher Projekte. Sie haben meistens englische Namen als Ausweis globaler Visionitis, etwa Cargo-Lifter, Desertec, Solarvalley oder Solarworld und wollen stets das Unmögliche möglich machen, ein Versuch dem allerdings nur sehr vorübergehend Erfolg beschieden ist.

Es beginnt mit hoffnungsstarkem Größenwahn und Deutschlands Vorreiterrolle. Beim Streetscooter wurde – Vorsicht Todeskuss – sogar verlautet, dass die Kanzlerin ein Fan des Projektes sei. Das ganze sei „mehr als ein gutes Geschäft“ und man prüfe die „globale Expansion„. In dieser Phase befindet sich derzeit beispielsweise das Projekt einer Tesla-Fabrik in Brandenburg. Später nähert man sich allmählich den Mühen der Ebene, und die Durchhalteparolen häufen sich. Das war bei Streetscooter gut zu beobachten. „Winterprobleme beim Elektro-Transporter Streetscooter“ heißt es schon mal. Oder ganz schlicht: „E-Laster schreibt rote Zahlen“ Dies ist übrigens die Phase, die – Gottsseibeiuns –, derzeit auch die Energiewende erreicht hat, die voller Begeisterung das Unmögliche möglich machen soll.  Schließlich brennt es lichterloh, und die Visionäre entweichen durch die kalte Küche. Die Suche nach Schuldigen fördert die üblichen Verdächtigen und Feinde zutage: den Kapitalismus, die Skeptiker und – wie im Sozialismus – die vier Jahreszeiten, besonders den Winter.

Streetscooter chronologisch:

22.07.2015

Handelsblatt

ELEKTROAUTO STREETSCOOTER

Deutsche Post auf Teslas Spuren

Die Deutsche Post produziert seit Jahresbeginn hunderte Elektrofahrzeuge in Eigenregie. Warum die gelben Kastenwagen sich mehr und mehr als gutes Geschäft entpuppen – und sogar die Kanzlerin ein Fan ist.

Von Bert Fröndhoff, Christoph Schlautmann

04.04.2016

Start für Elektroauto StreetScooter: Deutsche Post geht unter die Autobauer

Konkurrenz für Tesla und Co.? Eher weniger. Aber ein großer Schritt für die umweltfreundliche Zustellung von Paketen und Briefen. Die Deutsche Post will ihr Elektroauto StreetScooter schon bald in größeren Stückzahlen produzieren.

26.04.2016

Welt

Mit diesem Elektroauto geht die Post ab

Von Heiko Zwirner

12.04.2017

Streetscooter: Deutsche Post verkauft ihr Elektroauto jetzt an alle

Die Deutsche Post will ihren Elektrotransporter Streetscooter jetzt an alle verkaufen. Die Produktionskapazitäten sollen bis Jahresende verdoppelt werden, eine globale Expansion wird geprüft.

15.04.2017

Handelsblatt

KLEINWAGEN E.GO LIFE

Der zweite Streich der Streetscooter-Erfinder

Der Streetscooter der Post schickt sich an, der erfolgreichste Elektrolieferwagen des Landes zu werden. Seine Erfinder planen den nächsten Coup: einen elektrischen Kleinwagen, der selbst manchen Porsche stehen lässt.

Von Lukas Bay

29.05.2017

Manager Magazin

Wird Aachen Elektroauto-Mekka – oder doch „Silizium-Sachsen“?

Von Wilfried Eckl-Dorna

09.08.2017

StreetScooter: Deutsche Post will 100.000 Elektro-Transporter pro Jahr bauen

10. 08.2017

Süddeutsche Zeitung

Elektromobilität: Paketboten fahren Elektroauto – und sind glücklich damit

Von Steve Przybilla

17.08.2017

Focus

Streetscooter für DHLStille Post mit weniger Abgasen: Deutsche Post baut mit Ford neue E-Transporter

27.09.2017

Frankfurter Allgemeine

ELEKTROAUTOS: Post baut zweite Street-Scooter-Fabrik in NRW

27.11.2017

Frankfurter Allgemeine

EIN PROFESSOR MACHT ES VOR: So einfach geht Elektroauto

VON ANNA STEINER

20.12.2017

heise online

Elektroautos: Streetscooter der Deutschen Post bekommen Feinstaubpartikelfilter

Auch Elektroautos emittieren Feinstaub. Die Deutsche Post will dennoch erreichen, dass ihre Elektrolieferwagen emissionsneutral fahren.

Von Andreas Wilkens

Die Elektro-Lieferwagen der Deutschen Post DHL sollen künftig möglicherweise „völlig emissionsfrei“ fahren. Dafür sollen die Streetscooter genannten Fahrzeuge mit einem Feinstaubpartikelfilter von Mann+Hummel ausgerüstet werden.

02.01.2018

Elektroauto-News

Winterprobleme beim Elektro-Transporter Streetscooter

04.01.2018

E-MOBILITÄT

Die StreetScooter der Deutschen Post werden umgebaut

Rund 200 Kilogramm leichter als ein Nissan e-NV200, eine Reichweite von maximal 80 Kilometern und ein eiserner Wille, die gesteckten Klimaziele realisieren zu wollen. Erfahren Sie hier, wie die Deutsche Post ihre Screetscooter erneuert.

Von LUKAS KLAMERT

09.04.2018

heise online

Elektroautos: Ford-Händler bieten StreetScooter an

Die Elektrolieferwagen der Modelle Work und Work L der Post-Tochter StreetScooter sind nun auch bei deutschen Ford-Händlern erhältlich. Die übernehmen neben dem Vertrieb auch den Service.

28.05.2018

Handelsblatt

Post liefert 200 Streetscooter an britische Milchmänner

Milk & More versorgt jede Woche mehr als 500.000 Haushalte in Großbritannien. Bald kommt dabei auch der Streetscooter der Post zum Einsatz.

Von Christoph Schlautmann

30.05.2018

heise online

Elektroautos: StreetScooter eröffnet zweiten Produktionsstandort

Mit dem neuen Produktionsstandort in Düren verdoppelt die Post-Tochter ihre Kapazität auf jährlich 20.000 Fahrzeuge.

Von Andreas Wilkens

02.10.2018

Deutsche Post jetzt mit über 8000 Elektroauto-Transportern von StreetScooter

10. 12.2018

ELEKTROAUTO:

Die Post darf den Streetscooter in Großserie bauen

05.02.2019

Post-Tochter Streetscooter soll 2019 deutlich wachsen

07.03.2019

Deutsche Post will in diesem Jahr 6000 neue StreetScooter einflotten

21.03.2019

Manager Magazin

Nach Brand rund 460 Streetscooter zurückgerufen

Deutsche Post überprüft Streetscooter – Lieferung verbrannt

Zwei Elektro-Lieferwagen vom Typ Streetscooter gerieten in Brand. Um Schlimmeres zu verhindern, zog die Post daraufhin zeitweise rund 460 der selbstproduzierten E-Fahrzeuge aus dem Verkehr. Auslöser der Brände seien offenbar fehlerhafte Verschweißungen im Bereich der Batterien gewesen…

28.03.2019

500 Elektro-Transporter: StreetScooter erhält Großauftrag aus Japan

30.08.2019

Focus

Elektro-Transporter

Post feiert 10.000. Streetscooter – doch der E-Transporter ist kein Erfolg

Die Deutsche Post DHL kommt bei der Elektrifizierung ihrer Transporterflotte schrittweise voran. Doch Experten bezweifeln, dass der spartanische E-Transporter ohne Subventionen überlebensfähig wäre.

20 Prozent der Flotte elektrifiziert

Post-Vorstand Tobias Meyer sagte, sein Unternehmen sei „klarer Marktführer in der grünen Logistik“ – man meine es ernst „mit unserem ambitionierten Null-Emissionen-Ziel bis 2050“. Die Post hat derzeit nach eigenen Angaben 13.500 Elektro-Ladesäulen und damit das größte private Ladesäulennetz hierzulande. Lobende Töne gab es auch aus der Politik: NRW-Wirtschaftsminister Andreas Pinkwart (FDP) sagte bei dem Termin in Köln, der Streetscooter sei „eine einzigartige Erfolgsgeschichte für die Elektromobilität in Nordrhein-Westfalen“.

Ohne Subventionen wohl nicht überlebensfähig

Unter Experten gibt es Zweifel, dass der Streetscooter ohne interne Subventionen am Markt bestehen könnte. Das Fahrzeug sei technisch sehr simpel gehalten, sagt Autoexperte Ferdinand Dudenhöffer von der Universität Duisburg-Essen. „Die Reichweite ist überschaubar, und die Herstellung in der Manufakturarbeit dürfte sehr teuer sein.“ Der Professor verwies auf die aus seiner Sicht insgesamt niedrigen Zulassungszahlen des Kraftfahrt-Bundesamtes (KBA). „Das ist nach meiner Einschätzung alles andere als eine Erfolgsgeschichte für die Post.“

10.10.2019

Spiegel

E-Laster schreibt rote Zahlen

Post motzt StreetScooter auf – um ihn endlich loszuwerden

Mit dem Elektrolaster StreetScooter hat die Deutsche Post die Autobranche vorgeführt. Trotzdem würde der Konzern die Tochterfirma lieber heute als morgen loswerden. Der Grund sind die Geschäftszahlen.

Als er auf den Markt kam, war der StreetScooter eine Sensation: Weil die Deutsche Post – bislang nur bedingt für mutige Innovationen bekannt – keinen Autohersteller fand, der ihr neue Elektrolieferwagen hätte bauen wollen, entwickelte sie einfach selbst einen (Lesen Sie hier die Erlebnisse der Gründer mit der Autobranche: „Die hielten mich für jemanden von Jugend forscht“)

Inzwischen gehören die gelben E-Laster bereits in vielen Großstädten zum Stadtbild. Der StreetScooter hat auch andere Abnehmer als die Post gefunden, Kleinunternehmer und Handwerker zum Beispiel. Die Post hat angekündigt, eine Fertigung in China aufbauen zu wollen, auch die USA sind im Gespräch. Bis 2021 soll die Serienproduktion bis zu 100.000 Fahrzeuge pro Jahr erreichen.

23.12.2019

Mdr AKTUELL

BRANDGEFAHR DURCH BATTERIEN

Brände bei Elektroautos sind Problem für Feuerwehren

Anfang 2019 sorgten brennende Elektro-Transporter der Deutschen Post für Schlagzeilen. Viel Kritik kam damals von Feuerwehrverbänden, die sich für solche Fälle nicht gerüstet sahen. Was hat sich inzwischen getan?

Von Danny Voigtländer

31.12.2019

Forschungsprojekt erprobt mit E-Transportern intelligente Netzintegration von E-Mobilität

9.01.2020

mdr AKTUELL

ELEKTROFAHRZEUG

Dritter Streetscooter der Post in Brand geraten

Erneut ist ein Streetscooter der Deutschen Post in Brand geraten. Anders als bei zwei Fällen im Herbst 2018 schließt das Unternehmen als Hersteller und Betreiber der E-Fahrzeuge diesmal den Akku als Ursache aus.

Herausforderung für Feuerwehren

Grundsätzlich gilt, dass jede Antriebsart die Feuerwehr bei einem Brand vor eigene Herausforderungen stellt. Bei Elektrofahrzeugen bereitet vor allem die Stromquelle Probleme. „Wenn der Akku einmal brennt, ist der Kräfte-Mittel-Aufwand mindestens vier- bis fünfmal höher als bei einem normalen Pkw-Brand“, sagt Marco Föhlisch von der Feuerwehr Teuchern. Ein zweiter Punkt sind die Substanzen, die aus den Akkus austreten, zum Beispiel die aggressive Flusssäure. Höher ist auch die Wahrscheinlichkeit einer Wiederentzündung. Da aber immer mehr E-Fahrzeuge auf die Straße kommen, müssen sich Einsatzkräfte verstärkt auf neue Brandszenarien einstellen.

von Friedemann Zweyner

10.01.2020

Focus

Elektroauto brennt bei der Post: Es war bereits der dritte Zwischenfall

In Herne im Ruhrgebiet brannte ein E-Transporter der Post völlig aus. Es gab bereits mehrere Zwischenfälle dieser Art, Ursache waren Produktionsfehler bei der Batterie. Zum Brandrisiko bei E-Autos machen die meisten Experten eine klare Aussage.

Auf dem Gelände der Hauptpost in Herne brannte Anfang Januar ein Lieferfahrzeug mit Elektromotor ab. Verletzt wurde dabei niemand, wie die Polizei in Bochum mitteilte. Da das Fahrzeug nah einem Gebäude stand, zerbarsten durch die starke Hitzeentwicklung auch die Fensterscheiben des Hauses.

Post baut Mitarbeitern eigenes Auto, doch die haben Angst einzusteigen.

Streetscooter will mit Chinesen kooperieren

Im September 2019 wurde dann bekannt, dass es eine Kooperation mit China geben soll. Zusammen mit dem dortigen Automobilhersteller Chery plant die Post einen angepassten Elektrolieferwagen speziell für China und möglicherweise weitere Länder. Laut der Absichtserklärung ist ab 2021 in China eine Serienproduktion von bis zu 100.000 E-Fahrzeugen pro Jahr geplant.

11.02.2020

StreetScooter hat scheinbar größere Probleme als bisher geahnt

StreetScooter im täglichen Verkehr nicht einsatzfähig

12.02.2020

Mindener Tageblatt

Wo laufen sie denn?

Gelbe StreetScooter stehen häufig still

Derzeit haben offensichtlich alle StreetScooter der Deutschen Post in Minden einen Boxenstopp an der Ringstraße/Ecke Rodenbecker Straße nötig

Von Jürgen Langenkämper

28.02.2020

Verkauf geplatzt: Post will StreetScooter-Fertigung einstellen

Die Deutsche Post will die Produktion der Elektro-Lieferwagen bei ihrer Tochter StreetScooter noch in diesem Jahr einstellen. Wie der Konzern nun mitteilte, wird nicht mehr nach einem Käufer für die Elektroauto-Sparte gesucht. Dabei stand ein Verkauf an den chinesischen OEM Chery offenbar kurz vor dem Abschluss.

Gegenüber der Deutschen Presse-Agentur DPA sagte ein Postsprecher: „Neubestellungen wird es keine mehr geben.“ Die bestellten Fahrzeuge würden noch produziert, die Auslieferungen würden sich voraussichtlich noch bis ins nächste Jahr ziehen, so der Sprecher.

28.02.2020

Nicht ganz überraschend: Deutsche Post stellt 2020 den Streetscooter ein

Noch dieses Jahr wird die Deutsche Post die Produktion der Elektrofahrzeug-Marke Streetscooter einstellen. Ganz überraschend kommt diese Unternehmensentscheidung allerdings nicht.

„Neubestellungen wird es keine mehr geben“, sagte ein Sprecher der Post am Freitag der Deutschen Presse-Agentur. Die Auslieferung von Fahrzeugen werde sich voraussichtlich noch bis ins nächste Jahr hinziehen. Man wolle die Sondierungen für einen Käufer nicht mehr weiterverfolgen, teilte der Konzern außerdem mit. Über Monate hinweg hatte die Post versucht, potenzielle Interessenten zu finden.

Streetscooter hatte viele Probleme

Der Elektro-Transporter der Post war ein guter Werbeträger für ein Unternehmen, das mit seiner riesigen Zahl von Dieseltransportern zur Abgas-Belastung und Verstauung in deutschen Städten beiträgt. Der Streetscooter ermöglicht einen zumindest lokal emissionsfreien Verteiler-Verkehr. Doch das an der Universität Aachen entwickelte Fahrzeug wurde für die Post eher zur Last: Geringe Praxisreichweiten, Probleme im Betrieb und sogar Akku-Brände verhagelten die Erfolgsstory

02.03.20

Post hat „Vorwand“ gesucht Scharfe Kritik wegen Aus für Elektro-Streetscooter

– Düsseldorf –

Nach dem Aus für den Streetscooter hat der Mitbegründer des Elektrotransporter-Herstellers, Günther Schuh, die Deutsche Post scharf kritisiert. Man habe „Amateure eingesetzt, jegliche Verbesserung verboten und auf eine Gelegenheit gewartet, das Geschäft unter einem Vorwand einzustellen“, schreibt der Aachener Professor in einem Gastbeitrag für das „Handelsblatt“ vom Montag. „Streetscooter wurde weder eine ausreichende Finanzierung noch ein realistischer Zugang zum Kapitalmarkt gewährt“, kritisiert Schuh. Das Ende des E-Autos sei ein Armutszeugnis für die Post und für Deutschland.

2010 hatte Schuh den Elektrotransporter mit seinen Studenten der RWTH Aachen erfunden und gemeinsam mit Achim Kampker Streetscooter gegründet. 2014 wurde das Start-up von der Deutschen Post-Tochter DHL übernommen.

04.03.2020

WDR

Streetscooter – 800 Arbeitsplätze im Raum Aachen in Gefahr

Die Nachricht traf die Betroffenen in der Region Aachen völlig unvorbereitet: Letzte Woche Freitag (28.2.2020) hat die Deutsche Post das Aus für den Streetscooter bekannt gegeben. Nur noch bis Jahresende soll der Elektro-Lieferwagen gebaut werden. Ein Verkauf des Tochter-Unternehmens wurde ausgeschlossen.

Der Beitrag erschien zuerst bei ACHGUT hier




Bereits zum zehnten oder elften Mal die „Ersten Klima-Flüchtlinge“

Ich musste daher lauthals lachen, als ich das hier von der zuverlässig Klima-alarmistischen BBC las:

Lassen wir keine Zweifel darüber aufkommen, wie hier Logik und die englische Sprache vergewaltigt werden. Man erklärt Menschen zu „Flüchtlingen“ vor einer für das Jahr 2054 prophezeiten Katastrophe! Das ist absolut lächerlich!

Sind dies die ersten Klima-Flüchtlinge?, fragt die Schlagzeile … nun, nein.

Ich glaube, wir brauchen eine neue Bezeichnung für diese Menschen, eine besondere Klasse von Menschen, welche derzeitige Flüchtlinge vor einer prophezeiten zukünftigen Katastrophe sind. Mein Vorschlag: Man bezeichne sie als Prefugees, um ihre vorübergehende Vertreibung aus einer Welt anzudeuten, in welcher die Auswirkung der Ursache vorangeht. … Aber ich will nicht abschweifen.

Als ich das sah, erinnerte ich mich vage an etwas bzgl. jenes Dorfes, und nach etwas Nachforschen fand ich das hier von der GWPF:

Also ist dies nicht nur die zehnte Erste-Klimaflüchtlinge-Krise, sondern dank des ewigen Wiederaufwärmens von vor vier Jahren seitens der BBC auch die elfte derartige Krise … aber was geht hier wirklich vor sich?

Fangen wir mit ein wenig Historie an.

[Es folgt eine historische Beschreibung der Entstehung der Ortschaft Fairbourne in Wales. Sie entstand um das Jahr 1900 auf einer Landzunge, welche ein Unternehmer gekauft hatte. Später wurde daraus ein Seebad. Anm. d. Übers.]

Es handelt sich also um ein relativ neues Dorf, ein „Modell-Seebad“, errichtet auf einer Salzmarsch … ein ungünstiger Beginn. Eine gute Beschreibung der Entwicklung mit historischen Photos findet sich hier. Und vor diesem Hintergrund betrachten wir jetzt die physikalischen Gegebenheiten des Gebietes.

Abbildung 1: Übersicht über das Gebiet um Fairbourne.

Wie man sieht, befindet sich das Dorf in einem Flussdelta wenig höher als der Meeresspiegel. Das ist keine Überraschung. Der Bau in einem Flussdelta ist ein normales Ereignis bzgl. vieler Erster-Klimawandel-Flüchtlinge zuvor. Das ist in doppelter Hinsicht ungut, weil – nun, falls das Gebiet in der Vergangenheit überflutet war, würde es kein Flussdelta sein, nicht wahr …

Außerdem ist der Boden im Delta eine lose Ansammlung leicht zu erodierender Materialien wie angeschwemmter Schlamm und Sand. Die verschlungenen Serpentinen des Flusses in Abbildung 1 auf dessen Weg durch das Delta zeigen, wie flach das Land ist und wie leicht der Fluss sich neue Wege suchen kann.

Hier ein näherer Blick auf das Dorf und die oben erwähnte „Landzunge“:

Abbildung 2: Das Dorf Fairbourne

Die Serpentinen-Struktur der Entwässerungskanäle in und um das Dorf zeigen ebenfalls, wie flach das Land dort ist. Google Earth gibt eine Seehöhe von 2 bis 3 m an.

Warum also heißt es von den Menschen dort, dass sie Klimaflüchtlinge sind? Im Mittelpunkt steht eine Phantasie-Vorhersage der UK-Regierung mit der Bezeichnung Shoreline Management Plan Two (SMP2). Dieses im Jahre 2011 verfasste Dokument behauptet, dass der Meeresspiegel um UK während der nächsten 100 Jahren um einen Meter steigen wird (wofür jetzt noch 91 Jahre verbleiben) oder auch 2 Meter.

Im SMP2 heißt es außerdem, dass der Meeresspiegel bis zum Jahr 2054 schon um 450 mm steigen würde und das Dorf aufgegeben werden müsste. Wie man sich leicht vorstellen kann, hat diese „Vorhersage“ den Werten des Landbesitzes gar nicht gut getan …

Nun sollte man nicht vergessen, dass der Meeresspiegel während der letzten 1½ Jahrhunderte mit einer Rate von 20 cm bis 30 cm pro Jahrhundert gestiegen ist. Folglich behaupten die Autoren, dass ohne jeden Anhaltspunkt für eine Beschleunigung der Rate des Anstiegs sich dieser während der nächsten 91 Jahre wie verrückt beschleunigen soll.

Wie sehr muss sich der Anstieg des Meeresspiegels beschleunigen, um jene gewaltige Zunahme zu erreichen? Weit mehr als man denken könnte. Um bis zum Jahre 2111 auf einen Meter zu kommen müsste er bei der zeitlichen Annäherung an dieses Datum um 27,2 mm pro Jahr steigen, das ist etwa zehn mal die derzeitige Rate. Und um bis dahin 2 Meter Anstieg zu erreichen, müsste er dann um 72,4 mm pro Jahr steigen, das ist 25 mal die jetzige Rate. Graphisch sehen diese Projektionen so aus:

Abbildung 3: Projizierter Anstieg des Meeresspiegels in Fairbourne. Die lineare Fortsetzung der derzeitigen Rate ist blau dargestellt. Gelb wäre der Anstieg um einen, rot ein solcher um 2 Meter. Die gestrichelte horizontale Linie markiert den Anstieg um 45 cm seit 2011 , von dem es heißt, dass das Dorf dann aufgegeben werden muss.

Man betrachte diese gewaltigen jährlichen Anstiege bis 2110-2111, 27 mm pro Jahr bzw. 72 mm pro Jahr. Zum Vergleich, die höchste Rate des Anstiegs der letzten 100.000 Jahre erfolgte während der Zeit, als wir aus der jüngsten Eiszeit kamen. Während der Periode des schnellsten Abschmelzens der Festlands-Gletscher mit der Bezeichnung „Meltwater Pulse 1a“ betrug der Anstieg geschätzt 47 ± 15 mm pro Jahr.

Meltwater Pulse 1a“ wurde verursacht durch das rapide Abschmelzen der gigantischen, ganze Kontinente überdeckenden Eisschilde jener Zeit. Davon ist aber heute nichts mehr übrig, und darum sehe ich einfach nicht die erforderlichen gewaltigen Anstiegsraten für einen Anstieg um 1 bis 2 Meter.

Beschleunigt sich der Meeresspiegel-Anstieg um Fairbourne überhaupt irgendwie? Leider gibt es in der Nähe keine Tidenmesspunkte mit Zeitreihen von 40 Jahren. Hier folgen die vier am nächsten gelegenen Tiden-Zeitreihen längerer Dauer.

Ich habe ein Analyseverfahren angewendet, welches ich in meinem Beitrag „Accelerating The Acceleration“ beschrieben habe. Das heißt, eine CEEMD-Analyse [?] wird herangezogen, um die Tidenzyklen zu entfernen, wobei nur die zugrunde liegenden Änderungen des Meeresspiegel-Trends hervortreten. Die folgenden vier Graphiken zeigen die Änderungen an diesen nächstgelegenen Stationen:

Abbildungen 4 bis 7: Analyse der Änderungen des Meeresspiegels an vier Tidenmesspunkten, welche am nächsten des Dorfes Fairbourne liegen.

Wie man sieht, zeigen alle vier Graphiken den gleichen Verlauf, also die gleiche s-förmige gelbe Linie, welche die zugrunde liegenden Variationen des Meeresspiegels repräsentiert. In jedem Falle schwankt der Meeresspiegel um die rote Trendlinie. Alle queren diese rote Trendlinie im Zeitraum 1977 bis 1979 und dann umgekehrt im Zeitraum 2005 bis 2010. Seitdem nimmt die Rate des Anstiegs wieder ab.

Von den Tiden weiß man, dass sie Zyklen von 50 Jahren oder mehr durchlaufen. Diese Zyklen in den Abbildungen 4 bis 7 liegen in der Größenordnung von 40 Jahren. Die gemeinsame Natur aller vier Aufzeichnungen zeigt, dass bei allen betrachteten Stationen einem konstanten langsamen Anstieg eine etwa 40 Jahre dauernde Oszillation überlagert ist.

Anders gesagt, es zeigt sich keinerlei offensichtliche Beschleunigung in diesen Aufzeichnungen und mit Sicherheit kein Anzeichen des riesigen Anstiegs, zu dem es bei einem Anstieg um ein bis 2 Meter in 100 Jahren kommen müsste.

Erstens, die Behauptungen im SMP2 bzgl. eines Anstiegs des Meeresspiegels um 1 bis 2 Meter bis zum Jahr 2111 sind extrem unwahrscheinlich. Der große Wissenschaftler Freeman Dyson drückte es so aus:

Als Wissenschaftler gebe ich nicht viel auf Prophezeiungen. Die Wissenschaft ist ihrem Wesen nach unvorhersagbar. Die besten Wissenschaftler mögen es, Dinge in ein Experiment zu kleiden, das so unvorhersagbar wie möglich daherkommt. Sie führen das Experiment durch und warten ab, was herauskommt. Man könnte sagen, dass wenn etwas Erwartetes passiert es keine Wissenschaft ist. Wenn ich Prognosen abgebe, spreche ich nicht als Wissenschaftler, sondern als Märchenerzähler, und meine Prognosen sind eher Science Fiction als Wissenschaft. Die Prognosen von Science Fiction-Autoren sind ihrer Natur nach ungenau. Sie beschreiben eine Vorstellung, was geschehen könnte, und nicht das, was geschehen wird.

Zweitens, in dieser Hinsicht mache ich mir keinerlei Sorgen, solange der Anstieg des Meeresspiegels nicht anfängt, sich tatsächlich zu beschleunigen. Falls es keine Beschleunigung gibt, würde man bis zum Jahr 2200 keinen Anstieg um 45 cm bekommen … und wie gesagt gibt es derzeit keinerlei Anzeichen einer solchen Beschleunigung.

Drittens, falls die Angaben von Google korrekt sind und das Dorf 2 bis 3 Meter über dem Meeresspiegel liegt, sehe ich nicht, dass selbst ein Anstieg um 45 cm notwendigerweise katastrophal ist, wie es im SPM2 behauptet wird.

Viertens, ich habe genau die dem Fluss zugewandte Seite des Dorfes betrachtet. Je schneller man die Seite entwässern kann, umso besser. Ich ziehe in Betracht, auf irgendeine Art und Weise das Gebiet mit Kanälen zu durchziehen, wo der Fluss den Ozean erreicht. Im besonderen ist es wichtig zu erreichen, dass der Fluss nicht die große Krümmung über dem Dorf erreicht. Erosion erfolgt an den Außenseiten der Flusskehren, und das ist unerwünscht. Es sieht so aus, als könne man ihn zur Nordseite des Deltas umleiten. Weiter unten wird ein solches Verfahren skizziert.

Fünftens, ich installiere meine eigene Messstation. Man braucht kontinuierliche lokale Informationen. Um Aufschluss zu bekommen über den wahren Anstieg des Meeresspiegels vor Ort einschließlich des geringen, aber stetigen Absinkens des Flussdeltas, braucht man einfach einen nahe gelegenen Messpunkt.

Sechstens, wenn und falls der Meeresspiegel zum Problem wird, wissen wir Menschen damit umzugehen. Die Niederländer haben dieses Spiel bereits seit Jahrhunderten gespielt.

Außerdem gibt es Unternehmen wie Holmberg Technologies, welche sich darauf spezialisiert haben, mit und nicht gegen den Ozean zu arbeiten, um Strände auszuweiten und Küstenlinien gegen Erosion zu sichern. Ein Beispiel für die Arbeit von Holmberg wird hier gezeigt:

[Anmerkung des Übersetzers: Es folgt eine Beschreibung des sehr einfachen und billigen Verfahrens und wie es erfolgreich an verschiedenen Stellen der Welt angewendet wurde. Diese Beschreibung wird hier nicht mit übersetzt. Das Verfahren führt dazu, dass sich die Strände deutlich ausweiten. Autor Eschenbach folgert dann:]

Man stelle diesem Verfahren die übliche Lösung gegenüber: ein Deich. Anstatt den Ozean mittels Erweiterung des Strandes zurückzudrängen, soll ein Deich den Ozean aufhalten… nach meiner Erfahrung als erfahrener Seemann würde ich dazu nicht raten …

Und so schließt sich das Märchen des elften ersten Klima-Flüchtlings- nicht mit einem Knall, sondern klammheimlich – und wie gewöhnlich ist weit und breit kein Flüchtling in Sicht.

Meine Schlussfolgerung am Ende?

Nun, ich bevorzuge einen hügeligen Wohnort und würde kein Land in einem Flussdelta kaufen. Falls ich jedoch schon Landbesitzer in Fairbourne wäre, würde ich es behalten. Landbesitz in Meeresnähe ist immer wertvoll – und sollte der Meeresspiegel wirklich steigen, würde ich Holmberg kontaktieren.

striche

Endbemerkung: Frühere Beiträge zu diesem Thema:

Der sechste „Erste-Klima-Flüchtling“ (2. Juli 2013)

Eilmeldung: der siebente „Erste-Klima-Flüchtling“ ist entdeckt! (9. August 2013)

Der achte „Erste-Klima-Flüchtling“ (26. Dezember 2015)

Der neunte „Erste-Klima-Flüchtling“ (30. November 2016)

Link: https://wattsupwiththat.com/2020/03/05/the-eleventh-tenth-first-climate-change-refugees/

Übersetzt von Chris Frey EIKE