1

Über 100 Wissenschaftler protestieren gegen Feinstaub-Hysterie

Die These, dass Feinstaub und Stickstoffverbindungen in deutschen Städten gesundheitsgefährdend seien, wird von mehr als 100 Wissenschaftlern bezweifelt, meldet dernewsticker. In einem Papier, über das die „Welt“ berichtet habe, heiße es, die Unterzeichner sähen „derzeit keine wissenschaftliche Begründung für die aktuellen Grenzwerte für Feinstaub und NOx“. Sie forderten daher eine Neubewertung der wissenschaftlichen Studien durch unabhängige Forscher. Am Mittwoch solle das Papier der Deutschen Gesellschaft für Pneumologie und Beatmungsmedizin (DGP), der Deutschen Lungenstiftung und des Verbandes Pneumologischer Kliniken im Internet veröffentlicht werden.

Der Lungenmediziner Dieter Köhler, ehemaliger Präsident der Deutschen Gesellschaft für Pneumologie und nun Mitverfasser des Papiers, hält die Grenzwerte, die per EU-Verordnung erlassen wurden, für „völlig unsinnig“. Köhler sagte der „Welt“, dass die WHO-Studie wesentliche Aspekte ausklammere, wenn sie die etwas kürzere Lebenserwartung von Anwohnern verkehrsreicher Straßen mit der Lebenserwartung in besseren Wohngegenden vergleiche.

Der Betrag erschien zuerst auf ACHGUT hier




ARGO – für den Zweck geeignet?

Wir wussten bereits, dass der jährliche SLR lediglich niedrige einstellige Millimeter-Bereiche ausmachte. Die Gründe, warum Satelliten-Altimetrie ein solches Maß an Genauigkeit nie erreichen kann, sind sehr grundlegend und waren der NASA auch bekannt: Das erforderliche Referenz-Ellipsoid der Erde ist unregelmäßig [lumpy], die Ozeane haben variierende Wellen, die Atmosphäre variierende Feuchtigkeit – so dass die NASA niemals ihr selbst gestecktes Ziel erreichen konnte, nämlich den Meeresspiegel auf diese Weise bis auf Bruchteile von Millimetern pro Jahr genau zu messen, äquivalent zu Tidenmessungen. Die NASA behauptet, das sehr wohl zu können, aber deren Spezifikationen sagen, sie kann nicht. Dies wurde in jenem Beitrag belegt.

In diesem Beitrag stellen wir die gleichen Fragen bzgl. des ARGO-Programms.

Anders als bei Jason 3 gibt es keine gute Äquivalent-Mission von Tidenmessungen, mit denen man Vergleiche anstellen kann. Die neuen ozeanographischen Ziele (unten) enthielten die Messung mehrerer Dinge, und zwar zum allerersten Mal ,rigoros‘. ;Rigoros‘ bedeutete NICHT präzise. Ein Parameter, nämlich der ozeanische Wärmegehalt OHC war zuvor nur sehr ungenau geschätzt worden. OHC ist viel mehr als einfach nur die Wassertemperatur SST. Diese wurden vormals von Schiffen gemessen, die auf den gängigen Handelsrouten unterwegs waren, mit Eimern oder durch Messungen des in die Schiffsmotoren einströmenden Kühlwassers. Im tieferen Ozean ist überhaupt nicht gemessen worden, bis XBT-Sensoren für die Navy entwickelt worden waren. Diese maßen die Tiefe, in der sie sich gerade befanden, jedoch sehr ungenau.

Ob ARGO zweckdienlich ist oder nicht, involviert ein komplexes Entwirren der Ziele, für welche die Bojen ausgelegt waren, plus viele darauf bezogene Fakten. Die kurze ARGO-Antwort lautet möglicherweise ja, obwohl OHC-Fehlerbalken nachweislich in der wissenschaftlichen Literatur bzgl. ARGO untertrieben dargestellt sind.

Wer eine weitergehende Untersuchung der Schlussfolgerungen dieses Beitrags vornehmen will, der wende sich an die Website www.ARGO.uscd.edu. Die meisten Inhalte dieses Beitrags sind direkt daraus abgeleitet oder führen direkt zu den ARGO-Beiträgen bei WUWT von Willis Eschenbach. Die vier grundlegendsten seiner Beiträge sind unten verlinkt.

[Es folgen eine Reihe technischer Einzelheiten bzgl. des Aufbaus der Bojen und technische Details, die hier nicht mit übersetzt werden. Weiter unten werden diese graphisch und zusammenfassend dargestellt. Anm. d. Übers.]

Das grundsätzliche Design der ARGO-Bojen sieht so aus:

Und das Messprogramm von ARGO so:

Die Frage, ob das ARGO-Programm zweckdienlich bzgl. OHC ist (mittels des Temperaturprofils bis hinab auf 2000 m) gliedert sich in zwei relevante Teilfragen. 1) Sind 2000 m ausreichend tief? 2) Sind die Sensoren genau genug, um die 10 W/m² pro 1000 km pro Kante zu ,pixeln‘?

Hinsichtlich der Tiefe gibt es zwei Antworten von unterschiedlichen Seiten, die aber beide ,ja‘ lauten für alle Zwecke der Mission.

Bzgl. des Salzgehaltes reichen die ARGO-Profile aus. Frühere ozeanographische Studien zeigen, dass der Salzgehalt unterhalb von 750 m Tiefe in allen Ozeanen bemerkenswert invariabel ist. Dies bietet glücklicherweise eine natürliche ,Kalibrierung‘ des Salzgehaltes für jene empirisch problematischen Sensoren.

Bzgl. der Temperatur zeigen die typischen thermoklinen Profile, dass die Temperatur unterhalb 2000 m kaum noch abhängig von der geographischen Breite variiert, was eine weitere natürliche ARGO-,Kalibrierung‘ darstellt. Dies zeigt Abbildung 3 (in Grad Fahrenheit). Die Bojen bis zu einer Tiefe von 2000m auszulegen war eine kluge Wahl.

[rote Kurve: Tropen, grüne Kurve: gemäßigte Zone, blaue Kurve: Polargebiete]
[rote Kurve: Tropen, grüne Kurve: gemäßigte Zone, blaue Kurve: Polargebiete]

Ist das ARGO-Programm zweckdienlich?

Als Hintergrund für die Ziele des ARGO-Programms werden noch ein paar weitere Grundlagen benötigt.

Taucht eine ARGO-Boje an die Oberfläche, um seine Daten zu übermitteln, wird dessen Position mittels GPS auf 100 m genau bestimmt. Angesichts der Größe der Ozeane ist das eine überaus präzise Messung der Position für ,umfassende räumliche Größenordnungen‘ der Strömungen und 1.000.000 km² OHC/Salzgehalt-Pixel.

Dank der Stabilität des Salzgehaltes unterhalb von 750 Metern sind die ,Salzgehalt-korrigierten‘ ARGO-Instrumente genau (nach Bojen-spezifischen Korrekturen) bis auf ±0,01 psu [= Primary Sampling Unit?], was vernünftige Schätzungen des ,Süßwasser-Gehaltes‘ zulässt. …

Die verbleibende große Frage nach ,hinreichender Genauigkeit‘ ist die nach dem OHC. Dinge wie Trenberths infame „fehlende Wärme“ sind nichts als heiße Luft. Der OHC ist eine sehr knifflige Sensor-Frage, da die große Wärmekapazität des Ozeanwassers bedeutet, dass eine sehr große Änderung der in den Ozeanen gespeicherten Wärme eine sehr geringe Änderung der absoluten Temperatur des Meerwassers bewirkt.

Wie gut sind die ARGO-Sensoren? Oberflächlich betrachtet könnte man meinen, kommt darauf an, denn die ARGO-Bojen weisen nicht nur ein, sondern gegenwärtig fünf verschiedene Sensor-Typen auf, geschuldet der Internationalität des Programms.

Unter diesen fünf Typen sind jedoch nur zwei Temperatursensoren, von denen einer sich rasch als fehlerhaft herausstellte. Alle fünf Typen der ARGO-Bojen messen daher die Temperatur mit einem Sensor mit der Bezeichnung SBE38, entwickelt im Jahre 2015.

Dieser Sensor wird von SeaBirdScientific konstruiert, näheres dazu bei www.seabird.com. Der SeaBirdE38-Sensor weist folgende Spezifikationen auf:

Messbereich:

-5 to +35 °C

Initiale Genauigkeit:

± 0.001 °C (1 mK)

Typische Stabilität

0.001 °C (1 mK) innerhalb sechs Monaten, zertifiziert

Auflösung:

Reaktionszeit 500 msec

Selbsterwärmungs-Fehler:

< 200 μK

Das ist ein bemerkenswert guter Sensor der Wassertemperatur. … Aber es gibt immer noch ein großes ,Für-Den-Zweck-Geeignet‘-Problem trotz aller Positiva von ARGO. Klimastudien auf der Grundlage von ARGO untertreiben gewöhnlich die tatsächliche resultierende OHC-Unsicherheit – um etwa 10 W/m². (Judith Curry nannte dies eine Form ihres ,Ungenauigkeits-Monsters‘. Willis Eschenbach hat dazu Einiges bei WUWT gepostet, und seine vier relevantesten Beiträge bzgl. der Frage nach der Zweckdienlichkeit datieren aus den Jahren 2012 bis 2015. Die vier Beiträge sind hier verfügbar:

Decimals of Precision

An Ocean of Overconfidence

More Ocean-Sized Errors In Levitus Et Al.

Can We Tell If The Oceans Are Warming

Und damit können wir hinsichtlich der Zweckdienlichkeit von ARGO folgern: ja, sie sind vermutlich geeignet – aber nur, wenn auf ARGO basierende Studien auch korrekt die Fehlerbalken der ,rigorosen, wenngleich umfassenden räumlichen Verteilung‘ darstellen.

Link: https://wattsupwiththat.com/2019/01/16/argo-fit-for-purpose/

Übersetzt von Chris Frey EIKE




Leserbrief in der Süddeutschen zum Beitrag „Kohle, Kohle, Kohle“ (Nr. 283 vom 8./9.12.2018)

Ich war überrascht, den Beitrag „Kohle Kohle Kohle“ mit seiner Fülle an persönlichen Diffamierungen in der Sparte „Wissenschaft“ zu finden und nicht auf den Meinungsseiten. Die Autorinnen identifizieren in Ihrer auf monatelanger Recherche beruhenden Aufspürung von „Klimaleugnern“ (welch unbedachter Begriff) „meist Männer über 60 Jahre“.

Im Falle von Wissenschaftlern mag dies daran liegen, dass man in diesem Alter auf sein Lebenswerk zurückblickt und mehr Zeit dafür hat, es in gesellschaftliche Diskussionen einzubringen. Jüngere und im Berufsleben stehende Forscher (wie auch JournalistInnen?) riskieren ihre Karriere oder Förderung, wenn sie bei brisanten Themen nicht dem wissenschaftlichen (bzw. politischen) Mainstream folgen. Wer etwa im „Potsdam-Institut für Klimafolgenforschung“ (PIK) mit seinen 350 Mitarbeitern angestellt werden möchte, sollte sich hüten, die Aussagen der Direktoren zu hinterfragen.

Wer wie das PIK über 30 Mio. Euro Steuergelder jährlich verfügt, seit seiner Gründung 1992 also vermutlich mit weit über eine halben Milliarde Euro staatlich gefördert wurde, braucht keine private Finanzierung wie die durchgehend inkriminierten Institutionen der bösen „Klimaverneiner“, welche sich dagegen vergleichsweise bescheiden ausnimmt.

Das PIK wird dominiert von theoretischen Physikern wie John Schellnhuber, Stefan Rahmstorf oder Anders Levermann, und nicht von Naturwissenschaftlern, die sich ihr Leben lang einem Forschungsthema gewidmet haben wie z.B. der renommierte Meeresspiegelforscher Axel N. Mörner. Von seinen über 200 Aufsätzen wurde im Artikel nur einziger abfällig zitiert. Man staunt, wie sich die Autorinnen anmaßen, ungetrübt von jeglicher journalistischen Objektivität die Kompetenz einzelner Wissenschaftler zu beurteilen. Jeder mag für sich entscheiden, wem er in Sachen Meeresspiegelschwankungen mehr vertrauen mag. Ebenso ist es keine Theorie, sondern unbestrittene Tatsache, dass die Sahara – eine Region so groß wie die USA – während der letzten globalen Erwärmung nach dem Ende der Eiszeit vor rund 10.000 Jahren ergrünt ist. Und auch über die Ursachen der angeblich ersten US-amerikanischen Klimaflüchtlinge aus dem Mississippi-Delta mag man sich streiten.

Der nicht nur vom PIK oft postulierte „überwältigende“ oder sogar 97%ige Konsens aller Wissenschaftler zum rezenten und künftigen Klimawandel ist unhaltbar. Selbst bei manchem Konformismus und Opportunismus vieler Wissenschaftler wäre dies bei einem so komplexen Thema ein Armutszeugnis für die Wissenschaft. Solide Wissenschaft lebt von überprüfbaren Argumenten und inhaltlicher Diskussion, und nicht der hochmütigen Diskreditierung Andersdenkender. Augenmaß und Selbstskepsis stehen Wissenschaftlern besser zu Gesicht als Dogmatismus, Weltuntergangsszenarienund zu große Nähe zur Politik oder sogar zum Papst.

Die Erforschung des höchst komplexen Klimawandels auf den verschiedenen Kontinenten und in der Atmosphäre ist mühsam und langwierig. Die von Bohrkernen aus dem polaren Eis oder aus den Ozeanböden abgeleiteten Klimainterpretationen sind nicht so einfach weltweit übertragbar. Der Mensch ist weder Pinguin noch Fisch. Klimamodellierungen sind numerische Hypothesen und keine Gewissheiten. Ein globales Klima gibt es nicht. Und wie in der Vergangenheit gibt es beim Klimawandel immer Gewinner und Verlierer. Warmzeiten sind für die Menschheit jedenfalls unvergleichlich günstiger als Kaltzeiten.

Ausriss aus Artikel „Kohle, Kohle, Kohle“ (siehe Bezug weiter unten im Text) mit „Klimaleugner“-Netzwerk gemäß Süddeutsche Zeitung vom 8/9. Dezember nach Angaben von Moritz Neujeffski und Susanne Götze von SZ

Wer wie die Autorinnen andere Meinungen für falsch hält, weil sie auch von Trump oder der AfD geteilt werden, betreibt Meinungsjournalismus und denkt in simplen Schwarz-Weiß-Schemen, was weder der Natur noch dem Leben gerecht wird. Wirklicher investigativer Wissenschaftsjournalismus wäre es gewesen, nicht nur im politisch korrekten Mainstream mitzuschwimmen, sondern auch einigen der ständig wiederholten Thesen zum anthropogenen Klimawandel auf den Grund zu gehen. Etwa zu versuchen dem Leser zu erklären, warum der geringfügige Anstieg von 0,03 % auf 0,04 % CO2in den letzten 100 Jahren entscheidend für die Erwärmung sein soll. Oder zu überprüfen, was sich von den früheren Prognosen und Modellierungen des PIK und des Weltklimarats IPCC, oder auch des Films „Eine unbequeme Wahrheit“ von Al Gore bisher nicht bewahrheitet hat. Um nur ein paar Beispiele zu nennen.

Für die grafische Darstellung der weltweiten Verknüpfungen der zahllosen und überwiegend fachfremden Klimawandel-Apologeten in Behörden und Instituten, NGOs, Lobbyorganisationen und Thinktanks sowie in den Parteien und Medien v.a. in Deutschland, darunter auch die mehrfach zitierte Adelphisowie die Sponsoren des Artikels und des Monitor-Beitrags im WDR würden sämtliche Seiten einer SZ-Ausgabe am Wochenende übrigens kaum ausreichen.

Dr. Stefan Kröpelin

(seit 40 Jahren in der Erforschung des Klima- und Umweltwandels in der Sahara tätig)




KURZ VORM BLACKOUT Deutschland (fast) ohne Strom

Es kracht immer häufiger im Gebälk der europäischen Stromversorgung. In der zweiten Januarwoche wäre es fast zu einem sogenannten Blackout gekommen, einem kompletten Stromausfall, bei dem Millionen von Haushalten und der Industrie kein Strom mehr zur Verfügung gestanden hätte. Am 10. Januar 2019 abends sank die Netzfrequenz auf 49.8 Hertz ab. Das ist die unterste Grenze, bis zu der Einbrüche im Netz ausgeglichen werden können. Fällt der Wert darunter, bricht das Netz zusammen mit dramatischen Folgen.

Europa schrammte »knapp an einer Katastrophe« vorbei, zitiert »Der Standard« aus Wien Experten, wie auf dieser Kurve zu sehen ist.

Die Frequenz ist das entscheidende Maß dafür, ob genügend Strom produziert wird. Denn der kann nicht in größeren Mengen gespeichert, sondern muss in genau dem Augenblick erzeugt werden, in dem er gebraucht wird. Angebot und Nachfrage müssen immer im Gleichgewicht stehen. Nicht mehr ganz einfach, denn mehr und mehr Windräder und Photovoltaikanlagen speisen »Wackelstrom« in die Netze. Der muss sogar den Vorrang vor dem gleichmäßigen Strom aus Kraftwerken bekommen.

Sämtliche Stromerzeuger und Verbraucher in Europa takten im Gleichklang von 50 Hertz. Sinkt die Frequenz unter diesen Wert, so herrscht Strommangel und die Netzbetreiber müssen schnellstens weitere Stromquellen dazuschalten – oder eben möglichst schnell Stromverbraucher abschalten.

An jenem Donnerstagabend warfen die Netzbetreiber »Lasten ab« und schalteten Industriebetrieben, die viel Strom verbrauchen, denselben ab. Der französische Netzbetreiber RTW warf mehr als 1,5 GW ab, Strom für hauptsächlich Industriebetriebe. Abwerfen, das heißt in der Sprache der Stromerzeuger: Strom aus. Sofort, meist ohne Vorwarnung.

Das geschieht automatisch in mehreren Stufen, um die Netzfrequenz aufrecht zu erhalten. Sackt die trotzdem noch weiter unter 47,5 Hertz ab, wird das Stromnetz abgeschaltet. Blackout total. Nichts geht mehr.

Sollten irgendwann einmal tatsächlich nur noch Windräder Strom erzeugen, so könnten noch nicht einmal mehr das Stromnetz wieder in Gang gesetzt werden. Nur mit Windrädern allein klappt das aus technischen Gründen nicht. An jenem Donnerstag ging es gerade noch einmal gut. Lasten wurden nur in einer ersten Stufe abgeworfen, das reichte, um das Netz wieder zu stabilisieren.

Wenig später teilte der österreichische Übertragungsnetzbetreibers APG mit, dass »ein Datenfehler an einem Netzregler« im Gebiet der deutschen TenneT, den Störfall auslöste. Die Störung habe jedoch gezeigt, dass das europäische Schutzsystem nach dem Frequenzabfall gegriffen und die Frequenz sofort wieder in den Normalbetrieb zurückgeführt habe.

Ob aber dieser Messfehler die einzige Ursache war, bezweifeln die Experten des Verbandes Europäischer Übertragungsnetzbetreiber ENTSO in Brüssel.

Einen Blackout befürchten manche Energiemanager hierzulande nicht. Sie verweisen darauf, dass im Zweifel Strom aus dem Ausland eingekauft wird. Kosten spielen sowieso keine Rolle mehr im Energiewendenwahnsinn.

Doch was, wenn nicht mehr genügend Erzeugerkapazitäten in Europa bereitstehen? Die französischen Kernkraftwerke schwächeln, im vergangenen Sommer waren die Schweizer Speicherseen ziemlich leer. Häufiger müssen auch Länder wie Frankreich, die Schweiz und Belgien Strom importieren.

Strom ist nicht gleich Strom. Es hängt davon ab, wann er gebraucht und produziert wird. Wind und Sonne liefern zu ungleichmäßig, können ein Industrieland wie Deutschland nicht mit Energie versorgen. Deutschland exportiert häufig dann Strom, wenn auch im europäischen Netz zu viel vorhanden ist. Dann muss oft genug noch eine gute Stange Geld mitgeliefert werden, damit irgendjemand diesen Strom abnimmt.

Und ohne Kernenergie, Kohle und Gas hätte Deutschland am vergangenen Wochenende im Dunkeln gesessen. Wind und Sonne lieferten mal wieder nicht. Die beiden unteren kleinen blauen Flächen zeigen, dass kaum Strom kam. Gegen Mittag lieferten die Photovoltaikanlagen kurzzeitig ein wenig Strom. Doch von der Sonne kommt noch nicht so viel Energie wie im Sommer an, sie steht zudem noch sehr schräg am Himmel. Die konventionellen Kraftwerke mussten den Löwenanteil bei der Stromerzeugung abdecken. Noch hat niemand von den Energiewendlern erklärt, woher der Strom kommen soll, wenn die letzten Kohle- und Kernkraftwerke abgeschaltet sein werden. Dann herrscht Nacht über Deutschland.

Ein paar Tage vorher um den 17. Januar, weht der Wind wenigstens noch einigermaßen, wie das Schaubild (oben) zeigt.

Unternehmen in Deutschland protestieren mittlerweile heftig gegen immer häufigere Abschaltungen. Sie müssen immer häufiger damit rechnen, dass ihnen kurzfristig der Strom abgeschaltet wird, und sie ihre Produktion stillegen müssen.

»Bisher sind dieses Jahr (gemeint ist das Jahr 2018) 78 Abschaltungen alleine der Aluminiumhütten erfolgt«, zitiert die FAZ einen »Brandbrief« der Hydro Aluminium aus Neuss an den Präsidenten der Bundesnetzagentur. Das sei ein neuer Rekord.
Aluminiumhütten gehören zu den großen Stromverbrauchern. Eine jener waghalsigen Ideen der Energiewende ist, solchen Großverbrauchern den Strom abzuklemmen, wenn Flaute im Netz herrscht und weder Wind noch Sonne genügend Energie liefern. Damit kappen sie zwar die Spitzen im Stromverbrauch, bringen aber gleichzeitig die Unternehmen in erhebliche Schwierigkeiten. Die benötigen den Strom in der Regel nicht aus Freude am Spielen, sondern für ihre Produktion. Sie bekommen zwar ein Entgelt für die Stromabschaltung, die 15 Minuten vorher angekündigt werden muss. Doch das nutzt nicht viel, haben sie doch Lieferverpflichtungen. Bei einem längeren Stromausfall kann in Verhüttungsbetrieben oder in Glaswerken die Schmelze erstarren und die Anlagen zerstören.

Die FAZ beschreibt zum Beispiel den 14. Dezember vergangenen Jahres. Der Tag war eigentlich als ein sonniger Tag eingeplant, bei dem die Photovoltaik-Anlagen viel Energie in die Netze einspeisen sollten. Grundlage war die spezielle Wettervorhersage, die für die Stromversorger produziert wird. Doch das Wetter hält sich nicht immer an die Vorhersage vom Tage zuvor. Es kommt häufig anders.

Der Himmel über Deutschland war an jenem Freitag fast durchgängig bedeckt. Nur an einigen Stellen kam kurz die Sonne durch. Die schwerwiegende Folge: In Deutschland gab es zu wenig Strom. Die Netzbetreiber wollten den Strom bei einer Reihe von Industriebetrieben abschalten, vor allem bei jenen, die viel Strom verbrauchen wie Aluminiumhütten, Walzwerke und Gießereien.

Das ist vereinbart, dafür bekommen sie auch Geld, und das hilft den Netzbetreibern, die Spitzen im Stromverbrauch abzusenken. So können sie das Netz gerade noch stabil halten, Haushalte und Büros verfügen weiterhin über Strom. Gegen 15 Uhr konnten die normalen Energieerzeuger wieder genügend Strom liefern, der Engpass war vorbei.

»Später wird bei Netzbetreibern von einem ›Prognosefehler bei den erneuerbaren Energien aufgrund einer seinerzeit komplexen Wetterlage‹ die Rede sein«, schreibt die FAZ.

Eine Papierfabrik aus dem niedersächsischen Varel hatte früher bereits eine Verfassungsbeschwerde dagegen eingelegt, dass der zuständige Netzbetreiber auf das Kraftwerk des Betriebes zugreifen darf, wenn zu wenig Strom im öffentlichen Netz vorhanden ist. Doch die Bundesverfassungsrichter wiesen diese Beschwerde gegen die Eingriffe in das Eigentumsrecht des energieintensiven Betriebes kurzerhand zurück.

Es sind jedoch nicht nur die großen Stromabschaltungen, die der Industrie zu schaffen machen. Auch die Qualität des Stromes nimmt ab. Kurzfristige Frequenzschwankungen nehmen zu. Die können die empfindlichen Rechnersteuerungen von Produktionsanlagen, Grafikkarten oder Netzteilen in Rechnern zerstören.

Der österreichische Blackout-Experte Herbert Saurugg beobachtet die sich häufenden kritischen Netzsituationen. Für ihn ein Zeichen zunehmender Instabilitäten im europäischen Verbundsystem. Die Netzschwankungen könnten immer schlimmer werden, meint der ehemalige Major des österreichischen Bundesheeres.

Vorräte einkaufen, empfiehlt er. Man könne sich bei der Planung an einem zweiwöchigen Campingurlaub orientieren. Und er hat noch einen Tipp für den Stromausfall.

»Gemeinsam lassen sich derartige Krisen deutlich besser bewältigen. Nutzen wir auch die damit verbundenen Chancen: Kommen Sie mit Ihrer Nachbarschaft ins Gespräch. Der soziale Zusammenhalt ist gerade in einer solchen Situaton überlebenswichtig.«

So haben wir die »Energiewende« noch nicht gesehen: der Blackout als soziales Instrument.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Klimagaga: Jetzt schwänzen auch schon deutsche Schüler den Unterricht für „Klimademos“

Heutige Schülergenerationen haben es da einfacher. Ich weiß nicht, ob es bereits „Feinstaubfrei“ oder „NO2-frei“ an Schulen in grünrot-regierten Städten gab. Angesichts der religiös-kultisch anmutenden Grenzwerte und Meßmethoden dieser Todes-Szenarien allerdings wäre es kein Problem. Nötig wäre es dennoch nicht, da linke (oder zumindest lernfaule) Schüler_ixes* bereits die vom deutschen Klima-Kardinal Schellnhuber ausgerufene „Selbstverbrennung“ via CO2 als Ausrede zur Verfügung haben. Erinnern Sie sich noch an Greta Thunberg, die schwedische Schülerin, die jeden Freitag die Schule schwänzt, um vorm Stockholmer Parlament gegen die nicht existierende Klimakatastrophe zu demonstrieren? Wir berichteten . Das 15jährige indoktrinierte Mädchen durfte sogar auf der UN-Synode der Church of global Warming, in Insiderkreisen auch als „Weltklimakonferenz“ bekannt, in Kattowitz eine Rede halten. Leider vor fast leeren Reihen, weil sich selbst in der Weltuntergangssekte der Klimaalarmisten wohl kaum jemand für noch eine Predigt mit dem üblichen immer gleichen Inhalt interessierte.

Das wurde in den deutschen Relotiusmedien natürlich verschwiegen und stattdessen das vorbildliche Engagement des ideologisch missbrauchten Mädchens gelobt. Prompt nutzten das unsere tapferen kleinen Schulschwänzer in Marburg und gingen ungenehmigt zu einer Demonstration gegen den Klimawandel, die weder das Klima, noch die örtlichen Politiker oder Journalisten wirklich interessieren dürfte. Daß die betreffenden lernfaulen Schüler_ixes effiziente Strafen zu erwarten haben, ist unwahrscheinlich. Verweise oder Ausschlüsse vom Unterricht würden klimagläubige Lehrer entweder erst gar nicht verhängen; und wenn doch, würden ein kleiner inszenierter Schittsturm oder irgendeine „Soli-Aktion“ ausreichen, um die Strafen rückgängig zu machen. Die örtlichen Grün_innen oder irgendeine NGO wie Greenpeace helfen sicher gern.

Daß der durch die Schulschwänzerei verursachte Lernmangel ins Gewicht fällt, kann ausgeschlossen werden, da der Bildungsabbau an unseren Schulen schon weit vorangeschritten ist. Sonst würde ja auch keiner der Schülerchen an irgendwelche Weltuntergänge glauben. Leider sind wir in Deutschland, dem Herz der Finsternis in Europa, nicht allein. Auch im Schweizerischen Basel gibt es schon klimatische Schülerdemonstrationen, die dann pikanterweise aber mit Nutzung von Verbrennungs-Generatoren, die die Elektrizität für die Heilsbotschaft via Flüstertüte bereitstellen. Honi soit qui mal y pense..

Mann, was bin ich neidisch. Hätten wir damals in der Schulzeit schon die Klimakatastrophe gehabt, wir hätten den ganzen Sommer im Freibad durchgeschwänzt, äh, -demonstriert……

 

* alle Geschlechter mitgemeint

 




Wir schaffen das! Das Auto wird für Otto Normalverbaucher unerschwinglich!

Und der ebenfalls anwesende Staatssekretär im Wirtschaftsministerium Otto Wittke (CDU) spielte dann noch ohne jede Scham den Gesslerhut, wenn er, ohne wenn und aber  – wie auch Özdemir und Benz- darauf bestand, dass selbst unsinnige, ja sogar für Beschäftigung und Wohlstand höchst gefährliche, Grenzwerte „einzuhalten“ seien.

Holger Douglas hat sich bei TICHYS Einblick intensiv mit diesen Typen in der Hart aber Fair Sendung auseinander gesetzt. (hier). Fachleute waren dort – bis auf den Pneumologen und Dipl Ing. Prof. Köhler- unerwünscht. Bspw. fehlte ein Motorenfachmann, wie bspw. Mr. Diesel, der AfD Bundestagsabgeordnete Dr. Dirk Spaniel. Den wollte man offenbar nicht. Er hätte nur gestört.

Der ebenfalls anwesende Vertreter der Automobilindustrie tat das, was man von ihm erwartete – er machte den Kotau. Natürlich wolle man auch die unsinnigsten Vorschriften einhalten, nur jetzt, wenn auch nur ein bisschen, begehre man auf, gucke ganz frech, und teile der Obrigkeit höchst untertänig mit, dass man keine Ahnung habe, wie man die physikalischen Gesetze so biegen könne, dass die unsinnigen Grenzwerte, diesmal für den CO2 Ausstoß bewältigt werden könnten.
Die Zeitung „Auto Motor Sport“ tat daher das naheliegende und untersuchte die Kosten, die diese Selbstmord-Grenzwert-Gesetzgebung zur Folge haben würde. In der jungen Freiheit wird  das thematisiert (hier). Überneutral wird dort berichtet, dass – wie es der Aufsichtsratschef von VW Dieter Bötsch britisch untertreibend nannte – das, das „zur sozialen Frage“ werden könnte.

Wir lesen dort

Elektromotoren besonders bei Kleinwagen teuer

Bis 2030 werden die CO2-Grenzwerte für die Neuwagen sukzessive gesenkt werden. Das Magazin auto motor und sport hat die Preissteigerungen durch sauberere Motoren in Kleinwagen anhand mehrerer Beispiele berechnet. Demnach würde der aktuelle VW Polo, ein Kleinwagen mit 65 PS zum Preis von 13.500 Euro, der als Erstauto in Frage kommen könnte, die CO2-Grenzwerte für 2021 (95 Gramm pro Kilometer) mit seinen 110 g/km bereits überschreiten.

Die Variante als 1,0 TSI Bluemotion stoße 85 g/km aus und läge damit unter dem vorgegebenen Wert. Allerdings kostet er bereits mindestens 19.800 Euro. Und ab 2025 wäre auch dieses Modell nicht mehr regelkonform, da die Grenzwerte dann auf 80 g/km sinken. 2030 darf der CO2-Ausstoß dann nur noch bei 59 g/km liegen.

Der VW Up, ein noch kleinerer Wagen, kostet dem Blatt zufolge als Elektromodell mit 23.000 Euro sogar mehr als der größere Diesel-Polo. Grund dafür seien die hohen Kosten für Lithium-Ionen-Akkus. Obwohl Elektroautos wegen ihrer vergleichsweise geringen Reichweiten von bis zu 400 Kilometer prädestiniert für die Stadt seien, amortisierten sich die höheren Kosten für Elektromotoren nur bei großen Autos, folgert die Automobilzeitschrift. (ls)

 

„Deutschsein heißt, eine Sache um ihrer selbst willen zu tun“!

Dieser ebenso törichte, wie offenbar wahre Spruch wird Richard Wagner zugeschrieben. Gestern erlebt er mal wieder seine volle Bestätigung.




Als würde die Sonne 24 Stunden am Tag scheinen

»Der Dorfteich war im Mittel einen Meter tief, trotzdem ist die Kuh ersoffen.« Mit diesem Spruch wird vor allzu sorglosem Umgang mit Zahlen gewarnt, die aus statistischen Berechnungen folgen. Obwohl mathematisch exakt ermittelt, entpuppt sich ein Mittelwert bei genauerem Hinsehen manchmal als gefährliche Halbwahrheit.

Die Aussage »Erneuerbare decken 38 Prozent des Stromverbrauchs« ist eine solche Halbwahrheit.

Die Angabe von jahresgemittelten Prozentwerten ist zwar meist ausreichend zur Charakterisierung der Beiträge sowohl der konventionellen als auch der nichtvolatilen erneuerbaren Energiequellen wie Biomasse und Wasserkraft an der Stromversorgung. Ganz anders ist es allerdings bei den volatilen Erzeugern wie Windund Sonnenenergie. Deren Einspeiseleistung weist extreme Schwankungen auf, die sich nicht wie gewohnt durch eine Verteilung entsprechend einer Gaußschen Glockenkurve beschreiben lassen.

Große Fluktuationen von Windstrom: Anzahl der Stunden des Jahres 2018 in Abhängigkeit von der Einspeiseleistung aller Windkraftanlagen an Land in Deutschland. Grafik Rolf Schuster

In der Grafik ist dargestellt, an wievielen Stunden des Jahres 2018 eine bestimmte Leistung durch alle Windenergieanlagen (WEA) an Land in Deutschland in das Stromnetz eingespeist wurde. Leistungsangaben wurden auf volle Gigawatt gerundet. Die Verteilung ist unsymmetrisch. Die minimale Leistung von 0,2 GW wird bei windschwachen Perioden erbracht. Die mittlere Leistung von 10,5 GW (markiert durch einen Pfeil) multipliziert mit der Gesamtstundenzahl 8760 h ergibt die Elektroenergie, die in dem betrachteten Zeitraum insgesamt durch WEA eingespeist wurde: 91,9 TWh. Im Jahresmittel wurden nur ein Fünftel der installierten Leistung von 52 GW eingespeist. Die mittlere Last betrug im vergangenen Jahr 58,1 GW. Weiterhin ist zu erkennen, dass die wahrscheinlichste Leistung am Maximum der Kurve (2,5 GW) kleiner ist als die mittlere Leistung und dass die maximale Leistung bei Starkwind (41,5 GW) ein Mehrfaches der mittleren Leistung beträgt.

Dieses komplexe Verhalten bestimmt die Grenzen der Integration volatiler Erneuerbarer in das Energieversorgungssystem. Andererseits steht aber gerade der verstärkte Zubau volatiler Quellen im Fokus der Maßnahmen im Rahmen der Energiewende in Deutschland. Ein solcher würde eine weitere Vergrößerung der Standardabweichung der Verteilung zur Folge haben. Die maximale Leistung würde weiter ansteigen, ihr Minimalwert bliebe hingegen bei einem Wert nahe Null.

Ein Ausweg aus diesem Dilemma bestünde in der Speicherung von Elektroenergie bei einem Leistungsangebot oberhalb der mittleren Leistung, damit diese zu Zeiten geringer Windbzw. Sonnenleistung wieder eingespeist werden kann. Speicher mit den dazu erforderlichen Speicherkapazitäten stehen allerdings weder jetzt noch in absehbarer Zukunft zur Verfügung.

Die Angabe der zeitgemittelten Prozentwerte im Zusammenhang mit dem Zubau von volatilen Erzeugern ist insofern irreführend, da dadurch vorgetäuscht wird, das Speicherproblem sei bereits gelöst und der Strom aus erneuerbaren Energiequellenstünde schon jetzt stetig – nämlich gerade mit dem Wert der mittleren Leistung – zur Verfügung.

Auf der politischen Ebene wird daraus leichtfertig geschlossen, der prozentuale Anteil von Erneuerbaren von derzeit angeblich 38 Prozent könne innerhalb weniger Jahre auf 65 Prozent und mehr gesteigert werden. Würde der mittlere Anteil von Windund Sonnenstrom im Netz auf wesentlich mehr als etwa ein Viertel gesteigert werden, könnte unter den gegenwärtigen technologischen Bedingungen das durch physikalische Gesetze geforderte Gleichgewicht zwischen Einspeisung und Verbrauch nicht mehr eingehalten werden.

Die Methode der Verschleierung von Tatsachen durch Mittelwertbildung über stark fluktuierende Zeitreihen hat leider auch in offizielle Studien und Analysen Einzug gefunden. In einer Veröffentlichung der Denkfabrik »Agora Energiewende«, die auch die Bundesregierung berät, findet man z. B. die Darstellung einer über 24 Stunden gemittelten Einspeisung von Sonnenstrom [1]. Die dadurch ermittelten »geglätteten Ganglinien« suggerieren, dass die Sonne auch um Mitternacht scheint bzw. dass eine Speichermöglichkeit des gesamten um die Mittagszeit in Deutschland gewonnenen Sonnenstroms über einen ganzen Tag existiert. Weder das eine noch das andere ist evident.

Eine inhaltliche und auf wissenschaftlichen Grundlagen beruhende ehrliche und kritische Analyse aller Maßnahmen der Energiewende ist dringend erforderlich. Nur so wird es möglich sein, sich dem ursprünglichen Ziel der Energiewende, einer ökonomisch und ökologisch verträglichen Transformation des Energiesystems unter Berücksichtigung der Versorgungssicherheit zu nähern. Dazu müssen alle auf physikalischen Erkenntnissen beruhenden technischen Möglichkeiten in die Betrachtungen einbezogen werden.

 

[1] Agora Energiewende (2017): Die Energiewende im Stromsektor: Stand der Dinge 2016. Rückblick auf die wesentlichen Entwicklungen sowie Ausblick auf 2017, S. 8.

Der Beitrag erschien zuerst bei TU Dresden hier

 

 




Teil 2: DIE GEHEIMAKTE HOFFMANN XXL – Weitere Solarschwindeleien #DGHXXL

Teil 2 von „DIE GEHEIMAKTE HOFFMANN XXL“ beschreibt und dokumentiert, dass das Sonnenkraft-Flyer-Plakat mit „Halbieren Sie Ihre Heizkosten“ kein Einzelfall gewesen ist und es werden „Weitere Solarschwindeleien“ dokumentiert, beim Deutschen Bundestag, beim SPIEGEL, beim STERN und beim Bundesverband Verbraucherzentralen:

Video nicht mehr verfügbar

Und bedenken Sie: Diese vier, sehr prominenten Beispiele sind nur die „Spitze des Eisberges“ der Solarschwindeleien, die seit ca. 1996, 1998 und in den 2000er-Nuller-Jahren gelaufen sind.

Weitere wichtige Recherche-Hinweise zu Teil 2 von #DGHXXL:

Sonnenkraft-Werbung Beide Versionen
Fax vom 18.07.2004 an den Petitions-Ausschuss des Deutschen Bundestages
BMU-Antwort vom 11.08.2004 1. Antwort des BMU an den deutschen Bundestag bezüglich meiner SOLARKRITIK-Petition
PM des BMU/Trittin vom 04.05.2005 ,“Wärme von der Sonne“ „60% Wärmebedarf“ mit Kommentar von SOLARKRITIK.DE
SOLARKRITIK10 Solarkritik-Infoblatt 10 zum geringen solaren Heizenergiebedarf bei der solaren Trinkwassererwärmung.
SOLARKRITIK44 Solarkritik-Infoblatt 44 zum geringen solaren Heizenergiebedarf bei der solaren Trinkwassererwärmung.
Bundestagsdrucksache 14/9400 vom 07.07.2002 Die Seite 282 weist die korrekte Effizienz von thermischen Solaranlagen aus.
Mein Fax vom 05.04.2005 an den Petitionsausschuss des dt. Bundestages mit Kenntnisnahme/Antwort des dt. Bundestages vom 11.04.2005 zum Solarschwindel von Trittin in PM des BMU vom 04.04.2005
Bescheid des Petitionsausschusses des dt. Bundestages vom 11.04.2006 dt. Bundestag zum „solaren 60%-Schwindel“ …ohne weiteren Kommentar…
Weitere Solarwerbung Vier Solarwerbeaussagen
Seite 144 bis 146 aus „DER SPIEGEL“, Ausgabe 29/2001 vom 16.07.2001 SPIEGEL-Artikel „Vom Himmel in die Steckdose
Antwort-Schreiben von „DER SPIEGEL“ vom 09.08.2001
mit Seite 14 (Leserbriefe) aus „DER SPIEGEL“, Ausgabe 31/2001 vom 30.07.2001
„DER SPIEGEL“ argumentiert mit Leserbriefen als „Richtigstellung“ der fabrizierten Fehler im Artikel und droht mit „Urheberrechtsverletzung“ und als Anlage: Leserbriefe u.a. zu „Vom Himmel in die Steckdose“.
STERN 2006/34, Seite 89 mit „Hinweis“-Bescheid des Presserats
STERN 2016/19, Seite 82/83 Wieder Effizienzschwindel mit thermischen Solaranlagen (mit Gelbmarkierungen)
Meine Beschwerdeschrift an den STERN vom 19.05.2016 [auf Anfrage]
VZ-NRW vom 04.02.2002 Solarwerbung….teilweise irreführend
Faltblatt zu „thermischen Solaranlagen“ vom Verbraucherzentrale Bundesverband (Ausschnitt) Perfide sprachliche Täuschung über die Effizienz von thermischen Solaranlagen.
MABB vom 04.02.2008 mit VZBV vom 28.05.2004 MABB bestätigt, dass Verbraucherzentralen mit ungenauen Angaben arbeiten.
FAQ#14 NRW-Justizministerium erklärt durch Verfügung vom 07.10.2009 insgesamt 198 Aktenseiten als GEHEIM.
Sieben (7) Psychiatisierungen Recherche-Auflistung zu den sieben Psychiatrisierungen zu finden bei Teil 1 von #DGHXXL.
Recklinghäuser Zeitung (ONLINE) vom 13.11.2012 Lokaler Online-Presseartikel über die Zwangsräumung meines Hauses mit SEK-Kommando am 13.11.2012, was mich an diesem Tage gezwungen hat, ins Ausland zu flüchten.
Roger Köppel WELTWOCHE-Schreiben vom 18.11.2010 Roger Köppel schickt mir meine DVD mit dem Video „Über Psychiatrisierungen und Geheimakten“ ungesehen wieder zurück.

Ergänzend noch eine bemerkenswerte Recherche, die deutlich macht, dass die Solarwirtschaft ihre Unwahrheiten nicht mehr verwalten kann und sich letztlich damit selbst entlarvt, dass die Solarwärme-Anlagen eigentlich NULL-Ersparnis bewirken:

Wenn Sie ergänzende Belege zu diesem Video Teil 2 von „DIE GEHEIMAKTE HOFFMANN XXL – Weitere Solarschwindeleien“ benötigen oder sonst Fragen zu meinen Schilderungen im Video haben, können Sie mir DAS gerne per Mail mitteilen.

Im nächsten Video Teil 3 von „DIE GEHEIMAKTE HOFFMANN XXL“ #DGHXXL wird es u.a. um die „Solarschwindeleien beim WDR“ gehen. Das Video erscheint in Kürze.


Erstveröffentlichung am 13.01.2019, 09Uhr00 auf SOLARKRITIK.DE




Schweden: Kinder als Klima-Experten

Das staatliche schwedische Fernsehen zeigte sie am Rednerpult bei einem leidenschaftlichen Plädoyer für drastische Maßnahmen zur Rettung des Weltklimas. Greta wandte sich anscheinend an die im Saal versammelte Creme de la Creme der Klima-Politik. Doch ein am folgenden Tag im Fernsehen gezeigter kurzer Video-Ausschnitt offenbarte, dass Greta in Wirklichkeit in einem fast leeren Saal sprach. Die meisten Delegierten hatten die Konferenz bereits verlassen. (Wir haben darüber berichtet.)

Wer ist Greta? Ihrem Alter entsprechend, geht sie noch zur Schule. Sie blieb dem Unterricht aber seit nun schon fast einem Jahr aus Protest jeden Freitag fern, um für die Rettung des Planeten zu demonstrieren. Sie und ihre Eltern halten das vermutlich für wichtiger, als Mathematik und Physik zu lernen. In diesen Fächern ist das Niveau in Schweden, wie die PISA-Tests ausweisen, ohnehin kaum hoch zu unterbieten.

Gretas Vater ist der Promotor. Er kooperiert mit der Firma WeDontHaveTime AB, die ihr Geld mit dem Verkauf von Klima-Informationen und CO2-Zertifikaten, das heißt einer modernen Form des Ablass-Handels verdient. Greta ist offenbar Teil dieser Ablass-Industrie. Am vergangenen Freitag, dem 18. Januar, abends räumte ihr das schwedische Fernsehen im Rahmen des Skvalan-Programms ganze 18 Minuten Sendezeit ein. Ohne durch kritische Fragen unterbrochen zu werden, konnte Greta hier ihr naives Weltrettungs-Glaubensbekenntnis ableiern.

Gretas Mutter Marlene Ernman ist eine bekannte Opern-Sängerin und Links-Aktivistin. Sie hat ein Buch über ihre Tochter veröffentlicht. Darin erfährt man, dass diese vom Asperger-Syndrom, einem mentalen Handikap, betroffen ist. Asperger-Patienten neigen bekanntlich zum Schwarz-Weiß-Denken. Das macht sich die Klima-Ablass-Industrie wohl gerne zunutze. So wird Greta nun in der ganzen Welt herumgereicht, um kleine und große Kinder für die lukrative Weltrettung zu begeistern. Sie sollen auf Fliegen und Autofahren verzichten oder wenigstens dafür CO2-Zertifikate erwerben. Das erinnert sehr an den propagandistischen Kindesmissbrauch durch Kommunisten und Nazis.

In dieser Woche wird Greta beim Treffen der „Welt-Elite“ in Davos erwartet. Und da die Räthische Bahn zurzeit wegen zu viel Schnee und Lawinengefahr nicht fährt, wird Greta wohl wie die geladenen Konzern-Chefs und Spitzenpolitiker mit dem Helikopter anreisen müssen. Ihr Vater wird ihr dafür sicher genug CO2-Zertifikate besorgen. Von Davos wird Greta weiterreisen nach Rom, um Papst Franziskus zu treffen. So schließt sich der Kreis, denn auch der Petersdom wurde bekanntlich über den Ablass-Handel finanziert.




Prof. Henryk Svensmark. Der Einfluss kosmischer Strahlung auf das Klima– Neueste Forschungsergebnisse und ihre Bedeutung für das Verständnis des Klimawandels 12. IKEK München

Video des Vortrages von Prof. Henry Svensmark anlässlich der 12. IKEK am 24.11.18 in München

Professor Svensmark ist einer der führenden Physiker auf dem Gebiet der Klimaforschung im Zusammenhang mit kosmischer Strahlung. Diese Strahlung stammt nicht von der Erdsonne, sondern von weit entfernten Sternen, die als Supernova endeten und ihre Produkte, meist extrem schnell fliegende Eisenatome, in den Kosmos schleuderten. Diese auf die Erdatmosphäre treffenden Teilchen würden vom Sonnenwind in ihrer Zahl deutlich vermindert. Steige die Sonnenaktivität, sinke somit der Einfluß der kosmischen Strahlung auf die oberen Luftschichten/ Troposphäre. Als Anzeiger diene hiefür das radioaktive Kohlenstoffisotop C14, welches nach dem Aufprall von kosmischen Teilchen auf irdische Luftmoleküle in einer Kaskade entstehe. Komme das C14 nach einiger Zeit am Boden an, würde es zum Teil in Lebewesen eingebaut und könne heute in Fossilien nachgewiesen werden. Andere Kaskadenprodukte wie Aluminium Al26 oder Beryllium Be10 fänden sich im Eispanzer der Erdpole, da diese Teilchen aerosolisierten und als Kondensationskeim für Schneeflocken oder Wolkentröpfchen dienten. Tatsächlich korreliere die Wolkenbildung zwischen 1985 und 2005 eindeutig mit dem kosmischen Strahlungseintrag.




Günter Ederer: Die Grünen zwischen Recht und Scheinmoral 12. IKEK München am 24.11.18

12. Internationale EIKE-Klima- und Energiekonferenz (IKEK-12). Am 23. und 24. November 2018 in Aschheim/München.

Ederer ist der am häufigsten ausgezeichnete deutsche Wirtschaftsjournalist, der für den SWF in Baden-Baden, Bilanz-TV, das ZDF und die Achse des Guten arbeitete und arbeitet. In seinem Vortrag befasste er sich mit der Partei der Grünen, die in Deutschland eine Vorreiterrolle bei der Entwicklung von Weltrettungsideologien innehaben.




Schöne Schweiz, hast Du es besser?

Nun hat die Bevölkerung in 2017 tatsächlich ein klares Votum für die Schweizer Energiewende  (SEW) abgegeben (hier). Dafür war zweifellos profunde Unkenntnis verantwortlich und zwar darüber, worauf man sich mit diesem Votum eingelassen hat. Insbesondere der Widerstand gegen Windräder ist inzwischen an Ausmaß und Stärke derart angewachsen, dass diese  Option, von Regierung  und Profiteuren zwar heiß ersehnt, wohl nicht mehr als realistisch angesehen werden muss.

Der Widerstand regt sich aber auch im akademischen Bereich, hier im Carnot-Courtot Netzwerk (CCN), einem Zusammenschluss von universitären Fachleuten (hier). So definiert das CCN seine Aktivitäten und Ziele: „CCN ist ein Think Tank, dessen Mitglieder überzeugte Vertreter einer liberalen und demokratischen Zivilgesellschaft sind, die dem Einzelnen möglichst grosse Entscheidungs- und Wahlfreiheit garantiert. Wir stehen ein für individuelle Freiheit, offenen Wettbewerb, gute wirtschaftliche Rahmenbedingungen und minimale Staatseingriffe. Wir engagieren uns dafür, dass kollektive Entscheidungen und politische Programme systematischen Wirkungsanalysen unterzogen werden.​

Das CCN richtete, ganz im Sinne seines eigenen Auftrags, am 15.Januar 2019 in der Universität Basel die Tagung „Energiestrategie 2050 – Wie umsetzen“ aus. Sie sah vor: drei Fachvorträge, eine Podiumsdiskussion, einen Apero (Apéritif) und vor allem rege Beteiligungen der Tagungsteilnehmer, hier der Tagungsflyer 2019_01_15_Flyer_SBorner_Carnot_Cournot_Tagung_Energiestrategie_2050. Ich war zu dieser Tagung für den ersten Vortrag eingeladen.

Bemerkenswert an der Tagung war der für deutsche Verhältnisse ungewohnt sachliche und faire Austausch der Argumente. In der Podiumsdiskussion und teilweise auch in Zuhörerfragen kamen auch Befürworter der SEW zu Wort. Dennoch war der Umgang miteinander zwar sachlich hart, aber stets zuvorkommend höflich und niemals persönlich verletzend. Entgleisungen, wie zum Beispiel das Benehmen von Prof. Anders Levermann gegenüber seinem jüdischen Kollegen Prof. Nir Shaviv in einer Bundestagsanhörung  (hier) waren in Basel undenkbar.  Fortiter in re, suaviter in modo, hat uns der Lateinlehrer noch beigebracht.  Levermann hat es vermutlich umgekehrt aufgefasst suaviter in re, fortiter in modo. Zurück zu Basel: Auch die überregionale Basler Zeitung war vor Ort. Redakteur Axel Reichmuth berichtete über die Tagung unter „Energiestrategie 2050 in der Kritik“ in der Basler Zeitung vom 17.1.2019. Nachfolgend einige Zitate aus seinem Artikel:

Im Carnot-Cournot-Netzwerk haben sich Skeptiker der «Energiewende» organisiert. Unter Federführung des Basler Ökonomieprofessors Silvio Borner lud das Netzwerk zu einer Tagung zur Umsetzung der Energiestrategie 2050 am Wirtschaftswissenschaftlichen Zentrum der Uni Basel .……… Substanz hatten an der Tagung vor allem drei Referate zu den Chancen und Risiken der Energiewende. Horst-Joachim Lüdecke, Physiker und Professor an der Hochschule für Technik und Wirtschaft des Saarlandes, beleuchtete in seinem Beitrag naturgesetzliche Schranken der erneuerbaren Energien. Er zeigte auf, dass bei den verschiedenen Stromerzeugungsformen die sogenannte Leistungsdichte ein entscheidendes Kriterium ist…….. Der technologische Fortschritt  zeige sich bei den Energieträgern in einem Trend zu immer grösseren Leistungsdichten und damit zu immer kleinerer Umweltbelastung, sagte Lüdecke. «Sogenannte sanfte Energien sind eben solche mit geringer Leistungsdichte, was grosse Zubauflächen, viel Material und hohe Umweltbeeinträchtigung bedeutet.»……… Bernd Schips, Ökonom und Professor an der ETH Zürich, diskutierte die Frage, wie die künftige Stromlücke infolge des wegfallenden Atomstroms gestopft werden kann. Auf eine Reduktion des Strombedarfs dürfe man kaum hoffen, würden doch immer mehr Lebensbereiche elektrifiziert, wie etwa der motorisierte Verkehr. Auf einen namhaften Zusatzbeitrag von Strom aus Wasserkraft, Biomasse und Geothermie könne man ebenfalls nicht zählen, so Schips, da deren Potenzial begrenzt sei……… Bei Solar- und Windkraftanlagen bestünden die Probleme darin, dass die Bevölkerung Widerstand gegen deren grossflächigen Einsatz leiste, und der unregelmässig anfallende Strom nicht in genügendem Mass gespeichert werden könne…….… Nick Zepf, Maschinen- und Betriebsingenieur bei Axpo, präsentierte eine aktualisierte Bilanz zur Energiestrategie 2050. Sein Schluss lautete, dass die Produktionsannahmen der Strategie bis 2040 nur deshalb eingehalten werden können, weil die Kernkraftwerke zehn Jahre länger als angenommen Strom produzieren werden. «Die Kernenergie ist die zentrale Brückentechnologie», ………. Mit Fotovoltaik lasse sich das Winterproblem nicht lösen, und Wind und Geothermie, die helfen könnten, seien kaum akzeptiert. «Eine realistische Überprüfung der Energiestrategie 2050 ist zwingend notwendig», lautete Zepfs Schluss. Dieser dürfte bei den über hundert Zuhörern überwiegend auf Zustimmung gestossen sein.

Der gesamte Tagungsablauf ist inzwischen auf der Webseite des CCN dokumentiert (hier) – die Vortragsfolien aller drei Sprecher, zwei Foliensätze der Podiumsteilnehmer und vor allem der Video-Mitschnitt der Veranstaltung.

Hier der Video-Mitschnitt:

Video der Tagungsveranstaltung des Carnot Cournot Netzwerkes am 15.1.19 in Basel
 

Und das Résumée?

  1. Die von der Schweizer Regierung vorgesehene Energiewende ist für eine auch nur annähernd sichere und zuverlässige Stromversorgung ungeeignet. Dies hätte ein Gutachten von unabhängigen Experten ohne großen Aufwand schnell belegt, denn Deutschland ist schließlich ein Musterbeispiel für das Scheitern solcher Pläne.
  2. Auch in der Schweiz weiß die rechte Hand nicht, was die Linke tut. Eine während der Tagung mehrfach angesprochene „realistische Überprüfung der Energiestrategie 2050″ gibt es bis dato nicht – ebensowenig wie in Deutschland.
  3. Auf der Tagung wurde nicht nur kritisiert, es wurden auch konkrete Lösungsvorschläge gemacht und diskutiert. Favorisiert wurde mehrheitlich der Bau neuer Kohle- und neuer Kernkraftwerke nach dem Auslaufen der aktuell noch aktiven Kernkraftanlagen (auch der Autor dieser Zeilen bekannte sich zu dieser Option). Erneuerbare Energie sollten nicht ausgeschlossen werden, sondern sich subventionsfrei, bei technisch brauchbarer Stromeinspeisung und unter strengen Umweltschutzkriterien bewähren dürfen.
  4. Zu keiner Zeit wurde die eigentliche Ursache der Energiewende angesprochen, das vorgebliche CO2 – Problem. Wenn sich heraustellen sollte, dass anthropogenes CO2 keinen maßgeblichen Einfluss auf die mittlere Globaltemperatur ausübt, wären alle Enrergiewendeverrenkungen umsonst. Aber, so verhält es sich doch! Nach theoretischen Rechnungen und in Übereinstimmung mit der Fachliteratur beträgt die sog. Klimasensitivität grob 1 °C, d.i. die globale Temperaturerhöhung bei Verdoppelung des jeweiligen CO2 – Gehalts der Atmosphäre. Mit Rückkoppelungseffekten ist der Wert sogar noch kleiner, allerdings schwer zu quantifizieren – weil ein kleiner Effekt von einem ohnehin schon sehr kleinen Effekt. Es gibt also gar kein Problem, weil diese Werte völlig unbedenklich sind. Bereits Prof. Nir Shaviv hatte versucht, dies in einer Anhörung im deutschen Bundestag am 28.11.2018 den Zuhörern klarzumachen (hier).

Interessant war im Zusammenhang mit Punkt 3. die Anmerkung eines Zuhörers, dass Kernkraftwerke explodieren könnten und daher zu gefährlich seien. Dieser Einwand war rasch widerlegt, nicht zuletzt, weil dies noch nie vorkam (Tschernobyl war ein militärisches, kein ziviles KKW und in Fukushinma gab es eine Knallgasexplosion, die das Dach wegblies aber mit Kernenergie direkt nichts zu tun hatte). Es kann aber auch prinzipiell nicht vorkommen, denn alle heutigen zivil genutzten Anlagen verwenden gewöhnliches Wasser als Moderator. Überhitzt sich die Kettenreaktion, verdampft der Moderator,  die Neutronen werden zu schnell, und die Kettenreaktion bricht von selbst ab (inhärente Sicherheit). Nur langsame Neutronen spalten ausreichend gut. Zur quantitativen statistischen Sicherheit von Kernkraftwerken unter dem Kriterium Tote pro TWh elektrischem Strom (ähnliche Kriterien gibt es auch im KfZ- oder Flugfverkehr) näheres in Voß_Arbeitsbericht_11 und Voss_Neckarwestheim_2011_05 (Grafik auf S. 33).

 

Schlusswort: An dieser Stelle möchte ich mich bei Dir, lieber Silvio, und allen anderen Mitgliedern des Carnot-Cournot-Netzwerks für die Einladung nach Basel zu einer so interessanten Tagung nochmals bedanken. Insbesondere das gemütliche Zusammensein nach der Veranstaltung war schön und hat meine Kenntnisse über die innerschweizer Verhältnisse erweitert.

 

 




Tempera­turen in der Antarktis sanken kürzlich auf die tiefsten Werte, die auf der Erde theo­retisch möglich sind!

Ultra-tiefe Temperaturen in der Ostantarktis, gemessen mittels thermischer Infrarot-Kartierung von Satelliten: der kälteste Ort der Erde

T. A. Scambos, G. G. Campbell, A. Pope, T. Haran, A. Muto, M. Lazzara, C. H. Reijmer, M. R. van den Broeke

Erstveröffentlichung: 25. Juni 2018

Summary in allgemeinverständlicher Sprache

Die niedrigste jemals mit Thermometern gemessene Temperatur der Erde beträgt -89,2°C, gemessen am 23. Juli 1983 an der Station Wostok in der Antarktis (Turner et al., 2009, https://doi.org/10.1029/2009JD012104). Allerdings zeigen Satellitendaten, gesammelt in der antarktischen Polarnacht der Jahre 2004 bis 2016 auf der großen Fläche eines Hochplateaus in der Ostantarktis über Wostok, dass regelmäßig Temperaturwerte von -90°C oder noch tiefer erreicht werden. Diese treten in flachen Bodensenken nahe dem höchsten Teil des Eisschildes über der Schneedecke auf, und zwar in Seehöhen von 3800 bis 4050 Metern. Vergleiche mit automatischen Wetterstationen in der Nähe zeigen, dass die Lufttemperatur während dieser Ereignisse nahe -94 ±4°C liegt. Ultrakalte Bedingungen (-90°C oder kälter) treten häufiger auf, wenn der antarktische Polarwirbel stark ausgeprägt ist. Diese Temperatur scheint sehr nahe dem theoretisch möglichen tiefsten Wert zu liegen, selbst bei klarem Himmel und sehr trockener Luft, weil die von der kalten, klaren Luft abgestrahlte Wärme fast gleich ist der Wärmeabstrahlung der bitterkalten Schneeoberfläche.

(…)

Quelle: Geophysical Research Letters

Die gesamte Studie ist immer noch verfügbar.

Wie viel kälter hätte es werden können, wenn der CO2-Gehalt lediglich 280 ppmv betragen hätte? Wahrscheinlich kein bisschen.

In sogar noch einfacherer Sprache:

,Es ist fast wie auf einem anderen Planeten‘ – Kälteste Temperatur jemals auf der Erde in der Antarktis gemessen

Trevor Nace, Contributor, Science, 28. Juni 2018

Während bei uns der Sommer in Fahrt kommt, haben Wissenschaftler soeben die kälteste Temperatur bekannt gegeben, die jemals auf der Erde gemessen worden ist. Während des langen, dunklen antarktischen Winters sanken die Temperatur tief genug, um es mit anderen Planeten aufnehmen zu können.

 

Und welche Temperatur hat man gemessen? Nun, atemberaubende -97,8°C. Bei dieser Temperatur würde das Einatmen der Luft in der Lunge sofort Erfrierungen auslösen und rasch zum Tode führen.

Die Temperatur wurde mit Satellitenmessungen in der zentralen Antarktis gemessen, und zwar während des Winters, in welchem die Sonne niemals scheint. Diese jüngst in den Geophysical Research Letters veröffentlichten Ergebnisse zeigen, dass diese Temperaturwerte nahe den theoretisch tiefstmöglichen auf der Erde liegen.

Forbes

Berichtet wurde hierüber in Forbes, Fortune, NatGeo und an einigen anderen Stellen … und es war schlimmer als zuvor gedacht…

Live Science Planet Earth

Am kältesten Ort der Erde ist es sogar noch kälter als Wissenschaftler gedacht hatten

Mindy Weisberger, 26. Juni 2018

Wissenschaftler wussten bereits, dass die niedrigsten, auf der Erde gemessenen Temperaturen auf einem gefrorenen Eis-Höhenzug in der Ostantarktis nahe dem Südpol aufgetreten waren. Aber jüngst haben sie entdeckt, dass es sogar noch kälter werden kann als zuvor gemessen.

Im Jahre 2013 hat man mittels Analysen von Satellitendaten verstreute, mit extremst kalter Luft angefüllte Mulden entdeckt, und zwar auf dem Ostantarktischen Plateau zwischen Dome Argus und Dome Fuji – mit Temperaturen bei atemberaubenden minus 93°C.

Allerdings zeigt eine Analyse der gleichen Daten, dass unter den richtigen Bedingungen theoretisch Temperaturwerte bis minus 100°C möglich sind, was vermutlich der kälteste Ort ist, der auf der Erde auftreten kann, heißt es in der neuen Studie.

Live Science

Trotz Gore’scher Runaway-Tipping Points, welche die Erde zurückführen sollen in Zeiten des Pliozäns, des Miozäns, des thermalen Maximums im Paläozän-Eozän, der Kreidezeit, Venus … alles innerhalb des Holozän-Rauschens. Es wird aber immer noch so kalt wie theoretisch überhaupt möglich in der Antarktis.

Und das ist für Herrschaften wie den im Bild oben Zitierten natürlich wirklich eine unbequeme Wahrheit! [Zusatz des Übersetzers]

Link: https://wattsupwiththat.com/2018/11/13/antarctic-temperatures-recently-plunged-close-to-the-theoretically-coldest-achievable-on-earth/

Übersetzt von Chris Frey EIKE




Kohleausstieg – Fachleute melden sich zu Wort!

Dr. rer. oec., Ing. Dietmar Ufer

Sächsische Staatskanzlei 01095 Dresden info@sk.sachsen.de

Betr.: Kohleausstiegspläne der Bundesregierung

Sehr geehrte Damen und Herren,

04103 Leipzig, 17. Januar 2019 Grünewaldstr.  E-Mail: Ufer-l@t-online.de

Ihre ganzseitige „Sonderveröffentlichung“ in der Leipziger Volkszeitung vom 29. Dezember 2018, Berichte über das Treffen im Kanzleramt zum Kohleausstieg am 15. Januar 2019 und die nach wie vor anhaltende öffentliche Debatte über den Sinn dieses Plans (u. a. über die Absicht, die Fernwärmeversorgung Leipzigs vom Kraftwerk Lippendorf abzukoppeln) regen mich an, Ihnen dazu einige Überlegungen mitzuteilen.

Ausschnitt aus Sonderveröffentlichung der sächsischen Landesregierung

Vorab begrüße ich es sehr, dass sich Herr Ministerpräsident Kretschmer und Wirtschaftsminister Dulig – ebenso wie die Regierungsspitzen von Sachsen-Anhalt, Brandenburg und Nordrhein-Westfalen – gegen den sofortigen Ausstieg aus der Braunkohlenindustrie in Deutschland aussprechen.

Für unabdingbar halte ich die Forderung, allen direkt und indirekt in der Braunkohlenindustrie Beschäftigten eine wirtschaftliche und soziale Zukunft nicht nur zu versprechen, sondern zu sichern, bevor in Lausitz und Mitteldeutschland – wieder einmal! – Zehntausende Arbeitsplätze vernichtet werden.

Zehn Punkte Plan – Ausschnitt aus Sonderveröffentlichung

Ein Aspekt der künftigen Entwicklung der Braunkohle-Regionen kommt in allen bisherigen Debatten m. E. viel zu kurz weg. Lediglich Ministerpräsident Michael Kretschmer hat ihn in der Sonderveröffentlichung der Sächsischen Staatskanzlei benannt:

„Schließlich braucht das Industrieland Deutschland eine sichere und bezahlbare Energieversorgung. Tag und Nacht, das ganze Jahr.“

Braunkohle wird primär nicht deshalb gefördert und verarbeitet, weil damit Arbeitsplätze gesichert werden, sondern weil sie in Deutschland für die Elektroenergieversorgung benötigt wird. Nach der beabsichtigten Stilllegung aller Kernkraftwerke und dem geplanten Braunkohlen- ausstieg würde es hier keine ausreichenden Kraftwerksleistungen mehr geben, um unser Land zuverlässig („Tag und Nacht, das ganze Jahr.“) mit elektrischer Energie zu versorgen. Dass das mit Wind- und Solarenergie nicht möglich ist, dürfte inzwischen bekannt sein. Hoffnungen auf ausreichende Speicherkapazitäten sind aus technischen, ökologischen und wirtschaftlichen Gründen illusorisch. Der Wegfall der– speziell in Ostdeutschland – modernsten Braunkohlenkraftwerke Europas führt unweigerlich zum Verlust einer zuverlässigen Stromversorgung, wie sie für Industrie, Verkehr und letztlich für die gesamte Gesellschaft, gebraucht wird. Bisher gibt es weder aus der Kohlekommission noch von der Bundesregierung konkrete Hinweise darauf, wie die Elektrizitätsversorgung Deutschlands ohne Kernenergie und ohne Kohle gewährleistet werden soll – viel weniger gibt es konkrete Konzepte.

Rein theoretisch sind Gaskraftwerke als Ausgleich denkbar. Sie führen allerdings zu erheblich höheren Stromkosten und machen die gesamte Energieversorgung des (Noch-)Industrielandes Deutschland importabhängig. Zudem liegen bisher noch keinerlei konkrete Standortplanungen vor. Auch Gaskraftwerke emittieren das angebliche „Klimagift“ Kohlendioxid!

Ebenfalls hypothetisch könnte man sich den Import von elektrischer Energie aus Nachbarländern vorstellen. Das würde jedoch voraussetzen, dass in Frankreich, Tschechien und/oder Polen zusätzliche Kohle- bzw. Kernkraftwerke und zusätzliche Hochspannungsleitungen (vorwiegend in West-Ost-Richtung, nicht in Nord-Süd- Richtung wie bisher geplant) gebaut werden müssten. Konkrete, international abge- stimmte Planungen dafür liegen nicht vor.

Eine weitere Möglichkeit wäre der Bau neuer Kernkraftwerke, was zu einer langfristig zuverlässigen Energieversorgung führen würde. Allerdings ist das unter den gegen- wärtigen politischen Verhältnissen in Deutschland (bis heute) nicht denkbar ist, zumal sich hierzulande offenbar kaum ein Politiker darüber im klaren ist, welchen Fortschritt die Nukleartechnik in anderen Ländern inzwischen gemacht hat.

Aus dieser Situation ergibt sich die Forderung:

„Bevor Braunkohlekraftwerke liquidiert werden, muss abgesichert werden, dass die zukünftige Elektroenergieversorgung Deutschlands dauerhaft zuverlässig und kostengünstig gewährleistet wird.“

Weder von der Bundesregierung noch von der Kohlekommission hat man bisher eine solche Forderung vernommen! Es sei ausdrücklich darauf hingewiesen, dass auch (relativ vage) zugesagte milliardenschwere Unterstützungen des Bundes für die betroffenen Regionen nicht automatisch zu einer zukunftsträchtigen Energieversorgung führen.

Schließlich sei auf die immer wieder diskutierten klimapolitischen Aspekte hingewiesen. Jeder unserer Politiker sollte sich darüber im klaren sein, dass der Wegfall der Braunkohlenförderung in unserem Land keine – ich betone: absolut keine! – Auswirkungen auf die Entwicklung des Klimas auf der Erde haben wird! Das zeigen schon die geringen Anteile der deutschen Kohle am Welt-Kohleverbrauch (< 3 % 2017),aber auch die unbeweisbare Behauptung von der „Klimaschädlichkeit“ der Kohle.

Auch ökologisch setzen schlüssige Planungen über die Zukunft der Braunkohlenregionen eine zeitliche Abstimmung des Braunkohlenausstiegs und der nachfolgenden Landschaftsgestaltung, insbesondere der Flutung der Tagebaurestlöcher, voraus. Die zwar kostspieligen aber äußerst wertvollen Erfahrungen bei der Gestaltung der Seenlandschaften in Lausitz und Mitteldeutschland müssen dabei berücksichtigt werden.

Soweit einige Überlegungen zur Zukunft der deutschen Braunkohlenindustrie, die bisher gar nicht oder völlig ungenügend berücksichtigt worden sind.

Ich erwarte von der Bundesregierung, die den Ausstieg aus der Kohlenutzung veranlasst hat, (nicht von den Braunkohle-Ländern!) eine ehrliche und sachlich- wissenschaftlich nachvollziehbare Aufwands-Nutzen-Analyse, und zwar bevor „die Axt“ an diesen Industriezweig angelegt wird! Den Bürgern Deutschlands sind konkrete Rechnungen vorzulegen, aus denen hervorgeht:

  • –  Um wieviel Tausendstel Kelvin wird durch den deutschen Kohleausstieg eine Annäherung an das „Klimaziel“ von 2 bzw. 1,5 Kelvin (Pariser Klimaabkom-men von 2015) erreicht?
  • –  Wieviele Milliarden Euro müssen in Deutschland aufgewendet werden, um dieses (rein hypothetische!) Ziel zu erreichen?
  • –  Wieviele Arbeitsplätze werden dadurch verloren gehen (oder gewonnen)?
  • –  Mit welchen sozialen und psychologischen Folgen für die Bevölkerung ist der Strukturwandel in den Braunkohleregionen verbunden?
  • –  Welche ökologischen Auswirkungen wird der Kohleausstieg in Deutschland verursachen?Ich würde mich sehr freuen, wenn meine Überlegungen Eingang in weitergehende Untersuchungen der Braunkohleländer und der Bundesregierung finden würden. Bit- te informieren Sie mich über entsprechende Aktivitäten.

Mit freundlichen Grüßen (gez.) Dietmar Ufer




Energie­wende: Auf zum Endsieg über die Kohle?

Wenn man sich die aktuelle Energiepolitik in Deutschland ansieht, bekommt man nur noch das Grausen. Getrieben durch das mediale Trommelfeuer über die „näher kommende Klimakatastrophe“ scheint die Bundesregierung wild entschlossen zu sein, in Sachen „Energiewende“ jetzt mit der Brechstange zur Sache zu gehen. Es gibt keinerlei Anzeichen mehr für eine auch halbwegs durchdachte Strategie, welche die langfristige Versorgung des Landes mit sicherer und bezahlbarer Energie sicherstellen könnte. Ohne einen Gedanken daran zu verschwenden, dass die Stilllegung der restlichen Kernkraftwerke bis 2022 ja auch noch ansteht, will man inzwischen auch die Kohlekraftwerke so schnell wie möglich herunterfahren. Ungeachtet der Versorgungslage scheint die einzige Richtschnur von Fr. Merkel zu sein, die CO2-Emissionen in Deutschland bis 2030 auf einen Zielwert von 563 Mio. Tonnen herunterzuknüppeln, siehe Bild 2.

Die Konsequenzen für das eigene Volk scheinen dabei lediglich mit Blick auf die Aussichten für die nächsten Wahlen zu interessieren. Deshalb schnürt Berlin gerade ein ganzes Bündel von Maßnahmen zusammen, um den Strukturwandel in den betroffenen Regionen finanziell so abzufedern, dass sich nicht zu viele Wähler von den Regierungsparteien abwenden. Dabei schont man vor allem den Osten der Republik: Laut der erwähnten SPON-Meldung werde erwogen, die dortigen Kohlekraftwerke bis zum Jahr 2022 ganz oder weitgehend unangetastet zu lassen. Getrieben durch die Angstszenarien der Klimabewegung werfen die Regierungsparteien jegliche volkswirtschaftliche Vernunft über Bord. Stattdessen missbraucht die Politik die Gelder des Steuerzahlers als Trostpflästerchen für die selbst verursachten Arbeitsplatzverluste.

Unruhe bei der Industrie…

Inzwischen entsteht für die Klimaretter im Bundeskanzleramt jedoch eine anscheinend so nicht erwartete neue Baustelle, denn bei der deutschen Industrie beginnt sich Unruhe breitzumachen. Einem kürzlichen Beitrag bei der FAZ zufolge beginnen immer mehr Unternehmen sich wegen der rapiden Zunahme von Ausfällen bei der Stromversorgung zu beschweren. Um diese Probleme vor der Bevölkerung zu verstecken, sorgt die Politik dafür, dass diese Schwierigkeiten vor allem industrielle Großverbraucher betreffen, während der Fernseher bei Otto Normalverbraucher weiterhin ungestört seine bunten Erheiterungsbildchen liefert. Den im Dezember 2018 bei etlichen Industriefirmen steigenden Stresspegel beschreibt ein FAZ-Artikel des Journalisten A. Mihm sehr anschaulich wie folgt:

In einer Handvoll großer Industriebetriebe ist dagegen von vorweihnachtlicher Fröhlichkeit keine Spur. Der Stresspegel ist beachtlich gestiegen, seitdem die Netzbetreiber kurzfristig angekündigt haben, den Strom abzuschalten. Denn in Deutschland gibt es an diesem Mittag zu wenig Elektrizität. Später wird bei Netzbetreibern von einem „Prognosefehler bei den erneuerbaren Energien aufgrund einer seinerzeit komplexen Wetterlage“ die Rede sein. Die Sonne scheint nicht so intensiv, wie noch am Vortag geplant und erwartet war. Kurz nach 12.00 Uhr jedenfalls ist die „Minutenreserve“ der Pumpspeicherkraftwerke verbraucht, aus dem Ausland lässt sich auch nicht mehr Strom ziehen. Jetzt werden Großverbraucher wie Aluminiumhütten, Walzwerke (Bild 3) und Gießereien abgeschaltet. Und zwar deutschlandweit – alle, die verfügbar sind.“

Inzwischen sind solche Abschaltungen so häufig geworden, dass den Firmenchefs trotz entsprechender Vereinbarungen der Geduldsfaden zu reißen beginnt. Allein der Neusser Alu-Hersteller Hydro Aluminium musste im vergangenen Jahr 78 Abschaltungen hinnehmen.

wegen immer häufigerer Stromausfälle…

Zwar haben die betroffenen Großverbraucher mit den Versorgern Vereinbarungen, welche Kompensationen vorsehen, jedoch ist hierfür eine Vorwarnzeit von 15 Minuten einzuhalten. Doch selbst diese wird immer häufiger nicht eingehalten. So z.B. am 14, Dezember, als im deutschen Netz aufgrund einer „deutlichen“ Fehlprognose bei der Solarstromerzeugung rund 2.500 MW fehlten. Das entspricht der Kapazität von zwei großen Kernkraftwerken oder drei Steinkohlekraftwerken. Das Problem rührt daher, dass Stromlieferungen in aller Regel lange vorab bestellt werden. Die Kraftwerksbetreiber haben „Fahrpläne“, die sie unter anderem auch nutzen, um in den Lücken ihre Anlagen für Wartungsarbeiten abzuschalten. Bei größeren Prognoseabweichungen kann es dann im Netz eng werden. Allein bei Hochnebellagen kann die Abweichung bei der Solarstromprognose vom Vortag 8.000 MW erreichen. Das entspricht fast schon der Leistung der in Deutschland noch vorhandenen Kernkraftwerke. Reichen in solchen Fällen auch die Notreserven nicht mehr aus, so kommt es auch zu ungeplanten Stromabschaltungen. Wenn diese die Unternehmen unvorbereitet treffen, kann es zu erheblichen Ausfällen und Schäden an Anlagen kommen. Schon bei kleineren Stromunterbrechungen können die verketteten Abläufe moderner Fabriken so komplett zum Stillstand bringen, dass die Wiederaufnahme des Betriebs etliche Stunden dauert. Und gerade für solche ungeplanten Ausfälle zahlen die Versorger maximal lediglich 5.000 € Schadenersatz. Oft weniger als ein Prozent oder gar ein Promille der eingetretenen Verluste.

sowie starken Preiserhöhungen

Als weitere Sorge der produzierenden Unternehmen kommen noch die ständig steigenden Energiekosten hinzu. Wenn günstige Kern- und Kohlekraftwerke abgeschaltet werden, muss bei den unvermeidlichen Ausfällen der „erneuerbaren“ auf deutlich teurere Alternativen wie Gas oder Öl zurückgegriffen werden. Das schlägt unweigerlich auf den Strompreis durch. Einem Artikel der „Welt“ zufolge ist zu erwarten, dass der geplante Kohleausstieg den Großhandelspreis für Strom um mindestens 30 Prozent oder sogar 50 Prozent erhöhen wird. Dies würde die internationale Wettbewerbsfähigkeit zahlreicher Branchen akut bedrohen. Immer mehr Betriebe sehen sich inzwischen existenziell gefährdet. Betroffen sind nicht nur Hütten- und Schmelzwerke für Alu, Stahl oder Kupfer, sondern immer mehr Branchen wie Gießereien, Schmieden, Hersteller von Glas und Papier, Zementwerke, die chemische Industrie sowie erhebliche Teile der Zulieferer für Kfz-Hersteller und den Maschinenbau mit zusammen Hunderttausenden von Beschäftigten. Entsprechende Rufe aus Branchen wie der Metallindustrie oder der chemischen Industrie werden deshalb immer drängender.

Das Problem liegt an der Unzuverlässigkeit von Wind und Sonne

Die entscheidende Erbkrankheit bei den wichtigsten „erneuerbaren“ Stromlieferenten Wind und Sonne ist ihre völlige Abhängigkeit von den Launen des Wettergotts. Während die Sonne schon vom Grundsatz her nur am Tage scheint, erfolgt die Stromlieferung auch beim Wind nur in Form erratischer Spitzen, Bild 5. Zwar behauptet die Branche mit dem Argument „Irgendwo weht immer Wind“, dass sich dies über große Flächen hinweg ausgleiche, doch beweisen die Tatsachen, dass man diese Zweckbehauptung getrost ins Reich der Märchen und Sagen verweisen kann, siehe Bild 6. Unsere moderne Zivilisation braucht jedoch Strom genau dann, wenn er benötigt wird, und genau das können Wind und Sonne weder einzeln noch gemeinsam, wie der Vergleich von Wind und Sonne zum Bedarf im Juli 2018 anschaulich beweist, Bild 7. Schon beim jetzigen Ausbaustand gibt es täglich riesige Schwankungen zwischen „erneuerbarer“ Produktion und dem aktuellen Bedarf des Landes, weshalb ständig ein quasi vollständiger Park an zuverlässig lieferfähigen Kraftwerken vorgehalten werden muss. Da diese wegen des Vorrangs der „erneuerbaren“ Erzeuger immer weniger genutzt werden können, verteuert sich ihre Produktion, was den Strompreis zusätzlich in die Höhe treibt. Lösungen für dieses Problem sind nicht in Sicht, da bis heute keine auch nur annähernd leistungsfähigen und kostenmäßig vertretbaren Möglichkeiten zur Speicherung von größeren Stromüberschüssen zur Verfügung stehen.

Schwankungen gefährden das Netz zusätzlich

Zusätzliche Gefahren drohen unseren Netzen durch weitere Einflüsse, die sich aus der heutigen europäischen Strommarktregulierung ergeben. Früher lag die regionale Stromversorgung – Kraftwerke und Leitungen – weitgehend in den Händen von Versorgern wie z.B. RWE, EnBW oder kleineren Regionalgesellschaften. Diese waren für die Versorgungssicherheit verantwortlich und verfügten über alle hierfür nötigen Ressourcen in einer Hand. Deshalb konnten sie ihre Kraftwerke „analog“ sowie im Verbund fahren. Die Produktion der einzelnen Kraftwerke wurde kontinuierlich an den sich ändernden Bedarf angepasst. Erst bei Bedarf wurden zusätzliche Kraftwerke zu- oder abgeschaltet. Heute müssen Kraftwerksbetreiber dagegen ihre Produktion in Zeit-Leistungs-Paketen an zentralen europäischen Strombörsen vermarkten. Für den Kraftwerker bedeutet dies z.B., dass er am Tag X von 09:00 bis 10:00 Uhr eine kontinuierliche Leistung von 850 MW zu liefern hat, während für die darauffolgende Stunde lediglich ein Vertrag über 600 MW abgeschlossen werden konnte.

Solche Leistungssprünge kann ein Kraftwerk mit seinen riesigen Einrichtungen nicht im Millisekundenbereich vollziehen. Das wäre so, als ob man einen Ozeandampfer um die Wendebojen in einen Speedboat-Parcours hetzen wollte. Zu- und Abschalten können zudem nicht immer exakt zeitsynchron erfolgen, weshalb es heute zur vollen Stunde typischerweise zu kurzen, aber heftigen Störimpulsen kommen kann. Diese lassen sich mit heutiger Technik zwar beherrschen, dies belastet jedoch die Sicherheitseinrichtungen. Auf diese Zusammenhänge machte der Blackout-Experte H. Saurugg in einem Interview mit dem österreichischen „Standard“ aufmerksam. Kommt es darüber hinaus zu Fehlfunktionen wie am Donnerstag, dem 10. Januar 2019, als ein Datenfehler an einem Netzregler im Gebiet der deutschen TenneT auftrat, dann kann es kritisch werden. An diesem Tag sank die Netzfrequenz bis auf den kritischen Wert von 49,8 Hz, ab dem dann die Schutzmechanismen im Netz einsetzen, was zumindest regional zu Lastabwürfen führen kann.

Dieser vornehm-harmlos klingende Begriff bedeutet im Prinzip nichts anders als Stromausfall bzw. Blackout. Eine besondere Störquelle sind in diesem Zusammenhang auch die heute immer größeren Windparks mit teils etlichen Dutzend Turbinen, die beispielsweise aus Gründen des Natur- oder Anwohnerschutzes synchron ein- oder abgeschaltet werden. Da die entsprechenden Leistungen immer weiter steigen, wächst die Beanspruchung der Sicherheitseinrichtungen. Je mehr Wind- und Solaranlagen heute im Rahmen der „Energiewende“ hinzugebaut werden, desto kritischer wird die Situation. Irgendwann kommt der Zusammenbruch, und je später, desto schlimmer. Eine 80- oder gar 95prozentige Versorgung mit Wind- und Solarkraftwerken wird sich deshalb nicht realisieren lassen.

Quellen:

[SPON] http://www.spiegel.de/wirtschaft/soziales/kohlegipfel-im-kanzleramt-insider-berichten-die-wichtigsten-ergebnisse-a-1248308.html#js-article-comments-box-pager

[FAZ] https://edition.faz.net/faz-edition/wirtschaft/2019-01-12/0ef138ca4a91f74600c9c37e8a8d9a2d/

[WELT] https://www.welt.de/wirtschaft/article187124628/Energiewende-Industrie-fordert-Super-Cap-gegen-Kosten-des-Kohleausstiegs.html

[VCI] https://www.vci.de/presse/pressemitteilungen/wettbewerbsfaehigkeit-industrie-beim-kohleausstieg-sichern-kanzleramtstreffen-sollte-kompensation-fuer-hoehere-strompreise-diskutieren.jsp

[STAN] https://mobil.derstandard.at/2000096185439/Europas-Stromnetz-stand-am-Rande-des-Totalausfalls?ref=rec

[QUAS] http://www.volker-quaschning.de/datserv/windinst/index.php