1

Ein Kraftwerk-Insider berichtet: “Die Einschläge häufen sich”

Damit die wichtigen Infos nicht verlorengehen, stellen wir sie im Rahmen eines „Woher kommt der Strom?“-Special der Achse-Leserschaft zur Verfügung: 

Hallo Herr Stobbe,

ich arbeite in einem Kraftwerk und habe daher ein wenig Einblick in die Kraftwerkseinsatzplanung. Dies gilt natürlich nur für „mein“ Kraftwerk und kann sicherlich nicht verallgemeinert werden.

Bei uns zumindest ist es so, dass die KW-Blöcke – über Tage und Wochen im Voraus – von uns mit ihrer minimal und maximal erreichbaren Wirkleistung, sowie maximal abrufbarer Primär- und Sekundärregelreserve, wie auch Minutenreserve angeboten werden. Dieses Angebot geht an unseren Stromhändler (Dispatcher), und zwar über ein Tool, welches auch direkt an die EEX meldet. Reale (technische oder durch andere Einflüsse bedingte) Abweichungen von unserem Angebot im Bereich >10 MW müssen umgehend gemeldet werden, sonst droht ein REMIT-Verstoß.

Das Dispatch-Management unseres Händlers kennt unsere (ständig aktualisierten) Einsatz-, als auch unsere Anfahrkosten. Im Normalfall werden wir jeweils für den morgigen Tag (Day Ahead) vermarktet und sind somit in Betrieb, sofern der Strompreis dies zulässt. Taucht der Strompreis deutlich und zu lange unter unsere Einsatzkosten ab, werden die Blöcke abgestellt. Ein bisschen Spielraum gibt es, weil wir mit der Primärregelleistung (also der direkten Netzfrequenzstütze) auch noch Geld verdienen, aber wenn es sich gar nicht mehr rechnet, ist der Ofen halt aus.

Berücksichtigt werden dabei aber auch noch die Anfahrkosten, denn ein Blockstart kostet im fünf bis sechsstelligen Bereich. Ebenfalls zu beachten: Wenn wir unseren Strom für den Kraftwerkseigenbedarf nicht selbst erzeugen, müssen wir diesen auch übers Netz beziehen und zahlen da sämtliche EEG- Umlagen und sonstigen Gebühren mit. Ein kompletter Stillstand der Erzeugung kostet eben auch.

Aus dieser komplexen Gemengelage wird also die Kraftwerkseinsatzplanung destilliert.

Intraday wird die Lastkurve der in Betrieb befindlichen Blöcke immer viertelstundenscharf dem entsprechenden Marktumfeld angepasst. Ist ein Wettbewerber billiger, kauft unser Dispatcher dort die entsprechenden Strommengen und wir senken unsere Leistung ab. Sind wir noch lieferfähig (fahren also gerade im Teillastbetrieb) gilt natürlich unser bestehendes Maximalangebot und wir erhöhen die Leistung, sobald ein annehmbarer Preis geboten wird. Zurückhalten tun wir da gar nichts. Wenn wir aber tatsächlich etwas an unserer gemeldeten Verfügbarkeit ändern, also eine Lasteinschränkung melden, dann müssen wir dies schon in diesem Tool tun und auch begründen. Solche Ereignisse werden dann umgehend bei der EEX angezeigt.

Technischer Einschub: Unser Laständerungsgradient liegt übrigens bei 3% der installierten Nennleistung pro Minute. Bei einem angenommenen 1000-MW-Kraftwerksblock wären das also 30 MW/min – innerhalb der technischen Min- und Max.-Grenzen natürlich. Primärregelleistung im gleichen Bereich liegt übrigens innerhalb weniger Sekunden an. Wer in Deutschland am Regelleistungsmarkt teilnehmen möchte, muss mindestens 2% seiner installierten Nennleistung innerhalb 30 Sekunden vollständig als Regelleistung erbringen und für mindestens 5 Minuten halten können. Das zum Thema angeblich mangelnder Flexibilität konventioneller Kraftwerke.

Preis zu volatil? Dann bleiben Kraftwerke einfach außer Betrieb

Wenn ich mir jetzt den Juni anschaue, dann exportieren wir die Solarspitzen und importieren während der Solartäler. Der Strompreis schwankt die meiste Zeit zwischen 25 und 50 Euro/MWh. Der Chart der Stromerzeugung zeigt nun, dass Laufwasser-, Biomasse- und Kernkraftwerke in einem relativ gleichbleibenden Band geradeaus fahren, die Braunkohle ebenfalls ein durchgehendes Band fährt (wobei sie auch schon in Teillastbereiche runtergeht), während vor allem Steinkohle und Gas den Ausgleich zwischen fluktuierender Stromerzeugung durch Wind- und Sonnenkraft sowie schwankendem Verbrauch (Last) abfedern.

Bei Gas und Steinkohle dürfte ein (Börsen-)Strompreis von 25 €/MWh für die allermeisten Kraftwerke nicht mehr ausreichen. Ab 40-45 € könnten viele wieder im Preis sein (das hängt stark vom Anlagenwirkungsgrad, von den momentanen Brennstoffkosten und dem Preis für CO2-Zertifikate ab). Wenn der Preis nun aber sehr volatil ist und zu oft unter den Erzeugungskosten liegt, bleiben die Kraftwerke halt einfach außer Betrieb. Je länger aber ein solcher Kraftwerksblock steht, desto kälter ist die Anlage, desto länger dauert eine Anfahrt und desto teurer wird ein Start – dies noch on top.

Meine Vermutung bezüglich der Erzeugungsunterdeckung ist daher die, dass bei stark schwankenden Preisen im Grenzbereich zwischen „lohnt“ und „lohnt nicht“ einfach viele Anlagen gleich außer Betrieb bleiben. Man sieht ja im Preischart schön, dass die solare Mittagsspitze regelmäßig die Preise einbrechen lässt. Es gibt von 06:00 bis 10:00 und am Nachmittag/Abend von 18:00 bis 22:00 Uhr noch etwas zu verdienen, der Rest des Tages sieht mau aus. Da können viele Blöcke einfach nicht durchgängig betrieben werden, und nur für wenige Stunden (oder gar mehrfach) starten sollte man solche Anlagen auch nicht. Das heißt also (für mich), dass in Deutschland seit Mai – mit dem steigendem Photovoltaik-Anteil – einfach nicht mehr genug Anlagen durchgängig und kostendeckend in Betrieb gehalten werden können, um bei Lastschwankungen ohne Importe auszukommen.

Wenn es jetzt an irgendeiner Stelle klappert, wird es eng mit den Reserven im Netz. Ich habe mich gerade durch regelleistung.net gehangelt, um herauszufinden, wieviel Regelleistung denn derzeit so vorgehalten wird. Primärregelleistung (abgekürzt PRL, das ist die direkte Frequenzstütze, ohne die das Netz sofort zusammenbrechen würde) demnach 605 MW in Deutschland. Im europäischen Verbundnetz gesamt sind es dann rd. 3000 MW, auch zur Kompensation des möglichen Ausfalls der größten Erzeugungseinheit innerhalb von 30 sec). Sekundärregelleistung (um die PRL bei Fortdauer der Störung > 5 min abzulösen) 1.876 MW für die vier deutschen Übertragungsnetzbetreiber. Die Minutenreserve liegt offenbar derzeit bei 1.952 MW (um die SRL nach 15 min abzulösen). Zahlenangaben ohne Gewähr.

„Sofort abschaltbare Lasten“

Das erscheint mir angesichts zunehmend fluktuierender Stromerzeugung in Deutschland ein bisschen wenig zu sein. Vom 25.06.19 berichteten mir die zu diesem Zeitpunkt anwesenden Kollegen jedenfalls vom telefonisch bettelnden Lastverteiler, der versuchte, jedes verfügbare MW zusammenzukratzen, und irgendwann vorher im Juni war ich selbst zugegen, als ohne erkennbaren Grund plötzlich über 3.000 MW im deutschen Netz zu fehlen schienen. Ein dies erklärender Kraftwerksausfall oder eine starke Prognoseabweichung bei Wind und Solar war zu diesem Zeitpunkt für mich nicht erkennbar.

Offenbar hält man sich seitens der Übertragungsnetzbetreiber neben der Regelreserve noch mit den „schnell…“ oder „sofort abschaltbaren Lasten“ in der Schwerindustrie über Wasser, aber die Einschläge häufen sich. Wenn man jetzt noch bedenkt, dass die Stromflüsse wegen der Netzungleichgewichte zwischen Nord und Süd zusätzlich die Leitungen und Kuppelstellen belasten (die nicht für solche Energiewende-Experimente gebaut wurden) und die bestehenden Kraftwerksanlagen auch nicht für ständiges „hoch und runter, rein und raus“ konzipiert wurden, kann es einem schon angst und bange werden. Die Instandhaltungskosten und das Ausfallrisiko steigen, während die Marge zunehmend unkalkulierbar wird.

…und das politisch und medial völlig enthemmte Überallausstiegsgetrommel ist da noch nicht einmal berücksichtigt.

Weil ich gerade folgendes Zitat auf achgut.com gelesen habe,

„Marktteilnehmer, darunter die Firma Next Kraftwerke, vermuten hinter den Engpässen im Juni das Werk von Spekulanten. Es besteht demnach der Verdacht, dass Händler Versorgungslücken im Regelenergiemarkt zunächst bewusst nicht ausgeglichen hätten, um später höhere Gewinne einzustreichen.“

… vielleicht noch ein paar Bemerkungen zu Regelenergie und Bilanzkreisabweichungen:

Die benötigten Regelleistungsmengen wurden früher wöchentlich, mittlerweile täglich öffentlich ausgeschrieben. Die Stromerzeuger können dann Angebote abgeben und erhalten ggf. den Zuschlag. Damit sollte die Versorgung immer gewährleistet sein (sofern die errechneten Mengen noch immer ausreichend sein sollten). Für Spekulation und Versorgungslücken sehe ich da eigentlich keinen Raum.

Primärregelung (PRL) und Sekundärregelung (SRL) erfolgen vollautomatisch. Das Regelungssignal kommt direkt aus dem Netz, und die Anlage fährt danach die Leistung hoch oder runter. Auch da sehe ich keinen Raum für Versorgungslücken oder Zeitverzug.

Bei der Minutenreserve (MR) ist das etwas anders, weil da ja noch Zeit zum Handeln bleibt. Bei uns kommt die MR-Anforderung über den ganz normalen Fahrplan (das Tool, in welchem der Dispatcher die zu fahrende Wirkleistung viertelstundenscharf festschreibt) und zusätzlich noch als telefonische Anforderung, damit diese außerplanmäßige Fahrplanänderung auch ja nicht untergeht.

„Das ist Glücksspiel“

Ich könnte mir also durchaus vorstellen, dass eine Minutenreserveanforderung zum gewünschten Zeitpunkt noch nicht vollständig bedient sein könnte, weil diese Anforderungen teilweise auch sehr kurzfristig reinkommen, die Anlagen aber einen technisch bedingten Laständerungsgradienten von x MW/min haben. Da die MR die SRL aber nur ablösen soll und zusätzliche Kraftwerke, die nicht an der Regelung teilnehmen, auch ihren Output erhöhen können (sofern es im Netz noch Reserven gibt), sollte das im Normalfall auch verkraftbar sein. Ein Zurückhalten von Regelleistung sehe ich da nicht, weil man ja seinen vertraglichen Verpflichtungen nachkommt. Im Rahmen der technischen Gegebenheiten natürlich.

Wenn jetzt also alle an der Netzregelung teilnehmenden Erzeuger ihren Pflichten nachkommen, sehe ich keinen Raum für Spekulationen. Würde ein Teilnehmer seine Pflichten nicht erfüllen, würde das für ihn im Nachgang mit Sicherheit teuer. Es wird ja alles überwacht, alle Stromflüsse sind online nachvollziehbar. Ich weiß es nicht genau, könnte mir aber durchaus Vertragsstrafen vorstellen, zusätzlich zu den Kosten der als Lückenfüller schnell zu beschaffenden Leistung. Ein Plus-Geschäft sollte da unmöglich sein, worauf also spekulieren?

Wie genau die realen Stromflüsse gemessen und abgerechnet werden, entzieht sich meiner Kenntnis. Aber sie werden es. Ein paar Wochen nach der tatsächlich erfolgten Erzeugung. Da werden dann auch die Kosten sichtbar, die anfallen, wenn man als Erzeuger von seinem Fahrplan abgewichen ist. Wie schon gesagt, legt der Fahrplan viertelstundenscharf fest, welche (Wirk-) Leistung eine Erzeugungseinheit zu bringen hat. Das ist der sogenannte Arbeitspunkt (AP). Bei eingeschalteter Netzregelung (PRL und/oder SRL) pendelt die Blockleistung dann natürlich um diesen Arbeitspunkt herum, je nachdem, welches Regelsignal aus dem Netz kommt. Alle anderen Abweichungen vom Arbeitspunkt sind aber Bilanzkreisabweichungen, deren Kosten im Nachgang errechnet werden.

Teilweise sind solche Bilanzkreisabweichungen technisch gar nicht zu vermeiden. Die schon angesprochenen Laständerungsgradienten verhindern, dass man innerhalb einer Sekunde (von einem Viertelstunden-Arbeitspunkt zum nächsten) die Leistung ändern kann.

[Technischer Einschub: Man fährt also von einem AP zum nächsten eine Lastrampe, wobei versucht wird, den AP-Wechselzeitpunkt auf der Mitte dieser Rampe zu erwischen. Bei einer gewünschten Laststeigerung von z.B. 100 MW (braucht 4 min bei 25 MW/min) zu 06:00 Uhr, beginne ich also schon 2 min vor 06:00 Uhr die Last anzuheben, habe also eine positive Bilanzkreisabweichung (entgegen meinem noch gültigen AP fahre ich ja zu viel Leistung ins Netz). Um 06:00 Uhr habe ich mit erst 50 aufgebauten MW den neuen AP noch nicht erreicht, habe also für die nächsten 2 min erstmal eine negative Bilanzkreisabweichung.]

Man versucht also Bilanzkreisabweichungen möglichst gering, sowie ausgeglichen positiv und negativ zu halten. Man weiß im Vorfeld nie, was einen wieviel kostet! Diese Rechnung wird erst Wochen später präsentiert. Je nach Netzsituation kann sowas richtig teuer werden, es kann aber sogar Geld dafür gezahlt werden. Man weiß es aber nicht und eine Spekulation wäre hier komplett hoffnungslos. Das ist Glücksspiel.

Es gibt jedoch eine Möglichkeit, wo ich mit künstlicher Verknappung auf steigende Preise spekulieren kann. Mir schreibt ja niemand vor, welche maximale Wirkleistung ich Day Ahead anbieten muss. Wenn ich meine den Wettergott persönlich zu kennen und darauf spekuliere, dass die Wind- und Solarprognosen für den nächsten Tag zu positiv ausfallen, kann ich mich ja mit einem Minimalangebot auf die Lauer legen und hoffen, dass die Intradaypreise höher sein werden. Nur, das können alle anderen auch. Ob ich dadurch also wirklich gewinne, ist halt Spekulation.

Ich könnte mir aber durchaus vorstellen, dass man seitens der Bundesnetzagentur bei größeren Erzeugungseinheiten auch genauer drauf schaut. Erzeugungskapazitäten im Gigawattbereich können ja durchaus Preise bewegen, wenn der Markt gerade eng ist. Ich weiß also nicht, ob einem die Spekulation da nicht hinterher vor die Füße fällt.

Freundliche Grüße / Name des Verfassers ist bekannt

Unglaubliche Augenwischerei!

Im Zusammenhang mit der Vermutung, dass der vermehrte Stromimport zu einer Senkung des CO2-Ausstoßes führen könnte, schrieb kürzlich ein Leser an Achgut.com:

[…] Ihre letztens geäußerte Vermutung, dass in D auf jeden Fall CO2-generierende Stromerzeugung bewusst heruntergefahren bzw. eingeschränkt werden soll, hätte ich bisher fast nicht glauben können.

Doch nun heute gibt es auf Welt.de eine entsprechende Aussage, wie bei uns bei der Stromerzeugung CO2 gespart wurde in den ersten Monaten d. J.

Unglaubliche Augenwischerei!

Beste Grüße und herzlichen Dank für Ihre umfangreichen Informationen.

Rüdiger Stobbe ist nach eigener Auskunft ein schlimmer Ober-Klimaleugner und veröffentlicht regelmäßig auf der Achse des Guten.

Mit freundlicher Genehmigung.




Claudia Kemfert bei Lanz: Gut behauptet ist glatt daneben!

Der Teil, in welchem Kemfert Markus Lanz und Friedrich Merz Rede und Antwort steht, ist hier als Video-Ausschnitt verfügbar. Die wesentlichen Aussagen (ab Minute 9:47) zur Energiewende und deren Machbarkeit sind hier transkribiert:

Merz: Wir können das hier alle machen, nur, wenn uns gleichzeitig hier in Deutschland die Wirtschaft kaputtgeht, wenn die Arbeitsplätze verlorengehen.

Kemfert: Das ist genau das Argument, was ich meine…

M.: Sie kriegen mit Windenergie und Sonnenenergie die Arbeitsplätze nicht ersetzt…

K: Doch, natürlich, so, doch, wir sind jetzt hier an einem Punkt…

M.: …die in der Stahlindustrie, der Zementindustrie in der gesamten Papierindustrie und überall ver … Nein, da sind wir an ´nem Punkt, wo wir uns nicht einig werden. Da sind einige unterwegs, die glauben, man könnte das ganze System sozusagen auf den Kopf stellen und dann Umwelt machen, und wir machen hier zwei Prozent der weltweiten Emissionen und drumherum werden die Kernkraftwerke hochgefahren und die Kohlekraftwerke hochgefahren, damit Deutschland mit Strom versorgt werden kann.

K: Das stimmt alles nicht

M.: Die Rechnung geht nicht auf, …

Kemfert: Ja aber, das stimmt [nicht], man muss jetzt wirklich massiv, nein, nein, aber man muss wirklich widersprechen, weil das tatsächlich nicht. … Keiner der Punkte. Also wir können auch dieses Land mit einer Energieversorgung aus erneuerbaren Energien sicherstellen. Sie haben in Ihrer Partei zugelassen, dass wir viele Jobs in der Solarindustrie verloren haben, auch in der Windindustrie. Wir könnten auch Solarenergie auch in Deutschland wieder produzieren, in Europa jetzt auch durch die Wirtschaftshilfen, die dort getätigt werden. Das ist das eine. Jobs entstehen … wichtige Industriejobs, die dort entstehen.

Installierte Leistung vs. Verbrauch per Mai 20121 á la Kemfert  verdreifacht.

Energiewirtschaftlich macht es auch Sinn, gerade wenn wir die Industrie dekarbonisieren, dass wir auch dort Ökostrom nutzen zur Herstellung von Wasserstoff, grünen Wasserstoff, und da auch die Möglichkeit schaffen, die Industrie hier im Land zu lassen. Wir wollen ja nicht, dass die abwandert. Nur Ihre Argumente sind immer, das muss man auch bezahlen, Sie sagen aber indirekt mit dem Marktinstrument, der Preis, das hab´ ich Ihnen eben schon vorgerechnet, der würde massiv nach oben gehen und das schadet ja der Industrie. Also insofern muss man da schon eine Balance finden, den Preis jetzt so vorzugeben macht dann Sinn, weil sich die Industrie auch auf diese Preisorientierung einstellen kann. Und: Der Strompreis sinkt, um diesen Punkt zu machen, mit einem höheren CO2-Preis sinkt der Strompreis, weil die EEG-Umlage sinkt. […].

Kommentar:

Zu diesem Wortwechsel einige Bemerkungen: Frau Kemfert meint, dass sich die Energieversorgung Deutschlands komplett mittels erneuerbarer Energieträger sicherstellen lasse. Dann springt sie zur Produktion von Solarmodulen und Windkraftanlagen, wo viele Jobs verloren gingen. Das hat mit Energieversorgung allerdings nichts zu tun. Wichtig scheint ihr der Seitenhieb gegen Merz zu sein: Sie haben in Ihrer Partei zugelassen, … „. 

Frau Prof. Kemfert macht nun das Fass „Industrie und Verhinderung der Abwanderung, grüner Wasserstoff, Dekarbonisierung und Kosten“ auf. Sie meint wohl den CO2-Preis, der vorgegeben werden sollte. Zwecks Kalkulierbarkeit. Ob und wann nach ihrer Meinung der Preis tragbar ist, darauf geht sie nicht ein.

Vom Zertifikatehandel spricht sie überhaupt nicht. Vor allem aber beantwortet sie nicht, weswegen es nicht stimme, was Friedrich Merz eingeworfen hat und weshalb wir „dieses Land mit einer Energieversorgung aus erneuerbaren Energien sicherstellen“ können. Frau  Kemfert belegt ihre Behauptung nicht. Deshalb fragt Markus Lanz höflich, aber bestimmt nach:

Lanz: […] Woher kommt der Strom für die ganzen Elektroautos, die wir demnächst haben? Woher kommt der Strom, für den Wasserstoff, den wir erzeugen müssen, wenn wir CO2-freien Wasserstoff, äh …, Stahl erzeugen wollen? Und so weiter…

K: Richtig!

L.: …und so weiter. Ich kenne Projektionen von Kollegen von Ihnen, die sagen, in den nächsten paar Jahren wird der Energiebedarf einfach sich verdoppeln.

K: Nein, das stimmt nicht!

L.: Exakt verdoppeln.

K: Nein, nein, also da muss man jetzt unterschei …

L.: Kurz, nur ganz kurz, darf ich mal kurz ausreden?

K: Bitte.

L.: Die Frage ist: Wo kommt dieser ganze Strom…

K: Genau!

L.: …her, wenn wir gleichzeitig sagen, wir gehen raus aus der Kohle, wir gehen auch raus aus der…

K: Guter Punkt! Genau!

L.: …Atomkraft.

K.: Genau. Der Strom kommt aus erneuerbaren Energien, weil…

L.: Der gesamte deutsche Strom!

K.: …weil zwei Dinge passieren. Und das ist einmal diese fehlerhafte Annahme, die hier zugrunde gelegt wird. Der sogenannte Primärenergiebedarf, das ist der Energiebedarf, den wir auch für Wärme und Mobilität nutzen, sinkt, wenn wir den Ökostrom sofort nutzen. Das heißt der Ökostrom in die Wärmepumpe plus energetische Gebäudesanierung sinkt der Primärenergiebedarf. Der Öko …, das stimmt, der Ökostrom, die Mobilität, aber auch dort sinkt der Primärenergiebedarf, weil wir eine viel höhere Effizienz haben, weil wir Elektromobilität nutzen … sprich der Primärenergiebedarf halbiert sich, aber der Strombedarf erhöht sich…

L: Ja!

K.: ...und der Strombedarf erhöht sich und da kommt es jetzt darauf an, wie effizient wir sind, wenn wir im großen Stil Wasserstoff produzieren, den in die Autos tun, dann verschwenden wir ganz viel Ökostrom und müssen ganz viel zubauen. Wenn wir den aber direkt in die Ökoau … , Elektroautos tun, den Ökostrom, dann reduzieren wir den Primärenergiebedarf. Und das können wir schon auch in Deutschland sicherstellen. Die Frage mit der Industrie…

L.: Wir sind das einzige Land der Welt, dass das geht.

K.: […] Es ist nicht nur Glauben, wir können´s empirisch belegen. Und wir können´s auch fach…, in der Fachwelt darlegen. Das sind nicht nur wir, das sind die Scientists for Future. Die haben im Rahmen eines umfassenden Projektes das dargelegt, dass das funktioniert und auch wissenschaftlich bewiesen. (bis Minute 13:44)

Kommentar:

Die Antwort von Claudia Kemfert ist ein Konvolut von Sachverhalten, die alle irgendetwas mit Energieversorgung, mit Energiewende und mit regenerativ verfügbar gemachter Energie zu tun haben. Nur mit der Beantwortung der Frage, die Markus Lanz gestellt hat, damit hat die Antwort nichts zu tun.

Hinzu kommt, dass die Aussagen in Teilen falsch sind. Wenn Frau Prof. Kemfert davon spricht, dass sich der Primärenergiebedarf halbiert, wenn sich der Strombedarf erhöht, ist das Unfug. Erneuerbar erzeugter Strom ist Teil des Primärenergieverbrauchs. Wobei im grünen Teil des Balkens auch die Gasherstellung und die Verflüssigung von Biomasse und nicht nur die Stromherstellung enthalten ist.

Dass Wasserstoffherstellung und die Rücktransformation in Strom sehr energieintensiv sind, weiß Frau Prof. Kemfert. „Ganz viel zubauen“ hieße konkret eine Versechzehnfachung (!) der installierten Leistung Windkraft und eine Verzweiunddreißigfachung (!) der installierten Leistung Photovoltaik, bezogen auf eine definierte Strommenge zum Laden von Autoakkus.

So viel zusätzliche installierte Leistung ist nötig, um den Strom über den (Um-)Weg „Wasserstoff“ (= aus 100 Prozent Strom werden 25 Prozent) bereitzustellen. Frau Kemfert hat also durchaus recht, wenn sie im Bereich Elektromobilität vom Wasserstoffpfad abrät. Das gilt jedenfalls so lange, wie die erneuerbare Stromerzeugung nicht 100 Prozent und mehr des Bedarfs Deutschlands zumindest im Durchschnitt deckt. Dieses Mehr kann dann als wirklich grüner Wasserstoff gespeichert werden. Das aber ist heute und wird auch in weiterer Zukunft nicht der Fall sein.

Frau Kemfert liegt mit ihrer Behauptung, die komplette Energieversorgung Deutschlands sei praktisch zu Tages- und Nachtzeit regenerativ sicherzustellen, komplett neben der Realität. Zur Frage, ob durch Elektromobilität tatsächlich fossiler Brennstoff eingespart wird, sei das Video mit den Ausführungen von Prof. Hans-Werner Sinn empfohlen.

Die regenerative Stromerzeugung sah in den vergangenen Jahren wie dieser Chart aus. Etwa 50 Prozent beträgt die regenerative Stromerzeugung. Sie ist, von den praktisch kaum ausbaubaren Energieträgern Biomasse und Wasserkraft abgesehen, höchst volatil und nur schwer kalkulierbar. Mangels ausreichender Speichermöglichkeiten wird ein weiterer Ausbau der Wind- und Photovoltaik zu zeitweise, vor allem in der Mittagsspitze, erheblichem Überangebot mit starkem Preisverfall führen.

Belege für meine Behauptungen liefern die wöchentlichen Analysen der Kolumne „Woher kommt der Strom?“. Wie Frau Kemfert hingegen etwas fachlich und empirisch belegen will, bleibt bis auf den Verweis auf den 16-Punkte-Diskussionsbeitrag der Scientists for Future ihr Geheimnis. Doch selbst eine Umsetzung von deren Ideen reicht bei weitem nicht aus, um den um mehr als die Hälfte steigenden Strombedarf Deutschlands ab 2030 zu decken. Also hakt Friedrich Merz nach. Friedrich Merz fragt Frau Prof. Kemfert noch mal (Minute 14:51):

Merz: Wo kommt der Strom für die Aluminiumindustrie her, die sekundengenau den Strom braucht?

Kemfert: Das erläutere ich Ihnen gerne, weil es dazu wissenschaftliche Erkenntnisse gibt, die da folgendermaßen sind. Wir müssen in der Tat Solarenergie und Windenergie ausbauen, der Ökostrom, damit produzieren wir Wasserstoff, der auch in die Industrie geht. Die Frage ist in der Tat, ob wir das in Deutschland alleine können, oder ob wir den Wasserstoff importieren müssen. Da gibt es ja auch Kooperationen in Ländern, wo Ökostrom preiswert zur Verfügung steht und diesen Wasserstoff dann zu importieren, halte ich durchaus auch für sinnvoll. Da laufen ja auch Projektevorhaben und Kooperationen. Der Rest der Energie, der Ökostrom, den wir da brauchen, ist zu jeder Tages- und Nachtzeit produzierbar und auch speicherbar.

Es gibt genügend Studien, die belegen, dass wir ausreichend Speicher haben. Schon heute auch im Einsatz hätten, wenn wir den Markt dafür zulassen würden. Also eine Vollversorgung mit erneuerbaren Energien ist möglich

M.: Also ich komm‘ vom Land. Bei mir zuhause scheint nachts die Sonne nicht.

K.: Ja, aber da weht zum Beispiel auch der Wind, auch bei Ihnen. Dazu gibt es empirische Erkenntnisse…

Der Beitrag erschien zuerst bei ACHGUT hier

M: Es gibt Tage, da weht null Wind, wir haben keine Sonne.

K.: …wie auch der Wind… Sie machen ein Extremszenario, was wir nachweisen können, was es einmal im Jahr maximal für zehn Tage gebe. Die restlichen Tage haben wir erneuerbare Energien im Überschuss. Und das ist wissenschaftlich belegt.

Kommentar:

Frau Kemfert meint, mit dem Begriff „wissenschaftlich“ einen Beleg für die Richtigkeit ihrer Aussagen an sich zu haben. Das erinnert an ein Kind, dass die Augen zu macht und glaubt, nicht gesehen zu werden. Der weitere Ausbau von Windkraft- und Photovoltaikanlagen ist keine wissenschaftliche Erkenntnis, sondern für Energiewender eine Binsenweisheit. Dann präsentiert Frau Prof. Kemfert wieder das Thema „Wasserstoff“. Scientists for Future haben die Herstellung von Strom und Wasserstoff (ein feines Feature des Dlf zum Thema) völlig richtig problematisiert. Dass da „Kooperationen und Projektvorhaben“ laufen, ist ja schnell gesagt. Diese werden aber keinesfalls das Wasserstoffvolumen liefern können, das notwendig ist, um z.B die bundesdeutsche Stahl- und Chemieindustrie „grün“ zu machen. Das sind fromme Wünsche, die mit der Wirklichkeit nicht viel zu tun haben. Genauso wie der letzte Satz nach dem Einwurf von Friedrich Merz:

Kemfert:

(M: Es gibt Tage, da weht null Wind, wir haben keine Sonne)

wie auch der Wind … Sie machen ein Extremszenario, was wir nachweisen können, was es einmal im Jahr maximal für zehn Tage gebe. Die restlichen Tage haben wir erneuerbare Energien im Überschuss. Und das ist wissenschaftlich belegt.

Kommentar:

Die letzten beiden Sätze von Frau Prof. Kemfert sind nicht „wissenschaftlich“. Sie sind falsch. Genau wie die Behauptung, es gäbe „ausreichend Speicher“, die angeblich der Markt nicht zulässt. Das ist Unfug. Ohne Wenn und Aber. Selbstverständlich gibt es Flauten. Auch nachts. Doch selbst wenn der Wind weht. Ohne konventionelle Energieträger, die regelmäßig fehlenden Strom bis zur Deckung des Bedarfs auffüllen, ohne die konventionelle Stromerzeugung wären in Deutschland schon längst die Lichter ausgegangen.




GroKo bereitet sich auf Mega-Blackout vor

Es wäre der absolute „Größte anzunehmende Unfall“ (GAU), hätte Chaos, Panik und möglicherweise sogar Unruhen in der Bevölkerung zur Folge: ein flächendeckender Stromausfall in Deutschland, ein sogenannter „großer Blackout“, schreibt die Bild-Zeitung. Und dann fügt sie hinzu: Größere Probleme könnte es u.a. durch Cyber-Attacken, Terror-Angriffe oder Sabotage geben, und genau darauf bereiten sich die Bundesregierung und der Katastrophenschutz derzeit vor. Das belegt der aktuelle Haushaltsplan des Bundesinnenministeriums (BMI).
Verehrte Kollegen, ihr habt etwas vergessen: Größere Probleme könnte es durch den Zappelstrom der sogenannten Energiewende geben – es gibt sie ja bereits. Das ist eindeutig das wahrscheinlichste Szenario für einen Blackout (siehe unsere Dienstags-Serie „Woher kommt der Strom“).  Und jetzt wird schon mal in die falsche Richtung haltet den Dieb gerufen. / Link zum Fundstück
Hier gibt es mehr Informationen Verein für Energiesicherheit
und hier ein ausführlicherer Beitrag zum Thema bei EPOCH Times



Der Deutsche Weg oder der CO2-Wahn und seine Folgen

Es wäre interessant zu erfahren, welche Prognosen hierzu unsere derzeit besonders aktiven Katastrophen-Propheten des IPCC und die vieler Umweltverbände für das Jahr 2050 und nachfolgend vorsehen. Konnte der Planet tatsächlich gerettet werden mit den CO2-Einsparungen, und gibt es eine ausreichende und gesicherte Energie­versorgung, die eine absolute Voraussetzung für ein funktionierendes und sich weiterentwickelndes modernes Gesellschaftssystem darstellt, oder haben sich die Industriestaaten bis dahin verabschiedet und selber zerstört (nach Habeck: der Kampf der Ökonomie gegen die Natur)?

Vorbemerkung

Nach der Talkshow von Anne Willam 17. November habe ich mich kurzfristig entschieden, diesen Artikel zu schreiben, der im Wesentlichen eine Übersetzung einiger Ausführungen auf meiner Homepage ist. In der Talkshow wurde nämlich wieder einmal das Thema Erneuerbare Energien wie in hunderten ähnlicher Runden andiskutiert, und alle anwesenden Politiker (Markus Söder, Annelena Baerbock und Christian Lindner) betonten einhellig die Notwendigkeit eines beschleunigten Ausstiegs aus den fossilen Brennstoffen. Aber leider ging keiner der Anwesenden, auch nicht die so-genannte Energie-, Verkehrs- und Umweltexpertin Claudia Kemfert vom Deutschen Institut für Wirtschaftsfor­schung auf die Frage ein, woher die ausreichende Energie kommen soll, wenn alle konventionellen Kraftwerke abgeschaltet werden. Den bei weitem größten Sachverstand konnte man immerhin Christian Lindner zu­billigen, der sich auch mit Geisterstrom (Flatterstrom) und Dunkelflauten auskannte.

Wie soll der schrittweise Ausstieg aus fossilen Brennstoffen erfolgen?

In 2018 veröffentlichte das IntergovernmentalPanel on Climate Change (IPCC– Welt-Klimarat) einen „Sonderbericht zu den möglichen Auswirkungen einer globalen Erwärmung von 1,5°C über dem vorindustriellen Niveau sowie zu hiermit verbundenen Emissionsverläufen von Treibhausgasen“. Dieser Bericht ist eine Fortsetzung früherer Sachstandsberichte, der ‚Assessment Reports‘, der neben vielen alarmistischen Übertreibungen auch Modifikationen der so-genannten Repräsentativen Konzentrationsverläufe (Representative Concentra­tionPathways – RCPs) enthält, die vorgeben sollen, wie mit einer reduzierten Emissionen von CO2eine globale Erwärmung von nicht mehr als 1,5°C über das 21ste Jahrhundert erreicht werden könne. Ein maximaler Temperatur­anstieg von 2°C, besser nur 1,5°C, war von den Mitgliedern der United Nations Framework Convention on Climate Change (UNFCCC – UN-Klimarahm­enkonvention) auf der 21sten Conference of Parties (COP 21) beschlossen worden.

Dieser Beschluss ist bekannt als das Paris-Abkommen vom Dezember 2015 und wird verstanden als Nachfolge-Vereinbarung des Kyoto-Protokolls von 1997.

Die zugrunde gelegten Emissionsverläufe im IPCC-Sonderbericht, die von den meisten Mitgliedstaaten der UNFCCC (mit Einschränkungen von den USA) akzeptiert wurden, sind Simulationen mit einfachen Klimamodellen, die auf unrealistischen und spekulativen Annahmen, einerseits zur Berech­nung der CO2-Klimasensitivität (Temperaturanstieg bei Verdoppelung von CO2in der Atmosphäre) und andererseits zum Kohlenstoff-Kreislauf basieren (siehe hierzu auch Harde 2017a, Harde 2017bund Harde 2019).

Diese Modelle prognostizieren einen deutlich zu hohen kumulativen CO2-Anstieg über das 21. Jahrhun­dert bzw. eine deutlich zu kleine erlaubte Emissionsrate, die ausschließlich auf anthropogene Emissionen zurückgeführt wird, und sie zeigen ebenso einen deutlich größeren Tem­pe­raturanstieg, als er real beobachtet wird. Insbesondere werden sowohl für die CO2-Konzentration wie für die Temperatur natürliche Einflüsse vollständig ausgeschlossen.

Im weiteren soll aber unabhängig von der Frage, wie stark menschlich verursachte Emissionen von CO2und anderen Treibhausgasen wirklich auf das Klima einwirken oder gar unseren Planeten zerstören könnten – wie von einigen ‚Experten‘ immer wieder behauptet -, insbesondere ein Blick auf die Energiepolitik einiger Industriestaaten geworfen werden, die das Pariser Abkommen ratifiziert und bereits damit begonnen haben, konventionelle Kraftwerke abzuschalten, ohne sich aber um einen verlässlichen und bezahlbaren Ersatz für eine zukünftige, gesicherte Energieversorgung zu kümmern und ohne die Konsequenzen einer solchen Energiepolitik zu Ende zu denken.

Als Beispiel einer solchen unverantwortlichen und fehlgeleiteten Politik betrachte ich hier die Bundesrepublik Deutschland; mit kleineren Abwandlungen gelten aber die folgenden Betrachtungen auch für andere Industriestaaten wie Frankreich, Großbritannien, Australien und sogar für die USA, wenn diese Länder dem Beispiel der deutschen Politik folgen sollten.

Kyoto-Protokoll: Nur zur Klarstellung sei hier nochmals kurz an die Vereinbarungen der UNFCCC-Mit­gliedstaaten von 1997 erinnert, bekannt als Kyoto-Protokoll: Auch wenn erst nach einem langwierigen Ratifizierungsprozess dieses Abkommen erst 2005 in Kraft trat, kündigten schon sehr bald weltweit viele Politiker an, von fossilen Energiequellen Abstand nehmen zu wollen und ihre Nutzung einzuschränken, um eine globale Erwärmung durch anthropogene Treibhausgase zu begrenzen, die nach der Auffassung einiger Klimaexperten allein für einen Klimawandel verantwortlich gemacht werden.

Entsprechend dem Kyoto-Protokoll verpflichteten sich alle Mitgliedsstaaten

  • die Emissionen von CO2bis zum Jahr 2012 mindestens um 5% gegenüber dem Niveau von 1990 zu reduzieren,
  • und für die Periode 2012 – 2020 sollen bis 2020 durch die Staaten der Europäischen Union Emissionen von 20% eingespart werden.

Die Deutsche Regierung erklärte darüber hinaus als Selbstverpflichtung,

  • Einsparungen bis 2012 von 20% und bis 2020 sogar von 40% vornehmen zu wollen.
  • Entsprechend einer nationalen Vereinbarung (Nationales Klimaschutz-Abkommen) will Deutschland bis Mitte des 21. Jahrhunderts sämtliche fossilen Brennstoff-Emissionen einstellen.

Wenn die Emissionen von einem der Industriestaaten oder der EU über den vorgesehenen Einsparungen liegen, kann dieses Land CO2-Zertifikate von einem anderen beteiligten Land erwerben, das in der Lage ist, das Einsparungskontingent zu überbieten. Auf diese Weise soll Klimaschutz auf einer markt-orientierten Basis und besonders ökonomisch umgesetzt werden.

Energie-Verbrauch in Deutschland

Sehen wir uns die Energiebilanz und die Anstrengungen Deutschlands an, um bis 2050 ‚klimaneutral‘ zu werden. Über die zurückliegenden Jahre war der Primär-Energie-Verbrauch (PEV) Deutschlands relativ konstant. In 2017 waren dies 13.525 PJ = 3,75 PWh (Peta Watt*Stunden) = 3,75 Bill kWh (Bundesmini­sterium für Wirtschaft und Energie). Aufgrund von Übertragungsprozessen und einem begrenzten Wirkungsgrad bei der Konversion von Energie einer Form in eine andere betragen die typischen Verluste von PEV zum End-Energie-Verbrauch (EEV) 35% (hier und im Weiteren wurden die Zahlen von 2017 herangezogen, da diese mittlerweile als endgültig eingestuft sind).

Bis jetzt wird die bei weitem größte Energieversorgung sichergestellt durch fossile Brennstoffe wie Mineralöl, Erdgas und Kohle, während die so-genannten Erneuerbaren Energien lediglich 13,2% hierzu beisteuern. Von diesen trägt die Biomasse mit 6,2% noch den größten Anteil bei, aber Experten nehmen an, dass ein weiterer Ausbau deutlich limitiert ist. Das gleich gilt für die Wasserkraft. Somit stellt sich die grundlegende Frage, wie weit Windkraft und Photovoltaik – in 2017 zusammen nicht mehr als 3,9% – wirklich in der Lage sind, die fossilen Brennstoffe und auch die Kernenergie als verlässliche Quellen zu ersetzen.

Für die Erzeugung elektrischer Energie, die 17% der Primärenergie darstellt, ist der Anteil der Erneuerbaren immerhin 33,2%. Aber selbst bei einem Anstieg der durch Wind-Kraft-Anlagen (WKAs) erzeugten Leistung von aktuell 60 GW auf 100 GW bis 2030, wie dies von der Deutschen Netz-Agentur (und nicht von der dafür zuständigen Bundesregierung) geplant ist, und unter der Annahme des gleichen Verbrau­chs wie zur Zeit, kann regenerative Energie lediglich nur ca. 50% der benötigten elektrischen Versorgung abdecken. Das sind immer noch weniger als 16% der Primärenergie.

Dabei ist realistischerweise davon auszugehen, dass mit reduzierter fossiler und nuklearer Energie der Bedarf an elektrischer Energie erheblich weiter ansteigen wird, und es bleibt nach wie vor die Gretchen-Frage, wie die fehlende Energie durch Erneuerbare erzeugt und dies auch finanziert werden kann.

Erhöhte Installationen und ansteigende Energiekosten

Es wird jedermann klar sein, dass durch den Emissionshandel den Energieversorgern und der Industrie, sofern sie nicht schon abgewandert ist, bei erhöhten CO2-Emissionen zusätzliche Kosten entstehen, die letztlich vom Konsumenten zu tragen sind. Zusätzliche erhebliche Kosten entstanden und entstehen dem Steuerzahler durch die Entscheidung der Bundesregierung, acht Kernkraftwerke kurzfristig und die verbliebenen Kernkraftwerke bis 2022 vom Netz zu nehmen, dies als Reaktion auf das stärkste Erdbeben in jüngerer Zeit und dem damit verbundenen Tsunami, durch den im März 2011 das Kernkraftwerk in Fukushima, Japan, zerstört worden war.

Die fehlende Energie musste durch neue Kohle- und Gas-Kraftwerke ersetzt werden, so dass die vorgesehenen Emissionseinsparungen nicht länger realisierbar waren – im Gegenteil – die Emissionen stiegen erneut an. Mit dem Ausstieg aus der Kernenergie unterscheidet sich Deutschland in der Tat deutlich von Frankreich, den Vereinigten Staaten und sogar von Schweden, das seit einiger Zeit den Ausstieg vom Ausstieg praktiziert und in die Erneuerung seiner Kernkraftwerke investiert.

Gegenwärtig trägt die Kernenergie noch 6,1% zur PEV von 3,75 Bill kWh bei, und die einheimische Kohle liefert 22,1%. Aber in der aktuellen politischen Situation und unter dem Druck von Klimademonstrationen wie „Fridays for Future“ hat die Bundesregierung im Mai dieses Jahres entschieden, bis 2038 auch aus der Kohle auszusteigen.

Damit konzentriert sich Deutschland vollständig auf regenerative Energien durch Windkraft und Solaranlagen, für eine Übergangsperiode auch auf Erdgas. Aber mit dem vorgegebenen Ziel der Null-CO2-Emis­sion in 2050 müssen nicht nur Kernenergie und Kohle, sondern auch die größten Energiezweige, Mineralöl mit 35% und Erdgas mit 24% ersetzt werden. Wie soll das gehen?

Erneuerbare Energie ist sehr teuer, bisher zumindest nicht verlässlich und auch nicht ausreichend verfügbar. Das gleiche gilt für das eigens hierfür anzupassende Netz.

Eine einfache Überschlagsrechnung

Biomasse und Wasser sind bereits weitgehend ausgeschöpft, auch Photovoltaik kann nicht sehr viel mehr zur Versorgung beitragen, insbesondere nicht über die Winterzeit.

Bleibt also die viel gepriesene Windkraft!

In 2017 hatte Deutschland 28.700 WKAs, die insgesamt 105 TWh = 105 Mrd kWh an elektrischer Energie erzeugt haben (2,8% der PEV). Um die fehlenden 86,5% (Mineralöl 34,5%; Erdgas 23,7%; Kohle 22,2%; Kernenergie 6,1%) – siehe obiges Diagramm – abzudecken, würde dies mit der Energiebilanz von 2017 zusätzliche 887.000 WKAs erfordern, von denen jedes Windrad 3,66 GWh über ein Jahr liefert oder im Mittel eine Leistung von 418 kW erzeugt. Dies ist nicht mehr als 20% einer Standard-Windturbi­ne mit einer Nennleistung von 2 MW.

Diese 20% sind nur realisierbar mit einer Prioritätseinspeisung ins elektrische Netz und mit konventionellen Kraftwerken im Stand-by-Betrieb. Mit erneuerbarer Speicher-Technologie, z.B. Windkraft in Wasserstoff- oder Methangas und anschließender Rückkonversion in Strom, wenn die WKAs nicht arbeiten, reduziert sich der Gesamtwirkungsgrad auf nur ca. 10%.

Wenn Mineralöl und Erdgas für den Verkehr und zum Heizen nicht länger zur Verfügung stehen, gibt es erhebliche zusätzliche Forderungen nach elektrischer Energie und entsprechenden Speicherungstechnologien, die bei dem niedrigen Wirkungsgrad weitere WKAs erfordern. Dabei stellt, wie jeder weis, die bisher nicht erprobte und nicht vorhandene Speichertechnologie das größte Problem dar.

Unter der Annahme, dass bis 2050 eine geeignete Speicherung zur Verfügung steht und der End-Energie-Verbrauch über die nächsten Jahre nicht weiter ansteigt oder sogar durch einen höheren Konversions-Wirkungsgrad von PEV zu EEV reduziert werden kann, benötigt Deutschland im Jahr 2050 nach den vorstehenden Überlegungen etwa 2 Millionen WKAs für eine ausreichende Energieversorgung, im Ernstfall könnte es auch noch etwas mehr werden.

All dies bedeutet, dass über die nächsten 30 Jahre 65.000 neue WKAs pro Jahr oder 180 WKAs pro Tag erstellt und ans Netz angeschlossen werden müssten. Aber wir schaffen das schon!

Schließlich ist Deutschland doch bekannt für seine kurzen Planfeststellungs- und Genehmigungsverfahren bei Bebauungen oder Umwidmungen von Nutzflächen. Enteignungen von Grundstücken zum Wohle der Allgemeinheit lassen sich auch zügig umsetzen. Und mit Kreditaufnahmen beim chinesischen Staat sowie mit Hilfe von chinesischen Firmen beim Bau und Anschluss der Windräder schaffen wir das alles schon!

Deutschland deckt eine Gesamtfläche von 360,000 km2ab, d.h. im Mittel sind auf jedem km2, ob Wald, Parks, Ackerland, Seen oder Wohngebiete und Städte, sechs Windmühlen zu installieren. Für die Anbindung ans elektrische Netz sind rund 1 Mio km Starkstromleitungen – als Erd- oder Überlandleitungen – zu verlegen, und für den Bau sowie die Versorgung und Wartung sind zu jeder WKA Zuwegungen anzulegen.

Was für ein erfolgreicher Schritt vorwärts, um den Planeten zu retten, und was für ein großartiger Schritt zurück zur Natur!

Ein Blick auf den Stadtplan von Berlin mit dem Regierungsviertel (linkes unteres Quadrat) zeigt uns, dass der Abstand vom Bundeskanzeramt bis zum Reichstag etwa 700 m beträgt. Der zukünftige Kanzler oder die zukünftige Kanzlerin wird also auf dem Weg zum Parlament drei WKAs (magenta Punkte) bei der Arbeit – soweit sie sich drehen – bewundern können. Und so geht es jedem Bundesbürger auf dem Weg zur Arbeit, im Büro, in der Freizeit oder im Schlaf. Auf jedem Quadratkilometer dieses Landes befinden sich im Mittel 6 Windräder, wenn wir uns von den Erneuerbaren künftig allein versorgen lassen wollen. Da wird die Forderung der Grünen, den bisherigen Mindestabstand von Wohngebieten zu einem Windpark (bisher 400 m) nicht auf 1 km zu er­höhen, um so die Verfügungsflächen für den Windausbau nicht weiter zu reduzieren, ohnehin hinfällig. Deutschland wird dann ein einziger Windpark sein mit den Schaufelrädern in unseren Vorgärten.

Ein solches Szenario ist die logische Konsequenz aus der derzeitigen Politik. Es gibt kaum eine Alternative hierzu, es sei denn der Energieimport von Nachbarstaaten. Ich sehe auch leider keinen einzigen Politiker, der die Klimaneutralität von Deutschland und den weiteren Ausbau von Windenergie fordert und der sich über die daraus entstehenden Folgen wirklich im Klaren ist.

Da solch ein Szenario vollständig unrealistisch ist, bleibt auch weiterhin absolut unklar, wie die Lücke zwischen benötigter und vorhandener Energie überbrückt werden kann.

Es ist allerdings absolut klar, dass ohne eine verlässliche und ausreichende Energieversorgung Deutschland und andere Länder, die den Deutschen Weg kopieren, in einer Anarchie enden:

Eine kollabierende Wirtschaft und Industrie, rasch steigende Arbeitslosigkeit, kalte Wohnungen und Arbeitsplätze, zusammengebrochenes Verkehrs- und Transportwesen, dramatische Folgen für die Landwirtschaft und das Gesundheitssystem, usw. usw.

Das Gute daran ist nur, dass uns dann als Entwicklungsland das UNFCCC wieder die günstigen und verlässlichen fossilen Brennstoffe zugesteht, so wie dem Kongo oder Uganda.

Zu erwartende Kosten der Energiewende

Schon die jetzigen Kosten für den Kauf von Emissionszertifikaten und das Ersetzen der bereits abgeschalteten Kernkraftwerke sowie die vielen lokalen Restrukturierungsmaßnahmen haben zu einem der höchsten Strompreise weltweit für die Industrie und die Bürger geführt.

Während zur Jahrtausendwende der Strompreis für private Haushalte in Deutschland noch 13,9 Cent/kWh betrug, stieg er 2018 auf 29,4 Cent/kWh (Stromreport), und in der Zwischenzeit hat er einen Allzeit-Rekord von 30,5 Cent/kWh erreicht (Gesellschaft für Verbraucherinformationen). Dies ist ein Anstieg von 120%, der primär verursacht wird durch eine Verdreifachung der staatlichen Belastungen wie Steuern und die Gebühren für die erneuerbaren Energien von 5,2 auf 16,8 Cent.

So tragen mittlerweile die staatlichen Belastungen zu mehr als der Hälfte zum Strompreis bei (55%), aber offensichtlich ist dies noch nicht genug. Aktuell hat die Regierung beschlossen, eine weitere Abgabe auf CO2einzuführen, beginnend mit 10 €/t CO2in 2021 und ansteigend auf 35 €/t bis 2025. Einigen Parteien und Umweltorganisationen ist das viel zu wenig, und ein weiterer deutlicher Anstieg bis zu 180 €/t wird bereits intensiv diskutiert.

All das ist jedoch noch nicht annähernd ausreichend, um eine Energiewende der geplanten Art zu realisieren. Entsprechend einer aktuellen Studie von 2017 (Ausfelder et al.), die von verschiedenen deutschen Instituten im Auftrag der Bundesregierung durchgeführt wurde, sind bei einer Reduktion der CO2-Emissionen um 90% bis 2050 zusätzliche  Kosten von etwa 4,5 Billionen € aufzubringen, und für eine Reduzierung um 100%, wie dies nach der Deutschen Klimaschutz-Vereinbarung vorgesehen ist, werden voraussichtlich noch mal weitere 3 Billionen € erforderlich sein. Zusammen ist dies fast 4x so viel wie die aktuellen Staatsschulden der Bundesrepublik Deutschland (1,92 Bill €), die sich nach dem 2. Weltkrieg aufsummiert haben, und dies ist etwa das 21-fache des diesjährigen Staatshaushalts (359,9 Mrd €).

Ohne eine weitere Erhöhung der aktuellen Schulden, die schon jetzt zu einer unverantwortlichen Belastung künftiger Generationen führen (nicht immer wird es eine Null-Zinspolitik geben und nicht ewig kann ein Staat auf Pump leben, es sei denn er strebt einen Staatsbankrott und eine Währungsreform an), sind diese Extrakosten zur Umsetzung der Energiewende vom Konsumenten zu tragen.

Bei rund 40 Mio. Haushalten führt dies neben den bisher schon vorhandenen hohen Energiekosten zu einer zusätzlichen Belastung von 188.000 € pro Haushalt oder 520 € pro Monat und pro Haushalt über 30 Jahre (ohne zusätzliche Zinsen).

Um eine Klimaneutralität bis 2035 zu erreichen, wie dies von „Fridays for Future“ und auch von den Grünen auf ihrem Parteitag am 17. November gefordert wurde, wären sogar Belastungen eines jeden Haushalts von monatlich 1040 € zusätzlich aufzubringen (siehe auch Vahrenholt & Tichy). So sieht also real eine Entlastung von Geringverdienern und eine Umverteilung von oben nach unten aus.

Schülern, die auf die Straße gehen, weil dies ‚Action‘ ist und ein tolles ‚Event‘ darstellt, ohne dabei zu wissen, wofür sie wirklich demonstrieren, kann man das vielleicht nachsehen. Aber Politiker, die zweifellos leicht von Interessenverbänden, auch von wissenschaftlichen Vertretern und Organisationen einseitig oder vorsätzlich falsch beraten werden, sollten schon ihre politischen Entscheidungen zu Ende denken, sie sind schließlich für die Folgen ihrer Politik verantwortlich.

Dabei sind all diese anstehenden Ausgaben bei weitem keine Garantie für eine jemals realisierbare emissionsfreie Versorgung mit ausreichender und verlässlicher Energie, wie dies selbstverständlich für ein Industrieland erwartet werden muss.

Der Klima-Wahn

Eine Energietransformation von den fossilen Brennstoffen weg zur so-genannten Sauberen Energie basiert auf der Vorstellung, dass der Mensch mit seinen CO2-Emissionen das Klima kontrollieren und damit auch die Welt retten kann. Dies ist eine absolute Wahnvorstellung. Seit es auf der Erde Wetter und damit auch ein Klima gibt, wird dies durch interne und externe natürliche Einflüsse bestimmt. Wir müssten die Sonnenaktivität oder die Umlaufbahn der Erde kontrollieren, um unser Klima maßgeblich zu beeinflussen.

Bisher gibt es keinen wirklichen Beleg für die Hypothese einer ausschließlich anthropogen verursachten globalen Erwärmung. Dagegen gibt es viele Anzeichen dafür, dass sich die Biosphäre bei einer höheren CO2-Konzentration in der Atmosphäre und bei leicht höheren Temperaturen deutlich besser entwickelt (Wong; Morison&Lawlor;Zhu et al .). Eine umfangreiche Zusammenstellung zur Bedeutung von Kohlenstoffdioxid für unser Leben und Überleben findet sich auf der Homepage vonCO2Coalition.

Trotzdem werden mittlerweile weite Teile unserer Bevölkerung, der Medien und besonders unserer politischen Vertreter indoktriniert von einigen Umweltorganisationen, die sich entweder aus ideologischer Überzeugung, aus politischen Interessen oder wider besseres Wissen darauf versteift haben:

Der einzige Weg, die Erde zu retten ist, sämtliche CO2-Emissionen einzustellen.

  • dies basierend auf weitgehenden Spekulationen und Hypothesen,
  • unabhängig von den unvorstellbaren Belastungen für den Verbraucher und die Industrie und
  • unabhängig von den katastrophalen Konsequenzen für die Wirtschaft und das soziale System.

Zur gleichen Zeit ersetzen Länder wie China oder Indien unsere eingesparten CO2-Emissionen innerhalb weniger Monate mit ihren weiter ansteigenden Raten.

Es hat sich ein regelrechter Klima-Wahn entwickelt, der von den Medien, Politikern und mittlerweile auch von unseren Bildungseinrichtungen in alle Welt verbreitet wird. Es ist der Glaube, dass wir in einer Welt leben, die bedroht wird von dem vielleicht wichtigsten und harmlosesten Molekül, das uns die Natur auf Erden geschenkt hat, dem Kohlenstoffdioxid Molekül (siehe CO2Coalitionund Jay Lehr).

Statt dankbar zu sein für dieses Geschenk, das uns erst ein Leben dieser Form auf unserem Planeten ermöglicht, haben einige Leute entschieden das CO2zu dämonisieren, offensichtlich aus politischen Gründen. Nahezu die Hälfte der Menschen, die in Industrieländern leben, glauben in der Zwischenzeit an das Narrativ eines gefährdeten Planeten und fordern ein verändertes Wirtschafts- und Gesellschaftssystem sowie das Abschalten der preiswerten Energie, die erst unseren heutigen Lebensstandard, nach dem sich so viele Menschen aus den Entwicklungsländern sehnen, ermöglicht hat.

Aber der behauptete starke Einfluss von CO2auf unser Klima mit seinen Folgen einer dramatischen Temperaturerhöhung und einem nie dagewesenen Meeresspiegelanstieg, wie dies vom IPCC regelmäßig verbreitet wird, hat bei einer wachsenden Zahl von Wissenschaftlern und Klimaexperten zu großen Zweifeln an den Darstellungen des IPCC geführt. Die meisten Wissenschaftler zweifeln nicht einen anthropogen verursachten Treibhauseffekt an, wohl aber dessen Größe und dessen dramatischen Einfluss auf unser Klima.

Es wäre eine unverantwortliche Umwelt- und Klimapolitik, weiterhin seriöse, begutachtete wissenschaftliche Publikationen zu ignorieren, die einen deutlich kleineren menschlichen Einfluss auf das Klima aufzeigen als bisher angenommen, und gleichzeitig eine gut funktionierende konventionelle Energieversorgung herunterzufahren ohne einen adäquaten Ersatz. Unsere Wirtschaft und Lebensqualität hängen empfindlich von einer verlässlichen, ausreichenden und erschwinglichen Energieversorgung ab. Die kann nicht durch Millionen von Windrädern, die unsere Natur zerstör­en und Billi­onen von Vögeln und Insekten schreddern, ersetzt werden.

Weitere aktuelle Referenzen

Gau im Illusionsreaktor (4): Energie lässt sich nicht wendenvon Manfred Haferburg,

Gau im Illusionsreaktor (5) – Schlechter als Uruguayvon Manfred Haferburg,

Woher kommt der Strom? 44. Woche – vom Schönrechnenvon Rüdiger Stobbe

HGÜ A – Nord: Die Windstromverbindung von Emden bis nach Philippsburgvon Bernd Kehrmann,

Furcht, Hass, Intoleranz – und Schlimmeresvon Paul Driessen und

Analyse: Null Kohlenstoff bis 2050 ist unmöglich, Heartland Institut,

 

Schlussbemerkung

Es ist schockierend, was sich im Vorfeld zu der geplanten 13. Internatio­nalen Klima- und Energiekonferenz von EIKE ereignet hat (siehe Links-grüne „Umweltschützer“ schicken Mob auf die Straße, die erpresst Hotelleitung). In dem Beitrag von Paul Driessen (siehe oben) wird auf die vielfältigen Einschränkungen und Behinderungen hingewiesen, die auch ich z.T. selber erfahren musste und denen heute Kritiker an einer Anthropogen verursachten Globalen Erwärmung (AGW) ausgesetzt sind, dies sowohl in der freien Meinungsäußerung, in der Forschung, im Publikationswesen oder der Durchführung von Wissenschaftlichen Veranstaltungen wie der geplanten EIKE-Tagung.

All das hat sich längst verabschiedet von einer sachlichen Auseinandersetzung von Pro und Contra zum Menschen gemachten Klimawandel, stattdessen wird dieses Thema dominiert von uninformierten aber indoktrinierten, und teils bezahlten Demonstranten sowie einigen wortge­wal­tigen Anführern, die sich mit den tieferen Ursachen von Klimaveränderungen nie befasst haben und dies auch nie wollen, aber allzu gern die AGW-Hypothese für die Rechtfertigung ihrer eigenen Ideologie heranziehen.

Es wird höchste Zeit, dass sich auch die Kritiker an der aktuellen Umwelt- und Energiepolitik sachlich, aber bestimmt zu Wort melden und nicht den Ideologen kampflos das Feld überlassen. Es kann nicht sein, dass eine Bildungsveranstaltung, wie die von EIKE geplante Tagung das Opfer einiger Umweltaktivisten wird und so unsere Versammlungs- und Meinungsfreiheit infrage gestellt wird. Voraussetzung ist aber einerseits, dass sich Realisten und Skeptiker nicht gegenseitig diffamieren, wie das leider immer wieder in Klimaforen festzustellen ist (z. B. im Streit um den 2. Hauptsatz) und dass wir uns nicht ideologisieren lassen, sondern auf Fakten, Beobachtungen und gesicherte Erkenntnisse stützen können. Hierzu tragen Blogs wie dieser, wie Kalte Sonne, Notrickszoneoder Achgutbei und hoffentlich auch der vorstehende Artikel.

Eine adäquate Antwort auf die Aktionen des Redakteurs Paul Gäbler vom Berliner Tagesspiegel, auf die Pöbeleien der „Umweltschützer“ (Antifa) und den Rauswurf durch das NH-Congress Center wäre wahrscheinlich nur eine bundesweit organisierte Demonstration für Meinungsfreiheit vor der Redaktion des Tagesspiegels und dem Sitz des Umweltinstituts München. Aber leider fehlt den eher nüchterner und besonnener auftretenden Kritikern der AGW-Hypothese wohl die finanzielle wie auch mediale Unterstützung, wie sie etwa Extinction Rebellion zuteil wird.

 




Trotz Netz-Chaos laufend Rekordmeldungen – die Erneuerbaren-Gaukelei

Doch je mehr Strom mittels Wind- und Sonnenkraft erzeugt werden wird, desto kritischer wird es werden mit der Versorgungssicherheit. Denn die von mir so genannte Netzausregelungsreserve, die nicht nur aus der im Vorfeld kalkulierten und eingekauften Regelenergie besteht, sondern auch aus Kohlekraftwerken, die dann, wenn erneuerbar erzeugter Strom wegbricht, aus einem Bereitschaftsmodus Strom erzeugen, der, wenn er für die Versorgung  Deutschlands benötigt wird, in das Netz eingespeist, oder – bei Nichtbedarf in Deutschland – ins benachbarte Ausland verkauft wird. Dahinter verbirgt sich auch ein spekulatives Moment. Wichtig: Das Kraftwerks- und Netzmanagement ist insgesamt ein höchst komplex-komplizierter Vorgang, der hier von mir nur ansatzweise und vor allem in seinen Auswirkungen abgehandelt werden kann.

Jetzt, zum Herbst, zum Winter, ist der tägliche Strombedarf hoch. Es kommt immer wieder – Paradebeispiel 42. Woche – zu erheblichen Einbrüchen der Wind- und Sonnenstromerzeugung. Nun müssen die auf „Reserve“ laufenden thermischen Kraftwerke einspringen. Manchmal reicht aber auch das nicht aus. Dann wird Strom aus dem benachbarten Ausland importiert. Bei entsprechenden Kosten. Wie wir unten sehen werden. Am 14., 15. und 17. Oktober 2019.

Die Detailzahlen der 42. Woche in der Tabelle und der daraus generierte Chart. Wie immer mit den Werten des Fraunhofer ISE.

Die Tagesanalysen

Sonntag, 13.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 59,68 Prozent

Der heutige Sonntag ist von einer durchgängig mehr als ausreichenden Stromübererzeugung gekennzeichnet. Mit der Folge, dass der Export-Strompreis bis auf zwei Ausnahmen (00:00 und 18:00 Uhr) die 30.000 Euro Marke pro GWh nicht erreichte. Weil nach Sonnenuntergang die über Tag angestiegene Windstromerzeugung die untergehende Sonne strommäßig ausgeglichen hat, fiel der Preis ab 19:00 Uhr noch mal stark. Um 23:00 Uhr wurden – wie bereits um 14:00 Uhr – lediglich unter 5.000 Euro pro GWh erzielt.

Montag, 14.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 43,71 Prozent

Zum Sonnenaufgang hin nahm die Windstromerzeugung stark ab. Es entstand von 6:00 bis 9:00 Uhr eine Versorgungslücke – Regelenergie hin, (auch spekulative) Kraftwerksreserve her – die durch Importstrom, vor allem aus Dänemark, aus Frankreich und der Schweiz, geschlossen werden musste. Die Länder lassen sich das gut bezahlen.

Dienstag, 15.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 34,93 Prozent

Zum Glück zog die Windstromerzeugung ab 18:00 Uhr wieder an. Sonst wäre es in der Nacht zum Mittwoch recht eng geworden. So tat sich nur zwischen 16:00 und 21:30 Uhr eine recht ordentliche Versorgungslücke auf. Etwa 20 GWh fehlender Strom musste zugekauft werden. Preis: Bis zu 67.000 € pro GWh um 19:00 Uhr für 4,569 GWh.

Mittwoch, 16.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 44,16 Prozent

Der „ruhigste“ Tag der Woche.  Es gibt sogar Zeiträume, in denen Strom zu auskömmlichen Preisen exportiert werden kann.

Donnerstag, 17.10.2019: Anteil Erneuerbare an Gesamtstromerzeugung 38,82 Prozent

Nach Sonnenuntergang tut sich eine Lücke bei der Bedarfsdeckung auf. Die Schweiz hilft aus. Sie verkauft Deutschland einen Teil der Strommenge zu Preisen von weit über 50.000 €, welchen sie genau diesem Deutschland in den Stunden zuvor um einiges günstiger abgenommen hat. So, wie die Schweiz es auch wieder ab 21:00 Uhr tut.

Freitag, 18.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 50,32 Prozent

Im Verlauf des Freitags – ab 8:00 Uhr – zieht die Windstromerzeugung an. Die Sonne scheint ziemlich schwach. Überschüssiger Strom muss dennoch zu recht günstigen Preisen abgegeben werden.

Samstag, 19.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 50,74 Prozent

Wochenende. Das bedeutet verhältnismäßig wenig Strombedarf in Deutschland. Nur am Sonntag ist er noch geringer. Im Herbst, im Winter aber immer über 1 TWh pro Tag. Auch am Wochenende. Die in Deutschland erzeugte Strommenge ist mehr als ausreichend. Es wird durchgängig Strom exportiert. Sogar an der kritischen Schnittstelle 17:00 Uhr. Etwas später, um 19:00 Uhr, werden sogar 47.900 Euro pro GWh erzielt. Für immerhin 4,519 GWh. Ansonsten liegt der Exportpreis nahezu durchgängig unter 40.000 Euro pro GWh.

Rekordmeldungen sind Gaukelei

Der BDEW meldet einen neuen Rekord in Sachen Stromerzeugung mittels erneuerbarer Energieträger, (Abbildung 1 bitte unbedingt anklicken. Sie öffnen gleichzeitig alle Abbildungen und Mehr.) In den ersten 3 Quartalen 2019 wurden 183 TWh Strom aus Wind, Sonne, Biomasse und Wasserkraft gewonnen. Wenn man 3/4 des Primärenergiebedarfs Deutschlands, das sind 2.688 TWh zugrunde legt, machen die 183 TWh Strom aus Erneuerbaren insgesamt 6,39 Prozent aus. Das hört sich ganz anders als die jubilierend „Rekord“ genannten 42,9 Prozent an. Der Korrektheit ist es geschuldet, wenn erwähnt wird, dass neben der Stromerzeugung durch Erneuerbare weitere Teile des Primärenergiebedarfs erneuerbar erzeugt werden. Biomasse wird in erheblichem Umfang auch zwecks Energieerzeugung zum Heizen, zum Fahren usw. verwendet. Insgesamt betrug der Anteil der Erneuerbaren an der Primärenergie 2018 in Deutschland gut 14 Prozent. Wobei der Anteil von Wind- und Sonnenenergie lediglich 4,45 Prozent betrug (Abbildung 2). Auch wenn dieser Anteil im Jahr 2019 und später insgesamt auf über 5 Prozent, vielleicht sogar an die 6 Prozent steigen sollte, ist und bleibt das Ergebnis ernüchternd. Vor allem auch im Hinblick auf den finanziellen Aufwand, der dafür nötig war, ist und sein wird.

Energiewendefreunde in Politik und Medien gaukeln dem angesichts der höchst komplexen Materie praktisch ahnungslosen Bürger immer wieder vor, die Energiewende sei mit „Rekorden“ auf einem guten Weg. Eine Energiewende, die ja kein Selbstzweck ist, sondern anderen Ländern Vorbild sein soll, damit diese auch endlich in die Rettung der Welt einsteigen. Was die anderen Staaten ganz sicher nicht tun werden. Dafür sind die Kosten zu hoch, ist das Ergebnis der bisherigen Energiewende in Deutschland einfach viel zu schwach.

Weit weg von der ganz großen Bühne „Primärenergie Deutschland“ möchte ich auf ein aktuelles Detailproblem der Stromversorgung in Deutschland hinweisen. Die Netzentgelte müssen zum Teil dort gezahlt werden, wo sie anfallen. Bundesländer, zum Beispiel Brandenburg oder Schleswig-Holstein, mit vielen Windkraftanlagen werden benachteiligt. Die vielen Windkraftwerke müssen selbstverständlich an das allgemeine Stromnetz angeschlossen werden. Die entstehenden Kosten werden nicht auf die Netzentgelte deutschlandweit umgelegt, sondern auf das Netz des/der Netzbetreiber(s) des jeweiligen Bundeslandes, das Netz, welches die Gemeinde versorgt, das Netz, wo die Windkraftanlagen gebaut und angeschlossen wurden. Mit der Folge, dass die Stromkunden in diesem Bereich nicht nur die Windräder vor der Haustür haben, sondern oft auch noch die dadurch entstandenen Mehrkosten tragen müssen.

Den Anbieter gegebenfalls wechseln

Beispiel (Abbildung 3): Ein Haushalt in Neuruppin (Brandenburg) zahlt für 3.500 KWh Haushaltsstrom gemäß Vergleichsportal bei den Stadtwerken Neuruppin 1.149,48 Euro. Die 3.500 KWh Haushaltsstrom kosten bei den Münchener Stadtwerken 1.091,21 Euro. Das sind 9,5 Prozent weniger als in Neuruppin. Hinzu kommt, dass die Menschen in Neuruppin wesentlich weniger verdienen als in der bayerischen Landeshauptstadt. Das verschärft die Ungerechtigkeit noch mal. Selbstverständlich ist jedem – egal, ob in Neuruppin, München oder sonst wo – zu empfehlen, jedes (!) Jahr einen Stromvergleich zu fahren und den Anbieter gegebenfalls zu wechseln. Damit kann eine Menge Geld gespart werden.

Das ändert aber nichts an der Tatsache, dass die Menschen in den Ländern mit vielen Solar- und Windkraftanlagen in Sachen Energiewende durch Lärm, Flächenversiegelung und den höheren Preis doppelt belastet werden. Sie haben nicht nur die Windkraftanlagen mit allen Nachteilen vor der Haustür, sie bezahlen auch noch mehr für ihren Strom. Immerhin wird dieses Problem aktuell angegangen. Bis 2023 sollen die Netzentgelte schrittweise bundesweit vereinheitlicht worden sein (Abbildung 4).

Vergangene Woche habe ich über das klimapolitisch vollkommen unsinnige Abschalten des KKW Philippsburg 2 berichtet. In diesem Zusammenhang habe ich auch die geringe Ausbeute von Strom aus Wind- und Sonnenkraftanlagen in Baden-Württemberg erwähnt. Da bin ich einer statistischen Ungenauigkeit aufgesessen. In der Übersicht „Kraftwerke der allgemeinen Versorgung“ (Abbildung 5) sind unter dem Punkt „Sonstige erneuerbare Energieträger“ nicht Wind- und Sonnenkraftwerke, sondern nicht näher bezeichnete Energieträger wie vielleicht die Geothermie gemeint. Um die Angelegenheit wieder ins richtige Licht zu rücken, habe ich mir die Zahlen für Baden-Württemberg 2017 (Abbildung 6) angeschaut. Da macht die Windstromerzeugung 3,3  Prozent der Gesamtstromerzeugung Baden-Württembergs aus. Der Sonnenstromerzeugungsanteil liegt immerhin bei 8,2 Prozent. Macht mit 11,5 Prozent  insgesamt nur einen Bruchteil, konkret nicht mal die Hälfte des durchschnittlichen Anteils der bundesdeutschen Wind- und Sonnenstromerzeugung (Abbildung 7) aus.

Die Sache mit der „Windhöffigkeit“

Der geringe Ausbau insbesondere der Windkraftwerke hat Gründe. Zum einem ist es ganz sicher landschaftspolitisch nicht gewollt, die wenigen nahezu hundertprozent-windhöffigen (Windhöffigkeit meint die Eignung des Windes an einem Ort, ein Windrad anzutreiben) Gebiete wie zum Beispiel die Höhen des Schwarzwaldes oder der Schwäbischen Alb zu verunstalten, und damit Einbrüche im Tourismus zu riskieren. Zum anderen ist die Windhöffigkeit in Baden-Württemberg im Verhältnis zu den norddeutschen Bundesländern Niedersachsen, Brandenburg usw. insgesamt recht gering (Abbildung 8).

Hinzu kommt eine physikalische Besonderheit. In der Vergangenheit wurden Windkraftanlagen da gebaut, wo die Windhöffigkeit für Deutschland verhältnismäßig groß ist. Wenn denn nun aber zusätzliche Anlagen erstellt werden müssen, um z.B. den Wegfall des Stroms aus Kernkraftwerken – das sind bis Ende 2022 immerhin 76 TWh – auszugleichen, muss naturgemäß auch auf Standorte zurückgegriffen werden, wo der Wind nicht (so) ergiebig weht. Man könnte denken, dass z.B. 10 oder 20 Prozent weniger Wind auch nur 10, 20 Prozent weniger Stromerzeugung zur Folge hätten. Dem ist nicht so.

Die Windstromerzeugung steigt und sinkt mit der dritten Potenz der Windgeschwindigkeit. Was bedeutet, dass zum Beispiel 20 Prozent weniger Wind fast 50 Prozent weniger Strom erzeugen. Um den gleichen Stromertrag, wie am Referenzstandort (= 100 Prozent = beste Windhöffigkeit) zu erzielen, wäre dementsprechend eine Verdoppelung der installierten Leistung Windkraft notwendig. Wenn man die Windkarte Baden-Württembergs und die Brandenburgs (Abbildung 8) nebeneinander betrachtet, wird der Unterschied sichtbar. Um den gleichen Stromertrag zu erlangen, müsste – wenn man von den Höhen des Schwarzwaldes und der Schwäbischen Alb absieht – wesentlich mehr Windkraftleistung installiert werden, um den gleichen Ertrag wie in der Fläche Brandenburgs zu erzielen. Allein der Unterschied zwischen den hellgelben Bereichen = 3,4 m/s und den dunkelgelben Bereichen der Windkarte Brandenburg = 4 m/s beträgt 15 Prozent. Da braucht es dann bereits gut 60 Prozent mehr installierte Windkraftleistung, um mit 3,4 m/s die gleiche Strommenge zu generieren wie mit 4 m/s.

Die Windhöffigkeit spielt für die Stromausbeute und damit für die Wirtschaftlichkeit einer Windkraftanlage deshalb eine mehr als entscheidende Rolle. Deshalb werden in verhältnismäßig windschwachen Gebieten wie z.B. Baden-Württemberg und Bayern nur relativ wenige Windkraftwerke gebaut (werden). Im Zusammenhang mit der Windhöffigkeit möchte ich erwähnen, dass mich Gerald Pesch aus Raeren (Belgien) auf diesen wesentlichen Sachverhalt im Einzelnen aufmerksam gemacht hat. Von Gerald Pesch stammt auch das Berechnungsprogramm zur Windhöffigkeit und ihrer Auswirkung, welches Sie neben diversen Musterberechnungen unter Abbildung 8 ganz unten aufrufen können.

Im Übrigen bekomme ich viele, viele Zuschriften – sogar in Neuseeland wird die Kolumne gelesen – mit wertvollen Hinweisen und Fragen. Etliches fließt in meine Artikel ein. Vieles hilft, meine Kenntnisse zu erweitern. Vor allem aber beweist es, dass es noch eine große Anzahl Menschen gibt, die sich nicht ein X für ein U vormachen lassen. Vielen Dank dafür.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Es wurden die Zahlen 2017 – bisher 2015 – hinterlegt. Es gibt tatsächlich Länder mit wirklich wenig CO2-Ausstoß. Schauen Sie mal in den Tschad oder nach Mali. Das wären doch so richtige Paradiese für unsere FFF- und XR-Zeitgenossen. Zum interaktiven CO2-Rechner: Hier klicken.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt seit über 3 Jahren den Politikblog www.mediagnose.de.

Mit freundlicher Genehmigung des Autors. Zuerst erschienen bei der Achse des Guten.




Die Klimabewegung ist eine Religion*

Sein Buch «Apocalypse Never – why environmental Alarmism hurts us all» brachte im vergangenen Sommer eine kühle Brise in die aufgeheizte Klimadebatte, kühle Vernunft. Der amerikanische Wissenschaftspublizist Michael Shellenberger zeigt in seiner Analyse, die mittlerweile in siebzehn Sprachen vorliegt, anhand Dutzender von Beispielen, warum die Weltuntergangs-Warnungen der Klima-Aktivisten falsch sind, ja schädlich für Wirtschaft, Gesellschaft und Umwelt. Im Gespräch hier räumt er auf mit den überrissenen Erwartungen an erneuerbare Energien wie Wind und Solar. Der 49-jährige Shellenberger zählt zu den renommiertesten Wissenschaftsautoren und ist auch in der Politikberatung in mehreren Ländern engagiert.

Weltwoche: Herr  Shellenberger, die USA kehren unter der Regierung Biden zurück zum Pariser Abkommen und versprechen, den Ausstoss ihrer Treibhausgase gemäss den Pariser Zielen zu reduzieren. Welchen Effekt erwarten Sie? Ist das gut für die Welt?

Michael Shellenberger: Der Effekt ist gleich null.  In den USA sind die CO2-Emissionen seit dem Jahr 2000 stärker  zurückgegangen als in jedem anderen Land der Welt. Verglichen mit 2005, beträgt der Rückgang jetzt 22 Prozent, das Pariser Ziel für die USA lag bei 17 Prozent. Es wurde also weit übertroffen. Und zwar aus Gründen, die nichts zu tun haben mit dem Pariser Abkommen.

Weltwoche: Aus welchen Gründen?

Shellenberger: Fracking und  Erdgas  sind entscheidende Stichworte. Erdgas verursacht etwa halb so viel CO2-Emissionen wie Kohle, und so bringt die seit längerem laufende Verlagerung weg von Kohle, hin zu Gas eine erhebliche Entlastung. Unter Trump erfolgte die Verlagerung ebenso schnell wie unter Obama, die Emissionen sanken sogar beschleunigt.

Weltwoche: Und was ist nun die Wirkung des Pariser Vertrags?

Shellenberger: Das Pariser Abkommen ist reine Public Relations.  Und mehr als das wird es auch nie sein, ein Beschäftigungs-Programm für Diplomaten.

Weltwoche: Dann sind die Bemühungen zur Stärkung des Pariser Prozesses auch für die ganze Welt eine reine  Zeitverschwendung?

Shellenberger: In gewisser Hinsicht ist es sogar schlimmer, weil dies der Idee Vorschub  leistet, es sei vor allem Sache der Bürokraten, über Energieangebote, -nutzung und Güterproduktion in den jeweiligen Ländern zu entscheiden.

Weltwoche: Aber der Staat hat bezüglich Umweltschutz und Energieverwendung doch bestimmte Aufgaben, oder nicht?

Shellenberger: Die weitaus wichtigste Grösse mit Blick auf die Energie ist deren Preis, denn dieser bestimmt das Wirtschaftswachstum. Umweltqualität wird verbessert durch effizientere Kraftwerke, Anlagen und Fahrzeuge, nicht durch Ankündigungen an Uno-Konferenzen.  Die Politik kann durchaus einen günstigen Einfluss ausüben. Die  US-Regierung etwa förderte die Fracking-Revolution, was zu billigem Erdgas und dadurch zu einem Ersatz der Kohleverbrennung sowie drastisch sinkenden CO2-Emissionen führte.

Weltwoche: Die Europäer sind aber nicht auf dieser Schiene.

Shellenberger: Nein, sie stehen zurzeit vor der  Frage ,  ob sie Erdgas  sowie    erneuerbare Energien  wie Solar und  Wind ausbauen oder  ob sie die Kernenergie stärken sollen.

Weltwoche: Für Kernenergie sieht es in Deutschland und der Schweiz schlecht aus.

Shellenberger: Da hat die Politik sie verbannt, aber in den Niederlanden, in Grossbritannien oder Frankreich laufen Debatten zu deren Ausbau. Ein Vergleich von Deutschland mit Frankreich ist höchst interessant: Pro Elektrizitätseinheit stösst Frankreich nur einen Zehntel der CO2-Emissionen von Deutschland aus, und der französische Strompreis ist halb so hoch. Deutschland hat zusätzlich Schwierigkeiten mit Solar und Wind. Windräder stossen auf viel lokalen Widerstand, und jüngste Meldungen über Zwangsarbeit in China weckten politischen Widerstand gegen den Import von Solarpanels.

Weltwoche: Gerade in Europa besteht aber der Eindruck, dass der ganze Uno-Apparat mit Klimaabkommen, Konferenzen, Weltklimarat und Klimaforschung doch eine Energiewende bewirkt.

Shellenberger: Er bringt PR, die den Druck erhöht, Kernkraftwerke abzuschalten, die wetterabhängigen erneuerbaren  Energieformen  auszubauen und den armen Ländern moderne Nahrungsmittelproduktion und Energiesysteme vorzuenthalten. Das sind die Auswirkungen auf die Welt.

Weltwoche: Es gibt also Gewinner und Verlierer. Wer sind die Gewinner?

Shellenberger: Gewinner sind die Chinesen, die  Solarpanels  produzieren, Schattenbanken wie Blackrock, die das finanzieren, sodann globale  Eliten, die ihr Statusbewusstsein und Überlegenheitsgefühl pflegen, und auch  junge Leute, die sich gegen Eltern, Institutionen und Vorgesetzte auflehnen.

Weltwoche: Und die Verlierer?

Shellenberger: Länder  aus Subsahara-Afrika, weil man sie daran hindert, moderne Energie- und  Ernährungssysteme zu erstellen. In geringerem Ausmass auch Südamerika und  Südasien. Die  Klimadebatte  schadet vor allem schwächeren Leuten und schwächeren Ländern.

Weltwoche: Wehren sich die Verlierer nicht?

Shellenberger: Es gibt Widerstand in unterschiedlichen Formen. Indien etwa setzt weiterhin stark auf Kohle und stellt daneben einfach ein paar Solarpanels auf, um europäische Diplomaten zufriedenzustellen und auch um der Jugend in Entwicklungsländern  das Gefühl zu geben, sie sei Teil der globalen Elite. Entwicklungsländern wäre mit Industrialisierung und verbesserter Organisation viel besser gedient, um der Armut zu entkommen und die Wälder zu schützen.

Weltwoche: Wann kam die ganze Umwelt- und Klimabewegung eigentlich in Gang? Der Erdgipfel in Rio 1992 war ein  Kick – aber woher kam dann die Dynamik?

Shellenberger: Nach meiner Einschätzung hat diese ganze apokalyptische  Klimadiskussion  so richtig an Bedeutung gewonnen, als die apokalyptische Nuklearwaffen-Diskussion auslief. Am Ende des Kalten Krieges fand eine Art Ablösung statt. Bereits die Nuklearwaffendebatte war ihrerseits ein Ersatz für frühere Apokalypsevorstellungen, damals zu Faschismus und Kommunismus. Hinzu kam, dass in den frühen neunziger Jahren auch die Angst vor  Überbevölkerung verblasste und Mainstream-Denker sich dem Klima zuwandten.

Weltwoche: Soll man denn überhaupt etwas unternehmen gegen die Erderwärmung?

Shellenberger: Ja, man muss immer versuchen, von technologisch schlechteren zu fortschrittlicheren Energieträgern zu gelangen: von Holz zu Kohle  und Wasserkraft, von da zu Erdgas  und schliesslich zu Kernenergie. Kernenergie und Erdgas haben grosse Vorteile punkto Verlässlichkeit und Umweltqualität, weit über die Klima-Aspekte hinaus.

Weltwoche: Was ist denn langfristig der erstrebenswerte Energiemix?

Shellenberger: Ich glaube, am  Schluss dieser Energietransformationen  werden wir praktisch zu hundert Prozent Kernkraft haben.  Mit jedem Schritt wird die Wirtschaft weniger Carbon-intensiv: von Kohle zu Erdgas zur Wasserstoffwirtschaft, getrieben durch Nuklearenergie.

Weltwoche: Findet die Kernenergie denn genug politische Unterstützung?

Shellenberger: Ich glaube, es wird eine Weile brauchen.  Das war auch bei Kohle der Fall. Nach der ersten Dampfmaschine  im frühen 18. Jahrhundert  dauerte es fast siebzig Jahre, bis James Watt mit seiner moderneren Dampfmaschine kam. Die Nukleartechnologie ist jetzt 75 Jahre alt, die Nutzung als Energiequelle knapp  sechzig Jahre. Kernenergie ist eine sehr anspruchsvolle Technologie, da ihr primärer Zweck ja die Waffe war.  Deshalb hat sie sich als Energiequelle vor allem über jene Länder verbreitet,  die auch die Atomwaffe besitzen. Dass Frankreich über so viel Kernkraft verfügt, hängt mit seiner Rolle als Atommacht zusammen.  Grossbritannien kann aus dem gleichen Grund ebenfalls gut mit Kernenergie umgehen. In Westeuropa sonst ist dagegen die Angst  davor grösser. Aber ich glaube, diese nimmt mit der Zeit ab.

Weltwoche: Sehen Sie auch bei den modernen Reaktortypen einen Zusammenhang zwischen Atommacht und Energienutzung?

Shellenberger: Das sehe ich so. Die verbindende Beziehung ist der Prozess der Kernspaltung, der zu beherrschen ist.

Weltwoche: Und ist diese Technologie wirklich zuverlässig genug kontrollierbar?

Shellenberger: Bis heute ist das ziemlich gut gelungen. Kernenergie breitet sich nur langsam von Land zu Land aus. Das ist gut so, denn jedes  Mal,  wenn ein neues Land dazukommt, ergeben sich Risiken, die am Anfang am grössten sind. Der gefährlichste Zeitpunkt für Nordkorea war vor einigen Jahren. In der Kernenergieproduktion gab es einzelne Unfälle wie Tschernobyl oder Fukushima, aber diese machten die Branche besser, weniger anfällig.

Weltwoche: Die Hauptkräfte der Umwelt- und Klimapolitik sehen das aber nicht als Lösung. Sie wollen eine radikale Umkehr im Energiekonsum und eine vollständige Abkehr von fossiler Energie bis 2050 oder früher, eine Art Vollbremsung. Sie sagen, die Wissenschaft zeige klar, dass man sofort handeln müsse, sonst sei es zu spät, und das Klimasystem kippe. Es herrscht eine Alarmstimmung, die selbst lokale Parlamente dazu bringt, den Klimanotstand auszurufen.

Shellenberger: Da wird vieles miteinander vermischt. Meiner Ansicht nach ist die  Wissenschaft zum Klimawandel gut fundiert. Sie  besagt,  dass die Erde wärmer wird und dass menschengemachte Emissionen Erwärmung bewirken. Ich finde es  gut,  dass es  Meinungsunterschiede zur Frage gibt, wie gross der Anteil der Menschen daran ist. Nach meiner Einschätzung ist er ziemlich  bedeutend,  die Rolle der CO2-Emissionen bezüglich Treibhauseffekt ist nicht umstritten.

Weltwoche: Also ist der Alarm angebracht?

Shellenberger: Nein. Die Klimawissenschaftler versagen anderswo, nämlich bei der Antwort auf die Frage, welche Auswirkungen die höheren Temperaturen haben können. Die alarmistischen Warnungen vor katastrophalen Entwicklungen sind völlig abwegig. Wir sehen keine Zunahme der Häufigkeit von Wirbelstürmen, die damit verbundene Anzahl Todesfälle nimmt ab, die Kosten nehmen nicht zu.  Auch bei Trockenheit und Überschwemmungen gibt es keine Steigerungen. Die besten verfügbaren Schätzungen der Entwicklung von Wirbelstürmen im nächsten halben Jahrhundert in den USA  deuten darauf hin,  dass die Frequenz um 25 Prozent abnehmen und die Intensität um 5 Prozent zulegen wird. Fehlinformation  verbreiten Klimawissenschaftler also zu den Auswirkungen der Erwärmung, nicht zur Tatsache der Erwärmung. ›››

Weltwoche: Ohne dramatische Schilderungen von Auswirkungen lassen sich wohl die wissenschaftlichen Daten schlecht verkaufen.

Shellenberger: In meinem Buch «Apocalypse Never» versuche ich, genau zwischen diesen zwei Dingen zu trennen. Die  Erderwärmung ist Tatsache und grossenteils  menschengemacht, das ist das eine. Das andere aber betrifft die Auswirkungen der Erwärmung. Da ist Alarmismus fehl am Platz.

Weltwoche: Wäre es also billiger, die Folgen des Klimawandels zu parieren, als die Erwärmung zu bekämpfen?

Shellenberger: Es hängt davon ab, was Sie mit Bekämpfung der Erwärmung meinen. Wie ich vorhin sagte, haben die USA  ihre CO2-Emissionen mehr als jedes andere Land in der Menschheitsgeschichte innerhalb der letzten zwanzig Jahre verringert. Und in dieser Zeit wurden die USA als Klimabösewicht beschimpft.  Aber jetzt kommt der Clou: Das war mit keiner wirtschaftlichen  Einbusse verbunden – im Gegenteil: Der Erdgaspreis sank, und  das ersparte den Konsumenten Kosten von hundert Milliarden Dollar pro Jahr.  Es ist also noch dramatischer, als wenn man sagt, das eine verursache weniger Kosten als das andere:  Wir reduzierten  CO2-Emissionen,  indem wir saubere Energien billiger machten, also einen Gewinn realisierten.

Weltwoche: Das tönt wie ein Geheimrezept.

Shellenberger: Die einzigen Massnahmen, die wirklich wichtig sind, sind die Übergänge von Energieform zu Energieform: von Kohle zu Erdgas zu Nuklearenergie. Das ist das Zentrale am Ganzen und gar nicht kompliziert.

Weltwoche: Ist diese Lösung nicht allzu bequem, zu billig?

Shellenberger: Es gibt viele Lügen im Zusammenhang mit dem Klima, aber die allergrösste Lüge ist, dass die Bekämpfung des  Klimawandels  ökonomische  Opfer nötig mache.  Das ist nur dann wahr, wenn wir meinen, wir müssten zurückgehen in der Zeit, zurück zu den erneuerbaren  Energieformen.  Wenn wir aber vorwärtsgehen in Richtung Erdgas und Nuklearenergie, dann sind keine Opfer nötig, im Gegenteil, dann schafft man mehr Wohlstand.

Weltwoche: Aber viele würden jetzt einwenden, erneuerbare Energien seien etwas Gutes, denn diese seien näher bei der Natur und man beute die Vorräte nicht aus.

Shellenberger: Ja, genau so ist es. Und deshalb sage ich: Es handelt sich da um eine Religion. Die Bewegungen für erneuerbare Energien und Umwelt bilden eine Religion. Es sind biblische Argumente, die da vorgebracht werden: Wir Menschen lebten seinerzeit in einem harmonischen Zustand mit der Natur, wir verletzten dann die Natur, schadeten ihr, vergewaltigten sie mit  technischem Lernen und Wissen, mit fossilen und nuklearen Brennstoffen. Wir  fielen ab von der Natur, sind Gefallene, schuldig. Wir müssen deshalb aufhören, Fleisch zu  essen. Das ist ein zentraler Punkt in vielen Religionen:  kein Fleisch, kein Vergnügen,  nicht herumreisen,  sonst wird die Welt zugrunde gehen.  Wie es im Buch der  Offenbarungen  festgehalten ist: Die Apokalypse kommt.

Weltwoche: Moment, man kann doch sagen, das Warnen vor der Apokalypse soll Massnahmen zur Abwendung derselben bewirken.

Shellenberger: Ich glaube, der Zweck des  Alarmismus  ist einfach der  Alarmismus selber. Ziel ist nicht die Verringerung der CO2-Emissionen, denn dann würde man Erdgas und Nuklearenergie anvisieren. Die Klimainteressengruppen wollen jedoch Solar- und Windenergie. Warum? Einerseits,  weil man das in Harmonie mit der Natur sieht, und  anderseits,  weil sie  finden,  man müsse Opfer bringen.

Weltwoche: Es müssen Kosten anfallen?

Shellenberger: Ja, und zudem: Die nicht verlässlichen Energieformen brauchen mehr Kontrolle und autoritäre Strukturen. Nehmen Sie die Elektrizitätsnetze. Angebot und Nachfrage lassen sich am besten in Einklang bringen in Systemen mit einer kleinen Anzahl grosser Kraftwerke. Nimmt man nun die erneuerbaren Energien dazu, muss man enorm viele Ausrüstungen, Steuerungen, Beschäftigte und  staatliche  Instanzen hinzufügen. So kann man Kosten generieren und die Leute zum Zahlen zwingen.

Weltwoche: Welche Länder werden die schnellsten sein in der Entwicklung neuer Energieversorgungskombinationen?

Shellenberger: Die reichen, entwickelten Länder befinden sich in einer gewissen Führungskrise, auch die  Biden-Administration, deren  Klimapläne  widersprüchlich sind. Deutschland hat ebenfalls grosse Probleme mit dem Übergang. Die einfachste Antwort auf die Frage ist deshalb: China. Weil dessen Wirtschaft wächst, weil es zentralisiert ist – wobei allerdings die  Interessengruppen für Solar, für Nuklear und für  Kohle einander bekämpfen und die Kommunistische Partei  den Marktkräften wenig Raum gibt.

Weltwoche: Wie sehen Sie denn langfristig die Perspektiven für die Solarenergie? Sonnenlicht ist ja gratis, warum soll man das nicht voll nutzen?

Shellenberger: Jahrelang wurde  erzählt, dass Solarpanels billiger würden, weil das Nutzen von Sonnenlicht zur Erzeugung elektrischer Energie immer effizienter werde.  Solarpanels  sind nun aus drei Gründen billiger geworden: Erstens werden sie subventioniert von China,  zweitens  lässt die chinesische Regierung zu, dass die schmutzigste Form von Kohlenergie zu deren Produktion verwendet wird, drittens ist Zwangsarbeit im Spiel. Nicht technischer Fortschritt drückte den Preis. Und der Rohstoff  Silizium wird nun teurer.  Nach meiner Einschätzung wird Solarenergie immer ein schönes Nischenprodukt bleiben, geeignet für kleinere Anwendungen.

Weltwoche: Aber viele Länder machen ja die Solarenergie zu einem Pfeiler ihrer Versorgung.

Shellenberger: Ich glaube, wenn die Solar-Blase platzen wird, dann werden die Leute aus ihrer Trance erwachen und sehen: Es gibt keinen Weg zu einer von Solarkraft angetriebenen  Wirtschaft.

Weltwoche: Sehen Sie für den Fall, dass die Klimawelle abebben sollte, eine nächste grosse Strömung, die entstehen könnte? Was für eine?

Shellenberger: Im Moment sind es eigentlich zwei Religionen, zwei säkulare Religionen, welche die Szene prägen. Die eine dreht sich, wie gesagt, um Klima und Umwelt. Daneben hat sich eine andere Religion entwickelt, die von den Themen Identität, Rasse, biologisches und soziales Geschlecht und Ähnlichem besessen ist. Die zentrale Idee  ist da, dass bestimmte Menschen eine Opferrolle einnehmen und dass Opfer heilig sind. Ich werde diese neue Religion in meinem nächsten Buch aufgreifen.

Weltwoche: Funktioniert diese Strömung denn ähnlich wie die Umweltbewegung?

Shellenberger: Sie ist etwas anders gelagert, aber  beide Religionen sind sehr stark getrieben durch Eliten, die nach der Aufweichung der früher starken nationalen Identitäten neue zu schaffen  versuchen. Es geht um neue Gruppen, neue Stämme,  neue  Politiken,  moralisch aufgeladene Debatten über Opferrollen. Passt als Schwesternreligion  gut zur Klimabewegung.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : | Die Weltwoche, Nr. 22 (2021) | 03. Juni 2021 ;

EIKE dankt der Redaktion der WELTWOCHE und dem Autor  Beat Gygi sowie dem Interview-Gesprächspartner Michael Shellenberger(USA) für die Gestattung der ungekürzten Übernahme des Beitrages, wie schon bei früheren Beiträgen :  http://www.weltwoche.ch/ ; Hervorhebungen und Markierungen v.d. EIKE-Redaktion.

=================================================================

 




Ein Leuchtturm ohne Licht

Der „Prototype-Demonstrator“

Dieser Name wurde dem etwas flug-unwilligen elektrischen  Lufttaxi aus Bayern gegeben.

Man hätte diese Maschine nicht bauen müssen, um zu erkennen, dass sie nicht funktioniert.  Seit einem Jahrhundert entwickelt man Flugzeuge und Helikopter und weiß recht gut, wie Gewicht, Geschwindigkeit, Reichweite und Antrieb zusammenhängen. Man weiß auch, wie schwer Batterien sind und kann dann berechnen, wie weit so ein Lufttaxi bestenfalls fliegt. So etwas lernen Ingenieure im Studium. Die können auf Papier oder am Computer zeigen, dass so ein Insekt nicht lange in der Luft bleibt – wenn überhaupt.

Solcher Kritik wird oft mit der Formel begegnet:

„Fortschritt hat seinen Preis. Wären die Gebrüder Wright damals keine Risiken eingegangen, dann gäbe es heute keine Luftfahrt.“ Und: „Es hat schon immer völlig unverhoffte Erfindungen gegeben, die dann alle Bedenkenträger lügen straften. Vielleicht gibt es ja demnächst elektrische Speicher, die nur einen Bruchteil der heutigen Batterien wiegen.“

Mein Vorschlag: dann lasst uns mit dem Bau des Prototypen so lange warten, bis die Dinger erfunden sind.

Ein Leuchtturm auf der Ruhr

Nun zu einem Streich, wie aus Schilda, der Stadt der Schildbürger. Er zeichnet sich nicht durch seine Kosten aus, seine Unlogik aber ist rekordverdächtig. Tatsächlich hat er sich in Essen zugetragen, dort wo sich die Ruhr zwischen Schellenberger Wald und Fischlaken auf einen halben Kilometer zu einem richtigen See verbreitert, dem Baldeneysee. Wie auf jedem richtigen See gibt es auch dort eine Fähre. So weit, so gut.

Nun muss man wissen, dass die Stadt Essen am 21. Januar 2017 zu „Europe’s Green Capital“ gekürt wurde und dass besagte Fähre, wie die meisten Schiffe dieser Welt, von einem bösen Dieselmotor angetrieben wird. Der musste jetzt weg.

Man baute also einen Elektromotor ein, der seinen Strom aus Brennstoffzellen an Bord beziehen sollte. Brennstoffzellen, das sind diese Vorrichtungen, in denen bei einer chemischen Reaktion – typischerweise von Wasserstoff (H2) mit Sauerstoff (O2) – Elektrizität gewonnen wird.

Im August 2017 war das Schiff umgerüstet und wurde feierlich auf den neuen Namen MS Innogy getauft; mit viel Prominenz und Zeremoniell wurde das neue Zeitalter des Fährverkehrs eingeläutet. Die obligatorischen grünen Testbausteine durften bei den feierlichen Ansprachen nicht fehlen, darunter die Bezeichnung „Leuchtturmprojekt“.

Die Fähre erfreute sich großer Beliebtheit beim Publikum; sie verbreitete weder Rauch noch Lärm und übertraf alle Erwartungen. 2021 aber war die Fähre wieder auf den alten Diesel umgestellt, der Leuchtturm machte sein Licht aus. Dieser Akt allerdings spielte sich ohne Prominenz und Zeremoniell ab.

Was war geschehen?

Der gute alte Adam Riese

Um das zu verstehen müssen wir in die Technik einsteigen. Das wird langwierig und kompliziert, aber genau daran ist die Sache auch gescheitert. Bleiben Sie also dran.

Da war also dieser Elektromotor, der die Schraube der Fähre antreibt. Seinen Strom bekam er aus sieben Brennstoffzellen, von denen jede fünf Kilowatt lieferte. Man hatte also 7 x 5 = 35 kW um den Motor zu speisen. Der konnte dann auch nicht mehr leisten als 35 kW oder rund 50 PS.

Das Schiff hat eine Länge von 29 Metern und kann bis zu 200 Personen an Bord nehmen. Ich weiß nicht, welches Auto Sie fahren, lieber Leser, aber ich vermute, es hat mehr als 50 PS, ist aber keine 29 m lang. Irgendwie passen Leistung und Dimension bei der Fähre nicht ganz zusammen, auch wenn die nicht so flott unterwegs ist, wie Sie in Ihrem Flitzer. Eine Fähre, auf der ich kürzlich war, hatte sechs Passagiere an Bord, drei Mann Besatzung und mindestens 200 PS. Damit ging’s über den Sambesi.

Auf  der Innogy waren dann auch noch Batterien mit insgesamt 100 kWh Kapazität installiert, die mithalfen, wenn die Brennstoffzellen alleine es nicht schafften. Falls die aus Blei waren, dann brachten sie immerhin ein paar Tonnen Gewicht mit an Bord. Und weiterhin an Bord war der böse alte 250 PS Schiffsdiesel von Volvo.

Ich kann mich des Eindrucks nicht erwehren, dass die umweltfreundlichen Brennstoffzellen nur ein modisches grünes Accessoire waren, das davon ablenken sollte, dass der Antrieb tatsächlich von Batterien kam, die nachts an der Steckdose aufgeladen wurden, bzw. vom Diesel, der einsprang, wenn die Akkus leer waren.

Der Holzgeist schiebt an

Die Brennstoffzellen wurden übrigens mit Methanol betrieben. Sie fragen jetzt, was der alte „Holzgeist“, in einer Brennstoffzelle zu suchen hat, die läuft doch mit Wasser- und Sauerstoff. Ja, aber die funktioniert auch mit Methanol, das mit dem Sauerstoff der Luft reagiert, wobei Wasser und CO2 entstehen – und eben auch elektrischer Strom.

Und wieder protestieren Sie jetzt, denn wenn da CO2 entsteht, dann ist das Ganze doch nicht grün! Dann könnte man doch gleich den Diesel anwerfen. Ihr Einwand beantwortet sich, wenn wir uns die Herstellung des Methanols anschauen. Das wird in einer chemischen Reaktion zwischen Wasserstoff und CO2 erzeugt. Das besorgt eine kleine chemische Fabrik an der Anlegestelle.

Und wo soll der Wasserstoff herkommen? Der wird durch Elektrolyse gewonnen, wobei der Strom dafür aus der Steckdose kommt. Und woher kommt das CO2, das man für die Synthese des Methanols braucht? Das wird aus der Luft gewonnen. Für ein kg CO2 werden da rund 2000 kg Luft durch einen Filter gepresst. Und die Pumpen dafür? Die kriegen ihren Strom auch aus der Steckdose. Das CO2, das der Luft so entzogen wurde, kompensiert das CO2, welches später von der Brennstoffzelle ausgeschieden wird.

Kompliziert, aber Grün

Weil das Ganze so absurd ist zähle ich Ihnen noch einmal die einzelnen Schritte auf, wie der Strom in den Motor kommt:

– Das Netz beliefert die Steckdose einer kleinen Fabrik an Fluß mit mehr oder weniger grünem Strom.

– Durch Elektrolyse wird dort Wasserstoff (H2) erzeugt.

– Pumpen und Filter gewinnen das Spurengas CO2 aus der Luft, in der es mit o,o4%  vorkommt.

– Aus H2 und CO2 wird Methanol (H3COH) gemacht.

– Das Methanol geht per Kanister an Bord der Fähre.

– In den Brennstoffzellen an Bord wird aus Methanol und Luftsauerstoff der Strom für den Elektromotor erzeugt. Das CO2, das hier freigesetzt wird, wurde vorher der Luft entnommen. Dieser Trick also macht den Prozess „nachhaltig“.

Das sind viele Schritte, um aus Strom wieder Strom zu machen, und bei jedem Schritt geht etwas verloren. Wenn wir Glück haben, dann werden von einer Kilowattstunde aus der Steckdose letztlich 10% in den Motor gefüttert.

Gut gemeint ist bekanntlich das Gegenteil von gut. Die Produktion von Holzgeist hat dann nicht wie geplant hingehauen und man hat das Zeug aus Island importiert. Damit wurde aber in Essen kein CO2 mehr aus der Luft gesaugt und die ganze Rechnung stimmte nicht mehr. Man tröstete sich damit, dass sie Isländer das jetzt machten.

Damit wurde die Story aber auch für den hartgesottensten Grünen zu absurd und man warf das Handtuch. Die Fähre tuckert jetzt wieder mit dem alten Diesel und die Isländer können ihr Methanol selbst verbraten.

Das Gegenteil von gut

Nun, es wäre falsch bei einem misslungenen Projekt Schadenfreude zu zeigen. Ein gescheitertes Experiment ist prinzipiell mehr wert, als gar kein  Experiment. Immerhin wissen wir jetzt, dass es so nicht geht. Irgendwo aber hätte der gesunde Menschenverstand einsetzen müssen, und der hätte schon früh erkannt, dass das komplizierte Verfahren total unwirtschaftlich ist und keinerlei Einsparung an CO2 bringen würde.

In unserer postmodernen grünen Gesellschaft aber herrscht die Logik des Kindergartens: jeder Beitrag zählt, egal wie klein; auf die gute Absicht kommt es an, nicht auf das Ergebnis; Wirtschaftlichkeit spielt ohnehin keine Rolle.

Welches Ziel aber haben unsere Stakeholder bei diesem Leuchtturmprojekt tatsächlich verfolgt? Ich habe da eine Idee: Die einen wollten als umweltbewusste Entscheidungsträger im Rampenlicht stehen, die anderen wollten Geld aus der öffentlichen Hand. Beide haben ihr Ziel erreicht, und die Bürger, die das Spektakel finanzierten, haben dazu geklatscht.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Zu Tschernobyl in den deutschen Medien, hier speziell in der RNZ: „Vermute nicht Böswilligkeit, wenn Dummheit genügt“

Es soll Zeiten gegeben haben, in denen Redakteure so etwas wie Recherche betrieben, bevor sie ihr „Herzblut in einen Artikel verströmten“. Diese Zeiten sind längst vorbei, aus Kostengründen, aus Unkenntnis, aus Ideologie, aus Gehorsam dem Zeitgeist gegenüber oder eben aus Dummheit. Letzteres schlägt das berühmte Rasiermesser Hanlons vor. Lassen wir also Milde walten, und gehen wir von Dummheit der beiden Redakteure aus. Und haben wir ein wenig Mitgefühl, denn es ist angesichts des überdimensionalen Misthaufens von Falschinformationen über Kernkraftwerke und ihre Gefahren tatsächlich nicht ganz so einfach zu den Fakten vorzudringen.

Eines der seltenen Beispiele guten Journalismus bot die wohl unverdächtige ZEIT mit dem Artikel von Hartmut Wewetzer „Wie viele Opfer forderte Tschernobyl wirklich?“, ZEIT Online, 21. April 2011, zu finden unter https://www.zeit.de/wissen/2011-04/tschernobyl-gesundheitsfolgen-bericht. Der Link ist hier bewusst ausgeschrieben, denn einfach in Google mit Titel, Redakteur und Quelle in üblicher Weise suchen, führt ausnahmsweise nicht zum Erfolg. Zufall oder Opfer von zu viel Informationsmist? Schwer zu sagen. Dieser ZEIT-Artikel gibt jedenfalls ziemlich korrekt die Gesamtzahl der gesicherten Todesfälle infolge des Tschernobyl-Desasters von 24. April  1986 im gesamten betroffenen Bereich der verbreiteten radioaktiven Strahlung mit 62 (in Worten zwei-und-sechzig) an und erklärt zudem, woher die nicht nur in der RNZ immer wieder kolportierten Märchenzahlen stammen.

Zumindest auf den wissenschaftlichen Ausschuss der Vereinten Nationen zur Untersuchung der Auswirkungen der atomaren Strahlung UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) hätten die beiden RNZ-Redakteure anlässlich ihres Artikles kommen können. UNSCEAR beschäftigt überwiegend internationale Experten aus dem staatlichen Forschungsbereich, die als neutral und vertrauenswürdig gelten. Aber auch hier wieder milde Nachsicht, denn in der deutschen Öffentlichkeit ist diese wohl wichtigste Organisation der friedlichen Kernenergienutzung so gut wie unbekannt, die Medien ignorieren das UNSCEAR.

Vertrauenswürdig ist auch die Internationale Atomenergie-Organisation IAEA, zu deren Aufgaben die Förderung der friedlichen Nutzung der Kernenergie gehört. Ihre Hauptaufgabe ist die Überwachung kerntechnischer Anlagen. Die IAEA informiert aber auch über den Zustand und den Ausbau von Kernreaktoren, bringt Sicherheitsberichte heraus und veranstaltet wissenschaftlich-technische Konferenzen. Obwohl 2005 mit dem Friedensnobelpreis ausgezeichnet, begegnet man gelegentlich dem Vorwurf, die IAEA sei ein „Lobbyverein“. Belege für diese Behauptungen gibt es nicht. Der Lobbyvorwurf ist regelmäßig der letzte Notanker, wenn Argumente fehlen.

Um es kurz zu machen, liebe Leser(innen), Sie können selber in UNSCEAR und IAEA nachschauen und sich dabei etwas in Recherche üben, was in heutigen Fake-Zeiten wärmstens zu empfehlen ist. Im Wesentlichen bestätigen diese Organisationen die Zahlen des oben erwähnten ZEIT-Artikels. Wer noch Detaillierteres über die besonders interessanten Spätfolgen erfahren möchte, sei auf den Fachaufsatz von R. Michael Tuttle et al. [1] verwiesen.

Auch wenn es die neue Grün-Schwarze Regierung von Baden-Württemberg und alle Wähler, die in der Wahlkabine das Kreuzchen so gerne bei ihren eigenen Metzgern machen, partout nicht wahrhaben wollen: Kernenergie ist die mit Abstand sicherste Erzeugungsmethode für elektrischen Strom. Kann doch gar nicht stimmen, wer kommt denn auf so etwas Verrücktes, ist jetzt wohl zu vernehmen. Nun, es wird ganz einfach das wohlbekannte und bewährte Kriterium „Anzahl von Todesopfern pro erzeugte elektrische Energie mit einem bestimmten Verfahren“ angewendet. Ist ähnlich wie bei der Sicherheitsermittelung von Verkehrsträgern als „Anzahl von Todesopfern pro Flugzeug-Kilometern“ oder „Todesfälle pro gefahrenen Autokilometern“. Begreifen sogar Abiturienten in Baden-Württemberg seit Grün-Schwarz auch das Bildungsministerium verantwortet.

Zur Sicherheit bzw. Gefahr von Kernkraftwerken gibt es drei Studien, alle nach Tschernobyl, welches somit berücksichtigt wurde. Die beiden ältesten Studien wurden vor dem Fukushima-Unglück von 2011 erstellt (Fukushima hatte kein einziges Strahlungsopfer, es gab aber 16 000 Tsunami-Tote, die von den deutschen Medien durch geschickte Wortwahl als kernkraftverursacht suggeriert wurden). Die älteste Studie wurde 1998 vom Paul Scherrer Institut (PSI) veröffentlicht, dem staatlichen Schweizer Forschungsinstitut für Natur- und Ingenieurwissenschaften [2]. In einer Lancet-Publikation von 2007 wurden die Gesundheitsgefahren der elektrischen Stromerzeugung dann erneut untersucht [3]. Speziell für Deutschland gibt es schlussendlich eine Untersuchung der Universität Stuttgart [4] von 2013. Alle diese Untersuchungen kommen zu ähnlichen Ergebnissen, wie sie aus folgendem Bild anschaulich hervorgehen:

Bild: Todesfälle pro TWh erzeugten elektrischen Stroms. Der Anteil von Uran ist mit 0,05 Todesfällen pro TWh so klein, dass er in der Grafik nicht mehr erkennbar ist. Das Bild vom Autor erstellt aus den in Tabelle 2 der Lancet-Studie angegeben Daten.

Nun glauben Sie bloß nicht, dass der Spitzenplatz bei Kohle den Abgasen oder Staub aus Schornsteinen geschuldet ist. Heute sind moderne Filteranlagen so wirkungsvoll, dass die Luft an Rhein und Ruhr vielleicht von allem Möglichen, aber nicht mehr von Kohlekraftwerken belastet wird. Der deutsche Kohleausstieg ist daher hirnrissig, zumal China, Indien und Afrika ungerührt immer mehr Kohle verbrennen, aber das ist dann wieder eine andere Geschichte. Nein, es ist einfacher, denn der Abbau von Kohle erfolgt meist unter Tage, die Grubenunglücke machen es. Übrigens ist die Umweltenergie „Wasser“ auch nicht so ohne (Staudammbrüche) und auch die grünen Lieblingskinder (mittelalterliche Windmühlen in modern-schickem Design) haben es in sich, denn von diesen überdimensionalen Riesen heruntergefallene Monteure finden nicht den Weg in Zeitungen. Schwere Gesundheitsschäden von Windradanrainern durch Infraschall haben es ähnlich schwer in die Medien zu gelangen [7].

Man kann es drehen und wenden wie man will, Kernenergie ist die sicherste und zugleich umweltfreundlichste Form der elektrischen Stromerzeugung. Ihre Ablehnung durch die Grünen gibt nicht nur Aufschluss über deren „Technikkenntnisse“, sondern zeigt jedem Klarsichtigen, wozu diese Leute wirklich fähig sind, wenn sie einmal an der Macht sind. Wer mehr über Kernenergie, ihren weltweiten Anstieg und vieles Weitere drumherum erfahren möchte, in [5], [6] finden Sie es.

 

Quellen

[1] R. Michael Tuttle et al., Clinical presentation and clinical outcomes in Chernobyl-related paediatric thyroid cancers: what do we know now? What can we expect in the future?, Clinical Oncology 23 (2011) 268. Vgl. https://dx.doi.org/10.1016/j.clon.2011.01.178

[2] Severe accidents in the energy sector. Paul Scherrer Institut, Bericht Nr. 98, 16.11.1998.

[3] A. Markandya, A., Wilkinsen, P., 2007, Electricity generation and health. Lancet, 370.

[4] P. Preiss, P., Wissel, S., Fahl, U., Friedrich, R., Voß, A., et al., 2013. Die Risiken der Kernenergie in Deutschland im Vergleich mit Risiken anderer Stromerzeugungs-technologien, https://www.ier.uni-stuttgart.de/publikationen/arbeitsberichte/downloads/Arbeitsbericht_11.pdf.

[5]  Horst-Joachim Lüdecke: Energie und Klima. Chancen, Risiken, Mythen.
Expert-Verlag, Tübingen, 4. überarbeitete Auflage 2020, ISBN 978-3816934851
Mit einem Geleitwort von Arnold Vaatz MdB. Details, Besprechungen

[6] Götz Ruprecht und Horst-Joachim Lüdecke: Kernenergie: Der Weg in die Zukunft. Schriftenreihe des Europäischen Instituts für Klima und Energie Bd. 7., TvR Medienverlag, Jena 2018, ISBN 978-3-940431-65-3.

[7] https://eike.institute/2015/09/22/fakten-und-quellen-zu-windraedern/

 




Bergung von Atommüll aus Asse kostet 3 Milliarden Euro

So viel Fürsorge für die Leute in den Dörfern um die Asse, ist das gerechtfertigt? Wie kritisch sieht das die Zeitung? Gar nicht. Sie hält sich an den „Mainstream“ und berichtet im Rahmen des verordneten „politisch korrekten“ Weltbildes. Nicht nur auf dem Gebiet der Radioaktivität machen alle mit, die irgendwie abhängig sind: Politiker, Medien, Kirchen, Schulen.

Nach diesem Weltbild wurde Radioaktivität nur durch gewissenlose Menschen in die Welt gebracht, es war ein Verbrechen, das nie hätte geschehen dürfen. So stellte das z. B. im Jahr 2014 auf einer Tagung der Evangelischen Akademie Loccum ein Dr. Wilk dar. Die von der Kernindustrie erzeugten Abfälle wären ein ganz schlimmes Problem, sagte dort auch der evangelische Landesbischof Meister (2012): „Allerdings können wir Aussagen machen zu einer hochgiftigen Strahlung, die noch über viele hunderttausend Jahre so giftig sein wird, dass sie das Menschenleben und das Leben auf dieser Erde in ihrer Existenz bedroht.“

Ähnlich Frau Sylvia Kotting-Uhl. Sie hat mal Kunstgeschichte studiert und ist heute atompolitische Sprecherin der Grünen und Vorsitzende des Bundestags-Ausschusses für Umwelt, Naturschutz und nukleare Sicherheit. Sie sagte: „Er (der Atommüll) ist da und stellt für die heutige und zukünftige Gesellschaften eine existenzielle Bedrohung dar….. Dass wir als Grüne uns immer gegen den atomaren Irrsinn gewandt haben, enthebt uns nicht der Verantwortung, einen Weg zu finden, um die von dem Atommüll ausgehenden Gefahren möglichst gering zu halten.“

Was den „Irrsinn“ betrifft: Die übrige Welt wird eher Frau Kotting-Uhl für irrsinnig halten. Im Jahr 2020 haben 5 neue Kernkraftwerke mit der Stromerzeugung begonnen, 3 in China, eins in Weißrussland und eins in den Vereinigten Arabischen Emiraten. 52 Kernkraftwerke werden in verschiedenen Ländern zurzeit gebaut.

Auch in den Schulen wird ein zumindest unvollständiges Bild unserer Welt vermittelt. In Schulbüchern zur Geografie wird der Aufbau der Erde mit ihrem heißen Inneren dargestellt. Alles ist dort geschmolzen und dadurch entstehen Vulkane. Aber woher kommt die Hitze? Zur Hälfte durch die natürliche Radioaktivität der Erde. Das ist aber ein Tabuthema, so etwas darf ein Schulbuch nie schreiben. „Diese radioaktive Hölle im Erdinneren soll aber möglichst unerwähnt bleiben, damit die Einmaligkeit der Gefahr durch Atomkraft nicht geschmälert wird.“ (H. Hoffmann-Reinecke, Der ewige Meltdown).

Aus immer noch frei zugänglichen Quellen kann man sich aber informieren, welche geringe Bedeutung der Abfall der Kerntechnik wirklich hat. Anfang unseres Jahrtausends waren es etwa 2,8∙1022 Becquerel (Bq). Das wird mehr, aber man darf neuen Abfall nicht einfach dazu addieren. In 1.000 Jahren hat der derzeitige Abfall nur noch ein Hundertstel der heutigen Aktivität. 1022 Bq ist eine abstrakte Zahl (1 und 22 Nullen), das heißt, so viele radioaktive Umwandlungen mit Strahlung pro Sekunde. Wie verträgt sich das mit der Erde, wenn es in Endlager bis in 1 km Tiefe kommt? „Wir vergiften die Erde“, sagte einmal ein Grüner. Jedoch enthält alles Land bis in 1 km Tiefe natürliche Radioaktivität von etwa 4,4 ∙1023 Bq, also ungefähr 16mal so viel. Diese natürliche Radioaktivität ist ungleichmäßig verteilt, an manchen Orten ist man einer mehr als fünfmal höheren natürlichen Umgebungsstrahlung ausgesetzt als im Durchschnitt. Niemanden stört das, niemand zieht deshalb um. Zusätzliche Krankheiten werden dort nicht gefunden. Im Gegenteil, viele neuere wissenschaftliche Arbeiten zeigen, dass geringfügig erhöhte Strahlendosen eher gut für die Gesundheit sind. Sieht man die Erde als ein Ganzes, kann man den radioaktiven Abfall nicht als bedrohlich ansehen.

Noch klarer zeigt das die Unfallstatistik. Überall steht der hochradioaktive Abfall noch an der Erdoberfläche, was doch viel bedenklicher sein müsste als eine Unterbringung in großer Tiefe. Gefährlichkeit wird anhand von Todesfällen beurteilt, nicht anhand des Gefährdungspotentials. Ein Tiger oder Löwe kann jeden Tag einen Menschen töten, aber wie gefährlich sind diese Tiere im Zoo? Für das Personal besteht eine gewisse Gefahr, für das Publikum ist das Risiko Null.

Diesen Unterschied zwischen Risikopotential und tatsächlichem Risiko sollte man auch bei Radioaktivität machen. Nicht was könnte, sondern was ist wirklich passiert? Im Internet findet man eine Liste von Todesfällen durch Radioaktivität, nachgewiesene Fälle und vermutete mit dem Zusatz „Disputed“. Wie groß ist nun weltweit die Zahl der Opfer durch hochaktiven Abfall? Null. Aber erzeugen nicht geringste Strahlendosen Krebs, sogar nicht messbare? Das ist das Arbeitsgebiet von Scharlatanen. Wirkungen ohne ausreichende Ursachen gehören in das Gebiet des Aberglaubens. Dieser geht so weit, dass z. B. ein Herr Dr. Hagen Scherb behauptet, die bloße Anwesenheit von kerntechnischen Anlagen, ohne erhöhte Strahlung in ihrer Umgebung, bewirke bereits, dass Mädchen gar nicht erst geboren werden. In Deutschland und der Schweiz wäre der Verlust von 10.000 bis 20.000 Lebendgeburten bei Mädchen nachweisbar.

 

Bleibt man bei Tatsachen, muss festgestellt werden: Das Risiko der hochaktiven Abfälle ist Null.

 

Wie sieht es nun bei mittel- und schwachaktivem Abfall aus, wie er in der Asse liegt? Nicht so günstig. Da gab es Todesfälle in Estland, es starben ein Mensch und ein Hund. Mit dem Menschen braucht man nicht allzu viel Mitleid zu haben. Es war ein Metalldieb, der in ein ganz schlecht gesichertes Abfalllager einbrach, einen Maschendrahtzaun zerschnitt, Schlösser knackte und Warnschilder ignorierte. Aber das Schicksal des Hundes ist schon tragisch. Er musste wochenlang leiden, ehe er starb. So etwas darf nicht noch einmal vorkommen! Denken Sie immer an den Hund, wenn Sie von der Endlagerproblematik hören oder lesen!

 

Schwachaktive Abfälle, das sind hauptsächlich Filtermaterialien aus Kernkraftwerken. Radioaktivität gelangt ins Waser und in die Luft und muss da herausgefiltert werden. Gegenüber den hochaktiven Abfällen, hauptsächlich abgebrannten Brennelementen, ist die weltweit angefallene Aktivität gering: Aus Kernkraftwerken etwa 2∙1018 Bq, das ist nur ein winziger Bruchteil der Aktivität des hochaktiven Abfalls. In der Asse betrug die Aktivität 7,8∙1015 Bq im Jahr 1987, langlebig sind davon 2,5∙1013 Bq. Vergleicht man das mit der natürlichen Radioaktivität von normalem Gestein von 3∙1015 Bq/km³, dann heißt das: In der Asse liegt an radioaktiven Abfällen, bezogen auf die Aktivität, weniger als in einem Bereich von 1 x 1 km und 1 km Tiefe.

 

Die Rückholung „entlastet“ den Asse-Berg also nur ganz unwesentlich von seiner Radioaktivität. Aber das schreckliche, in der Natur nicht vorkommende Plutonium? Es ist sehr schwer in Wasser löslich. Verschluckt man es doch, ist es nicht gefährlicher als Radium, ein Bestandteil vieler Heilwässer. Nur Plutoniumstaub sollte man nicht einatmen, in Staubform ist Plutonium tatsächlich recht gefährlich. Aber wie soll man das machen?

 

Wie begründet man nun die 100 Millionen, welche die Asse jährlich kostet, und die geplanten 3 Milliarden für die Rückholung? Dazu schreiben T. Lautsch, B. Kallenbach-Herbert und S. Voigt, die Zuständigen in der BGE (Bundesgesellschaft für Endlagerung), in englischer Sprache, damit auch die übrige Welt diesen Unsinn erfährt:

Since the long-term safety required by nuclear law for the stored waste cannot be proven with the existing knowledge and uncertainties about the hydrogeological situation oft the Asse, it was decided in 2009 to recover the waste.

 

Nach den Planungen des früheren Betreibers (Helmholtz-Zentrum) wäre der sichere Abschluss der Asse längst erfolgt. Kein Hund käme jemals zu Schaden.

 

Hannover, den 07.03.2021




Experten: Bundesregierung irrt bei der Energiewende

Alles im grünen Bereich mit der Energiewende – betont regelmäßig das Bundeswirtschaftsministerium. Altmaier lässt regelmäßig einen »Monitoring-Bericht« zur Energiewende herausgeben. Der wiederum wird von einer vierköpfigen Energiewendeberater-Expertenkommission kommentiert. Die soll unabhängig sein, ist sie natürlich nicht. Vorsitzender der Expertenkommission ist der Wirtschaftswissenschaftler Andreas Löschel von der Universität Münster, begleitet von Veronika Grimm von der Universität Erlangen-Nürnberg, Barbara Lenz vom Deutsches Zentrum für Luft- und Raumfahrt und Frithjof Staiß vom Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden Württemberg. Ein Fachmann, der etwas von der Energieversorgung eines Industrielandes versteht, ist nicht dabei.

Deren Aufgabe: Deutlich zu machen, dass Deutschland in Sachen CO2-Reduzierung noch weit hinterherhinke. »Auf wissenschaftlicher Grundlage nimmt die Expertenkommission zu den Monitoring- und Fortschrittsberichten der Bundesregierung Stellung« heißt es. Das soll nach planvollem Vorgehen klingen, nicht nach Chaos, Scheitern und zusammenbrechender Stromversorgung, gar Blackout. So klingeln immer häufiger Worte wie »überprüft«, »verlässlich« und »planmäßig« durch den Bericht und seinen Kommentar.

Altmaier geht davon aus, dass sich der Stromverbrauch in den kommenden Jahren bis etwa 2030 nicht erhöhen werde. Die »Energiewende« werde klappen. Altmaier sieht einen »Erfolgskurs«: »Wir sind auf gutem Weg!«

Kann nicht sein, schreibt jetzt jene Expertenkommission und benutzt rote, gelbe und grüne Ampeln – wie bei der »Lebensmittelampel« (darfst Du, darfst Du nicht). »Deutschland« werde nicht die »Klimaziele« erreichen. Es gebe immer noch viel zu wenige Windräder und Photovoltaikanlagen.

Corona habe zwar bei den »Klimazielen« geholfen: »Die unvorhersehbaren, abrupten Veränderungen auf den Energiemärkten durch die Corona-Pandemie zusammen mit dem Anstieg der CO2-Preise seit Ende 2018 werden zahlenmäßig zwar wahrscheinlich zum Erreichen des Klimaziels 2020 führen, ohne dass damit aber die Energiewendeziele in allen Sektoren erfüllt werden.« Vor allem der Verkehrssektor aber lasse zu wünschen übrig. Sprich: Die Menschen fahren noch zu viel Auto und wenig Fahrrad.

Screenprint Quelle: Stellungnahme zum achten Monitoring-Bericht der Bundesregierung für die Berichtsjahre 2018 und 2019 (Seite 7)

Jetzt ließen die Experten in ihrem neuesten Bericht dazu einen kleinen Knaller los: Der Stromverbrauch Deutschlands steige. Das Ausland müsse helfen. »Die Expertenkommission teilt an diesem Punkt – unabhängig vom Klimaschutzziel – nicht die Auffassung der Bundesregierung, dass die Stromnachfrage konstant gehalten werden kann, weil Effizienzfortschritte durch erwartbare starke Wachstumstrends in den Bereichen Elektromobilität, Sektorenkopplung im Wärmemarkt, Industrie und durch den Markthochlauf im Bereich des grünen Wasserstoffs voraussichtlich überkompensiert werden. In der Summe ist eher davon auszugehen, dass der Strombedarf um etwa 10 Prozent ansteigen wird.«

Demnach habe sich die Bundesregierung bei ihrer Prognose für die künftige Stromentwicklung gewaltig verschätzt.

Jetzt sei zwar der Energieverbrauch auf den niedrigsten Stand seit fast 50 Jahren gefallen, so freut sich noch Altmaier. Die Kommission dahingegen glaubt, der Verbrauch an Elektrizität werde steigen, weil die Deutschen begeistert auf das Elektroauto umsteigen werden, mehr und mehr elektrisch betriebene Wärmepumpen die Häuser heizen und schließlich Deutschland auf die neue Wasserstoffwirtschaft umsteigen werde. Das alles koste Strom.

Ausgerechnet jener »Green Deal« werde »auch eine deutliche Steigerung der Stromnachfrage bedingen«, schreiben die Experten. »Allein durch das Erfordernis der klimaneutralen Produktion wird die direkte Nachfrage nach erneuerbarem Strombezug stark steigen. Dies gilt auch für die Substitution fossiler Brennstoffe durch Stromanwendungen wie elektrische Prozesswärmebereitstellung oder Wärmepumpen und ebenso für die im Green Deal formulierten Strategien für die Klimaneutralität der Grundstoffindustrie und den avisierten Einsatz von grünem Wasserstoff als Ausgangsprodukt für die Chemieindustrie, Raffinerien und eine neue Art der Stahlproduktion.«

Mehr Strom könne, so die Experten weiter, auf keinen Fall aus Kohle oder Kernkraftwerken kommen. Das würde den »Klimazielen« Deutschlands widersprechen.

Ein stärkerer Ausbau der erneuerbaren Energien wäre zielführend, erklären die Experten der Kommission. Sie glauben aber nicht, dass dies gelinge. Denn mehr Flächen werden nicht mehr für den Bau von Windanlagen freigegeben, die zudem immer weniger akzeptiert werden. Die Experten wörtlich: »Deshalb wäre hier über die Etablierung länderübergreifender Vorhaben auf europäischer Ebene nachzudenken.« Und weiter: »In der Elektrizitätswirtschaft müsste der Ersatz der entsprechenden Strommengen durch den Kohleausstieg über die Nutzung von Erdgas, einen stärkeren Ausbau der erneuerbaren Energien sowie ggf. über Stromimporte erfolgen.«

Im Klartext: Energie kommt aus dem Ausland. Windräder könne man im Ausland dorthin pflanzen, wo sich die Bevölkerung wenig dagegen wehrt. Außerdem könne sich dann zum Beispiel Griechenland oder Spanien die CO2-Zertifikate für den Strom aus Anlagen der Windindustrie im Herzen Griechenlands oder Spaniens positiv anrechnen lassen.

Für die Experten gilt es dann nur noch, die »Finanzierungs- und Fördermechanismen und insbesondere die Anrechenbarkeit der im Ausland getätigten Investitionen in erneuerbare Energieanlagen auf die nationale Zielsetzung einzelner Mitgliedstaaten« zu klären.

Die gigantischen Anlagen der Windindustrie sollen also die Landschaften in den Nachbarländern zerstören, damit das grüne Herz des deutschen Umweltökonomen rein bleibt.

Der Beitrag erschien zuerst bei TE hier

Anmerkung der Redaktion

Die Stromproduktion im nahen Ausland, also die Länder die für einen Import in Frage kommen, ist längst am Anschlag. Grund ist einmal mehr der kalte Winter, aber auch die Notwendigkeit – besonders in Frankreich – seine Kernkraftwerke zu warten. Das zeigt einmal mehr, dass Deutschlands Versorger nicht davon ausgehen können,

„dass wir schon irgendwie aus dem Ausland versorgt werden, sollte es bei uns nicht ausreichend Strom geben“

so der Geschäftsführer des Verbandes der Industriellen Energie- und Kraftwirtschaft, VIK Christian Seyfert.

Dies bestätigen auch Meldungen aus dem Ausland, z.B Wie aus Portugal gemeldet wird, will das Land bis November 2021 sein letztes Kohlekraftwerk stilllegen. Und der französische Netzbetreiber RTE warnt, dass Frankreich im Januar, Februar sowie Anfang März vor einem Stromengpass stehen werden, wenn die Temperaturen um 2 bis 7 Grad unter die Norm fallen.




Energiewende, große Transformation, Green Deal, Klimaschutz: Worum geht es da eigentlich?

Die Deutsche Bank (DB), noch nie mit Empathie für normale Zeitgenossen hervorgetreten, dafür aber stets mit ihren an die Mafia erinnernden Finanzgaukeleien beschäftigt, hat das Thema in einem eigenen Artikel behandelt. Er ist der Bezahlschranke wegen nur teilweise im Global Warming Policy Forum (GWPF) des Anthropologen und Sekretärs der GWPF Benny Peiser (hier) wiedergegeben. Der Artikel hat den Titel „EU Green Deal can only succeed with “a certain degree of eco-dictatorship”, kurz, ohne etwas Diktatur geht es nicht.

Der Artikel-Autor, Eric Heymann, ist leitender Ökonom bei der DB, in Neudeutsch „senior economist beim „Deutsche Bank Research“. Die folgende Beschreibung und der Kommentar des Autors beziehen sich auf die von Benny Peiser gekürzte Version. Der voll umfängliche Originaltext ist trotz angegebenem Link nicht erreichbar.

Ganz allgemein kritisiert Heymann die „unehrliche Debatte“, mit der die EU ihren „Green Deal“ verkaufen will. Er warnt vor dem zu erwartenden massiven Wohlstandsverlust der Bevölkerung infolge des „Green Deal“, vor den sich daraus ergebenden politischen Folgen und fragt „sind wir zu einer ehrlichen Diskussion bereit„? Wer mit „wir“ gemeint ist, wird dabei nicht ganz klar. Auf jeden Fall erscheint dieser Artikel für eine Bank untypisch, sind EU-Banken doch auf das Wohlwollen Brüssels angewiesen. Man fragt sich daher bei der Diskussions-Frage Heymanns: ist er etwa auf dem beruflichen Absprung, oder ist dieser, scharf die EU angehende Artikel tatsächlich mit seinem Arbeitgeber abgesprochen? Wir wissen es nicht.

Im ersten Absatz „A certain degree of eco-dictatorship will be necessary” wird geschildert, was die EU mit dem „Green Deal“ vorhat. Im Klartext: Die nochmalige Verteuerung von CO2-Erzeugung auf allen nur denkbaren Ebenen. Eric Heymann spricht es erstaunlich frei aus: Der von der EU in Gang gesetzte „Green Deal“ kann ohne eine gehörige Portion Diktatur nicht funktionieren. Zwar sei von einer neuen Wachstumsstrategie die Rede, aber diese würde der EU-Bevölkerung sehr viel abverlangen und ihren Lebensstandard erheblich verringern. Heymann hat Recht, Wachstum und gleichzeitig sinkender Lebensstandard, wie das denn? Meine Antwort im Kommentar weiter unten.

Im Absatz „Loss of competitivness or restrictions to free trade” geht Heymann dann ans Eingemachte. Niemand könne sich heraushalten, denn jeder für den “Klimaschutz” ausgegebene Euro sei für Bildung, Forschung, Gesundheit usw. verloren, also für uns alle. Heymann fragt schließlich ein wenig naiv „Sind wir willens, dies alles für Klimaschutz auszugeben“? Die Bevölkerungsmehrheit ist es sicher nicht, zumindest dann nicht, wenn man sie korrekt informieren würde.

In „Massive political resistance ahead“ wird Heymann ebenfalls deutlich und spekuliert über die politischen Folgen des „Green Deal“. Er deutet politischen Widerstand und Umbrüche der Parteienlandschaft an, wie wir sie heute bereits mit dem Erscheinen der AfD in Deutschland und ähnlichen Parteien in anderen Europäischen Ländern kennen. Hoffentlich werden seine Spekulationen wahr, werden sich jetzt manche Leser wünschen. Kann man es ihnen angesichts des „Green Deal“ des Wiedergängers der ehemaligen UdSSR als EUdSSR verdenken?

Der Kommentar des Autors zum Artikel von Eric Heymann:

Das durch den „Green Deal“ beschworene Wachstum wird von gleichzeitig sinkendem Lebensstandard begleitet? Was geht da schief? Ohne jetzt gleich Orwellsche Dialektik zu bemühen – Krieg ist Frieden, Schwäche ist Stärke, gut ist ungut usw., Sie kennen das ja sicher – denkt man eher an das erste physikalische Gesetz von Kirchhoff: Was in ein System hineinfließt, muss irgendwo auch wieder herauskommen – falls nichts im System verlorengeht oder verbleibt natürlich.

Mit Sicht auf dieses physikalische Gesetz entsteht die Frage, wo denn nun die Kohle landet, die der „Green Deal“ jedem von uns abknöpft. Ich ahne es schon, die Klugen unter Ihnen haben es wieder erraten. Natürlich bei den Profiteuren des „Green Deal“. Und zu denen gehört insbesondere der unersättliche sozialistische Staat. Zu dieser Art von sozialistischen Staaten sei es erlaubt, heute auch die EU und Merkel-Deutschland zu zählen.

„Unersättlich“, weil Sozialisten zwar wirtschaftlich komplett unfähig, dafür aber besonders begabt sind, das Geld anderer Leute auszugeben. Die entsprechenden Folgen in von Sozialisten regierten Volkswirtschaften kennt jeder, beste Beispiele bieten Kuba, Nordkorea, die DDR und Venezuela. Und natürlich ist zum „Green Deal“ ein wenig Diktatur unabdingbar, wie soll es denn anders anders gehen? Leider wird es bei „ein bisschen“ wohl nicht bleiben. Hier ist Eric Heymann kein Prophet, sondern nüchterner Beobachter. Nun aber zum Grundproblem. Was ist eigentlich passiert?

Die Großfinanz dieser Welt, aber auch die Wirtschaftspolitik westlicher Staaten sind wieder einmal an einem toten Punkt angekommen. Womit kann man noch Geld ohne große Anstrengung verdienen, und woher sollen gerne wiedergewählte Politiker ihre Wahlgeschenke noch hernehmen? Es geht nur mit steigender Produktivität, wobei die asiatischen Tiger gerade dabei sind den Westen zu überholen.

Gute Ideen sind immer schwerer zu finden. Es gibt diese Ideen zwar noch, sie werden aber immer schräger – wie beispielsweise Beispiel die von Elon Musk mit seinem Tesla. Niemand will zwar E-Autos kaufen, denn diese Dinger sind die technische Inkarnation von Nutzlosigkeit (Reichweite, Tankprobleme, woher soll der Strom kommen) und Umweltschädlichkeit (Batterien, Brandgefahr). Wenn man aber geschickt auf politischen Wellen reitet, kann es klappen. Die Aktien von Tesla haben Musk zum reichsten Bewohner unseres Planeten gemacht. Man muss jetzt nicht gleich an Wirecard denken, aber Tesla-Aktienbesitzer sollten vielleicht doch …, Pardon, als Aktien-Nichtversteher nehme ich das wieder zurück.

Nun zur optimalen Lösung des Produktionsproblems. Sie ist nichts Anderes als genial verpackter Betrug an der Bevölkerung, also Betrug an denen, von denen am meisten zu holen ist. Genauer gesagt, sind das Sie. Man vergrößert nicht mehr die Produktivität, weil man die dazu  notwendigen Grundlagen von Ausbildung bis Infrastruktur zugunsten von Wahlgeschenken hat verkommen lassen, sondern man verteilt um und zerstört noch konsequenter als es bisher schon geschah.

Zum Plan der Betrüger: Die Verantwortlichen, im Wesentlichen die Großfinanz und ihr riesiges, nicht sehr sympathisches Gefolge von Politik, Neppern, Schleppern und Bauerfängern haben sich drei einfache geniale Schritte einfallen lassen, die vor aller Augen offen ablaufen:

  1. Man erzeuge ausreichend Angst vor einem nicht existierenden Problem. Dieses ist aktuell der natürliche Klimawandel, den man nach erfolgreichem mittelalterlichen Vorbild (Hexenglaube) der Schuld des Menschen zuschreibt: Inseln versinken, wir werden alle an Überhitzung verbraten, die Meere versauern,… Sie kennen diesen Unsinn ja zur Genüge. Er funktioniert, denn die Natur tobt sich nun einmal oft in für uns Menschen katastrophalen Exzessen aus. Selber kennt die Natur keine Katastrophen. Infolgedessen läßt sich seit Bestehen der Menschheit jeder durch die Natur verursachte Schaden an uns durch unsere eigene Schuld erklären und wird, weil es am einfachsten klingt, gerne geglaubt.
  2. Man biete Erlösung von dieser Schuld an, die völliger Unsinn sein muss. Aktuell sind es CO2-Einsparungen. Warum Unsinn? Weil reale Lösungen gegen die oft schädlichen Folgen des natürlichen Klimawandels, wie beispielsweise höhere Deiche, auf Wirksamkeit und Kosten überprüft werden können. Reale Lösungen sind für den Betrug ungeeignet. Die Wirkung von CO2-Einsparung und der damit verbundenen geringen Erwärmung kennt dagegen niemand, vermutlich ist sie unbedeutend oder sogar positiv, wenn man das verstärkte Pflanzenwachstum bei mehr CO2 berücksichtigt. Etwas Besseres ist also kaum denkbar.
  3. Man überzeuge den maßgebenden Teil der Wähler, dass das Scheinproblem nur mit der angebotenen Unsinnslösung „Klimaschutz“, „Energiewende, „Green Deal“ etc. behoben werden kann und erstelle dann nur noch die Pipelines, welche das der Bevölkerung entwendete Geld in eigene Taschen fließen lässt.

Wer nun meint, so etwas sei angesichts des heutigen Bildungsstandes schwierig umzusetzen, wird schnell eines Besseren belehrt. Mit dem Argument „Naturschutz“ erzielt man die besten Erfolge bei dem Teil der Bevölkerung, der bekanntlich weniger mit gesundem Menschenverstand gesegnet ist. Er ist die Mehrheit. Hier muss nun doch an Dialektik erinnert werden, denn die Grünen, ehemalige Naturschützer, sind heute mit ihren Windrädern und Energiemaisfeldern zu den größten Naturzerstörern überhaupt geworden und zu roten Sozialisten zudem, ohne dass ihnen dies im Geringsten die Wählergunst vermasselt. Chapeau, das muss man erst einmal hinbekommen.

Dialektik funktioniert also! Natürlich will jeder Naturschutz, sicher besonders die Gutwilligen und nur schwer Begreifenden, welched den Betrug nicht erkennen. Der erstaunliche Erfolg der so einfachen Strategie ist also nachvollziehbar. Schwer Begreifende kommen mit produktiver Arbeit schlechter zurecht, weil diese Grips, Kenntnisse und jahrelange Anstrengung erfordert. Ideologische Einflüsterungen bieten leichtere Wege an.

Deutschland bildet dieses hier nur knapp umrissene Szenario mustergültig ab. Seit 1968 hat sich durch geschickte Grünpropaganda, durch aktives stetiges Absenken der Allgemeinbildung (Schulen und Medien) und mit dem Marsch durch die Institutionen ein ausreichender grüner Bodensatz für den „Green Deal“ gebildet. Es könnte nur problematisch werden, wenn dieser heute vermutlich meist öffentlich alimentierte Teil der Bevölkerung seine Bezüge durch den „Green Deal“ schwinden sieht.

Schließlich gilt immer noch gemäß dem schon erwähnten Physiker Kirchhoff – was dem Einem zugute kommt, muss dem Anderen weggenommen werden. Produktives Wachstum, wie von grünsozialistischen Phantasten erwartet, kann es mit dem „Green Deal“ nicht geben. Das ist so unmöglich wie den Berg hinauffließendes Wasser. Pure industrielle Zerstörung als Synonym für „Green Deal“ ist nicht mit steigender Produktivität zu verwechseln. Man wird diesen Trick dialektisch versuchen, aber die Folgen und deren Verständnis holen zuletzt auch die Dümmsten ein – nur ist es dann für alle zu spät.

Es kommt noch etwas dazu: Insbesondere den Gutgläubigen kann man mit Hilfe der staatsfügsamen Medien inzwischen alles erzählen. Die Auffassung, es sei richtig, was in den Zeitungen steht und was die Staatsmedien von sich geben, ist bis zur wieder einmal auftretenden Katastrophe unausrottbar. Es ist eine fatale Kette, die offenbar nicht enden will – Kaiserreich, national Sozialismus, DDR-Kommunismus und nun Ökosozialismus. Da inzwischen auch die Mehrheit der Akademiker zu den Zeitgenossen mit wenig selbständigem Denkvermögen gehören, darf nicht verwundern, dass gerade der akademische Bereich der grünen Verführung sperrangelweit offensteht. Diskutieren Sie doch mal mit einer grün gepolten Gymnasiallehrerin über Klimaschutz und Energiewende! Die immer wieder auftauchenden Plagiate, mit welchen sich Politiker beiden Geschlechts den Dr. -Titel betrügerisch aneignen wollten, sind Fußnoten, welche die hier angesprochene akademische Dekadenz bestätigen. Heute gehört Promotionsbetrug fast schon zum guten Ton auf dem politischen Parkett. Politiker, die dabei erwischt werden, denken nicht mehr daran zurückzutreten.

Es ist ein schwerwiegender Irrtum, Akademikern höhere praktische Intelligenz zuzuschreiben als den vorgeblich einfachen Leuten. Das genaue Gegenteil ist der Fall. Wer sein Brot hart verdient und den „Laden am Laufen hält“, dem braucht man nicht mehr mit dem Quatsch „Klimaschutz“ oder „Energiewende“ zu kommen. Falls davon profitiert wird, wie z.B. von Handwerkern, die Solarunsinn auf Dächer schrauben, geht es um schlichten Lebensunterhalt. Das ist in Ordnung. Man schraubt das Ding ordentlich aufs Dach und hält die Klappe, obschon man es meist besser weiß.

Die mit selbständigem Denkvermögen am miserabelsten versehenen Grün-Verführten sind zweifellos rot-grün gepolte Journalisten, die immer noch an die Verheißungen von Marx und an das Grünparadis ohne Gentechnik und Kernenergie glauben. Sie werden von den in den Radio- und TV-Gremien sitzenden Ideologen an die passenden Stellen lanciert und gehätschelt, solange sie pflichtgemäß den Medienkonsumenten täuschen. Schert einer aus, „hat er beruflich fertig“. Daher steht heute in den Medien die richtige Haltung, aber nicht mehr eine neutral-objektive Berichterstattung in Konjunktur.

Und so schließt sich der Kreis. Alle glauben allmählich den gleichen Ökounsinn, denn Wohlfühlkonsens ist eine Humankonstante. Daher ist es nicht mehr schwer, Fachleuten, die lediglich auf solider wissenschaftlicher Basis die Wahrheit berichten (zum Beispiel Thilo Sarrazin über die Folgen ungebremster Migration) auszugrenzen, Parteimitgliedschaften zu entziehen und schlussendlich als Nazis zu diffamieren. Deutschland ist hier freilich nur Nachahmer. In den USA erwischte es jetzt sogar einen US-Präsidenten, der das Spiel der Großfinanz nicht mitmachte (hier), (hier). Sein Nachfolger geht wieder an der Leine mit  erster Amtsankündigung über die Wiederbelebung des Klimabetrugs.

Es wird wohl noch eine Weile dauern, bis auch der Letzte begriffen hat, dass das, was alle glauben, in aller Regel falsch ist. So schreibt der Diplomat und Schriftsteller Jean Giraudoux (1882-1944): „Einen Irrtum erkennt man daran, dass alle Welt ihn teilt„. Ähnlich urteilt der Philosoph und Lyriker Paul Valery (1871-1945): „Was von allen akzeptiert wird, ist aller Wahrscheinlichkeit nach falsch„. Aber auch der deutsche Reichskanzler Otto von Bismarck (1815-1898) wusste über diese Zusammenhänge bestens Bescheid: „Es ist nichts schwerer als gegen Lügen vorzugehen, die die Leute glauben wollen„.

Zum Abschluss sei noch angemerkt, dass der „Green Deal“ inzwischen weiter fortgeschritten ist, als es sich viele vorstellen. Durch entsprechenden politischen und EU-gesetzlichen Druck sind heute Banken verpflichtet, Kredite vorrangig nur noch an Firmen zu vergeben, die „grün“ produzieren.

Damit kann jetzt nichts mehr schiefgehen – freuen wir uns also auf die „EU Orwell 2021“ und speziell hierzulande auf die wohl unvermeidbare DDR 2.0.




Hirnlos in die Zukunft?

Mit der Überschrift: „Ein Scheitern Chinas nutzt dem deutschen Maschinenbau“ faßte die FAZ vom 17. 12.2020 die Kernaussage einer neuen Studie zusammen, die gemeinsam von der Bertelsmann Stiftung und dem Fraunhofer Institut für System- und Innovationsforschung jüngst veröffentlicht wurde. Besonderes Interesse an dieser Studie habe der VDMA (Verband Deutscher Maschinen-und Anlagenbau), weswegen die Überschrift dieser Studie auch folgendermaßen lautet:

Was Chinas Industriepolitik für die deutsche Wirtschaft bedeutet. Szenarien für `Made in China` am Beispiel des deutschen Maschinenbaus.

Die Studie ist hier zu lesen. Ihre Aussage ist so simpel wie peinlich, was aber weder den Autoren, noch Politikern wie Friedrich Merz aufzufallen scheint, der sich die daraus folgende Strategie sogar schon zu eigen machte.

Der von der chinesichen Regierung 2015 vorgestellte Entwicklungsplan ließ von Anfang an keinen Zweifel daran, dass China vor hat, das Land zu einer führenden Industriemacht zu transformieren. Nach anfänglicher Bewunderung ob solch kühner Ziele, dominiert inzwischen längst die Angst in Deutschland, dass ausgerechnet die Filetstücke der deutschen Wirtschaft, darunter insbesondere der Maschinen-und Anlagenbau, dadurch in Gefahr geraten. Woher kommt diese Furcht?

Zunächst zur Aussage der Studie: Wie alle Studien dieser Art, befaßt sich auch diese mit verschiedenen möglichen Entwicklungswegen. Für den ersten Teil der Szenarien lautet die Fragestellung : Sollten Chinas Entwicklungspläne erfolgreich sein, welche Folgen hätte das für die deutsche Wirtschaft? Der zweite Teil dagegen befaßt sich mit einem eventuellen Scheitern dieser Pläne und den entsprechenden Folgen für die deutsche Wirtschaft.

Konzentriert man sich auf die jeweils extremen Varianten, dann hört sich das so an:

I. „In den Szenarien, die von einem vollen Erfolg der Strategie > Made in China 2025 < ausgehen, sei mit einem signifikanten Markteinbruch deutscher Maschinen-und Anlagenbauer bis ins Jahr 2030 zu rechnen ( Exportvolumen 2030: 13 Milliarden Euro gegenüber 18 Milliarden Euro in 2019).“ Hervorhebung im Original.

II. „Nur in den Szenarien, die von einem Scheitern der > Made in China 25 <-Strategie ausgehen, könne der deutsche Maschinen-und Anlagenbau mit einem langfristig starken Wachstum der Exporte nach China rechnen. So wären Entwicklungen möglich, die bis 2030 fast zu einer Verdopplung des Exportvolumens gegenüber dem Vergleichsjahr 2019 führen können ( 34 Milliarden Eurp gegenüber 18 Milliarden Euro in 2019).“ Hervorhebung im Original.

Der Analyse folgend, muß zwangsläufig der Schluß gezogen werden, dass eine erfolgreiche Entwicklung Chinas nicht im Interesse der deutschen Wirtschaft liegen kann, sondern nur ihr Scheitern.

Entsprechend sind die Empfehlungen der Bertelsmann-Stiftung: Europa müsse sich mit den USA zu einer konzertierten Anti-China-Strategie verbinden, in deren Folge man auch das Ziel verfolgen solle, wesentliche Komponenten des Maschinen- und Anlagenbaus mit der Klassifizierung „military use“ zu versehen, um damit die Forschungsaktivitäten Chinas erfolgreich einzudämmen zu können.

„Forschungskooperationen mit China seien also nur unter Vorbehalt möglich“.

Arrogant fordert die Studie eine „globale Abschottung“ Chinas zum Zweck der Eindämmung von Handel und Produktion. Es drängt sich geradezu folgende Frage auf: In welches Fahrwasser läßt sich die deutsche Industrie treiben? Hat das jahrzehntelange Bombardement mit grüner Ideologie uns derart um den Verstand gebracht, dass wir unsere industrielle Zukunft nur dann als gesichert sehen, wenn wir zum Scheitern anderer beitragen? Ist die eigene Bereitschaft zu Forschung und Entwicklung schon derart erlahmt, dass wir uns nur unter der Bedingung eine Zukunft vorstellen können, wenn wir die Forschungstätigkeit anderer erfolgreich ruinieren?

Peinliche Fragen tauchen auf, die darauf hindeuten, dass die eigene Politik dringend einer Analyse und Kehrtwende unterzogen werden muß. Denn es pfeiffen die Spatzen längst von den Dächern, dass die viel gepriesene soziale Marktwirtschaft außer auf dem Papier sowieso nicht mehr existiert und inzwischen einer veritablen, von der EU propagierten Planwirtschaft gewichen ist – stellvertretendes Beispiel ist die deutsche Energiewende.

Vielleicht wäre der VDMA besser beraten, die politischen Vorgaben der EU kritisch unter die Lupe zu nehmen, die unter dem Stichwort EU-Taxonomie im Rahmen des „Green Deal“ gerade eine diktatorische Investitionslenkung in unproduktive grüne Bereiche durchdrückten und uns Schlag um Schlag mit neuen Grenzwerten den wirtschaftlichen Spielraum vorschreiben. Wem diese ungeheuerlichen Ereignisse entgangen sind oder wer sich deren Folgen nicht vorstellen kann, der sei an die programmatischen Aussagen von Prof. Hans-Joachim Schellnhuber (Damals noch Vorsitzender des WBGU) erinnert, an denen bisher nicht gerüttelt wurde. Am 15.3.2017 sagte er zu den deutschen Plänen (im Unterschied zu denen Chinas aus dem Jahr 2015) in einem Interview der Deutschen Welle folgendes:

„…… Es ist ziemlich umwerfend – zum Beispiel bis 2030 müssen wir den Verbrennungsmotor auslaufen lassen. Und wir müssen den Einsatz von Kohle zur Stromerzeugung komplett ausschalten. Bis 2040 müssen wir wahrscheinlich
Beton und Stahl für den Bau durch Holz, Ton und Stein ersetzen….Und tun wir das nicht…. Es wäre das Ende der Welt, wie wir sie kennen, und ich habe alle Beweise….“

„Von was für Beweisen faselt der eigentlich“, denkt sich jeder aufmerksame Zuhörer dieses bodenlosen Unsinns. Es drängt sich beim Anhören zudem gleich die lustige Frage auf: Liegen wir eigentlich mit den Holzhütten im Zeitplan? Die deutsche mittelständische Industrie, die diesem intellektuellen Abstieg bisher so gut wie nichts entgegen setzte, ist gerade dabei, die Zukunft gänzlich zu verspielen.

Die Bertelsmann-Studie und zeigt einen Grad an Dummheit und Selbstzerstörung auf, der vor dem Hintergrund einer einstmals großartigen deutschen Industrietradition nicht mehr zu tolerieren ist. Unzählige Beiträge unserer Industriegeschichte waren vor allem deswegen herausragend, weil sie zur Vermehrung des Wissens und des Wohlstands in vielen Teilen der Welt beigetragen haben. Nicht zuletzt hatte daran der gute Ruf deutscher Industriegüter seinen Anteil.




Wie zuverlässig sind die ermittelten Globaltemperaturen der letzten 170 Jahre?

Jedes Messergebnis wird unter speziellen Messbedingungen erzielt. Diese sind möglichst konstant zu halten und stets anzugeben. Das Messresultat ist immer mit einer Messunsicherheit (Messabweichung, veraltet: Fehler) behaftet.

Die für Messungen verwendeten Messgeräte wurden im Laufe der Zeit immer genauer.
Problematisch war in der 2. Hälfte des 20. Jahrhunderts der Übergang von Analog-Anzeigen auf Digitalanzeigen. Die digitale Anzeige von Messergebnissen gaukelt oft dem ungeschulten Anwender eine Genauigkeit vor, die nicht vorhanden ist. Liegt beispielsweise die abgelesene Spannung von 12,62 V an den Messpunkten an, die wir ablesen? Oder fahren wir tatsächlich die 88 km/h, die uns der Digital-Tacho anzeigt? Nein, Messungen sind immer mit Messabweichungen behaftet. Im allgemeinen Sprachgebrauch wird für eine Messabweichung meist (noch) der Begriff Messfehler oder kurz Fehler verwendet. Jedoch empfehlt z.B. die DIN-Norm 1319, diesen Begriff durch den der
(Mess-)Abweichung zu ersetzen.

Abb 1:  Welcher Waage vertrauen wir mehr?  Analog oder Digital…
Bild links: Frank C. Müller, Personenwaage fcmCC BY-SA 4.0, Bild rechts: Digital-Personenwaage (Bild ohne Lizenz)

1.2.) Kalibrieren und Eichen
Kalibrieren bzw. Eichen (Eichamt) ist der Vergleich einer bezifferten Skala mit einem Normal. Jedes Messgerät (Messeinrichtung), das auf einem physikalischen Messprinzip beruht, muss an ein Sekundär- oder Primär-Normal mit geringerer Messunsicherheit gekoppelt sein. Kalibrierte bzw. geeichte Messgeräte sind somit mit geringeren Messunsicherheiten behaftet. Trotzdem sind Messungen mit diesen Geräten nicht fehlerfrei. Es verbleibt die Messunsicherheit des Gerätes und die Fehleranfälligkeit durch die messende Person.

Als Erkenntnis dieser Einleitung sollte erreicht werden, dass der Leser an fremde Messergebisse kritisch herangehen sollte. Informationen zu den Messgeräten, den Mess-Bedingungen, Anzahl der Messungen, u.s.w. sind unerlässlich. Deutlich ausgedrückt: Ohne Zusatzinformationen sind Messergebisse wertlos! Weitere Informationen in den nächsten Kapiteln. Diese grundlegenden Voraussetzungen werden in den folgenden Kapiteln auf die Zuverlässigkeit der Global-Temperatur-Daten angewendet.

2.) Art der Messabweichungen

2.1.) Zufällige Messabweichungen
Zufällige Messabweichungen entstehen aufgrund nicht beherrschbarer, nicht determinier- ter Einflüsse. Sie sind nicht vorausbestimmbar. Werden die Messungen am selben Messobjekt unter gleichen Bedingungen wiederholt, führen sie zur Streuung der Messwerte. Deshalb lassen sich diese zufälligen Messabweichungen sehr gut mit mathematisch statistischen Methoden ermitteln und eingrenzen. Diese Methode soll jedoch nicht innerhalb dieses Aufsatzes behandelt werden. Es gibt hierzu genügend gute Fachliteratur.

2.2.) Systematische Messabweichungen
Systematische Messabweichungen haben einen konstanten Betrag mit einem bestimmten Vorzeichen oder unterliegen nur einer sehr langsamen Veränderung aufgrund einer Ursache, die die Messgröße nur in eine Richtung verändert. Sie führen zu einer immer gleichen, zeitlich konstanten Differenz des Messwerts vom wahren Wert, d. h. zu einem „falschen“ Messergebnis. Systematische Messabweichungen sind durch Wiederholungen der Messungen unter gleichen Bedingungen nicht erkennbar!

3.) Temperatur-Messungen

Die Bestimmung der genauen Temperatur eines Systems ist trotz der alltäglichen Anwendungen keine triviale Sache – jedenfalls nicht, wenn man es genau nimmt. Im Gegenteil, die genaue Temperatur-Messung ist eine besondere Herausforderung. Eine Vielzahl von Unwägbarkeiten beeinflussen eine exakte Messung: Richtiges Thermometer für die jeweilige Anwendung, Genauigkeit des Thermometers, Sorgfältigkeit der Messung, äußere Einflüsse wie Licht oder Wärmestrahlung, u.s.w.. Einfach formuliert, die möglichen systematischen Fehler sind zahllos. Temperaturmessungen sind häufig falsch.

3.1.)  Definition der Temperaturmessung
Sämtliche Verfahren zur Bestimmung der Temperatur eines thermodynamischen Systems durch Vergleich mit einer Temperaturreferenz, z.B. dem Thermometer. Hierfür können im Prinzip jegliche physikalischen Größen (z.B. Länge, elektrischer WiderstandStrahlungsgrößen) oder chemischen Eigenschaften (z.B. Temperatur-Messfarben) verwendet werden, die sich mit der Temperatur gesetzmäßig ändern.

3.2.)  Arten von Thermometer
Die Zahl der unterschiedlichen Arten von Thermometern ist nahezu unüberschaubar. Prinzipiell wird unterschieden zwischen Berührungs-Thermometern und Thermometern, die auf berührungslosen Verfahren beruhen. Die Diskussion zu den unterschiedlichen Arten von Thermometern würde den Rahmen dieses Aufsatzes sprengen.

4.) Temperatur-Messung in der Meteorologie / Klimatologie

Inzwischen nähern wir uns der eigentlichen Fragestellung zur „Zuverlässigkeit der Temperatur-Messdaten der letzten 170 Jahre“. Betrachten wir die Fakten zur Ermittlung der mittleren Global-Temperaturen in diesem Zeitraum. Doch zunächst 2 entscheidende Begriffs-Definitionen.

4.1.)  Direkte Messung durch Thermometer
Viel Menschen haben schon eine meteorologische Mess-Station gesehen. Seit dem 17. Jahrhundert (England) werden weltweit regelmäßig verschiedene Parameter des Wetters gemessen. Insbesondere ab dem 19. Jahrhundert sind Mess-Stationen in vielen Ländern weit verbreitet. Hauptzweck ist es, die Daten-Grundlage für die lokale Wetter-Vorhersage zu erlangen. Nicht zu vergessen die Einsätze von Wetter-Ballonen oder Flugzeugen durch Meteorologen. Dadurch wird es möglich, auch Daten von unterschiedlichen Luftschichten der Atmosphäre zu erhalten.

Abb. 2:  DWD-Wetterwarte bei Weiden/Opf. (Bild: ohne Lizenz)

 

4.2.)  Indirekte Messung durch Proxy-Daten

Die meisten Leute werden sich bei der aktuellen Klimawandel-Diskussion fragen: Woher kommen eigentlich die Temperatur-Daten aus dem Mittelalter, aus dem Römischen Zeitalter, viele Jahrtausende oder 100 Tausende oder sogar Millionen Jahre zurück? Da gab es keine Thermometer bzw. gar keine Menschen! Wie ist das möglich?

Natürlich wurden die Temperaturen bei den Römern nicht direkt gemessen, sie hatten definitiv noch keine Thermometer. Hier sprechen die Forscher von so genannten Proxy-Daten. Das sind Temperatur-Daten, die durch indirekte Messungen erhalten werden. „Proxy-Daten“ ist ein Sammelbegriff für Informationen, die indirekt Auskunft über vergangene Klimaverhältnisse geben. Proxydaten erhalten wir aus Baumringen und Wachstumsringen in anderen Organismen (wie Korallen), Isotopenmessungen in Eisbohrkernen oder Sedimenten, oder biologische Proben wie etwa Pollenanalysen.

 5.) Zuverlässigkeit der Temperatur- Daten

 5.1.) Zuverlässigkeit der Proxy-Daten
Proxy-Daten werden grundsätzlich über längere Zeiträume der Erd-Vergangenheit ermittelt.Zum Beispiel bei Baumringen hunderte von Jahren oder Eisbohrkerne 10 Tausende von Jahren. Die große Stärke der Proxy-Daten-Ermittlung liegt in der in sich abgeschlossenen Methodik, der Konsistenz der Daten. Nehmen wir als Beispiel die zeitliche Abfolge der Schichten in Eisbohr-Kernen. Alle Proben werden an einer Stelle eines Gletschers bzw. eines Inlandeis-Panzers entnommen, gleich aufbereitet und mit derselben Methode gemessen. Vorausgesetzt, es werden keine groben Fehler gemacht, sind die Ergebnisse in sich konsistent und zuverlässig. Die besondere Stärke liegt in der guten Genauigkeit der relativen Änderungen innerhalb der jeweiligen Messreihen. Die Ermittlung der absoluten Temperatur im betrachteten Zeitraum ist kaum möglich.

5.2.) Zuverlässigkeit der direkt gemessenen Temperaturen seit 1850

Somit sind wir beim Hauptpunkt dieses Aufsatzes. Die gesamte Diskussion zum Thema „Klimawandel“ und „Erderwärmung“ basiert auf den Temperaturdaten der letzten 170 Jahre. Warum wird immer auf das Jahr 1850 referenziert? Der Zeitraum rund um das Jahr 1850 gilt als der Startpunkt der industriellen Revolution. Sozusagen der Beginn allen Übels bei vielen Protagonisten. Doch wie zuverlässig sind die weltweit direkt gemessenen Daten der letzten 170 Jahre? Das soll in den folgenden Kapiteln behandelt werden.

6.) Pseudo-Wissenschaft. „Gefahr“ durch Klima-Erwärmung.

Eine verbreitete Aussage bei den Physikern lautet „Wer viel misst, misst Mist“. Die Physik legt höchste Maßstäbe in die Ermittlung und Verarbeitung von Mess-Ergebnissen. Deshalb sind Physiker auch besonders kritisch, wenn sie Messungen in anderen Fachgebieten der Naturwissenschaft und Ingenieurs-Wissenschaften beurteilen.

 6.1.) Ivar Giaever bezeichnet die Klimawissenschaft als Pseudo-Wissenschaft.

Der hoch angesehene norwegisch amerikanische Physiker und Nobelpreis-Träger Ivar Giaever bezeichnete in dem viel beachteten Gast-Vortrag während des Nobelpreisträger-Treffens von 2012 in Lindau die Klimawissenschaft, basierend auf den seit 1850 ermittelten jährlichen Durchschnitts-Temperaturen der Erde, als Pseudo-Wissenschaft. Die Begründung ist nicht von der Hand zu weisen. Selbstverständlich verunglimpfen die „Klima-Alarmisten“ diese Position und versuchen die Argumente und Beweise von Giaever klein zu reden. Es sei betont, dass die nachfolgend beschriebenen Giaever-Kritikpunkte grundsätzlichen wissenschaftstheoretischen Prinzipien entsprechen. Andere Schlussfolgerungen wurden von ihm durch konsequent logische Denkweise erarbeitet.

Abb. 3:  Ivar Giaever, Physik-Nobelpreisträger und Klima-Kritiker  [1;2]. Bildlizenz: NTNU VitenskapsmuseetIvar Giæver, verkleinert von Dr. Andreas Karl, CC BY 2.0

 

Giaevers Hinweise und Kritikpunkte sind vielschichtig, gleichzeitig typisch für einen Physiker, der über den eigenen Tellerrand hinausschaut.

 6.2.) Ivar Giaevers Argumente und Beweise.

Außerordentlich bemerkenswert ist die Grundposition, mit der Giaever an die Thematik heran geht. Eigentlich interessierte ihn das Thema Klimawandel nicht. Er wurde gebeten dazu einen Gast-Vortrag in Lindau zu halten. Alleine diese Haltung, den Sachverhalt von außen als neutrale Person zu analysieren, spricht Giaever von Parteilichkeit frei. Er betrachtet die Fakten und Daten als kritischer Physiker, der sein gesamtes Wissenschaftler-Leben seine eigenen und fremde Mess-Ergebnisse bewerten musste. Sein Urteil ist vernichtend. Der Umgang und die Bewertung der gemessenen Temperaturen der Klimaforschung sei eindeutig eine Pseudowissenschaft.

6.1.1.) Grundsätzliche Kritik an der Genauigkeit

Giaevers Grundkritik besteht zunächst in der Angabe von zehntel Graden bei den Temperaturen zur Erderwärmung im Betrachtungs-Zeitraum. Eine angebliche Erwärmung von weniger als 1,5°C in 170 Jahren sei eine höchst erstaunliche Kontinuität des Klimas, völlig unabhängig von den Ursachen der Erwärmung. Die Temperatur-Angabe mit einer Auflösung von 0,1°C ist messtechnischer und physikalischer Unsinn.

Dazu ein treffendes Zitat des Mathematik-Genies Carl Friedrich Gauß: „Durch nichts zeigt sich mathematischer Unverstand deutlicher als durch ein Übermaß an Genauigkeit im Zahlenrechnen.“ Die Naturwissenschaft spricht bei der Verwendung von Messwerten von „Signifikanten Stellen“. Der korrekte Umgang mit Messwerten bezüglich der signifikanten Stellen wird sogar in der DIN 1333 beschrieben. Der Autor dieses Aufsatzes hatte in seinem Studium ein prägendes Erlebnis zu diesem Thema. Der damalige Physik-Professor kündigte im Vorfeld der Physik-Vordiplom-Klausur an: „Prüflinge, die den Rechenweg und das Ergebnis einer Aufgabe korrekt erarbeitet haben, jedoch das Ergebnis mit zu vielen signifikanten Stellen angeben, bekommen Punktabzug.

6.1.2.) Unterschiedliche Thermometer vor Ort und im Laufe der Zeit

Giaever kritisiert zu Recht, es sei mehr als naiv zu glauben, die auf der Welt verteilten Thermometer (Abb. 3) seien alle von gleicher Qualität und zeigen alle die korrekte Temperatur an. Dazu kommt die technische Entwicklung der letzten 170 Jahre. Selbst die optimistischste Phantasie reicht nicht aus zu glauben, all die weltweit über viele Jahrzehnte tausende Thermometer seien im Laufe der Zeit gleich genau und gleich zuverlässig gewesen.

Abb. 4: Thermometer (17. Jhdt.) und modernes Infrarot-Thermometer. Bildlizenzen: Links: Ferdinand II de‘ Medici [attr.] Museo GalileoTermometri cinquantigradi inv 85 IF 46774CC BY-SA 4.0. Rechts: Hedwig Storch1024 Pyrometer-8445CC BY-SA 3.0

 

6.1.3.) Ungleiche Verteilung der Thermometer auf der Erde

Alleine die Tatsache der ungleichmäßigen Verteilung der meteorologischen Mess-Stationen über die Erdoberfläche reicht aus, die Berechnung einer fiktiven Durchschnitts-Temperatur der Erde als unrealistisch bzw. unmöglich zurückzuweisen. Abbildung 4 zeigt die Häufung der Mess-Stationen auf der nördlichen Erdhalbkugel und den Industrie-staaten. Weite Bereiche Afrikas, Südamerikas, Kanadas, Grönlands und von Sibirien werden nicht abgedeckt. In der Antarktis, die einen großen Einfluss auf das Erdklima hat, gibt es nur wenige Stationen an der Küste.

Abb. 5: Verteilung meteorologischer Mess-Stationen auf der Erde im 21. Jhdt. [3;4]

 

Abb. 6: Gemeldete Wetterwerte für die Woche vom 2. bis 8. Januar 2000 (Schiffe) [3;4]

 

Ca. 70% der Erde sind mit Wasser bedeckt. Wie die Forschungen der letzten Jahrzehnte ergeben haben, spielen die Ozeane eine entscheidende Rolle für das Klima der Erde. Entgegen der meteorologischen Bedeutung der Ozeane ist die dort die Abdeckung der Mess-Stationen nur mangelhaft. Sowohl in Abbildung 5 als auch in Abbildung 6 ist zu erkennen, welche riesigen Lücken nicht durch Messungen abgedeckt werden. Abbildung 7 zeigt die zeitliche Entwicklung der über die Erde verteilten Mess-Stationen über einen Zeitraum von 100 Jahren.

Abb. 7: Meteorologische Mess-Stationen von 1885-1985 [3;4]

 

6.1.4.) Veränderungen im Umfeld von Mess-Stationen und deren Einfluss auf
die gemessenen Temperaturen.

Beispiele: Eine Mess-Station lag 100 Jahre außerhalb einer Stadt, inzwischen ist die Stadt um die Station herum gewachsen. Nahe einer Mess-Station gab es keinen nennenswerten Bewuchs, dann wurde in der Nähe ein Wald aufgeforstet. In 30m Entfernung einer Mess-Station wurde ein Gebäude errichtet. Die Liste solcher Beispiele kann beliebig verlängert werden. Niemand ist in der Lage, die veränderten Einflüsse aus der unmittelbaren Umgebung der Mess-Stationen zu bewerten und einzurechnen. Ein Argument Giaevers, das sicherlich einen großen Einfluss auf den Fehler in der zeitlichen Betrachtung hat.

6.2.) Giaevers philosophische Grundsatz-Kritik zur Klima-Diskussion

Ivar Giaever begnügt sich nicht mit den reinen Sachargumenten oder den Beweisen, die er vorgelegt hat. Er blickt tiefer, macht sich grundsätzliche Gedanken zur Klima-Debatte. Seine im Folgenden beschriebenen Überlegungen haben den Autor dieses Aufsatzes am meisten beeindruckt und gleichzeitig überzeugt.

Giaever blickt auf die Welt als Gesamtes und auf sich als Person. Alles und jeder ist betroffen von Veränderung und Alterung, das kann niemand bestreiten. Er fragt, warum in den meisten Bereichen der politischen und gesellschaftlichen Diskussion die Dinge sich nur zum Negativen bewegen, immer wieder negativ, negativ. Niemand kann bestreiten, dass die Entwicklung der Menschheit seit 1850 einen positiven Weg genommen hat. Die Menschen leben angenehmer, sicherer, Hungern weniger und werden älter. Was soll so negativ an der Temperatur-Entwicklung sein? Wer sagt uns, was die „Optimale Temperatur auf der Erde ist? Wie bereits gesagt, alle Klimaforscher referenzieren auf die Temperatur um 1850. Es ist absolut unwahrscheinlich, dass ausgerechnet diese Temperatur optimal gewesen sein soll. Im Gegenteil, die Klimatologen sprechen vom Römischen Temperatur-Optimum und dem Mittelalterlichen Temperatur-Optimum.

6.3.) Ergänzende Informationen zur Klimaerwärmung (CO2-Einfluss)

Die Zeit um 1850 gilt als das Ende der „Kleinen Eiszeit“, eine Kaltperiode über ca. 400 Jahre innerhalb der aktuellen Eiszeit. Anders formuliert: Um 1850 begann eine Warmphase innerhalb der aktuellen Eiszeit. Gleichzeitig begann um das Jahr 1850 auch die industrielle Revolution (s. unter 5.2.). Folgt nach einer Kaltperiode eine Warmzeit, so muss sich die Erde auch ohne Zutun des Menschen erwärmen. Eine einfache und logische Schlussfolgerung. Schließlich wurde die kleine Eiszeit ja nicht vom Menschen verursacht. Das IPCC (Klimawandel-Organisation der UNO) behauptet jedoch seit 2016, dass die gesamte Erderwärmung seit 1850 ausschließlich auf die Wirkung des anthropogenen CO2 zurückzuführen ist. Mit massiven Auswirkungen auf die Wirtschaft und Energie-Politik der jeweiligen Staaten. Leider ist ausgerechnet Deutschland der Protagonist dieser unsäglichen Ideologie.

Abb. 8: Veröffentlichung von Patrica Adams [5]

 

Was die „Klima-Alarmisten“ der religiös anmutenden Glaubensgemeinschaft übersehen, ist die Entwicklung in den entscheidenden Ländern Indien und China. Beide haben dem Pariser Klima-Abkommen zugestimmt, sind jedoch berechtigt bis 2050 soviel CO2 auszustoßen, wie sie wollen. Patricia Adams hat kürzlich einen Aufsatz mit dem treffenden Titel „THE RED AND THE GREEN CHINA´S USEFUL IDIOTS“ veröffentlicht.

Mit der von der Politik ausgerufenen Energiewende in Deutschland zerstören wir unsere sichere und unabhängige Energie-Versorgung. Hierzu gibt es viele Veröffentlichungen von unabhängigen Wissenschaftlern, Ökonomen und Ingenieuren. Am bekanntesten ist wohl der ehemalige Chef des ifo-Instituts Prof. Hans-Werner Sinn. Er warnt seit vielen Jahren vor dem Umbau der deutschen Strom-Versorgung hin zu einem Übermaß an regenerativer Stromerzeugung.

6.4.) Stimmen anderer Wissenschaftler

Es gibt auch Wissenschaftler, die sich in Veröffentlichungen kritisch zur Problematik der Ermittlung der mittleren Lufttemperatur der Erde in den letzten 170 Jahren geäußert haben. Verstärkt wird diese Kritik durch geachtete wissenschaftliche Stimmen, welche die Methodik der Temperatur-Ermittlung, das Verständnis des Klimas und den Ausblick auf die Zukunft des Klimas durch die Klimawissenschaftler mit ihren aufwändigen Computer-Modellen in Frage stellen. Dazu 2 ausgewählte Bespiele.

6.4.1.) Fundamentalkritik durch das Genie Freeman Dyson

Freeman Dyson (s. Abb. 9, links), der geniale Mathematiker und Physiker lehrte über 40 Jahre Jahre lang an der Princeton University am Lehrstuhl für Theoretische Physik. Sein Vorgänger auf diese Position war Albert Einstein. Leider ist Freeman Dyson am 28.02.2020 im Alter von 96 Jahren verstorben. In Amerika, sowie in naturwissen-schaftlichen Kreisen, galt Freeman Dyson als Genie. Wegen seiner freundlichen und humorvollen Art war er ein „Wissenschafts-Superstar“. In Interviews wusste er immer zu überraschen und sorgte für Heiterkeit. Andererseits war er kein Mensch, der gemütlich auf der Mainstream-Welle schwamm (s. Abb. 9, rechts).

Abb. 9  Freeman Dyson (2007) am Institute of Advanced Study. Bildlizenz: MonroemFreeman dysonCC BY-SA 3.0 

 

Bereits Ende der 60er-Jahre und Anfang der 70er-Jahre war Dyson an den ersten Computer-Modellrechnungen zur Darstellung und Voraussage des Wetters beteiligt. Kein Wissenschaftler auf der Welt kann diese jahrzehntelange Erfahrung auf diesem Gebiet vorweisen. Kaum jemand kennt die Stärken und Schwächen der Klima-Vorhersage besser als er. In vielen Interviews der letzten 15 Jahre wurde er zu seiner Position in der Diskussion zum Klimawandel befragt. Seine Haupt-Thesen stellte er folgendermaßen (hier vereinfacht) dar:  1.) Die Wissenschaft ist noch nicht annähernd in der Lage die Komplexität des Wetters und des Klimas zu verstehen. Viele Fragen zur Wolkenbildung, der Rolle der Ozeane, Einflüsse der Sonne, usw. sind ungeklärt.  2.) Versuche, das Klima über längere Zeiträume vorauszusagen, müssen zwangsläufig scheitern. 3.) Der Einfluss des anthropogenen CO2 zur Erderwärmung der letzten 170 Jahre wird überbewertet. Dagegen werden die positiven Effekte der gestiegenen CO2-Konzentration in der Atmosphäre nicht ausreichend berücksichtigt.

6.4.2.) Positive Auswirkungen der erhöhten CO2-Konzentration

Die USDA (U.S. Department of Agriculture) meldet seit vielen Jahren eine stetig steigende weltweite Getreideernte. Diese Meldungen beschränken sich nicht auf nur auf die weltweite Weizenernte (s. Abb. 10) sondern sind für alle wichtigen Getreidearten wie Reis, Gerste, Mais oder Soja zu beobachten. Wo sind die Auswirkungen der Hitzeperioden, Trockenperioden, Stürmen und Hochwasser, wie sie von den Klima-Alarmisten propagiert werden? Fakt ist, CO2 ist der mit Abstand beste Pflanzendünger.

Abb. 10  Weltweite Weizenernte der letzten 20 Jahre (Quelle: USDA)

 

Abb. 11  Bild aus einer NASA-Studie von 2016 „Carbon Dixoide Fertilisation, Greening Earth“ [6]

 

Eine NASA-Studie aus 2016 belegt eindeutig den Düngungs-Effekt durch vermehrtes CO2 in der Atmosphäre. Die Satelliten-Daten (s. Abb. 11) zeigen einen unerwarteten und höchst erstaunlichen Effekt. Die Erde wird grüner! Dank der erhöhten CO2-Konzentration wachsen die Pflanzen besser und schneller, die Wüsten der Erde werden kleiner.

Die Weltbevölkerung steuert bald auf 8 Mrd. Menschen zu. Deshalb sollte die Welternährungs-Organisation der UNO (FAO) eine Studie in Auftrag geben, wieviel Menschen die Erde im Jahr 1850 mit einer CO2-Konzentration von 280 ppm im Vergleich zu heute mit einer CO2-Konzentration von 410 ppm hätte ernähren können. Eine spannende Frage, zumal das Jahr 1850 als „gute“ vorindustrielle Zeit gilt. Die Klima-Alarmisten fordern doch die Rückkehr zu den CO2-Werten der Atmosphäre vor 170 Jahren.

6.4.3.) Bewertung der Temperaturdaten durch Pat Frank

Unterhalb des Radars der Öffentlichkeit wird der der Druck im „Schnellkochtopf“ der Klimawandel-Diskussion immer größer. Die klimakritischen, nicht IPCC-konformen wissenschaftlichen Papers sind von Jahr zu Jahr in größerer Anzahl zu vermelden. Bisher schaffen es jedoch die gleichgeschalteten Medien, besonders in Deutschland, diese Informationen gut unter den Teppich zu kehren. Nur Leute, die bewusst nach nicht klima-alarmistischen Informationen suchen, werden fündig. Ansonsten ist die Meinungs-Hoheit  fest in der Hand der Mainstream-Medien.

Abb. 12  Bewertung der Messfehler bei den durchschnittlichen weltweiten Temperaturen nach Pat Frank

 

Was in diesem Aufsatz eher qualitativ bewertet wurde, hat Pat Frank bereits 2010 und 2011 in 2 interessanten Veröffentlichungen quantifiziert. Er untersuchte die vorliegenden Temperaturdaten nach mathematisch physikalisch Prinzipien auf Zuverlässigkeit. Seine Ergebnisse sind in einem Diagramm zusammengefasst (s. Abb.12).

Quellen: Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surf

Die Schlussfolgerungen von Pat Frank zu den Fehlergrößen der Temperatur-Messungen in den letzten 170 Jahren sind logisch und nachvollziehbar. Dabei kommt es nicht darauf an, ob der Fehlerbalken 0,46K (s. Abb. 12) groß ist, etwas größer oder kleiner. Entscheidend ist die Erkenntnis, dass die Darstellungen in allen wissenschaftlichen Veröffentlichungen und in den Medien deutlich fehlerbehaftet sind.

Abb. 13: The black line shows the global annual average land-surface air temperature anomalies from 1856 to 2013 from the CRUTEM4 dataset (data here in this format). The grey area shows the 95% confidence range on the annual averages. [7]

Mit großer Wahrscheinlichkeit sind die einheitlichen Fehlerbalken von Pat Frank über den gesamten Zeitraum von 170 Jahren nicht durchgehend realistisch. Die messtechnischen Entwicklungen und bessere Verteilung der Mess-Stationen über die Erde im Laufe der Zeit werden von ihm nicht berücksichtigt. Realistischer dürfte die Abschätzung des englischen Metoffice-Instituts sein (Abb. 13). Die Fehlerbalken sind im 19. Jahrhundert groß und werden im Laufe der Zeit kleiner. Eine Darstellung, die wesentlich besser die Argumente in den vorhergehenden Kapiteln dieses Aufsatzes berücksichtigen.

7.) Schlussfolgerungen

Die Grundlage aller Argumente und Schlussfolgerungen des IPCC, der Klima-wissenschaftler und Klima-Alarmisten sind die verfügbaren weltweiten Durchschnitts-Temperaturen seit 1850. Die Zeit zu Beginn der Industrialisierung ist sozusagen der „Absolute Nullpunkt“ für die Temperatur-Entwicklung auf unserer Erde. Dieser Bezugspunkt wurde gewählt, weil ab dort die Menschheit relevant zum Anstieg der CO2-Konzentration in der Atmosphäre beigetragen hat. Der so genannte anthropogene CO2-Anteil. Was nützten starke Mauern, massive Zwischendecken und ein festes Dach, wenn das Fundament eines Gebäudes zu schwach ausgelegt ist? Fakt ist, die verfügbaren Temperaturdaten (Fundament) sind fehlerbehaftet. Die Fehlergröße bewegt sich in einem Bereich, wo eine Referenzierung auf diese Daten wissenschaftlich keinen Sinn macht. Alle noch so großen Anstrengungen der Klimawissenschaftler mit ihren immer leistungsfähigeren Großcomputer werden die Simulationen zur Zukunft des Erdklimas nicht verbessern. Die Datenbasis ist schlecht, die Kenntnisse über das hoch komplexe Klima immer noch gering (Freeman Dyson). Deshalb bleibt die Klimawissenschaft, die einzig auf die Wirkung des anthropogenen CO2 abzielt, eine Pseudo-Wissenschaft.

Referenzen:

[1]  Ivar Giaever, The Strange Case of Global Warming, 2012 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

[2]  Ivar Giaever, Global Warming Revisited, 2015 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

[3]   Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface
air temperature index: representative lower limit

[4]  Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and
Neglected Uncertainty in the Global Average Surface

[5]   Patricia Adams in GWPF, 2020   https://www.thegwpf.org/content/uploads/2020/12/Green-reds.pdf?utm_source=CCNet+Newsletter&utm_campaign=ac7e32fda3-EMAIL_CAMPAIGN_2020_12_11_10_30_COPY_01&utm_medium=email&utm_term=0_fe4b2f45ef-ac7e32fda3-36485917&mc_cid=ac7e32fda3&mc_eid=a769d95777

[6]  https://www.nasa.gov/feature/goddard/2016/carbon-dioxide-fertilization-greening-earth

[7]  Metoffice:  https://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/comparison.html

Der Beitrag erschien zuerst bei Die Kalte Sonne hier

Über den Autor:

Andreas Karl, ist promovierter Diplom-Chemiker (Organische Chemie)  55 Jahre alt, verheiratet, 3 erwachsene Kinder und auch schon stolzer Opa.
Lebt in der Mittleren Oberpfalz. Seit der Uni-Ausbildung nicht mehr in der Forschung tätig, hat jedoch nie den Bezug und das Interesse an Naturwissenschaft und Technik verloren. Seit ca. 2 Jahren großes Interesse zum Thema „ Klimawandel“. Arbeitet im Vertrieb bei einem großen Chemie-/ Pharma-Konzern.

Anmerkung der Redaktion

Es sei auch in diesem Zusammenhang auf die grundlegenden Arbeiten unseres Vizepräsidenten Michael Limburg verwiesen. Der sie im März 2010 über seine offiziell eingereichte Dissertation  der Öffentlichkeit vorstellte. Wer sie nachlesen möchte mag dies hier tun.



Parlamentarische Anhörungen zum EEG und die Ratsherren von Schilda

Kurz zu parlamentarischen Anhörungen aus Sicht des Autors, der sich als insgesamt viermal geladener Sachverständiger zu EEG-Themen in Landesparlamenten und Bundestag öffentlich äußerte. In diesem Beitrag geht es um die jüngste öffentliche Anhörung zum Erneuerbaren-Energien-Gesetz vom 18.Nov.2020 im deutschen Bundestag, Mitteilungen und Berichterstattung der Bundesregierung dazu hier. Die Anhörenden sind Parlamentarier, welche die Sachverständigen (hier die Liste der geladenen Sachverständigen) unter fachlichen Gesichtspunkten einladen sollten – zumindest dem Demokratieverständnis nach. Konkreter heißt es aber in der Geschäftsordnung des deutschen Bundestags „Zur Information über einen Gegenstand seiner Beratung kann der Ausschuss für Recht und Verbraucherschutz nach § 70 der Geschäftsordnung des Deutschen Bundestages öffentliche Anhörungen von Sachverständigen, Interessenvertretern und anderen Auskunftspersonen vornehmen.“ Dass Interessenvertreter beim EEG fast ausschließlich Lobbyisten aus Industrie oder Verbänden sind, braucht nicht betont zu werden. Lobbyismus ist in diesem Beitrag übrigens ausdrücklich nicht negativ besetzt, etwa ebenso wie in den USA, wo man mit Lobbyismus wesentlich entspannter umgeht als bei uns.

Bei der Auswahl der Anzuhörenden seitens der Parlamentarier kann von Neutralität praktisch nicht die Rede sein. Es werden nämlich fast nur Sachverständige gesucht, die beruflich in Industrien oder Verbänden passend zur Parteilinie des einladenden Parlamentariers tätig sind. Was Wunder also, dass bei allen das EEG betreffenden Anhörungen Sachverständige aus der Solar- und Windbranche überwiegen. Dies erklärt ein wenig, warum der Autor bislang ausschließlich von AfD-Parlamentariern eingeladen wurde. Er gehört nämlich keiner Lobbygruppe an (hier seine schriftliche Stellungnahme), würde aber als neutraler Sachverständiger selbstredend Einladungen auch jeder anderen parlamentarisch vertretenden Partei nachkommen. Um den vorgesehenen Zeitrahmen von Anhörungen einzuhalten, werden in der Regel strenge Zeitvorgaben festgesetzt, so auch hier. Maximal vier Minuten für jede Frage inklusive der Antwort waren zugelassen. Viel war das nicht, es ist aber vernünftig, weil es „Vorträge“ von Fragenden und/oder Antwortenden verhindert.

Besonders bemerkenswert in dieser Anhörung war nun, dass sich die Sachverständigen, genauso wie die Ratsherren von Schilda, keineswegs darüber einig waren, wie denn „Licht in Säcke zu verpacken und dann ins Rathaus zu tragen sei“.  Alle Sachverständigen nämlich, der Autor natürlich ausgenommen, sahen engagiert und mit Nachdruck darauf, dass jeweils ihr eigenes Umfeld und ihre eigene Klientel das Beste aus dem großen Umverteilungskuchen des EEG abbekamen. Für Leser, die es vielleicht noch nicht wissen: Das EEG ist pure Umverteilung des vielen Geldes, welches für den wirtschaftlich und versorgungstechnischen Abersinn namens Energiewende bewegt wird. Der detaillierte fachliche Beleg für diese harte Beurteilung findet sich in der schon erwähnten schriftlichen Stellungnahme des Autors. Die Energiewende wird von der derzeitigen Bundesregierung im Wesentlichen mit den „Neuen Energien“ Wind, Energiemais, Sonne planwirtschaftlich und brachial vorangetrieben. Wind(räder) und Energiemais sind umweltschädlich, alle „Neuen Energien“ leiden an zu kleiner Leistungsdichte, und schlussendlich sind Wind und Sonne auch noch wetterabhängig. Diese Defizite sind naturgesetzlich unheilbar.

Die unsoziale Mittel-Umverteilung von unten nach oben ist im EEG zwar nicht explizit genannt, aber eine fast logische Folge, die selbst Einfältigen nicht verborgen bleibt. Die enormen Verbrauchskosten und Ökosteuern der Energiewende treffen nämlich die unteren Einkommensschichten am härtesten, landen aber in den Taschen der EEG-Profiteure und des Staates. Glauben Sie jetzt bitte nicht, dass die EEG-Profiteure nur in der Windrad- und Solarindustrie zu verorten sind! Inzwischen ist eine Parallelwelt von Profiteuren aller Provenienz entstanden, die am großen Umverteilungskuchen EEG ihren Teil abbeißen. Einen kleinen Eindruck aus diesem Spektrum bietet bereits die Liste der Arbeitgeber der geladenen Sachverständigen. Es gehören aber auch Institutionen dazu, an die man vielleicht nicht sofort denkt, wie beispielsweise Fraunhofer-Institute und Industrieunternehmen, die Methoden erforschen, bauen oder betreiben, die zwar hoffnungslos ineffizient und unwirtschaftlich sind, aber grün-ideologischem Regierungswillen entsprechen und somit Profit abwerfen. Die letzte Stufe dieser dem Wettbewerb des freien Marktes entzogenen und mit Subventionen finanzierten Parallelwelt bilden Klima- und Energiebeauftragte in Gemeinden und Städten, Leute, die in einer werteschaffenden Wirtschaft nicht vorkämen.

Zurück zur Anhörung im Bundestag. Die unterschiedlichen, sich oft widersprechenden Forderungen der Sachverständigen zur EEG-Novellierung gehen deutlich aus der Pressemitteilung des Bundes hervor (linke Spalte hier). Wer hier fachlich nicht mitkommt, sollte sich keine Gedanken darüber machen. Das EEG ist inzwischen so etwas wie Kafkas Schloss geworden – nur noch Eingeweihten verständlich, Planwirtschaft eben. Dem Autor blieb als einzigem Sachverständigen die Aufgabe übrig, die versammelten „Ratsherren“ an das simple Faktum zu erinnern, dass man Licht leider nicht in Säcken transportieren kann – im realen Fall also die Parlamentarier daran zu erinnern, dass man eine moderne Industrienation leider nicht mit Sonnen- und Windstrom betreiben kann. Ob sie’s begriffen haben? Die Parlamentarier der Grünen vermutlich nicht, die können aber nichts dafür, weil sie zu oft Glauben mit Wissen verwechseln und die Fächer Mathe/Physik/Naturkunde in der Schule meist verpennt haben. Die Linken auch nicht, die träumen nur von Karl Marx, der nun endlich die Welt beglücken wird, nachdem es noch nie geklappt hat. Überraschenderweise schließt schließt sich nunmehr auch die früher einmal vernünftige SPD dem kommunistischen Unsinn an.

Seine Sachverständigenkollegen hat der Autor übrigens stets als kundige Experten wahrgenommen, welche in den Anhörungen meist eloquente Qualitäten für ihre Forderungen nach „Anpassungen“ der vielen Verästelungen des EEG im Interesse ihrer Arbeitgeber bewiesen. An diesen Bestrebungen ist absolut nichts Verwerfliches, denn schließlich gilt „wes Brot ich ess, des Lied ich sing“. Wer sich nicht daran hält, hat es im Erwerbsleben schwer, so funktioniert eben das Angestelltendasein. Man darf zum Trost mit hoher Wahrscheinlichkeit davon ausgehen, dass sich viele Sachverständigen über den sachlichen Schwachsinn der „Neuen Energien“ und damit des EEG durchaus im Klaren sind, dies aber verständlicherweise nicht offen kommunizieren.

Eine Remedur des Unglücks in Form von massivem Widerstand seitens der angeblich unter EEG, EU-Ökodesignrichtlinien, Klimaschutz und weiterem Klima-Gedöns (Zitat Gerhard Schröder) leidenden Industrie ist illusorisch. Industrie und Lobbyismus wünschen sich klare Regeln, egal welche. Man ist flexibel, kommt immer zurecht und arrangiert sich mit der jeweiligen Regierung, wie es selbst die schlimmsten Zeiten der deutschen Vergangenheit historisch belegen. Heute hilft dabei auch noch die internationale Verflechtung. Sie sollten daher nicht glauben, dass sich etwa die Autoindustrie vor dem politisch gewollten Aus des Verbrennungsmotors sonderlich fürchtet. Ganz im Gegenteil, denn man hat schon seit Langem die Auto-Herstellung in Billiglohnländer verlagert und wird nun lediglich Deutschland als Produktionsstandort ganz verlassen. Dem folgt, etwas unter dem Radar, inzwischen auch die Zulieferindustrie. Diese Entwicklung wäre noch schneller verlaufen, wäre sie nicht durch Arbeitnehmervertretungen und wegen der notwendigen Pflege eines guten Unternehmensrufs versperrt gewesen. Nun aber endlich kann die Industrie (hier beispielhaft die Autoindustrie) glaubhaft, erleichtert und sogar noch zu Recht die für ihren Abzug aus Deutschland verantwortliche grün-rote Politik beschuldigen, wenn wieder einmal 20.000 Arbeitsplätze in den Abfluss geschüttet werden. Die verschwinden übrigens nur hierzulande, woanders entstehen sie wieder – ist ähnlich wie mit dem verschwundenen Geld nach einem Börsenkrach, es ist nicht weg, sondern nur in anderen Händen.

Deutsche Diesel und Benziner sind weltweit gesucht, nur bei uns sollen sie über den EU-Umweg von technisch unmöglichen CO2-Werten (identisch mit Verbrauchsgrenzwerten) praktisch verboten werden. Die weitgehend unverkäuflichen E-Autos werden natürlich weiter im Old Germany gebaut, denn hier werden von der Politik rote Teppiche ausgelegt. Dass die CO2-Bilanz von E-Autos keineswegs besser ist, als von Benzinern, wird ignoriert, vom Umweltproblem der Entsorgung riesiger Mengen hochgiftigen Batterieschrotts ganz zu schweigen. Gegen Unverkäuflichkeit sorgt zuverlässig die Bundesregierung. Irgendwann wird wohl jedem Bürger mit Führerschein so eine E-Kiste umsonst aufs Auge gedrückt, ob er will oder nicht. Es muss einfach klappen mit unserer Rettung der Welt. Was noch in Deutschland an Industrie verbleibt, passt sich dann dem grünen Zeitgeist an, wie schon früher dem braunen und danach dem roten. Dies gilt ganz allgemein, nicht nur für die Autobranche. So spricht beispielsweise die BASF-Werbung Global | Nachhaltigkeit davon, ihre energiefressenden Steamcracker (hier) nunmehr nur noch mit Wind- oder Sonnenstrom zu betreiben (hier). Klingt gut, ist leider in der Realität ähnlich wie mit dem Licht in Säcken.

Woher kann nun die Remedur dieser inzwischen verhängnisvollen Entwicklung kommen? Nur vom Volk (Wortlaut im Artikel 56 des Grundgesetzes). Wenn schon das für die aktuelle Misere verantwortliche politische Kartell nicht abgewählt wird, weil immer noch zu viele Zeitgenossen an prekärem Denkvermögen leiden und nicht merken, dass es nicht ums Klima sondern um diktatorische Gesellschaftsveränderung geht, und wenn schon die Plattmachung einer neuen demokratischen Volkspartei erfolgreich sein wird, werden es vielleicht einmal die Nutzer des Autos sein. Denen und hier insbesondere auch den Handwerkern, Geschäftsreisenden kurz allen, die darauf angewiesen sind, will man nämlich ihr bisher erschwingbares Fortbewegungs- und Transportmittel für mehr als nur 100 km Aktionsumfang wegnehmen, das im Gegensatz zum E-Auto auch noch locker im Winter heizt, ohne den Antriebsgeist aufzugeben.

Man kann sich dann ausmalen, was wohl passieren könnte, wenn eines Tages gleichzeitig alle deutschen Großstädte mit Millionen protestierender Autofahrer mit ihren Benzinern oder Dieseln verstopft werden und dies solange wiederholt wird, bis der Vernichtungsfeldzug gegen den Verbrennungsmotor von der Politik aufgegeben wird. Organisatoren solcher Proteste, die unabhängig und unangreifbar sind, finden sich immer, die Aktion der sog. Querdenker belegt es. So etwas kann sogar vom Ausland aus per Internet erfolgen. Natürlich redet der Autor solchen Aktionen nicht das Wort, er erinnert nur daran, dass auch schwer vorstellbare Umwälzungn unter oft ganz unerwarteten Umständen plötzlich kommen können.

Jedes System bricht nämlich zusammen, wenn die Widersprüche zwischen Realität und politischem Willen – hier besser politischem Abersinn – zu groß werden. Dies wird auch für die in Deutschland wohl unvermeidbar kommende Ökodiktatur gelten. Einer Partei, die mit unendlichem sachlichem Quatsch Sympathiehöchststände erreicht, weil ihre Vertreter Weltmeister in technischer Einfalt sind (Kobold für Kobalt, Das Stromnetz ist ein Stromspeicher, Kernenergie ist zu gefährlich u.w.m.), wird es früher oder später wie Ikarus unter der Sonne ergehen. Man kann die Realität des zivilisatorischen und technischen Fortschritts zwar eine Zeitlang und in für krude Ideologien anfälligen westlichen Ländern aufhalten, man kann die Realität sogar, wie es bei der deutschen Energiewende erfolgt, bis hin zu mittelalterlichen Methoden von Segelschiffen und Windmühlen zurückdrehen. Man kann so etwas aber nicht dauerhaft tun, denn die Physik schlägt gnadenlos zurück, wenn man sie umgehen will. Bis zum großen Zerknallen der grün-roten Blase wird freilich noch unendlich viel Wertvolles und Unwiederbringliches in unserem schönen Land zerschlagen werden. Die Folgen der geplanten und inzwischen in vollem Gange befindlichen Zerstörung von Deutschlands industrieller Lebensbasis werden denen eines veritablen Krieges gleichkommen.

 




UN: Klima-Katastrophen haben sich verdoppelt – wirklich?

[Es folgt ein Ausschnitt aus diesem Report mit vielen Zahlen, auf dessen Übersetzung hier verzichtet wird, zumal der Autor dieses Beitrags weiter unten darlegt, wie haltlos das Ganze ist. – Anm. d. Übers.]

Verdoppelung von Naturkatastrophen – das ist schlecht. Die Schlussfolgerung basiert auf der International Disaster Database EM-DAT (1). Darin finden sich im Zeitraum 1900 bis 2020 22.000 Katastrophen [mass disasters] weltweit.

Die Behauptung ist so plakativ, dass dies eine gründlichere Analyse der Originaldaten erfordert. Jeder kann auf die EM-DAT-Datenbank zugreifen, indem er sich als EM-DAT-Nutzer registriert. Für gemeinnützige Organisationen ist der Zugang kostenlos, also schauen wir doch einfach mal.

Nach der Zulassung als Nutzer der EM-DAT-Datenbank konnte ich die gesamte Datenbank der Katastrophen zwischen 1900 und 2020 herunterladen. Indem ich einfach Naturkatastrophen auswählte, erhielt ich die Excel-Datei mit 15.564 einzelnen Katastrophen, jede als eine Zeile in der Excel-Datei. Die Daten enthalten bis zu 43 verschiedene Informationsspalten für jede Katastrophe – bei den meisten Katastrophen enthält jedoch nur weniger als die Hälfte der Spalten Daten.

Beginnen wir mit einem Diagramm der Anzahl der Katastrophen pro Jahr zwischen 1900 und 2020:

Abbildung: Alle Naturkatastrophen weltweit in der EM-DAT-Datenbank

Es ist leicht zu erkennen, woher die UN-Behauptung kommt. Tatsächlich haben die Naturkatastrophen in den Jahren 2000-2019 im Vergleich zu den Jahren 1980-1999 erheblich zugenommen. Aber gleichzeitig sehen wir den ersten Hinweis auf das, was falsch ist: Es gibt einen allmählichen Anstieg der Naturkatastrophen vom Niveau der 1940er Jahre auf das heutige Niveau. Wenn Sie diese Art von Daten sehen, ist die erste Frage die Berichterstattung: Wie wirkt sich die verbesserte Berichterstattung und Datenerhebung auf den Datenbestand aus?

Lassen Sie uns die Anzahl der Länder, die zwischen 1900-2020 mindestens eine Naturkatastrophe pro Jahr melden, darstellen:

Abbildung: Länder, die jedes Jahr mindestens eine Naturkatastrophe melden

Aus der Liste der Länder, die mindestens eine Katastrophe gemeldet haben, geht hervor, dass die Zahl der meldenden Länder im Laufe der Jahre enorm gestiegen ist. Auch die graphische Darstellung ist der Gesamtzahl der früher erfassten Naturkatastrophen sehr ähnlich.

Im Jahr 1901 waren beispielsweise nur zwei Länder in der Datenbank enthalten (Japan und Uganda), während im Zeitraum 2000-2019 die Zahl der jährlich Bericht erstattenden Länder bei etwa 120 lag. Selbst in den neuen Daten gibt es viel weniger Länder als es Länder in der Welt gibt, so dass wahrscheinlich selbst in den Jahren 2000-2019 die tatsächlichen Naturkatastrophen ziemlich stark unterrepräsentiert sind.

Zur weiteren Analyse der Ergebnisse in der UNO-Studie sind die Jahre 1980-2019 von besonderem Interesse. Es zeigt sich eine deutliche Zunahme der meldenden Länder zwischen 1980 und 2000. Danach ist die Zahl ziemlich konstant. Man könnte denken, dass dies auf Veränderungen wie den Bruch der Sowjetunion in viele verschiedene Länder zurückzuführen ist, also lassen Sie uns die Sowjetunion eingehender analysieren:

Abbildung: Naturkatastrophen in der Sowjetunion für jedes Jahr zwischen 1900-1991

Wie man sieht, war die Sowjetunion nicht der transparenteste Berichterstatter für Naturkatastrophen in der EM-DAT-Datenbank, und die Zunahme der Länder, die in den 1990er Jahren über Naturkatastrophen berichteten, ist nicht das Ergebnis der Auflösung der Sowjetunion. Und wie hoch ist die Wahrscheinlichkeit, dass ein Land von der Größe der Sowjetunion nur 1-2 Naturkatastrophen pro Jahr zu verzeichnen hat? Man kann leicht den Schluss ziehen, dass diese Datenbank nur einen kleinen Teil der tatsächlichen Naturkatastrophen enthält, die in der Sowjetunion passiert sind. Allein die Waldbrände sollten jedes Jahr Dutzende von gemeldeten Vorfällen ausgemacht haben.

Übrigens scheint das gleiche „Problem“ der Nichtmeldung von Katastrophen alle Länder des ehemaligen Ostblocks zu betreffen, haben doch fast alle von ihnen nach dem Zusammenbruch des Sowjetblocks 1991 einen enormen Anstieg von Naturkatastrophen in der Datenbank. Jugoslawien zum Beispiel meldete 0-2 Naturkatastrophen pro Jahr, aber Serbien allein meldet mehr. Es liegt auf der Hand, dass die Aufnahmekriterien zwischen der Zeit vor und nach Jugoslawien nicht vergleichbar sind.

Was ist mit China? China wurde im UN-Bericht ausdrücklich als ein Land mit einer erheblichen Zunahme von Naturkatastrophen erwähnt:

Abbildung: Naturkatastrophen in China für jedes Jahr zwischen 1900-2020

Man sieht, dass es für die Jahre vor 1980 keine aussagekräftigen Daten in der EM-DAT-Datenbank gibt. Die Berichterstattung nimmt nach 1980 allmählich zu und erreicht um das Jahr 2000 einen „stabilen Zustand“.

Für 1980 enthält die Datenbank nur 5 Katastrophen in China: Vier Überschwemmungen und einen tropischen Wirbelsturm (1980 gab es in China mehrere auf das Festland übergreifende Wirbelstürme). Das Spitzenjahr 2013 enthält insgesamt 43 Katastrophen: Dürren, extreme Temperaturen, Stürme, Überschwemmungen, Erdbeben. Die Auswirkungen einer besseren Berichterstattung von Jahr zu Jahr sind leicht zu erkennen. Das kommunistische China war auch nicht der offenste Berichterstatter von Naturereignissen.

Wie sieht es bzgl. den USA aus? Die moderne westliche Zivilisation muss doch schon in den 1980er Jahren eine wirklich gute Katastrophenberichterstattung haben, oder?

Abbildung: Naturkatastrophen in den USA für jedes Jahr zwischen 1900-2020

Für 1980 enthält die Datenbank nur 8 Naturkatastrophen in den USA: 4 Überschwemmungen, 3 Stürme, eine vulkanische Aktivität (St. Helens) und eine Hitzewelle.

Für 1980 sind keine Tornados in der Datenbank vorhanden, aber eine kleine Studie von Wikipedia sagt uns, dass das Jahr 1980 ein unterdurchschnittliches Tornado-Jahr mit 28 Tornado-Toten und mehreren schlimmen Ausbrüchen wie dem Kalamazoo-Tornado-Ausbruch und dem Grand Island-Tornado-Ausbruch war. Insgesamt wurden für diese Saison 866 Tornados gemeldet. In der EM-DAT-Datenbank fehlen also all diese Ereignisse einfach.

Apropos Tornados, lassen Sie uns sehen, wie viele Tornadodaten in der EM-DAT-Datenbank verfügbar sind:

Abbildung: Anzahl der Tornados in den USA für jedes Jahr zwischen 1900-2020

Es scheint, dass Tornados in den USA zwar schon immer ein Thema waren, aber erst seit Ende der 1980er Jahre in gewissem Umfang Daten über Tornados in die EM-DAT-Datenbank eingegeben wurden. Und selbst jetzt landen nur wenige Tornados in der EM-DAT-Datenbank. Ich habe das Jahr 2000 als Beispiel genommen: Basierend auf EM-DAT gab es 30 Todesfälle aufgrund von Tornados. Nach der Wiki-Seite zur Tornadosaison 2000 müssten es aber 41 sein.

Laut Wikipedia war das Tornado-Jahr 2012 hinsichtlich der Anzahl der Tornados etwa doppelt so schlimm wie das Jahr 2000, und die Zahl der Toten lag in der Saison 2012 bei 69. Die EM-Daten besagen jedoch, dass es im Jahr 2000 mehr Tornados gab, die die Eingangskriterien erfüllten.

Auch für die USA liegen in den Daten von 1980 keine Angaben über Waldbrände vor. Eine eingehendere Untersuchung würde einige weitere Waldbrände aufdecken, aber zumindest das Panorama Fire (1980) fehlt in der Datenbank. Bei diesem Brand brannten im Norden San Bernardinos 11.520 Hektar ab, wobei 310 Häuser und 67 große Gebäude zerstört, vier Menschen getötet und 77 verletzt worden waren. Eindeutig ein Vorfall, der nach den Eingabekriterien in der Datenbank enthalten sein sollte.

In den USA scheint die Datenbank erst ab den 1990er Jahren ein gewisses Maß an Glaubwürdigkeit zu besitzen. Es fehlen einfach zu viele frühere Daten, um aussagekräftige Schlussfolgerungen über die Zu- oder Abnahme von Naturkatastrophen zu ziehen. Aber selbst bei neueren Daten sollte man keine Rückschlüsse auf die Zahl der Naturkatastrophen in den USA ziehen.

Das gleiche Problem der Unter-Berichterstattung über die ersten Jahre scheint fast alle Länder zu betreffen, die ich untersuchte. Das Land, in dem ich lebe, Finnland, hat insgesamt nur drei Naturkatastrophen in der Datenbank; zwei Stürme (1990) und eine Überschwemmung (2005). Da ich in Finnland lebe, kann ich allen Lesern versichern, dass wir jedes Jahr Überschwemmungen haben (besonders bei Flüssen im Norden gibt es nach jedem Winter Überschwemmungen), die fast jedes Jahr materielle Schäden verursachen. Auch Stürme sind an der Jahresordnung, wobei in jedem Jahr Zehntausende betroffen sind und gewöhnlich materielle Schäden in den Wäldern und viele Schäden an Stromleitungen verursachen.

Was genau sind die Eingabekriterien für die EM-DAT-Datenbank?

Die Eingabekriterien: Der Grund für die Aufnahme des Katastrophenereignisses in EM-DAT. Mindestens eines der folgenden Kriterien muss erfüllt sein, damit ein Ereignis in die Datenbank eingegeben werden kann:

Todesfälle: 10 oder mehr Todesfälle

Betroffen: 100 oder mehr Betroffene/Verletzte/Heimatlose.

Erklärung/internationaler Appell: Ausrufung des Ausnahmezustandes in dem betreffenden Land und/oder ein internationaler Hilfsappell

Wie man sieht, sind die Eingabekriterien recht entspannt: Bei diesem Kriterium sollte beispielsweise fast jeder Tornado der Stärke F3 oder höher in der Datenbank vorhanden sein, vorausgesetzt, er ereignete sich auf besiedeltem Gebiet.

Daraus können wir den Schluss ziehen, dass die Datenbank auch heute noch nicht wirklich glaubwürdig ist, noch weniger aber in den 1980er und 1990er Jahren. Ich weiß nicht, wie die Datensammlung organisiert wurde, aber für die wissenschaftliche Analyse von Trends bei Naturkatastrophen hat die EM-DAT-Datenbank keinerlei wissenschaftlichen Wert. Daher haben auch die Schlussfolgerungen im UN-Bericht keinerlei Wert. Alle Behauptungen, die die UNO über die Zunahme von Naturkatastrophen aufgestellt hat, sollten widerrufen werden.

Gesamtschäden

Die UNO berichtete auch von einer beträchtlichen Zunahme der Schäden. Pielke Jr. hat viel mehr wissenschaftliche Bedeutung, wenn es darum geht, etwas über die normalisierten Schäden (2) im Laufe der Jahre zu sagen, aber wir können immer noch einige interessante Beobachtungen über die EM-DAT-Daten bzgl. Schäden machen:

Es scheint, dass nur ein kleiner Teil der Einträge irgendwelche Schadensdaten in der Datenbank hat. Beispielsweise traf 1994 ein Taifun die Stadt Osaka in Japan. Nach Angaben der Datenbank starben 1000 Menschen, 6,5 Millionen waren betroffen. Die Kosten für dieses Ereignis fehlen. Dies ist nur einer von Tausenden fehlenden Schadenseinträgen. Nur etwa 1/3 aller Einträge in der Datenbank verfügt über irgendeine Art von Schadenschätzung. Wie kann man daraus irgendwelche Schlüsse ziehen?

Betroffene Menschen

Die UNO behauptet, dass in den Jahren 1980-1999 3,25 Milliarden Menschen von Naturkatastrophen betroffen waren, während in den Jahren 2000-2019 4,2 Milliarden Menschen betroffen waren. Aber sie versäumen es, den Bevölkerungszuwachs zu berücksichtigen. Die Weltbevölkerung entwickelte sich folgendermaßen:

1980: 4,46 Milliarden

2000: 6,14 Milliarden

2019: 7,71 Milliarden

Wir können grob schätzen, dass die durchschnittliche Bevölkerung in den Jahren 1980-1999 bei 5,4 Milliarden und in den Jahren 2000-2019 bei 6,9 Milliarden lag. Mehr Bevölkerung sollte mehr Menschen bedeuten, die von Naturkatastrophen betroffen (und tot) sind. 3,25 x (6,9/5,4) = 4,15 Milliarden – die Zunahme der Betroffenen lässt sich also vollständig mit der Zunahme der Weltbevölkerung erklären. Eigentlich sogar noch mehr, da der größte Teil des Bevölkerungswachstums tendenziell in von Naturkatastrophen gefährdeten Gebieten wie Indien, Bangladesch und Afrika stattfindet.

Was jedoch den EM-DAT-Datensatz selbst betrifft, so fehlen bei fast 30% des gesamten Datensatzes die Daten über die betroffenen Menschen. Je älter die Daten sind, desto unvollständiger sind sie.

Datenerfassungs-Verfahren

Beim Versuch, einige Informationen über die Geschichte von EM-DAT zu finden, bin ich auf etwas Interessantes gestoßen (3). Das 2004 veröffentlichte Dokument bietet interessante Einblicke in die EM-DATA-Datenquellen im Laufe der Jahre und kann recht gut erklären, was wir oben gesehen haben: Warum die Beobachtungen die „Zunahme“ von Naturkatastrophen erklären können.

Das folgende Diagramm stammt aus dem von den EM-DAT-Betreibern veröffentlichten Dokument:

Abbildung: Berichtsquellen für die EM-DAT-Datenbank zwischen 1974-2002

Berichte über Naturkatastrophen werden von einer Reihe von Quellen zur Verfügung gestellt, und das EM-DAT-Berichtssystem scheint sich im Laufe der Jahre erheblich weiterentwickelt zu haben. Die signifikante „Zunahme“ von Naturkatastrophen bis etwa 1999 scheint sich vollständig durch eine neue Datenquelle „spezialisierter Agenturen“ erklären zu lassen. Diese Sonderorganisationen beziehen sich auf Quellen wie das Welternährungsprogramm der Vereinten Nationen, die Weltgesundheitsorganisation oder die National Oceanic and Atmospheric Administration der USA. Es scheint also, dass die Datenerhebung im Laufe der Jahre nicht stabil war und auch nicht auf wissenschaftlich stabilen Quellen beruhte.

Zusammenfassung:

EM-DAT-Daten sind im Allgemeinen von schlechter Qualität

Die EM-DAT-Datenerfassungs-Verfahren haben sich im Laufe der Jahre erheblich weiterentwickelt, so dass die Trendanalyse völlig unsinnig geworden ist

Der UN-Bericht berücksichtigt nicht die signifikante Zunahme der Weltbevölkerung, die allein schon die Zunahme der von Naturkatastrophen betroffenen Menschen erklärt

Alle Schlussfolgerungen über die Zunahme von Naturkatastrophen, die auf dieser Datenbank basieren, sollten zurückgezogen oder widerrufen werden.

REFERENCES

  1. EM-DAT, CRED / UCLouvain, Brussels, Belgium – www.emdat.be (D. Guha-Sapir)
  2. Pielke, R. (2020). Economic ‘normalisation’ of disaster losses 1998–2020: a literature review and assessment. Environmental Hazards, 1-19.
  3. D. Guha-Sapir D. Hargitt P. Hoyois, Thirty years of natural disasters 1974-2003: the numbers, centre for Research on the Epidemiology https://www.unisdr.org/files/1078_8761.pdf

Link: https://wattsupwiththat.com/2020/10/21/un-climate-disaster-doubling-revisited/

Übersetzt von Chris Frey EIKE