1

Kritisches Hinterfragen des IPCC Basis Modell KT97, seines atmosphärischen Treibhauseffektes, seiner Ableitung von CO2 mit einem Strahlungsantrieb von 32 W/m² und seiner politischen Dimension

Ein seit ca. 1850 von Klimawissenschaftlern weltweit beobachteter Temperaturanstieg von ca. 1.2 K wird auf den Ausstoß von Treibhausgasen, allen voran auf CO2 zurückgeführt.

Vom IPCC gesammelt veröffentliche Computer Szenarien basieren auf Modellen mit einem atmosphärischen Treibhauseffekt von 33 K. Diesen formulierte als einer der ersten in den 1980-ziger Jahren der NASA Wissenschaftler B. Barkstrom mit Kollegen auf Grundlage von selektiv ausgesuchten Satellitenmesswerten (ERBE Satellitenprogramm der NASA, Messung der ein/abgestrahlten Energie).

In ihrer energetischen Bilanzbetrachtung der Erde wurde die solare Einstrahlung von 1368 W/m² der Sonne, wie so oft, auf die gesamte Erdhülle über den Faktor 1/4 (da die Sonne auf eine virtuelle Kreisfläche strahlt, und die Kugeloberfläche mit dem gleichen Radius 4 x größer ist) verteilt. Die Wissenschaftler Kiehl und Trenberth übernehmen das Modell und verfeinern es.

Bei diesem Vorgehen kann aber nur etwa die Hälfte der vorhandenen Messwerte (BSP. ERBS Satellit des ERBE Programm) im Modell dargestellt werden. Aber selbst die wenigen im Modell verwendeten Werte, weichen zusätzlich noch von den Satellitenwerten in erheblichen Umfang ab, beispielsweise Modellwert und Messwert der Albedo, obwohl sich ihre Modelle auf Satellitenmesswerte, insbesondere das ERBE NASA Programm berufen.

Bereits kleine Abweichungen haben aber große Auswirkungen. Die Folge des Ansatzes von nur eines Teils, weil lediglich der Hälfte der Messwerte, verursacht daher in derartigen Bilanzmodellen ein erhebliches Energiedefizit. Die fehlende Energie führt zu einer sehr geringen Abstrahleistung der Erde von nur 235 W/m². Diese entspricht über das Stefan Boltzmann Gesetz einer Temperatur von -18 Grad Celsius in der oberen Atmosphäre. Gibt es keine Strahlungsbehinderung in der Atmosphärenhülle, so müssste die Erdoberfläche auch auf -18 Grad Celsius abkühlen und die Erde ein Eisball sein. Wir „messen“ aber global ca. +15 Grad Celsius.

 

Um diesen offensichtlichen Widerspruch logisch aufzulösen, postulierte oder rief Barkstorm einen sogenannten atmosphärischen Treibhauseffekt von 33 Grad Celsius aus. Dieser soll von unsymmetrischen Gas-Molekülen durch eine Gegenstrahlung von 324 W/m² verursacht werden. Tatsächlich werden in geringem Maße unsymmetrische atmosphärische Molekühle von Strahlung angeregt. Durch Stöße oder auch Abstrahlung geben sie diese Energie wieder ab.

Man kann zeigen, um +15 Grad Celius im Modell als Oberflächentemperatur zu erreichen, verändern Kiehl und Trenberth jedoch hierzu die physikalisch/chemischen Eigenschaften von CO2. Sie machen aus einem Gas, ein diskontinuierlicher Abstrahler, einen Kontinuums- oder Festkörperstrahler mit einer Abstrahlleistung von bis zu 32 W/m². Dies ist nach Meinung des Autors nicht richtig, da hierbei nicht strahlende Bereiche für den gesamten Temperaturbereich von -18 bis +15 Celsius im Abstrahlspektrum mit eingerechnet wurden.

Schematische Darstellung der 1/4 Verteilung der solaren Einstrahlung auf die Erdkugel. Bild EIKE

Außerdem bezieht die 1/4 Verteilung der solaren Einstrahlung auf die gesamte Atmosphärenhülle stets die kalte Nachtseite mit ein und entspricht einem solaren Modell mit 2 Sonnen, halber Abstrahleistung und die Erde in Ihrer Mitte. Zusätzlich widerspricht dies der korrekten Anwendung des Stefan-Boltzmann Gesetzes.

Ein Modell mit dem Verteilungsfaktor 1/2, auf Basis der Energiebeträge der gesamten Messreihe des Satelliten ERBS im 5-jährigen Durchschnitt, liefert hingegen eine deutlich höhere Abstrahlleistung der Erde von durchschnittlich 500 W/m². Es gibt bei diesem Verteilungsansatz daher keine Strahlungsbehinderung der Atmosphäre, wie von Barkstorm seinerzeit postuliert. Damit entfällt die Notwendigkeit eines Treibhauseffektes von 33K und die Kopplung der Temperatur an den CO2 Gehalt.

CO2 strahlt, aber vernachlässigbar wenig. Da IPCC Szenarien den barkstormschen Treibhauseffektes nachmodellieren, errechnen diese am Computer zwangsläuffig Horrorszenarien mit weitreichenden, politischen Auswirkungen. Ein Modell mit dem Verteilungsfaktor 1/2 führt die globale Erwärmung von ca. 1.2 Grad Celsius auf eine langfristige Bewölkungsänderung von ca. 3.6 % zurück. Dies zeigen die Messwerte der Satelliten TERRA und AQUA und finden in den langen Zeitreihen der Albedo für Europa (Quelle Deutscher Wetterdienst) auch für Europa ihre Bestätigung.

Setzte man dann in das Modell von Kiehl und Trenberth, 1997, mit 1/4 Verteilung und unter Ansatz der Gegenstrahlung von 324 W/m², statt der Modellalbedo von 0.31, den Albedo Satellitenmesswert von ERBS mit 0.27 ein, so errechnete sich, statt 14.8 Grad Celsius, eine mittlere Globaltemperatur von 17,6 Grad Celsius. Dies aber wäre falsch und führt bereits den Pariser Klimaakkord ad absurdum, obwohl dort keine eine Bezugstemperatur für die Begrenzung der Erderwärmung genannt ist.

Die obige Darstellung wird mit umfangreichen mathematisch physikalischen Nachweisen im angehängten  Artikels Verlinkung zur PDF Datei ausführlich begründet

Langversion des Artikels Kritisches Hinterfragen des IPCC Basis Modell KT97 von A.Agerius 2020.

Folgt man dieser, dann besteht für Klima Alarmismus nach Meinung des Autors kein Anlass.




Der Energiewende-Trojaner im Haus

Eine Durchschnittsfamilie braucht so um 4.000 KWh pro Jahr und ist noch nicht zwingend betroffen. Doch Achtung, Ausnahmen gibt es bereits heute. Wenn Sie nämlich einen Ladepunkt für Ihr Elektroauto haben, eine Wärmepumpe, Nachtspeicheröfen oder eine Solaranlage, dann müssen Sie ihren Stromzähler austauschen lassen.

Die Smart-Meter werden so sukzessive den guten alten schwarzen Zählerkasten mit der sich langsam drehenden Scheibe ersetzen. Sie bestehen aus zwei Elementen: einem digitalen Stromzähler und einem Kommunikationsmodul, das den Zähler per Internet mit dem Netzbetreiber verbindet. Smart-Meter sind Drahtaffen, die dem Netzbetreiber online völlig intransparente Kundendaten übermitteln und auch Eingriffe des Netzbetreibers in das Stromnetz beim Kunden ermöglichen sollen.

Es sollte die Bürger sehr misstrauisch stimmen, wenn in Deutschland die Verzögerung bei der Einführung einer neuen Technik nur wenige Jahre beträgt und die Politik die Einführung wie Sauerbier anpreist und dabei scheinheilig auf Datenschutz pocht.

Amtlich heißt es: „Smart Meter bringen durch die Flexibilisierung des Gesamtsystems für den Netzbetreiber viele Vorteile. Diese sind etwa zusätzliche Steuerungsmöglichkeiten, Glättung von Verbrauchsspitzen mittels intelligenter Stromzähler und der optimalere Einsatz vorhandener Speicherkapazitäten. Smart Meter stellen für die Netzbetreiber wichtige Segmente für künftige Energiesysteme dar. Durch smarte Technologien kann die steigende Menge an dezentral (von verschiedenen Akteuren) erzeugter Energie, wie Photovoltaik- oder Windkraftanlagen, in wirtschaftlicher Weise in das Netz eingebunden werden.“

Wenn deutsche Politiker das Wort „smart“ in den Mund nehmen, bekomme ich Angst. Gemeint ist wohl eher Volkserziehung durch die Hintertür. Vater Staat kann jetzt nachschauen, ob jemand bei Flaute das Auto lädt und keine „Ladescham“ hat. Glättung von Verbrauchsspitzen? Der elektrische Stromblockwart kann Verbraucher wie Autoladepunkt, Nachspeicherofen, vielleicht gar intelligente Waschmaschinen oder Geschirrspüler an den optimalen Einsatz der nicht vorhandenen Speicherkapazitäten „anpassen“? Das Geschwurbel heißt wohl eher: Wenn es im Energiesozialismus nicht mehr genug Strom für alle gibt, dann sollen wenigstens alle gleich wenig haben. Oder ist das Smart-Meter sogar so smart, dass einige gleicher sein werden?

Die größte Frechheit dabei ist, dass der Kunde die Kosten des Stromtrojaners auch noch selber tragen muss. Natürlich nicht durch plumpen Verkauf, sondern durch lebenslange Zählermiete.

Der Endsieg der Energiewende ist nicht mehr aufzuhalten. Meint jedenfalls Peter Altmaier, (der Clip ist sehenswert).

Herr Altmaier feierte erste Erfolge als ehemaliger Bundesumweltminister und oberster Strompreisbremser im Jahre 2013 („Mit der Diskussion über die Strompreisbremse ist es mir gelungen, einen Paradigmenwechsel zu schaffen und den Kostenaspekt beim Ausbau der erneuerbaren Energien in den Mittelpunkt zu stellen“). 

Dann reüssierte er als „Merkels Ein-Mann-Armee“ und Flüchtlingskoordinator der Bundesregierung 2015 („Wenn wir erfolgreich sind, können wir nicht nur die Stabilität auf dem westlichen Balkan erhalten und in Europa, sondern darüber hinaus auch noch den Nahen Osten stabilisieren.“).

Der Beitrag erschien zuerst bei ACHGUT hier




10 Jahre Climategate: Der Klima-Betrug geht unvermindert weiter

Im November 2009 gelangte eine große Zahl von eMails aus der Climate Research Unit (CRU) der University of East Anglia an die Öffentlichkeit. Die kompletten Climategate eMails können hier nachgelesen werden. Wer in die Abgründe wissenschaftlicher Korruption eintauchen will, dem sei der Link empfohlen.

Die eMails haben in einer Weise das Bild einer korrupten, konspirativen Gruppe von Wissenschaftlern gezeichnet, die mit gefälschten und manipulierten Daten, mit Modellen, die erstellt werden, um ein bestimmtes Ergebnis zu produzieren, nicht, um etwas vorherzusagen, der Welt vorgaukeln wollen, es gebe eine auf menschliche Aktivitäten zurückführbare globale Erwärmung.

Christopher Booker hat am 28. November 2009 in Telegraph vom schlimmsten Wissenschaftsskandal unserer Generation gesprochen. Selbst linke Kommentatoren befänden sich im totalen Schock, und zwar deshalb, weil die Wissenschaftler, die bis zum Haaransatz im Sumpf aus Korruption und Fälschung stecken, nicht irgendwelche Wissenschaftler sind, sondern

“the small group of scientists who have for years been more influential in driving the worldwide alarm over global warming than any others, not least throuh the role they play at the heart of the UN’s Intergovernmental Panel of Climate Change”.

Der Betrug, dessen Aufdeckung wir mit diesem Post einmal mehr würdigen wollen, umfasst nicht nur die Wissenschaftler der CRU in East Anglia, nicht nur Phil Jones, Keith Briffa, Tim Osborn und andere mehr, er umfasst auch Michael Mann von der University of Pennsylvania, und der Betrug reicht bis in die Berichte des IPCC, findet sich in diesen als Datenfälschung, Datenunterschlagung und in einer Reihe weiterer Formen des Betrugs wieder.

hier nachgelesen werden. In beiden Fällen geht es letztlich um ein Gütekriterium, ein Maß, das die Übereinstimmung von Modellwerten mit der Realität angibt, und das systematisch in den Arbeiten, die den Hockeystick von Mann befördern und in Manns Arbeiten selbst fehlt. Auch im rund 9 Jahre währenden Rechtsstreit mit Tim Ball ist es Mann nicht gelungen, die entsprechenden Berechnungen, mit denen seine ganze Behauptung des menschengemachten Klimawandels steht und fällt, vorzulegen.

Dazu kommen wir gleich.

Zurück ins Jahr 2009, als der Schock über die eMails aus East Anglia noch frisch war. Besonders erschreckt hat diejenigen, die damals gelesen haben, was unter angeblichen Klimaforschern ausgetauscht wurde, dass die nämlichen Klimaforscher über Jahre hinweg untereinander diskutiert haben, wie man es vermeiden könne, die Daten, die ihrer Forschung zu Grunde liegen, zu veröffentlichen, eine Diskussion, die in die umfassende Löschung von Emails und Daten gemündet ist, was in offizieller Version mit “die Daten wurden verloren” bezeichnet wird. Dass dieser Verlust, der sich in den geleakten eMails als Aufforderung, Daten und eMails zu löschen, wiederfindet, dann, wenn er vorgenommen wird, nachdem ein Antrag auf Veröffentlichung der Daten unter dem Freedom of Information Act des Vereinigten Königreichs vorgenommen wird, einen Straftatbestand darstellt, dazu kommen wir gleich noch.

Christopher Booker aus dem Jahre 2009 liest, ist, dass die in den eMails aus East Anglia breit diskutierten Methoden, die Daten zu fälschen, um die gewünschten Ergebnisse zu erhalten, so vertraut klingen und Methoden beschreiben, die bis heute in GISTEMP, HadCRUT4 und anderen Datensätzen verwendet werden:

“The second and most shocking revelation of the leaked documents is how they show the scientists trying to manipulate data through their turtuous computer programmes, always to point only in the one desired direction – to lower past temperatures and to ‘adjust’ recent temperatures upwards, in order to convey the impression of accelerated warming”.

Die Fälschung von Daten und die intentionale Berechnung von Modell-Vorhersagen, die globale Erwärmung produzieren, die hier für die Zeit vor 2009 beschrieben wird, sie könnte auch die Gegenwart beschreiben, denn daran, dass Daten in offizieller Lesart “harmonisiert” oder “adjustiert” werden, was immer und ohne Ausnahme zum Ergebnis hat, dass Rohdaten, die keine Erwärmung oder gar eine Abkühlung zeigen, nunmehr eine starke Erwärmung zeigen, hat sich überhaupt nichts geändert. Es ist, als wäre der riesen Betrug 2009 nicht aufgeflogen. Der Betrug geht unvermindert weiter, als Konspiration, wie wir unten zeigen.

Christopher Booker, der 2009 der Ansicht war, nach dem schlimmsten Wissenschaftsskandal unserer Zeit gebe es kein Zurück mehr, denn der Skandal habe die Klimaforschung nicht nur in Verruf gebracht hat, er habe auch gezeigt hat, dass sich mafiöse Strukturen ausgebildet haben, in denen Wissenschaftler nicht nur kolludieren, um durch gegenseitige Peer Reviews ihre jeweiligen Beiträge in wissenschaftliche Zeitungen zu bringen, sondern auch dass dieselben Inhaber wissenschaftlicher Positionen Verlage erpressen, um Beiträge, die ihren eigenen Beiträgen kritisch gegenüberstehen, zu unterdrücken, er hat sich geirrt.

Wir leben im Jahr 2020 und es ist, als hätte es Climategate nie gegeben. Der Hockey-Stick von Mann wird immer noch propagiert. Die Datenfälschung geht unvermindert weiter. Die Erzählung, Menschen seien am Klimawandel schuld, sie hat durch die Erkenntnis, dass alle entsprechenden Behauptungen auf Lug und Betrug gebaut sind, keinen Schaden genommen.

Wie konnte es soweit kommen?

Stephen McIntyre und Ross McKitrik geben in einem Paper eine umfassende Antwort auf diese Frage (Climategate: Untangling Myth and Reality Ten Year Later). Wir haben die 33 Seiten gelesen und geben unseren Lesern unsere Zusammenfassung. Das Paper, in das man sich erst etwas einlesen muss, wenn man Climategate nicht mehr so parat hat, sei jedem empfohlen, der wissen will, wie ein Cover-up durch diejenigen funktioniert, die am menschengemachten Klimawandel verdienen und keinerlei Interesse daran haben, den Goldesel, den sie melken, dadurch zu gefährden, dass sie durchsickern lassen: “Es ist alles erstunken und erlogen”.

Weil wir bis hier soviel Text haben, hier ein zwei Abbildungen aus dem Beitrag von McIntyre und McKitrick. Beide gehören übrigens zu den frühesten und heftigsten Kritikern der angeblichen Theorie von Michael Mann. Sie haben schon frühzeitig gezeigt, dass die Arbeiten von Mann das Papier nicht wert sind, auf dem sie gedruckt sind und dass es entsprechend unverantwortlich ist, politische Empfehlungen, wie sie das IPCC gibt und ganze Politiken darauf zu gründen.

Jetzt zu den Abbildungen. Sie dokumentieren einen großangelegten Betrug.

 

Die beiden Abbildungen zeigen Fälschung (links) und Original (rechts). Dargestellt ist die Rekonstruktion der historischen Temperaturen, die zwischenzeitlich als Hockeystick bekannt geworden ist. Wie man sieht, ist die Mittelalterliche Warmzeit in beiden Rekonstruktion nicht vorhanden. In den geleakten Emails wird eingehend diskutiert, wie man die Mittelalterliche Warmzeit loswerden kann, weil sie die Aussage, dass Menschen an der Erwärmung der Erde schuld seien, stört.

unserer Diskussion von PAGES2K gezeigt, was für ein Humbug die entsprechende Rekonstruktion ist und dies an zwei Studien festgemacht, die aufgrund gleicher Daten zu einander widersprechenden Ergebnissen gelangen. McIntyre und McKitrick diskutieren in ihrer Arbeit die nämlichen Probleme und zeigen, wie die an der Klimawandel-Konspiration Beteiligten die Daten so manipuliert haben, dass das herauskommt, was sie zeigen wollen: globale Erwärmung im 20. Jahrhundert. Die beiden Abbildungen sind ein Niederschlag dieser Manipulation. Die Abbildung links findet sich als Beleg für von Menschen verursachte Erwärmung im Bericht des IPCC von 2001, die rechte Abbildung zeigt, was links ausgelassen wurde: Denn dieselben Daten zeigen einmal eine Erwärmung, einmal eine Abkühlung. Dass die Daten, die rechts noch ausgewiesen werden, im Bericht des IPCC gelöscht wurden, hat einen einfachen Grund, wenn schon für die Zeit, für die die meisten Datenpunkte vorliegen, widersprüchliche Ergebnisse erzielt werden, was bedeutet dies für die Vergangenheit im Hockey-Stick, die mit viel weniger Datenpunkten berechnet wurde:

“if the tree ring proxies gave inconsistent results in the 20th century, with a large population going the ‘wrong’ way, how could anyone preclude similar behavior in the past? (McIntyre & McKitrik 2019: 9)

 

Mann und seine Kumpane haben sich Jahrzehntelang geweigert, ihre Daten offenzulegen. McIntyre und McKitrick dokumentieren dies und wer es liest, der muss, angesichts der Unverfrorenheit mit der betrogen wird, frösteln. Mann und seine Kumpane haben sich auch geweigert, r2-Werte vorzulegen. Die Ausflüchte, die vorgebracht wurden, sind hinreichend dokumentiert. Forscher, die sich bemüht haben, nachzuvollziehen, was Mann und Konsorten berechnet haben, kamen regelmäßig mit derart schlechten Werten für r2 zurück (disastrously low), dass man annehmen muss, die Berechnungen von Mann und seinen Nachfolgern haben keinerlei Validität.

Die Tatsache, dass sein Modell keinerlei Anspruch auf Übereinstimmung mit der Realität erheben kann, war offenkundig auch Mann bewusst. Die berühmte “Dirty Laundry” Email, “Schmutzige Wäsche Email”, die in den geleakten Emails enhalten ist, dokumentiert dies eindrücklich. Darin schreibt Mann and Tim Osborn, der an der CRU in East Anglia sitzt (in unserer Übersetzung):

“p.s. Ich weiß, ich muss das vermutlich nicht ansprechen, ich tue es dennoch, um vollständige Klarheit in diesem Punkt zu haben: Ich stelle diese Daten für Deinen eigenen persönlichen Gebrauch zur Verfügung, weil Du ein vertrauenswürdiger Kollege bist. Gib’ die Daten also bitte an niemanden weiter ohne zuvor mit mir Rücksprache gehalten zu haben. Das ist nämlich die Art von “schmutziger Wäsche”, die man nicht in den Händen derer sehen will, die versuchen könnten, die Dinge zu verbiegen …”

Die Konspiration umfasst nicht nur Wissenschaftler, sie umfasst auch das IPCC. Die linke Variante der Abbildung, die letztlich Eingang in den Bericht des IPCC von 2001 gefunden hat, wurde schon 1999 vor dem Hintergrund der widersprüchlichen Ergebnisse, die in der rechten Abbildung noch ausgewiesen sind, diskutiert. Damals hat Chris Folland, der einen Teil des Berichts koordinierte, eine eMail and Mann, Jones und Briffa geschickt, die man als Aufforderung zur Fälschung von Daten verstehen kann (und muss?):

“A proxy diagram of temperature change is a clear favorite for the Policy Makers summary. But the current diagram (das rechte) with the tree rings only data somewhat contradicts the [Mann] multiproxy curve and dilutes the message rather significantly”.”

Die korrekten Daten verwässern also die Nachricht, die die Verantwortlichen des IPCC an die Politiker senden wollen. Also wurden die widersprüchlichen Ergebnisse gelöscht und im IPCC-Bericht eine Realität präsentiert, die es nicht gibt. Das nennt man Betrug.

Nicht nur zeigen die geleakten eMails, dass Daten gelöscht, verheimlicht, verschleiert, manipuliert wurden, sie zeigen auch, dass sich die verantwortlichen angeblichen Wissenschaftler sehr bewusst darüber waren, was sie tun. Ein Beispiel dafür ist “Mike’s [Mann] Nature trick”, der angewendet wurde, um aus den Daten rechts, die Daten links zu machen (Abbildung unten). Dazu schreibt Philip Jones in einer eMail an Michael Mann und Keith Briffa:

I’ve just completed Mike’s Nature trick of adding the real temps to each series for the last 20 years (ie from 1981) and from 1961 for Keith’s to hide the decline [Hervorhebung durch uns].”

Mike’s Nature Trick macht aus den Daten (rechts), die Fälschung (links).

Wir empfehlen unseren Lesern den umfassenden Beitrag von McIntyre und McKitrick und wollen an dieser Stelle nur in aller Kürze berichten, was sich dort auf rund 20 Seiten nachlesen lässt: das Reinewaschen der Täter durch ihre Universitäten.

 

“Q (Graham Stringer, MP): I find it a bit surprising, that you didn’t ask directly when a lot of the controversy had been about the request to delete e-mails. You didn’t personally ask Professor Jones … directly whether he had deleted those emails?
Sir Muir Russell: That would have been saying: ‘Did you commit a crime?’, and we would have had to go into a completely different area of the relationship and formal role for the inquiry”.

Mit anderen Worten, weil Muir Russel Angst hatte, die Antwort von Jones könnte einen Straftatbestand konstituieren, hat er die Frage, die diese Antwort zur Folge gehabt hätte, gar nicht erst gestellt. Eine Form der Aufklärung, deren Ziel darin besteht, nichts aufzuklären und die Zeit, die man mit Nichtaufklärung verbracht hat als Beleg für die Unschuld des Angeklagten zu verkaufen.

So als wäre nichts gewesen, wird auch 2020 die Erzählung der globalen Erwärmung verbreitet, werden Daten präsentiert, von denen bekannt ist, dass sie gefälscht, falsch, unvollständig oder manipuliert sind. Wenn es darum geht, eine Erzählung zu nutzen, um Menschen zu kontrollieren, ihre Freiheitsrechte zu zerstören und vor allem, zur Kasse zu bitten, dann ist offenkundig jede Lüge eine gute Lüge. Überlassen wir Steve McIntyre und Ross McKitrick das Schlusswort:

“The contemporary whitewashing and ultimate sanitization by climate academics is itself an interesting and mostly untold story. Climategate exposed bad practices; the fake inquiries whitewashed them, and now the story is being retold so the villains are not only innocent but are to be embraced as heroes. It is an almost classic example of what Alexander Pope famously observed in the Essay on Man (1733) nearly three centuries ago:

Vice is a monster of so frightful mien
As to be hated needs but to be seen;
Yet seen to oft, familiar with her face,
We first endure, then pity, then embrace.”

Der Beitrag erschien zuerst bei ScienceFiles hier

======================================================

==>  dazu auf EIKE auch :

https://eike.institute/2019/09/07/10-jahre-climategate-2009-2019-alles-schon-vergessen/

PDF  d a z u  :

Puls.19.9.Zehn.Jahre.ClimateGate.Puls

=============================================

 




Kraftwerks-Experte erklärt: Das Ökostrom-Dilemma: Warum bei Elektroautos oft Kohle-Strom im Akku landet

In diesen aufgeregten Zeiten mit CO2-zentrierter Weltsicht werden heftige Diskussionen über die ökologischen Auswirkungen der Mobilität geführt. Dabei geht es dann meist nicht um Schadstoffe (Stickoxide, Feinstaub) oder Lärm, sondern vor allem um die CO2-Emissionen. Selbst die Elektroautos, die während der Fahrt kein CO2 emittieren, bekommen sie in die Bilanz geschrieben, weil ihre Herstellung und auch ihr Fahrstrom Emissionen verursachen.

Heiß diskutiert: Der „CO2-Rucksack“ des Elektroautos

Jedes Fahrzeug, das eben vom Band rollte und noch keine Straße gesehen hat, ist aus offizieller Sicht schon ein Klimasünder. Handelt es sich um ein E-Mobil mit einem entsprechend großen Akku, sind diese Emissionen durch die energieintensive Produktion des Stromspeichers besonders hoch. Das heißt, es bekommt sofort einen CO2-Rucksack verpasst, der größer als der eines Verbrennerfahrzeugs ist.

Über den Gastautor

Frank Hennig, Autor des Buches „Dunkelflaute oder warum Energie sich nicht wenden lässt“, ist Diplomingenieur für Kraftwerksanlagen und Energieumwandlung und verbrachte sein Arbeitsleben in den Kraftwerken eines großen Stromunternehmens. Er war viele Jahre Betriebsrat und für die Öffentlichkeitsarbeit zuständig, was ihn zum Studium der PR an der Deutschen Presseakademie führte. Heute ist er als Autor für „Tichys Einblick“ sowie in der technischen Fortbildung als Referent tätig. Er ist geborener Görlitzer und lebt in der Niederlausitz.

Während des praktischen Betriebs geht man dann aber davon aus, dass die Bilanz geringer ist als beim Benziner oder Diesel, weil die Emissionen der entsprechenden Stromproduktion im Durchschnitt geringer seien. Da gibt es dann in diversen Studien Geraden verschiedener Steigung, die irgendwo bei einer bestimmten Fahrstrecke einen Schnittpunkt zeigen, ab dem das E-Fahrzeug ökologischer im Sinne niedriger CO2-Emissionen sei.

In Norwegen geht die Öko-Rechnung auf

Das ist sachlich richtig, solange, wie in Norwegen, fast ausschließlich Ökostrom getankt wird. Steigende Last im Stromnetz führt dort dazu, dass die Schieber an den Stauwerken der Wasserkraftwerke etwas weiter geöffnet werden.

Für Deutschland setzt man den durchschnittlichen Energiemix mit der durchschnittlichen CO2-Emission an, die bei etwa 600 Gramm pro Kilowattstunde liegt. Das kann man so machen, ist aber nicht korrekt.

Netzfrequenz und Regelleistung im deutschen Stromnetz. Die stabile Frequenz ist ein Zeichen des Gleichgewichts zwischen Produktion und Verbrauch

HennigNetzfrequenz (blaue Linie) und Regelleistung im deutschen Stromnetz. Die stabile Frequenz ist ein Zeichen des Gleichgewichts zwischen Produktion und Verbrauch

Wie unser Stromnetz funktioniert

Um das zu zeigen, müssen wir uns näher ansehen, wie das Stromnetz funktioniert (siehe Grafik).

  • Hier ist beispielhaft der Verlauf der Netzfrequenz über etwa zwei Minuten dargestellt (blaue Linie). Sie schwankt leicht um die Sollmarke von 50 Hertz, das ist kein Grund zur Sorge. Die stabile Frequenz ist ein Zeichen des Gleichgewichts zwischen Produktion und Verbrauch.
  • Störgrößen wie höhere Last, Ausfall eines Kraftwerks oder Änderung der Windgeschwindigkeit und damit Änderung der Windstromeinspeisung müssen ausgeregelt werden.
  • Zum kurzfristigen Ausgleich dienen die Primär- und die Sekundärregelungen der Kraftwerke, zu denen diese gegenüber dem Netzbetreiber vertraglich verpflichtet werden. Im Bild ist die abgerufene Primärregelleistung an der zweiten Zahl (145) und der roten Linie zu sehen. Diese Leistung kann auch negativ sein, wenn heruntergeregelt werden muss.

Welche Erzeuger können nun Primärregelleistung bereitstellen? Das sind alle konventionellen Kraftwerke, seien es Wasserkraft-, Gas-, Kohle- oder Kernkraftwerke. Windkraft- und Photovoltaikanlagen tragen dazu aufgrund fehlender Regelfähigkeit nicht bei. Sie liefern zwar übers Jahr in Deutschland schon mehr als 40 Prozent der Stromproduktion, tragen aber keinerlei Systemverantwortung.

Wind- und Sonnenstrom bekommen „Vorrang“ im Netz

Das Stromnetz wird nach Maßgabe des Erneuerbaren-Energien-Gesetz betrieben, das heißt unter dem Einspeisevorrang der Erneuerbaren – und für diese unabhängig vom Bedarf. Alle Ökostromanlagen, abgesehen von der konventionellen Wasserkraft,  liefern ständig ihre gesamte Produktion ab.

Kommen nun künftig E-Fahrzeuge in größerer Zahl auf die Straßen, werden diese vor allem vermutlich ab den Nachmittagsstunden, zur Feierabendzeit und nachts geladen. Dadurch wird das Netzgleichgewicht durch zusätzliche Last gestört. Die Frequenz sinkt ab.

Konventionelle Kraftwerke halten Netzfrequenz stabil

Um das zu kompensieren, greift zunächst die Primärregelung der Kraftwerke ein (vollautomatisch) und versucht, den kleinen Frequenzeinbruch innerhalb von 30 Sekunden auszubügeln. Die Turbogeneratoren ziehen in der Leistung an, so dass die Frequenz wieder auf den Sollwert steigt. Ist dies nach etwa 30 Sekunden nicht gelungen, weil das Ungleichgewicht zu groß ist, greift die Sekundärregelung der Kraftwerke ein, indem ebenfalls automatisch ein neuer Leistungssollwert innerhalb einer vereinbarten Reserve vorgegeben wird. Führt auch dies nach etwa 15 Minuten noch nicht zum Erreichen des Sollwerts, wird ein neuer Leistungsbefehl erteilt. Bleibt ein Defizit auch danach noch bestehen, müssen die Fahrpläne der Kraftwerke angepasst werden, denn alle konventionellen Kraftwerke fahren nach vorgegebenen Fahrplänen.

Windenergie ist fürs Stromnetz problematisch

Übrigens wurden im Jahr 2017 an 320 von 365 Tagen die Fahrpläne geändert, was allerdings nichts mit der Elektromobilität zu tun hatte, sondern vor allem mit nicht eingetretenen Windprognosen. Da die Windgeschwindigkeit in der dritten Potenz in die elektrische Leistung der Windkraftanlagen eingeht, wirken sich bereits geringe Abweichungen der Windprognose auf die tatsächlich eintretende Einspeisung deutlich aus.

Die Erneuerbaren sind an der Netzregelung nicht beteiligt, sie können auf Kommando keine zusätzliche Leistung einspeisen. Gemäß EEG geben sie ständig ihre volle Leistung ab.

E-Autos: Windstrom im Tank – oder eher Kohle?

Natürlich kann es passieren, dass just in diesen Minuten steigenden Verbrauchs durch die E-Mobilität der Wind auffrischt, dann kommt auch Windstrom in den „Tank“. Wenn wir aber vom späten Nachmittag reden, ist die Wahrscheinlichkeit größer, dass die Sonne untergeht und der wegfallende Sonnenstrom durch konventionellen Strom ersetzt werden muss. Der Sonnenuntergang ist allerdings in den Fahrplänen der Kraftwerke eingeplant. Generell nutzt die Photovoltaik der E-Mobilität wenig, denn die übliche Nutzungsart  von E-Fahrzeugen wie auch von allen anderen besteht darin, tagsüber zu fahren. Geladen wird vor allem nachts.

Bruttostromerzeugung im Jahr 2018 am Beispiel Baden-Württembergs. Während im Bundesschnitt schon über 40 Prozent des Stroms aus sogenannten Erneuerbaren stammen, sind es im grün-schwarzen Ländle weniger. Die Windkraft trnur sehr wenig zur realen Stromerzeugung bei

Landesamt für Statistik Baden-WürttembergBruttostromerzeugung im Jahr 2018 am Beispiel Baden-Württembergs. Während im Bundesschnitt schon über 40 Prozent des Stroms aus sogenannten „Erneuerbaren“ stammen, waren es im grün-schwarz regierten Bundesland weniger. Die Windkraft trug sehr wenig zur realen Stromerzeugung bei. Weil immer mehr konventionelle Kraftwerke abgeschaltet werden, muss Deutschland Strom dann teilweise aus dem Ausland importieren

Fazit

In unserem gegenwärtigen Energiemix muss jede Steigerung des Bedarfs wie durch das (neue) Verbrauchssegment E-Mobilität von regelfähigen, also konventionellen Kraftwerken bedient werden. Mit Ausnahme der Wasserkraft können das die Erneuerbaren aber nicht leisten. Dieser zusätzlich produzierte Strom hat aber einen höheren spezifischen CO2-Anteil als die 600 Gramm pro Kilowattstunde des gesamten Mixes, da Wind- und Solarstrom nicht enthalten sind. Die Konsequenz ist für die erhoffte Energiewende bitter: In den Akkus der E-Mobile wird vor allem Kohle- oder Atomstrom landen.

Der Umstieg auf die E-Mobilität bringt demnach keine Emissionsminderung, wenn der zusätzlich entstehende Bedarf durch konventionelle, Emissionen verursachende Technologien bedient werden muss. Erst wenn so viele regenerative Erzeugung im Netz ist, dass sie regelbar eingesetzt werden kann und Systemverantwortung trägt, macht der massenhafte Einstieg in die Elektro-Traktion aus Sicht der Emissionen Sinn.




Die Hürden der Energiewende – Unser Deutschland droht zu kippen

Sehr geehrter Herr Limburg, bis 2050 soll Deutschland komplett mit „erneuerbaren“ Energien versorgt werden. Halten Sie dies für realistisch?

Michael Limburg: Nein, das ist schon heute nicht möglich – kein Wind- oder PVA-Erzeuger kann auch nur einen einzigen Haushalt „versorgen“, denn dazu wäre eine bedarfsgerechte Erzeugung erforderlich, was diese Techniken nicht können – und wird auch 2050 nicht möglich sein.

Welche technischen Hürden stehen dem Energiewende-Plan entgegen?

Limburg: Wie bereits erwähnt, braucht man dazu eine bedarfsgerechte Erzeugung des Stroms, was diese Techniken nicht können, zudem müssten großtechnische Elektroenergiespeicher im Multi-Terawattstunden-Bereich verfügbar sein. Die gibt es aber nicht, noch nicht mal als Forschungsprojekt. Und der Strom müsste eine sehr reine Sinusform mit einer Frequenz von exakt 50 ± 0,2 Hz aufweisen. Alles Anforderungen, die von den Haupt-„erneuerbaren“ Energien – Wind und Sonne unerfüllbar sind. Vom riesigen Landschafts- und Naturverbrauch gar nicht zu reden.

Experten aus der Kraftwerksbranche argumentieren, dass sich ein modernes Stromnetz nicht mehr stabil betreiben lässt, wenn der Anteil der Wind- und Solarkraftwerke über die 30-Prozent-Marke klettert.

Limburg: Der Grenzwert, bis zu dem das Stromnetz gerade noch stabil gehalten werden kann, dürfte vielleicht da liegen. Wo genau er liegt, werden wir wohl erst durch einen Praxistest herausfinden.

Haben Sie ein bereits real eingetretenes Beispiel für ein derartiges Szenario?

Limburg: Ja, das war der weite Teile Norddeutschlands, die Niederlande und weite Teile Nordfrankreichs und weiter südliche Länder wie Spanien betreffende Blackout vom 4. November 2006. Der wurde durch eine geplante Unterbrechung ­einer Leitung über den Weser-Ems-Kanal ausgelöst, um dem Kreuzfahrtschiff ›Norwegian Pearl‹ der Meyer-Werft die Überfahrt in die Nordsee zu ermöglichen. Es wurde eine geringe Einspeisung angenommen, zu der es aber nicht kam. Daher suchte sich die Energie andere Wege und drohte die restlichen Leitungen zu überlasten. Automatisierte Abschaltanlagen schalteten – zur Vermeidung größerer Schäden – dann weite Teile des Netzes ab.

Das Beispiel fällt in eine Zeit, wo der Anteil Erneuerbarer Energien noch relativ gering war. Wird die Wiederherstellung des Stromversorgungsnetzes ebenso reibungslos verlaufen, wenn in Deutschland dereinst der Anteil der „Erneuerbaren“ weit über 30 Prozent liegt?

Limburg: Nein, das wird sie nicht, weil dann die gut regelbaren, frequenzstabilen Kraftwerke, die zur Wiederherstellung der Versorgung des Stromversorgungsnetzes erforderlich wären, gar nicht mehr zur Verfügung stehen werden. Das ließe sich nur vermeiden, wenn wir unsere Stromerzeugungsinfrastruktur doppelt anlegen würden. Also für den Schönwettertag grüner Strom aus fluktuierenden Quellen, bei jeder Notlage oder ungeplanter oder unvorhergesehener Änderung, oder im Winter oder in windstiller Abend- und Nachtzeit erfolgt dann ein Rückgriff auf ein paralleles Netz konventioneller Kraftwerke.

Was ist der Grund für diese Schwierigkeiten?

Limburg: Nun, mit jeder Windkraftanlage – und davon gibt es schon mehr als 30 000 – mit jeder PV-Anlage – davon haben wir mehr als 1,6 Millionen – wird die Einspeisung zwangsläufig immer instabiler. Der Strom sucht sich immer – das ist ein Naturgesetz – den Weg des geringsten Widerstandes. Es ist daher nicht mehr eine Frage ob, sondern wann das Netz kollabiert.

Werden die Stromnetze solche, künftig wohl häufiger stattfindenden Ereignisse schadlos verkraften?

Limburg: Die Stromnetze in ihrer physischen Struktur werden wohl am wenigsten leiden. Aber das ist natürlich relativ. Hier und da mal ein abgebrannter Umspanntrafo, oder Schalter würde – entsprechende Reserven vorausgesetzt – wohl zu verkraften sein. Anders wird es aussehen, wenn eine oder mehrerer Generator-Turbinen bei zu schnellem Lastwechsel durchgehen. Wegen der kaum noch vorhandenen Reservekraftwerke bei gleichzeitigem Abbau der Fertigungskapazitäten – Siemens will gerade seine Kraftwerkssparte abstoßen – dürfte ein Ersatz schwierig, teuer und langwierig werden. Mit allen entsprechenden Folgen.

Mit welchen Schäden ist zu rechnen, wenn das Stromnetz in Deutschland über mehrere Stunden oder gar Tage ausfällt?

Limburg: Das hat das amtliche Büro für Technikfolgenabschätzung (TAB) schon im Jahre 2011 ermittelt und in ­einer Studie der Öffentlichkeit zugänglich gemacht. Geschehen ist seitdem nichts, was diese realen Gefahren hätte verringern können. Im Gegenteil, es wurde alles getan, um diese Gefahren wahrscheinlicher zu machen. Und was noch schlimmer ist, unsere Abhängigkeit von Strom in allen Bereichen des Lebens ist seitdem massiv gestiegen. Ich empfehle, das Buch ›Blackout‹ von Marc Elsberg zu lesen. Versorger und Netzbetreibern fürchten sich zu Recht vor dem, was darin skizziert wurde. Die eigentlich verantwortlichen Politiker – voran Frau Merkel und ihre Unterstützer-Truppe – werden dann aber wohl mit den Fingern auf sie zeigen und »haltet den Dieb« rufen, obwohl ausschließlich sie die ganze Sache angezettelt und zu 100 Prozent zu verantworten haben.


Sind Massensterben bei Mensch und Tier denkbar?

Limburg: Bei einem länger anhaltenden Blackout ab einigen wenigen Tagen durchaus wahrscheinlich. Beginnen würde das mit dem Massen-Sterben von Hühnern, Kühen und Schweinen, die in Massentierställen gehalten werden. Auch die rund 65 000 Menschen, die in Deutschland auf eine künstliche Niere angewiesen sind, hätten Riesenprobleme. Fazit: schon nach zwei Wochen würde die Zivilisation, wie wir sie kennen, aufhören zu bestehen. Es würde wieder allein das Recht des Stärkeren gelten.

Windräder drehen sich mit unterschiedlichsten Drehzahlen, je nachdem, wie stark der Wind gerade bläst. Die Frequenz des Stromnetzes beträgt jedoch 50 Hz. Wie bekommt man den Strom des Windrades in das Netz, wenn es nicht in der Lage ist, exakt diese Frequenz einzuhalten?

Limburg: Die Taktgeber für unsere Netzfrequenz sind die Generatoren der Großkraftwerke mit ihren großen Massen. Die sorgen dafür, dass auch bei plötzlichen Lastschwankungen – wie es schwankende Einspeisung, aber auch Abschaltungen nun mal sind – die Frequenz und ihre Phase – das ist vereinfacht gesagt beim Wechselstrom die Präzision der Nulldurchgänge alle 10 Millisekunden zu identischen Zeit, wenn er die Richtung wechselt – diese Größen sehr stabil bleiben. Erst wenn bestimmte Grenzwerte unter/überschritten werden, zum Beispiel ± 0,2 Hz bei der Frequenz muss sogenannte ›Regelenergie‹ zu- oder abgeführt werden. Fallen diese Großkraftwerke wie geplant weg, dann ist auch dies nicht mehr möglich, zumindest sehr erschwert. Auch dieser Damm wäre beseitigt. Die Generatoren fluktuierender Energie können das nicht, auch dann nicht, wenn elektronische Synchrongeber ihnen das aufzuzwingen versuchen. Es fehlt dort einfach an den dazu notwendigen Massen.

Demnach dienen Kondensatoren und Spulen in Elektrogeräten dazu, die „stromlose“ Zeit beim Wechsel der Polarität zu überbrücken?

Limburg: Ja, aber nur in der Niedervolttechnik. Kondensatoren sind in der Lage, elektrische Energie zu speichern, so wie Spulen das für magnetische Energie können. Die Crux ist, für die Mengen die wir benötigen – Deutschland benötigt im Mittel pro Tag rund 1,64 Terawattstunden, im Winter mehr, im Sommer weniger – gibt es selbst für winzige Bruchteile davon keinen Kondensator und keine Spule. Großtechnisch einfach nicht darstellbar. Diese Speicher sind illusorisch.

Windkraftanlagen werden demnach bei grobem Unter- oder Überschreiten der Frequenz von 50 Hz vom Netz genommen. Wie viel Prozent seiner Nennleistung speist demnach ein durchschnittliches Windkraftwerk in das Stromnetz ein?

Limburg: Im Mittel sind das bei Onshore WKA´s deutlich unter 20 Prozent. Bei Offshore rund das Doppelte. Aber selbst diese schlechten Zahlen geben ein schiefes Bild, weil die letztendlich abrufbare Leistung – und nur auf die kommt es an – höchst ungleich über die Zeit verteilt ist. So lieferten alle Wind- und Solaranlagen (Off- wie Onshore) im Mittel des Januar 2019 zwar 20,3 Prozent ihrer Nennleistung, aber in fast einem Viertel der Stunden nur minmal null und maximal zehn Prozent davon. Und nur an rund drei Prozent der Stunden gleich oder mehr als 40 Prozent. Auf ihre Nennleistung kamen sie nie. Und das war nicht nur im Januar 2019 so, sondern auch im Februar, März und April. Diese Ausbeute und Häufungen finden Sie übrigens zeitgleich über ganz Europa. Das bedeutet, dass die beschwichtigende Aussage „Wind weht immer irgendwo“ schon vom Ansatz her falsch ist. Gar nicht zu reden von der fehlenden Riesenerzeugungs- und Transportkapazität, die, wenn diese Aussage denn stimmte, nicht zur Verfügung steht.

Die Betreiber der Stromnetze müssen immer öfters eingreifen, um das Netz stabil zu halten. Was bedeutet diese Unruhe in den Stromnetzen?

Limburg: Diese Unruhe äußert sich unter anderem in einem massiven Anstieg der sogenannten Redispatch-Maßnahmen, die von wenigen pro Jahr im ersten Jahrzehnt auf rund 8 000 im Jahr 2018 anstiegen und zugleich zusätzliche Kosten von mehr als 1 Milliarde Euro erzeugten, die über die Netzgebühr auf die Verbraucher umgelegt werden. Redispatch-Maßnahmen sind die Maßnahmen, die die Netzbetreiber ergreifen müssen, um stabilen Netzbetrieb aufrecht erhalten zu könne, wenn beispielweise eine Leitung ausfällt, oder ein Umspannwerk in Wartung geht. Jetzt sind es fast immer Ereignisse, die direkt mit der Unstetigkeit der „Erneuerbaren“ zusammenhängen. Die stiegen von unter zehn pro Jahr noch vor 10 bis 12 Jahren auf rund 8 000 heute. Zudem nehmen die kurzzeitigen Ausfälle unter drei Minuten – so genannte Flickerstörungen – rapide zu. Sie erzeugen bei Produktionsbetrieben mit längeren, gekoppelten Prozessketten schon heute erhebliche Schwierigkeiten. Denken Sie nur an die Papierhersteller, mit ihren über 100 m langen Maschinen, oder auch die Walzwerke. Dies kannte man vor wenigen Jahren nur aus Entwicklungsländern und ist nun bei uns gang und gäbe.

Von interessierter Seite wird davon geredet, dass – ähnlich einer Wasserleitung – in Stromleitungen Strom eingefüllt werden kann, der danach jederzeit zur Verfügung steht. Was antworten Sie auf diesen Nonsens?

Limburg: Diese Aussage stammt von der Grünen-Chefin Annalena Baerbock und ist nicht nur falsch und dumm, sondern auch noch irreführend. Kein Stromnetz kann Strom speichern. Manchmal wird auch der Begriff „Stromsee“ verwendet. Auch dieser Begriff ist irreführend und soll die Menschen verdummen.

Wenn Strom verknappt wird, bricht ein wesentlicher Pfeiler einer funktionierenden Marktwirtschaft weg. Intelligente Geräte sollen sich einschalten, wenn das Angebot „gerade passt“, der Strompreis des gelieferten Strom muss, egal wie hoch, hingenommen werden. Nähern wir uns damit der Planwirtschaft, wo nicht der Kundenwunsch die Größe eine Angebots steuert, sondern Profiteure die Regeln und damit ihren Profit bestimmen?

Limburg: Das ist sogar erklärte Absicht, funktioniert aber nur, wenn auf Planwirtschaft pur umgestellt wird. Denn Strom wird heute noch Nachfragegesteuert erzeugt. Und zwar, mangels Speichermöglichkeit in der Millisekunde in der er auch gebraucht wird. Die Anhänger der sogenannten „Erneuerbaren“ wissen das natürlich und wollen deshalb von der Nachfragesteuerung auf die Angebotssteuerung umstellen. Das hört sich zwar vornehm und harmlos an, ist aber nur per Zwang zu erreichen, mit allem was dazugehört. Wie zum Beispiel Gebote und Verbote, aber auch entsprechende Institutionen, die in der Lage und fähig sind, diese zu überwachen und Verstöße zu sanktionieren. Das geht nur mit einer Diktatur – einer Ökodiktatur.

Viele Laien denken, dass Kohle- und Gaskraftwerke locker ersetzt werden können. Was denken Sie darüber?

Limburg: Das ist natürlich falsch, doch es müssen keine fossil betriebenen Kraftwerke sein, auch Kernkraftwerke können das, aber auch Laufwasserkraftwerke et cetera. Wichtig ist, dass sie in der Lage sind, einen stetigen, einfach zu steuernde Energiefluss zu erzeugen und dass sie dafür große Massen einsetzen. Und da sind fossil-betriebene sowie Kern-Kraftwerke vom Kosten-/Nutzenverhältnis und dem leichten Zu- und Abtransport von Brennstoff und Strom einfach unschlagbar. Staudämme und Flusslaufwasser-Kraftwerke verlangen eine bestimmte Topologie, die nicht oft vorkommt. Deswegen bleiben fossil betriebenen Kraftwerke und Kernkraftwerke noch sehr lange die erste Wahl.


Es sind laute Stimmen zu hören, dass beim Einspeisen in das Stromnetz der Strom aus Erneuerbaren Energien Vorrang vor dem Strom aus konventionellen Kraftwerken haben muss. Ist dies technisch überhaupt möglich?

Limburg: Technisch geht das! Und genau das ist der heutige gesetzlich erzwungene Status quo. Man zwingt die Netzbetreiber per Gesetz (EEG) den minderwertigen Alternativ-Strom vorrangig abzunehmen und ihn auch noch 20 Jahre lang zum Vielfachen des Marktpreises in jeder angebotenen Menge zu vergüten. Das genau macht ja die Investition ›Alternativ-Strom-Anlagen‹ so attraktiv. Hohe feste Preise, bei garantierter Abnahme in unbegrenzter Menge.

Gegenwärtig wird von den Energiewende-Profiteuren die bereits installierte Leistung an Wind- und Solarkraftwerken hervorgehoben. Welchen Beitrag haben denn diese Kraftwerke bisher für die Stromversorgung in Deutschland geleistet?

Limburg: Dieser Beitrag ist sicher in gewissen Mengen da, jedoch nur, wenn man die Betonung auf ›Strom‹ legt und den Begriff ›Versorgung‹ außen vor lässt. Denn auch die große Menge an erzeugter und gelieferte Elektroenergie, die alternativ erzeugt wurden, – im April 2019 waren es rund 14 400 GWh, also etwa 40 Prozent des Verbrauches in diesem Monat – darf nicht darüber hinwegtäuschen, dass immer konventionelle Reservekraftwerke mitlaufen müssen. Das heißt, wir leisten uns aus rein ideologischen Gründen zwei Erzeugungssysteme. Das ist sehr teuer und macht das Ganze immer instabiler.

Seit geraumer Zeit wird eine massive Manipulation von Daten beklagt, um die „Erneuerbaren“ in besseres Licht zu rücken. Welche Beispiele können Sie hier anführen?

Limburg: Diese Manipulation geschieht besonders bei den sogenannten Erzeugungskosten für Strom aus verschiedenen Erzeugungsarten, nämlich beim Vergleich ›konventionell erzeugt‹ gegenüber so genannten „Erneuerbaren“ und wird besonders vom Fraunhofer-Institut für Solare Energiesysteme ISE betrieben. Seit 2013 – und so steht es auch bei Wikipedia, der ersten Wahl für Laien – wurden zum Beispiel die Kosten für Braunkohlestrom von 2,4 ct/kWh auf jetzt 5 bis 8 ct/kWh hochgejubelt. Im Vergleich dazu werden die Kosten für „Erneuerbaren“ etwa bei Onshore-Wind auf 4 bis 8 ct/kWh herunter gerechnet. Das Bundeswirtschaftsministerium hingegen schreibt in seinem Bericht ›EEG in Zahlen‹, dass Onshore-Wind in 2018 mit durchschnittlich 19 ct/kWh vergütet wurde. Das ISE spielt also mit gezinkten Karten.

Herkömmliche Kraftwerke arbeiten konstant mit ihrer Nennleistung. Dies ist bei Wind- und Solaranlagen nicht der Fall. Von null bis Vollast ist – je nach Wetter – in kurzer Zeit alles möglich. Bis 2050 soll die Spitzenleistung der „Zappelstromproduzenten“ nun von heute 105 000 MW auf bis zu 320 000 MW steigen. Ist dies mit dem heutigen Netz überhaupt zu schaffen?

Limburg: Nun, auch herkömmliche Kraftwerke arbeiten nicht immer konstant mit ihrer Nennleistung. Der Grund liegt darin, dass die Nachfrage von der Tages- und auch der Jahreszeit her ständig schwankt. Um das ökonomisch in den Griff zu kriegen werden herkömmliche Kraftwerke für verschiedene Leistungsabgabe-Typen gebaut. Es gibt welche, die überwiegend die sogenannte Grundlast erzeugen, und die möglichst immer im optimalen Betriebszustand gehalten werden, und andere, die vorwiegend die sogenannte Regelleistung bereitstellen sollen. Und die dann, je nach Nachfrage, rauf oder runter geregelt oder ganz weggeschaltet werden. Regelleistung ist teurer als Grundlast, deswegen versucht man immer, nur einen Teil des Bedarfes davon bereitzustellen. Die alternativen Angebote von Wind- und Sonne können beides nicht. Da kommt der Strom oder er kommt nicht. In geringen Grenzen lassen die sich zwar auch regeln, vor allem runter oder auch abregeln, aber das Netz kann ihren Strom nur aufnehmen, wenn eine gewisse Schwelle nicht überschritten wird. Wo die liegt, also wo der Kipppunkt liegt, an welchen zu viel Alternativstrom das Netz kollabieren lässt, werden wir bald herausfinden. Zurzeit haben wir 105 GW an Alternativ-(Nenn) Leistungsangebot, von der in Spitzenzeiten bis zu 40 GW – also nur knapp 40 Prozent davon – eingespeist wird. Das fiel zufälligerweise in ausgesprochene Nachfragespitzen, und konnte daher vom Netz aufgenommen und verteilt werden. 320 GW sind aber nicht nur aus dieser Sicht illusorisch, sondern auch vom extremen Landschaftsverbrauch und den riesigen Kosten her.

Vielfach ist zu hören, dass schon heute 100 Prozent „Erneuerbare“ machbar seien. Stimmen Sie dem zu?

Limburg: Technisch machbar ist eigentlich alles. Grüner Strom ist sicher besser als gar kein Strom. Die Frage ist, ob das Machbare dann auch vernünftig nutzbar und vor allem bezahlbar wäre. Und das wäre der zu 100 Prozent erzeugte „Erneuerbare“ auf keinen Fall. Nein, das ist grünes, von jeglichen Kenntnissen völlig befreites Wunschdenken, wobei man durchaus unterstellen kann, dass vielen grünen Vordenkern durchaus bewusst ist, welchen Schaden ihre Ideologie anrichtet, und dass sogar wollen, mindestens aber billigend in Kauf nehmen.

Was halten Sie davon, überschüssigen Strom mittels der Technik ›Power to Gas‹ in alternative Kraftstoffe umzuwandeln, mit dem beispielsweise Verbrennungsmotoren betrieben werden?

Limburg: Nichts! Die Wirkungsgradverluste dieser Technik liegen bei 75 Prozent. Selbst wenn es funktionierende Großanlagen dafür gäbe, würden sich die Kosten je eingesetzter kWh allein dadurch vervierfachen. E-Fuel, also alternative Kraftstoffe, lassen sich nur vernünftig herstellen, wenn Prozesswärme extrem billig in ausreichender Menge zur Verfügung steht. Die könnte nach aktuellen Stand zum Beispiel vom Dual-Fluid-Reaktor kommen, dessen Konzept deutsche Ingenieure entwickelt habe. Dieses Konzept hat aber in Deutschland derzeit keine Chance auf Verwirklichung.

Schon bald müssen Solarzellen der ersten Generation ersetzt werden. Es ist davon die Rede, dass beim Recycling wertvolle Rohstoffe anfallen würden. Andererseits ist bekannt, dass Dünnschichtmodule über giftiges Cadmium sowie Blei verfügen, demnach Sondermüll sind. Was kommt da auf die Verwerter beziehungsweise die Besitzer der Solarzellen zu?

Limburg: Auf jeden Fall ein großes Geschäft. Doch wie das zu bewältigen ist, weiß heute noch keiner. Auf alle Fälle wird es teuer. Im Normalfall werden die Verbraucher erneut dafür zahlen müssen, da die Betreiber reihenweise in die Insolvenz gehen werden, sodass dieser zum Teil hochgiftige Sondermüll nicht auf ihre Kosten entsorgt werden kann.

Die Abkehr vom Erdöl würde dazu führen, dass auch bezahlbare Hochleistungs-Schmiermittel und Hy­drauliköle verschwinden würden. Was kommt auf Deutschland zu, wenn nicht nur die Schmierstellen künftiger Kraftfahrzeuge, sondern auch die Getriebe der Wind-, Kohle und Gaskraftwerke nicht mehr optimal geschmiert werden? Sogar Windkraftanlagen könnten nicht mehr installiert werden, weil es wohl keine leistungsstarken Schwerlastkräne mit Hydraulikhebevorrichtung mehr gäbe.

Limburg: Sie führen ein weiteres Beispiel dafür an, in welch wahnsinniges Wolkenkuckucksheim uns die „Energiewende“ zu führen gedenkt. Die gute Nachricht ist jedoch, dass uns kein anderes Land der Welt auf diesem Irrsinnsweg folgt. Selbst die ergrünte Schweiz hat mit dem Instrument des Volksentscheides die schlimmsten Irrwege bisher vermieden. Daher können die Betreiber dieser Anlagen darauf bauen, dass die nötigen Schmierstoffe importiert werden können. Dazu muss man aber zuvor gutes Geld verdient haben, dass die Lieferanten auch akzeptieren. Ob das in einem deindustrialisierten Deutschland noch die Regel sein wird, wage ich sehr zu bezweifeln. Unsere Politik sägt gerade mit Freuden den Ast ab, auf dem wir alle sitzen.

Sehr geehrter Herr Limburg, vielen Dank für das Interview.

Link auf das Interview: http://www.weltderfertigung.de/suchen/interviews/die-huerden-der-energiewende.php

Link auf das PDF-Heft mit dem Interview: http://www.weltderfertigung.de/pdf-heft/index.php

Link auf die WDF-Homepage: www.weltderfertigung.de

 




Correctiv.org schlägt wieder zu – ein Bericht mit verdeckter Kamera. „Denn anders ginge es nicht“

Aber viel schöner, weil noch dürftiger, ist doch, was bei Frontal 21 aus dieser dünnen Suppe gemacht wurde. Etwa so ab Minute 25. Und gewollt lückenhaft – also Lückenpresse. Denn im „aus dem Gedächtnis“ nachgesprochenen Interview mit James Taylor fehlt dessen Aussage zu Spendern und deren Einfluss völlig:

Originalmail von James Taylor vom 4.2.20 zum Inhalt des Correctiv Beitrages: 

Also, the article – as weak as it is – distorts and misrepresents much of my interaction with Mathias. Among other things, the article leaves out how I repeatedly emphasized that we do not take positions based on what our donors request, but rather are happy to accept donations from donors who agree with our positions and would like to enhance our ability to advocate those positions.

Der Artikel – so schwach er auch ist – verzerrt und stellt einen Großteil meiner Interaktion mit Mathias falsch dar. Unter anderem geht aus dem Artikel nicht hervor, dass ich wiederholt betont habe, dass wir keine Positionen auf der Grundlage der Anfrage unserer Spender beziehen, sondern gerne Spenden von Spendern entgegennehmen, die unseren Positionen zustimmen und unsere Fähigkeit, diese Positionen zu vertreten, verbessern möchten .

Alles ein dritter oder vierter Aufguss, mit passender Unterlassung an der richtigen Stelle. Dünner und falscher geht nimmer, und jeder der seinen Verstand noch einigermaßen zusammen hat, wird sagen müssen: Recht haben sie, die EIKE- und Heartland- Leute.

Und so macht der Correctiv Bericht (hier)auf:

Die Recherche von CORRECTIV und Frontal21 zeigt, wie das US-amerikanische Heartland InstituteLeugner des Klimawandels in Deutschland unterstützt, um Maßnahmen zum Klimaschutz zu untergraben. Undercover lernen wir den Chefstrategen des Instituts kennen: James Taylor. Er wird uns erzählen, wie das Netzwerk der Klimawandelleugner funktioniert, wie Spenden verschleiert werden und wie sie eine deutsche, AfD-nahe Youtuberin nutzen wollen, um »die Jugend« zu erreichen. Am Ende macht er uns ein konkretes Angebot.

Undercover – 

anders geht es nicht

..und so lief ein Teil der aufregenden „Undercover“ Aktion ab.

Mittels eines Mailwechsels mit correctiv.org, (vielleicht besser manipulativ.org oder auch propaganda.org zu benennen). Es funktionierte also ganz normal per Email.

Zunächst erhielt ich diese Mail vom „Chefredakteur“

Lieber Herr Limburg,

wir hatten Ihnen diese Email am Donnerstag geschickt an folgende Adressen: info@eike-klima-energie.eumoluedecke@t-online.de (siehe unten)

Da es um eine kurzfristige Berichterstattung geht, würde ich mich freuen, wenn Sie versuchen würden, heute, 04.02.20 bis 16 Uhr zu antworten soweit Sie es können. Wir können wegen der Fragen auch gern kurzfristig telefonieren. Uns interessieren vor allem die Fragen 2., 5. und 7.

Besten Gruß,

Justus von Daniels

Chefredakteur CORRECTIV

correctiv.org

——

Editor-in-Chief CORRECTIV

correctiv.org

Twitter @justus_vdaniels

Jede und jeder kann Mitglied der CORRECTIV-Community werden.
https://community.correctiv.org/

Unterstützt gemeinnützigen Recherche-Journalismus in Europa.

Du möchtest immer auf dem Laufenden bleiben? Abonniere – ganz unverbindlich – unseren monatlichen Newsletter: http://correctiv.org/newsletter/

CORRECTIV

 

Meine Antwort – ebenfalls natürlich schwer Undercover- schickte ich ihm auch per normaler Email um 14:35 Uhr 

Sehr geehrter Herr v. Daniels,

gern beantworte ich Ihre Fragen, soweit ich darüber informiert bin.

  1. Im November 2019 hat EIKE die 13. Internationale Klima- und Energiekonferenz in München organisiert. Trifft es zu, dass Privatpersonen, die an der Konferenz teilnehmen wollten, 220 Euro als Spende an den Verein zahlen sollten?

Nein, das trifft nicht zu. Wie Sie der Einladung (hier) hätten entnehmen können, sind für verschiedene Arten von Teilnehmern, (Firmen, Privatpersonen, Studenten) und Teilbereichen unterschiedliche Tagungsgebühren aufgerufen und bei Teilnahme zu entrichten. Darüber steht es jedem Teilnehmer, wie auch jedem anderen frei an EIKE zu spenden. Deswegen ist auch beim Menuepunkt „Tagungsbeitrag“ das Spendenkonto angegeben.

  1. Wie hoch ist das jährliche Budget von EIKE? Trifft es zu, dass EIKE pro Jahr etwa 200.000 Euro zur Verfügung stehen?

Vor allem je nach Spendaufkommen schwankt unser Budget von Jahr zu Jahr beträchtlich. Es lag bisher immer deutlich unter der von Ihnen genannten Summe. Da wir alle ehrenamtlich arbeiten, und unsere Büro und Arbeitsmittel – bis auf das Büro in Jena- selber privat bezahlen, beeinträchtigt diese Situation  unsere Arbeit nicht sonderlich. Im Vergleich zu anderen Instituten, die am Klimathema arbeiten (- übrigens sind sowohl das PIK als auch das IASS in Potsdam eingetragene Vereine-) ist, wie Sie zugeben und hoffentlich auch berichten werden, unser Budget ausgesprochen gering. Wir gleichen das durch umfangreiche ehrenamtliche also unbezahlte Tätigkeit aus.

Möglicherweise hat die Empörung über den konzertierten Angriff auf die Wissenschafts- und Meinungsfreiheit, die -initiiert vom Berliner Tagesspiegel- zu einer Verlegung unserer letztjährigen Klimakonferenz führte, und auch die Anforderung von Polizeischutz erforderlich machte, unser Spendenaufkommen im letzten Jahr erhöht. Details sind mir aber nicht bekannt.

  1. Welche Personen bzw. Institutionen sind die Förderer von EIKE?

Es sind so gut fast nur Klein- und Kleinstspender. Deren Namen sind dem Finanzamt bekannt, sofern die Spender steuerliche Absetzungen in Anspruch nehmen.

  1. In welcher Beziehung steht EIKE zum Heartland Institute in den USA?

Wir pflegen auf Grund ähnlicher Interessenlage gute Beziehungen.

Holger Thuß wird auf der Webseite des Heartland Institute als deren Mitarbeiter genannt.

Das entspricht nicht den Tatsachen. Herr Thuss ist von Heartland als Policy Expert benannt. Dies ist eine nur symbolische und daher unbezahlte Tätigkeit.

Bezahlt Heartland Geld für diese Aufgabe an Herrn Thuß oder EIKE?

Nein, da Herr Thuss kein Mitarbeiter von Heartland ist, gäbe es auch dafür keinen Anlass.

  1. Beteiligt sich Heartland finanziell an den Konferenzen oder anderen Aktivitäten von EIKE, insbesondere an der Konferenz im November 2019 in München?

Ist mir nicht bekannt. 

  1. Hat EIKE Verbindungen zu Naomi Seibt? Wenn ja, in welcher Beziehung steht sie zu EIKE?

Frau Naomi Seibt wurde zu unserer Konferenz im November 2019 in München eingeladen und nahm daran teil.

  1. Trifft es zu, dass der Vizepräsident von EIKE, Michael Limburg, Mitarbeiter im Büro des AfD-Bundestagsabgeordenten Karsten Hilse ist?

Ja, mit einer Viertel Stelle.

Ich verbleibe mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-1703424716
http://www.eike-klima-energie.eu/

 

Dann war ich neugierig, was in diesem ach so mutigen Artikel stehen würde.

Hier ein paar Kostproben:

Die Sache mit dem Hausverbot

Es ist nur ein kleines Schmankerl der mutigen Undercover Agenten von Correctiv. Im Bericht schreiben sie, dass eine Kollegin – es handelt sich um die „Journalistin“ Frau Annika Joeres „Hausverbot“ für unsere Konferenz in München bekommen hatte. Das trifft zu, ist aber typische Lückenpresse, denn sie schreiben nicht warum. Der Grund lag darin, dass sie sich beim Versuch einer früheren Akkreditierung als Journalistin ausgab, die für die seriöse NZZ schreibt. Stattdessen war sie für Correctiv.org unterwegs. Sie hatte also glatt gelogen. Schon damals schwer Undercover unterwegs. Ist vermutlich ihr Beruf.

 

Und hier noch ein Brüller:

Anfangs ihrer Story flüstern die furchtlosen Journohelden, dass sie nur Undercover in den innersten Kreis gekommen seien, der veranstaltete dann die Heartland Konferenz. Die Tapferen sind – ganz furchtlos- bei dieser Geheimkonferenz dabei. Ihr Bericht offenbart die ganze Verschwörung:

Zitat:

„Die Konferenz ist deutlich kleiner als in München. Kürzer, ohne Journalisten, das Heartland Institute filmt selbst mit zwei großen Kameras, streamt online.“ Zitatende

Man kommt also tapfer, mittels Betruges in eine öffentliche Konferenz, feiert sich dann, wie mutig und geschickt man ist, filmt mit verdeckter Kamera, und vergisst dabei, dass die gesamte Konferenz per streaming öffentlich online gestellt wurde.

Und zum Schluss steht da noch diese Behauptung am Ende dieses mutigen Beitrages

Mutiger Journalismus
für mehr Transparenz

Mit 10 Euro im Monat sichern Sie 
unabhängige Recherchen wie diese.

Den ganzen, schwer aufgemotzen Schwachsinn können Sie hier nachlesen

Und hier die Verantwortlichen für diese Meisterstück

RechercheKatarina Huth, Jean Peters Text: Katarina Huth, Jean Peters, Jonas Seufert VideoKatarina Huth, Jean Peters, Philipp Schulte, Bastian Schlange Redaktion: Olaya ArgüesoJustus von Daniels DesignBenjamin Schubert, Belén Ríos Falcón

Ach und gerade (um 21:43 Uhr) kam vom Transparenz beflissenen „Chefredakteur“ Justus noch diese Mail:

Lieber Herr Limburg,

Sie können gern unseren Schriftwechsel publizieren. Aber nehmen Sie bitte die Telefonnummern aus dem öffentlich gestellten Beitrag. Es ist nicht zulässig, solche persönlichen Daten zu veröffentlichen.

Mit freundlichen Grüßen,

Justus von Daniels

Meine Antwort:

Am 04.02.20 um 21:45 schrieb Michael Limburg IMAP:

…es ist auch nicht zulässig mit versteckter Kamera zu arbeiten, vor allem dann nicht, wenn alles auch öffentlich zugänglich gewesen wäre.

mit freundlichen Grüßen

Ihr Michael Limburg

Am 04.02.2020 um 21:49 schrieb Justus <justus.von.daniels@correctiv.org>:

dann wieder seine Antwort

…dafür gab es Gründe, die vor allem bei Heartland liegen. Auch wenn Sie mit dem Bericht nicht einverstanden sind,würde ich Sie dennoch bitten, die persönlichen Daten, gemeint sind die Telefonnummern, aus dem Beitrag zu nehmen.

Mit freundlichen Grüßen,

Justus von Daniels

darauf meine Antwort

Am 04.02.20 um 22:13 schrieb Michael Limburg IMAP:

 Was heißt nicht einverstanden?  Ich finde ihn großartig. Besser konnten Sie sich und Ihre Leute nicht lächerlich machen. Das hätte ich mir nicht ausdenken können. Gratuliere. 

Die Erwachsenen lachen über solche Undercoverer. Offene Türen einrennen, sich dabei ganz tapfer vorkommen, und olle Kamellen recyceln, heutige Haltungsjournalisten aus dem Bilderbuch.

mit herzlichen 

Grüßen

Ihr Michael Limburg

Wir folgen aber der Bitte um Löschung der Telefonnummer, wozu gibt es denn Telefonbücher, weil wir anständige Leute sind, und veröffentlich stattdessen die öffentlich zugänglichen Impressumdaten

CORRECTIV – Recherchen für die Gesellschaft
ist eine Marke der
CORRECTIV – Recherchen für die Gesellschaft gemeinnützige GmbH
Huyssenallee 11
45128 Essen.

Handelsregister Essen
HRB 25135

Geschäftsführer: David Schraven, Simon Kretschmer
Verantwortlicher i.S.v. § 55 Abs. 2 RStV: David Schraven

info@correctiv.org

Twitter @justus_vdaniels
Jede und jeder kann Mitglied der CORRECTIV-Community werden.
https://community.correctiv.org/
Unterstützt gemeinnützigen Recherche-Journalismus in Europa.
Du möchtest immer auf dem Laufenden bleiben? Abonniere – ganz unverbindlich – unseren monatlichen Newsletter: http://correctiv.org/newsletter/

CORRECTIV

(1) Im Beitrag über Correctiv bei TICHYS EINBLICK hier findet man folgenden Hinweis:

Zudem unterhält er (Anmerkung: Gemeint ist Schraven) gute Kontakte zur Amadeu Antonio Stiftung, die bereits länger mit Facebook zusammenarbeitet. Schraven kennt von diversen Ausstellungseröffnungen und Buchpräsentationen maßgebliche Mitarbeiter der Amadeu Antonio Stiftung wie deren Geschäftsführer Timo Reinfrank und den für die Presse- und Öffentlichkeitsarbeit verantwortlichen Robert Lüdecke. Und dem entsprechend bewirbt die Amadeu Antonio Stiftung auf ihren Internetseiten auch einen Comic von Schraven. Dass im sogenannten Ethikrat von CORRECTIV zum Teil Vertreter von Medien (z. B. Stern oder Zeit) sitzen, die auch eng mit der Amadeu Antonio Stiftung zusammenarbeiten, vervollständigt das Bild. Die politisch-ideologische Ausrichtung von CORRECTIV passt somit für die beabsichtigte Tätigkeit.

 

Wer glaubt denen noch?




Klimafragen übergeben – Umgang mit dem Klimawandel – Mehrere Fraktionen wollen antworten 

Berlin. 03.02.20

Die zivilgesellschaftliche Initiative „klimafragen.org“ hat am Freitag in Berlin den Bundestagsfraktionen ihre 16 Klimafragen vorgelegt. Bis 29. Februar haben diese nun Zeit, zu antworten. Davon wollen zumindest FDP, AfD und LINKE Gebrauch machen.

Zu den Unterzeichnern der Klimafragen zählen namhafte Naturwissenschaftler, Ökonomen, Unternehmer und Freiberufler, Journalisten sowie Bürgerrechtler. Über 32.000 Bürger haben mitunterzeichnet. Sie eint die Besorgnis, dass viele politische Fragen, die im Zusammenhang mit dem Klimawandel stehen, noch nicht ausreichend durchdacht sind. Es besteht die Gefahr, dass klimapolitische Maßnahmen Deutschland massiv schaden, ohne einen messbaren Einfluss auf das Weltklima zu haben.

Alle Fraktionen waren informiert worden mit der Bitte um eine persönliche Übergabe, von vier Fraktionen erfolgte eine Rückmeldung. Die erste persönliche Übergabe der Fragen erfolgte an den energiepolitischen Sprecher der FDP – Fraktion, Lukas Köhler. Er sicherte im Gespräch zu, fristgerecht Antworten zu liefern. Die energiepolitische Sprecherin der Linken, Gesine Lötzsch hatte ebenfalls einer persönlichen Übergabe zugestimmt, sie sollte vor dem Plenarsaal im Reichstag stattfinden. Sie war leider kurzfristig verhindert, hat die Fragen aber inzwischen erhalten. Die AfD – Fraktion war ebenfalls zu einer persönlichen Übergabe bereit, bei dem Treffen war neben Karsten Hilse, der für die AfD im Ausschuss für Umwelt, Naturschutz und nukleare Sicherheit sitzt, auch der Fraktionsvorsitzende Alexander Gauland persönlich zugegen. Wie zuvor mit Herrn Köhler wurde der geplante Umbau unseres Landes, die „Große Transformation“ im Rahmen des sogenannten Green Deals thematisiert, deren Folgen für die Bürger einschneidend sind, aber selten ausführlich thematisiert werden.

In den Gesprächen machten die Sprecher der Initiative, Titus Gebel und Annette Heinisch, deutlich, dass sie von der Politik eine vernünftige Analyse der Optionen wünschen, die zur Verfügung stehen. Die Initiatoren gehen davon aus, dass es einen Klimawandel gibt, stehen den Ursachen neutral gegenüber, möchten aber verhindern, dass Deutschland ohne ernsthafte Prüfung aller Möglichkeiten seine industrielle Basis zerstört. Die Antworten der Fraktionen werden nach dem 29.Februar auf der Webseite klimafragen.org veröffentlicht.

Webseite: klimafragen.org
16 Klimafragen (Download als pdf.) Pressemitteilung (als pdf. beigefügt)

Rückfragen bitte an:

Annette Heinisch

kanzlei@annetteheinisch.de

Tel: 0581/ 20 81 80 82




Aktuelle Daten zur Arktis: Eisfläche wird größer, Eisdicke unverändert – nix mit eisfrei …

Wie erklärt man es, dass Leute freiwillig an Kreuzzügen teilnehmen, um anderen das Heil zu bringen?
Wie erklärt man es, dass Regierungen ihre Bevölkerung auf dem Altar einer aberwitzigen Ideologie, einer Klimareligion opfern?

Weder Rex Murphy noch Patrick Moore hatten eine befriedigende Antwort.

Letztlich gibt es zwei Mittel, die man anwenden kann, um denjenigen, die sich in Lügen und wirren Ideen verheddert haben, Gelegenheit zu geben, ins normale Leben zurückzukehren, Daten/Fakten und heftige Schläge auf den Vorderkopf, die die Determination des Schlägers deutlich machen, sich nicht mehr länger belügen und schröpfen lassen zu wollen.

Passend dazu, die faszinierende Reise von Murmansk zum Nordpol und zurück auf dem nuklear getriebenem Eisbrecher 50 Years of Victory

Wir versuchen es mit Daten/Fakten.

In diesem Post haben wir die neuesten Daten über die Arktis zusammengestellt. Es ist recht ruhig geworden, um die Arktis, so wie die Klimahysteriker die Lust an vielem verloren zu haben scheinen: Brasiliens Amazonas ist in Vergessenheit geraten, die afrikanische Heuschreckenplage, die kurz in öffentlich-rechtlich beschallten Zimmer gastierte, ist weiter geflattert, im Zusammenhang mit Australien interessiert nur noch Tennis, kurz: Die guten Menschen sind zu neuen Ufern aufgebrochen, von denen aus sie ihre Katastrophenmeldungen verbreiten können.

Das Warum ist schnell erzählt: Die Realität hat sie eingeholt. Der Versuch, Klima-Panik zu schüren, ist einmal mehr gescheitert bzw. sie laufen Gefahr, beim Versuch, Klima-Panik zu schüren, mit Dakten konfrontiert zu werden.

Z.B. mit Daten zur Arktis.

Die Ausdehnung des Eises in der Arktis wächst schneller als in den vergangenen Jahren. Es gibt nicht weniger, sondern mehr Eis.

MASIE – Multisensor Analyzed Sea Ice Extent beim National Snow and Ice Data Center ansässig, veröffentlicht die aktuellsten Daten zur Ausdehnung des arktischen Meereseises. Die Daten vom heutigen Tag ergeben die folgende Abbildung:

Die Ausdehnung des Meereseises in der Arktis ist derzeit größer als sie das in den letzten vier Jahren war. Weitere Daten sind nicht notwendig. Die Klimawandel-Hysteriker behaupten: Das Eis in der Arktis werde weniger. Es wird nicht weniger. Im Gegenteil: Die Ausdehnung wird größer. Das Eis wächst.

Aber, so die nächste Linie der Verteidigung, das ist alles neues Eis, kein altes, kein dickes, nur dünnes Eis. Eine weitere Behauptung, eine weitere falsche Behauptung, wie die folgende Abbildung zeigt, auf die wir besonders stolz sind, denn sie wird aus Daten, die Cryosat liefert, der europäische Satellit, der eigens ins All gebracht wurde, um die Dicke des arktischen Eises zu messen, zusammengestellt. Die Daten werden beim Centre for Polar Observation and Modelling verarbeitet und in Abbildungen überführt, Abbildungen wie diese hier:

Wie man sieht hat sich an der Eisdicke seit 2011 nicht viel, um nicht zu sagen, nichts geändert. Verbindet man diese Beobachtung mit der Beobachtung, dass die Ausdehnung des Eises in der Arktis größer wird, dann kann man nicht anders als festzustellen: In der Arktis wächst die Eisfläche. Ein diametraler Widerspruch zu den Behauptungen und Vorhersagen der Klimawandel-Hysteriker. Wir erinnern nur an den Ober-Hysteriker Al Gore, der sich am angeblich von Menschen gemachten Klimawandel eine goldene Nase verdient:

 

(https://www.cbsnews.com/news/gore-arctic-ice-may-soon-vanish-in-summer/)

Selbstverständlich hat Al Gore kein Patent auf das Verbreiten von Klima-Hysterie, er scheint eher ein Nachahmer zu sein. Im folgenden Beitrag werden eisfreie Polkappen schon für spätestens 1989 vorhergesagt. Der Beitrag stammt aus dem Jahre 1969. 2019 hatten wir also ein rundes Jubiläum: 50-Jahre-Panikmache, und die Arktis friert immer noch.

QuelleDer Beitrag erschien zuerst bei ScienceFiles hier

Update vom 1.2.20


Die Bilderserien vermitteln einen guten Eindruck über das Eiswachstum in der Arktis in diesem Winter.

07.08.19-16.12.19
https://www.file-upload.net/download-13885015/ice-extent.gif.html
17.12.19-30.01.20
https://www.file-upload.net/download-13885014/ice-extent-2.gif.html

Mit Dank an Leser Martin Ende




Gibt es genug Platz für die Energiewende in Deutschland??

Gemäß dem Koalitionsvertrag wollen wir in Deutschland bis 2050 unseren Energieverbrauch im Vergleich zum Jahr 2017 halbieren und unsere Energie also nur in der Form eines CO2-frei hergestellten Stroms beziehen. Wer den Rechenweg nachvollziehen möchte, lese bitte hier weiter:
https://sway.office.com/vrjxC4G0fhC1ACi6?ref=Link

Berücksichtigt wurde für diese Berechnung, der bereits vorhandene Bestand an den sog. Erneuerbaren bzw. deren Stromproduktion im Jahr 2018.

Wir rechnen nicht mit dem Primärenergieverbrauch, sondern mit nennen wir sie mal „Nettoenergie“. Wir gehen von keinen Umwandlungsverlusten aus.

Bei dieser Berechnung geht es uns nicht darum ganz genau zu sein, sondern ein plastisches Bild zu vermitteln. Es wird immer nur von MW / MWh oder GW / GWh geschrieben, von Gigatonnen CO2 etc. ohne, dass man sich vorstellen kann. Wie viele Anlagen egal welcher Art sich hinter diesen Zahlen verbergen.

Ich erlaube mir vorzuschlagen, dass sich jeder einen kleinen Spickzettel macht, auf dem einige Schlüsselzahlen notiert sind, um in Diskussionen stets gewappnet zu sein.

Zum Schluss noch ein Vorschlag. Letztes Jahr habe ich auch eine kleine Abhandlung zum folgenden Thema verfasst „Strategische Aspekte der Erneuerbaren“, weil ich bisher keinen einzigen Beitrag zu dieser Thematik gefunden habe.
https://sway.office.com/uCV5DZudNuCwe7MB?ref=Link

 

Photovoltaik

Photovoltaik-Anlagen à 1 MW installierter Leistung, Jahresproduktion pro Anlage 1.100.000 kWh, Flächenbedarf 3 ha. Anzahl der Anlagen 585.075; Flächenbedarf 17.552 km2; Investitionsvolumen 643.582.500.000,- Euro; eine sehr grenzwertige Lösung. Keine Versorgungssicherheit.

 

Windkraft offshore:

Wir rechnen mit folgenden Parametern:

Offshore:

Anlagenbestand per Ende 2019 betrug 1.465 WKAs

Installierte Leistung 6.382 MW

Stromproduktion 24,3 TWh

Durchschnittliche installierte Leistung pro Anlage 4,356 MW

Durchschnittliche Stromproduktion pro Anlage 16,587 MWh

Durchschnittliche Produktion pro installierte MW beträgt 3.807 MWh

Die 2019 zugebauten WKAs offshore hatten im Durchschnitt eine installierte Leistung von 6.941 MW. Der Zubau betrug 160 Anlagen mit zusammen 1.110,7 MW

Offshore WKAs mit 5 MW Leistung, durchschnittliche Jahresleistung 2019 betrug pro Anlage 16.587.000 kWh, Investition pro 1 MW beträgt 4 Mill. Euro. (634.583.841.000 kWh: 16.587.000 kWh = 38.258 WKAs)

Anzahl Anlagen zu bauen 38.258; Wir rechnen hier nur mit WKAs mit einer installierten Leistung von 5 MW und einem Kostenpunkt von 4 Mio. Euro pro MW; Investitionssumme 765.160.000.000,- Euro.

Politisch wahrscheinlich die einzig mögliche Lösung. Wir hätten dann 196.672 MW etwa die gleiche Produktionskapazität offshore installiert, wie sie bis 2018 in Deutschland insgesamt bestand – alle Stromerzeugungs-Kapazitäten , nämlich 206.84 GW.

Der Zubau von 38.258 Anlagen à 5 MW würde einer Kapazität von 190.290 MW entsprechen. Unter dem Gesichtspunkt der Versorgungssicherheit ein „No Go“.

So viele WKAs würden nicht in die deutsche Wirtschaftszone bzw. die ausgewiesenen bzw. zugewiesenen Küstengewässer passen. D.h. es stehen maximal 11.550 km2 für die Windkraft zur Verfügung. Zusammen mit dem jetzigen 1.465 off-shore Anlagen müssten in der Deutschen Nordsee 39.723 WKAs stehen. D.h. in der Nordsee gäbe es ein Gedränge von 3,45 Anlagen pro km²

Wir vernachlässigen bewusst die Kapazität der Ostsee, weil diese sehr klein ist. Zumal es dort viele Anrainer, viel Schiffsverkehr und teilweise große Wassertiefen gibt.

Bei einer solchen Lösung müsste mindestens die 20-fache Strommenge über Stromautobahnen in Deutschland verteilt werden!

 

Windkraft onshore

Onshore WKAs mit den folgenden Parametern:

Bestand WKAs onshore per Ende 2019: 29.491 WKAs insgesamt installierte Leistung 53.867 MW;

Erzeugte Strommenge 103,7 TWh

Wir rechnen mit Werten auf der Grundlage der Leistungsdaten des Jahres 2019.

Dies ergibt eine durchschnittlich installierte Leistung pro WKA onshore: 1,826 MW

Durchschnittliche Produktion pro WKA 3,516 MWh

Durchschnittliche Produktion pro installierte MWh beträgt 1.925

Der Zubau onshore betrug 2019 folgende Zahlen: 278 Anlagen mit insgesamt 936,4 MW installierter Leistung. Es handelt sich um den Bruttozubau, d.h. es werden noch Anlagen stillgelegt werden bzw. aus der Statistik verschwinden.

Immerhin beträgt die durchschnittliche Leistung der neuen WKAs onshore 3,368 MW.

Wir haben uns entschlossen mit einem Durchschnittswert zu rechnen, da es eine zu große Vielfalt an Anlagen gibt und zudem liefert jeder Standort ohnehin andere Strommenge.

Wir rechnen mit aktuellen Leistungsdaten per Ende 2019. Die Daten wurden der Webseite vom BDEW e.V. entnommen.

Anzahl Anlagen zu bauen 180.485; Wir nehmen weiter an, dass man nur noch WKAs mit 3 MW installierter Leistung errichten würde, Kosten pro 1 MW liegen bei etwa 1,5 Mio. Euro Investitionssumme 812.182.000,- Euro; politisch nicht umsetzbare Lösung, 1 Anlage pro 1,6 km2 der Fläche Deutschlands! Auch hier wäre keine Versorgungssicherheit gegeben. Politisch ist eine solche Lösung nicht gangbar. Zumal man maximal 2% der Landfläche für Windkraft auszuweisen bereit ist. Zu einer ähnlichen Lösung hat man sich jetzt im Odenwald durchgerungen. Odenwald

Addiert man zu den 180.485 zu bauenden Anlagen den heutigen Bestand von 29.491 Anlagen, so müssten wir im Jahr 2050 mit 209.976 Anlagen in unsere Landschaft leben. D.h. eine Anlage pro 1,67 km².

Hierbei dürfen wir nicht vergessen, dass WKAs eine Betriebsdauer von etwa 15 bis 20 Jahren haben. D.h. der gesamte Bestand wird bis zum Jahr 2050 mindestens einmal erneuert.

 

Biogas:

Biogas-Anlagen mit einer installierten Leistung von 1 MW und Jahresproduktion pro Anlage von 9.000.000 Mill. kWh; Platzbedarf nur für die Maisproduktion pro Anlage 500 ha (5 km2).

Anzahl Anlagen zu bauen 70.509, Platzbedarf 352.546 km2; um 5.000 km2 weniger als die Fläche Deutschlands, diese Lösung ist nicht machbar.

Die oben aufgezählten Anlagen müssten selbstverständlich zum jetzigen Bestand noch dazu gebaut werden. Denn diese sind bereits mit ihrer Leistung in den 1773 PJ erfasst.

 

Wir machen darauf aufmerksam, dass es sich um eine Stromversorgung handeln würde, die überhaupt nicht grundlastfähig wäre und vollkommen von Wind, Sonne und Wetter abhängig wäre.

 

 




Deutsche Energiewende: Planwirtschaft ohne Plan

Alle drei Jahre veröffentlicht die Bundesregierung anstelle des jährlichen Monitoring-Berichts einen ausführlicheren Fortschrittsbericht. Der zweite (auf der Basis des Berichtsjahres 2017) wurde im Juni 2019 veröffentlicht. Darin erscheint der Integrierte Nationale Energie- und Klimaplan (NECP) als Teil eines europaweit koordinierten Projekts. Alles auf dem besten Weg also?

Zu den Zielen des im vergangenen Jahr von der Bundesregierung beschlossenen „Klimapakets“ zählt auch die „Reduktion des Bruttostromverbrauchs“ um zunächst 10 Prozent. Dabei rechnen die Betreiber örtlicher Stromverteilernetze schon jetzt damit, dass der Strombedarf für das Laden der Li-Ion-Batterien der e-Autos schon bald zu einer Überlastung der Ortsnetze im ländlichen Raum führen wird, so dass der Ladestrom schon ab 2021 rationiert werden muss. Die Regierungskampagnen für das Stromsparen und für den Ersatz von Fahrzeugen mit Verbrennungsmotor durch Elektro-Fahrzeuge passen offenbar schlecht zusammen.

Im Unterschied zum letzten Monitoring-Bericht beschäftigen sich der auf Daten von 2017 beruhende 2. Fortschrittsbericht und das im Herbst 2019 verabschiedete Klimaschutzprogramm 2030 der Bundesregierung auch mit dem Planungszeiträumen bis 2030 und 2050. Daraus geht unter anderem hervor, dass Deutschland, das zurzeit im Jahresmittel mehr Strom exportiert als importiert, zum reinem Stromimportland werden soll. Zu diesem Zweck soll die Kapazität der der Kupplungen mit ausländischen Stromnetzen auf insgesamt 38 Gigawatt erhöht werden. Das ist mehr als die Hälfte der derzeit im Durchschnitt benötigten Gesamtleistung. Die Bundesregierung vertraut offenbar darauf, jederzeit genügend Elektrizität importieren zu können. Da zumindest die westlichen Nachbarn Niederlande und Frankreich ähnliche Ziele verfolgen wie die Berliner Regierung, bleibt es aber fraglich, wieweit diese Hoffnung begründet ist. Aktuell folgt zum Beispiel der Ende 2019 erfolgten Stilllegung des Kernreaktors Philippsburg 2 bei Karlsruhe die Stilllegung des französischen Kernkraftwerks Fessenheim im Elsass, die schon am 22. Februar 2020 mit der Abschaltung des ersten Reaktors beginnt. Dadurch die ohnehin schon angespannte Stromversorgungslage in Südwestdeutschland kritisch zu werden. Im Endeffekt wird der Strom im europäischen Verbundnetz immer weitere Strecken zurücklegen müssen, was die Übertragungsverluste erhöht und grünen Lippenbekenntnissen zur Dezentralisierung Hohn spricht.

Um den von der Kommission Wachstum, Strukturwandel und Beschäftigung zur Reduktion der Kohleverstromung (Kohlekommission) erzielten Kompromiss zum Kohle-Ausstieg umzusetzen und dennoch die Versorgungssicherheit zu gewährleisten, favorisiert die Bundesregierung offenbar den Bau zahlreicher Gaskraftwerke mittlerer Leistung. Da Erdgas der teuerste Energieträger ist, sind dadurch weitere Steigerungen der Verbraucherpreise programmiert. Schon jetzt zahlen die deutschen Privathaushalte die höchsten Strompreise in Europa. Aber schon fordern deutsche Grüne, nach dem Kohle-Ausstieg auch noch die Verstromung von Erdgas zu beenden…

Das deutet an, dass die deutsche Energiepolitik vielleicht gar nicht so planmäßig konzipiert ist, sondern vielmehr von ideologischen Vorurteilen und wahltaktischen Überlegungen bestimmt wird. Diese werden von der Politik nachträglich für planmäßig erklärt. Als Bundeskanzlerin Angela Merkel die von einem Tsunami ausgelöste Reaktor-Katastrophe von Fukushima zum Anlass nahm, den mit der Energiewirtschaft geschlossenen Kompromiss über eine beschränkte Laufzeitverlängerung der Kernkraftwerke aufzukündigen und die gestaffelte Abschaltung aller Kernkraftwerke bis 2022 zu verfügen, war die Abschaltung von Kohle-Kraftwerken noch kein Thema, weil so gut wie allen Beteiligten klar war, dass Deutschland sich nicht gleichzeitig von der Kernkraft und der Kohle verabschieden kann. Es ging vordergründig lediglich darum, angesichts nahender Regionalwahlen den Grünen Wind aus den Segeln zu nehmen. Dann bauten grüne NGOs mithilfe ihnen gewogener Massenmedien Druck auf, um unter Berufung auf das Pariser Klima-Abkommen von 2015 die Kohle als Standbein der deutschen Energiewirtschaft in Frage zu stellen. Das ist ihnen gelungen. Gerade hat die Bundesregierung das Kohleausstiegsgesetz verabschiedet. Sollten nach den Kohlekraftwerken auch noch die Gaskraftwerke abgeschaltet werden, dann hätte Angela Merkel mit dem von ihr verfügten unbedachten Atomausstieg den Abschied von allen zuverlässigen Energiequellen eingeleitet.

 




Kühe können nicht für den menschengemachten Klimawandel verantwortlich sein.

Dass Kühe nicht am Klimawandel schuld sein können, zeigt sich an drei separaten empirischen Hinweisen:

  1. Zwischen 2002 und 2012 hat ein Satellit der ESA erstmals die Methankonzentrationen der Erdatmosphäre erfasst. Die gemessenen Werte sind nicht mit den bekannten Standorten der großen Rinderherden korreliert.
  2. Methanemittierende Huftiere und andere Großfauna hat es bereits vor der industriellen Revolution gegeben. Zum Beispiel die Bisonherden und Elche in Nordamerika, und nicht weniger als 26 Millionen Elefanten alleine nur in Afrika. Diese inzwischen stark dezimierten Bestände, die vermutlich ähnlich groß waren wie die heutige Rinderherde, haben damals die Erdatmosphäre mit ihren Methanemissionen nicht überhitzt, und daher können es die aktuellen domestizierten Bestände auch nicht.
  3. Die bekannten Einträge von Methan in die Erdatmosphäre sind um ein Vielfaches größer als die vermuteten Methansenken, sodass die Methankonzentrationen ebenfalls um ein Vielfaches größer sein müssten als gemessen wird. Da die Messungen stimmen, müssen folglich die Modelle grundsätzlich falsch sein.

 

Der aktuelle Stand der Wissenschaft:

Es herrscht eine erhebliche Konfusion über die mögliche Treibhausgaspotenz von Methan. Meist wird behauptet – auch in wissenschaftlichen Publikationen – dass Methan ein 23 bis 26-fach wirksameres Treibhausgas als Kohlendioxid ist, und dass es für 12 Jahre in der Atmosphäre verbleibt. Das sind aber derart drastische Vereinfachungen des Sachverhaltes, die diese beiden Zahlen faktisch falsch werden lassen.

Methan ist kein stabiler Bestandteil der Atmosphäre. Es reagiert mit einem anderen chemischen Molekül, dem Hydroxyl OH, und löst sich damit zu CO2 auf. Andererseits, verbleiben rund ein Drittel aller CO2 Emissionen auf ewig in der Atmosphäre (jedenfalls für Millionen von Jahren, was nach menschlichen Maßstäben unendlich ist). Daher ist die Wirkung einer Methanemission in der Atmosphäre eine vollständig andere als die einer Kohlendioxidemission.

Nach einer kurzen Zeit, nämlich nach der Reaktion mit dem OH, ist die CH4 Methanemission verschwunden, und kann daher nicht mehr das Klima beeinflussen. Andererseits, eine mögliche Klimabeeinflussung durch eine CO2 Emission verbleibt für immer. Das bedeutet, aus zwingend mathematischen Gründen, dass nur ein Anstieg der Methankonzentration in der Luft zu einer Klimaerwärmung führen kann. Stabile Methankonzentrationen sind nicht in der Lage das Klima weiter zu erwärmen. Daher, zum Beispiel, falls die globale Rindviehherde etwa denselben Platz eingenommen hat, wie die vorherigen mittlerweile stark reduzierten Wildtierherden, dann sind auch die Mengen der Methanemissionen dieselben, und dann können sich daraus unmöglich menschengemachte Klimaerwärmungseffekte ergeben haben. Aus anderen Gründen mag die Reduktion der Wildtierherden eine Tragödie sein, aber an dieser Stelle geht es um das Klima.

Das sind nicht die einzigen Konfusionen und Missverständnisse. Als das UNFCCC Kyoto Protokoll 1997 unterschrieben wurde, wollte man sich zu spezifischen Reduktionszielen von Treibhausgasen verpflichten. Damit nicht jeder Staat spezielle Ziele für jedes einzelne der sechs wesentlichen Gase erstellen müsste, erfand man eine künstliche Einheit, die „GWP 100 CO2 Äquivalenz“, in die alle Gase umgerechnet würden. Über Sinn und Zweck dieser Einheit streiten sich die Klimawissenschaftler seitdem fortlaufend.

Weil der Zeithorizont eines möglichen Klimaeinflusses für CO2 und CH4 so unterschiedlich sind, vergleicht die Berechnung die Größe des Klimaerwärmungspotentials (global warming potential = GWP) innerhalb von 100 Jahren. Das ergibt für GWP 100, dass 1 Kilogramm Methan genauso viel Potential hat wie 23 Kilogramm Kohlendioxid. Für diese Berechnung wurde davon ausgegangen, dass Methan für 12 Jahre in der Atmosphäre verbleibt. Am Anfang dieser 12 Jahre wäre es 120-mal klimaschädlicher, was dann schnell abnimmt da die Methanmenge graduell kleiner wird. Über einen Zeitraum von 100 Jahren gerechnet, ergibt das dann einen Wert von 23-fach (oder auch 26-fach oder 32-fach, je nach Quelle). Der 100 Jahre Zeitraum wurde für das UNFCCC Kyoto Protokoll recht willkürlich gewählt – für einen 20-jährigen Zeitraum wäre es der Faktor 87, für einen 500-jährigen Zeitraum wäre es Faktor 11.

Selbst diese Zahlen sind stark vereinfacht. Zunächst, niemand weiß wie lange Methan wirklich in der Atmosphäre verbleibt – der chemische Reaktionsprozess kann nicht direkt beobachtet werden. Also hat man sich auf die Annahme geeinigt, dass die insgesamte Menge an Methan in der Atmosphäre, geteilt durch die jährliche Senkenstärke, die Verweildauer ergibt. (Mathematisch würde das bedeuten, dass die durchschnittliche Verweildauer eines Methanmoleküls nicht 12 Jahre ist, sondern 6 Jahre.) Für das Jahr 1998, waren diese beiden Werte respektive 4850 Tg CH4 in der Atmosphäre (entsprechend 1745 parts per billiion ppb), geteilt durch eine Senkenstärke von 576 Tg pro Jahr, sodass es 8.4 Jahre benötigen würde bis alles in 1998 existierende Methan aus der Atmosphäre verschwunden ist. Da es aber noch vermutete Rückkopplungseffekte gibt, wurden diese 8.4 Jahre etwas arbiträr auf 12 Jahre Wirkungsdauer aufgerundet.

Hinzu kommt, dass es unter Klimawissenschaftlern keineswegs Konsens gibt ob Methan überhaupt einen Klimaeinfluss haben kann, unabhängig davon wie lange es in der Atmosphäre verweilt. Denn die Infrarot Wellenlänge, bei der Methan die Erdwärmestrahlen absorbiert, sind deckungsgleich mit Wasserdampf. Selbst in der trockensten Atmosphäre bei -40 Grad C, gibt es noch 1300 mal mehr Wasserdampf als Methan – im globalen Durchschnitt sind es etwas 15000 mal mehr Wassermoleküle als Methan. Dieser Wasserdampf würde daher die mögliche Infrarotstrahlen bereits in den unteren Atmosphäreschichten absorbieren, sodass für das Methan gar nichts mehr übrig bleibt. In diesem Fall wären die Methanauswirkungen auf das Klima erheblich reduziert oder sogar Null.

Unabhängig davon was man über die Wärmestrahlenwirkung des Methans annimmt, wird die Zahl 12 Jahre Verweildauer fast immer falsch verwendet, selbst in wissenschaftlichen Publikationen. Zunächst ist es eben nicht die Verweildauer, sondern die Zeit die es benötigen würde alles bestehende Methan in der Atmosphäre bei gleichbleibender Senkenstärke des OH-Reservoirs aufzulösen. Das bedeutet, die 12 Jahre sind nicht ein Halbwertszeit mit dem man üblicherweise solche Prozesse beschreibt. Zweitens, die 12 Jahre sind nur eine großzügig aufgerundete Annahme über die Wirkungsdauer, die eigentliche Kalkulation ergibt nur 8.4 Jahre. Drittens, im Jahr 2018 haben sich die Werte bereits verändert. Mittlerweile gibt es 5140 Tg Methan in der Atmosphäre, und die Senkenstärke wird jetzt auf nur noch 548 Tg geschätzt, sodass sich die neue Gesamtverweildauer jetzt auf 9.4 Jahre berechnen würde. Dementsprechend müsste man jetzt die Wirkungsdauer und den GWP100 Wert nach oben anpassen.

Allerdings ist die Senkenstärke des OH Reservoirs nicht bekannt und lediglich eine rückgerechnete Annahme. Sie ist, vereinfacht gesagt, lediglich die Differenz aus dem recht gut bekannten jährlichen Anstieg an Methankonzentration in der Atmosphäre, und den nur ungenau bekannten jährlichen Methanemissionen in die Atmosphäre. Die Senkenstärke ist demnach ebenfalls nur ungenau bekannt. Vor allem ist aber nicht bekannt was die Stärke der Senke beeinflusst.

Hier sagt eine weit beachtete wissenschaftliche Autorität Dr Kirschke in 2013 dasselbe, nur auf wissenschaftlich:

«The photochemical sink of CH4 is large and difficult to quantify, given the very short lifetime of OH (~1 sec) and its control by a myriad of precursor species. Direct measurements of atmospheric OH radicals do not have the required accuracy and coverage to derive global OH concentrations and consequently the magnitude of the CH4 sink. We estimated CH4 loss due to OH from the output of nine numerical CCMs, which are categorized here as an atmospheric bottom-up approach.»

Es gäbe auch eine andere Theorie, die die ansteigenden Methanwerte erklären könnte. Nämlich dass diese wenig oder gar nichts mit der Menge des ausgestossenen Methans zu tun hat, sondern das Ergebnis eines laufend verändernden atmosphärischen Äquilibriums ist, dessen Einflussfaktoren noch nicht verstanden sind. Dieser Theorie zufolge, würde eine Reduktion der Methanemissionen per Logik nichts bewirken können.

Tatsächlich ist zu wenig darüber bekannt wie stark die Senkenstärke für Methan ist, was die faktische Wärmestrahlenwirkung von Methan ist, wie diese Faktoren alle zusammenspielen, wie sie sich ersetzen und ergänzen. Niemand kann ehrlichen Gewissens mit Gewissheit behaupten welche Nettoklimawirkung das Methan in einer echten Atmosphäre hat – alle Aussagen dazu basieren bislang lediglich auf unzureichenden, noch äußerst unscharfen mathematischen Modellen oder unter Laborbedingungen.

 




Wohlstand für alle dank Energiewende

Dabei soll in einer ersten diesbezügliche Überschlagsrechnung davon ausgegangen werden, dass lediglich die bisherige gesamte Stromerzeugung in Deutschland und der motorisierte Individualverkehr (MIV) durch alternative Energiequellen gedeckt wird. Fossile Energieträger für Raum- und Prozesswärme sowie andere Verkehrsträger (Luftfahrt, Straßengüterverkehr, Schifffahrt u. a.) sowie die Landwirtschaft, die immerhin noch mehr als 50% der CO2-Emissionen verursachen, werden wie bisher genutzt.

Es gelten folgende Voraussetzungen:

  • Die gesamte derzeitige Stromerzeugung von jährlich 649 TWh[1] bleibt auf dem bisherigen Niveau und erfolgt durch erneuerbare Energiequellen.
  • Der motorisierte Individualverkehr erfolgt durch Elektrofahrzeuge.
  • Das fluktuierende Angebot von Wind und Sonne wird durch noch zu entwickelnde Energiespeicher mit einem Wirkungsgrad von 100%[2]
  • Die Stromerzeugung aus Photovoltaik, Wasser und biogene Brennstoffe lässt sich um 20% erhöhen.
  • Keine Nutzung von Kernenergie

In 2018 betrug die Bruttostromerzeugung in Deutschland gem. Bundesumweltamt 649 TWh, davon aus erneuerbaren Energiequellen rd. 225 TWh. Diese setzten sich zusammen aus

Windenergie             110,0 TWh

Photovoltaik                45,8 TWh

Wasserkraft                18,0 TWh

Biogene Brennstoffe  50,8 TWh

224,6 TWh → 34,6 % der Bruttostromerzeugung

Ende 2018 waren 30.518 WKA (davon 1.305 Offshore) in Betrieb. Die mittlere jährliche Stromerzeugung je WKA der jetzigen Leistungsklasse beträgt somit

Voraussetzungsgemäß wird die Stromerzeugung aus Photovoltaik, Wasser und biogene Brennstoffe um 20% gesteigert. Das sind

                        1,2*(45,8 + 18,0 + 50.8) TWh = 137,5 TWh.

Damit ergibt sich folgende Bilanz, wonach noch 401,5 TWh durch WKA abzudecken sind:

aus Photovoltaik, Wasser biogene Brennstoffe            137,5 TWh

aus existierenden WKA                                                        110,0 TWh

aus noch zu errichtenden WKA                                         401,5 TWh

649,0 TWh.

Um diese 401,5 TWh zu erzeugen, sind noch

 

erforderlich. Mit den bereits existierenden WKA sind somit allein zur Deckung des bisherigen Strombedarfs zusammen

111.500 + 30.518 = 142.018 bzw. rd. 142.000 WKA

erforderlich.

Der MIV ist mit einem Endenergieverbrauch (Benzin, Diesel, Gas) von 400 TWh der größte Energieverbraucher im Verkehrssektor (750 TWh). Im Fahrzeug wird Endenergie in Nutzenergie umgewandelt. Bei einem durchschnittlichen Wirkungsgrad über alle Fahrzeugtypen und Leistungsstufen von 30% folgen daraus 120 TWh als Nutzenergie. Diese muss als Strom durch WKA bereitgestellt und bis zum E-Motor des Fahrzeuges geleitet werden. Die Wirkungsgrade dieser Übertragung sollen für Stromtransport und Umspannung 90%, Batterie 90% und E-Motor 85% betragen,
d. h. 0,9 * 0,9 * 0,85 = 0,69 bzw. 69%. Daraus folgt ein Strombedarf von 120/0,69 = 174 TWh. Dieser Strom reicht allerdings nicht aus, um den bisher üblichen Fahrkomfort zu gewährleisten. Es ist die Heizung, die bei Otto- und Dieselmotoren durch Abwärme erzeugt wird. Diese Fahrzeugheizung muss nunmehr durch Strom erfolgen, der ebenfalls durch eine WKA bereitzustellen ist. Es wird im Folgenden angenommen, dass die Fahrzeugheizung ca. 25% der Nutzenergie, d. h. 30 TWh ausmacht. Der effektive Strombedarf für den MIV würde somit 174 + 30 = 204 TWh betragen. Dafür sind

erforderlich. Damit ergibt sich ein Gesamtbedarf an WKA für

bisherigen Strombedarf                 142.000 WKA

motorisierten Individualverkehr      57.000 WKA

199.000 WKA.

Diese sind auf dem Territorium[3] von Deutschland, das ca. 390.000 km² beträgt, unterzubringen.

Nun gibt es viele Gebiete, die als Standorte für Windkraftanlagen völlig tabu sind, so z. B. Natur- und Landschaftsschutzgebiete, Parkanlagen, historische Stadtkerne, dicht besiedelte Gebiete, Flugplätze, Kraftwerke, Bundeswehrgelände oder auch die US-Atomwaffenlager in der Eifel. Werden in erster Näherung zunächst nur die Naturschutzgebiete (gem. WIKIPEDIA 4,5%) und Landschaftsschutzgebiete (gem. WIKIPEDIA 28,5%) als mögliche Standorte abgezogen, verringert sich die verfügbare Fläche zur Aufstellung von WKA auf

(1 – 0,045 – 0,285) * 390.000 km² = 261.300 km².

Daraus folgt eine WKA-Dichte von

Bei einer gleichmäßigen Verteilung dieser 199.000 WKA über die verfügbare Gesamtfläche Deutschlands[4]würde somit auf einer quadratischen Grundfläche mit einer Seitenlänge von 1.150 m je eine WKA stehen. Der Abstand von jedem beliebigen Standort in Deutschland zur nächsten WKA wäre folglich weniger als 580 m. Auf dem Territorium von Potsdam (187,86 km²) müssten somit 143 und von Cottbus (165,15 km²) 125 WKA aufgestellt werden.

Fazit: Wenn der gesamte jetzige und der für die Elektrifizierung des motorisierten Individualverkehrs zusätzlich erforderliche Strom ausschließlich durch alternative Energiequellen und insbesondere Windräder (WKA) erzeugt werden soll, sind mindestens 199.000 WKA der jetzigen Leistungsklasse erforderlich (bisher gibt es ca. 31.000 WKA). Dies setzt allerdings voraus, dass hinreichend große Stromspeicher mit einem phantastischen Wirkungsgrad von 100% existieren. Würden diese 199.000 WKA gleichmäßig auf dem Territorium von Deutschland (ausschließlich Natur- und Landschaftsschutzgebiete und einschließlich der Küstenzonen) verteilt, so kommen auf einer quadratischen Grundfläche von 2 km Seitenlänge je 3 Windräder zu stehen.

Reicht diese Entfernung aus, sodass jeder Bürger in den Genuss von Windbürgergeld kommt?

 

[1] Alle hier verwendeten Energiewerte TWh, GWh beziehen sich auf ein Jahr

[2] Ein geringerer Wirkungsgrad würde einen höheren Strombedarf zur Folge haben. Zum Vergleich: Pumpspeicherkraftwerke haben einen Wirkungsgrad von ca. 70%, Power-to-Gas-Anlagen von 30%.

[3] Es setzt sich gem. WIKIPEDIA zusammen aus Staatsgebiet (einschl. Flüsse, Seen, Naturschutzgebiete u. a.) mit 357.376 km² und Küstenzone (Ausschließliche Wirtschaftszone) mit 32.832 km².

[4] einschl. Städte und Gemeinden, Flüsse und Seen, Flugplätze und Bundeswehrgelände, Parks und Gärten




Der Herr der vielen Nullen

Wussten Sie was so alles in ein Litergefäß passt? Natürlich, werden Sie sagen, ein Liter Milch zum Beispiel, oder ein Liter Wasser, oder, oder oder. Und Sie haben recht, aber das meinte ich nicht. Wussten Sie bspw. dass in einem Liter Luft – aber nur wenn Sie ihn einatmen, aber nicht wenn Sie ihn ausatmen-  3.432.000.000.000.000.000 Moleküle CO2 stecken? Nein, wussten Sie nicht? Kein Problem – wusste ich bisher auch nicht. Und das ist der Grund warum – zumindest ich, vielleicht aber auch Sie – bisher nicht verstanden haben wie das mit dem Klimawandel so funktioniert. Und damit sich das so schnell wie möglich ändert, schließlich leben wir ja mitten in einer Klimakrise, hat Professor Rahmstorf, ja der vom PIK, den Friday for Future Kindern, und vieler weiterer wissenschaftlicher Aktivitäten, die hehre Aufgabe auf sich genommen hat uns im SPIEGEL (Online Ausgabe hier) – ja der, mit den Relotius Preisen- aufzuklären:

Zitat: „Denn In jedem Liter eingeatmeter Luft stecken 3.432.000.000.000.000.000 CO2-Moleküle fossiler Brennstoffe. Gesundheits-schädlich ist das zwar nicht – aber man muss es wissen, um den Klimawandel zu verstehen.“

Und verspricht weiter, dass das folgende keine richtige Physikvorlesung werden wird, aber,da wir uns mitten in einer – na Sie wissen schon – befinden, wäre es höchste Zeit mit dem Falschinformationen, wie sie besonders im Internet, und da wiederum von den „Klimaleugnern“ bei EIKE verbreitet werden, aufzuräumen. Wobei die EIKE Leute , die „Boten des Zweifels“, sich einer besonders fiesen Methode bedienen, weil nämlich der Leser dort „..zahlreiche Quellenangaben, wissenschaftliche Sprache und „Belege“ findet, die Sie von der Abwesenheit der Klimakrise zu überzeugen versuchen“. Ja das ist schon ganz schön fies. Da muss man als beamteter Professor gegenhalten und mal richtig so richtig aufklären. Und das tut man an besten mit schönen großen Zahlen, so richtig großen. Und da wären wir wieder beim Beginn. Wussten Sie schon? Na, nun wissen sie es ja schon, die Sache mit den 3.432.000.000.000.000.000 CO2 Molekülen.

Und dann folgt „ein Crashkurs zu den wichtigsten Belegen“, schreibt der Professor. Und erklärt, nicht ganz falsch „Die Strahlungsbilanz eines Planeten bestimmt dessen Temperatur“.

Das stimmt zwar auch nur unter bestimmten Bedingungen, denn die Temperatur ist nur ein Maß für die kinetische Energie, die in der gemessenen Materie steckt, egal wo sie herkommt, und es gibt auch keine Strahlungsbilanz, sondern nur eine Energiebilanz, was bedeutet, dass die empfangene Energie, nicht per se die Strahlung, im Gleichgewicht (und das steckt im Wort Bilanz), und nur dann, genau so groß sein muss, wie die abgegebene Energie. Aber er versprach ja, dass das keine richtige Physikvorlesung sein würde, also wollen wir mal nicht so kleinlich sein, hier keine Zweifel säen und ihm das durchgehen lassen.

Kommen wir zurück zu seinen großen Zahlen und was sie mit seiner Beweisführung zu tun haben. Und leider, da werden wir enttäuscht. Da kommt nichts. Sie stehen einfach so rum, und sollen wohl Eindruck schinden. Nur einmal behauptet er, dass „wir“ die CO2 Konzentration um 45 % erhöht hätten. Doch viel von nix ist aber immer noch nix, oder?

Im Kommentarbereich gibt es daher neben viel Tadel auch viel Lob für diesen Versuch eine schwierige Materie einfach zu erklären. Trotzdem, oder gerade, weil nirgendwo die 3.432.000.000.000.000.000 CO2 Moleküle, mit dem was er uns eigentlich erklären will, nämlich den Treibhauseffekt, in Beziehung gesetzt werden.

Der Schuss wäre auch nach hinten losgegangen, denn dann hätte er erklären müssen, dass, egal wie viele CO2 Moleküle sich im Liter befinden, es nichts an deren winzigen Menge in Bezug auf das Ganze ändert. Es bleiben mickerige 0,01346 %. Da nützen auch sämtliche Großzahlen nichts, die Atmosphäre ist um viele, viele Größenordnungen größer.

Kiehl Trenberth 1997 Strahlungsflüsse mit ergänzend eingezeichneter Bilanzierung der Boden Ab- und Luft Gegenstrahlung. Die Werte 390 und 324 können hierin beliebig groß sein, solange ihre Differenz 66 Wm-2 annimmt. Details dazu u.a. hier.

 

Daher schrieb ich dem Herrn der vielen Nullen einen Kommentar:

„Lieber Herr Rahmstorf,
Ihre Riesenzahlen, die man – wie Sie schreiben – unbedingt wissen muss „um den Klimawandel zu verstehen“ werden im Verhältnis trotzdem nicht mehr. Und nur das zählt. Auch 3.432.000.000.000.000.000 CO2-Moleküle fossiler Brennstoffe bleiben mickrige 0,01346 %.
Und auch Ihr Gift Vergleich, der bestimmt gleich kommt, führt in die Irre, denn Gift, dass oft auch in kleinsten Mengen wirkt, greift sofort die Vitalfunktionen des Organismus an, wie Atmung oder Herzschlag. Das kann das böse CO2 alles nicht. es ist chemisch fast ein Edelgas.
Und es kann nur ganz, ganz wenig Infrarotenergie absorbieren und gibt diese wieder – wegen der ungleich wahrscheinlicheren Stoßabregung – zu weniger als 5 % als Strahlungsenergie ab. Natürlich nur in den dichten unteren Schichten. Oben ist es mehr, es sind aber viel weniger CO2 Moleküle da.
Und noch etwas – bei Ihnen scheint offensichtlich die Sonne Tag und Nacht. Bei mir ist das anders, da scheint sie nur tagsüber.
Daher kommen bei mir – und auch nur ziemlich grob- über die gesamte Halbkugel 648 W/m^2 an (Anmerkung von mir: Siehe Grafik und Bilanzierung Abstrahlung mit Gegenstrahlung oben). Die Nachthalbkugel erhält keinerlei Einstrahlung.
Das Ihnen das bisher noch nie aufgefallen ist? Komisch. Die Betrachtung der Wirklichkeit ist doch Voraussetzung jeder Naturwissenschaft, also besonders der Physik.
Diese so empfangene Energie muss und wird von beiden Halbkugeln wieder abgegeben werden.
Und schwups ist die Strahlungsbilanz, besser die Energiebilanz, wieder ausgeglichen. Ganz ohne den bilanziellen Zaubertrick mit dem Treibhauseffekt.“

Der blieb bisher unbeantwortet.

Im Text werden dann drei Möglichkeiten untersucht, wodurch sich die „Strahlungsbilanz“ so verändern könnte, dass sich unser „Heimatplanet aufheizen“ müsste.

Nämlich

  • Die Sonneneinstrahlung nimmt aufgrund der Sonnenaktivität oder der Erdbahnparameter

  • Der reflektierte Anteil der Sonnenstrahlung nimmt ab, weil die Helligkeit der Erdoberfläche oder der Wolkendecke abnimmt.

  • Die Abstrahlung von Wärme ins All nimmt ab.

Alle drei werden so diskutiert und mit „Messtatsachen“ so unterlegt, dass allein Option 3 die Lösung sein kann.

Ein Leser merkte dann noch an, dass schon das Ausscheiden von Option 1 ziemlich schräg argumentiert sei, weil Zitat aus dem Rahmstorf Artikel: Option 1 scheidet aus, denn die ankommende Sonnenstrahlung hat seit Mitte des letzten Jahrhunderts sogar etwas abgenommen schon deswegen nicht stimmen kann, weil, wie selbst WIKIPEDIA unzensiert schreibt

Seit Mitte des 20. Jahrhunderts befindet sich die Sonne in einer ungewöhnlich aktiven Phase, wie Forscher der Max-Planck-Gesellschaft meinen. Die Sonnenaktivität ist demnach etwa doppelt so hoch wie der langfristige Mittelwert, und höher als jemals in den vergangenen 1000 Jahren.“ Und merkt kritisch an:„Nun ist die Aussage von Herrn Rahmstorf nicht ganz falsch, durch Weglassen des Gesamtzusammenhangs gewinnt sie aber einen ganz anderen Wert. Dies ist für mich keine sachliche Darlegung von Fakten.“

Aber auch der Rest ist – wie bei Herrn Rahmstorf üblich – sehr selektiv. Dafür aber mit sehr großen Zahlen und deftigen Behauptungen – z.B. vom  „fragilen Gleichgewicht“ unterlegt, wie bspw. diese Mitteilung in Bezug auf die „gemessene“ Erwärmung der Meere, um ein knappes 1/10 Grad (0,07 gegen über einem Mittelwert von 1960-2015):

„Auch das ist eine Messtatsache, gemessen durch Forschungsschiffe und eine Armada von Tausenden autonomen Messgeräten in den Weltmeeren, die in den vergangenen zwanzig Jahren mehr als zwei Millionen Temperaturprofile[1]aufgenommen haben.“

Dazu schreibt der Willis Eschenbach, der seit Jahren die Klimatologie kritisch, aber klug begleitet (Hervorhebungen von mir):

Viel beeindruckender fand ich immer die erstaunliche Stabilität des Klimasystems trotz gewaltiger jährlicher Energieflüsse. In unserem Fall absorbiert der Ozean etwa 6.360 Zettajoules (1021 Joules) Energie pro Jahr. Das ist eine unvorstellbar immense Energiemenge – zum Vergleich, der gesamte menschliche Energieverbrauch aus allen Quellen von fossil bis nuklear beträgt etwa 0,6 Zettajoule pro Jahr …

Und natürlich gibt der Ozean fast genau die gleiche Energiemenge wieder ab – wäre das nicht der Fall, würden wir bald entweder kochen oder erfrieren.

Wie groß ist also das Ungleichgewicht zwischen der in den Ozean eindringenden und von diesem wieder abgegebenen Energie? Nun, im Zeitraum der Aufzeichnung betrug die mittlere jährliche Änderung des ozeanischen Wärmegehaltes 5,5 Zettajoule pro Jahr … was etwa ein Zehntel eines Prozentes (0,1%) der Energiemenge ausmacht, welche in den Ozean eindringt und von diesem wieder abgegeben wird. Wie ich sagte: erstaunliche Stabilität.

Folge: die lächerlich anmaßende Behauptung, dass ein derartig triviales Ungleichgewicht irgendwie menschlichen Aktivitäten geschuldet ist anstatt einer Änderung von 0,1% infolge Variationen der Wolkenmenge oder der Häufigkeit von El Nino oder der Anzahl der Gewitter oder einer kleinen Änderung von irgendetwas im immens komplexen Klimasystem, ist schlicht und ergreifend unhaltbar.

Trotz ihrer Dürftigkeit, wie auch der selektiven und rein propagandistischen Überhöhung der Zahlen, darf die Drohung vom Weltuntergang, ebenso wie die moralische Überhöhung am Schluss des Beitrages nicht fehlen..

Zitat:

Wer die Fakten heute noch leugnet, um damit die dringend nötigen Maßnahmen zur Vermeidung einer planetaren Katastrophe hinauszuzögern, macht sich mitschuldig an den Folgen: an stärkeren Tropenstürmen, Flutkatastrophen, Dürren und Waldbränden – und möglicherweise künftigen Hungersnöten“

 

Amen

[1] Auch diese große Zahl verliert bei genauer Betrachtung ihre Bedeutsamkeit, wenn man bedenkt, dass die Ozeane dieser Erde eine Fläche von  361.100.000 km2 bedecken, mit einer mittleren Tiefe von 3,79 km. Das ergibt 1.332.000.000 Kubikkilometer. Man hat in diesen 15 Jahren (Die ARGO Flotte gibt es seit ca. 2005) also wenige Prozente der Oberfläche auf eine Tiefe von 2000 m „vermessen“ Jede Argobojoe tastet dabei das Volumen einer Fläche von 1 Mio km2 ab. Das ist dreimal die Fläche Deutschlands. Details dazu hier: https://eike.institute/2020/01/15/der-ozean-erwaermt-sich-ein-winziges-bisschen/




Blackout – als die DDR 1978 aus der Kohle ausstieg

Und nein, es war nicht alles schlecht in der DDR. Warum ich das behaupten kann?

Der komplette Kohleausstieg erfolgte in der DDR schon am 31.12.1978.

Da wo die DDR am Silvester 1978 war, will die Bundesrepublik erst im Jahre 2038 hinkommen. Die DDR war der Bundesrepublik in Punkto Klimaschutz 60 Jahre voraus.

Das erscheint vielen Vorreitern in unserem Land verständlicherweise zu spät, um die Welt noch zu retten.

Vielerorts wurde daher schon der Notstand ausgerufen – meist der Klimanotstand – in Dresden gar der Nazi-Notstand.

Mich als Physiker wundert es allerdings sehr, dass in Deutschland noch nicht der intellektuelle Notstand ausgerufen wurde, was dringend notwendig wäre.

Silvester 1978 kam es, mitten während des Aufbaus des Sozialismus in der DDR zu einem Blackout, bedingt durch einen kompletten Kohleausstieg.

Das wird beim Aufbau des Sozialismus in der Bundesrepublik Deutschland nicht viel anders sein. Die Frage ist nur: wann? Das weiß nämlich keiner, auch ich nicht.

Was ist eigentlich ein Blackout?

Waren Sie, schon einmal in einem alten Fabrikmuseum?

Da gibt es eine große Welle mit vielen Riementreibrädern unter der Decke – so lang wie die ganze Werkhalle.

Diese Welle dreht sich mit konstanter Drehzahl, angetrieben von einer Dampfmaschine auf der einen Seite.

Diese Welle versinnbildlicht das Stromnetz.

Das Stromnetz stellt physikalisch gesehen eine riesenlange starre Welle dar, die sich mit 50 Umdrehungen pro Sekunde im ganzen Land – von München bis Hamburg – überall gleich schnell dreht.

In unserem Museum stehen unter der Welle in Reih und Glied die Werkzeugmaschinen. Das sind die Verbraucher.

Jeder Arbeiter in der Halle kann jetzt bei Bedarf den Treibriemen seiner Maschine auf die sich drehende Welle werfen (daher kommt der Ausdruck: „den Riemen auf die Orgel werfen“) und somit Last abnehmen.

Also in unserem Sinne einen Schalter anknipsen und Strom verbrauchen.

Unsere Stromnetzwelle wird von hunderten „Dampfmaschinen“ – den Kraftwerken – angetrieben.

Bei allen Dampfmaschinen, die die Welle antreiben, muss das Schwungrad exakt auf der gleichen Position sein – sie müssen 100% synchron laufen.

Millionen Verbraucher können dann ohne zu fragen, beliebige Schalter einschalten.

Die Netzbetreiber können ein Lied davon singen, was bei populären Fußballspielen im Netz passiert, wenn in der Halbzeitpause Millionen von Zuschauern gleichzeitig in Klo oder Küche Licht anmachen und Kaffeekessel oder Bratpfanne anwerfen.

Rein physikalisch sinkt durch jede neue Belastung die Drehzahl der Welle. (Etwa wie bei einem Auto, das plötzlich den Berg hochmuss).

Die Dampfmaschine gibt sofort „etwas mehr Gas“, der Fliehkraftregler öffnet die Dampfzufuhr und hält die Drehzahl konstant.

Wenn jetzt ganz viele Arbeiter gleichzeitig den Riemen auf die Orgel werfen, dann MUSS die Dampfmaschine stark genug sein – und zwar sekundengenau – um die Drehzahl konstant zu halten, sonst dreht sich die Welle durch die Überlast immer langsamer.

(Das ist wieder wie beim Auto: Wenn der Motor nicht genug Leistungsreserve für den Berg hat, geht die Drehzahl runter und der Motor wird eventuell „abgewürgt“).

Bei unserem Stromnetz darf sich die Welle nur minimal langsamer als 50-mal pro Sekunde drehen, schon bei unter 49 Umdrehungen pro Sekunde fallen ganze Teile des Netzes aus. Bei 47,5 U/sec wird das Netz „abgewürgt“ – die Kraftwerke fallen aus, es kommt zum Blackout.

Das Stromnetz ist war bisher für solche Belastungsschwankungen ausgelegt. Große Kraftwerke konnten wetterunabhängig Tag und Nacht Grundlast liefern und die Welle konstant drehen.

Belastungsschwankungen konnten vom Netzbetreiber sauber ausgeregelt werden. Die Netzwelle drehte sich konstant mit 50 Umdrehungen pro Sekunde, egal was die Kunden machten.

Nun kommt die Energiewende. Mit jedem Großkraftwerk, das stillgelegt wird, wird die wetterunabhängige Bereitstellung von Strom unsicherer.

Bisher haben nämlich nur die Kunden gemacht was sie wollten. Mit jedem Windrad und Solarpanel, die ans Netz gehen, wird die Drehzahlregelung schwieriger, weil jetzt nicht nur die Kunden machen, was sie wollen, sondern auch die Erzeugung macht, was Wind und Sonne wollen.

Bei Flaute oder Dunkelheit – oder Schneesturm – reicht eines Tages die Erzeugung nicht mehr und wenn der Import es nicht richten kann, geht die Drehzahl unseres Stromnetzes runter bis zum Blackout.

Wer etwas anderes behauptet, hat in Physik nicht aufgepasst oder schwindelt.

Doch kommen wir zurück auf den Kohleausstieg der DDR. Es ist das Jahresende 1978.

Ich bin zu der Zeit ein blutjunger Oberschichtleiter im damals größten Kernkraftwerk der Welt – zumindest, wenn man den Turbinensaal mit seiner Länge von 2 km betrachtet.

In Greifswald stehen acht russische Reaktoren, vier davon in Betrieb, einer in Inbetriebsetzung und drei noch im Bau.

Ich bin als Oberschichtleiter der Chef von „det Janze“. Meine Schicht, das sind 156 hochqualifizierte Leute, davon die Hälfte Frauen. Es gibt 18 Ingenieure in meiner Schicht.

Als ich mich am Abend des 31. Dezembers auf den Weg zum Dienst mache, fegt ein kräftiges Schneetreiben um die Wohnsilos des Greifswalder Plattenbaugebietes. In den Zimmern hängen die Leute Girlanden für ihre Silvesterfeiern auf. Auf den Balkonen kühlt der Sekt im Schnee. Wer geht schon gern am Silvester zur Nachtschicht?

Ich ahne noch nicht, dass meine Schicht ganze vier Tage und Nächte dauern würde.

Als ich den Dienst übernehme, spitzt sich die Lage im Netz mehr und mehr zu.

Die Netzfrequenz ist schlecht und immer wieder fallen sturmbedingt Hochspannungsleitungen aus.

Das wird durch sogenannte „langwellige Leiterseilschwingungen“ verursacht – nein nicht was sie denken: nicht „langweilig“ – es heißt „langwellig“.  Der Schnee friert an den Leitungen fest und es bildet sich eine Tragfläche aus Eis auf der windabgewandten Seite. Diese Tragfläche wird durch die Windstöße angehoben und dann kommt es zum Zusammenklatschen von den sonst durchhängenden Drähten und damit zu Kurzschlüssen.

Im Turbinensaal kann ein geübtes Ohr hören, dass im Stromnetz der DDR nichts mehr stimmt. Die riesigen Turbinen brüllen anders, als sie das sonst tun. Ihre Drehzahl fällt durch die Überlast zusammen mit der Netzdrehzahl ab – wie bei einem untertourig gefahrenen Automotor am Berg.

Der Lastverteiler meldete sich und erklärt die miese Frequenz von 48 Hz. Das Großkraftwerk Boxberg ist vom Netz gegangen, weil denen die Kohle an den Bändern festfriert. Andere Kohlekraftwerke folgt bald darauf. Die Braunkohlekumpel verlieren grade die Winterschlacht.

Die ersten Flächenabschaltungen werden gemeldet.

Flächenabschaltung, das bedeutet die vorsorgliche Trennung ganzer Landstriche vom Stromnetz – genannt Brownout – um einen drohenden Blackout zu verhindern.

Ich schicke meinen Fahrer los, um die Lage der Straße zu erkunden… Der meldet sich nach kurzer Zeit über Funk und sagt: „Ich muss umkehren, sonst schaffe ich es nicht mehr zurück. Hier verweht alles meterhoch“.

Gegen zwei Uhr meldet sich der Lastverteiler erneut und sagt mir, dass unser Kraftwerk derzeit mehr als die Hälfte der Stromproduktion der DDR stemmte und dass sie notgedrungen weitere Flächenabschaltungen durchführen müssten.

Nach einer weiteren Stunde geht das letzte große Kohlekraftwerk vom Netz.

Der Kohleausstieg der DDR ist nun vollzogen. Aber der gesamte Norden der DDR ist schwarz – Blackout.

Ich trommele meine Schichtführung zusammen und lege ein Notregime fest.

  • Routineorganisation – d.h. formale Schichtablösung alle acht Stunden mit uns selbst, Schichtbriefing wie gewohnt alle acht Stunden.
  • Abbruch und Aussetzen aller Tests und Routineinstandhaltungen
  • Mindestbesetzung der Posten und wechselweises Schlafen

Meine Kollegen lachten mich aus, machten aber, was ich anordne.

Nach 24 Stunden – beim dritten Schichtbriefing – lacht keiner mehr. Wir halten einen Routinebetrieb mit Mindestbesetzung aufrecht und in jeder Ecke kann man jetzt Leute finden, die eine Stunde Schlaf suchen.

Das Telefonnetz ist zusammengebrochen. Es funktioniert nur noch mein rotes Telefon zur Einsatzleitung.

Ich bin ganz froh darüber, weil dadurch die ständigen Belästigungen durch allerhöchste Parteibonzen aufhören. „Schiggen sie mir sofort Schdrom in die Bezürgshaubtstadt… Sie wissen wohl nicht, mit wem sie es zu tun haben?…“

Wir sind jetzt das einzige verbliebene Großkraftwerk der DDR, das mit voller Leistung produziert. Das kann nur ein KKW, wir sind ein bisschen stolz darauf. Die Mannschaft funktioniert sehr gut. In den Kantinen wird Spiegelei mit Brot und schwarzer Kaffee zum Renner. Allerdings geht den Leuten das Geld für die Pausenversorgung aus.

Ich rufe kurzerhand die autonome Republik Lubmin aus und erfinde eine eigene Währung. Eine Rolle Kinokarten, die seit Jahren ein Schattendasein in meinem Schreibtisch führt, steigt mit meinem Dienststempel zum Zweimarkschein der autonomen Republik Lubmin auf.

Jeder bekommt zwei Karten pro Schicht. Der Dispatcher organisiert das.

Allmählich wird das rote Telefon mein größtes Problem.

Die Einsatzleitung sitzt in Greifswald im Dunkeln und panikt. Sie denken, wir schaffen das nicht. Sie geben mir eine unsinnige Anweisung nach der anderen.

Und sie wollen mir Hilfskräfte schicken – drei Busse voll Verwaltungspersonal. Zur Unterstützung.

Mein Einwand, dass ich die Menschen weder unterbringen, noch ernähren kann, verhallt ungehört.

Ich sage dem Einsatzleiter, dass ich lizensiertes Personal zum Anlagefahren brauche, und Zahnbürsten, Nudeln, Brot und Kaffee.

Es ist hoffnungslos. Der Chef der Einsatzleitung ist der Parteisekretär des KKW.

Einer der losgeschickten Busse schafft es bis ins Werk.

Es sind meist Frauen, die nun nicht mehr zurückkönnen – der Busfahrer weigert sich weise zurückzufahren.

Die Frauen machen sich berechtigte Sorgen um ihre Kinder. Ich bringe sie im Verwaltungsgebäude in ihren Büros unter. Helfen können sie mir nicht. Aber sie erschweren mir das Leben, indem sie ständig wegen neuer Probleme anrufen.

Von nun an ignoriere ich die Einsatzleitung widerspruchslos. Die anderen Busse sind zum Glück steckengeblieben und werden freigeschleppt.

Von den Schlossern lasse ich die Feuerwehrzufahrten zu den Transformatoren und lebensnotwendigen Anlagenteilen vom Schnee räumen und den Kühlwassereinlauf schollenfrei halten – so gut das bei dem Sturm geht.

Was geschieht während dieser Zeit draußen im Land?

Ein schwerer Schneesturm tobt bei zehn bis zwanzig Minusgraden und sorgt für mehrere Meter hohe Schneeverwehungen.

Damit sich der Leser ein Bild machen kann: die Schneeverwehungen erreichen Telegrafenmasthöhe. Ein Doppelstock-Zug bleibt im Schnee stecken und kann zum Glück evakuiert werden. Er wird eine Woche später von der Armee und zivilen Kräften ausgegraben, indem man sich aus fünf Meter Höhe stufenförmig von oben aufs Dach der Waggons herunterbuddelt.

Dutzende Autos bleiben stecken. Einige Autofahrer erfrieren in ihren Trabants.

Einige Fußgänger überschätzen sich und erfrieren auf der Landstraße.

Beherzte Bauern retten Leute mit Pferdeschlitten aus den eiskalten Autos.

Doch alle Hilferufe der Nordbezirke verhallen im noch schneefreien Berlin.

Zumal der Generalsekretär Erich Honecker gerade zum Freundschaftsbesuch in Afrika weilt, wo es ja bekanntlich nicht so kalt ist.

Die Berliner Regierungsbonzen sind Silvesterurlaub in Wandlitz und denken wohl: „Die Fischköppe soll‘n sich nicht so haben“.

Inzwischen bricht in den Städten die Gasversorgung zusammen, da in der schwarzen Pumpe die Druckvergasung der Braunkohle nicht mehr funktioniert. Auch denen ist die Kohle auf den Bändern festgefroren.

Um Berlin versorgen zu können, dreht man den Hahn der Gasleitung nach Norden zu. Tausende Heizungen in den Plattenbauten frieren ein und platzen.

Die Wiederinbetriebnahme der Gasversorgung stellte nach ein paar Tagen eine ganz besondere Herausforderung dar. Man kann ja das Gas zu den Häusern nicht einfach wieder aufdrehen, solange man nicht weiß, dass innen alle Gashähne geschlossen wurden.

Die Insel Rügen ist jetzt komplett abgeschnitten.

Die B96 und die Ziegelgrabenbrücke am Rügendamm sind unpassierbar. 90.000 Bewohner der Insel sind ohne Strom, ohne Wasser und ohne Versorgung.

Es gibt keinen Zugverkehr mehr, 3000 Weihnachtsurlauber sitzen irgendwo fest, bestenfalls in ihren Pensionen, manche auch auf Bahnhöfen.

In den Massenställen ersticken zigtausend Hühner, weil die Belüftungsventilatoren nicht mehr funktionierten.

Die Kühe müssen mit der Hand gemolken werden, weil die Melkanlagen nicht mehr funktionieren. Die Milch wird gleich wieder verfüttert, da sie nicht abtransportiert werden kann.

Die meisten Ferkel in den Mastanlagen erfrieren.

In den Jubelmedien durfte später darüber natürlich nicht berichtet werden, was hätte der Klassenfeind denken sollen?

Aber es gibt auch viel Gutes zu sagen.

An manchen Orten wird die Rente von beherzten Bürgermeistern aus den Einnahmen des lokalen Konsums ausgezahlt, obwohl Konsumverkausstellen bald leergekauft sind.

Wasser wird durch Schneeauftauen gewonnen – wenn ein Kohleherd da ist.

Die Russen helfen mit Kettenfahrzeugen. Sie verteilen Brot und Kohl.

Marinehubschrauber fliegen Dialysepatienten aus – wenn diese Glück haben und die Marine irgendwie erreichen können. Weil ja das Telefonnetz nicht mehr geht.

430 Noteinsatzflüge machen die Marineflieger mit ihren MI 8 Helikoptern im Sturm. Meist werden Nierenpatienten oder Gebärende evakuiert.

Über dreißig Kinder werden zu Hause geboren und überleben.

Es ist nicht bekannt geworden, wie viele Kinder beim Zusammenkuscheln in den kalten Schlafzimmern gemacht wurden.

Fallschirmjäger der Nationalen Volksarmee machen sich per Ski in abgeschnittene Dörfer auf, um lebensnotwendige Medikamente hinzubringen.

Viele Wohnungen werden noch mit Öfen beheizt und die Menschen rücken bei Kerzenlicht zusammen. Viele helfen sich gegenseitig so gut es geht.

Derweil schreiben stramme SED-Funktionäre Jubelbriefe an Erich Honecker: „Werktätige im Kampf gegen extreme Witterung – initiativreich sichern wir die Planerfüllung“ oder „Die Freie Deutsche Jugend siegreich im Kampf gegen die Naturgewalten“. Die Erfolgsmelder werden später als Helden von der Presse gefeiert und werden die fälligen Auszeichnungen erhalten.

Ich möchte Ihnen noch eine kleine Anekdote aus dem Kraftwerk erzählen.

Eine Reaktorfahrerin – eine hochqualifizierte Frau mit einem Kernphysikdiplom des Moskauer Kurtschatov-Instituts und Doktortitel – nimmt mich beiseite und druckst herum: „Nicht richtig ausgerüstet…“ Nach einigem Winden kommt heraus, dass den Frauen Hygieneartikel und Anti-Babypillen fehlen.

Uups, da bin ich nicht draufgekommen.

Ich schicke ein paar Leute mit dem Volkspolizei-Betriebsschutz zum Einbrechen in den großen Baustellenkonsum. Sie kommen mit reicher Beute zurück und ich kriege endlich eine Zahnbürste.

Dann mache ich einen Schneesturmspaziergang zum Sanitätstrakt des Verwaltungsgebäudes.

Die durchaus bemerkenswerte Krankenschwester kocht mir einen starken Kaffee und holt eine Ladung Pillen aus der Handapotheke.

Als ich gehe, drückt sie mir noch ein Fläschchen Augentropfen in die Hand: „Nimm die, deine Augen sehn aus wie die Rücklichter vom Trabant“.

Das Leitwartenpersonal ist durch die Ruhepausen einigermaßen fit und wird mit Kaffee zugeschüttet.

Am dritten Tag ist die Mannschaft irgendwie auf Rekordjagd im Heldentaumel: „Wer fährt die längste Schicht?“ Doch die Leute sind ausgelaugt. Ich wittere Gefahr, jetzt dürfen wir erst recht keine Risiken eingehen. „Nichts anfassen“ lautet die Devise.

Nach seinem Silvesterurlaub hat sich der Verteidigungsminister Hoffmann entschlossen, in den Norden zu fahren. Für den Sonderzug schippt die Volksarmee einen Gang auf den Schienen frei. Als es nicht mehr weitergeht, starrt der Minister ungläubig und entsetzt auf eine Schneewand von mehreren Metern Höhe.

Auf diese Art setzt sich Erkenntnis durch, dass nun die Armee eingesetzt werden muss.

Doch das ergibt einen langwierigen Start. Sind doch auch die Armeeeinheiten in ihren Standorten hoffnungslos eingeschneit.

Als die Schicht C des KKW Bruno Leuschner nach vier Tagen mit MI 8 Hubschraubern der NVA abgelöst wird, habe ich 78 Stunden nicht geschlafen.

Am 14. Februar, sechs Wochen später kommt der Schneesturm noch einmal mit minus 20 Grad nach Rügen zurück und richtet erneute ein schweres Chaos an.

Die DDR-Führung gab nach dem Blackout offiziell neun Todesopfer zu.Ich vermute, dass sind die Bedauernswerten, die auf den Straßen erfroren sind. Bei den anderen Opfern hat man wohl eine Handvoll Erde auf den Sarg geworfen und nicht weiter darüber geredet.

Erinnerungen an die Zukunft. Die Groko hat es gerade beschlossen: das THW bekomme 33,5 Millionen Euro für die Anschaffung von 670 „50 kVA-Notstromaggregaten“ – zur Ausrüstung der Ortsverbände in Deutschland.

Aus der Begründung des BMI: „Vor dem Hintergrund der Gefahr eines großen Blackouts ist eine derartige Ausstattung der Ortsverbände dringend geboten.“

Die Qualitätspresse beeilt sich, umgehend zu versichern, dass die Blackout-Gefahr natürlich nur von „Cyberattacken, Terror und Sabotage“ kommen kann. Wie stets hat nichts mit nichts zu tun.

Doch in dieser Woche haben die Netzbetreiber Alarm geschlagen. Die Netzreserve ist ab 2021 nicht mehr ausreichend.

Ich unterstelle, dass die Energiewender einen Energiesozialismus mit Stromzuteilung planen. Stromzuteilung heißt aber in meiner Sprache, dass „Brownouts“ etwas Normales werden.

Mir stellt sich bei alldem die Frage: Was machen eigentlich die FfF-Kinder wenn der Strom wegbleibt?

Da fällt nämlich auch das Internet aus: nix WhatsApp, nix Twitter, nix Instagram, nix Google und nix E-Mail.

Werden sie die Ärmel hochkrempeln und anpacken statt zu jammern?

Werden sie Zusammenstehen, Durchhalten, Improvisieren, Machen? Können sie verzichten und die Zähne zusammenbeißen?

Oder werden sie mit ein WLAN-Absenz-Depressionheiße Tränen auf die schwarzen Displays ihrer Handis weinen, Diskriminierung vermuten und sich unter Klagen über die Ungerechtigkeit der Welt in ihre „Komfortzonen mit Gendertoiletten“ zurückziehen? Werden sie nicht, denn die „geschützten Räume“ werden dunkel und kalt sein.

Ich bin da eigentlich recht optimistisch.

Wenn echte Probleme auftauchen – ich meine, so mit echtem Hungergefühl im Magen und Frostzwicken in den Zehen – dann ist der ganze künstliche Spuk mit einem Schlag vorbei.

Dann flüchten die lieben Kleinen zur Oma, die hoffentlich im Strumpf noch ein paar Euro, im Keller noch ein paar Einweckgläser und im Hühnerstall noch ihr altes Motorrad stehen hat.

Ehe ich es vergesse, muss ich zum Schluss noch Selbstkritik üben.

Ich schreibe es hier ganz offen – ich wurde am Jahreswechsel 1978/79 zum größten Idioten der Deutschen Demokratischen Republik. Und das ohne jeden Zweifel.

Ich war nämlich verantwortlich dafür – ohne es zu ahnen – ja, das kann keine Entschuldigung sein – das der Strom für den Antifaschistischen Schutzwall in Berlin erzeugt wurde.

Man stelle sich vor – nicht auszudenken – wenn die 22.000 Genossen, die zum Schutz des ersten Arbeiter- und Bauerstaates vor den imperialistischen Kriegstreibern der BRD dort Friedenswacht hielten, plötzlich im Dunkeln gestanden hätten.

Da hätte der Letzte nicht mal das Licht auszuschalten brauchen.

So kam es, dass ich im Jahre 1978 die DDR rettete.

Im Oktober 1989 gelang mir die Rettung des einzigen Arbeiter- und Bauern-Staates auf deutschem Boden nicht nochmal. Ich unterzog mich nämlich im Jahr 1989 gerade einer Licht- und gesiebte Lufttherapie im staatlichen Erholungsheim des Ministeriums für Staatssicherheit in Berlin-Hohenschönhausen.

Sonst hätte ich die DDR 1989 vielleicht erneut retten können. Und ich hätte damit Angela Merkel und ihrer großen Koalition viel, viel Mühe beim Wiederaufbau des entwickelten Systems des Sozialismus auf deutschem Boden ersparen können.

 

 

Manfred Haferburg ist der Autor des autobiografischen Romans „Wohn-Haft“. Als Schichtleiter im Kernkraftwerk kämpft er um Sicherheit gegen die Macht der Bonzen. Es macht ihn verdächtig, weil er sich der Einheitspartei verweigert. Die Hexenprobe der Stasi ist die erfolglose Anwerbung als Spitzel. Bald steht er auf allen schwarzen Listen seines Heimatlandes. Er wird „zersetzt“ und verliert alles. Eine Flucht misslingt und eine Odyssee durch die Gefängnisse des „sozialistischen Lagers“ beginnt. Der Mauerfall rettet ihm das Leben. Ein Buch, das den Leser atemlos umblättern lässt. (63 Amazon-Kundenbewertungen: 4,7 von 5 Sternen)




Klima-Wissenschaft: Psst, irren muss menschlich bleiben

Notwendig für den Erfolg sind in jedem Fall Geld, fachliche Kompetenz und wissenschaftliche Ethik. Wenn letztere fehlt, dann sieht es schlecht aus, dann wird aus der Wissenschaft eine Machenschaft. Dazu zwei Beispiele.

Die Statistik spricht dafür, dass Sie, lieber Leser, liebe Leserin, sich nie für Physik interessiert, die Schule trotzdem gemeistert und im Leben bisher Erfolg hatten. Der zweite Hauptsatz der Thermodynamik oder Schrödingers Gleichung können Ihnen gestohlen bleiben.

Die Physik aber hat etwas mit der Rechtsprechung gemeinsam: ihre Gesetze gelten, egal ob wir sie kennen oder nicht. Im Gegensatz zur Rechtsprechung haben sie allerdings keine Ausnahmen. Alle Elektronen in allen Atomen im Weltall gehorchen in jedem Moment denselben Regeln. Nicht eines tanzt aus der Reihe.

Vielleicht entgegnen Sie jetzt, die Wissenschaft sei keineswegs unfehlbar und hätte nach den Entdeckungen von Einstein & Co jedes Mal neu geschrieben werden müssen; dass durch Relativitätstheorie und Quantenmechanik die klassische Physik auf dem Müllhaufen gelandet sei.

Das ist nicht der Fall. Die von Newton im 17. Jahrhundert formulierten Gesetze erlaubten es, den Lauf der Planeten zu erklären und vorauszuberechnen. Die Gestirne haben ihren Lauf aber nicht an dem Tag im 20. Jahrhundert geändert, als Relativitätstheorie und Quantenmechanik erfunden wurden. Saturn, Jupiter und Venus ziehen ihre göttlichen Bahnen wie eh und je. Der Götterbote Merkur allerdings tanzt jetzt so ein kleines bisschen aus der Reihe, aber das ist eine andere Geschichte.

Wir teilen uns dann den Nobelpreis

Es gibt natürlich Abläufe, die nicht vorhersehbar sind – etwa wenn wir eine Münze werfen, dann wissen wir nicht, ob es Kopf oder Zahl wird. Das heißt aber nicht, dass hier die Physik außer Kraft wäre. Wenn das Stück Metall auf der Tischplatte landet, dann gelten die Regeln für Erhaltung von Energie und Impuls genauso wie im übrigen Universum.

Und falls Sie, liebe Leserin, eine Beobachtung gemacht haben sollten, die der Physik widerspricht, dann lassen Sie es mich wissen. . Bitte kommen Sie mir aber nicht mit Ihren Jack Russel Terrier, dessen Zugkraft an der Hundeleine allen Naturgesetzen spottet.

Physik ist ein Haus aus soliden Quadern, an dem fortlaufend gearbeitet wird. Es ist noch nicht vorgekommen, dass einer der tragenden Steine sich als marode herausgestellt hätte, auch wenn er gelegentlich etwas verstärkt werden musste. Diesen Erfolg verdanken wir der wissenschaftlichen Methode, mit der das Gebäude geschaffen wurde.

Zur Erklärung ein Beispiel aus eigener Erfahrung. Ich besuchte vor vielen Jahren einen befreundeten Wissenschaftler am Argonne National Laboratory. Wir fuhren abends im Auto auf verschneiten Straßen durch Chicago, und er erzählte mir, so nebenher, dass er in einem Experiment die Verletzung der Heisenbergschen Unschärfe-Relation gemessen hätte.

Dieses Gesetz ist der heilige Gral der Quantenphysik, und ich wunderte mich über die Nonchalance, mit der er diese revolutionäre Mitteilung machte. Ich reagierte, so wie jeder andere Physiker es auch getan hätte, indem ich fragte: „Und was habt ihr in dem Experiment falsch gemacht?“ Er versicherte, dass alle möglichen Fehlerquellen x-mal überprüft wurden, dass Irrtümer ausgeschlossen seien, und dass diese brisante Sache schnell veröffentlicht werden soll.

So geschah es, und bald wurde das Experiment weltweit an anderen Instituten wiederholt – allerdings mit anderem Resultat: Die Verletzung der Unschärferelation wurde nicht gemessen.  Es kam zu intensivem Gedankenaustausch zwischen den Forschern, und bald sah mein Bekannter ein, dass der Hund bei ihm begraben war. Über seinen Irrtum schrieb er dann auch eine Veröffentlichung. Damit war alles geklärt und der heilige Gral der Quantenphysik blieb unangetastet.

Das Haus bleibt sauber, ohne Leichen im Keller

Da haben wir also die Methode: Der Forscher gewährt dem Rest der Welt totale Transparenz darüber, was er wie gemessen und gerechnet hat. So können Kollegen weltweit seine Resultate prüfen und entweder bestätigen oder infrage stellen. In letzterem Fall werden sie sich gegenseitig nicht als Leugner schmähen, sondern als nützliche Gesprächspartner willkommen heißen, und die Chancen stehen gut, dass man gemeinsam den sachlichen Grund für den Widerspruch findet. Dieses Ergebnis wird der Welt dann mitgeteilt; das Haus bleibt sauber, ohne Leichen im Keller.

So läuft Qualitätssicherung in der Wissenschaft. Und der Forscher, der den Fehler gemacht hatte, wird weder verspottet noch geächtet, denn Irren ist menschlich, aber auf dem Irrtum beharren ist idiotisch – zumindest in der Wissenschaft. Die Ansammlung solcher geprüfter Erkenntnisse ist unser Wissen. Ist es auch die Wahrheit? Das ist eine Frage für den Semantiker oder den Philosophen. Auf jedem Fall wäre es töricht, bei der Lösung von Problemen das existierende Wissen nicht einzusetzen – in der Medizin wäre das sogar sträflich.

Einen phantastischen Erfolg erzielte man im Jahr 2015, als zum ersten Mal Gravitationswellen gemessen wurden. Dieses Phänomen tritt auf, wenn schwere Massen beschleunigt werden. Vielleicht denken Sie jetzt an Ihre 300-Kilo Kawasaki, die einen Wheelie macht, wenn Sie aufdrehen – die erzeugt bestimmt Gravitationswellen! Im Prinzip ja, aber hier ging es um andere Kaliber, die nicht in Kilogramm, sondern in Sonnenmassen und deren Speed in Prozent der Lichtgeschwindigkeit beschrieben wird.

Folge dieser Wellen ist, dass sich der umgebende Raum in ihrem Takt ausdehnt und zusammenzieht; das hat Einstein jedenfalls behauptet und dafür auch eine Gleichung hinterlassen. So konnte man in recht anspruchsvollen Rechnungen abschätzen, wie sehr sich der Raum verändert, wenn so eine Welle von weit her bei uns auf der Erde einfällt. Man kam darauf, dass es hier um den Bruchteil des Durchmessers eines Atomkerns geht. Das wollte man nun messen.

Manchmal ist es schon schwierig, die Löcher für eine Gardinenstange auf ein paar Millimeter genau in die Wand zu bohren, und die ist nur zwei Meter lang. Hier nahm man eine Strecke, die mehrere Kilometer lang ist und wollte kleinste Längenänderungen messen, für die es keinen Vergleich gibt. Wie soll das gehen?

Es ist tatsächlich gelungen, die Forscher bekamen den Nobelpreis, und auch die Medien nahmen sich des Falls an.

Ein Triumph moderner Technik und wissenschaftlicher Ethik

Eine Apparatur mit solch grotesker Messgenauigkeit wird natürlich auf viele andere Einflüsse reagieren, die dann von den Forschern versehentlich als echtes Messsignal interpretiert werden könnten, wie vielleicht das Knattern der Kawasaki – also die Schallwellen, nicht die Gravi-Wellen. Um solche Fehlinterpretationen zu bekämpfen gab es ein eigenes Team mit der Aufgabe, Störungen zu erzeugen, die von den Forschen vielleicht irrtümlich für eine echtes Ereignis gehalten würden. Die beiden Teams durften keinen Kontakt zueinender haben. So lernte man bei den Messungen die Spreu vom Weizen zu trennen und hat inzwischen mehrere Ereignisse beobachtet, deren gewaltige Energien selbst die erfahrensten Astronomen zu leichtem Kopfschütteln motivierten.

Das erste, welches Schlagzeilen machte, stammte von zwei Schwarzen Löchern mit jeweils mehreren Sonnenmassen, die sich umkreisten und dabei gegenseitig aufsogen, wie zwei riesige Vampire, um schließlich einen einzigen Himmelskörper zu bilden. Die Gravitationswellen der letzten halben Sekunde dieses Tanzes wurden aufgezeichnet in dieser Graphik und sie entsprachen den Rechnungen gemäß der allgemeinen Relativitätstheorie.

Konnte man diesem Ergebnis trauen? Die Tatsache, dass die beiden Zwillingsapparaturen, die eine in Louisiana und die andere im Staate Washington, identische Messungen machten, war ermutigend. Dennoch ließ man sich mit der Veröffentlichung ein halbes Jahr Zeit, in dem man selbstkritisch alle Möglichkeiten eines Irrtums ausschloss – mit Erfolg. Es war ein Triumph moderner Technik und wissenschaftlicher Ethik.

Es gibt ein weiteres interessantes Experiment, welches derzeit auf der Erde läuft, und wieder geht es um die Bestätigung einer wissenschaftlichen Theorie durch Messungen. Hier die Fakten:

Die Konzentration von CO2 in der Erdatmosphäre hat in den vergangenen 50 Jahren um etwa ein Viertel zugenommen. CO2 in der Atmosphäre absorbiert gewisse Teile der infraroten Strahlung, welche die Erdoberfläche dank ihrer Temperatur von durchschnittlich 15°C  abgibt. Die durch Strahlung abgegebene Leistung ist proportional zur vierten Potenz der Temperatur, gemessen in Kelvin. Eine Erwärmung von 15 auf 16°C würde die die Wärmeabstrahlung um ca. 1,4 Prozent erhöhen.

Die Erdoberfläche nimmt eine solche Temperatur an, dass die abgestrahlte Leistung im Mittel gleich der von der Sonne empfangenen ist (Wärmequellen im Inneren der Erde vergessen wir mal).

Die Abschirmung der Abstrahlung durch CO2 (d.h. die Tatsache, dass durch mehr CO2 die Erde immer weniger einem „schwarzen Strahler“ gleicht) wird also spontan ausgeglichen durch eine Erhöhung der Temperatur.

Wenn wir nur diese Fakten betrachten, dann sollte es auch in diesem Fall möglich, wenn auch nicht ganz einfach sein, den Temperaturverlauf theoretisch zu berechnen, das theoretische „Modell“ an Temperaturdaten der Vergangenheit anzupassen (zu „fitten“) und für die Zukunft Prognosen zu machen. Wie bei den Gravitationswellen, so gibt es aber auch hier zahlreiche „Störfaktoren“, welche Einfluss auf die Temperatur haben, sodass CO2 nur einer der Akteure ist.

Insgesamt kein überzeugendes mathematisches Modell

Tatsächlich zeigt der gemessene Temperaturverlauf kaum Korrelation mit dem CO2-Anstieg. Es gibt lange Jahre mit fast konstanter Temperatur und dann vorübergehende Erhöhungen, die El Niño zugeschrieben werden. Aber insgesamt gibt es kein überzeugendes mathematisches Modell. Wie wollen jetzt hier keinesfalls in die wissenschaftliche Diskussion einsteigen, sondern „Meta-Wissenschaft“ betreiben, also die Art und Weise beurteilen, in der die Klimawissenschaft betrieben wird. Und da scheint es doch einige Mängel zu geben: Es fehlt nicht an Geld, aber an Ethik.

Die Klimaforschung ist nicht frei auf ihrer Suche nach der Wahrheit, ihre Arbeit ist nicht „ergebnisoffen“. Ihre Finanzierung hängt von der Produktion politisch opportuner Ergebnisse ab. Die Erkenntnis „Wir haben uns getäuscht, es ist alles halb so schlimm“ wäre a priori ausgeschlossen.

Auch die Praxis, dass eine Mehrheit der Forscher – die viel zitierten 97 Prozent – über richtig oder falsch entscheidet, ist in der Wissenschaft absurd. Vielleicht haben die 3 Prozent ja gute Gründe, wenn sie anderer Meinung sind. Auch das Dogma, die Forschung sei abgeschlossen, ist sehr verdächtig. In der Wissenschaft muss auf alle Einwände reagiert werden. Wenn sie trivial sind, dann ist das mit einem Satz erledigt. Wenn sie nicht trivial sind, dann könnten sie ein wertvoller Beitrag sein.

Der Behauptung, dass die Unschärferelation verletzt sein könnte, wurde nachgegangen, und sie stellte sich als Irrtum heraus. Die herrschende Klimawissenschaft aber wehrt jegliche Einwände gegen ihre Thesen mit dem Argument ab „The Science is settled.“ (hierein Beispiel).

Und was haben eigentlich die zigtausend Klimaforscher noch zu tun, wenn die Forschung abgeschlossen ist?

Sehr befremdlich sind auch die häufigen Pannen, bei denen Unkenntnis über elementarste Zusammenhänge zutage tritt. Immer wieder wird offensichtlich, dass wichtige Mitspieler keine Ahnung vom Thema haben. Nicht nur der Präsident des Sierra Clubs, auch Al Gore. Auf dem Umschlag von seinem neuem Buch „Our Choice“ waren zusätzliche Hurrikane mit Photoshop in ein echtes Foto gemalt worden. Gut, das ist künstlerische Freiheit. Einige davon drehten sich aber falsch rum: mit dem Uhrzeiger statt dagegen. War denn da wirklich niemand in Gores Stab, dem das aufgefallen wäre? Kein Lektor, der schon mal von Tiefdruckgebieten gehört hatte? Das ist wie ein Reiseführer von London, auf dessen Umschlagsbild die Autos rechts fahren.

In Wirklichkeit ein riesiges Potemkin’sches Dorf

Die Prognosen der Klimawissenschaftler sind immer wieder falsch. Die Vorhersagen für Temperaturanstiege lagen von Anfang an völlig daneben. Es begann mit der berüchtigten „Hockey Stick“ Kurve, dann kamen kryptische – und irrelevante – Prognosen vom Typ „mit 86,7% Wahrscheinlichkeit wird der Temperaturanstieg bis 2030 zwischen 0,62 und 3,17°C liegen“. Der Himalaya sollte demnächst schneefrei sein, und auch die Kassandra-Nachricht, der Montana Glacier National Park hätte bis 2020 seine Gletscher verloren, bewahrheitet sich nicht. Da waren vor zehn oder fünfzehn Jahren Schilder ins Eis gesteckt worden „Dieses Eis wird 2020 geschmolzen sein.“ Man stellte Ende 2019 fest, dass die Schilder noch immer solide im Eis steckten…

Kritiker werden von der Klima Community persönlich angegriffen. Es wird ihnen die Qualifikation abgesprochen, mitreden zu können. Auch Physik-Nobelpreisträger werden nicht geschont, weil sie keine „Klimawissenschaftler“ seien. Dabei kann ein Physiker ohne Klimawissen vermutlich mehr beitragen als ein Klimaexperte ohne Kenntnisse in Physik.

All diese Beobachtungen legen es sehr nahe, dass die globale „Scientific Community“, die vorgibt, den Planeten retten zu wollen, in Wirklichkeit ein riesiges Potemkin’sches Dorf ist, durch das Menschheit und Medien getrieben werden, und hinter dessen Fassaden ein Konglomerat aus NGOs, UN-Ablegern und Emissären nationaler Regierungen ein Geschäft nie dagewesenen Ausmaßes betreibt, finanziert von den Steuerzahlern dieser Welt.

Die Tatsache, dass die Bemühungen der vergangenen 25 Jahre das erklärte Ziel  – die Reduktion des CO2 Ausstoßes – total verfehlt haben, führt nicht zu Besinnung oder Selbstkritik, sondern zum Aufruf „Jetzt erst recht“.

So wird diese gigantische Geldmaschine zum Perpetuum mobile, welche im Dezember 2019 immerhin 27.000 Teilnehmer – so viele Einwohner hat Garmisch Partenkirchen –  zur UN Klimakonferenz COP25 nach Madrid gelockt hat. Und niemand rechnet damit, dass das CO2 jetzt tatsächlich reduziert wird. Drum hat man sich auch schon auf die nächste Konferenz geeinigt: November 2020 in Glasgow.

Es erinnert an einen Klub von Übergewichtigen, die seit 25 Jahren vergeblich versuchen abzunehmen, und die bei ihren jährlichen Treffen jedes Mal voller Empörung feststellen, dass sie weiter zugenommen haben. Aber die Zahl der Mitglieder steigt, nicht zuletzt, weil die Gastronomie bei den Treffen erste Klasse ist. Und bei der Abschlusskonferenz mit reichlich Speis und Trank heben alle das Glas und prosten sich zu: „Jetzt erst recht“.

 

Dr. Hans Hofmann-Reinecke studierte Physik in München und arbeitete danach 15 Jahre in kernphysikalischer Forschung. In den 1980er Jahren war er für die Internationale Atomenergiebehörde (IAEA) in Wien als Safeguards Inspektor tätig. Er lebt heute in Kapstadt. Dieser Artikel erschien zuerst auf www.think-again.org und im Buch des Autors „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/