1

Fundgruben für „Klimaskeptiker“

Zuerst die gute Nachricht: Es gibt diese Fundgruben, und sie sind sogar umsonst. Nun die schlechte: Ohne zumindest rudimentäre Englischkenntnisse kann man sie vergessen, Englisch ist die lingua franca der Gegenwartswissenschaft. Tröstlich ist dabei, dass insbesondere das wissenschaftliche Englisch extrem einfach ist. Hat man die Fachbegriffe einmal drauf (das geht mit etwas Eigeninitiative relativ rasch), gibt es beim lesen keine Probleme mehr, nur mit dem schreiben ist es nicht so einfach. Der Zwang zum Englischen betrifft insbesondere auch alle Suchmaschinen. Suchen in Deutsch können Sie getrost vergessen.

Das ist übrigens bereits bei Wikipedia schon so. Ein stellvertretendes Beispiel: Im Jahre 1992, unmittelbar nach dem Klimagipfel von Rio de Janeiro gab es ein Manifest in Heidelberg gegen diesen Klimagipfel, den 4.000 Naturwissenschaftler, 72 Nobelpreisträger, überwiegend keine Klimaforscher, unterschrieben. „Googeln“ Sie nach diesem Heidelberger Manifest in Deutsch, erhalten Sie alles mögliche, nur nicht das gewünschte. Geben Sie dagegen „Heidelberg appeal“ als Suchbegriff ein, erscheint die betreffende englischsprachige Wikipedia-Seite (hier). Das liegt natürlich an den „grün-roten“ deutschen Wikipedia-Sichtern, die hierzulande Zensur ausüben. Also nochmal: bitte alle Suchen nur in Englisch.

Fangen wir mit den bekannten öffentlichen Fundgruben an:

Google: hier findet man bereits erstaunlich viel. Vor allem werden oft auch schon die Originalveröffentlichungen zitiert. Aber was mit dieser Info anfangen? Diese Frage führt zu

Google Scholar: Es ist eine oft unterschätzte Suchmaschine. Was man in der Fachliteratur Veröffentlichtes hier nicht findet, das existiert nur in den seltendsten Fällen. Wie geht man vor? Es kommt darauf an. Oft reichen bereits die ersten zwei oder drei Autoren, mit Kommas getrennt, um zum Ziel zu gelangen. Falls nicht, muss zusätzlich der Titel der Arbeit – ebenfalls mit einem Komma von der Autorenliste abgetrennt, eingegeben werden. Dann klappt es! Ein Beispiel: Der Artikel von Francois Gervais, Anthropogenic CO2 warming challenged by 60-year cycle ist bereits mit dem spärlichen Suchbegriff „F. Gervais, anthropogenic CO2“ aufzufinden. Probieren Sie es!

Klickt man dann auf die fett blaue Überschrift des Gezeigten, erscheinen alle weiteren Infos und der Abstract. Man möchte die Arbeit nun aber vielleicht ganz lesen. Dazu wende man den Blick nach rechts. Oft ist dort ein frei herunterladbares pdf der Arbeit zu finden. Falls es nicht klappt, aber auch generell, lohnt es sich, auf das unten in kleiner blauer Schrift vermerkte „alle x Versionen“ zu klicken. Dann erscheinen alle verfügbaren pdfs der Arbeit. Suchen Sie sich das beste davon heraus! Das klappt zumindest für Publikationen ganz gut, die älter als etwa ein Jahr und nicht gerade von Nature oder Science sind. Falls Google Scholar nicht weiter hilft, scheint es weitere Möglichkeiten zu geben, um unter dem Paywall durchzuschlüpfen. Die sind dann aber nicht mehr legal und werden deswegen hier nicht empfohlen.

Das ist ja alles gut und schön, werden Sie vielleicht einwenden, aber woher bekomme ich denn die Autoren und Titel der Arbeiten, die mich als Skeptiker besonders interessieren? Hier ist man tatsächlich auf die arbeitsaufwendige Mithilfe von Zeitgenossen angewiesen, die sich um das Sammeln skeptischer begutachteter Fachpublikationen kümmern. Zunächst ist die bekannteste Seite Populartechnology zu nennen (hier) und (hier). Es lohnt sich, ein wenig Zeit zu investieren und in deren Zusammenstellungen zu stöbern. Die riesige Anzahl skeptischer Paper aber insbesondere die Auzählung skeptischer Fachwissenschaftler lässt den 97%-Quatsch ziemlich alt aussehen. Falls Sie an speziellen Arbeiten näher interessiert sind, suchen Sie mit der von Populartechnology gegebenen Information in Google Scholar die Arbeit selber.

Neben Populartechnology ist aber nun unbedingt auch der mit EIKE befreundete Blog NoTricksZone (hier) zu nennen, Er wird vom Dipl.-Ing. Pierre Gosselin auf Englisch betrieben. Gosselin hat sich große Mühe gemacht, wobei als eigenständige Themen in der Aufzählung von begutachteten Publikationen zu nennen sind

600 Non Warming Graphs (3)

85 Papers: Low Sensitivity

129 Climate Scandals

100+ Papers – Sun Drives

Wer noch mehr Details sehen möchte, gebe in die Suchzeile von NoTricksZone „Skeptic papers 2019“ ein, wobei sich die Listen bis „Skeptic papers 2014“ herab fortsetzen lassen. Der Vorteil besteht darin, dass hier die einzelnen Publikationen von P. Gosselin mit kleinem Text und Beispielbild versehen wurden. An dieser Stelle daher Kompliment und Dank an Pierre für seine Mühe.

Für Leser(innen), die Zeit haben sich zu informieren und gerne ins Geschehen eingreifen möchten (Blog-Diskussionen etc.) steht also ein riesiger Fundus an fachlicher Unterstützung bereit, um die zum Teil kruden Behauptungen von Rahmstorf, Knutti und ähnlichen Wissenschaftsadvokaten zu kontern. Wer freilich noch einmal gründlich in die Klima-Grundlagen einsteigen möchte, dem empfiehlt der Autor den fachlich exzellenten Blog „Science of Doom (SOD)“ (hier). Die interessierenden „Pages“ auf der rechten Seite anklicken, und schon kann’s losgehen.

 




Die Verfälschung von IPCC-Berichten durch die Bundesregierung

Zuerst zur Info: IPCC-Berichte gibt es als umfangreiche Sachstandsberichte und, stark komprimiert, als Berichte für Politiker. Letztere sind anscheinend keine vom IPCC autorisierten Auszüge der Sachstandsberichte, denn die betreffenden Regierungen dürfen hier mitschreiben. Infolgedessen werden gerne Angaben oder Formulierungen des englischen IPCC-Originals in den deutschsprachigen IPCC-Berichten für Politiker weggelassen, die der deutschen Politik nicht genehm sind. Populär nennt man so etwas Zensur. Als Folge solcher Verfälschungen widersprechen sich dann auch nicht selten die Sachstandsberichte und die zugehörigen Berichte für Politiker.

Ein Beispiel in der Vergangenheit betraf das berühmte Kapitel 2.6 im AR5-Sachstandbericht, in welchem vom IPCC ausführlich dargelegt wurde, dass ab 1950 (Beginn umfangreicherer Messungen und Statistiken) keine Zunahme von Extremwetterereignissen in Klimazeiträumen (ca. 30 Jahre) auffindbar sind. EIKE berichtete darüber (hier), (hier). In dem zugehörigen deutschen IPCC-Bericht für Politiker kam diese wohl kaum als trivial zu bezeichnende Erkenntnis des IPCC nicht mehr vor.

Und nun ist es schon wieder passiert. Der Original-IPCC-Bericht für Politiker in Englisch (hier) schreibt auf Seite 6 unter A.1 in der wichtigen Kernaussage über den vermuteten Einfluss des Menschen auf die Klimaentwicklung Folgendes, wobei wir den entscheidenden Punkt „estimated = geschätzt“ in rot gekennzeichnet haben:

Human activities are estimated to have caused approximately 1.0°C of global warming above pre-industrial levels, with a likely range of 0.8°C to 1.2°C.

Im deutschen IPCC-Bericht für Politiker (hier) wird daraus dann der Satz

Menschliche Aktivitäten haben etwa 1,0 °C globale Erwärmung gegenüber vorindustriellem Niveau verursacht, mit einer wahrscheinlichen Bandbreite von 0,8 °C bis 1,2 °C.

Aus einer Schätzung machen also das Bundesumweltamt, proClim der Schweiz, das Schweizer Umweltbundesamt usw. usw. salopp eine Tatsachenfeststellung. Nachfolgend die unzähligen Verantwortlichen, die für eine falsche  Übersetzung vom Englischen ins Deutsche in Frage kommen. Haben die etwa alle geschlafen?

— Zitat aus dem deutschen IPCC-Bericht für Politiker ——-

Deutsche Übersetzung Die vorliegende Übersetzung ist keine offizielle Übersetzung durch den IPCC. Sie wurde erstellt mit dem Ziel, die im Originaltext verwendete Sprache möglichst angemessen wiederzugeben.Herausgeber: Deutsche IPCC-Koordinierungsstelle, DLR Projektträgerwww.de-ipcc.de, de-ipcc@dlr.de Umweltbundesamt GmbHwww.umweltbundesamt.at, publikationen@umweltbundesamt.atProClim, Akademie der Naturwissenschaften Schweiz. www.proclim.ch, proclim@scnat.ch Übersetzung: A.C.T. Fachübersetzungen GmbH unter Mitarbeit von Carola Best, Paul Bowyer, Sabine Fuss, Gerrit Hansen, Daniela Jacob, Elmar Kriegler, Katja Mintenbeck, Urs Neu, Maike Nikolai, Juliane Petersen, Jan Petzold, Hans-Otto Pörtner, Klaus Radunsky, Nora WeyerLayout: CD Werbeagentur GmbHMitfinanzierung: Deutsches Bundesministerium für Bildung und Forschung (BMBF)Deutsches Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU)Schweizerisches Bundesamt für Umwelt, Wald und Landschaft (BAFU)Österreichisches Umweltbundesamt

— Zitatende —-

Ein höchst unwahrscheinlicher Übersetzungsfehler kann ausgeschlossen werden, denn die Verfälschung geschah pikanterweise an dem bereits erschienenen deutschen Bericht mit korrekter Formulierung. Ein findiger und kundiger EIKE-Leser hat recherchiert: So findet sich die anfänglich korrekte deutsche Übersetzung noch auf dem Webserver der Evangelischen Landeskirche (hier). Dazu in „EKIBA von A-Z“ den Titel „IPCC-Sonderbericht über 1,5 °C globale Erwärmung“ eingeben. Hier findet sich dann das pdf und darin noch die alte richtige Übersetzung (hervorhebung in rot).

— Zitat Webserver der Evangel. Landeskirche vom 25.5.2019, 18:58

A1. Menschliche Aktivitäten haben Schätzungen zufolge etwa
1,0 °C globale Erwärmung5 über vorindustrielle Werte verursacht,
mit einer wahrscheinlichen Bandbreite von 0,8 °C bis
1,2 °C.

— Zitatende

Die Verfälschung des Originals erfolgte offenbar zwischen Februar und Mai 2019. Es ist nicht auszuschließen, dass auch noch weitere Formulierungen nachträglich abgeändert wurden. Wer hat aber die Zeit, solchen Durchstechereien im Detail nachzuspüren.

In Frankreich pflegt man bei bösen Vermutungen, wie sie anlässlich der nachträglichen „Berichtigungen eines ursprünglichen Übersetzungsfehlers“ aufkommen könnten, maliziös lächelnd zu bemerken „Honi soit qui mal y pense“.




Das verschwundene Video einer Bundestagsanhörung

Zunächst: Weder EIKE, noch meine Person, hatten mit der Erstellung dieses Videos irgend etwas zu tun. Ob FMDs selber der Ersteller des Videos war, oder ob FMDs es nur im Auftrag eines unbekannten Erstellers vertrieb, ist uns ebenfalls nicht bekannt. Jedenfalls ist nun dieses Video fast vollständig aus dem Youtube-Angebot verschwunden, mit dem Hinweis „Dieses Video ist nicht mehr verfügbar, weil das mit diesem Video verknüpfte Youtube-Konto gekündigt wurde„.

Youtube hat demnach alle Youtube-Videos von FMDs vom Netz genommen. Stöbert man zu dieser Affaire weiter im Internet, findet man auch die Begründung „Dieses Konto wurde gekündigt, da wiederholt Urheberrechtsverletzungen im Hinblick auf das vom Nutzer hochgeladene Material von Dritten gemeldet wurden„.

Glücklicherweise gibt es das Video wieder, nachfolgend Titel/Suchbegriff und  Link des Videos, damit interessierte Leser es schnell finden können: „Prof. Dr. Lüdecke (EIKE) zerlegt CO2 Klimahysterie im Bundestag“. Der aktuelle (25.12.2019) Link zeigt  inzwischen wieder knapp 30.000 Aufrufe an (hier).

Um sicher zu gehen, haben wir das Video jetzt auch noch auf unseren Rechnern gespeichert. Speichern von wichtigen Youtubes auf dem eigenen Rechner ist in aktuellen Zeiten immer stärkerer staatlicher Zensur empfehlenswert. Man kann dazu „free Video download Programme“ verwenden.

 

 

 

 

 

 

 




Oberbürgermeister Eckart Würzner ruft den Klimanotstand in Heidelberg aus

Klimanotstand in Heidelberg“ titelte die RNZ. Und weiter „In der letzten Sitzung vor der Gemeinderatswahl und zwei Wochen vor der großen internationalen Klimakonferenz in Heidelberg hat Oberbürgermeister Eckart Würzner für die Stadt den Klimanotstand ausgerufen. Die Grünen, die Fraktion Linke/Piraten und die Bunte Linke hatten angesichts der „Fridays for Future“-Demonstrationen eine Kurzdebatte zu diesem Thema anberaumt“.

Nun ist das Heidelberger Klima gemäß Weltmeteorologieorganisation (WMO) definiert als mindestens 30-jähriger statistischer Durchschnitt der Heidelberger Wetterparameter, also von Temperaturen, Luftdruck, Luftfeuchte, Windgeschwindigkeiten, Extremwettervorkommen usw. Vielleicht haben ja die RNZ und Herr Würzner die Wetterentwicklung der letzten Jahrzehnte verpennt. Über Wetterextreme, die Heidelberg schon über 30 Jahre lang quälen und infolgedessen einen Notstand begründen könnten, wurde nämlich von der RNZ noch nie berichtet.

Es ist auch kein einziger Heidelberger Tourist bekannt, der durch das Heidelberger Klima an Leib oder gar Leben geschädigt wurde. Von geringerer Lebenserwartung in Heidelberg – verglichen mit anderen deutschen Städten – ist ebenfalls nichts bekannt. Infolgedessen wäre es für die  RNZ sicher interessant zu recherchieren, welchen Stoff sich Linke/Grüne/Piraten des Heidelberger Gemeinderats in die Nase gezogen haben, um einen Klimanotstand zu erkennen und vom Stadtoberhaupt dann auch noch zu verlangen, diesen zu beschließen.

Den einschlägigen Heidelberger Gemeinderatsmitgliedern können wir natürlich aus Rücksichtnahme auf evtl. aus dem Gleichgewicht geratene Zustände nicht die Lektüre des IPCC-Sachstandsberichts von 2013 AR5, Kapitel 2.6 zumuten, in welchem die weltweite Extremwetterentwicklung seit 1950 akribisch und in epischer Länge untersucht wurde – seit 1950 übrigens, weil ab diesem Jahre ausreichend viele Messungen für eine gute Statistik vorliegen. Das Ergebnis des IPCC (übrigens auch der gesamten meteorologischen Fachliteratur) lautet: Wir finden nichts – ab 1950 bis heute gibt es keine Extremwetterzunahmen, weder an Stärke noch an Häufigkeit.

Vielleicht jetzt für die weniger bildungsaffinen Mitglieder des Heidelberger Gemeinderats zum mitschreiben: Wetterextreme kommen immer wieder überall und zu allen Zeiten vor, das ist naturgesetzlich. Man denke dabei nur an den zerstörerischen Hurrikan Katrina, der 2005 halb New Orleans platt machte. Danach war viele Jahre wieder Ruhe. Zählt man alles zusammen, was da über längere Zeit (hier mindestens 30 Jahre) an Wetterextremen überall in der Welt im statistischen Schnitt zusammenkam, so ist freilich nichts von Steigerungen zu bemerken. Dass das Wetter überall und zu allen Zeiten, seit die Erde besteht, immer mal wieder verrückt spielt, hat sich offenbar noch nicht ausreichend herumgesprochen. Die Meteorologen sagen dazu „Das Gewöhnliche am Wetter ist seine Ungewöhnlichkeit“. Es steht zu befürchten, dass die Grünen/Linke/Piraten im Heidelberger Gemeinderat den Unterschied zu Wetter und Klima wohl niemals kapieren werden. Da der IPCC-Bericht leider in Englisch verfasst ist und zudem noch Fachbegriffe verwendet, ist er für bildungsferne Mitglieder des Heidelberger Gemeinderats natürlich unerreichbar. Daher haben wir ein Einsehen mit diesen sympathischen Weltrettern und bieten folgendes Video als Ersatz an:



Video: Öko-Horror-Prognosen

Da es hier speziell um Heidelberg geht, sollten dessen Bewohner und Touristen vielleicht auch einmal einen Blick auf die Hochwasser-Pegelmarken der alten Heidelberger Brücke werfen (von der Altstadt aus das Brückentor durchqueren, dann erster Pfeiler links). Sie können dabei etwas lernen:

Bild 1: Hochwasserpegelmarken der alten Brücke Heidelberg. Die höchsten Pegel kamen am 27.Feb.1784 (über 31 badische Fuß) und am 30.Okt. 1824 (ca. 26 BF) vor – damals gab es praktisch noch kein anthropogenes CO2. Die jüngsten starken Hochwasser traten am 29.Dez.1947 (20 BF) und am 22. Dez. 1993 (18 BF) auf.

Im Feb. 1784 aber auch im Oktober 1824 konnte man berechtigterweise von einem Wetternotstand reden – ob’s das damalige Stadtoberhaupt tatsächlich und wortwörtlich auch so ausrief, ist nicht bekannt. Im Übrigen zeigen alle noch erhaltenen Pegel der Europäischen Flüsse ein ähnliches Bild wie die heidelberger Brücke (hier). Zumindest Hochwasserextreme kamen vorrangig in der „kleinen Eiszeit“ vor (ca. 1480 bis 1800).

Fazit: Bei all dem heutigen von den Grünen/Linken/Piraten verzapftem sachlichen Quatsch und angesichts der bevorstehenden Wahlen darf konstatiert werden: Wer Politiker(innen) wählt, die sich durch komplettes Fehlen jedweder technisch/naturwissenschaftlichen Bildung auszeichnen, daher komplett ahnungslos sind und infolgedessen nur sachlichen Unsinn über Klimawandel, Extremwetter und ähnliche Themen von sich geben, ist selber schuld.

 




Warum die Energiewende ein totes Pferd ist und der SPIEGEL Unsinn schreibt

Was sind denn nun die wirklichen Gründe? Nun, es sind weder fehlende Speicher, noch fehlende Stromleitungen von Nord nach Süd, noch fehlender politischer Wille, noch fehlendes fähiges Management. Nein, lieber SPIEGEL, Du bist komplett auf dem Holzweg. Es ist viel einfacher. Bereits der frühere US-Präsident Bill Clinton hatte es begriffen (er meinte damals economics):

„It’s physics, stupid“

Wir empfehlen dem SPIEGEL, seinen Redakteuren elementare Nachholkurse  für offenkundig verpassten Physik- und Technikunterricht zu verordnen. Sonst ist es wohl aus mit diesem Blatt einer selbstverschuldeten, monoton absackenden Auflage. Wie das Beitragsbild zeigt ging die Auflage des wöchtl. Verkaufs des SPIEGEL vom 1. Quartal 2012 bis zum 1. Quartal 2019 von rund 930.000 auf 700.000 Exemplare. zurück: Dies ist sicher eine Folge des stetigen Anschreibens gegen die klassischen SPIEGEL-Leser, welche Fakten und keinen grün-ideologischen Unsinn lesen wollen. Den bekommen sie woanders besser..

1.  Die deutsche Energiewende

Die Bundesregierung plante ursprünglich, bis zum Jahr 2050 gegenüber 2008 den Stromverbrauch um 25% zu senken, den Anteil an erneuerbaren Energien am Bruttostromverbrauch auf 80% zu erhöhen, die Treibhausgasemissionen um 80 bis 95% zu verringern und die Zahl der Elektroautos auf 6 Millionen zu steigern. Aktuell sind diese Zielstellungen verändert und unverbindlicher im Koalitionsvertrag festgehalten.

Das Vorhaben, als „Energiewende“ bezeichnet, soll mit Strom aus Wind, Sonne und Biomasse realisiert werden, im Folgenden kurz „Erneuerbare“ genannt (die Bezeichnung ist sachlich falsch, hat sich aber dennoch durchgesetzt). Die Energiewende betrifft praktisch nur elektrischen Strom. Elektrische Energie machte 2017 etwa 1/6 der deutschen Primärenergie aus. Sie ist die wichtigste, weil unverzichtbare Energieform für jede moderne Industriegesellschaft. Strom ist nur ein Medium, um Energie zu transportieren. Er wird aus einer anderen Energieform erzeugt und beim Verbraucher in die jeweils benötigte Energieform umgewandelt. Elektrische Energie kann man in größerem Umfang nur über verlustreiche und kostspielige Umwege speichern, etwa mit Pumpspeicherwerken oder Batterien. Das Stromnetz selber ist kein Speichermedium. Ohne Speicherung muss Strom zum Zeitpunkt seiner Erzeugung sofort verbraucht werden.

Die Energiewende hat mit erheblichen Problemen zu kämpfen. Trotz im Jahre 2017 über 28.000 installierter Windturbinen, deren Nennleistung bereits alle ehemaligen deutschen Kernkraftwerke übertrifft, macht verbrauchter Windstrom dennoch nur etwa 3% der deutschen Primärenergie aus, Sonnenstrom und Strom aus Biomasse jeweils etwa 1%. Mehr als 1000 Bürgerinitiativen wenden sich gegen die Beeinträchtigung ihrer Naturumgebung durch Windturbinen sowie gegen gesundheitsschädlichen Windrad-Infraschall. Weiterer Windrad-Ausbau lässt daher zunehmenden gesellschaftlichen Widerstand erwarten.

Deutschland hat heute die höchsten Strompreise Europas. Behörden ergreifen inzwischen Maßnahmen gegen großräumige Stromausfälle, weil die Wahrscheinlichkeit gefährlicher Blackout-Ereignisse  infolge des zunehmenden Fluktuationsstroms aus Wind und Sonne ansteigt. Dem Fluktuationsproblem von Wind- und Sonnenstrom wird mit aufwendigem Zu- und Abschalten von schnell reagierenden Gaskraftwerken begegnet (GuD Backupkraftwerke). Das für die Netzstabilität notwendige Vorhalten von fossilen Backupkraftwerken, deren Leistung der Gesamtleistung der fluktuierenden Erneuerbaren entspricht, ist zu einem maßgebenden Kostenfaktor der Energiewende geworden.

Sind die Gründe für die Energiewendeprobleme falsches Management, unzureichende Planung oder technische Unzulänglichkeiten? Zu diesen Fragen gibt es bereits reichhaltige Literatur. Der renommierte Ökonom Prof. Hans-Werner Sinn hat erst jüngst wieder eine kritische Studie zur Energiewende vorgelegt. Grundsätzlich unterliegen die „Erneuerbaren“ und damit die Energiewende zwei naturgesetzlich bedingten und daher mit keinem Mittel zu behebenden Fundamentalmängeln. Der wichtigste Mangel dieser beiden wird dabei oft unterschätzt, den Medien ist er so gut wie unbekannt. Mit ihm wird sich der vorliegende Beitrag vorwiegend befassen.

Energie ist der maßgebende Kostenfaktor industrieller Produktion, und alle Industrienationen befinden sich im globalen Wettbewerb. Nicht einmal ein momentan auf ersten Plätzen dieses Wettbewerbs stehendes Land hat die Garantie, nach nachhaltigen Fehlentscheidungen in seiner Energiepolitik auch dort zu verbleiben. Im Folgenden wird dargelegt, warum die beiden Fundamentalmängel der „Erneuerbaren“ eine unvermeidbare Konsequenz elementarer Naturgesetzlichkeiten sind. Die beiden Fundamentalmängel und ihre naturgesetzlichen Gründe sind zwar den Fachleuten geläufig, nicht aber in erkennbarer Weise den für das Projekt „Energiewende“ Verantwortlichen und auch nicht den deutschen Medien.

Ein naturgesetzlich bedingter Mangel ist durch keine technische Maßnahme zu beseitigen. Der Versuch, dies dennoch zu erzwingen, führt zu extremen Kosten und Umweltbelastungen. Falsches Management und falsche Planung sind selbstverständlich bei allen großen Projekten ein gefährlicher Mangel. Es ist aber zu betonen, dass die Energiewende auch bei besten Planungs- und Managementvoraussetzungen immer noch zum Scheitern verurteilt wäre. Politik und unkundige Medien haben noch immer nicht begriffen, dass man Physik und technische Regeln nicht durch Wunschdenken oder Ideologie außer Kraft setzen kann, ohne dass die Folgen katastrophal werden.

2.  Energie im Verlauf der Menschheitsgeschichte

Der tägliche Energiebedarf eines Erwachsenen hat sich im Laufe der Menschheitsgeschichte laufend erhöht. Er betrug um die 8 kWh bei Jägern und Sammlern der Steinzeit, etwa 30 kWh im Mittelalter und ist auf über 200 kWh in modernen Industriegesellschaften angestiegen. Jäger und Sammler deckten ihn noch mit Feuerholz, im Mittelalter kamen Landwirtschaft, Zugtiere sowie Wasserräder und Windmühlen hinzu. Heute (2015) wird der Energiebedarf der Menschheit zu insgesamt 81,4% von Kohle, Erdöl und Gas gedeckt (s. Bild 1).

 

Bild 1: Weltenergieverbrauch in Methoden-Anteilen im Jahre 2015, erstellt nach den Daten der IEA. Holz– und Holzkohle (hier unter Biobrennstoffe) stellen mit dem 3,75-fachen der Windenergie zumindest in der EU den größten Anteil an den „Erneuerbaren“. Da insbesondere die erhältlichen globalen Werte in der Regel nur Schätzungen sind, können unterschiedliche Quellen voneinander abweichende Werte in den Methoden-Anteilen angeben.

Der Rest kommt aus Uran 4,9%, Wasserkraft 2,5%, Biobrennstoffen 9,7% (Holz, Stroh, Tierdung etc.) und den „Erneuerbaren“ Wind, Sonne, Geothermie, Gezeitenergie etc. 1,5%. An dieser Zusammensetzung wird sich auch in den nächsten Jahren kaum Wesentliches ändern. Wind- und Sonnen-Energie spielen weltweit nur eine verschwindende Rolle. In Deutschland würden sie bei freien Marktverhältnissen (keine Subventionen, keine gesetzliche Zwangseinspeisung von Sonnen- und Windstrom etc.) wegen ihrer zu hohen Kosten, verglichen mit Kohle oder Uran, nicht vorkommen (s. auch Bild 2 im Abschnitt 5.).

Allein die Umlagen zur Förderung der „Erneuerbaren“ gemäß dem Erneuerbare-Energien-Gesetz (EEG) belasten die deutsche Volkswirtschaft und Verbraucher heute mit 30 Milliarden Euro pro Jahr. Bei der Nutzung der „Erneuerbaren“ Wind, Sonne und Biomasse kommt zumindest in Windturbinen und Photovoltaik modernste Technik zum Einsatz. Diese Modernität verstellt freilich den Blick auf die naturgesetzlichen Schwächen dieser alternativen Stromerzeugungsmethoden. Die Energieversorgung im Mittelalter liefert für diese Schwächen ein Anschauungsbeispiel.

Die ab etwa 700 n.Chr. einsetzende Klimaerwärmung mit ihrem Höhepunkt um das Jahr 1000 ließ Ernteerträge und Bevölkerungszahlen ansteigen. Es wurden riesige Waldflächen für den benötigten Ackerboden gerodet, bis 1400 verschwanden dadurch zwei Drittel des deutschen Waldes. Die erforderliche Ackerfläche zur Ernährung einer Person war um ein Vielfaches größer als heute. 90% der gesamten Bevölkerung waren Bauern oder anderweitig in der Landwirtschaft beschäftigte Menschen. Der Aufwand an menschlicher Arbeit, Zugtieren und Ackerflächen für die Landwirtschaft war kaum noch zu steigern. Daher war es im Spätmittelalter bei einsetzender Klima-Abkühlung und schlechteren Ernten nicht mehr möglich, die stark angewachsene Bevölkerung noch ausreichend zu ernähren. Es begann die Zeit der Hungersnöte, verstärkt durch Seuchen und Pest. Zwischen dem Jahre 1000 und Ende des 19. Jahrhunderts wurden in Westeuropa 400 Hungersnöte registriert.

Erst der dank neuzeitlicher Chemie mögliche Einsatz von Düngern und Schädlingsbekämpfungsmitteln und die Mechanisierung der Agrarwirtschaft durch Verbrennungsmaschinen konnte die Nahrungsversorgung der Bevölkerung auf eine sichere Basis stellen. Heute ernährt ein Landwirt in Deutschland etwa 130 Mitbürger. Der Anteil der Landwirtschaft am Energieverbrauch der deutschen Gesamtwirtschaft beträgt heute nur noch 1,3%. Um die mittelalterliche Energieerzeugung mit Hilfe riesiger Ackerflächen und einem extrem hohen menschlichen Arbeitsaufwand und das im Spätmittelalter entstandene Desaster zu verstehen, sind die physikalischen Größen Energiedichte und Leistungsdichte unverzichtbar. Die zentrale Bedeutung dieser beiden Größen gelten unverändert auch für die heutigen Verhältnisse. Nur mit ihnen ist auch das moderne Desaster „deutsche Energiewende“ verständlich. Dies wird im folgenden Abschnitt zuerst an Hand von Beispielen verdeutlicht.

 

3.  Der entscheidende Begriff der Leistungsdichte

Der russische Eisbrecher Arktika wird von zwei kleinen Kernreaktoren an Bord mit einer Gesamtleistung von 55 MW angetrieben. Wollte man die Arktika mit Photovoltaik anstatt mit Uran betreiben, wären rechnerisch 5,5 Quadratkilometer Photovoltaik-Fläche erforderlich, die etwa 10 W Leistung pro m2 Solarpanelenfläche liefert. Mit Windstrom an Stelle von Uran wären 42 Windturbinen des Typs Enercon E 126 erforderlich, jede 198 m hoch und mit einer realen Leistung von 1,3 MW (den fiktiven Antrieben der Arktika liegen die deutschen Jahresmittelwerte von Wind- und Sonnenstrom zugrunde). Eine wind- oder sonnenbetriebene Arktika wäre zwar bei Flaute oder Wolkenbedeckung nicht fahrtüchtig, aber dies soll hier vorerst keine Rolle spielen. Die Frage nach den Gründen für den extrem hohen Aufwand der beiden „Erneuerbaren“ Wind und Sonne für den Antrieb der Arktika beantwortet die Leistungsdichte

Leistungsdichte = Leistung / Fläche        (1)          oder

Leistung = Leistungsdichte x Fläche        (2)

Auf der linken Seite von Glg. (2) steht für alle drei Antriebsarten der Arktika der gleiche Wert von 55 MW. Die Faktoren der rechten Seite der Gleichung zeigen dagegen entscheidende Unterschiede zwischen Uran, Wind und Sonne. Kernreaktoren haben eine sehr hohe Leistungsdichte, sie bringen höchste Leistung auf minimaler Fläche. Man baut sie sogar seit Jahrzehnten in U-Boote ein. Sonne und Wind haben dagegen, naturgesetzlich bedingt, nur minimale Leistungsdichten. Entsprechend muss die Photovoltaik-Fläche beim Solarantrieb oder die von den Windradpropellern überstrichene Fläche beim Windradantrieb extrem groß sein, damit das Produkt in Glg. (2) noch die hier benötigten 55 MW ergibt. Die folgende Tabelle 1 zeigt Grobwerte von Leistungsdichten.

Tabelle 1: Leistungsdichten unterschiedlicher Methoden zur Erzeugung von elektrischem Strom, angegeben in W/m2 des Endprodukts „elektrische Energie“ unter Einbeziehung der jeweiligen Methoden-Wirkungsgrade.

Die in Tab. 1 zu erkennenden Unterschiede der Leitungsdichten von Wind, strömendem Wasser und Kohle sind unschwer anschaulich-verständlich: So kann man sich noch gegen einen Sturm von 20 m/s (72 km/h) Windgeschwindigkeit stemmen, dagegen in einen reißenden Wildfluss von weit weniger als 20 m/s Fließgeschwindigkeit zu geraten, endet oft tödlich. Auch der Unterschied zwischen der in unsere Haut eindringenden Leistung beim Sonnenbad auf der Wiese und der in ein Steak eindringenden Leistung auf einem glühenden Holzkohlengrill ist anschaulich. Letztere ist tausendfach höher als die auf der Schwimmbadwiese.

Der Schwachpunkt der mittelalterlichen Energieversorgung wird nun deutlich. Es handelt sich um Methoden kleinster Leistungsdichten, die mit riesigen, ertragsschwachen Ackerflächen und hohem Aufwand an menschlicher Arbeitskraft und Zugtieren einen bei günstigem Klima gerade noch ausreichenden Ertrag lieferten. Eine Windturbine, obwohl ausgestattet mit modernster Technik, ist wegen der minimalen Leistungsdichte des Windes dennoch nichts anderes als ein Rückschritt zu den mittelalterlichen Methoden der Windmühle und des Segelschiffs. Um strömender Luft ausreichend Energie zu entnehmen, benötigen Windräder riesige Propeller. Zu geringe Leistungsdichte des Windes ist der Grund für die Mammut-Ausmaße dieser Anlagen, wenn man davon absieht, dass Windgeschwindigkeiten mit zunehmender Höhe etwas ansteigen. Nicht umsonst haben unsere Vorfahren Segelschiffe zugunsten des Dampf- und späteren Dieselantriebs freudig aufgegeben.

Das hier betonte „naturgesetzlich“ bedeutet, dass wir auf die Leitungsdichten von Wind und Sonneneinstrahlung keinen Einfluss haben. Lediglich die Ernteerträge von Energiemais lassen sich mit moderner Genetik und Düngung geringfügig erhöhen. Die Natur selber setzt die Grenzen, auch beste Technik ist gegen zu geringe Leitungsdichten machtlos. Aus einer Pferdekutsche wird auch mit heutiger Computersteuerung und modernster Mechanik kein leistungsstarkes Motorfahrzeug. Erstaunlich erscheinen in Tabelle 1 die grob 10 W/m2 gemittelte Leistungsdichte aus Photovoltaik in Deutschland. Am oberen Rand der Erdatmosphäre kommen schließlich 1367 W/m2 an. Verantwortlich für den kleinen Wert am Boden ist vor allem der durch Wolken unterbrochene und bei Nacht völlig fehlende Strahlungsfluss. Hinzu kommt, dass die Wirkungsgrade kommerzieller, im realen Betrieb befindlicher Photovoltaik nur bei grob 10% liegen, weil die Oberflächen der meist fest installierten Solarpanelen nicht dauernd optimal auf die Sonne ausgerichtet sind, sie allmählich verschmutzen und der Wirkungsgrad von Photovoltaikzellen mit steigender Temperatur dramatisch abnimmt.

Neben der Leistungsdichte ist auch die Energiedichte als Energie pro Volumen oder pro Gewicht eine maßgebende Größe. Das Reichweiteproblem von Elektroautos wird mit ihr verständlich. Benzin hat nach Abzug der Wirkungsgradverluste eine Energiedichte von rund 4 kWh/kg, ein Lithium-Ionen-Akku dagegen von 0,18 kWh/kg. Ein Elektroauto muss daher grob das 4/0,18 = 22-fache Treibstoffgewicht eines Benzinautos mit sich führen. Da heute etwa 71% der Güter in Deutschland oft über weite Strecken und mit engen Zeitvorgaben auf der Straße transportiert werden, ist zumindest eine Umwandlung von LkW-Antrieben auf Strom unrealistisch. Hier sind nicht nur das zusätzlich zu transportierende Treibstoffgewicht in Form von Akkus sondern auch die langen Ladezeiten der Batterien die maßgeblichen Hinderungsgründe. Elektroautos sind nur für Innenstadt und Golfplatz sinnvoll.

4.  Die entscheidenden Nachteile zu kleiner Leistungsdichte

Bei zu kleiner Leistungsdichte sind sehr große Wirkflächen der betreffenden Methoden erforderlich. Dementsprechend steigt der Aufwand an Energie, Material und Kosten bei Bau und Betrieb, denn diese Wirkflächen müssen mit Technik zugebaut werden. Die folgenden Daten der Großwindanlage Enercon E 126 liefern ein stellvertretendes Beispiel: 198 m Gesamthöhe, überstrichene Propellerfläche 12470 m2 = 1,247 ha, Gewicht 3460 t plus 3500 t Stahlbetonfundament. Drei E 126 haben somit das Gesamtgewicht aller 300 Leopard2 – Panzer von je 68 t der deutschen Bundeswehr. Trotz 7,5 MW Nennleistung liefert die E 126 im bundesdeutschen Orts- und Jahres-Mittel aber nur 1,3 MW elektrische Leistung. Dies entspricht grob 7 Automotoren von je 200 kW.

Neben der geringen Leistungsdichte des Windes gibt es weitere methodenspezifische Gründe für die erstaunlich geringe Leistungsausbeute aus Wind, die im Abschnitt 9. näher erläutert werden. Man müsste schon mehr als 100 km Windturbinen hintereinanderstellen, um die gleiche jahresgemittelte Leistung wie ein einziges großes Kohle- oder Kernkraftwerk zu erzielen. Zudem fluktuiert die aus Wind gewonnene Leistung, die von fossilen Kraftwerken ist dagegen konstant. Windturbinen, inzwischen höher als der Kölner Dom, erweisen sich wegen ihrer zu geringen Leistungsdichte und der sich daraus ergebenden gigantischen Abmessungen als extrem schädlich für die Umwelt. Landschaftsentstellungen, gesundheitliche Schädigung von Windrad-Anrainern durch Infraschall und das jährlich hunderttausendfache Töten von Greifvögeln, Störchen, Fledermäusen und Insekten sind zu nennen. Fledermäuse können zwar durch ihre Ultraschallortung den hohen Tangentialgeschwindigkeiten der Rotorblätter entkommen, die Luft-Druckstöße zerreißen ihnen aber die Lungen. Nicht thematisiert und daher der Öffentlichkeit völlig unbekannt sind die bei intensivem Einsatz von Windturbinen erzeugten schädlichen Klimaveränderungen der tiefen Atmosphäre (hier, hier). Die oft auf Hausdächern installierte Photovoltaik ist dagegen umweltneutral, sieht man von Umweltproblemen durch giftige Metalle (Cadmium) bei der Entsorgung von Solarzellen ab. Beim Energiemais gibt es das Problem der zerstörten Artenvielfalt auf Energiemaisfeldern (hier, hier). Zusammengefasst gilt die Regel:

Je kleiner die Leistungsdichte einer Methode zur Stromerzeugung ist, umso größer müssen die Wirkflächen der Methode sein und umso aufwendiger, kostspieliger und umweltbelastender ist die Methode.

Die historische Entwicklung der Technik belegen, dass technischer Fortschritt bei gleichzeitigem Umweltschutz nur mit immer größeren Leistungsdichten in Stromerzeugung, Produktion, Verkehr etc. zu erreichen war und immer noch ist. Die benötigte Energie für eine anwachsende Bevölkerung bei gleichzeitig zunehmendem Lebensstandard kann wirtschaftlich und umweltschonend nur mit den jeweils verfügbaren Methoden höchster Leistungsdichte bereitgestellt werden. „Erneuerbare“ sind für moderne Industrienationen ungeeignet, können aber vorübergehend in Ländern der Dritten Welt durchaus sinnvoll sein. Die größten Umweltschäden sind heute in Entwicklungsländern zu finden, die den Weg zu höheren Leistungsdichten noch nicht beschreiten können. Das oft in den Medien betonte „sanft“, mit dem „Erneuerbare“ als vorteilhaft und umweltschonend dargestellt werden sollen, stellt die Fakten komplett auf den Kopf. Es verhält sich genau umgekehrt:

Je „sanfter“ eine Methode zur Erzeugung von elektrischer Energie ist, umso kostspieliger und oft umweltschädlicher ist sie.

 

5.  Der Erntefaktor als Maß für Energieeffizienz

Der Erntefaktor, englisch ERoEI (Energy Returned to Energy Invested), quantifiziert die bisherigen Ausführungen. Vereinfacht ausgedrückt ist er das Verhältnis der gesamten, während der Lebenszeit einer Methode zur Stromerzeugung erzeugten elektrischen Energie zur derjenigen Energie, die für ihren Betrieb selber aufgewendet werden musste, inklusive des erforderlichen Energieaufwands, um die benötigen Brennstoffe zu fördern und bereitzustellen. Der ERoEI ist ein Energiemultiplikator. Man investiert eine Kilowattstunde und erhält ein Vielfaches zurück, natürlich nur bei ERoEI > 1, sonst wäre es ein Verlustgeschäft.

Im Jahre 2012 wurde über den ERoEI eine grundlegende Studie publiziert, auf die sich die Aussagen des vorliegenden Beitrags stützen. Neben der Bedingung ERoEI > 1 gibt es noch die Forderung ERoEI > 7, denn unterhalb von 7 ist eine Methode volkswirtschaftlich nicht mehr sinnvoll. Zur Begründung des Faktors 7 wird auf die Originalarbeit verwiesen. Das Bruttosozialprodukt sowie eine Energieverbrauchs-Technologie, wie die der OECD, gehen dort in die wissenschaftliche Herleitung ein. Bei der Berechnung des ERoEI für Wind- und Sonnenstrom wird auch der Energieaufwand zur Pufferung des fluktuierenden Zufallsstroms berücksichtigt, weil fluktuierender Strom zur direkten Einspeisung in ein Stromnetz ungeeignet ist. Auf diesen zweiten Fundamentalmangel der „Erneuerbaren“ Wind und Sonne wird in Abschnitt 9. eingegangen. Bild 2 zeigt den ERoEI für die wichtigsten Methoden zur Erzeugung von elektrischem Strom.

 

Bild 2: Erntefaktoren für Methoden der Stromerzeugung gepuffert, d.h. der Fluktuationsausgleich von Sonne und Wind ist berücksichtigt. Sonne, Energiemais (Biomasse) und Wind liegen unter der ökonomischen Schwelle von OECD-Ländern.

 

6.  Leistungsdichte bezogen auf Landschaftsfläche

Zur Angabe einer Leistungsdichte gehört die Spezifizierung der Fläche. An Stelle der in Tabelle 1 in Abschnitt 3 für Leistungsdichten angegebene Wirkflächen sind Landschaftsflächen oft aussagekräftiger. Wählt man Landschaftsfläche, ändert sich bei der Photovoltaik nur wenig. Wenn sich Photovoltaik auf Hausdächern befindet, verbraucht sie sogar überhaupt keine Landschaftsfläche. Für Energiemais beträgt die Leistungsdichte, bezogen auf die Anbaufläche, grob 0,2 W/m2. Dieser kleine Wert lässt fragen, wie viel Anbaufläche rechnerisch benötigt würde, um ausschließlich mit Energiemais den gesamten Inlandsstrom Deutschlands (in 2016) zu erzeugen: Pro Quadratmeter beträgt die Jahresenergiedichte von Energiemais 0,2 W/m2 · 8760 h = 1752 Wh/m2. Der Inlandsstromverbrauch Deutschlands in 2016 betrug 593 TWh = 593 · 1012 Wh. Daher wären (593 · 1012 Wh)/(1752 Wh/m2) = 3,1 ·1011 m2 oder 310.000 km2 Anbaufläche für Vollversorgung nötig. Das ist fast die Gesamtfläche Deutschlands.

Für Windturbinen im deutschen Jahres- und Ortsschnitt und ihre Installation in Wind-„parks“ beträgt die Leistungsdichte bezogen auf Landschaftfläche etwa 1 W/m2. Sie ist daher sehr viel kleiner als bezogen auf die Propellerfläche (vergl. Tab. 1 unter Abschnitt 3), denn Windturbinen werden in der Regel nicht einzeln sondern in Ansammlungen aufgestellt. Hier müssen Mindestabstände eingehalten werden, um Leistungsminderungen durch gegenseitige strömungstechnische Beeinflussung zu vermeiden. Der Wert von 1,1 W/m2 wurde in einer internationalen Fachpublikation für ein Gebiet der USA ermittelt, dessen Windverhältnisse mit Deutschland vergleichbar sind. Er kann aber auch aus den verfügbaren deutschen Daten grob geschätzt werden: in 2016 waren in Deutschland 27.000 Windräder installiert, meist in Windparks mit Mindestabständen. Eine moderne Windturbine nimmt in Windparks etwa 0,3 km2 Bodenfläche in Anspruch. Damit ergibt sich die erzeugte Jahresenergie zu 27.000 · 0,3 · 106 m2 · 1 W/m2 · 8760 h = 71 TWh. Mit der erzeugten Inlandsstromenergie von etwa 80 TWh passt die Schätzung zum o.g. Wert von 1 W/m2. Mit Hilfe des bereits erhaltenen Resultats für Energiemais für Stromvollversorgung ist die zu Windrädern gehörige rechnerische Fläche dann nur noch mit 0,2 W/1 W = 1/5 zu multiplizieren. Dies entspricht etwa der Fläche Bayerns.

In diesem Zusammenhang ist von Interesse, wie weit ein zukünftiger Windradausbau überhaupt noch gesetzlich zulässig ist. Die entscheidende Größe ist hier der minimale zulässige Abstand eines Windrads zur nächsten Wohnsiedlung. Windräder erzeugen Infraschall, dessen gesundheitsschädigende Wirkung durch wissenschaftliche Untersuchungen belegt ist. Die heute gründlichste Studie über gesundheitsschädliche Auswirkungen von Infraschall auf den Menschen wurde in Zusammenarbeit der Charité Berlin mit der Physikalisch Technischen Bundesanstalt PTT Braunschweig und zwei Hamburger Universitätskliniken erstellt. Die Quellenangaben dieser Studie liefern überdies einen guten Überblick zum heutigen wissenschaftlichen Kenntnisstand.

Wegen Infraschall ist inzwischen in Bayern der Mindestabstand 10 H vorgeschrieben, das bedeutet die zehnfache Gesamthöhe des betreffenden Windrads. Aus der Grafik Abb. 12 auf S. 38  einer Studie des Bundesumweltamts geht hervor, dass bei 2000 m Mindestabstand (dies entspricht 10 H bei 200 m hohen Windrädern) nur noch maximal 0,4% der bundesdeutschen Bodenfläche für den weiteren Windradausbau nutzbar ist. Ausgeschlossene Sondergebiete sind dabei nicht berücksichtig, so dass sich der reale Wert noch etwas verringert. Der Ausbauplan der Bundesregierung für Windenergie erscheint daher unrealistisch.

 

7.  Die Fluktuation von Wind- und Sonnenstrom

Der zweite Fundamentalmangel von Wind- und Sonnenstrom ist besser bekannt und wird bereits von den Medien thematisiert. Er ist seine Wetterabhängigkeit. Zufallsstrom kann ohne weitere Maßnahmen nicht in das Stromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund für Glättung sorgen würde, hat eine ausführliche VGB-Studie widerlegt. Das gemessene Minimum dieser Studie an geliefertem Windstrom beträgt nur 4% der europaweit installierten Windrad-Nennleistung. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.

Diese Backup-Systeme sind heute schnell reagierende Gaskraftwerke (GuD). Diskussionswürdige Stromspeicherlösungen sind nicht in Sicht. Man muss daher für Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, welches die Gesamtkosten dieser „Erneuerbaren“ zumindest verdoppelt. Bild 3 zeigt die stündliche Einspeisung von Wind- und Sonnenstrom über das Jahr 2015.

Bild 3: Stündliche Einspeisung des gesamten bundesdeutschen Wind- und Sonnenstroms (Daten: R. Schuster, aus den Daten von  EEX, Amprion, TenneT, 50Hertz, TransnetBW) im Jahre 2015.

Das Einspeiseproblem von Zufallsstrom wird von den Medien inzwischen als eine der dringendsten Probleme der Energiewende wahrgenommen. Die Soll-Netzfrequenz von 50 Hertz ist in engen Grenzen stabil zu halten, bereits bei Abweichungen von 0,2 Hertz besteht die Gefahr eines großflächigen Netz-Blackouts. So etwas war von den früheren Kohle-, Gas- und Kernkraftwerken mit ihrem stetigen Grundlaststrom unbekannt. Wetterabhängiger Zufallsstrom ist bis heute ohne Ersatzkraftwerke nicht in der Lage, den Strombedarf jederzeit zu decken.

Man benötigt also für Windräder und Photovoltaik noch einmal etwa die gleiche Leistung an fossilen Ersatz-Kraftwerken, denn schließlich ist die Lücke zu füllen, wenn Wind und Sonne fehlen. Grober Unfug dürfte für diese Notwendigkeit eine sehr freundliche Bezeichnung sein. Ersatzkraftwerke sind zudem infolge Teilbetriebs und hoher Lastwechselfrequenz schnellem Verschleiß unterworfen und wirtschaftlich unrentabel. Auf Profit angewiesene Unternehmen haben kein Interesse sie zu bauen. Wirtschaftliche Speichersysteme für Strom in Deutschland als Alternative für Backup-Kraftwerke sind nicht in Sicht. Pumpspeicherwerke als bislang einzige Lösung, wie sie zum Beispiel in Norwegen eingesetzt werden, sind hierzulande aus topo-geografischen Gründen nicht möglich, von Einzelanlagen abgesehen.

 

8.  Photovoltaik in Ländern starker Insolation

Photovoltaik kleinster Einheiten in Entwicklungsländern mit hoher Insolation und fehlender Strom-Infrastruktur ist eine interessante und offenbar auch vielgenutzte Option. Hier reichen für eine Familie bereits wenige Quadratmeter Solarzellen und wenige Autobatterien als Stromspeicher aus, um den Fernseher zu betreiben, nachts elektrisch zu beleuchten und das SmartPhone aufzuladen. Betrachtet man dagegen die Stromgewinnung aus Photovoltaik- oder Sonnenspiegel-Großanlagen, ergibt sich ein anderes Bild. Trotz, verglichen mit Deutschland, etwa doppelter Insolation in afrikanischen Ländern, in Australien oder in den Südstaaten der USA konnte sich dort die Nutzung von Solarstrom nicht durchsetzen. Solarstrom hat, wie Bild 2 zeigt, den kleinsten Erntefaktor aller Verfahren.

Insbesondere von deutscher Seite wurden zahlreiche Solarstromprojekte in Ländern mit hoher Insolation angestoßen. In solche Projekte flossen zum Teil erhebliche Mittel, zwei stellvertretende Beispiele wurden in EIKE näher beschrieben (hier, hier). Ein langfristiger Erfolg irgendeines Großprojekts ist bislang nicht bekannt. Jeder Urlauber auf den kanarischen Inseln kann diese Fehlschläge durch eigene Beobachtung vervollständigen: Es gibt kaum eine Weltgegend, die besser als die kanarischen Inseln mit Wind und Sonne gesegnet ist. Dennoch haben sich selbst hier und trotz hoher finanzieller Anschub-Unterstützung Wind- und Sonnenenergie nicht durchsetzen können. Die Energienutzungs-Statistik von Marokko bestätigt das kanarische Beispiel.  Der Grund für die Misserfolge liegt auf der Hand. Sieht man von den eingangs beschriebenen Vorteilen einer Nutzung in sehr kleinen Einheiten ab, verbessert sich in Großanlagen sonnenstarker Länder als einziges Kriterium nur die Insolation. Dieser Vorteil reicht aber bei weitem nicht aus, um die bereits geschilderten Nachteile der Photovoltaik, insbesondere ihre fehlende Stromlieferung in der Nacht, wieder wettzumachen.

 

9.  Weitere Gründe für die unzureichende Leistung von Wind und Sonne

Die geringe Leistungsausbeute von Photovoltaik ist mit den Schwankungen sowie nächstens völligem Fehlen des solaren Strahlungsflusses und den sehr kleinen Wirkungsgraden von Photozellen um die 10% im Wesentlichen erklärt. Für Windräder muss dagegen neben der Windfluktuation auch noch die typische Kennlinie einer Windturbine (Bild 4) beachtet werden Erst damit ist die noch heftigere Schwankung der Stromleistung (Bild 3 oben), verglichen mit Sonnenstrom und die extrem ungünstige Leistungsernte von Windturbinen zu verstehen.

Alle Strömungsmaschinen unterliegen dem physikalischen Gesetz „Leistung gleich proportional zur dritten Potenz der Strömungsgeschwindigkeit“ (s. grüne Kurve in Bild 4). Gemäß diesem v3-Gesetz führt Verdoppelung der Windgeschwindigkeit zur Verachtfachung der Stromleistung, Halbierung aber umgekehrt zu ihrer Verringerung auf ein Achtel. Schwankungen von v wirken sich daher grob mit dritter Potenz verstärkt auf die Schwankungen der Windrad-Leistung aus. Die deutschen Windgeschwindigkeiten, im Binnenland etwa zwischen 0 bis etwa 6 m/s, sind für eine vernünftige Stromausbeute viel zu klein. Offshore und an Meeresküsten ist der Wind zwar wesentlich stärker, man muss aber schon ab etwa v = 8 m/s beginnen die Windrad-Leistung wegen zu großer mechanischer Belastung zu drosseln. Ab etwa v = 13 m/s muss ein Windrad auf die zulässige Maximalleistung (Nennleistung) begrenzt werden. Damit ist gerade der Bereich von sehr hohen Windgeschwindigkeiten nur stark gedrosselt nutzbar.

Bild 4: Beispiel einer Windradkennlinie (blau). Das v3 Gesetz und die Betz-Joukowsky-Grenze werden prinzipiell von einem Windrad nicht erreicht. Die mittleren Windgeschwindigkeiten an der Nordseeküste liegen bei 5,8 bis 5,9 m/s, für Offshore Nordsee um die 9 m/s. Selbst Offshore-Windgeschwindigkeiten lassen daher die Nutzung des sinnvollen Betriebsbereichs  von Windturbinen (grau) nur eingeschränkt in dessen linken Randbereich zu.

 

10.  Eine grundsätzliche Sicherheitsgrenze für Wetter-Fluktuationsstrom

Die bisher geschilderten technischen und wirtschaftlichen Begrenzungen für die „Erneuerbaren“ Wind und Sonne sind zwar prinzipiell keine unüberwindbaren Hürden für ihren weiteren Ausbau, falls man auf Kosten, Naturschutz, Landschaftsschutz und den Gesundheitsschutz von Windradanrainern (Infraschall) keine Rücksichten nimmt. Es existiert allerdings eine Grenze seitens der Netzsicherheit. Grund dafür sind schnelle Netzstörungen im Bereich von Sekundenbruchteilen bis zu wenigen Sekunden, etwa Netz-Abtrennungen durch den plötzlichen Ausfall eines großen Umspanntransformators o.ä., die zum Zusammenbruch des gesamten Netzes führen können.

Um die Auswirkungen dieser kurzfristigen Störungen auf die Stabilität des Netzes im zulässigen Bereich der Frequenzstabilität zu halten, muss ein ausreichend hoher Prozentsatz der elektrischen Gesamtleistung von Synchrongeneratoren mit großen Schwungmassen geliefert werden (Der Stromverbraucherschutz e.V. NEAB gibt als Faustformel permanente 45% an), d.s. die klassischen Dampfkraftwerken mit Kohle oder Uran. Leistungsungleichgewichte in Folge von Störungen werden hier durch Abbremsen, also Ausspeicherung kinetischer Energie bzw. Beschleunigen, also Einspeicherung kinetischer Energie der Schwungmassen verzögerungsfrei ausgeglichen. Auch eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW geht auf diese Zusammenhänge ein.

Der erforderliche Anteil von Grundlastkraftwerken hängt von der aktuellen Netzstruktur und ferner davon ab, welches Blackout-Risiko man noch toleriert. Die vorgenannte Publikation gibt eine Mindestleistung von 20 GW für den Regelblock Deutschland an. Mit den momentan noch vorhandenen Grundlastkraftwerken wäre damit die erforderliche Sicherheit noch gegeben. Dies wird sich aber mit zunehmendem Windradausbau, dem gesetzlichen Abschalten weiterer Kernkraftwerke sowie durch die aktuell diskutierte Abschaltung von Kohlekraftwerken in Richtung größerer Instabilität und immer höherer Black-Out-Gefahr ändern.

 




Große Demo gegen Windräder in Berlin, 23.Mai 2019 vor dem Bundeskanzleramt, 14:30 Uhr

Das Anschreiben des AKTIONSBÜNDNIS Pro Natur mit der Bitte um Teilnahme und Unterstützung an der Berliner Demonstration lautet wie folgt:

Sehr geehrte Damen und Herren,

 wir befinden uns in wahrhaft gefährlichen Zeiten. Kinder wie Greta Thunberg und viele nichts ahnende Schülerinnen und Schüler werden gegen die ältere Generation aufgehetzt, um die Welt vor einer angeblichen Klimakatastrophe zu retten. Dass Kinder für politische Zwecke missbraucht  werden, ist eine neue Dimension der um sich greifenden Klimahysterie. Das macht Angst und erinnert an immer gleiche Versuche, die Jungen und Jüngsten für eine Revolution zu mobilisieren, die nicht ihre eigene ist und der sie später einmal selbst zum Opfer fallen werden, nach vielen anderen Opfern vor ihnen.

Wir müssen endlich mit aller Macht gegen diese ins Totalitäre abgleitende gesellschaftliche Entwicklung ankämpfen, deren überall aufragende Symbole die Windradmonster der sogenannten Energiewende sind. Wir müssen zeigen, dass es noch besonnene Menschen gibt, die auf reale Probleme und Gefahren aufmerksam machen, die sich nicht in einer modellierten Zukunft, sondern
hier und heute abspielen: eine völlig vermurkste Energiepolitik, die Massakrierung unserer Kulturlandschaften, zunehmende Gesundheitsgefahren durch immer größere Wind-„parks“, immense Kosten und ein Klima der Angst, in dem verschiedene Gruppen der Gesellschaft systematisch gegeneinander aufgehetzt werden.
 

Deswegen würde ich mich freuen, Sie am 23.05.in Berlin, begrüßen zu dürfen, um gemeinsam gegen die Windindustrie und eine Menschen und Natur verachtenden Energie- und Klimapolitik zu protestieren. 

Mit herzlichen Grüßen

Udo Bergfeld

„AKTIONSBÜNDNIS Pro Natur
zum Schutz unserer Heimat, Natur- und Kulturlandschaften“
VI Rettet Brandenburg, mit Unterstützung der Bundesinitiative Vernunftkraft e.V.

Hier noch die vom Aktionsbündnis Pro Natur zur Verfügung gestellten Unterlagen und Bilder (Die Bilder sind rechtlich geschützt, dürfen aber – unverfälscht – von jedermenn weiter frei verteilt werden).

Zunächst Flyer-Berlin-Demo-aussen

Bild 1: Flyer-Aussenseite (zur besseren Lesbarkeit oben das pdf anklicken)

und hier Flyer-Berlin-Demo – innen

Bild 2: Flyer-Innenseite (zur besserenlesbarkeit oben das pdf anklicken)

Weitere Bilder hier

Bild 3: Demo-Plakat

Bild 4: Das Mehrgenerationenprojekt

 

EIKE wünscht der Demo allen Erfolg!




Leuchtturmprojekt in der Ostschweiz verhindert

In der Linthebene bei Bilten sollten mitten in dicht besiedeltem Gebiet fünf 200 Meter hohe Windräder aufgestellt werden. Entgegen aller wirtschaftlichen und ökologischen Logik versuchte man, das Projekt aus politischen Gründen durchzuboxen. Die Entscheidung hat Ausstrahlung auf die ganze Schweiz.

Das endgültige Aus für das Windkraftprojekt „LinthWind“ ist ein triumphaler Erfolg für die Bevölkerung und für den Verein LinthGegenwind, der das Projekt mit einer engagierten Kampagne bekämpft hatte. Es wurden zahlreiche Informations- und Diskussionsveranstaltungen organisiert, Flyer an alle Haushalte verteilt, unzählige Medienmitteilungen verschickt, Webseite und Facebook-Auftritt gepflegt und ein umfangreiches Dossier zusammengestellt. Entscheidungsträger und Kantonsparlamentarier wurden mit Informationsmaterial versorgt. Bekannte Persönlichkeiten nahmen in „Bekenntnissen“ gegen das Windkraftprojekt Stellung. Dadurch konnte ein starkes Gegengewicht zur Propaganda der Betreiber, Windindustrie und der Medien aufgebaut werden. Der Widerstand aus der Bevölkerung schwoll in den Wochen und Tagen vor der Abstimmung zu einem regelrechten Sturm an.

Tagelang waren die Leserbriefseiten gefüllt mit Stellungnahmen von Bürgern gegen das Projekt, und bei Veranstaltungen meldeten sich betroffene Bürger entschieden zu Wort. Die lokale Monopolpresse, die zeitweise eine feindselige Kampagne gegen die Windkraftgegner führte, mußte bekennen: „Ein regelrechter Sturm von Leserbriefen braust durch den Blätterwald“, und der Redaktionsleiter kommentierte nach der Entscheidung: „Ein Projekt gegen so heftigen Widerstand durchzusetzen, ist fast unmöglich.“ Die ermutigende Lehre daraus ist: Organisierter Widerstand kann sich lohnen!

Das Ende für „LinthWind“ setzt die Niederlagen des vom Bund massiv forcierten Windkraftausbaus in der Ostschweiz fort (vgl. „Ostschweiz gegen Windenergie“, EIKE-News 26. November 2018). Der Kanton St. Gallen hat kürzlich ein geplantes Windkraftprojekt im Rheintal gestrichen. Im Thurgau verstärkt sich der Widerstand gegen die geplante Windzone bei Salen-Reutenen in Nähe der deutschen Grenze und in Sichtweite des UNESCO-Weltkulturerbes Mainau. Dort hat sich der Verein Pro Salen-Reutenen gegründet und auch von deutscher Seite her gibt es Proteste. 1500 Einwendungen fluteten die Büros des Kantons. Die Gemeinde Sirnach kämpft gegen die geplante Windzone in der Nähe einer psychiatrischen Klinik und befürchtet Angstzustände bei den Patienten.

Auch im Westen der Schweiz, wo der Ausbau der Windenergie viel weiter fortgeschritten ist, gab es zuletzt eine richtungsweisende Abstimmung: Die Bürger von Court (Kanton Bern) entschieden mit 222:93 Stimmen überaus deutlich gegen ein geplantes Windkraftprojekt mit sieben Turbinen auf den Jurahöhen. Die Bevölkerung war nicht bereit, ihre letzten Erholungsräume zu opfern, schreibt dazu der „Verband Freie Landschaft Schweiz“.

Die Bevölkerung setzt sich immer mehr gegen die Beeinträchtigungen durch die Windkraftprojekte zur Wehr, und der vom Bund gewünschte Bau von 800-1000 Windkraftanlagen gemäß „Energiestrategie 2050“ erweist sich als völlig illusorisch. Heute bestehen 37 Anlagen, die gerade einmal 0.2% (kein Druckfehler, in Worten: null Komma zwei Prozent) zur Stromproduktion beitragen. Die Schweiz ist zu kleinräumig, zu dicht besiedelt und hat zuwenig Windpotential. Nach realistischen Schätzungen hat Windenergie nur ein Nischenpotential von maximal 2% an der Stromproduktion (vgl. „Neue Energie für die Schweiz“, UBS Chief Investment Office, 2016).

Jetzt hat sich noch dazu herausgestellt, dass das Windpotential noch geringer ist als bisher angenommen. Das Bundesamt für Energie (BFE) mußte in der neuen Ausgabe des offiziellen Windatlas 2019 die bisherigen Werte deutlich reduzieren. Die alte Ausgabe von 2016 war politisch motiviert, entbehrte jeder wissenschaftlichen Grundlage und die jetzt durchgeführte Korrektur stellt den geplanten Ausbau der Windenergie zur Gänze in Frage, schreibt die „Freie Landschaft Schweiz“.

Doch der Bund setzt weiter auf Druck und „will den Widerstand gegen Windräder mit juristischen Drohungen brechen“, kommentierte „Die Weltwoche“ ein Rechtsgutachten des BFE, das nicht zufällig kurz vor der Abstimmung in Glarus publizierte worden war. Die Gemeinden und Kantone müßten die Windenergie fördern und es wäre ihnen nicht erlaubt, eigene Mindestabstände zu Windkraftanlagen festzulegen, heißt es darin. Dieses Gutachten ist politisch motiviert und will die verfassungsrechtliche Autonomie der Kantone und Gemeinden einschränken.

Der Bund finanziert weiterhin mit Millionen von Franken Propaganda für die Windenergie. Letztes skandalöses Beispiel einer solchen Manipulation ist ein Artikel in der „Sonntagszeitung“ („Wissenschaftler erforschen Vorurteile“, 27. Januar 2019), der von der BFE-Plattform „Energie Schweiz“ zusammen mit dem Medienkonzern Tamedia (!) gesponsort wurde. Der Artikel gibt sich unverdächtig naturwissenschaftlich, beginnt mit „Vorurteile helfen dem Gehirn, im Alltag mit der Informationsflut umzugehen“ und endet bei „Fünf falschen Vorstellungen über die Energiezukunft“. Das Werk trägt die Handschrift von Spin Doctors (professionellen Werbepsychologen) und verwendet bekannte Techniken der Meinungsmanipulation (sog. „Framing“), um die Kritiker der Windenergie als eigentliche Deppen hinzustellen. Siehe dazu den Beitrag „Fake News des BFE“ auf dem Blog des Carnot-Cournot-Netzwerkes.

Medienberichte zur Entscheidung des Glarner Kantonsparlaments, 24. April 2019: SRF, Schweiz aktuell:  Die Linthebene bleibt frei von Windenergie
SRF News: Aus für Windpark im Glarnerland
Tagesanzeiger: Herber Dämpfer für die Windkraft

Siehe auch: „Ostschweiz gegen Windenergie“, EIKE-News 26. November 2018.

 

Anmerkung der EIKE Redaktion

Das Beispiel Verein LinthGegenwind sollte allen deutschen Bürgerinitiativen gegen Windräder Vorbild werden. Nur mit entschlossenem Widerstand ist der umweltverbrecherische Windrad-Wahnsinn zu stoppen. Hierbei sind alle rechtlichen Mittel, alle demokratischen Möglichkeiten freier demokratischer Meinungsäußerung und alle medialen Wege auszuschöpfen. Diese Bemühungen sollten zudem von regelmäßigen, bis zum gewünschten Erfolg niemals nachlassenden Protestdemonstrationen begleitet werden. Die  gilets jaunes zeigen die Wirkung solchen Vorgehens in unserem französischen Nachbarland. Es ist Illusion anzunehmen, dass sich die Politik einer extremen Umweltschädigung und Unterstützung einer skrupelloser Windradlobby gegen eine wehrlose Bevölkerung anders von ihren Vorhaben abbringen ließe.




Dänische Studie ignoriert den Infraschall von Windrädern

Warum werden 1000 Bürgerinitiativen nicht gehört?

Seit Jahren beklagen viele Bürger und Bürgerinitiativen Gesundheitsschäden durch windrad-generierten Infraschall (IS). Alles nur Einbildung, schließlich gäbe es keinen wissenschaftlich anerkannten Beweis, haben Behörden sie beschieden. Der Gesetzgeber sei auch nicht verpflichtet, diesen Beweis zu liefern. Von den Profiteuren der Windkraft ist erst recht keine Hilfe zu erwarten. Die Energiewende sei schließlich auf den steten Zuwachs von WKAs angewiesen. So wundert es nicht, dass die Umweltbehörden fast aller Bundesländer in ihren Verlautbarungen nur den Bericht1 des Landesumweltamt Baden-Württembergs zitieren, in dem mittels manipulierter Messungen versucht wurde, die Unschädlichkeit des IS zu beweisen. In Deutschland ist jedenfalls kein politischer Wille zu erkennen, den Zusammenhang zwischen IS und Krankheit aufzuklären.

Die Welt erhoffte von einer dänischen Studie die Wahrheit zu erfahren

In Dänemark ist die Zahl der Windräder, bezogen auf Einwohnerzahl oder Landesfläche, größer als in Deutschland. Entsprechend größer ist dort das Konfliktpotential zwischen Nutznießern und Geschädigten der Windkraft. Veranlasst durch spektakuläre Vorfälle bei Mensch und Tier, hatte die dänische Regierung vor einigen Jahren zugesagt, mit einer epidemiologischen Studie prüfen zu lassen, ob es einen Zusammenhang zwischen dem Gesundheitszustand der dänischen Bevölkerung und der von WKAs stammenden Schallimmission gäbe. Eine bessere Ausgangslage zur Datenerhebung wäre weltweit nicht zu finden gewesen: Unbehelligt vom Datenschutz konnten aus den zentralen dänischen Gesundheits- und Personenstandsregister in anonymisierter Form für ca. 500 000 Probanden die Krankheitsgeschichte, der Wohnort und die Aufenthaltsdauer im Bereich von Windrädern entnommen werden. Die notwendige Unabhängigkeit und Professionalität schien durch die Vergabe der Studie an das renommierte Kopenhagener Krebsforschungsinstitut gewährleistet. Die Ergebnisse, mit großer Spannung erwartet, wurden nach peer review in sechs Teilstudien2-7 veröffentlicht, die letzte vor einigen Wochen. Doch dann das Unfassbare:

Infraschall? Nie gehört

Als unabhängige Variable bei der Regressionsanalyse (Standardverfahren bei derartigen statistischen Untersuchungen) wurde für jeden Wohnsitz der A-bewertete Schalldruckpegel, der von allen Windrädern aus der Umgebung stammt, berechnet. Diese Bewertung bedingte eine untere Frequenzgrenze von 10 Hz und schloss damit den Bereich 0,5 bis 10 Hz aus, in dem das harmonische IS-Spektrum dreiflügeliger Windräder liegt. Es ist schon absurd, man vermutet, dass gerade dieses IS-Spektrum wahrnehmbar und die Ursache vieler Beschwerden sei, aber die Studie, die diese Vermutung bestätigen oder widerlegen soll, schließt diesen IS-Bereich aus. In allen Diskussionen um das Für und Wider der Windkraft steht IS ganz oben auf der Agenda, aber in der Kopenhagen-Studie wird dieser Begriff nicht ein einziges Mal erwähnt. Vergleichbar wäre eine Studie der Auffahrunfälle auf Autobahnen, die eine Beteiligung von Lastwagen nicht in Betracht ziehen würde.

Die Schallemission der Windräder hat zwei Komponenten, die sich deutlich voneinander unterscheiden. Turbulenzen an den Flügelspitzen erzeugen ein kontinuierliches, vom IS- bis zum Hörbereich erstreckendes Spektrum, das als Rauschen (ähnlich dem eines Segelflugzeuges beim Landeanflug) im Umkreis von maximal 500 m hörbar ist. Die Amplitudenmodulation dieses Rauschens mit einer tiefen Frequenz wird als besonders belästigend empfunden. Die zweite Komponente entsteht bei der Passage der Flügel am Turmschaft. Sie besteht aus einem Drucksprung, der sich mit großer Regelmäßigkeit bei jeder dieser Passagen wiederholt. Diese zeitliche Folge lässt sich in ein aus ca. 9 Linien bestehendes Spektrum transformieren, dass harmonisches Spektrum genannt wird. Im vorliegenden Fall ist die Bezeichnung Signatur eines Windrades üblich. Diese Signaturen liegen im Frequenzbereich 0,5 bis 10 Hz, also im IS-Bereich, und sind aus bestimmten mathematischen Gründen noch im Abstand von 20 – 40 km vom Windrad nachweisbar. Seit Jahren besteht die experimentell begründete Vermutung, dass diese Signaturen extraaural (unter Umgehung der Hörsinns) wahrnehmbar und die Ursache der den Windrädern angelasteten Beschwerden seien.

Die A-Bewertung entwertet die Ergebnisse der dänischen Studie

Neben der unabhängigen Variablen, dem A-bewerteten Schalldruckpegel, wurde akribisch der Einfluss weiterer Größen, wie Alter, Geschlecht,  Bildung, Einkommen usw., untersucht. Der Ausschluss der Windrad-Signaturen aber wurde nicht erwähnt, geschweige denn begründet. Die Vernachlässigung der weitreichenden IS-Komponente führte dazu, dass positive Befunde, die eigentlich zum Windradschall korreliert waren, der Referenzmenge zugeordnet wurden. Durch diese Manipulation wurden die der Windkraft anzulastenden Schadensquoten verringert und fast zu Null gemacht. Auch fanden zahlreiche widersprüchliche Ergebnisse keine Erklärung. Abschließend wurde stets festgestellt, dass kein Zusammenhang zwischen Schalldruckpegel und Krankheit nachweisbar gewesen war, allerdings seien weitere Untersuchungen erforderlich. Ein Satz ähnlichen Inhalts beendete immer schon vergleichbare Pamphlete und vermutlich auch deren Gutachten. Er sichert die Autoren gegen den Vorwurf der wissenschaftlichen Unredlichkeit ab und verrät zugleich den Wunsch nach weiteren lukrativen Forschungsaufträgen.

Folgerungen

Es ist müßig, darüber zu streiten, ob in der dänischen Studie Korrelationen zum IS vorsätzlich nicht gesucht wurden oder ob unerwünschte Ergebnisse im Tresor verschwunden sind. Das aufzuklären ist Sache der dänischen Öffentlichkeit. Erschreckend ist, dass sich mühelos Wissenschaftler finden ließen, die bereit waren, an derart durchsichtigen Manipulationen mitzuwirken. Noch erschreckender die Vorstellung, dass wissenschaftliche Institutionen bereit sein könnten, jede politisch erwünschte Wahnvorstellung in den Status einer wissenschaftlich anerkannten Wahrheit zu befördern.

Die Bürger hierzulande aber sollten sich nicht länger der Illusion hingeben, dass eine Politik, die Kernkraft- und Kohleausstieg zum Staatsziel erklärt hat, jemals Forschungsvorhaben fördern würde, die den durch Windkraft Geschädigten Recht geben könnten.

Literatur

  1. Ratzel, U. et.al. 2016 Tieffrequente Geräusche inkl. Infraschall von Windkraftanlagen und anderen Quellen. LUBW- Bericht P9-028TG
  2. Poulsen, A.H. et.al. 2018 Short-term nighttime exposure to wind turbine noise and cardiovascular events. Environ Int 114:160-166
  3. Poulsen, A.H. et.al. 2018 Long-term exposure to wind turbine noise and risk for diabetes. Environ Res 165:40-45
  4. Poulsen, A.H. et.al. 2018Long term exposure to wind turbine noise and redemption of antihypertensive medication. Environ Int 121:207-215
  5. Poulsen, A.H. et.al. 2018 Pregnancy exposure to wind turbine noise and adverse birth outcomes. Environ Res 167:770-775
  6. Poulsen, A.H. et.al. 2019 Long-term exposure to wind turbine noise and risk for myocardial infarction and stroke. EHP 37004:1-10
  7. Poulsen, A.H. et.al. 2019 Impact of long-term exposure to wind turbine noise on redemption of sleep medication and antidepressants. EHP 37005:1-9



Windenergie, Infraschall und das Schweigen im Umwelt-Bundesamt

Kürzlich erschien im Deutschen Ärzteblatt eine einführende Übersicht zum Thema Windenergie und Infraschall. Genauer: zum Forschungsstand über mögliche gesundheitliche Auswirkungen des von Windenergieanlagen (WEA) emittierten Infraschalls. Dazu fasst der Artikel die aktuelle relevante Forschungsliteratur zusammen. Bei diesem nicht ganz einfachen Thema kommen die beiden Autorinnen durchweg zu Schlussfolgerungen, die auch nach eigener Durchsicht der Originalliteratur bestehen können.

Stutzig macht ihre Feststellung, dass gerade jene Länder wenig Forschungsehrgeiz an den Tag legten, die zu den größten Windparkbetreibern weltweit gehören. So seien in Deutschland lediglich zwei (medizinische) Studien durchgeführt worden, obwohl das Land die dritthöchste Windenergieerzeugungskapazität besitze. Damit stellt sich für den kritischen Leser natürlich auch die Frage, welche Rolle in diesem Zusammenhang das Umweltbundesamt mit seinen 1.600 Mitarbeitern spielt. Schließlich lautet der Leitspruch des Amtes „Für Mensch und Umwelt“. Dazu später mehr.

Als Infraschall wird Schall unterhalb einer Frequenz von 20 Hertz bezeichnet. Damit ist er normalerweise für das menschliche Ohr nicht zu hören. Vielmehr geht die Wahrnehmung dieser Frequenzen – in Abhängigkeit vom Schalldruckpegel – vom Hören zum Fühlen über. Betroffene schildern Vibrationen, Erschütterungen oder ein Unsicherheitsgefühl. Noch eine weitere Besonderheit zeichnet Infraschall aus: Er breitet sich nahezu verlustfrei aus, wird also nicht durch Hindernisse wie Gebäude oder Schutzwälle abgeschirmt. Darüber hinaus nimmt der Schallpegel von Infraschall mit zunehmendem Abstand von der Schallquelle nur in vergleichsweise geringem Maße ab: bei Infraschall von 10 Hertz mit einer Wellenlänge von 34 Metern nach 68 Metern um 6 dB, nach 136 Metern um weitere 6 dB usw.

An verschiedenen Organen messbare Effekte

In der Nähe von Windkraftanlagen (WEA) lebende Personen machen den Infraschall verantwortlich für eine ganze Reihe von gesundheitlichen Problemen, etwa Erschöpfung, Schlafstörungen, Depressionen, Kopf- und Ohrenschmerzen, Übelkeit und Schwindel. Allerdings konnte mittels Polysomnographie gezeigt werden, dass der Schlaf nicht nennenswert durch nicht hörbare Schallphänomene beeinflusst wird. Auch die anderen Symptome werden nicht unwesentlich durch eine negative Erwartungshaltung beeinflusst, so dass auch eine Art Nocebo-Effekt eine Rolle spielt.

Demgegenüber stehen etliche Studien, die an verschiedenen Organen messbare Effekte durch Infraschall entweder direkt oder indirekt nachweisen konnten. Sogar ein (mittelbarer) Effekt von Infraschall auf das Hören erscheint grundsätzlich möglich. Eine kanadische Arbeitsgruppe hält es aufgrund ihrer Ergebnisse ebenfalls für möglich, dass bisher symptomlose Menschen mit bestimmten Anomalien im Gleichgewichtsorgan besonders empfänglich für die Auslösung von Übelkeit und Schwindel durch Infraschall sind. Verwiesen wird in diesem Zusammenhang auf die ja mit ganz ähnlichen Symptomen einhergehende Seekrankheit, von der auch nur fünf bis zehn Prozent der Bevölkerung wirklich stark betroffen seien.

In speziellen kernspintomographischen Untersuchungen zeigten sich – unter der Stimulation mit Infraschall nahe der Hörschwelle – eindeutige Aktivitätsveränderungen in verschiedenen Hirnregionen. Dabei muss es sich allerdings nicht zwingend um die Gesundheit beeinträchtigende Effekte handeln. Aber auch diese Befunde belegen, dass nicht hörbarer Schall unseren Körper nicht nur erreicht, sondern auch eine Wirkung auf ihn hat. In eine grundsätzlich ähnliche Richtung weisen Studien aus der Mainzer Uniklinik: An isolierten Herzmuskelpräparaten führt Infraschall zu einer um bis zu zwanzig Prozent reduzierten Kontraktionskraft. Möglicherweise beeinträchtigt Infraschall also die Muskelkraft und damit die Pumpleistung des Herzens, was zunächst im Tierversuch und dann am Menschen aber noch zu bestätigen wäre. Kurz gesagt: Es gibt noch eine Menge Forschungsbedarf.

Krachende Funkstille beim UBA

Wie bewertet nun das UBA die gesundheitlichen Risiken durch von WEA erzeugten Infraschall, was schlägt es vor und was hat es bereits unternommen? Schließlich dürften in Deutschland Zehntausende, möglicherweise auch deutlich mehr, diesem Risiko ausgesetzt sein. Gibt man in die Suchfunktion der Homepage des UBA Windenergie, Infraschall, Gesundheit ein, erhält man 13 Treffer, der letzte datiert aus dem Jahr 2016. Seitdem herrscht Funkstille.

In einer Publikation des UBA mit dem Schwerpunkt Energiewende und Gesundheit vom September 2013 legt man sich ohne jedes Wenn und Aber fest: “Die Infraschallimmissionen liegen bereits bei geringem Abstand zu einer WEA unterhalb der Hör- und Wahrnehmungsschwelle. Daher ist nicht von einem gesundheitlichen Risiko auszugehen.“ Und: „Gesundheitliche Wirkungen des Infraschalls sind aufgrund der sehr niedrigen Schalldruckpegel nicht plausibel.“

Ein Jahr später liest sich das in einer im Auftrag des UBA unter anderem von Mitarbeitern der Fakultät Elektrotechnik der Uni Wuppertal erstellten „Machbarkeitsstudie zu Wirkungen von Infraschall“ auf den Menschen durch unterschiedliche Quellen schon etwas anders. Der die Studie redaktionell betreuende UBA-Mediziner – weitere medizinische Kompetenz war ganz offensichtlich bei der Studie nicht vertreten – fasst die Ergebnisse so zusammen: „Wie sich der Infraschall auf den Menschen auswirkt, muss noch genauer erforscht werden. Wie, dafür wurden in der Studie Vorschläge erarbeitet.“

Das hört sich erst einmal nicht schlecht an. Nur passiert ist in den seitdem vergangenen immerhin knapp fünf Jahren im Hinblick auf entsprechende UBA-Forschungsprojekte nichts. Was auch nicht wirklich verwundert. Denn zum einen sind die „erarbeiteten Vorschläge“ so umfassend, dass sie allein schon deshalb kaum eine Chance auf praktische Realisierung haben dürften. Zum anderen wurde die politische Brisanz des durch WEA erzeugten Infraschalls auch dadurch entschärft, dass dieser nur als eine Quelle unter vielen –  etwa Wärmepumpen, Biogasanlagen, Lüftungen, Pressen und Stanzen – abgehandelt wurde.

Die bisher letzte Äußerung des UBA zu dem hier interessierenden Thema stammt aus dem November 2016. Auf zwölf Seiten positioniert es sich zu möglichen gesundheitlichen Effekten von WEA. Gemeint sind damit also nicht nur die Risiken durch Infraschall, sondern auch durch hörbaren Schall, Schattenwurf, Lichtemissionen, Eiswurf und weitere „Belästigungen“. Von zwölf Seiten zu sprechen, trifft eigentlich nicht ganz zu. Denn ohne Umschlag, die einleitende Eloge auf die Windenergie und das Literaturverzeichnis sind es nur fünf.

Beim Infraschall macht man sich das Resümee einer US-amerikanischen Übersichtsarbeit aus dem Jahr 2014 zu eigen, „dass keine Gesundheitsbeeinträchtigungen von WEA durch Infraschall zu erwarten sind.“ Allerdings, so das UBA, „fehlen noch Langzeitstudien, die über chronische Effekte nach langjähriger niederschwelliger Infraschallbelastung Aufschluss geben könnten.“ Aber diese Ergebnisse will man offensichtlich entspannt auf sich zukommen lassen, um dann in zehn Jahren gegebenenfalls sagen zu können: „Tja, Pech gehabt. Aber jetzt sind die WEA nun einmal da.“

Das UBA kümmert sich lieber um „Gendergerechtigkeit“

Das Kontrastprogramm zu diesem Laissez-faire oder auch einer aktiven Vermeidungshaltung läuft im UBA beim Thema „Gender“ oder „Gendergerechtigkeit“. Bei den Suchwörtern „Windenergie, Gender“ erhält man stolze 82 Treffer, bei „Energiewende, Gender“ 107 und bei „Klimaschutz, Gender“ gar 244. Dort spielt für das UBA die Musik also deutlich lauter. Kein noch so abwegiges Thema ist sicher vor den Kampftruppen der Genderista, wie man in diesem „Zwischenbericht“ des UBA, mitverfasst von den Women for Climate Justice, nachlesen kann. Gleichzeitig ist es ein bedrückendes Dokument über den Verfall der empirischen Sozialforschung.

Ähnliche Forschungsübungen könnte man im Übrigen auch veranstalten für andere Teilgruppen der Gesellschaft: etwa die Aktienbesitzer, die Hartz-IV-Bezieher, die Alleinstehenden, die Älteren, die Kirchgänger oder die Haustierhalter. Damit kein Missverständnis entsteht, sei darauf hingewiesen, dass es natürlich bei speziellen Fragestellungen angemessen oder auch zwingend erforderlich sein kann, diese auf Teilgruppen der Gesellschaft herunterzubrechen. Aber alles, und wirklich alles, durch die vom UBA finanzierte Genderbrille zu betrachten, macht vor allem eines deutlich: den völligen Verlust an Respekt gegenüber dem steuerzahlenden Bürger, egal ob der nun männlich oder weiblich ist.

 

 

Anmerkungen der EIKE-Redaktion

Wir danken Herrn Maxeiner von Achgut und natürlich dem Autor dises Beitrags ganz herzlich für die Genehmigung, den Artikel auch in den EIKE-News bringen zu dürfen. Über Nutzlosigkeit (nur nicht für Pächter und Hersteller) von Windrädern haben wir schon vielfach berichtet. Wegen der hohen Anzahl von EIKE-Beiträgen, ist es am besten, in der EIKE-Suchfunktion den Begriff „Windräder“ einzugeben. Insbesondere ist auf eine EIKE-Übersichtssammlung der Fachliteratur „Fakten und Quellen zu Windrädern“ mit den folgenden Kapitelüberschriften hinzuweisen:

Kurzinformation zu Energie/Klima, Allgemeines zu Windrädern und Energiewende, Gesundheitsschädigung durch Infraschall von Windrädern, Töten von Flugtieren durch Windräder, Schädigung der Atmosphäre durch Windräder sowie schließlich Blackout-Gefahr durch Wind- und Sonnenstrom.

 

 




Aus Respekt vor den Schülerprotesten: Freitags alle Kohlekraftwerke abschalten!

Hier bei uns verstopft der Kohlestrom das Stromnetz und deshalb kann dieses Netz nicht genügend alternative Energien speichern. Dadurch fällt wiederum die bereits fest eingepreiste CO2-Einsparung unserer EEG-Energiewende flach und Deutschland verfehlt seinen zwingend notwendigen Beitrag für das globale 1,5-Grad-Klimaziel. Nach Aussage der „Scientists for Future“ reichen die derzeitigen Maßnahmen zum Klima-, Arten-, Wald-, Meeres- und Bodenschutz bei Weitem nicht aus, um eine katastrophale Veränderung des 30-jährigen globalen Wetterdurchschnitts (= Klima) zu verhindern.

Und weil die Erwachsenen in den westlichen Industrienationen beim Klimaschutz völlig versagt haben, demonstrieren hier die Schüler jetzt jeden Freitag ganz spontan für eine klimagerechte Welt. Alle übrigen Schüler dieser Welt lernen inzwischen fleißig weiter, damit es ihnen später auch einmal so gut geht, wie diesen Schülern in den westlichen Industrienationen.

Also, liebe Kohlekommission, aus Respekt vor den „Fridays for Future“-Schülerprotesten sollten zukünftig an jedem Freitag die deutschen  Kohlekraftwerke abgeschaltet werden, denn dadurch können wir alle nur dazulernen:

 

 

Der Beipackzettel zu „RESPEKT am Freitag“:

Der Beitrag erschien zuerst in der „Kalten Sonne“ am 10.April 2019. Wir danken Herrn Weber und der KA für die freundliche Genehmigung, den Beitrag auch bei uns bringen zu können.




Unsere Energieversorgung wird immer fragiler

erschienen im Reviertransfer, Seite 44 (hier)

„Wir müssen die Energiewende vom Grundsatz her neu denken“

Interview mit Prof. Dr.-Ing. Harald Schwarz, Lehrstuhlinhaber Energieverteilung und Hochspannungstechnik an der BTU Cottbus-Senftenberg

Im Frühjahr 2018 war Prof. Harald Schwarz Mitautor einer BTU-Kurzstudie des brandenburgischen Wirtschaftsministeriums  zu den technischen Zusammenhängen zur sicheren Stromversorgung. Wir suchten mit ihm das Gespräch zu seiner Sicht auf die Ergebnisse des Abschlussberichts der
WSB-Kommission. Daraus wurde eine umfangreiche Aufklärung zu den Unzulänglichkeiten der Umsetzung von Deutschlands Energiewende.

Die Kommission wurde mit den Begriffen Wachstum, Strukturwandel und Beschäftigung ins Rennen geschickt, was entnehmen Sie dem Abschlussbericht in diesen Themenbereichen für die Lausitz?

Ich habe den Bericht nur auszugsweise gelesen und mich auf die Absätze zur Versorgungssicherheit konzentriert. Es gibt eine logische Reihenfolge: Wir müssen zuerst die Versorgung sicherstellen und können dann schauen, wie wir CO2-Emissionen reduzieren. Erst dann brauchen wir uns über Themen wie Wachstum, Strukturwandel und Beschäftigung Gedanken machen. Wenn die Versorgungssicherheit als Primat nicht gegeben ist, brauchen wir über den
Rest nicht zu reden. Da ich in dem Bericht hierzu keinen Ansatz erkennen konnte, ist die Debatte um den Strukturwandel meines Erachtens obsolet.

Stehen Sie mit dieser Meinung nicht recht allein? 

Das ist nicht meine Denke. Es gibt seit zehn Jahren ausreichend Studien dazu.
Möchte man in einem Land sichere Stromversorgung, benötigt man gesicherte Kraftwerksleistung. Seit hundert Jahren heißt die Regel, dass die gesicherte Leistung die mögliche Höchstlast in einem Stromnetz übersteigen muss. Schauen wir uns die letzten zehn bis 15 Jahre Energiewende in
Deutschland an, so haben wir um die 120 Gigawatt PV- und Windstrom aufgebaut. Die gesicherte Leistung von PV ist aber 0%, bei Wind onshore ist es 1%, bei Wind offshore 2%. Im Klartext liefern die 120 GW, die wir in den letzten 15 Jahren aufgebaut haben, nahezu null Beitrag zur gesicherten
Leistung. Wir werden ausschließlich mit Wind und PV nie eine gesicherte Stromversorgung aufbauen. Vor zehn Jahren standen uns deshalb rund 100 GW Kraftwerksleistung aus sicheren Energieträgern zur Verfügung, das sind Kohle, Gas, Atom, Biomasse und Laufwasser. Die mögliche Höchstlast in Deutschland liegt derzeit bei ca. 85 GW. Inzwischen ist die gesicherte
Leistung auf knapp 90 GW abgeschmolzen – und der Kohlekommissionsbericht sieht vor, dass wir davon bereits in drei Jahren weitere 20 GW gesicherte Leistung abschalten. Das soll dann noch weiter fortgesetzt werden. Wir geben in drei Jahren also unsere sichere Stromversorgung „aus eigener Kraft“ auf und haben dann nur noch 80% der notwendigen gesicherten Kraftwerkleistung im eigenen Land, die wir
brauchen, um uns verlässlich zu versorgen. 2030 sinkt das weiter auf 60%. Wo soll der Rest herkommen? Es gibt kein Konzept und bei unseren Planungshorizonten kann ich mir keine reale Lösung vorstellen. Fest steht, dass bis 2022 definitiv gar nichts passiert. Was heute im Bau ist, ist 2022 fertig, sonst nichts. Wir werden in drei Jahren die Abschaltung von Kohle und Atom nicht verkraften und können nur darauf hoffen, dass im angrenzenden Ausland noch genügend Reserven im Bereich Kohle und Atom vorhanden sind, um Deutschland mit zu versorgen, wenn wir es selbst nicht mehr
können.

Wie sieht es mit der Hilfe der Nachbarn aus?

Das ist die bislang einzige Hoffnung der Bundesregierung: Der europäische Strommarkt wird schon liefern. Aber was ist dieser Markt? Das sind Kraftwerke in den Nachbarstaaten. Hier stellt man schnell fest, dass Windflauten bei uns auch mit Windflauten bei den Nachbarn einhergehen. Dazu gibt es Fakten und Zahlen. Laufen unsere Kraftwerke unter Höchstlast, tun sie das in Polen und Tschechien auch. Die Wahrscheinlichkeit, dass uns die Nachbarn in einer kalten Dunkelflaute, bei weitgehendem Ausbleiben von Strom aus Wind und PV, mal eben 20 GW über den Strommarkt verkaufen können, halte ich für unrealistisch. Genau an diesem Punkt hat sich der Abschlussbericht der Kommission für mich wegen Realitätsferne erledigt.

Viele Wissenschaftler untermauern die Notwendigkeit und Möglichkeit des Kohleausstiegs – handelt es sich schlicht um unterschiedliche Sichtweisen oder einen unterschiedlichen Grad der wissenschaftlichen Expertise?

Die Aussagen zur gesicherten Leistung sind physikalische Fakten. An denen kann kein Wissenschaftler etwas ändern. Wir leben allerdings seit längerem in einer Phase der Energiewende, bei der physikalische Fakten und Naturgesetze ausgeblendet werden. Das Motto lautet: Es muss einfach gehen. Wir betreiben die Energiewende schon seit 20 Jahren. Das EEG ist Mitte der 1990er-Jahre erstmals wirksam geworden und vor der Jahrtausendwende
wurden dann die ersten Anlagen für Erneuerbare installiert. Das
Ziel der Energiewende besteht aber nicht im Aufbau regenerativer Energien, sondern im Senken der CO2-Emissionen. Bis heute erleben wir bei vielen Beteiligten einen wahren Rausch, was die jährliche Steigerung des prozentualen Anteils der Erneuerbaren an der Stromproduktion angeht. Daraus ist der Glaube entstanden, dass ein „weiter so“ bei der Steigerung
dieses Anteils die Lösung bringt.

In den Medien wird suggeriert, dass mit 40% Quote der Erneuerbaren auch 40% Deutschlands mit regenerativem Strom gesichert versorgt werden. Dem ist nicht so. Das physikalische Grundverständnis energietechnischer Zusammenhänge in den Medien und der Bevölkerung ist leider sehr gering. Schaut man hingegen auf die CO2-Emissionen in der Energiewirtschaft, so wurde in den letzten 20 nichts erreicht. Lediglich Anfang der 1990er-Jahre gab es einen starken Abfall, der mit der Deindustrialisierung der ehemaligen DDR einherging. Von 1994 bis 2013 waren die Emissionen der Energiewirtschaft dann trotz Energiewende konstant. Sie betrugen jedes Jahr 360 Mio. Tonnen CO2 plus minus 5 Prozent. Der Aufbau von PV und Windenergie gefördert über das EEG zeigte keine Wirkung bei den CO2-Emissionen.

Seit 2015 gibt es wieder einen leichten Abwärtstrend, allerdings sind das noch unbestätigte Daten des Umweltbundesamts aus dem Sommer 2018. Da war noch von Hochrechnungen und Expertenschätzungen die Rede, das ist also nicht belastbar. Vielleicht gibt es hier tatsächlich einen kleinen Abwärtstrend, aber über 20 Jahre haben sich die Emissionen gar nicht verändert und selbst jetzt wäre das nur sehr geringfügig. Trotzdem sind alle glücklich und feiern den Ausbau der Erneuerbaren. Das kann ich nicht verstehen.

Woraus resultiert der fehlende Effekt auf die Emissionen?

Parallel zum Aufbau der Erneuerbaren haben wir CO2-freie Kernenergie abgebaut. Was wir auf einer Seite aufgebaut haben, wurde auf der anderen Seite abgebaut. Zudem wurden Kohle- und Gaskraftwerke durch die volatile Einspeisung der Erneuerbaren zu einem extrem fluktuierenden Betrieb gezwungen, um so die ständigen Einspeiseschwankungen von Wind und PV
mit dem Strombedarf in Übereinstimmung zu bringen. Das ist wie Stop and Go mit dem Auto in der Stadt. Das führt auch zu höheren Emissionen pro Kilometer, als auf der gleichen Strecke mit konstanter Geschwindigkeit
auf der Autobahn oder Bundesstraße zu fahren. Wir haben im Ergebnis über 20 Jahre hinweg in blindem Aktionismus im dreistelligen Milliardenbereich Steuergelder ausgegeben, ohne nennenswert etwas bei den Emissionen zu erreichen.

Wie weit sind wir bei der Verstetigung der Erneuerbaren, damit wäre ja ein Effekt auf die Emissionen gegeben?

Wir wissen schon lange, dass überschüssige regenerative Energien gespeichert werden müssen. Das hat in den letzten 15 Jahren aber niemanden interessiert. Es gab bereits 2008 und 2010 Konzepte, die vor der kommenden Phase einer massiven Unterdeckung mit gesicherter Leistung warnten. Die Energiewende wurde trotzdem blind vorangetrieben. Hier müssen wir dringend umsteuern und die Energiewende neu denken, um zu einer nachhaltigen Stromversorgung mit deutlich geringeren CO2-Emissionen zu kommen.

Es wird dennoch viel über grünes Gas gesprochen, wie weit sind wir in der Praxis?

Im Jahr 2006 gab es eine Pilotanlage mit 6 MW und weitere im Bereich um 2 MW. Seitdem ist bundesweit nichts mehr passiert. Aktuell plant RWE nach meiner Kenntnis eine Anlage mit 50 bis 100 MW. Um von dieser Größe in den Bereich von mehreren 10.000MW zu kommen, brauchen wir nicht nur einen, sondern mehrere Schritte zum Hochskalieren und das dauert mehrere Jahrzehnte, zumal wir ja auch die Kosten dafür irgendwie verteilen müssen. Es rächt sich, dass wir 15 Jahre nichts getan haben.

Was müsste jetzt getan werden?

Wir reden inzwischen bei Phasen mit Überspeisung regenerativer Energien über hunderte Gigawattstunden. Die Big Batterie der LEAG wird 0,05 Gigawattstunden bringen, das macht die Dimensionen des regenerativen
Überschusses deutlich. Batterien werden in Zukunft zwar mehr im Netz auftauchen, aber als Elemente, über die man schnelle Regelleistung bereitstellen kann, um einem kritischen Frequenzabfall oder –anstieg in wenigen Minuten entgegenzuwirken. Bei einer mehrtägigen Überspeisung
der Netze, so wie wir es schon heute in Ostdeutschland im Winter teils mehrfach in der Woche haben, können wir nur abregeln, oder wir müssten diese Überschüsse in Wasserstoff umwandeln und als grünes Gas ins Gasnetz einspeisen. Das ist für Deutschland m.E. die einzige Option, den massiven EE-Überschuss zu verstetigen und nachhaltig zu nutzen. Das ist aber ein weiter, sehr weiter und auch teurer Weg.

Was kann bis dahin Kohle und Atom ersetzen?

Wenn wir auf Kohle und Atom verzichten, bleibt nur Gas als Ersatz für gesicherte Leistung.Auch hier lügen wir uns seit Jahren in die Tasche. Wir betrachten die CO2-Emissionen nur im Wandlungsprozess vor Ort, in diesem Fall ist Gas deutlich günstiger als Kohle. Das ist zwar statistisch korrekt,
aber CO2 ist nun mal ein globales Problem. Wenn die tatsächlichen CO2-Emissionen durch Erzeugung und Transport mitbetrachtet werden, dann nimmt das bei Braunkohle aufgrund des geringen Abstandes zwischen Tagebau und Kraftwerk nur wenig zu, Steinkohle geht deutlich nach
oben, da viel Steinkohle für unsere Kraftwerke heute aus Australien kommt und bei Gas explodieren die Emissionswerte geradezu. Es gibt Gasfelder wie das amerikanische Schiefergas samt Transport nach Deutschland, bei dem die Gesamtemissionen dann weit über der Braunkohle liegen. Denken wir aber tatsächlich über globalen Klimaschutz nach, sind diese Gesamtemissionen
der entscheidende Wert.

Wenn wir über Klimaschutz reden, dann leistet
Gas als einziger möglicher Lückenfüller für Atom und Kohle also wenig Beitrag?

Klimaschutz ist ein globales Thema. Da hilft es nicht, wenn wir nur den Wandlungsprozess in Deutschland betrachten. Wir müssen die regenerativen Überschüsse umwandeln, das ist der einzig richtige Weg. Der Netzentwicklungsplan 2030 sieht 200 GW Wind und PV vor, die uns das Netz gigantisch belasten werden. Diese Überschüsse müssen ins Gasnetz. Der notwendige Prozess der Elektrolyse ist aber immens teuer und müsste dringend vorangetrieben werden, anstelle riesige Summen in die Verkabelung
der großen Nord-Süd Leitungstrassen zu stecken – nur mit dem Effekt, dass
man die Leitung dann nicht mehr sieht. Alles in allem sind wir in Deutschland dabei leider ohne Konzept.

 

Entspricht das inzwischen oft beschworene Szenario eines Blackouts einem realen Problem?

Nach Köpenick muss man den Begriff Blackout leider oft klarstellen. Es handelt sich dabei um eine lang anhaltende und großflächige Versorgungsunterbrechung. Das entspricht mehreren Tagen auf einer Fläche von mehreren hundert Quadratkilometern. Köpenick war eine zwar unschöne,
aber lokal und auch zeitlich noch sehr begrenzte Versorgungsunterbrechung.
Über die „Blaulichtorganisationen“ konnte man das locker von außen versorgen. Zur Notversorgung eines Stromausfalles im gesamten Berliner Stadtgebiet müsste das Technische Hilfswerk vermutlich alle in Deutschland verfügbaren Ressourcen zusammenziehen – und wenn die Fläche noch größer wird, dann wird es richtig hart. Insgesamt betreiben wir das Stromnetz in den letzten Jahren immer stärker am Limit. Anfang der 2000er-Jahre gab es zwei größere Blackouts (Italien bzw. Teile Westeuropas), weil der neu eingeführte Stromhandel über das europäische Verbundnetz und die physikalischen
Randbedingungen für den Netzbetrieb plötzlich nicht zusammenpassten.
Auch im Winter 2011 auf 2012 war das Gleichgewicht zwischen Verbrauch und Erzeugung empfindlich gestört, als es durch den Konflikt zwischen Russland und der Ukraine zur verminderten Gasdurchleitung und damit einem Gasmangel in Süddeutschland kam. Wir waren kurz vor dem kritischen Punkt der Unterfrequenz, bei dem dann alle verfügbaren Kraftwerksreserven ans Netz gebracht werden und bereits erste große Verbraucher abgeschaltet werden, um ein weiteres Absinken der Frequenz zu verhindern, das ungebremst nach sehr kurzer Zeit zu einem Netzzusammenbruch führen
kann. Es gab helle Aufregung in der Politik, daraufhin wurde eine Regelung zur Abschaltung energieintensiver Industrie im Falle besonderer Herausforderungen geschaffen. Allein in 2018 wurden Teile der Aluminiumindustrie über diese Maßnahme 78 Mal abgeschaltet. Das waren
zwar keine Katastrophenszenarien, aber man hat in diesen Zeiten gemerkt, dass die Regelleistung nicht mehr ausreicht und der Markt die Lücke nicht schließen kann. Zum vergangenen Jahreswechsel gab es auch eine plötzlich auftretende Unterdeckung von 6 GW, die man ausgleichen konnte, weil die Kraftwerke nicht auf Höchstlast waren. Am 10. Januar gab es eine Situation, in der die Frequenz in wenigen Minuten, quasi aus dem Nichts, bis auf 49,8 Hertz abgesunken ist. 14 Tage später gab es das gleiche Phänomen in die
andere Richtung. Bis heute weiß in diesen Fällen niemand, worin genau die Ursachen lagen. Der Netzbetrieb in Europa ist durch die beliebige Ein- und Ausspeisung hochgradig wacklig geworden. Das wird weiter zunehmen.

Im Kommissionsbericht steht, dass auch die Nachbarländer aus der Kohle aussteigen, ist ganz Europa auf dem Holzweg?

Die Nachbarn weniger. Um einen deutlichen Vergleich zu bedienen, schauen wir mal etwas weiter nach China. Dort gibt es auch viel Kohle und eine ähnliche EEGQuote wie in Deutschland. Es gibt aber einen wesentlichen Unterschied. Dreiviertel von Chinas EEG-Quote entstammen sicherer
Wasserkraft und nur ein Viertel Wind und PV. Bei uns sind es 90 % Wind und PV. Andere Länder haben einen anderen Mix, Deutschlands Weg folgt niemand.

Ist einmal durchgerechnet worden, was die
Energiewende kostet?

Was immer man rechnet, es gibt einfach zu viele Unklarheiten und aktuell läuft man bei der Energiewende in Deutschland Lemmingen gleich einer Religion hinterher. Die Politik wird die Physik erst akzeptieren, wenn 2022 eine Situation eintritt, in der der Markt nicht liefern kann. Man sagt da immer schnell, dass so ein größerer Blackout vielleicht auch „heilsam“ wäre, man darf aber nicht vergessen, dass ein großflächiger und langanhaltender Blackout
in Deutschland unvorstellbar schlimm werden würde. Der Bundestag hat hierzu mal 2011 eine große Studie in Auftrag gegeben, die man auch mit etwas Suchen herunterladen kann. Dort wurde alles zumindest für den ersten Tag des Blackouts sehr detailliert untersucht – und wer das gelesen hat, möchte das nicht erleben.

Warum gibt es keinen Aufstand aus der Wissenschaft?

Das Thema ist zu komplex für die heutige Medienlandschaft, es fehlt in unserem Land
der Resonanzboden. Große Teile der Gesellschaft sind darauf eingeschworen, die Welt zu retten, auch wenn unser Anteil an den globalen Emissionen nur 2,7 % beträgt.

Was würden Sie vorschlagen?

Im Abschlussbericht der Kommission sind Jahreszahlen für ein Monitoring festgelegt worden. Man müsste allerdings definieren, wie man genau ein Monitoring ansetzt, um die Sicherheit der Stromversorgung im Allgemeinen
und der Netze im Besonderen zu bewerten. Bei der Stromversorgung ist
das m.E. die gesicherte Kraftwerksleistung und bei den Netzen z.B. die Eingriffe nach §13 und 14 EnWG, da diese dann aktiviert werden, wenn eine Überlastung der Netze durch regenerative Überspeisung verhindert werden muss. Dazu braucht es eine Kommission, in der tatsächlich Experten zur Versorgungssicherheit zusammenkommen. Die bisherige WSB-Kommission ist dafür fachlich nicht qualifiziert. Ich habe aber wenig Hoffnung für ein Umdenken. Über das Lockmittel „Strukturhilfen“ wird das Thema „Versorgungssicherheit“ völlig ausgeblendet.

Eine große Bedeutung misst der Bericht der Kommission der Lausitzer Hochschullandschaft als Motor des Strukturwandels bei. Teilen Sie diese Ansicht?

Hier sollen die neuen Institute Impulse liefern. Das Fraunhofer und das DLR-Institut werden wohl bis Ende 2019 formal vor Ort sein und dann in zwei bis
drei Jahren hochfahren. Wir können da sicher sehr gut kooperieren. In drei Jahren sollte die Mannschaft pro Institut um die 50 Personen betragen. Mit Blick auf den WSB-Bericht geht es sicher darum, wie eine Hochschule Arbeitsplätze in der Industrie induzieren kann. Bis aus einer Idee eine Fertigung wird, das dauert. Ernsthaften Ersatz für Industriearbeitsplätze
in Größenordnungen allein aus der Hochschule heraus sehe ich als unrealistisch. Da brauchen wir Investoren, für die eine Hochschule, die Ideen und gut qualifizierte Absolventen liefert zwar ein positives Add-on ist. Entscheidungen zu Investitionen in neue Fertigungsstandorte in der Lausitz werden aber nach anderen Kriterien gefällt.

Dennoch erhält die BTU mit den Instituten Rückenwind, gibt es derzeit eine Aufbruchstimmung?

Wir müssen erst einmal schauen, was konkret hinter den neuen Einrichtungen steckt. Fraunhofer muss später Drittmittel einwerben und eigenes Geld verdienen. Da muss man schauen, ob sie in Konkurrenz zu Aktivitäten bestehender BTU-Lehrstühle arbeiten. Da die beiden neuen Institute in
den Bereich der thermischen Energietechnik gehen wollen, können die BTU-Lehrstühle der elektrischen Energietechnik hier sehr gut anknüpfen, der gerade in der Wiederbesetzung befindliche Lehrstuhl für Thermische Energietechnik an der BTU ist allerdings im gleichen Feld wie die neuen
Institute aktiv. Hier kann es zu Überschneidungen kommen.

Sehen Sie die BTU für eine Begleitung des Lausitzer Wandels gut aufgestellt?

Wir haben einen extrem geringen Wert bei wissenschaftlichen Mitarbeitern. Die RWTH Aachen hat meinen Bereich „Energieverteilung und Hochspannungstechnik“ z.B. in zwei Institute mit je sechs wissenschaftlichen und von der Uni bezahlten Mitarbeitern aufgesplittet. Diesen zwölf Wissenschaftlern im Mittelbau stehen bei mir zwei gegenüber, wir reden
also über ein Verhältnis 1:6! Daran merkt man, welchen Vorteil das Rheinische Revier beim Strukturwandel mit der RWTH Aachen gegenüber dem Lausitzer Revier auch in diesem Bereich hat. Wir haben mangels Manpower nicht die Option, viele Anträge vorzubereiten. Gemeinsam mit DRL und Fraunhofer sind Lösungen denkbar, aber auch hier wird es mit dem schmalen Mittelbau schwer.

Welchem Projekt Ihres Lehrstuhls trauen Sie für den Strukturwandel den größten Effekt zu?

Es gibt viele spannende Themen, am Ende geht es aber schlicht darum, für welche wir Geld erhalten. Deshalb machen wir aktuell viel zur Netzintegration Erneuerbarer Energien und Elektromobilität. Ein weiteres Thema ist der BTU Smart Campus. Aber was kann ein Lehrstuhl mit zwei wissenschaftlichen Mitarbeitern für die Lausitz bewegen? Es wäre sicher sinnvoll, den Power System Simulator an meinem Lehrstuhl mit dem LEAG-Kraftwerkstrainer
zu verknüpfen, um so ein singuläres Kompetenzzentrum aufzubauen. Dazu braucht es aber Geld, Zeit und Personal – oder einen externen Partner, der in das Projekt mit einsteigt.

Was müsste sich an der BTU verändern?

Das neue Fraunhofer bzw. DLR-Institut haben je einen Umfang von 50 Mitarbeitern. Dem steht bei uns ein Professor mit zwei wissenschaftlichen Mitarbeitern gegenüber. Viele Planstellen für den wissenschaftlichen
Mittelbau sind hier verschwunden und irgendwo im Stab der Hochschulleitung gelandet. Wenn nun alle oben koordinieren und unten keiner mehr zum Arbeiten da ist, wird das problematisch. Fraunhofer und DLR
marschieren mit 100 Planstellen in einen Bereich, in dem die BTU aktuell zwei Professoren mit jeweils zwei Mitarbeitern einsetzt.

Wir danken für das Gespräch.

EIKE dankt dem Reviertransfer für die Genehmigung, seinen Beitrag ungekürzt auch in unseren News zu bringen.




rbb, Klima, Extremwetter und Relotiusdorfsäue

Gegenstand unserer Kritik ist eine aufwendig gemachte Publikation (hier) des rbb mit dem Titel

„Klimawandel: Das erwartet Berlin und Brandenburg bis 2100“

und weiter

„Hitze, Dürre, extreme Regenfälle: Das Klima in Berlin und Brandenburg hat sich bereits deutlich geändert. rbb|24 zeigt jetzt in einer Datenauswertung, welche drastischen Folgen in Zukunft auf uns zukommen könnten – dass Klimaschutz aber noch helfen kann“.

Vom rbb werden also Daten bemüht. Das ist immer gut. Ein Pluspunkt für den rbb. Leider wird er der einzige bleiben. Aber Immerhin, endlich Daten beim rbb, oder doch wieder nur Phantasiegeschichten?

Die Brandenburg/Berlin Temperaturreihe als Beleg, ja wofür eigentlich?

Leider ist es mit Daten aber so eine Sache. Man sollte den Hintergrund der Daten kennen, und man sollte die Daten auch verstehen. Erst dann kann man sie ordentlich interpretieren. Wie hätten die rbb-Journalisten eigentlich erfolgreich vorgehen müssen?

Die Temperaturdaten sind im Wesentlichen die des Deutschen Wetterdienstes DWD. Man erhält die Temperaturen von Brandenburg/Berlin hier. Links unten auf „Tabelle“ klicken und schon hat man die jahresgemittelten Temperatur-Anomalien von Brandenburg/Berlin von 1881 bis 2018. Anomalie mag vielleicht jemand fragen: Ganz einfach, es werden die Abweichungen vom Mittelwert der gemessenen Temperaturreihe über den gesamten Zeitraum genommen. Das Ganze, in ein Diagramm gebracht, sieht dann so aus:

Bild 1: Temperaturanomalien von Brandenburg/Berlin von 1881 bis 2018

Klimakatastrophe? Eigentlich nicht zu erkennen. Vielleicht sollte man eine Regressionsgerade durchlegen (hier), um zu sehen, ob sich in den fast 140 Jahren doch etwas getan hat. Das ist dann Bild 2:

Bild 2: Jetzt mit Regressionsgerade

Tatsächlich, die Temperatur ist angestiegen, um 1,5 °C in 140 Jahren. Hmmm, wie war das nochmal, Brandenburg 2,5 Mio. Einwohner, Berlin 3,6 Mio. Wieviel von diesem Anstieg geht wohl auf das Konto der vielen Berliner Messtationen zurück, die das Heizen und Autofahren von 3,6 Mio. Berlinern mitmessen, die übrigen Städte Brandenburgs nicht zu vergessen? Zwischen 1881 und 2018 ist in dieser Beziehung sicher einiges pasiert. UHI wird der Effekt genannt (urban heat island). Na, Schwamm über den UHI, lassen wir erst einmal die schöne Erwärmung den Klimawarnern und schauen wir noch einmal genauer hin. Wie war das eigentlich beispielsweise in den 65 Jahren von 1920 bis 1985? Tragen wir doch auch für diesen Zeitraum einmal die Regressionsgerade ein (s. Bild 3)!

Bild 3: Jetzt mit der Regressionsgerade von 1920 bis 1985.

Versetzen wir uns nun in das Jahr 1985. Glücklicherweise wurden hier die Bewohner Brandenburgs/Berlins, als die Fortsetzung der Reihe noch in unbekannter Zukunft lag, journalistisch nicht mit einer neuen Eiszeit geängstigt. Hat damals noch niemanden interessiert. Was lernen wir daraus? Keep cool und traue keinem Journalisten, der vom Weltuntergang faselt.

Für die verantwortlichen rbb-Redakteure und Medien-Intendanten nun zum mitschreiben:

a) Nach Ende der kleinen Eiszeit (LIA) wurde es naturgemäß wieder wärmer. Denn diese Kaltzeit, die von etwa Mitte des 15. Jahrhunderts bis ins 19. Jahrhundert hinein dauerte, war die kälteste Periode der letzten 9000 Jahre. Der Wiederanstieg nach der LIA spiegelt sich wohl ein wenig auch in der Temperaturkurve von Brandenburg/Berlin wieder, wobei noch der schon erwähnte UHI-Effekt hinzukommt. Ob das anthropogene CO2 in jüngster Zeit eine Rolle spielt, weiß niemand zu sagen.

b) Die Temperaturen der Erde über 9000 Jahre nach Ende der letzten Eiszeit sind bekannt, so z.B. die römische und mittelalterliche Warmzeit als gut belegte globale Ereignisse [1]. In diesen Warmzeiten lagen die Temperaturen zum Teil höher als heute. Deutlich wärmer freilich waren die beiden sehr langen Holozän-Warmzeiten etwa 4500 und 6500 vor unserer Zeit (s. Bild 4).

Bild 4: Nordhemisphärische Temperaturen ab Ende der letzten Eiszeit (Bildquelle: Prof. Dr. H. Kehl, dort finden sich auch die Originalquellen zur Bilderstellung)

Die Temperaturen der letzten 200 Jahre liegen weit innerhalb dieser historischen Temperaturschwankungen und sind daher mit hoher Wahrscheinlichkeit natürlich. Um auch die Fakten zu den jüngsten Temperaturen zu erfahren, sieht man sich am besten die Satellitendaten an (hier).

c) Nicht nur die Temperaturen selber, sondern auch ihre Änderungsgeschwindigkeiten waren in Zeiten vor der Industrialisierung oft stärker. Es existiert sogar eine Thermometerreihe, die dies für die letzten 350 Jahre belegt, die berühmte mittelenglische Reihe (CET), die 1659 beginnt [2] und bis heute reicht (hier). In Ihr findet man zum Beispiel einen 50-jährigen Temperaturanstieg von 1687 bis 1727 von knapp 2 °C. Das schnellste, was es über 50 Jahre in Zeiten der Industrialisierung gibt, liegt dagegen nur knapp über 1 °C. Ähnliches gilt auch für 30-Jahres-Anstiege in der CET.

Fazit: die Brandenburg/Berlin-Temperaturreihe ab 1881 als Beleg für eine gefährliche globale Erwärmung heranzuziehen ist mehr als fragwürdig, um den harten Ausdruck Schwachsinn zu vermeiden. Es belegt eigentlich nur den Unwillen der verantwortlichen rbb-Redakteure, sich ordentlich zu informieren.

„Klimawandel in vollem Gange, Zunahme von Wetterextremen“?

Klimawandel findet statt, seit die Erde existiert, konstantes Klima gab es noch nie. Insofern ist das „Klimawandel in vollem Gange“ des rbb völlig richtig. Aber was wollen uns die rbb-Redakteure mit dieser Binsenweisheit sagen? Knüppeldick ist dagegen der Unsinn von zunehmenden Wetterextremen. Diese Behauptung, zu der nicht nur vom rbb auch gerne das angebliche Absaufen von Pazifik-Inseln hinzugefügt wird, gehört inzwischen zu den unverzichtbaren und beliebtesten Dorfsäuen des Relotius.

Hier drängt sich nun die Frage auf „Ist den rbb-Redakteuren eigentlich das IPCC bekannt“? Scheint nicht so zu sein. Falls doch, sollten sie wenigstens auch die wissenschaftlichen Berichte dieser Institution kennen – gaa…aanz oberflächlich reicht schon aus – bitte nicht die politischen IPCC-Berichte, um keine Missverständnisse aufkommen zu lassen. Die kann man getrost vergessen, weil sie mehr „Relotius“ sind. Offenbar ist es mit den Kenntnissen der rbb-Redakteure über die wissenschaftlichen Berichte des IPCC nicht gut bestellt. Daher jetzt wieder zum mitschreiben, liebe Damen und Herrender  rbb-Redaktion:

d) Der IPCC-Bericht AR5, Kapitel 2.6 des Jahres 2013 beschäftigt sich extrem sorgfältig und in epischer Breite mit der Frage, ob Extremwetter wie Tornados, Dürren, Überschwemmungen, Starkregen usw. zugenommen hätten (hier und speziell Kapitel 2.6 zum herunterladen hier). Startjahr der IPCC-Untersuchung ist 1950, denn ab diesem Zeitpunkt gibt es ausreichend viele Daten für gute Statistiken.

Um es kurz zu machen: Das IPCC findet NICHTS, keine Zunahme, weder an Stärke noch an Anzahl. Auch das Umweltbundesamt berichtet nicht anders, hier nur für Deutschland (hier). Wer nun mit der Dürre des letzen Sommers oder mit einer starken Hurrikan-Saison in den USA argumentiert, hat den Unterschied von Wetter und Klima nicht begriffen. Natürlich gibt es immer wieder gefährliche Wetterextreme, davor und danach ist es ruhig. Ein hübscher  Meteorologenspruch sagt dazu „das Gewöhnliche am Wetter ist seine Ungewöhnlichkeit“. Deswegen werden wir unvermeidbar auch immer wieder Dürren, Überschwemmungen und Stürme erleben, ganz ungewöhnliche/gewöhnliche, versteht sich. Mit echten Klimaänderungen hat dies aber nichts zu tun!

Tatsächlich geht es dem IPCC und in dem hier behandelten Thema „Extremwetter in Berlin/Brandenburg“ nicht um zeitlich begrenzte Wetterereignisse, sondern um Entwicklungen in Klimazeiträumen. Diese müssen mindestens 30 Jahre Wetterdaten enthalten – so ist es von der Weltmeteorologieorganisation (WMO) definiert. Um den Lesern das Herunterladen von schlappen 35 MB des Kapitel 2.6 im AR5 zu ersparen, im Anhang „aus Kapitel 2.6 des AR5 IPCC über Extremwetter“ die wichtigsten Zusammenfassungen des IPCC im Original.

Eine Empfehlung noch nebenbei: Wenn Sie in der Nähe eines großen Flusses wohnen, dann schauen Sie sich doch einmal dort die oft noch vorhandenen, gut erhaltenen historischen Hochwassermarken an. Wann kamen die stärksten Hochwasser vor? Wird jetzt nicht verraten, selber nachsehen. Nur für diejenigen ohne großen Fluss in der Nähe die Antwort (hier), die anderen bitte nicht spicken. Im Übrigen deutet viel darauf hin, dass insbesondere in Kaltzeiten Extremwetter stärker als in Warmzeiten auftraten (hier und hier).

Schlussendlich noch eine Anmerkung. Wenn wieder einmal ein tropischer Wirbelsturm ein küstennahes philippinisches Dorf weggeblasen hat und dies die Medien dem „Klimawandel“ anlasten, ist Folgendes zu bedenken: vor 50 Jahren gab es dieses Dorf noch gar nicht, dort war nur Urwald. Der Autor konnte es in einem Fall  selber nachvollziehen, denn vor mehr als 40 Jahren hat er den Nordteil der Philippinen (Luzon) über längere Zeit durchstreift. Die Zahl der Menschen haben  sich hier inzwischen wohl mehr als verdoppelt. Zudem wird heute jeder große tropische Wirbelsturm weltweit bis in die letzte Wohnstube im TV übertragen.

Für die Zukunft errechnete Jahresmitteltemperaturen des rbb

Vorhersagen sind schwierig, besonders wenn sie die Zukunft betreffen (Zitat W. Heisenberg). Woher kommt der Vorhersageunsinn des rbb eigentlich? Klar, aus Klimamodellen. Das sind diese Computerrechnungen, die einst den bekannten Modellierer Mojib Latif zu der Aussage verführten „In Deutschland gehören klirrend kalte Winter der Vergangenheit an: „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“ (hier). Nun ist es bekanntlich so: Mit Klimamodellen kann man höchstens einigen ganz wenigen Details des unendlich komplexen Klimasystems näherkommen, das ist auch schon alles. Auch das wird vom IPCC bestätigt, langfrsitige Klimavorhersagen sind prinzipiell nicht möglich (hier). Könnte ja vielleicht der eine oder andere deutsche Redakteur auch mal zur Kenntnis nehmen. Aber natürlich: wenn man in ein Klimamodell den CO2-Anstieg hineinsteckt, erhält man einen Temperaturanstieg. Solch ein Ergebnis politisch zu instrumentalisieren ist unredlich, und die Aussage ist wissenschaftlich wertlos. Hier finden Sie ausreichend Information über die „Qualität“ von Klimamodellen.

Trauriges Fazit zum rbb-Jornalismus

Die einschlägigen Journalisten im rbb können einem im Grunde nur leid tun. Wir hoffen zwar auf Besserung, glauben aber nicht mehr daran. Auch dieser Beitrag wird die gleiche Wirkung beim rbb entfalten, wie sie der Lateinlehrer des Autors bei gewissen Mitschülern zu beklagen pflegte „Euch etwas beizubringen ist, wie wenn man einem Ochsen ins Horn fetzt“.

 

Quellen

[1] S. Lüning et al., Warming and Cooling: The Medieval ClimateAnomaly in Africa and Arabia, AGU (2017). „S. Lüning, M. Galka, F. Vahrenholt“ in Google Scholar eingeben, dann lässt sich der Artikel frei herunterladen.

[2] Großherzog von Toscana, ließ 1654 das erste Thermometer herstellen, das die Ausdehnung von Alkohol in einem geschlossenen Glasrohr ausnutzte (hier).

 

Anhang – aus Kapitel 2.6 des AR5 IPCC über Extremwetter

Tropische Stürme und Hurrikane [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]:No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”

TropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Dürren [IPCC 2013, AR5, WGI, Technical Summery, Seite 50]: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”

sowie in [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 215]:In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”

Überflutungen [IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”

Hagel und Gewitter [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 216]: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”

Und schließlich fasst IPCC zusammen [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 219]: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

Es ist bemerkenswert, dass alle diese Zitate und Aussagen in der 28-seitigen deutschen Fassung des Summary for policymakers fehlen! Liegt daran, dass bei denen die Regierungen mtschreiben dürfen. Alle wissenschaftlichen und damit allein maßgebenden IPCC-Aussagen sind dagegen absolut klar: Extremwetterzunahmen im jüngsten Klimazeitraum sind nicht auffindbar von den Wetterdiensten. Der Vollständigkeit halber fügen wir noch hinzu, dass sich die entwarnenden IPCC-Aussagen mit denen der Fachwissenschaft decken. Hier empfehlen wir insbesondere das Buch von Krauss und Ebel: Risiko Wetter. Professor H. Kraus war weltweit anerkannter Ordinarius für Meteorologie an der Universität Bonn.

 




Hans von Storch bald EIKE-Mitglied?

Das SPIEGEL-Interview in der Ausgabe Nr. 15 vom 6.4.2019 lässt staunen. Nicht, weil sich v. Storch untreu wurde. Nein, er teilt wieder mächtig aus. Ungewohnt sind seine neuen Statements, die sich erstaunlich festlegen. So etwas Forsches gegen den Mainstream kannte man früher nicht von ihm. Es war es unmöglich ihn einer Seite zuordnen – weder den Klimaskeptikern, noch den Klima-Alarmisten. Das scheint sich jetzt zu ändern. Nach der Pensionierung (v. Storch ist jetzt 69) schwinden bei Professoren oft völlig überraschend die Rücksichten auf …. hmmm, mal überlegen .. sagen wir „Gegebenheiten“. Woran das wohl liegen mag?

So bezeichnet v. Storch die Festlegungen des IPCC, eine Verdoppelung des CO2-Gehalts der Atmosphäre würde zu einer globalen Erwärmung von drei Grad führen, als „vollkommener Käse, selbst heute steht noch nicht fest, wie hoch genau der Temperaturunterschied ausfallen wird„. Weiter spricht er in Sachen Unsicherheiten von „Unterhaltungsliteratur mit den Guten und den Bösen in den Hauptrollen und ausschließlich aus der amerikanischen Perspektive erzählt„.  Von alarmistischen Prophezeiungen und Schuleschwänzen für Klimaschutz hält er auch nichts. Aber ganz besonders lässt er an seinen alarmistischen Kollegen, die als Wahrheitsverkünder auftreten, kein gutes Haar: „Die meisten guten Wissenschaftler sind per se Fachidioten und hätten in der Politik nichts zu suchen„, so von Storch.

Gut gebrüllt Löwe! Alle in der EIKE-Redaktion waren begeistert. Der Verantwortliche hatte schon das EIKE-Eintrittsformular in der Hand, und schrieb gerade die Adresse des großen Mannes aus dem kühlen Norden auf den Briefumschlag. Da bereitete ein besonnener Redakteur der Aufregung ein jähes Ende:

Liebe Leute lest doch mal bitte genauer das Interview, der Mann kennt ja nicht einmal die Fachliteratur„. Plötzlich Totenstille. „Wie kommst Du denn darauf, schließlich hat er doch zusammen mit F.W. Zwiers das schöne Buch „Statistcal Analysis in Climate Research“ geschrieben, steht bei mir im Regal„, wandte schüchtern jemand ein. „Klar, aber v. Storch behauptet, die Erwärmung des menschgemachten CO2 würde erst durch verstärkte Rückkoppelung mit dem Wasserdampf richtig kräftig werden„. Und dann versteigt er sich noch auf die Aussage „entscheidend war der Nachweis, dass die beobachtete Erwärmung sich wohl nicht mehr durch natürliche Klimaschwankungen erklären lässt„.

Das saß! Betroffen wurde allen klar, dass sie vor lauter Begeisterung die wichtigsten Aussagen im SPIEGEL-Interview glatt überlesen hatten – die Verhaltenspsychologie kennt das. Alle ließen traurig ihre Köpfe hängen, sie hatten sich schon so sehr auf den neuen  streitbaren Mann in ihrer Mitte gefreut. Tja, recht hatte der besonnene Kollege: Der Wasserdampfverstärkung – im Klartext der Schwanz (das CO2) wedelt mit dem Hund (dem Wasserdampf) – widerspricht die weit überwiegende Zahl einschlägiger Fachveröffentlichungen. Stellvertretend zu nennen wäre das Fehlen des von den „Wasserdampf-Rückkopplern“ unabdingbar geforderten „Hot Spots“, eine gute Zusammenstellung zum Thema (hier). Insbesondere ist auch die Fachpublikation von Paltridge et al. über die atmosphärische Feuchte in den letzten Jahrzehnten zu nennen (hier).

Und der von v. Storch behauptete Nachweis der Unerklärbarkeit einer Erwärmung, die weit innerhalb der natürlichen Temperaturschwankungen seit Ende der letzten Eiszeit liegt, ist ja nun schon fast peinlich. Alle Proxy-Zeitreihen von Temperaturen zeigen oft weit höhere Werte und insbesondere auch höhere Änderungsgeschwindigkeiten vor Beginn der Industrialisierung als danach. Von Storch sollte zumindest die berühmte mittelenglische Themometer-Reihe (CET) kennen. Die beginnt 1659 und zeigt in den 50 Jahren von 1687 bis 1737 einen Temperaturanstieg von 1,9 °C. Der stärkste Anstieg über 50 Jahre in jüngster Zeit erfolgte von 1961 bis 2011 und betrug 1,3 °C (jeweils lineare Interpolation). Kann er auch mit 30 Jahren Anstiegszeit machen, es kommt Ähnliches dabei heraus.

Und dann noch die unzähligen begutachteten Fachpublikationen, die den jüngsten Temperaturanstieg (waren gerade einmal 25 Jahre von 1975 bis 2000) aber auch alle anderen Veränderungen seit mehr als 2000 Jahren auf Magnetfeldänderungen der Sonne zurückführen, welche das Entstehen von Wolken triggern? Die will v. Storch nicht kennen?  Nur ein stellvertretendes Beispiel reicht (hier), weitere Literatur in den references dieser Arbeit. Aber auch Rekonstruktionen wurden veröffentlicht, die ganz ohne CO2 auskommen, stellvertretend (hier). Generell widerspricht die Behauptung, ein wissenschaftliches Rätsel ließe sich nur mit einer einzigen  bevorzugten Erklärung lösen, der grundsätzlichen Falsifizierbarkeit jeder Naturwissenschaft (Karl Popper).

Schade, wir alle hätten natürlich den großen Gelehrten v. Storch gerne in unseren Kreis aufgenommen. Aber allmählich erinnerten wir uns: Gegen unliebsame Kollegen, wie beispielsweise Prof. Vahrenholt, befleißigt sich von Storch eines akademisch-pöbelhaften Benehmens, das früher (heute wohl nicht mehr) im Wissenschaftsbereich unbekannt war. Diskussionsverweigerung gehört nicht in die Wissenschaft. Auf Wikipedia ist ferner zu lesen „Der Klimatologe Hans von Storch, der zwei Tagungen der Klimaskeptiker-Szene in Deutschland besuchte (Anm. es sind zwei EIKE-Konferenzen gemeint), kommentierte die Veranstaltungen mit den Worten „Das Niveau war größtenteils katastrophal“ und „Ein wirkliches Interesse an einer Diskussion war nicht zu erkennen“. Nun, in unseren Besucherlisten taucht von Storch nicht auf. Hat sich wohl Wikipedia aus den Fingern gesogen? Das kennt man inzwischen, wenn’s politisch wird, Wikipedia unbedingt meiden!

Vor Jahren hatte M. Limburg (EIKE-Vizepräsident) mit v. Storch eine Diskussion im Hause der niedersächsischen Landesvertretung. Von Storch behauptete, weil die Modelle ohne CO2 keine Zunahme der Mitteltemperatur zeigten, wohl aber mit CO2, wäre dies der Beweis. Das dies der übliche Zirkelschluss aller einschlägigen Klimamodelle ist, verstand von Storch nicht – Klimamodelle = rubbish in, rubbish out.

Kurz, es ist also noch ein weiter Weg bis zur EIKE-Mitgliedschaft: Faires, höfliches Verhalten auch gegen akademische Meinungsgegner und eine bessere Kenntnis von nicht genehmer Fachliteratur und mit CO2-Anstiegen getunten Klimamodellen. Von Storch wird sich daher wohl weiter an seinem Blog „Klimazwiebel“ ergötzen, dessen ausgewählte Zuträger und Kommentatoren an die ehrerbietigen Postillenverfasser ehemaliger Höflinge unter Ludwig XIV denken lassen. Man bleibt dort mit pseudophilosophischem Geschwafel, wie „Social science? A must for climate research“ oder „I have an open mind on this“ besser unter sich.

 

 

 




Greta doch nicht dumm wie Schaf?

Die lustige schwedische Göre Greta ist zwar nicht vom Format einer Pipi Langstrumpf, sondern nur eine elterngesteuerte Aktionistin und Vorreiterin von Schülerprotesten für den Klimaschutz. Trotzdem lässt sie völlig überraschend Logisches aus dem Kasten: Zur Problematik, wie man der Klimakrise beikommen könne (wo ist diese Krise eigentlich, ist doch eher zu kalt als zu warm, oder nicht?), nennt sie kühl die „Kernenergie“ (hier). Wow!

Man ist schlicht platt bei so viel unerwarteter Vernunft dieser jungen Dame. Fast alle ihrer jungendlichen Mitläufer und sie selber wissen nämlich nicht, was der Begriff Klima besagt, ob „Klimaschutz“ überhaupt möglich ist, wie die Klimavergangenheit aussah, was CO2 ist, wo und in welcher Konzentration es sich in der Natur befindet….. Aber eines wissen sie ganz genau. Die Kohle muss weg, das Auto muss weg, Fleisch essen ist ganz böse und Kernkraftwerke gehen überhaupt nicht.

Aber eine Empfehlung der teuflischen Technik „Kernenergie“ gegen den „Klimawandel“ jetzt aus dem Munde von Greta? Es verspricht spannend zu werden: Werden sich Gretas Unterstützer, Grüne und diesen nachhechelnde Schleimlinge der CDU/CSU, SPD, FDP und LINKE von ihr enttäuscht abwenden, wird sie gar widerrufen müssen? Oder werden sich Jugendliche plötzlich für die CO2-freie Erzeugung von elektrischer Energie durch Kernenergie begeistern (hey Leute, echt, CO2-frei stimmt)? Wir wissen es nicht und sind gespannt. Wir wollen aber trotzdem unseren lieben Sprösslingen so zwischen 12 und 16 ein paar Gedanken mit auf den Weg geben. Irgendwann könnte es mit dem selber(!) denken ja mal losgehen. Den bisherigen Erfahrungen nach, leider bei den meisten nie.

Also, liebe Jugend: Die böse Autoindustrie, mit deren Steuern auch die Arbeit Eurer berufstätigen Eltern und damit Euer Handy vergütet wird, die gibt es dann nicht mehr. Die nachfolgende, von G.R. Schuster erstellte Tabelle soll Euch einen Vorgeschmack davon geben, was erfolgreiche Demos der CO2-Vermeidung für Euch bringen werden:

 

Und für die Schlaueren unter Euch als Zugabe noch zwei heiße Tips:

1) Nicht jedem glauben, selber denken ist cool. Wer jedem Bekloppten hinterherläuft, sieht sein Leben lang nur Ärsche.

2) Wer wissen will, ob eine Aussage oder Aktion Lüge oder ehrlich ist, sollte sich zuerst die Methoden ihrer Vertreter ansehen (Zitat W. Heisenberg, Nobelpreisträger für Physik). Könnt Ihr ja mal auf die Aktion „Klimaschutz“ anwenden.

Na und nun demonstriert mal schön weiter. Die Cleveren von Euch bleiben im Unterricht und lernen schön weiter, die wollen nämlich mal selber Bill Gates werden anstatt dauernd mit dem Unsinn herumzufummeln, den er verkauft.

 

 

 

 

 




Wird die renommierte Neue Zürcher Zeitung (NZZ) zum Käseblatt?

Der NZZ-Artikel hat den ergänzenden Untertitel „Gefälschte Interviews, denunzierende Videos: Weltweit greifen Klimaskeptiker und Lobbyisten etablierte Wissenschaftler an. Ihr einflussreiches Netzwerk spannt sich auch über die Schweiz“. Verfasst wurde diese Klimaverschwörungs-Schmonzette von den NZZ-Redakteuren Carole Koch und Boas Ruh. Bei so viel internationaler Verschwörung muss man erst einmal Luft holen. Aber danach kommt einem das Ganze doch recht bekannt vor. Ja, richtig: Der NZZ-Artikel ist tatsächlich fast nur eine, auf Schweizer Verhältnisse angepasste, Kopie der früheren Artikel, wie

  • „Wir brauchen keine Klimaforscher“ der Süddeutschen Zeitung vom 31.3.2010 (hier)
  • „Die Gehilfen des Zweifels“ in der ZEIT vom 25.11.2010 (hier)
  • „Die Klimakrieger“ in der ZEIT vom 29.11.2012 (hier)

Die Bausteine all dieser Artikel sind immer die gleichen, die Akteure auch. Auf der einen Seite hehre Lichtgestalten seriöser Klimaforscher (in der NZZ die Schweizer Forscher Reto Knutti und Thomas Stocker), welche die Welt vor dem Erhitzungsuntergang bewahren wollen. Auf der anderen Seite stehen die erzbösen Klima-Leugner aus der dunklen fossilen Ecke, die nichts anderes im Schilde führen, als den Lichtgestalten ans Leder zu gehen.

Um Missverständnisse zu vermeiden: bei den in der NZZ geschilderten Ereignissen, in denen (wenn die NZZ wahrheitsgemäß berichtet) man R. Knutti in fast schon krimineller Weise gefälschte Aussagen und Facebook-Profile unterschob, hört natürlich der Spaß auf. Sie werden vom Autor und allen seriösen Klimarealisten aufs schärfste verurteilt. Unschuldige Waisenknaben sind Knutti und Stocker natürlich auch nicht. Es ist zwar gutes Recht jeden Forschers, seine Ergebnisse der Öffentlichkeit mitzuteilen und Reklame für seine Arbeiten zu machen. Es geht aber nicht an, dass Wissenschaftler darüber hinaus für  fragwürdige Öko-Ideologien werben und ihre Stellung und Bekanntheit gleichsam als politische Wissenschafts-Advokaten einsetzen.

Und genau dies tun diese beiden Schweizer Forscher, ebenso wie es ihre deutschen Kollegen Hans-Joachim Schellnhhuber, Stefan Rahmstorf und Mojib Latif tun.  Wissenschafts-Advokaten haben stets der Wissenschaft geschadet. Ohne eine Verbindung mit den heutigen Klima-Vorkommnissen herzustellen, darf in diesem Zusammenhang an den Extremfall der Eugenik des „dritten Reichs“ erinnert werden, die von deutschen Wissenschafts-Advokaten vorangetrieben wurde und zahlreiche Todesopfer forderte.

Gehen wir nun der Reihe nach vor und betrachten den NZZ-Artikel etwas näher. Es soll kurz werden, denn der geballte sachliche Unsinn der beiden NZZ-Redakteure C. Koch und B. Ruh ist nur schwer zu verdauen. Um unsere Kritik hier abzukürzen, wird auf die einschlägigen Stellen der schriftlichen Stellungnahme des Autors in seiner Bundestagsanhörung verwiesen (hier), welche bereits fast alles Nötige an Kommentaren zum NZZ-Artikel enthält. Der maßgebende Teil dieser Stellungnahme ab Kapitel 6, der geeignet ist, die eigentlichen Motive von Advokaten in der Klimawissenschaft zu beleuchten, findet sich im hier vorliegenden Text noch einmal direkt unter „Die große Transformation“. Der verbale Teil der Stellungnahme des Autors hat ein Kurzvideo unbekannter Autoren festgehalten (hier).  Schlussendlich sei auch auf die Webseite  des Autors selber verwiesen (hier).

Die NZZ-Causa

Die NZZ-Causa „IPCC: Nach der überschwänglichen Belobigung von R. Knutti und T. Stocker bemüht die NZZ auch noch eine Eloge über das Intergovernmental Panel on Climate Change (IPCC). Die NZZ schreibt „Auf sie (Anm. die dem IPCC zuarbeitenden Forscher) verlassen sich die Regierungen der Welt“. Das ist natürlich sachlich falsch, denn neben den USA verlassen sich insbesondere die bevölkerungsreichsten Länder dieser Erde, wie China, Indien oder Brasilien keineswegs auf das IPCC. Diese Institution ist ihnen herzlich schnuppe. Eine nüchtern-neutrale Sicht auf das IPCC findet sich in Abschnitt 5.2, S. 16 der Stellungnahme (hier).

Natürlich schätzt auch der Autor viele Beiträge des IPCC. Insbesondere bietet das IPCC eine beispielhafte Dokumentation des heutigen Stands der Klimaforschung, die aber nicht vollständig ist, weil sie den wichtigsten Klimatreiber, die Sonne, unzulässig ignoriert und herunterspielt. Solange sich das IPCC als Speerspitze einer fragwürdigen Ideologie versteht, kann diese Organisation nicht als akzeptabel oder gar maßgebend gelten.

Die NZZ-Causa „Paul Bossert“: P. Bossert als ehemaliger Bauingenieur wird von der NZZ als Musterbeispiel für Ignoranz gegen die heilige Klimakirche angeführt. Der Mann muss bei den beiden NZZ-Redakteuren einen empfindlichen Nerv getroffen haben. Welchen wohl? Bossert ist kein Fachmann in Klimafragen. Aber er hat Eigenschaften, die sich infolge des Niedergangs der deutschsprachigen Medien (grün-linker Erziehungsauftrag, anstatt „berichten, was ist“) aktuell immer mehr Zeitgenossen aneignen, nämlich zwischen den Zeilen zu lesen, ein feines Ohr für die Methoden der Klima-Alarmisten zu haben und vor allem, den eigenen gesunden Menschenverstand einzusetzen. Bosserts fachliche Einschätzungen, ob falsch oder richtig, sind hier gar nicht relevant. Er hat den springenden Punkt klar erkannt – nämlich, den Schwindel, der mit der Bevölkerung getrieben wird. Wem der Ausdruck „Schwindel“ zu polemisch vorkommt, informiere sich weiter unten im Kapitel „Die große Transformation“.

Im Übrigen: sind die von der NZZ den Krimarealisten zugeschriebenen Attribute “männlich“ und „pensioniert“ gemäß heutigem Verständnis nicht sogar rassistisch? Der Wert einer Meinungsäußerung hängt nämlich weder vom Geschlecht noch vom Alter ab – sieht man von Kindern ohne fertige Schulausbildung ab. Es ist natürlich durchaus erlaubt, sich über den hohen Prozentsatz an Pensionären unter den Klimarealisten zu wundern. Die Gründe dafür sind freilich leicht erkennbar:

a) Solche Leute haben ein besseres Gespür für politische Entwicklungen auf Grund ihres höheren Alters. Nicht umsonst hatte das Alter in den altgriechischen, römischen und auch heute noch vielen asiatischen Kulturen einen anderen Stellenwert als die moderne uneingeschränkte Priorität der Jugend.

b) Nichtpensionäre können unter den heutigen Umständen keinen Klimarealismus vertreten, ohne berufliche Schädigung zu riskieren. Daher hört man von ihnen wenig.

Die NZZ-Causa „Horst-Joachim Lüdecke“: Die von der NZZ vorgenommene unsinnige Einteilung in die zwei Kategorien „Klimaleugner“ und „Klimaskeptiker“ soll hier besser mit freundlicher Nachsicht übergangen werden. „Klimarealisten“ reicht. Vielmehr erlaubt sich der Autor, von der NZZ als „Klimaleugner“ diffamiert, höflich bei den  beiden Journalisten anzufragen, ob sie sich darüber im Klaren sind, was sie da schreiben, denn es ist eine falsche Tatsachenbehauptung. Der Autor bestreitet nämlich in allen seinen Publikationen weder den Klimawandel, noch den global erwärmenden Einfluss des anthropogenen CO2. Im Übrigen ist ohnehin so gut wie niemand bekannt, der den fortwährenden Klimawandel – seit die Erde besteht – bestreitet. Welchen intellektuellen Umgang pflegen diese beiden Redakteure eigentlich? Der Autor publiziert in begutachteten Klima-Fachjournalen, seine Veröffentlichungsliste findet sich (hier). Er kennt daher die Fachliteratur und erlaubt sich infolgedessen darauf hinzuweisen, dass eindeutige Belege für eine gefährliche globale Erhitzung durch anthropogenes CO2 dort nicht auffindbar sind (Der Wert der sog. Klimasensitivität ist gemäß Fachliteratur praktisch unbekannt). Mehr dazu unter Abschnitt 5 der Stellungnahme (hier).

Vielleicht noch eine Berichtigung zur NZZ-Behauptung „Lüdecke war nie in Heidelberg tätig“ (Anm. die Uni Heidelberg ist gemeint): Das ist falsch, denn er hat in Heidelberg sein Diplom gemacht, promoviert und am MPI für Kernphysik wissenschaftlich gearbeitet. Mit dem Umweltinstitut der Universität Heidelberg hat er – Gott sein Dank –  nichts am Hut.

Die NZZ-Causa „Carnot-Cournot-Netzwerk (CCN)“: Das CCN lud den Autor zu einem Vortrag „Naturgesetzliche Schranken der Energiewende“ ein, der mit Klimafragen nichts zu tun hat. Diesen Vortrag hatte der Autor bereits an der sächsischen Akademie für Wissenschaften in Leipzig gehalten. Eine ausführlichere schriftliche Version des Vortrags erschien sogar in der renommierten  Naturwissenschaftlichen Rundschau Nr. 6, 71. Jahrgang (2018). Der entsprechende Text wurde zudem noch in EIKE veröffentlicht (hier). Dass Kollegen der Universität Basel den Veranstalter Prof. Silvio Borner dieses Vortrags wegen angriffen, darf als Rückkehr zu üblen mittelalterlich-akademischen Umgangsformen bezeichnet werden.

Die NZZ-Causa „Naomi Oreskes: War nicht gerade vom Mittelalter die Rede? So zitiert die NZZ, ohne vor Scham im Boden zu versinken, die abstrusen Ausführungen von N. Oreskes betreffend wissenschaftlicher „Diskussionen“: „Ist das Gegenüber jemand, der alternative Fakten als Fakten präsentiert, hat man verloren“. Und deswegen rät N. Oreskes Wissenschaftler-Advokaten, sich öffentlich nur mit etablierten Forschern zu duellieren. Hierzu zwei Fragen an die NZZ:

a) Gibt es Forscher, die zwar in begutachteten Klima-Journalen publizieren und trotzdem nicht „etabliert“ sind? Falls ja, was versteht dann die NZZ unter „etabliert“?

b)  Wie können Fakten einmal alternativ und dann wieder nicht alternativ sein? Fakten sind Fakten, oder nicht? Gibt es gar zulässige und unzulässige Fakten, sozusagen politisch inkorrekte?

Die NZZ-Causa „97% der Studien bestätigen eine menschgemachte Erderwärmung: Erstaunlich, wie lange sich dieser 97%-Unsinn hält. Die Fakten finden sich in Abschnitt 5.9 der Stellungnahme (hier). Es ist fast erheiternd, wenn jede der bisher bekannten Petitionen und Manifeste gegen die Klima-Hype von den alarmistischen Medien sofort als ungültig diskreditiert wird, wenn sie nicht ausschließlich von Klimawissenschaftlern unterzeichnet wurden. Ist etwa Klimawissenschaft ein Geheimbund, dessen Erkenntnisse und Meinungen unter hermetisch abgeschlossenen Mauern ausgeheckt und dem tumben  Mann oder der tumben Frau von der Straße nur von dazu erkorenen Hohepriestern gereinigt mitgeteilt werden dürfen? Es wäre vielleicht eine hübsche Fleißarbeit für die beiden NZZ-Starjournalisten C. Koch und B. Ruh gewesen, nur einmal die veröffentlichte Signaturliste der jüngsten dieser Petitionen – sie ging an den US-Präsidenten D. Trump (hier) – auf  international renommierte Klimaforscher hin zu überprüfen. Die beiden hätten etwas lernen können.

Früher nannte man solche altmodischen journalistischen Überprüfungen noch Recherche – scheint der NZZ aber zu teuer geworden zu sein. Den stetig fallenden Printauflagen der NZZ wird Rechercheverweigerung allerdings kaum wieder auf die Beine helfen. Auch die Verweigerung der NZZ des „auditur et altera pars“, eigentlich eine Selbstverständlichkeit jeden guten Journalismus, wird der Auflagenstärke nicht wieder auf die Beine helfen. Wie wär’s dagegen mit dem schon bewährten „berichten, was ist“, neutral, gut recherchiert und ohne ideologische Voreingenommenheit?

Die NZZ-Causa „Klimaleugner und insbesondere EIKE = Lobbyisten der fossilen Industrie: Insbesondere die unter Beschuss stehende fossile Industrie, die für unsere Fortbewegung per Auto und Flugzeug sorgt, keine kleinen Kinder frisst und, soweit bekannt, ordentlich ihre Steuern bezahlt, ist aus Imagegründen gezwungen, sich nicht auf Klimarealisten einzulassen. Wehe, wenn herauskäme, dass Esso oder Shell Klimarealisten finanzieren würde! Die Firmen würden öffentlich gesteinigt werden und der Shitstorm alle bislang bekannten Grenzen sprengen. EIKE würde im Übrigen sehr gerne Spenden der fossilen Industrie entgegennehmen, denn EIKE-Veröffentlichungen dürfen gemäß Satzung nicht an Spenden gebunden sein und sind es tatsächlich auch nicht. Leider ist es mit Spenden an EIKE aus der fossilen Ecke aber nichts.

Um hier jetzt keine Unklarheiten zurückzulassen: Selbstverständlich ist EIKE ein Lobbyverein, nämlich einer für die wissenschaftliche Wahrheit, Ehrlichkeit und Unabhängigkeit. Und natürlich ist einiges, was EIKE so gelegentlich veröffentlicht, nicht immer auf die strenge wissenschaftliche Goldwaage zu legen. Wir haben kein Peer Review. EIKE lässt daher gelegentlich auch krude Sondermeinungen durchrutschen und setzt generell auf offene Diskussion. Jeder darf darüber meckern und viele der Kommentaren tun dies auch. So what? Etwas dagegen einzuwenden?

Die NZZ-Causa „Kindesmissbrauch: Die NZZ zitiert R. Knutti „Man darf die Klimajugend nicht als naiv oder weltfremd abtun… Das Anliegen der Jugendlichen sei berechtigt, wir müssen den CO2-Ausstoß auf null reduzieren. Die Fakten sind eindeutig“. Hierzu folgende Fragen, welche die NZZ an R. Knutti und T. Stocker hätte stellen müssen, der Artikel wäre dann interessant und vielleicht sogar richtig gut geworden:

  1. Lieber Herr Knutti: Wussten Sie, dass die Instrumentalisierung Jugendlicher (aktuell das berühmte Schulkind Greta) eine beliebte und bewährte Methode aller bekannten Diktaturen war und ist?
  2. Lieber Herr Knutti: Welche der von Ihnen erwähnten, aber nicht spezifizierten Fakten sind eindeutig, um den CO2 – Ausstoß auf Null zu reduzieren?
  3. Lieber Herr Knutti: Wussten Sie, dass CO2-Reduzierung auf Null das Ende der heutigen technischen Zivilisation bedeutet? Auto, Flugzeug, Heizung, energieintensive Industrieproduktion etc. sind mit Solar- und Windenergie nicht machbar.
  4. Lieber Herr Knutti: Wussten Sie, dass die restliche Welt die Schnapsidee „Null-CO2-Emissionen“ nicht teilt? Im Gegenteil, China, Indien und jetzt auch die afrikanischen Staaten bauen ihre Kohleverbrennung weiter aus und werden sich davon weder durch Schweiz, Deutschland oder EU abbringen lassen.
  5. Lieber Herr Knutti: Ist Ihnen bekannt, wie groß die Minderung einer hypothetischen globalen Erwärmung durch CO2-Vermeidung ist, wenn man die ungünstigsten Annahmen des IPCC zur Erwärmungswirkung des anthropogenen CO2 zugrundelegt? Die Antwort (für Deutschland) findet sich im Abschnitt der Stellungnahme 5.8 (hier).
  6. Lieber Herr Knutti: Wir nehmen jetzt einmal an, Sie kennen die Antwort auf d). Halten Sie dann trotz der absurd schlechten Verhältnismäßigkeit von Nutzen zu CO2-Vermeidungsaufwand immer noch an Ihrer Null-CO2-Emissionsempfehlung fest? Befürworten Sie also, dass für ein Tausendstel Grad globaler Erwärmung weniger bis zum Jahre 2050 die gesamte Schweiz mit Windrädern verspargelt wird? Wenn ja, mit welcher Begründung?
  7. Lieber Herr Knutti: Ist Ihnen bekannt, dass mehr CO2 in der Atmosphäre das Pflanzenwachstum und damit die Erträge der Welternten erhöht und dass der heutige CO2-Gehalt der Atmosphäre in der Erdgeschichte noch nie so tief war wie heute? Ist Ihnen ferner bekannt, dass die Spanne bis zum Versiegen der Photosynthese nicht mehr sehr groß ist? Ist ihnen außerdem bekannt, dass die Menschheit mit der Kohleverbrennung der Atmosphäre nur dasjenige CO2 wieder zurückgibt, welches sie in Urzeiten einmal besaß?
  8. Lieber Herr Knutti: Ist Ihnen bekannt, dass Kernkraftwerke kein CO2 emittieren? Warum plädieren Sie dann logischerweise nicht für den Ausbau der Kernenergie?

Man hätte natürlich noch weitere Punkte des NZZ-Artikels kommentieren können, aber wer hat schon Zeit und Lust, auf so viel geballten sachlichen Unsinn. Daher jetzt zur Frage: Was treibt Wissenschaftler wie Knutti, Stocker, Hansen, Schellnhuber etc. zu ihrem Engagement an? Vielleicht kann dazu der folgende Abschnitt „Die große Transformation“ Antworten beitragen.

 

Die „große Transformation“

Schärfer hinsehende Zeitgenossen haben über die Entwicklung unserer repräsentativen Demokratie hin zu einer ideologischen Ökodiktatur schon lange keine Zweifel mehr (wäre dann die dritte im 20./21. Jahrhundert). Dennoch sind den meisten Mitbürgern das ganze Ausmaß und die Konsequenzen immer noch unbekannt. Der deutsche Ökostaat wurde seit Jahrzehnten vorbereitet und seine Vollendung stetig weiterverfolgt. Inzwischen ist der erste Schritt zur Realität geworden – eine ohne Rücksicht auf Verluste durchgezogene deutsche Energiewende. Kein Land der Welt kopiert sie. Dies darf nicht verwundern, denn die deutsche Energiewende ist ein lupenreines Deindustrialisierungs-Programm. Es wird allein gestützt von der unbewiesenen Behauptung, das globale Klima sei durch konsequente CO2-Vermeidung Deutschlands zu schützen. In der Bevölkerung erhielt es Zuspruch, zumindest anfänglich, als die Folgen noch unbekannt waren. Dies scheint sich langsam zu ändern.

Die Schäden der öffentlich noch kaum bekannten Fortsetzung und Vollendung dieser ersten Wendeaktion, vom wissenschaftlichen Beirat der deutschen Bundesregierung für globale Umweltveränderungen (WBGU) in seinem Hauptgutachten von 2011 als „Große Transformation“ bezeichnet, werden die Schäden der Energiewende noch weit in den Schatten stellen. Die Große Transformation basiert, offen von ihren Vertretern ausgesprochen, auf einer ökologischen und alle Menschen der Welt gleichmachenden Theorie des Umbaus der Menschheitsgesellschaft und einer Herrschaft „weiser“ Experten in einer Art Weltregierung. Sie ist damit totalitär und im Grunde nichts anderes als eine neue kommunistische Internationale mit all den historisch bekannten Zerstörungsfolgen. Wie für den alten Kommunismus muss dazu wieder ein neuer Mensch geformt werden, der sich begeistert für diese Vision gewinnen lässt.

Im alten Kommunismus war es die Utopie, unter der Idee sozialer Gerechtigkeit und Freiheit eine Herrschaft von Gemeineigentum und Kollektiv zu errichten. Das Resultat, nämlich insgesamt mehr als  hundert Millionen Opfer, ist bekannt (hier). Kein kommunistischer Versuch vermochte es, sich seinem eigenen Ideal ohne Unterdrückung, Mord und komplettes Herunterwirtschaften der betroffenen Volkswirtschaften auch nur zu anzunähern. Die Ideologie ist stets an den Gesetzen der Realität zerschellt. Dies verhinderte ersichtlich nicht, dass immer noch ausreichend viele Menschen globalweit vom Kommunismus träumen. Die „große Transformation“ hat dem alten Kommunismus nicht viel Neues hinzugefügt, außer das neue Atout „Klimaschutz“.

Die „Kunst“ gesellschaftlichen Wandels

Einzelheiten des neuen Kommunismus beschreibt mit euphorischem Geschwafel das Buch von Uwe Schneidewind „Die große Transformation: Eine Einführung in die Kunst gesellschaftlichen Wandels“ auf ca. 500 Seiten. Schneidewind ist Präsident des Wuppertaler Instituts für Klima, Umwelt und Energie (hier). Es ist mit der globalen Ökoideologie-Szene bestens vernetzt, deren Verzweigungen und Ausmaß das Literaturverzeichnis des Buchs dokumentiert. Sein Institut genießt sogar Subventionen seitens der deutschen Politik! Es teilt sich mit dem wissenschaftlichen Beirat der deutschen Bundesregierung für globale Umweltveränderungen WBGU (hier) und dem Potsdamer Institut für Klimafolgenforschung PIK (hier) die Schlüsselrollen in der großen Transformation, Öko-Agitation, Wendepolitik und damit der neuen kommunistischen Internationalen.

Beim Lesen des Buchs, aber auch der Schriften des WBGU stellt sich vielen Lesern die Frage, ob es sich um fehlgeleitete Verrückte, visionär getriebene Fanatiker oder eher um kühl rechnende Profiteure handeln mag. Außer der bereits von der deutschen Politik etablierten Energiewende sind nämlich im Buch die folgenden weiteren „Wenden“ zu finden

  • die Konsumwende,
  • die Ressourcenwende,
  • die Mobilitätswende,
  • die Ernährungswende,
  • die Urbane Wende,
  • die Industriewende und schließlich eine
  • „transformative Wissenschaft“ (vulgo Abschaffung der freien Wissenschaft).

Der Weg in die kommunistische Ökodiktatur

Von demokratischer Entscheidung des Bürgers ist im Buch von Schneidewind und den WBGU-Schriften praktisch nie Rede, nur von Überredung, Überzeugung, Glauben, Überwachung, Kontrolle und Pioniere, die alles etablieren sollen. Was davon zu halten ist, hat bereits im Jahre 2011 der Historiker Prof. Wolfgang Wippermann (FU Berlin), in einem Interview des FOCUS „Auf dem direkten Weg in die Klimadiktatur?“, hier betreffend das WBGU, im Wortlaut so formuliert (hier):

Die sprechen sogar von der  „internationalen Allianz von Pionieren des Wandels“. Und das erinnert mich an die faschistische oder kommunistische Internationale. Ob sie da hinwollen, weiß ich nicht. Aber die Sprache ist schon mal schrecklich und das macht mir Angst. Wer so spricht, der handelt auch. Das ist eine negative Utopie, eine Dystopie. Und wenn Utopisten am Werk sind, wird es immer gefährlich.“ und Wippermann weiter: „Wir haben es mit wissenschaftlichen Fanatikern zu tun, die ihre Vorstellungen durchsetzen wollen. Ich wundere mich, dass wir da zum ersten Mal drüber reden und wie wenig das in der Öffentlichkeit bisher beachtet wurde“.

Tatsächlich ist das WBGU vorwiegend an gesellschaftsverändernden Zielen interessiert, kaum an der Umwelt. Dies zeigt insbesondere seine Schrift „Politikpapier, Zeit-gerechte Klimapolitik: Vier Initiativen zur Fairness“ (hier). Stellvertretend einige der höchst fragwürdigen „Empfehlungen“ dieser WBGU – Broschüre im Original:

  • Eine Zero Carbon Mission als übergreifende Kampagne für den Kohleausstieg anstreben.
  • EU – Strukturförderung verstärkt auf Dekarbonisierung
  • Regionale Transformationsinitiativen institutionalisieren und professionell begleiten.
  • Transformative Bildungsinitiative vorantreiben, die über Qualifikation für neue Arbeitsplätze
  • Durch internationale Zusammenarbeit bei der Prozesskostenhilfe den durch Klimawandel Geschädigten effektive Klagemöglichkeiten über Staatsgrenzen hinaus ermöglichen.

Die Akteure der großen Transformation werden im Buch von Schneidewind ähnlich definiert als

  • organisierte Akteure der Gesellschaft
  • organisierte Zivilgesellschaft als Antriebskraft
  • Transformationsbewusste Unternehmer als Gestalter
  • Politik als Gestalter und Weiterentwicklung (Anm. Beendigung) demokratischer Prozesse
  • Wissenschaft mit neuem Gesellschaftsvertrag (Anm. Ende der freien Wissenschaft)
  • Pioniere des Wandels, ermächtigt durch den Dreiklang von Haltung, Wissen und Fähigkeiten

Die Diktion des Buchs von Schneidewind aber auch die des WBGU ist ehemalige „DDR“ pur. Der letztgenannte Punkt „Pioniere“ zielt vor allem auf die junge Generation, so wie im 3. Reich, der DDR, kurz, wie in allen Diktaturen. Jeder Demokrat fragt sich, wo hier eigentlich der deutsche Verfassungsschutz bleibt.

Die Argumente der „großen Transformation“

Die folgenden Argumente führt die große Transformation zu ihrer Rechtfertigung an, mehr gibt es im Wesentlichen nicht:

  1. Der Ressourcenmangel erlaube es nicht, die bisherige Lebensweise von technisch/zivilisatorischem Fortschritt beizubehalten.
  2. Die menschgemachte Änderung des „globalen“ Klimas sei belegt, sehr schädlich und könne nur mit der Klimaschutzmaßnahme der CO2-Vermeidung in noch tolerierbaren Grenzen gehalten werden (1,5 Grad Ziel).
  3. Gerechtigkeit für alle: Zudem soll gleichzeitig mit der Lösung der Punkte 1 und 2 die gesamte Menschheit auf gleiche Lebensbedingungen gebracht werden.

Punkt 3 ist der uralte Traum des Marxismus/Leninismus. Punkt 2 als „Klimaschutz“ steht aktuell im Vordergrund. Dies ist nachvollziehbar, denn angesichts stetig zunehmender Reserven von Erdöl, Erdgas und Kohle – trotz gestiegener Förderung – geraten Warnungen vor Ressourcenmangel (Punk 1) allmählich ins Lächerliche. Man weiß zudem, dass der Club of Rome mit seinen Vorhersagen stets falsch lag (hier). Der menschliche Erfindungsgeist hat alle düsteren Prophezeiungen widerlegt. Historisch stets zuverlässig, erwachte dieser Erfindungsgeist jedes-mal bereits bei Preissteigerungen einer Ressource, also lange vor ihrem hypothetischen Versiegen. Er hat immer neuen und besseren Ersatz gefunden: Von Steinen über Kupfer, Bronze, Eisen bis hin zu Kohle, Erdöl und Uran ging die geschichtliche Reise. Sie wird nie enden.

Uran aus dem Meer erlaubt bereits heute die komplette Energieversorgung von 10 Milliarden Menschen über viele Millionen Jahre mit Brutreaktoren der Generation IV, weil diese praktisch keinen Abfall mehr erzeugen. Solche Reaktortypen laufen bereits als Pilotanlagen in Russland. Vom ebenfalls überreich vorhandenen Kernbrennstoff Thorium aus der Erde ist dabei nicht einmal die Rede. Eine detaillierte Fachquelle dazu bietet das aktuelle Sachbuch von Götz Ruprecht und Horst-Joachim Lüdecke: Kernenergie, der Weg in die Zukunft, TvR Verlag, Jena, 2019, in welchem der heutige Stand und die zukünftige Entwicklung der generell CO2-freien Kernenergie aus den kommenden Generation IV – Kernkraftwerken im globalen Kontext beschrieben und analysiert wird.

Außer dem Traum vom Marxismus/Leninismus bleibt als Begründung der großen Transformation tatsächlich nur die freie Behauptung eines gefährlichen Klimawandels übrig – selbstverständlich verursacht durch eine zu aufwendigen Industrialisierung und Lebensweise der Menschen, die nach Buße verlangt. Würde dieser einzige noch verbliebene Pfeiler der großen Transformation zusammenbrechen, wäre es mit dem werbeträchtigen „Weltuntergang durch globale Überhitzung“ (H.-J. Schellnhuber: Selbstverbrennung, Bertelsmann Verlag) vorbei. Dies ist der Grund, warum ein so fadenscheiniges Argument wie „Klimaschutz“ mit einer  Verbissenheit ohne Beispiel von seinen Ideologen und wirtschaftlichen Profiteuren verteidigt wird.

Verräterisch ist insbesondere die ständige Betonung einer angeblich fest im Konsens stehenden und daher nicht mehr diskussionswürdigen wissenschaftlichen Wahrheit vom „menschgemachten Klimawandel“. Davon kann keine Rede sein (s. Abschnitt 5.9). Stünden tatsächlich alle Klimawissenschaftler auf ihrer Seite, wären solche Behauptungen unnötig. Bei der unwissenden Bevölkerung fiel Klimapropaganda freilich auf fruchtbaren Boden. Die erstaunt nicht, denn nach jeder ideologischen Verführung in der geschichtlichen Vergangenheit setzt zuverlässig das Vergessen der nächsten Generationen ein. Kluge Leute kannten diesen fatalen Effekt schon immer, so beispielsweise Otto von Bismarck (1815-1895) „Es ist nichts schwerer als gegen Lügen vorzugehen, die die Leute glauben wollen„, oder der Physik-Nobelpreisträger Werner Heisenberg „Will man den Wahrheitsgehalt einer Aussage ergründen, sollte man sich zuerst die Methoden des Aussagenden ansehen„.

Es wird höchste Zeit, der undemokratischen, totalitären „großen Transformation“ und ihren Vertretern entschieden mit allen uns zur Verfügung stehenden demokratischen Mitteln entgegenzutreten. Wichtig ist dabei die Aufklärung der Bevölkerung, der noch weitgehend unbekannt ist, was sie von einer Politik erwartet, welche dem WBGU oder dem Wuppertaler Institut folgen würde. Primär ist die sachliche Aufklärung darüber, was es mit „Klimaschutz“ tatsächlich auf sich hat. Es sind öffentliche Sachdiskussionen zwischen Klima-Realisten und Klima-Alarmisten einzufordern, denen sich letztere, von seltenen Ausnahmen abgesehen, bisher stets verweigerten.