1

Wie Al Gore den Globale-Erwärmung-Betrug inszenierte

Al Gores überzogene Rhetorik ist natürlich völlig unsinnig. Aber seine übertriebenen Behauptungen werfen doch eine Frage auf: Wie hat das alles eigentlich angefangen?

Im Laufe der siebziger Jahre des vorigen Jahrhunderts tauchten in Medienbeiträgen immer regelmäßiger Berichte über unmittelbar bevorstehende Probleme durch Klimawandel auf. TIME und Newsweek brachten vielfach Titelgeschichten des Inhalts, dass Ölunternehmen und der kapitalistische Lebensstil in den USA dem Klima der Erde katastrophale Schäden zufügen. Es wurde behauptet, dass Wissenschaftler fast einhellig der Meinung sind, dass ein vom Menschen verursachter Klimawandel die landwirtschaftliche Produktivität im restlichen Jahrhundert deutlich reduzieren würde.

In der Ausgabe von Newsweek vom 28. April 1975 wurden Lösungen vorgeschlagen, die sogar schon die internen Verbrennungsmotoren verbieten sollten. Das klingt schon der heutigen Klimawandel-Debatte sehr ähnlich – nur ging es während der siebziger Jahre um eine vom Menschen verursachte Abkühlung, nicht Erwärmung.

Auf der Titelseite des TIME-Magazins vom 31. Januar 1977 fand sich die Story mit dem Titel [übersetzt] „Wie man die kommende Eiszeit überleben kann“. Darin fanden sich dann auch „Fakten“ wie etwa die Prophezeiung von Wissenschaftlern, dass die so genannte Mitteltemperatur der Erde um etwa 10°C sinken könnte infolge der menschengemachten globalen Abkühlung. Dr. Murray Mitchell von der NOAA warnte die Leser, dass „der Temperaturrückgang zwischen 1945 und 1968 bereits zu einem Sechstel auf den Weg zur nächsten Eiszeit gebracht habe“.

Globale Abkühlung erregte beträchtliche Aufmerksamkeit in der allgemeinen Öffentlichkeit. Aber dann begann sich der Planet, wieder zu erwärmen anstatt sich abzukühlen, wie es so lange von den Befürwortern eines menschengemachten Klimawandels prophezeit worden war. Es musste dringend etwas getan werden, um die Klimawandel-Agenda vor einer totalen Katastrophe zu bewahren. Da trat Al Gore auf den Plan.

Al Gore Senior, ein mächtiger Senator aus Tennessee, sorgte dafür, dass sein Sohn in das Repräsentantenhaus gewählt wurde, dem er von 1977 bis 1985 angehörte. Danach wechselte er zum Senat bis zum Jahr 1993. Das primäre Thema von Gore Jr. war seine Überzeugung, dass die Erde untergehen werde, falls wir nicht fossile Treibstoffe eliminieren.

Gore stieg zum Vizepräsidenten unter Präsident Bill Clinton auf, wo er in der Lage war, eine Politik und direkte Finanzierungen in Kraft zu setzen um sicherzustellen, dass die Klimawandel-Agenda oberste Priorität in der US-Regierung erhielt. Gores Mission erhielt einen gewaltigen Schub, als Clinton ihm die Leitung des neu geschaffenen Präsidenten-Beratergremiums zu nachhaltiger Entwicklung übertrug [Council on Sustainable Development].

Da ist es wirklich keine Überraschung, dass bei einer Revision der Charta des Gremiums vom 25. April 1997 in die „Bandbreite der Maßnahmen“ die folgende Anweisung aufgenommen worden ist:

Man lege dem Präsidenten nahe, im Lande politische Optionen zu implementieren, um Treibhausgas-Emissionen zu reduzieren. Das Gremium sollte nicht über die Wissenschaft bzgl. der globalen Erwärmung debattieren, sondern sich stattdessen auf die Implementation nationaler und lokaler politischer Maßnahmen und Aktivitäten zur Reduktion von Treibhausgasen konzentrieren. Außerdem sollte es sich darauf konzentrieren, Wirtschaft und Gesellschaft in den USA zu einem Verhalten zu bewegen, das umweltliche und soziale Vorteile maximiert, ökonomische Auswirkungen minimiert und die konsistent sind mit internationalen Abkommen. Zumindest sollte das Gremium potentiell reproduzierbare Beispiele von Reduktionen von Treibhausgasen ausfindig machen und fördern.

Berücksichtigt man, dass es Aufgabe des Gremiums war, den Präsidenten bzgl. „Themen zu beraten, welche nachhaltige Entwicklung involvieren“ und dass alternative Standpunkte in der Wissenschaft vom Klimawandel effektiv ausgeschlossen waren, war es vorbestimmt, dass die Clinton-Regierung in die von Gore gewünschte Richtung geht. Und tatsächlich hieß es in dem Begleitbrief an den Präsidenten zum Report 1999: „Unser Report präsentiert im Konsens Empfehlungen, wie Amerika Treibhausgas-Emissionen reduzieren und andere Schritte gehen kann, um das Klima zu schützen“.

Ein Eckpfeiler von Gores Strategie war es sicherzustellen, dass alle hochrangigen Staatsbeamte, die in irgendeiner Weise etwas mit der Finanzierung politischer Maßnahmen bzgl. Klimawandel zu tun hatten, auf einer Linie mit seiner Vision lagen. Unter diesen Agenturen waren das Energieministerium, die Environmental Protection Agency EPA, die National Science Foundation, die NOAA und die NASA.

Ein Beispiel seiner Macht zeigte sich, als der Physiker Dr. William Happer, damals Leiter der Energieforschung im Energieministerium, im Jahre 1993 vor dem Kongress aussagte, dass wissenschaftliche Daten die Hypothese einer vom Menschen verursachten globalen Erwärmung nicht stützen. Gore sorgte dafür, dass Happer augenblicklich gefeuert wurde. 15 Jahre später witzelte Happer: „Ich hatte das Privileg, von Al Gore gefeuert zu werden, da ich es ablehnte, seinem Alarmismus zu folgen. So dringend habe ich den Job nicht gebraucht“.

Al Gore war auch in der Lage, seine hohe Präsenz, seine Filmauszeichnungen, seinen Nobelpreis und seine Beteiligung an verschiedenen Kohlenstoff- und anderen Handelsprogrammen zu einem persönlichen Schicksal zu verknüpfen. Als seine Vizepräsidentschaft im Jahre 2001 endete, betrug sein Vermögen 2 Millionen Dollar. Bis 2013 war es auf über 300 Millionen Dollar gewachsen.

Gores Film Eine unbequeme Wahrheit zeigte eine Reihe von Graphiken, die belegen sollten, welche von Einigen prophezeiten apokalyptischen Konsequenzen drohten, falls man fossilen Treibstoffen weiterhin gestatten würde, den Planeten zu erwärmen. Es wurden unter Anderem Bilder gezeigt von schmelzenden Gletschern, sterbenden Eisbären, sich ausbreitenden Krankheiten, untergehenden Küstenstädten durch Überflutungen, Auslöschung von Städten durch Hurrikane und Tornados sowie Verknappung von Nahrungsmitteln infolge Dürren.

Diese nötigende Propaganda spielte eine Hauptrolle dabei, eine ganze Generation in Angst vor der Zukunft zu versetzen, und dabei, dass sich viele Eltern schuldig fühlten hinsichtlich der Rolle, die sie selbst und ihr Land vermeintlich dabei spielten, unseren schönen Planeten zu zerstören.

Seitdem wurde den Amerikanern unablässig eingeredet, dass sie ein schlechtes Gewissen haben sollten, falls sie Auto fahren oder fossile Energie zum Heizen oder zum Leben verbrauchen. Eine rapide, massive Konversion weg von Kohle, Öl und Erdgas hin zu erneuerbaren Energiequellen wie Wind und Solar, so trichtert man uns ein, sei die einzige Hoffnung zur Rettung des Planeten.

Inzwischen sind Kinder zunehmend deprimiert hinsichtlich ihrer Zukunft, dank der unablässigen Propaganda pro globale Erwärmung, der sie an den Schulen ausgesetzt sind. Tatsächlich war die Gehirnwäsche der Kinder so erfolgreich und sanktioniert durch ihre Lehrer, dass sie sich nicht mehr trauen, irgendein Statement über einen katastrophalen Klimawandel zu hinterfragen.

Nichtsdestotrotz jedoch ist alles von Al Gores Klimawandel-Agenda entweder falsch oder höchst irreführend.

Inzwischen von Präsident Trump zum leitenden Wissenschaftler im nationalen Sicherheitsrat berufen, muss Happer zeigen, dass es keinen „wissenschaftlichen Konsens“ zu diesen Dingen gibt. Er muss eine sachliche Debatte zu den Bereichen Klima und Energie neu aufleben lassen, und er muss Hoffnung, gesunden Menschenverstand und wirkliche Wissenschaft zurückbringen – um zu helfen, den gefährlichen Mythos einer gefährlichen menschengemachten globalen Erwärmung zu beenden.

Link: http://www.cfact.org/2018/10/20/how-al-gore-built-the-global-warming-fraud/

Übersetzt von Chris Frey EIKE




DIESEL, NO UND OZON »Moderne Dieselmotoren sind Ozonkiller und Rußfilter.«

Die Vorschriften für Abgasemissionen von Dieselmotoren durch EU und deutsche Behörden haben in der vergangenen Dekade die Giftigkeit der Luft erhöht statt gesenkt, weil sie die falschen Schwerpunkte gesetzt haben. Statt der Gesundheit zu dienen, schaden sie ihr.

Zu diesen aufsehenerregenden Schlüssen kommen Prof. Dr. Paul Tavan und Dr. Robert Denschlag. Der Physikprofessor im Ruhestand und sein früherer Mitarbeiter haben in einer Studie den aktuellen Stand der Wissenschaft zur Zusammensetzung und Toxizität der Abgase moderner Dieselmotoren zusammengefasst. Anschließend analysierten sie den Einfluss der Abgase auf die Toxizität der Atemluft. Sie kommen zum Schluss, dass moderne Dieselmotoren sogar die Stadtluft reinigen können.

Ihre Kritik an dem derzeit geltenden Regelwerk der europäischen Abgasvorschriften: Die Regulierungsbehörden konzentrieren sich lediglich auf NOx Emissionen. Sie unterscheiden aber nicht zwischen den beiden Stickstoffoxiden NO und NO2. Doch die weisen erhebliche Unterschiede auf, die bedeutsam für die Gesundheit sind.

Während NO in den in der Stadtluft vorkommenden Konzentrationen als ungiftig angesehen werden kann, ist NO2 ein toxisches Reizgas.

»Merkwürdigerweise werden Atemluftgrenzwerte für NO2, Emissionsgrenzwerte aber für die Summe NOx = NO + NO2 formuliert, wodurch der wesentliche Unterschied zwischen NO und NO2 verwischt wird.«

Die Behörden haben eine wichtige Eigenschaft der Emissionen moderner Dieselmotoren übersehen: »Sie befreien die Luft von hochtoxischem Ozon und senken somit die Ozonbelastung (sog. Sommersmog). Ferner wurde nicht zur Kenntnis genommen, dass solche Dieselmotoren die Stadtluft dank moderner Abgasnachbehandlung von krebserregenden Rußpartikeln aus Holzverbrennung, die vor allem im Winter in der angesaugten Luft schweben, befreien. Kommission und Parlament der EU haben schließlich den 2017 durch die US-Umweltbehörde erbrachten wissenschaftlichen Nachweis, dass von geringen NO2-Konzentrationen im Bereich von 40-100 μg/m3 keinerlei Gesundheitsgefahren ausgehen, ignoriert.
Stattdessen haben EU Kommission und EU Parlament an den Anfang des Jahrtausends in Bezug auf Stickoxid-Emissionen getroffenen und ursprünglich gut gemeinten Entscheidungen festgehalten. Dadurch wurde zum einen die Lufttoxizität durch die Erhöhung der Ozonbelastung vergrößert und zum anderen das Vermögen von Millionen von Autofahrern geschädigt.«Denn die regulatorisch erzwungene Reduktion der Stickstoffoxid-Emissionen aufgrund der Katalysatoren und verbesserter Motorentechnik erhöht nachweislich den Ozongehalt der Atmosphäre. Das von Dieselmotoren fast ausschließlich emittierte Stickstoffmonoxid (NO) entgiftet gewissermaßen die Stadtluft vom gefährlichen Ozon. Das ist ein Reizgas und wirkt fünfmal stärker als NO2, wenn man die Grenzwerte beider Gase am Arbeitplatz als Referenz wählt.

Die Entgiftung funktioniert folgendermaßen: Das dem Auspuff entweichende Stickstoffmonoxid (NO) reagiert mit Ozon (O3) zu Stickstoffdioxid (NO2) und Luftsauerstoff (O2). Tagsüber kann sich dieser Prozess unter der Einwirkung der solaren UV-Strahlung auch zum Teil umkehren. Es entstehen dann erneut Stickstoffmonoxid und das zuvor aus der Atmosphäre entnommene Ozon. Sobald die Sonneneinstrahlung nachlässt, kehrt sich dieser Prozess um: Das photochemisch entstandene stark toxische Ozon verschwindet wieder und erzeugt dabei aus dem ungiftigen Stickstoffmonoxid das viel weniger toxische Stickstoffdioxid.

Aufgrund des beschriebene Prozesses können Stickoxide aus modernen Dieselmotoren aber nicht, wie häufig behauptet wird, die Quelle von hohen Ozon-(O3)-Konzentrationen in der Luft sein. Das Ozon entsteht vielmehr, vor allem an heißen Sommertagen, überall in der Biosphäre aus zerfallendem organischem Material und Luftsauerstoff unter der Einwirkung solarer UV-Strahlung.

Eine andere Quelle von Ozon in den unteren Atmosphärenschichten sind vertikale Turbulenzen. Diese transportieren Ozon aus der Ozonschicht der Stratosphäre ein atmosphärisches Stockwerk tiefer an die Erdoberfläche. Eine Folge aus dem oben beschriebenen Mechanismus ist, dass im Wald die Ozonkonzentration im Jahresmittel auch nachts noch auf relativ hohem Niveau oberhalb von 50 µg/Kubikmeter bleibt und tagsüber auf 70 µg/Kubikmeter ansteigt, weil dort der Eintrag an Stickstoffmonoxid aus Dieselmotoren entfällt.

In verkehrsreichen Städten dagegen variiert der Ozongehalt aufgrund des hohen Eintrags an Stickstoffmonoxid zwischen lediglich 20 µg/Kubikmeter (nachts) und 45 µg/Kubikmeter (tagsüber). Ein weiterer Beweis für die Bedeutung des oben beschriebenen Prozesses ist der weltweit in vielen Städten beobachtete Anstieg der Ozonkonzentration an Wochenenden. Dieser Anstieg folgt aus dem geringeren Verkehrsaufkommen und dem dadurch reduzierten Stickstoffmonoxid-Eintrag.

NICHT DER DIESEL- DIE POLITIK STINKT

Das bedeutet: Stadtluft ist im Hinblick auf das Reizgas Ozon vor allem im Sommer weniger toxisch als Landluft. Andererseits ist Stadtluft aber heutzutage im Winter vor allem durch Holzruß aus den Holzöfen, Kaminen und Pelletheizungen belastet, die in Städten 25 % des gesamten Feinstaubeintrages verursachen. Dieselmotoren geben aufgrund ihrer neuen Technologien praktisch keine anderen Stoffe außer Stickstoffmonoxid und CO2 mehr ab. Aus dem Auspuff kommt vor allem kein Dieselruß mehr, den halten die Partikelfilter wirksam zurück. Die Zeiten, da qualmende Rußwolken und unverbrannte Kohlenwasserstoffe aus dem Auspuff kamen, sind vorbei; moderne Dieselfahrzeuge sind nur noch in den Schlagzeilen »Stinker«.Tavan und Denschlag folgern: »Diese Filtereigenschaft kommt der Stadtluft gerade im Winter zu gute, da die wieder in Mode gekommene Verfeuerung von Holz große Mengen sehr kleiner Rußpartikel freisetzt. Solche in der städtischen Ansaugluft schwebende Rußpartikel werden von Dieselmotoren angesaugt und dann durch Verbrennung, Katalyse und Filterung beseitigt.

Moderne Dieselmotoren emittieren spätestens seit 2009 (Eu-ro5-Norm) neben CO2 das ungiftige Stickstoffmonoxid NO und sonst fast nichts. Das den Auspuff verlassende NO wandelt sich in der Umgebungsluft in NO2 um, indem es dem hochtoxischen bodennahen Ozon (O3) ein Sauerstoffatom (O) entzieht und es so in Luftsauerstoff (O2) verwandelt. Bei der Erzeugung des vom EU-Atemluft-Grenzwert inkriminierten NO2 leistet das von Dieselmotoren emit-tierte NO also den nützlichen Dienst, das stark toxische Ozon durch das fünfmal weniger toxische NO2 zu ersetzen.

Sie formulieren sogar: »Plakativ ausgedrückt sind moderne Dieselmotoren also Rußfilter und Ozonkiller«.

Sie weisen anhand von Daten von Luftmeßstationen in Nordrhein-Westfalen nach, dass die Verringerung der NO-Emissionen seit 1984 zu einem starken Anstieg der mittleren Ozon-Konzentration insbesondere in urbanen Gebieten führen: »Hierdurch stieg die Toxizität der Atemluft dort effektiv an, obgleich ihr NO2-Gehalt abnahm. Die Emissionsregulation für NOx hat also das Gegenteil der beabsichtigten Gesundheitsfürsorge erreicht.«

»Der gültige EU-Grenzwert von 40 μg/m3 für NO2 in der Luft von Städten stammt aus Zeiten, in denen Dieselmotoren neben NOx noch große Mengen Ruß und andere Schadstoffe ausstießen. Man hoffte damals, mit der Reduktion von NOx die übrigen Schadstoffe zu beschränken. Heute aber wissen wir, dass die regulatorische Beschränkung der NOx Emissionen durch Motoren kontraproduktiv ist, da sie die Emission des Ozonkillers NO verringert und so die Toxizität der Luft erhöht.«

»Zu Beginn des Jahrtausends war das Zusammentreffen von erhöhten NO2 Konzentrationen mit Gesundheitsschäden (»vorzeitigen Todesfällen«) nicht von der Hand zu weisen, weil damals gesundheitsschädliche Stoffe von Dieselmotoren immer gemeinsam mit NOx emittiert wurden. Dass auch in manchen heutigen epidemiologischen Studien (z.B. in einem kürzlich vom Bundesgesundheitsamt veröffentlichten Bericht) immer noch Gesundheitsschäden erhöhten NO2 Konzentrationen angelastet werden, widerspricht dem Stand der Wissenschaft.« Das hat nicht zuletzt die US-Umweltbehörde im August 2017 erneut festgestellt. Prof. Dr. Paul Tavan und Dr. Robert Denschlag fassen die für uns zum Teil sehr überraschenden Einsichten, die unser Studium verfügbarer Literatur zur Entwicklung der Dieselmotoren-Technik, der damit einhergehenden Änderungen der von ihnen emittierten Abgase sowie der daraus folgenden Wirkung auf die menschliche Gesundheit geliefert hat, folgendermaßen zusammen:1. Dieselmotoren neuerer Technologie emittieren außer CO2 und NO fast nichts, insbesondere nicht mehr den gefährlichen Dieselruß.

2. Das durch den Auspuff abgegebene NO ist ein nützliches Gas, weil es durch Vernichtung von Ozon (O3) die Gesamttoxizität der Atemluft verringert, wie Langzeitmessungen aus Nordrhein-Westfalen eindeutig bestätigt haben.

3. Der Grund für diese positive Wirkung ist die Entgiftungsreaktion. Insbesondere wirken NOx-Emissionen (bei kleinen Beimischungen von NO2) nach den Daten eher schwach hemmend als, wie häufig behauptet, fördernd auf die photochemische Ozon-Produktion in verkehrsreichen Gebieten.

4. Dieselmotoren neuerer Technologie können den in der Stadtluft schwebenden Holzruß, der von den zunehmenden Holzöfen stammt, und den ebenfalls in der Luft schwebenden Dieselruß aus Motoren älterer Technologie ansaugen und rückstandslos verbrennen.

5. Die Regulierungsbemühungen der Behörden zur Luftreinhaltung waren in Bezug auf die Befreiung der Luft von Dieselruß erfolgreich. Sie haben aber bei oxidierenden Gasen wie O3 und NO2 das Gegenteil dessen bewirkt, was beabsichtigt war: Die Toxizität der Luft ist im Jahresmittel beträchtlich größer statt kleiner geworden.

Einen wichtigen Beitrag zur Erhöhung der Lufttoxizität liefert also gegenwärtig die weitere Reduktion der NOx-Emissionen, die durch den Übergang zur Euro6_Norm erzwungen wird. Also müssen Nachrüstungen von Euro5 Dieselmotoren durch sogenannte SCR Katalysatoren als besonders gesundheitsschädlich angesehen werden.

Der Beitrag erschien zuerst auf TICHYS Einblick hier




Die globalen Temperaturen stiegen, als die Wolkenbedeckung in den 1980er und 1990er Jahren abnahm

Einleitung von Paul Homewood

**

Dr. Roy Spencer weist in seinem Buch The Great Global Warming Blunder: How Mother Nature Fooled the World’s Top Climate Scientists (Encounter Broadsides [ist der Verlag]) darauf hin

The Great Global Warming Blunder enthüllt neue Erkenntnisse aus wichtigen wissenschaftlichen Erkenntnissen, die die konventionelle Weisheit über den Klimawandel explodieren lassen und die Debatte über die globale Erwärmung, wie wir sie kennen, neu formulieren. Roy W. Spencer, ein ehemaliger leitender NASA-Klimatologe, enthüllt, wie Klimaforscher Ursache und Wirkung bei der Analyse des Wolkenverhaltens falsch verstanden haben und von Mutter Natur getäuscht wurden, um zu glauben, dass das Klimasystem der Erde für menschliche Aktivitäten und Kohlendioxid viel empfindlicher sei, als es wirklich ist.

 

Wir haben über den plötzlichen Anstieg der Temperaturen in Großbritannien und Europa in den 1990er Jahren diskutiert, und ich wurde an eine Studie erinnert, die Clive Best und Euan Mearns vor vier Jahren über die Auswirkungen der Wolkendecke durchgeführt haben:

Wolken bedingen einen durchschnittlichen kühlenden Effekt auf das Klima der Erde. Klimamodelle gehen davon aus, dass Änderungen in der Wolkendecke eine Reaktion auf die CO2-Erwärmung sind. Ist diese Annahme gültig? Nach einer Studie mit Euan Mearns, die eine starke Korrelation zwischen den britischen Temperaturen und Wolken aufzeigte, haben wir die globalen Auswirkungen von Wolken untersucht, indem wir ein Modell entwickelt haben, was die kombinierten Antriebe von Wolken- und CO 2  (Erwärmung / Abkühlung) berücksichtigt, um zu zeigen, wie Variationen bei Wolken [8] und CO 2 sich [14] auf die Daten globaler Temperaturanomalien zwischen 1983 und 2008 auswirken. Das unten beschriebene Modell bietet eine gute Übereinstimmung mit HADCRUT4-Daten mit einer Transient Climate Response (TCR) = 1,6 ± 0,3 ° C. Die 17-jährige Unterbrechung der Erwärmung kann als Folge einer Stabilisierung der globalen Wolkenbedeckung seit 1998 erklärt werden. Eine Excel-Tabelle, die das unten beschriebene Modell implementiert, kann von http://clivebest.com/GCC heruntergeladen werden

Den vollständigen Beitrag mit allen detaillierten statistischen Analysen finden Sie hier.

Dies ist jedoch das wichtigste Diagramm:

Abbildung 1a zeigt die von ISCCP im Durchschnitt gemittelte monatliche Wolkenbedeckung von Juli 1983 bis Dezember 2008, die mit den monatlichen Anomaliedaten von Hadcrut4 blau überlagert ist. Der Rückgang der Wolkenbedeckung fällt mit einem rapiden Temperaturanstieg von 1983-1999 zusammen. Danach sind sowohl die Temperatur- als auch die Wolkentrends abgeflacht. Der CO2-Antrieb von 1998 auf 2008 steigt um weitere ~ 0,3 W / m2. Dies ist ein Beleg dafür, dass Änderungen in den Wolken kein direkter Einfluss auf den CO2-Antrieb haben.

Zusammenfassend lässt sich sagen, dass die natürliche zyklische Veränderung der globalen Wolkenbedeckung die globalen Durchschnittstemperaturen stärker beeinflusst als das CO2. Es gibt kaum Hinweise auf eine direkte Rückkopplungsbeziehung zwischen Wolken und CO2. Basierend auf Satellitenmessungen der Wolkenbedeckung (ISCCP), des Net Cloud Forcing (CERES) und des CO2-Niveaus (KEELING) entwickelten wir ein Modell zur Vorhersage der globalen Temperaturen. Dies ergibt einen Best-Fit-Wert für TCR = 1,4 ± 0,3 ° C. Die Wolken-Antrieb (forcing) hat im Sommer einen größeren Effekt in der nördlichen Hemisphäre, was zu einem niedrigeren TCR von 1,0 ± 0,3 ° C führt. Naturphänomene beeinflussen Wolken, obwohl die Details noch unklar sind. Das CLOUD-Experiment (Henrik Svensmark, nachvollzogen am Cern in Bern) geben Hinweise darauf, dass ein erhöhter Fluss kosmischer Strahlung die Keimbildung von Wolken erhöhen kann [19]. Zusammenfassend lässt sich sagen, dass die allmähliche Verringerung der Wolkenbedeckung über 50% der globalen Erwärmung der 80er und 90er Jahre erklärt.

Warum die Wolkenbedeckung zurückging, ist natürlich eine andere Frage.

 

Neben der o.g. Studie von Paul Homewood wurde auf WUWT im Jahr 2012 berichtet:

Spencers postulierte Abnahme der Wolkenbedeckung von 1-2% wurde gefunden

Ein in der letzten Woche veröffentlichtes Papier stellt fest, dass die Wolkenbedeckung über China im Zeitraum 1954-2005 deutlich abgenommen hat. Diese Feststellung steht in direktem Widerspruch zur Theorie der vom Menschen verursachten globalen Erwärmung, die davon ausgeht, dass die angeblich durch CO2 verursachte Erwärmung zu einer Erhöhung des Wasserdampfs und der Trübung führen sollte. Die Autoren stellen auch fest, dass der Rückgang der Wolkenbedeckung nicht mit künstlich hergestellten Aerosolen zusammenhängt und daher wahrscheinlich ein natürliches Phänomen war, das möglicherweise auf eine verstärkte Sonnenaktivität wie nach der Svensmark-Theorie oder andere Mechanismen zurückzuführen ist .

Gefunden auf WUWT vom 01.11.2018

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2018/11/01/data-global-temperatures-rose-as-cloud-cover-fell-in-the-1980s-and-90s/




Erneuerbar sind nur Illusionen ………Die „Zukunftstechnologie“ Windkraft steht vor unlösbaren Problemen Teil 2

Der größte Teil Deutschlands ist für die Windkraftnutzung ungeeignet.

Das ist ein weiteres unbeeinflussbares Problem, das von der Geographie Deutschlands bestimmt wird:
Schon in den vergangenen Jahren hatten Windparkbetreiber schmerzlich erfahren müssen, dass die ihnen von viel zu optimistischen Gutachten über die „Windhöffigkeit“ eines Standortes prophezeiten Erlöse ihrer Windräder nicht eintraten und statt dessen Verluste zu verzeichnen waren (9)..

Wenn man das Windangebot in Deutschland betrachtet, zeigt sich die für jeden ohnehin klare Situation, dass im Norden größere Windstärken zu verzeichnen sind. Keine Frage, dass sich diese Tatsache auf den Stromertrag und damit auch auf die Rentabilität von Windparks auswirkt. Die Regierung hat das zum Anlass genommen, die Fördersätze für ungeeignete Windenergie-Standorte zu erhöhen.
Zusammen mit den „negativen Strompreisen“ (Zuzahlungen für den Export von bereits teuer subventioniertem Überschuß-Windstrom an Abnehmer in Nachbarländern) hat Deutschland damit den planwirtschaftlichen Irrsinn in ein selbst in den ehemals sozialistischen Ostblockländern nie gesehenes Extrem weiterentwickelt.

Die Zahlen der mittleren Windgeschwindigkeiten in Deutschland zeigen sowohl den sehr deutlichen Unterschied zwischen den nördlichen und südlichen Bundesländern, aber auch die ebenfalls deutlichen Unterschiede zwischen den „Windjahren“, die gelegentlich zu frustrierenden Windstrom-„Ernten“ führen. Sie vermitteln jedoch noch eine für Investoren weitaus wichtigere Information, wenn man die Feststellung des Deutschen Windenergieinstituts Wilhelmshaven (DEWI) beachtet, die auf umfangreichen Untersuchungen basiert:

Die Schwelle zu einer wirtschaftlichen Nutzung der Windenergie liegt bei ca. 2.000 Volllaststunden oder bei einem sich daraus ergebenden Auslastungsgrad von 22,8 Prozent. Das bedeutet, dass sich die Windstromerzeugung nur im hohen Norden Deutschlands ohne Subventionen rentiert – und das auch nur in guten bis mittelguten Windjahren.
Ein klares Bild von dieser Situation vermitteln die jährlich vom BDEW (Bundesverband ser Energie- und Wasserwirtschaft) unter der Überschrift „BDEW-Energie-Info: Erneuerbare Energien und das EEG“ veröffentlichten .Grafiken und Tabellen. Aus den Darstellungen der Windstromerträge – gemessen in Jahresvolllaststunden (Definition siehe unter (11)) – in den Bundesländern erkennt man gut das Gefälle des nutzbaren Windangebots von Nord- nach Süddeutschland.
Aus diesen BDEW-Berichten für die Jahre 2014 und 2015 werden hier die höchsten und die niedrigsten Zahlen der erreichten Jahresvolllaststunden vorgestellt:

2014: 1934 h in Schleswig-Holstein; 1171 h in Bayern = 61%
2015: 2003 h in Mecklenburg-VP;     1362 h in Baden-Württemberg = 68%

 

Das bedeutet:
– Die mindest-notwendige Zahl von 2000 h wird nur in den nördlichsten
Bundesländern knapp erreicht – und das auch nicht in jedem Jahr.
– In der südlichen Ländern ist der Ertrag 30 -40% niedriger als im Norden.
Die Unrentabilität von Windparks ist dort garantiert. Deshalb hat die Regierung
für die unrentablen Standorte höhere Subventionen beschlossen.
– Weil ein Jahr 8760 Stunden hat, bedeuten die genannten Zahlen, dass die
Windräder zwar respektable Maximalleistungen haben, diese aber im realen
Betrieb niemals oder allenfalls kurzzeitig bei Starkwind erreichen – und statt
dessen nur einen geringen Bruchteil ihrer installierten Leistungsfähigkeit
nutzen können. Und bei wenig Wind oder Flaute nutzlos (aber keineswegs
kostenlos) in der Landschaft stehen.
Deutschland ist nun einmal ein sehr ungeeigneter Standort für Windenergieanlagen, was man aber schon immer wusste.

Die Folge: Ein großer Teil der Windparks ist unrentabel.

Es ist das Verdienst des Bundesverbands WindEnergie BWE, gründlich der Frage nachgegangen zu sein, ob sich eine Investition in Windparks selbst mit Subventionen überhaupt lohnt und welche Risiken auf Anleger lauern. Der BWE ist eine Windkraft-Lobby, steht aber klar auf der Seite der Investoren von Windparks – oft Kommunen und Stadtwerke – und weniger auf der Seite der WKA-Hersteller, der Fondsmanager, der Berater, der Reparaturbetriebe  und der Verpächter der Standortflächen.

Der BWE hat mehr als 1200 Jahresabschlüsse von Windparks in einem Zeitraum von 13 Jahren verglichen. Sein Fazit: Mehr als zwei Drittel der Windparks im Binnenland machen Verluste – trotz der Subventionen.

Dazu erklärte der stv. Vorsitzende im Anlegerbeirat des BWE Dr. Christian Herz:

„80 Prozent der deutschen Land-Windparks sind defizitär. Völlig überhöhte Windprognosen. Das bedeutet, es ist zu wenig Geld da, gleichzeitig ist die Anlagetechnik in einem Großteil der Anlagen und Projekte so schlecht, dass die Reparaturkosten-Ansätze verdoppelt bis verdreifacht werden müssen – und das bei der Masse im jetzt achten bis zwölften Betriebsjahr, und sie sollten ja eigentlich 20 Jahre halten.“(10).

In einem „Ratgeber für Windpark-Anleger“ (9) haben Werner Daldorf und weitere 6 BWE-Vorstandsmitglieder eine sehr harte Kritik an den Praktiken der Windkraft-Fonds publiziert, in dem alle Tricks und Täuschungen beschrieben werden, mit denen die Anleger in äußerst verlustreiche Investitionen hineingelockt werden.

Zitate: „Es darf nicht übersehen werden, dass es in deutlichem Umfang Fonds gibt, die sich inzwischen als Finanzdesaster entpuppen. Von der angestrebten Zielrendite aus bestimmte Überbewertungen der Windertragspotentiale, oft unausgereifte Anlagentechnik und zu niedrig angesetzte Wartungskosten, völlig überzogene weiche Kosten (Provisionen, Aufschläge, usw.) und nicht selten ein inkompetentes und wenig engagiertes oder gar trickreich-unredliches Management ernüchtern den Anleger zunehmend.“

Es gibt eine Reihe von Stadtwerken, die von den Rathauspolitikern ihrer Kommunen gezwungen wurden, in Windparks zu investieren, weil sie dann Ökostrom anbieten könnten. Über die damit erlittenen hohen Verluste spricht man ungern.

Diese Warnungen stammen noch aus der Zeit, als die Ausschreibungsverfahren zwar diskutiert wurden, aber noch nicht eingeführt waren.

Und schließlich ein weiteres ernstes und vermutlich kaum vermeidbares Problem – außer, man verzichtet auf den Einsatz dieser Technik:
Negative Auswirkungen auf die Umwelt und auf die Menschen wurden ignoriert – jedoch nicht von den Betroffenen
Dass Aktivitäten der Wirtschaft Auswirkungen auf die Umwelt haben und auf der Grundlage von Umweltgesetzen auch Konsequenzen für die Akteure, ist nicht neu. Wenn eine Industriebranche wie die Hersteller von Windenergieanlagen durch die Errichtung und die Anwendung ihrer Produkte zwangsläufig und teilweise sogar unvermeidlich in mehrfacher Hinsicht negative Auswirkungen auf die belebte wie auch die unbelebte Umwelt verursachen, dann gehört diese Thematik zu der Gruppe ihrer prioritär anzugehenden Aufgaben.
Die Auswirkungen von Windenergieanlagen auf die Umwelt:
1. Schall- und Infraschall-Emissionen und deren gesundheitliche Auswirkungen
Es genügt nicht, umweltpolitische Entscheidungen zu kritisieren wie es der BDEW-Chef Kapferer in seiner Beurteilung der 10H-Abstandsregel in Bayern getan hat und vor einer Anwendung ähnlicher Regeln in anderen Bundesländern zu warnen. In seiner Presseinformation vom 24.8.2017 argumentiert er allein damit, dass diese Regel „zu einem faktischen Ausbaustopp der Windenergie in Bayern“ geführt habe.
Dass diese Entscheidung der bayrischen Staatsregierung eine Reaktion auf die anhaltenden Protestaktionen der zahlreichen Bürgerinitiativen war und dass diese Bürger ihre Gründe dafür hatten, wird nicht kommentiert. Die Bewertung der Abstandsregelung durch Herrn Kapferer als „politischer Spielball“ sagt aus, dass er diese von der Landesregierung getroffene Entscheidung als Spielerei von Berufspolitikern betrachtet.
Die ernsten Gründe für die Bürgerproteste sind bequem zu erfahren. Wer sich darüber informieren möchte, findet eine große Fülle an seriösen Fachartikeln und Studien, die die Auswirkungen von Windrädern und vor allem von Anlagen-Gruppen (Windparks) auf Menschen, aber auch auf geschützte Tierarten behandeln.
In Dänemark hatten Vorfälle, bei denen Anrainer von Windenergieanlagen über gesundheitliche Probleme berichteten, bereits 2013 eine von der Regierung veranlasste umfangreiche experimentelle Untersuchung ausgelöst, die vom Kopenhagener Krebsforschungsinstitut „Kraeftens Bekaempelse“ durchgeführt und Anfang 2018 abgeschlossen worden ist. Im Kürze soll die akademische Kontrolle (Peer Review) abgeschlossen sein. Dann folgt die Veröffentlichung, die auch in Deutschland von Kommunen und auch von Bürgern in den Windkraftgebieten mit Spannung erwartet wird. Anders als in Deutschland erlauben die recht weit gefassten dänischen Datenschutzgesetze eine auf jede einzelne Windturbine bezogene Auswertung persönlicher medizinischer Daten der Anwohner.
Die öffentliche Debatte dürfte dann sehr lebhaft werden, auch in unserem Land (18).

2. Windräder in Wäldern
Die verstärkte Errichtung von Windrädern in Wäldern, die von mehreren Bundesländern erlaubt wird, ist die Folge von knapper gewordenen Standorten in Norddeutschland. Die Auswirkungen sind beträchtlich, weil die Größe dieser Anlagen die Rodung größerer Flächen für Zufahrten und für den Standort. notwendig macht. Mächtige Stahlbeton-Fundamente werden in den Waldboden gesetzt. Naturschützer beklagen die Tötung geschützter Greifvogelarten (Roter Milan) und ebenso von Fledermäusen.
Eine Entwicklung, die zahlreiche neue Anti-Windkraft-Bürgerinitiativen ins Leben gerufen hat. Der Antrag der FDP-Bundestagsfraktion richtet sich auf diese Auswirkungen (15).

3. Landschaftsbeeinträchtigung
Inzwischen gibt es viele Dokumentationen von Landschaften, die mit Windrädern „verspargelt“ sind. Viele Bürgerinitiativen sind aus diesem Grund entstanden. Über Erfolge bei der Verhinderung neuer Windparks wird im Internet berichtet – ein besonderes Erfolgserlebnis hatten die BI im Rheingau/ Hessen, wo mit einem jahrelangen Kampf die „Verschandelung“ des Rheingaus (darin die Region Lorch-Stephanshausen, die UNESCO-Weltkulturerbe ist) endgültig verhindert werden konnte.

  1. Enormer Flächenverbrauch
    Jeder kann durch Betrachten der großen Kahlschlagsflächen in Wäldern den Zusammenhang von beanspruchter Landfläche in Relation zu der elektrischen Erzeugung eines Windrades berechnen.
    Die oben angegebenen, im Grunde deprimierenden Zahlen der Jahres-Volllaststunden von im Durchschnitt 1500h/a bei 8760 Stunden eines Jahres besagen, dass eine wetterabhängige Windkraftanlage, die 2 MW Maximalleistung hat, in einem Jahr so viel bzw. so wenig Strom liefert, wie ein dauerhaft arbeitendes Miniaturkraftwerk von 0,36 MW.
    Bei einem Flächenverbrauch von 60×60=3.600 m2und dieser Leistung von 0,36 MW ergeben sich 100 Watt an mittlerer Leistung pro Quadratmeter.

Zum Vergleich: Ein 1000-MW Steinkohlekraftwerk mit einer Fläche von 300×300=90.000 m2hätte eine Leistungsdichte von 11.000 Watt pro Quadratmeter .
Um die durchschnittliche jährliche Stromerzeugung eines 1000-MW-Steinkohlenkraftwerks durch 2 MW-Windräder zu erreichen, müssten 2.800 dieser Anlagen errichtet werden. Die dann gleich große durchschnittliche Jahreserzeugung täuscht jedoch über den außerordentlich problematischen Nachteil für die Verbraucher hinweg: In Perioden geringer Windstärken, die häufig vorkommen (unter Windstärke 3), stehen sämtliche Windräder still.
Wenn die Verbraucher dann überhaupt noch Strom geliefert bekommen, stammt der aus sog. konventionellen Kraftwerken.
Diese 2.800 Windräder benötigten – verglichen mit dem Kohlekraftwerk – das 110-fache an dessen Flächenbedarf.

Und dann müsste noch der notwendige Abstand der Wohnhäuser zu diesen Windenergieanlagen einbezogen werden.

5. Was geschieht mit stillgelegten Windrädern?

Wenn nach 20 Jahren die Förderung tausender älterer Anlagen ausläuft, stellt sich vor allem die Frage, wie man mit den Betonfundamenten umgeht. Die Betreiber sind zu einem vollständigen Abbau auch dieser Fundamente verpflichtet. Im Internet wird über Fälle berichtet, wo die Eigentümer der Standortflächen gegen Bezahlung auf den kompletten Rückbau verzichten und mit einer Entfernung nur der oberen 1 Meter-Schicht der Betonmassen einverstanden sind. Ob diese Vorgehensweise zulässig ist, wird wohl erst noch geklärt.

Der Widerstand gegen neue Windkraftanlagen hat die Parteien erreicht.
Es hat einige Zeit gedauert, bis die Politiker – insbesondere Landespolitiker – auf den inzwischen mächtigen Widerstand von inzwischen über 1000 Bürgerinitiativen gegen die Errichtung von Windrädern in ihrer Region reagierten. Wie bereits berichtet wurde, gab es im Zusammenhang mit der beabsichtigten Einführung der oben erwähnten Sonderabschreibungen einen Widerstand von zwei SPD- und CDU- geführten Ländern sowie von der FDP-Fraktion im Bundestag, in dem als Voraussetzung ihrer Zustimmung Änderungen für das gesamte bisherige Genehmigungsverfahren für die Errichtung von Windkraftanlagen gefordert wurden:
– In der Bundesratsinitiative von Brandenburg wurde vom Ministerpräsidenten Dietmar Woidke gefordert, dass die im Baugesetzbuch verankerten baurechtlichen Privilegierungen von Windenergieanlagen im Außenbereich abzuschaffen sind.
– Auch der Vorsitzende der CDU/CSU-Mittelstandsvereinigung und stv. Fraktionsvorsitzender Carsten Linnemann schloss sich dieser Forderung an – und verlangte „einen besseren Ausgleich zwischen der Erneuerten-Branche und den Anwohnerinteressen. Wir sprechen hier insbesondere über Mindestabstände zur Wohnbebauung und über ein Ende der nächtlichen Dauerbefeuerung von Windrädern.“
– NRW strebt mit seiner Bundesratsinitiative die Wiederauflage der sogenannten Länderöffnungsklausel an, nach der jedes Bundesland eigene Abstandsregelungen (zu einer Wohnbebauung) für Windräder einführen könnte.
– Die Bundestagsfraktion der FDP brachte am 26.9.18 den Antrag ein (15), den Stopp der Rodungen in Wäldern, die sowohl für die Schaffung von Freiflächen für Windturbinen als auch für das Schlagen von Schneisen für den Transport des Baumaterials sowie der Kräne und Maschinen benötigt werden. Ferner wird die Bundesregierung in dem Antrag aufgefordert, einen Gesetzentwurf vorzulegen, der Waldflächen, Nationalparke, Naturschutzgebiete und Biosphärenreservate als Standorte von Windenergieanlagen dauerhaft ausschließt. Ferner sollten Abstandsgrenzen zu Brutstätten und Nahrungshabitaten gefährdeter Vogelarten verbindlich…,geregelt werden.

Der Industrieverband BDEW kritisiert die Länderinitiativen
Die Reaktion des BDEW auf die Bundesratsinitiativen von Brandenburg und Nordrhein-Westfalen ist in zwei Presseinformationen vom 24. August und vom 18. Oktober 2018 nachzulesen: https://www.bdew.de/presse/presseinformationen/
Beide Pressemitteilungen zitieren den Vorsitzenden der BDEW Geschäftsführung Stefan Kapferer.
Es folgen Zitate:
Zur:Presseinformation des BDEW vom 24.8.18
– Zur Forderung von MP Dietmar Woidke zur Abschaffung der Privilegierungen und zur Forderung vom Land NRW, die Länderöffnungsklausel wieder einzuführen (s.o.) äußerte sich Herr Kapferer wie folgt (Auszüge):
„Ohne die jetzigen Regelungen (Anm.: die Privilegierung betreffend) wären Windkraftprojekte zunächst automatisch unzulässig….Ohne die Privilegierung wären Windenergievorhaben im Außenbereich nur noch zulässig, wenn Kommunen entsprechende Flächen im Zuge der Bauleitplanung ausweisen. Projektierer müssten dann für jedes individuelle Projekt als Bittsteller an die kommunalen Verantwortlichen herantreten, um eine Flächenausweisung zu erwirken.Der Fortschritt der Energiewende wäre dann vom Gutdünken jeder einzelnen Kommune abhängig.“…
„Ebenso kritisch sehen wir die Forderungen, die Länderöffnungsklausel wieder aufzugreifen. Was diese Klausel verursacht, haben wir am faktischen Ausbaustopp der Windenergie in Bayern gesehen. Es ist schlichtweg bedenklich, dass die Abstandsregelungen zu einem politischen Spielball wurden, der bei jeder Landtagswahl neu gespielt zu werden scheint.
(Unterstreichungen vom Autor G.K.).

Zur Presseinformation des BDEW vom 18.10.2018
Zur Befassung des Bundesrats mit den Länderinitiativen von Brandenburg und Nordrhein-Westfalen (s.o.) äußerte sich Herr Kapferer  wie folgt (Auszüge):
„Die Bundesratsinitiativen der Landesregierungen von Brandenburg und Nordrhein-Westfalen laufen den energie- und klimapolitischen Anstrengungen zuwider und vergiften das Investitionsklima. Die Umsetzung der ‚10H-Regelung‘ in Bayern hat eindrücklich gezeigt, dass derartige Restriktionen den Erneuerbaren-Ausbau drastisch ausbremsen. Nun strebt NRW eine Wiederauflage der sogenannten Länderöffnungsklausel an, nach der jedes Bundesland eigene Abstandsregelungen für Windräder einführen könnte.“……
Zum Thema Abschaffung der Privilegierung im Baugesetzbuch wird ausgeführt:
„Ein noch drastischerer Einschnitt wäre mit der Abschaffung der baurechtlichen Privilegierung von Windenergieanlagen verbunden, wie sie das Land Brandenburg vorschlägt. Das würde zu einem abrupten Fadenriss bei der Neuaufstellung von Windrädern führen…..
Neue Restriktionen würden zudem die Bemühungen der Energiewirtschaft vor Ort umdie dringend benötigte Akzeptanz der Bevölkerung für den Windkraftausbau konterkarieren. Sie würden Protestbewegungen befeuern und ihnen ein politisches Gütesiegel aufsetzen.
(Unterstreichungen vom Autor G.K.)

Es ist anzunehmen, dass die Anti-Windkraft-Bürgerinitiativen diese klaren Äußerungen als durchaus hilfreich und eine Bestätigung für die Richtigkeit ihres Kampfes betrachten werden.
Aus diesen beiden Presseinformationen, die man sich von der Webseite des BDEW vollständig herunterladen und ausdrucken kann, sind mehrere grundsätzliche Argumentationslinien erkennbar:

1. Argumentationslinie Nr.1: Der BDEW unterstützt die Energiewendepolitik absolut, denn es ist nicht ein Hauch von Kritik erkennbar. Die beiden Länderinitiativen werden als gezielte Schädigung der Windkraftbranche bewertet („Fadenriss“) und mit deren auch stets von der Regierung betonten entscheidenden Wichtigkeit für die Energiewende stellen sie – in dieser Logik – einen Angriff auf die Energiewendepolitik der Regierung dar.
Diese derzeit von keinen Zweifeln getrübte eindeutige Unterstützung der Energiewendepolitik seitens des BDEW-Cefs stimmt allerdings nicht mit seiner Präsentation der von seinem Verband durchgeführten Untersuchung „Verfügbarkeit ausländischer Kraftwerkskapazitäten für die Versorgung in Deutschland“ vom 28.5.2018 überein, die er bei der Jahrestagung seines Verbandes vorstellte (16) und die anschließend in der Presse unter der Überschrift „„Die deutsche Energiewende verliert ihren Risikopuffer“ der Öffentlichkeit in deutlichen Worten erläutert wurde (17).
.
Diese Studie zerstörte die bis zu diesem Zeitpunkt von der Regierung, speziell vom BMWi, benutzte beruhigende Aussage, dass im Falle einer angespannten Situation (Sturm, Flaute, großer Wärmebedarf bei tiefen Temperaturen, Ausfälle von Kraftwerken, Schaltanlagen oder Leitungen) die Nachbarländer eine ausreichende Hilfe durch Stromexporte leisten könnten, weil sie angeblich über ausreichende Kraftwerks-Überkapazitäten verfügten. Die Untersuchung des BDEW auf der Grundlage der Daten der Organisation europäischer Netzbetreiber ENTSO-E  belegte jedoch, dass  es diese Überkapazitäten tatsächlich nicht gibt.
Die jahrelang verbreitete Falschmeldung sei angeblich ein „Rechenfehler“ um den Faktor 3 bis 4 (!) bei der Ermittlung der verfügbaren Reservekapazitäten gewesen, wie das Ministerium einräumte.
Dadurch haben die Beschwichtigungsversuche der Regierung hinsichtlich der Abwendung eines katastrophalen „Blackouts“ durch rettende Stromimporte aus unseren Nachbarländern ihr letztes Argument verloren.

Der BDEW unter der Leitung von Stefan Kapferer hatte damit der Regierung das einzige verbliebene und nun als grob unwahr festgestellte Ausrede- und Beschwichtigungsargument aus den Händen geschlagen.
Bei dieser verdienstvollen Aktion, die harte Entscheidungen der Netzbetreiber in kritischen Situationen zu untermauern hilft und die daher den Interessen der Verbandsmitglieder entsprach, hatte sich der Verbandschef nicht als ein Unterstützer der Energiepolitik erwiesen; sehr wohl aber als Verbandschef, der seine Aufgaben kennt. Das war im Mai. Und jetzt naht die von den Übertragungsnetz-Betreibern ungeliebte kritische Wintersaison mit Dunkelflauten, Redispatch-Aktionen und weiteren Schwierigkeiten – ohne die im Ernstfall rettenden Erzeuger jenseits der Grenzen.

Zu den verzögerten Sonderausschreibungen und den Bundesrats-Initiativen:
Erstaunlicherweise fiel dem BDEW-Chef in seinen Presseinformationen kein Motiv für den Vorstoß der beiden Bundesländer ein. Das absichtliche Anrichten von Schäden verbunden mit der Unfähigkeit, die bösen Folgen ihres Tuns zu begreifen, steht zwar als Vorwurf für die beiden Ministerpräsidenten (der eine SPD, der andere CDU) deutlich zwischen den Zeilen, aber das wäre ja wohl wenig glaubhaft. Also, welche Motive sind es dann? Könnte es nicht sein, dass der Druck der Bürger in diesen Bundesländern deren Vorstoß auslöste?

2. Argumentationslinie Nr.2: Die Projektierer als Bittsteller bei der kommunalen Verwaltung. Diese Bezeichnung beschreibt diejenigen Kommunen als Hindernis gegen höherrangige Ziele, die sich eine eigene Meinung leisten – und das vermutlich auch noch auf der Grundlage der Mehrheitsmeinung der Bürgerschaft.  Wo die Regierung doch nur ihr Bestes will. Und die Projektierer ebenfalls. Wenn andere Unternehmen – ein Sägewerk, ein Outlet-Center, ein Möbellager, ein Containerhof – in einer Kommune Bauwerke errichten möchten, müssen die ebenfalls als „Bittsteller“ auftreten? Sie sind Interessenten bzw. Antragsteller. Die kommunale Planung entscheidet in diesen Fällen, wie es  immer gehandhabt wird. Kein Landrat, kein Regierungspräsident und auch kein Minister. Selbstverwaltung.
Dagegen halfen bis jetzt Privilegien im Baugesetzbuch – aber nur für politisch unterstützte Branchen. Das sieht wie eine fragwürdige Praxis aus, die es in Friedenszeiten nicht geben sollte. Privilegien bedeuten Tempo, Durchsetzung eigener Pläne, keine Diskussionen, höhere Renditen. Ein Erfolgsrezept – in China.

3. Argumentationslinie Nr.3: Der schlimmste Störfaktor für die Windbranche ist offensichtlich die Bevölkerung. Die Logik der vorgelegten Argumente verwirrt allerdings. Die „dringend nötige“ Akzeptanz der Bevölkerung würde „konterkariert“ werden. Und zwar durch „neue Restriktionen“. Wenn also die Bürger mitreden dürfen, wenn ihre gewählten Ratsmitglieder mitentscheiden dürfen, ob es eine Flächenausweisung für Windräder geben soll, dann „würde die dringend nötige Akzeptanz dieser Bürger konterkariert.“ Zutreffender wäre die Aussage, „dass die Mitsprachemöglichkeit für die Bürger einer Kommune gestärkt würde.“
Und Protestbewegungen würden nicht etwa überflüssig, weil die Kommune durch die Restriktionen das letzte Wort behält – nein, diese „Protestbewegungen würden befeuert“ und bekämen noch „ein politisches Gütesiegel“ aufgesetzt.

Für die enorme Zahl der Bürgerinitiativen – wie Gegenwind, Windwahn, Pro Natur, Windvernunft, BI Pro Tauschwald, Wattenrat Ostfriesland, Rettet Brandenburg, Bundesverband Landschaftsschutz, Aktion Gegenwind Allgäu, ArGe windradfreie Heimat, Vernunftkraft und weitere 1000 BI-Gruppen – aber auch für Kommunalpolitiker sind diese zwei verbandspolitischen Texte wichtig.
Sie zeigen die Denkmuster sehr deutlich, aber wichtiger sind vermutlich die großen Lücken in der gesamten Argumentation. Man registriert im Verband, dass es Gegner der Energiewendepolitik gibt und dass sich diese Haltung gegen die industriellen Vollzugskräfte und (vorübergehend) Profiteure dieser Politik wendet. Und plötzlich droht ein Absturz, ausgelöst durch ein eher geringfügiges Versagen des Gesetzgebers, aber tatsächlich verursacht von den zahlreichen, ernsten und zumeist nicht steuerbaren Problemen, die hier aufgezählt wurden.
Selbstverständlich ist der kürzlich der Regierung vom Bundesrechnungshof
amtlich bestätigte Kontrollverlust der zahlreichen, unkoordiniert mit der (planwirtschaftlichen) Regulierung und Steuerung der Energiewende befassten Teile des Regierungsapparates von erheblicher Bedeutung (5, 6, 7, 8).
Aber auch wenn das Management der Energiewende weniger kritikwürdig wäre, würden deren inhärente Fehlkonstruktionen dennoch alle „ehrgeizigen“ Ziele („ehrgeizig“ ist das politisch korrekte Synonym für „unerreichbar“) zum Scheitern verurteilen.

Schlussbemerkungen – nicht nur an die Adresse der Windenergiebranche
Eigentlich kennt beinahe jeder die „Randbedingungen“, die uns die Natur bei unseren Versuchen, die „Erneuerbaren Energien“ zu nutzen, gesetzt hat.
Die Energiedichte, die Wind, Sonnenlicht, Meeresströmungen oder Erdwärme aufweisen, ist gering, weshalb man große Flächen und entsprechend große Anlagen braucht, um nennenswerte Energieernten zu erzielen. Das wiederum führt zu hohen Kosten.
Wo man große nutzbare Flächen zur Verfügung hat und auch hohe Kosten für die Energiemenge 1 Kilowattstunde nicht scheut, kann man in die Nutzung dieser regenerativen Energiequellen einsteigen.
In einem dichtbesiedelten Land wie Deutschland, das zudem eine starke, exportabhängige Industrie besitzt, deren Wirtschaftlichkeit stark von ihren Stromkosten abhängt, und das außerdem von der Natur durch seine geografische Lage weder mit viel Sonne noch viel Wind und auch nicht mit reichlicher Geothermie ausgestattet ist, benötigt man genau die Stromerzeugungstechniken, die man bis zur Jahrtausendwende nutzte – und von denen gerade noch ausreichende Kapazitäten existieren. Deren Weiterentwicklung ist beendet worden; ihre Stilllegung politisch gewollt.
Wie das enden wird, wissen die Experten in den Wirtschaftsverbänden sehr genau.
Aus der langen Liste der verschiedenen ernsten Probleme, denen sich die Windenergiebranche gegenüber sieht – und fast alle sind grundsätzlicher Natur und sowohl lange bekannt als auch nicht ausräumbar – kann man feststellen, dass das aktuell beklagte administrative Problem im Vergleich mit dem unüberwindlichen Berg der tatsächlich ernsten Grundsatzprobleme nicht in den Vordergrund der Debatten gehört.

Die heute sehr wahrscheinlich in ihrer Existenz bedrohte Windenergie-Branche ist nicht die Verursacherin ihrer Schwierigkeiten, sondern Opfer einer bestimmten Politik. Aber das Ignorieren der aussichtslosen Situation, in die die gesamte Energiewirtschaft Deutschlands durch die rein ideologisch begründete, aber fachlich-betriebswirtschaftlich und planerisch inkompetente Administration gebracht worden ist, verschlechtert die Lage für jede beteiligte und abhängige Branche. Auf künftig noch mehr Förderung zu hoffen, wäre gewagt.
Die Gegner, über die man sich heute beklagt, sind erst durch die Defizite der Politik und deren zahlreiche Nebenwirkungen geschaffen worden. Auch eine kompetentere Planung und ein effizienteres Management hätte die Probleme nicht beheben, sondern allenfalls Begleitschäden verringern können.
Auch bei einem vorübergehend weitergehenden Ausbau der Windkraft werden diese Gegner nur zahlreicher und stärker. Wenn deren Sorgen und Beschwerden berechtigt sind, ist das Erzielen von Akzeptanz keine vernünftige Strategie.
Wann beginnt der BDEW, sich umfassend über die Ursachen der beginnenden Schwierigkeiten, die nur den Beginn einer Abwärtsspirale andeuten, zu informieren? Sämtliche Fakten liegen auf dem Tisch.
Die Industrieverbände sollten sich entscheiden: Zwischen unkritischer Regierungsfrommheit oder klarer, selbstbewusster Vertretung der berechtigten Interessen ihrer Mitglieder auf der Grundlage kritischer und kompetenter Analysen der Politik.

Quellen:
(1): Kathrin Witsch: „Die deutsche Windbranche steht vor einer schweren
Krise“, Handelsblatt Online, 2.8.2018.
(2): Birgit Marschall: „Union und SPD streiten sich über Ausbau der Windenergie“,
Rheinische Post Online, 10.8.2018;                                                           https://rp-online.de/politik/deutschland/groessere-abstaende-fuer-windraeder-union-und-spd-streiten-sich-ueber-ausbau-der-windenergie_aid-24778049/

(3): Helmut Alt (Prof.Dr.-Ing.): „Windkraft: Angriff auf die Privilegierung“, Leserbrief in
der ZfK (Zeitschr. f. Kommunale Wirtschaft), September 2018
(4): Daniel Wetzel:“Windkraft-Booster der Bundesregierung kommt zu spät“;
DIE WELT, 4.10.2018
(5):  Bundesrechnungshof (BRH) : „Bericht – nach §99 BHO
(Bundeshaushaltsordnung) – über die Koordinierung und Steuerung zur
Umsetzung der Energiewende durch das Bundesministerium für Wirtschaft und
Energie“ (BMWi), Langfassung; Hrsg. Bundesrechnungshof, Referat Presse- und
Öffentlichkeitsarbeit, Bonn 28.09.2018;  www.bundesrechnungshof.de
(6): Bundesrechnungshof: „Energiewende droht zu scheitern. Bundesrechnungshof
bilanziert Stand und Umsetzung der Energiewende“; Pressemitteilung vom
28.09.2018;
(7): Bundesrechnungshof: „2018 Sonderbericht – Koordination und Steuerung zur
Umsetzung der Energiewende durch das Bundesministerium für Wirtschaft und
Energie“, – Zusammenfassung– Pressemitteilung – Statement. 28.09.2018.
Mit Stellungnahme des BMWi zum Bericht des BRH.
(8): Daniel Wetzel: „Bei der Energiewende droht Deutschland der endgültige
Kontrollverlust“, Untertitel: „Deutschlands Defizite bei der Umsetzung der
Energiewende.“ DIE WELT, 28.09.2018;
https://www.welt.de/wirtschaft/article181690102/Bundesrechnungshof-wirft-
Regierung-Versagen-bei-Energiewende-vor.html
(9): W. Daldorf, R. Ernst, H. Feddersen, Chr. Herz, H. Visel, J. Bonorden, J. Vry:

„Ratgeber für Windpark-Anleger“, Bundesverband Windenergie,
Version 18.3.2011;  

http://www.energieverbraucher.de/files_db/1300471869_4207_12.pdf 

(10):bund der energieverbraucher: „Bundesverband WindEnergie will mit
neuem Anlegerinfo für mehr Transparenz auf dem Kapitalmarkt sorgen“,
2014 ;

http://www.energieverbraucher.de/de/windkraftfonds_pruefen_584#con1082

(11): Was Jahresvollaststunden bedeuten, erklärt der BDEW:
„Eine wichtige Kenngröße für die Nutzbarkeit einer Energiequelle ist die Anzahl
der Jahresvolllaststunden. Diese gibt an, in wieviel Stunden eine Anlage ihre
(tatsächliche) Jahresstromerzeugung erbracht hätte, wenn sie ständig (ihre)
maximale Leistung erbracht hätte.“
(12): Stefan Lakeband: „Rettung bei Senvion gescheitert.“; Weser-Kurier; 11.7.2018;
https://www.weser-kurier.de/bremen/bremen-wirtschaft_artikel,-rettung-bei-senvion-gescheitert-_arid,1623675.html
(13): Friederike Liebscher und Markus Minten: „Kündigung für 420 Mitarbeiter“;
NWZ Online; 21.12.2017;  https://www.nwzonline.de/wirtschaft/lemwerder-carbon-rotec-in-lemwerder-kuendigung-fuer-420-mitarbeiter_a_50,0,1746237949.hmtl/
(14): Ulrich Schlüter: „Carbon-Rotec-Gelände hat neuen Besitzer“; NWZ; 4.7.2018
https://www.nwzonline.de/wirtschaft/
(15): FDP-Fraktion im Deutschen Bundestag: Antrag vom 27.9.2018: „Wälder
schützen – Rodungen für die Windkraft stoppen“, Drucksache 19/2802;
https://www.bundestag.de/dokumente/textarchiv/2018/kw39-de-waldrodung-
windkraft/570240

(16): BDEW Bundesverband der Energie- und Wasserwirtschaft e.V.:
„Verfügbarkeit ausländischer Kraftwerkskapazitäten für die Versorgung in
Deutschland“, Studie; Berlin, 28.5.2018; www.bdew.de
(17): Daniel Wetzel: „Die deutsche Energiewende verliert ihren Risikopuffer“,
DIE WELT, 23.4.18

(18): Günter Keil: „Infraschall von Windturbinen: Dänemark geht den Wirkungen auf
den Grund“; 25.05.2018,
http://ageu-die-realisten.com/archives/2787

St. Augustin, den 27.10.2018




Erneuerbar sind nur Illusionen ………Die „Zukunftstechnologie“ Windkraft steht vor unlösbaren Problemen Teil 1              

Dass so etwas tatsächlich ernsthaft zur Politik der Regierung einer Industrienation werden konnte, hatte mehrere Gründe: Das Aufkommen einer Partei, die Umweltprobleme zu ihrem Hauptthema machte und geschickt mit der Angst als Überzeugungsmittel agierte – auch heute noch. Berichte über Umweltkatastrophen (Beispiel „Seveso“); Bücher wie „Der stille Frühling“; das Ozonloch; das angebliche Waldsterben – dessen Widerlegung als „Fake“ dennoch nichts an dessen Wirkung auf die Bürger ändert. Die bis heute unbewiesene und wissenschaftlich umstrittene Hypothese vom menschengemachten Klimawandel; die Angst vor „Strahlen“ jeder Art…Diese Liste ist unvollständig…
Dieses für natur- und ingenieurwissenschaftlich nicht ausgebildete Personen – leider auch Politiker – undurchschaubare Dickicht von wahren und falschen Informationen führte immerhin dazu, dass erkannte Umweltschädigungen an ihrer Quelle bekämpft, minimiert und auch eliminiert wurden: Oft war die Industrie die Verursacherin, oft die Landwirtschaft, oft der gedankenlose oder ahnungslose Verbraucher selbst.

Auch die Energiewirtschaft musste sich daran beteiligen und insbesondere die Gesetze zur Luftreinhaltung aus der Regierungszeit von Willy Brandt erwiesen sich als außerordentlich wirksam.
Der Regierung Helmut Kohls war es vorbehalten, einen Schritt weiter zu gehen, indem sie die Entwicklung bestimmter, scheinbar besonders umweltfreundlicher Energietechniken zu fördern begann. Das war die Geburtsstunde des Erneuerbare Energien-Gesetzes (EEG) – dessen Geburtsfehler bezeichnenderweise bereits in dessen Namen liegt: Es gibt keine erneuerbare Energie. Die Sonne strahlt elektromagnetische Energie (Licht, UV, IR) ab, die durch Kernfusion (Wasserstoff zu Helium) erzeugt wird. Die dabei „verbrannte“ Masse ergibt sich aus Albert Einsteins berühmter Gleichung E=m c2.
Dabei wird nichts „erneuert“. Korrekt wäre „regenerative Energie“, die ohne unser Zutun kostenlos nachgeliefert wird, aber an ihrer Quelle selbstverständlich ständig neuen „Brennstoff“ verbraucht. Solarzellen sind folglich Energieumwandler;  Wasserkraftwerke, Dieselmotoren, Windmühlen, Kaminöfen, Brennstoffzellen und Heizstrahler sind es ebenfalls.
Die Bezeichnung eines großen wirtschaftspolitischen Regierungsprogramms mit einem physikalischen Unsinnsbegriff beschreibt bereits das fachliche Niveau der Schöpfer der vielen Gesetzesparagraphen, die die Energiewende mit ihrem Fernziel eines überwiegenden Einsatzes „erneuerbarer Energien“ konzipierten.

 

Mittlerweile ist bereits eine der beiden Zukunftstechnik-Branchen, die hunderttausende von Jobs schaffen und ihre Produkte als Exportschlager weltweit verkaufen würden, bis auf kleine Reste aus Deutschland verschwunden: Die Produktion der Photovoltaik-Zellen. Über den mit den EEG-Umlagen massiv subventionierten Aufbau dieser Fertigungsbetriebe und deren Untergang durch die chinesische Billig-Konkurrenz ist bereits umfassend berichtet worden.
Dann war nur noch eine Zukunftstechnik übrig: Windräder. Weil es sich dabei um eine sehr alte Technik der Windenergie-Nutzung handelt, lag zum Zeitpunkt der Verkündigung der Energiewende neben den längst geklärten  physikalisch-aerodynamischen Wirkungsmechanismen auch ein riesiger historischer Erfahrungsschatz über die Vor- und Nachteile dieser Technik vor. Es gab keine Unklarheiten über die im vorliegenden Artikel genannten Einflussfaktoren und über die Ergebnisse bei der Anwendung.
Eine Ausnahme bildeten die verschiedenen Auswirkungen neuer, riesiger Windräder: Die Lärm- und Infraschall-Abstrahlung und deren gesundheitliche Auswirkung auf Menschen. Ferner die Folgen des Baus dieser Anlagen, insbesondere der Fundamente. Deren aufwendiger Rückbau am Ende der Betriebsdauer. Der tatsächliche Flächenbedarf für Standort und Zufahrtswege. Die Gefährdungslage bei Bränden; z.B. in Wäldern. Die Gefährdung geschützter Tierarten.
Bei den historischen Windmühlen, die relativ klein waren, gab es derartige Probleme kaum oder gar nicht. Somit fehlten entsprechende Erfahrungen und Regelungen für die Vermeidung derartiger Auswirkungen.
Aber in Bezug auf die wetterbedingte Unzuverlässigkeit, auf die Aussichtslosigkeit, Windkraft zu bekommen, wenn man sie brauchte, lieferten bereits die historischen Erfahrungen den Beweis für die Unbrauchbarkeit der Windkraft für eine Versorgung mit elektrischer Energie.

Die heute von den zahlreichen „Gegenwind“-Bürgerinitiativen kritisierte Verantwortungslosigkeit der zuständigen Politiker und Ämter, die in den vergangenen Jahren  den erfolgten massiven Ausbau der Windenergieerzeugung mit immer monströseren Windturbinen ohne Rücksicht auf die schädlichen Folgen gestattet und vorangetrieben haben, kann man auf  eine sträfliche Unterlassung des Gesetzgebers zurückführen:
Was wir heute bei der erst vor wenigen Jahren begonnenen wissenschaftlichen Untersuchung der größten Probleme der Windstromerzeugung lernen müssen – über die gesundheitlichen Auswirkungen auf Menschen, die bereits seit Jahren dem Gesamtspektrum der Schallemissionen ausgesetzt sind –  ist das Ergebnis der überhasteten und buchstäblich massenhaften Errichtung von Windrädern in bewohnten Gebieten. Eine verantwortungsvolle Vorgehensweise wäre eine jahrelange experimentelle Erprobung der neuen Großanlagen in unbewohnten Regionen gewesen.
Aber tatsächlich werden immer größere Windräder errichtet. Die Anwohner sind die unfreiwilligen Versuchspersonen, die einfach Pech haben, wenn sie nicht weit genug entfernt wohnen. In den USA würde man sie guineapigs nennen.

„Es liegt allein an den ausgebliebenen Sonderausschreibungen !“
Bis zum Jahre 2017, das einen Neubau-Rekord brachte und mit der ab Herbst 2017 abermals regierenden Großen Koalition eine Fortsetzung der guten Geschäfte versprach, ging es der Windstrom-Branche nicht schlecht. 2018 verdüsterten sich jedoch die Aussichten. Negative Einflussfaktoren kamen aus unterschiedlichen Richtungen und die bisherige angestrengte Euphorie in den Medien ging in Warnungen über. Schuldige werden bereits gesucht und weil es die Windenergie-Lobby selbst nicht sein kann, müssen es Politiker sein, vorzugsweise diejenigen, die gerade Ärger machen. Das ist das übliche politische Spiel, wenn ein Potemkinsches Dorf zusammenfällt und das Baumaterial Pappe für jeden sichtbar geworden ist.

Soweit ist es inzwischen mit unserem Vorreiter-Land gekommen: Die durch Energie-Planwirtschaft mit dem Geld der Stromkunden aus dem Nichts emporgewachsene Windenergie-Branche, die nach der Vision der Bundesregierungen jetzt im 21. Jahrhundert nach Christus mit ihrer schon einmal durch James Watts Dampfmaschinen ausgerotteten Windmühlen-Technik die Industrienation Deutschland exklusiv mit Strom versorgen, und dabei auch noch das angeblich bedrohte Klima des Planeten retten sollte, sieht sich in ihrer Existenz bedroht. Und zwar durch ein Zögern der Bundesregierung bei dem Beschluss, geplante   Sonderausschreibungen für Wind- und Solarstromanlagen wirksam werden zu lassen. Die Regierung hatte aber in letzter Zeit andere Sorgen.
In ihrem Koalitionsvertrag war vorgesehen, dass Sonderausschreibungen von jeweils 4000 MW für Wind- und Solarstromanlagen in den Jahren 2018 und 2019 ermöglicht werden sollten, um absehbare Auftragseinbrüche auszugleichen. Das hatte die Windbranche schon rechtzeitig erreicht. Die nun im Herbst 2018 beklagten Probleme hatte die Regierung durch einen Fehler in ihrem Ausschreibungssystem selbst geschaffen – es war die gut gemeinte Privilegierung kleiner Bürgerenergiegesellschaften, die sich jedoch mit Bauaufträgen sehr zurückhielten. Den Auftragsbüchern der Windradhersteller hätte es noch gut getan, wenn dieser Beschluss für die Sonderausschreibungen noch vor der Sommerpause 2018 erfolgt wäre. Aber das Kabinett hatte bekanntlich auch noch andere politische Aufgaben zu bewältigen – und so geriet die Energiepolitik vorübergehend ins Hintertreffen. Außerdem blockierte ein Streit zwischen der Union und der SPD im Parlament über Forderungen zweier Bundesländer  – mit CDU- und SPD-Ministerpräsidenten – nach Änderungen der Windenergie-Förderung (Abschaffung ihrer  Privilegierung im Baurecht; größere Mindestabstände zu Wohngebäuden; erst Netzausbau realisieren) die anstehende Entscheidung (2) (3).

„Nun ist es zu spät“, schrieb der Journalist Daniel Wetzel am 4. Oktober (4). „Wenn die Bundesregierung die Sonderausschreibungen erst Ende Oktober beschließt, wird wohl kein einziges Extra-Windrad noch im Jahre 2019 fertig.“ Schon 2018 habe es in den Auftragsbüchern große Lücken gegeben, nachdem im Jahr zuvor die Windindustrie ein geradezu enormes „Übersoll“ mit 5333 MW (1792 Windturbinen) an Stelle der im „Ausbaupfad“ der Regierung vorgesehenen 2800 MW geleistet hatte.

Die Verzögerung der Subventionserweiterung stellt nun für die davon abhängige Branche eine bedrohliche Situation dar; Vorwürfe wurden erhoben und Schuldige benannt. Politiker, Medien und Gewerkschaften sparten nicht mit Kritik und in den Kommunen, in denen Windenergie-Betriebe ihren Sitz haben, wuchsen die Sorgen. Wie sich zeigte, waren sie berechtigt.

Werksschließungen und Entlassungen. Deutschlands zweite Zukunftstechnik-Branche sieht Gefahren.
Bereits Anfang August d.J. brachte Handelsblatt Online einen Artikel von Kathrin Witsch (1) über die schwere Krise, die der deutschen Windbranche – die mehr als 143.000 Mitarbeiter zählt – bevorsteht und die bereits zu beträchtlichen Entlassungen geführt hat.
Der Auricher Hersteller Enerconhatte bereits Jobverluste angekündigt, die sich dann Anfang August auf bundesweit 835 Arbeitsplätze summierten. Zur Erläuterung der Situation und der nun folgenden Konsequenzen wurde mitgeteilt, dass das Unternehmen wegen fehlender Aufträge aus dem Inland nicht nur die erwähnten Stellen im eigenen Hause streichen müsse, sondern dass auch bestehende Verträge mit Zulieferern zu reduzieren sind. Man werde sich jetzt auf internationale Märkte ausrichten.
Wie es diese Zulieferfirmen getroffen hat, wird in dem Artikel eingehend geschildert. Der Bundesverband für Windenergie BWE gehe für das Jahr 2017 von einer „fünfstelligen Zahl“ wegfallender Arbeitsplätze aus. Sogar komplette Betriebsschließungen werden in dem Handelsblatt-Bericht genannt (1):
So fallen bei der WEC Turmbauin Emden 190 Jobs weg, bei der WEC Turmbau GmbH in Magdeburg 130 Arbeitsplätze – und der WEC-Betrieb in Westerstede werde geschlossen; das koste weitere 150 Stellen. .

Das Unternehmen Senvionhatte bereits im März 2018 angekündigt, dass seine Betriebsstätten in Husum (S.-H.) und Trampe (Brandenburg) geschlossen werden müssten. Auch die Senvion-Tochter Powerbladesin Bremerhaven wurde geschlossen, wie der Weser-Kurier am 11.7.2018 meldete (12).
In diesem Artikel wird berichtet, dass ein Rettungsplan für die Mitarbeiter vom Vorstand des Mutterkonzerns abgelehnt wurde.
Die Fertigung von Rotorblättern bei Powerblades solle von Bremerhaven nach Portugal (Nähe Porto) verlegt werden. Betroffen sind 386 Beschäftigte, von denen einige in den Servicebereich übernommen werden sollen, der in der Nähe Hamburgs konzentriert werden solle. Oder in die Turbinenfertigung, die in Bremerhaven verbleibt.

Über die Vorgänge bei dem ebenfalls Rotorblätter produzierenden Hersteller Carbon Rotecin Lemwerder bei Bremen berichtete die Nordwest-Zeitung (NWZ Online) am 21.12.17 (13) und am 4.7.2018 (14). In dem Artikel vom 21.12.(13) wird die Carbon Rotec als „einer der führenden Hersteller von Rotorblättern für Windkraftanlagen“ bezeichnet. Deren Geschäftsführung hatte Mitte Oktober 2017 einen Insolvenzantrag gestellt, nachdem der einzige Großkunde, das Windenergieunternehmen Nordex, seine Lieferverträge nicht verlängert habe. Der Geschäftsbetrieb muss daher zum 1.1.2018 eingestellt werden. Es habe weder andere größere Kunden oder Aufträge gegeben. Auch keinen möglichen Erwerber.
In einem zweiten Artikel in der NWZ vom 4. Juli 2018 (14) wurde das weitere Geschehen nach der Betriebsschließung geschildert: Die Gustav-Zech-Stiftungmit Sitz in Bremen habe ein ca. 8 ha großes Gelände der Carbon Rotecin Lemwerder von Christopher Seagon erworben. Die Stiftung sehe den Kauf als Kapitalanlage und beabsichtige, das Gelände zu entwickeln – z.B. durch die Ansiedlung eines Betonfertigteil-Werks. Für Bestandsgebäude werde man andere Interessenten suchen.
Die Stiftung gehe im Moment davon aus, dass durch die Ansiedlung von verschiedenen Unternehmen rd. 200 neue Arbeitsplätze geschaffen werden könnten. (Soweit die NWZ.)

Die hier beschriebenen Beispiele harter und schmerzhafter Reaktionen dieser beiden Unternehmen auf die kritischen Entwicklungen im Jahre 2017 und die sich daraus ergebenden Folgen für die Situation der Windenergiebranche ab dem Jahre 2020 geben eher den Schwarzsehern recht:
Ein Rotorenhersteller, der das Land verlässt, und ein weiterer, der Betrieb und Gelände aufgegeben hat, werden 2020 in Deutschland nicht mehr produzieren und keinen Beitrag für einen späteren, erneuten Aufschwung der deutschen Windenergie-Branche leisten.
Sollte die Regierung die fast unglaublichen Fehler wiederholen, die ihre Vorgänger bei der Solarstromförderung begingen ? Mit dieser Technik sollte eine eindrucksvolle neue Branche in Deutschland die Welt versorgen; von einem Solar-Valley war euphorisch die Rede. Dann begann ein Trauerspiel: Erst wurde das in dieser Technik vollkommen „unterbelichtete“ China mit Krediten der deutschen Kreditanstalt für Wiederaufbau KfW für die Beschaffung moderner deutscher Produktionseinrichtungen gefördert, ebenso mit dem dafür nötigen know-how, dann begannen Chinas Unternehmen, Solarzellen zu fertigen – und am Ende waren sie die größten Hersteller im Weltmaßstab, die die deutschen Produzenten mit Niedrigpreisen in den Bankrott trieben. Und die seither die Dächer der netten Deutschen mit ihren Solar-Panels ausrüsten. Montieren dürfen das deutsche Handwerker. Die Gewinne gehen nach China.

Ganz ähnlich könnte es der Windenergiebranche ergehen. China gedenkt offenbar, auch bei den Windrädern ebenso zu verfahren, wie bei den Solarstromanlagen: Nur wenige im eigenen Land installieren, Importe unterbinden – aber dafür mit Nachdruck in den Export gehen.
Die Sätze von Daniel Wetzel (4) , „Die Hersteller-Industrie muss mit dem Einbruch der Nachfrage im kommenden Jahr also leben“. ..“Denn nach dem Einbruch 2019 dürfte es ab 2020 wieder steil bergauf gehen: Dann dürften immer mehr Anlagen aus den Sonderauschreibungen wirklich gebaut werden“, könnten sich als teils falsch und teils ungewollt doppeldeutig erweisen:
Ein Teil der Hersteller-Industrie lebt schon jetzt nicht mehr – siehe oben. Und wer wird nach diesen Erfahrungen neue Produktionsstätten finanzieren?  Steil bergauf wird es wohl mit der Vermehrung der Windräder in Deutschland dank der unfreiwilligen Millionenzahlungen der Stromkunden tatsächlich gehen – mit dänischen Vestas‘ und Chinas-Windturbinen. Und für die deutschen Firmen bliebe der Zusammenbau der importierten Komponenten; die Montage am Standort und die spätere Wartung. Wie bei der Zukunftsbranche Solarstrom.

Power-to-Hope
Die in letzter Zeit geradezu verzweifelten Versuche, die erheblichen, nicht in Deutschland verwendbaren und auch nicht speicherbaren Windstrom-Überschüsse in Starkwindperioden „irgendwie“ doch noch zu verwenden – wenn auch leider nicht mehr als elektrische Energie (die im Moment ihrer Einspeisung in das Stromnetz auch genutzt bzw. verbraucht werden muss; nicht novellierbares Kirchhoffsches Gesetz) – führten zu einem Bündel von Umwandlungsvorschlägen, die bedeutend klingende englische Namen bekamen: Power-to-Gas und Power-to-Heat.

Dabei sollte bei Power-to-Gas mittels der Elektrolyse Wasserstoff aus Wasser erzeugt werden, wobei man diese Verfahrenskette noch um einen weiteren Umwandlungsschritt verlängern könnte, indem aus dem Wasserstoff zusammen mit Kohlenstoff  Methan erzeugt wird. Beide Gase könnten in das Erdgasnetz eingeleitet werden (Wasserstoff jedoch nur begrenzt), womit eine Speicherung möglich ist. Bei diesen mehrstufigen Verfahren muss man in jeder Umwandlungsstufe erhebliche Verluste (Abwärme) hinnehmen, die sich multiplizieren und den Gesamtprozess zu einem Energievernichtungs- und Verschwendungsverfahren werden lassen.
Der dadurch erlittene Verlust von ca. zwei Dritteln der mit den Windrädern teuer erzeugten Edel-Energieform Strom mit dem nicht gerade eindrucksvollen Energieträger Methan/synthetisches Erdgas als kostspieliges Endprodukt des enormen Aufwands lässt ein derartiges Verfahren als besonders absurden Schildbürgerstreich erscheinen. Aber mindestens eine derartige Anlage ist im Bau.

Das Power-to-Heat-Verfahren ist vom Prinzip her nichts anderes als es die Warmwasser-Boiler oder Tauchsieder sind: Die hochwertigste und besonders teuer produzierte Energieform elektrische Energie wird zur geringwertigsten Energieform Niedertemperaturwärme umgewandelt; für Energiewirtschaftler und Physiker ein Horrorbeispiel für Verschwendung.

Diese Verfahren dürften vor allem wegen ihrer extremen Kosten keine Chancen haben, in der Energiewirtschaft eine Rolle zu spielen. Die Endverbraucher würden im Grunde das meiste Geld nicht für einen Energieträger oder eine Energiemenge bezahlen, sondern für Vergeudung und Verluste bei den Anbietern. Diese Rolle möchte vermutlich kein Unternehmen spielen.
Aber so unglaublich es auch für Energiewirtschaftler und -Techniker erscheinen mag, dass derartige Power-to-Irgendetwas-Verfahren durch neue Gesetze,  Verordnungen, Umlagen oder Steuern in den Energiemarkt hineingezwungen werden könnten; es kann geschehen. Denn es handelt sich dabei um scheinbare Problemlösungen, die den ratlosen Politikern und ihren Ministerialbeamten offeriert werden.  Es winkt immerhin Zeitgewinn durch den Start neuer Zukunftsprojekte und das kostet natürlich etwas.

Das Problem dabei sind ja nicht diese Kritiker, die solche Artikel wie diesen hier schreiben; sondern die Verbraucher. Diese könnten noch höhere Energierechnungen, die auch wieder nicht von der Sonne veranlasst sind, derart unakzeptabel finden, dass sie politisch reagieren. Das wiederum könnte die Windenergiebranche, die schon genug Probleme hat, davon abhalten, sich auch noch diesen Power-to-Trouble aufzuladen.
Die hier verwendeten zahlreichen „dürften“, „könnte“ und „würde“ sind natürlich nur energiepolitische Kaffeesatzleserei. Es ist schlicht unmöglich, die weiteren Entwicklungen in  der erratischen deutschen  Energiepolitik mit dem Mittel der Logik abzuschätzen. Auch die Reaktionen – bzw. das Ausbleiben deutlicher Reaktionen – der Wirtschaftsverbände sind kaum noch mit der Interessenlage ihrer Mitgliedsunternehmen in Übereinstimmung zu bringen.
Die mehrfach bestätigte und beklagte Zurückhaltung der Investoren bei Kraftwerksneubauten – man lese die Berichte der Bundesnetzagentur – scheint die einzige nachvollziehbare Reaktion der Wirtschaft auf das Ende der  Sicherheit für einen langfristigen wirtschaftlichen Betrieb solcher Anlagen zu sein.
Die Antwort einer Planwirtschaft lautet Staatskraftwerke, finanziert mit Steuermitteln, deren Energieträger wäre Erdgas aus Russland. Sie werden bereits als Lösung diskutiert. Unter dem besser klingenden Namen „Kapazitätsmarkt“. Als Investoren und Betreiber seien die Übertragungsnetzbetreiber geeignet; das könnte dann fast wie eine marktwirtschaftliche Lösung aussehen.
Die deutsche Energiepolitik würde dadurch einen großen Schritt in die Richtung der Verstaatlichung des gesamten Energiesektors tun.


Die Windenergiebranche hat erheblich mehr Probleme…

Die Branche hat jedoch weitere und sehr viel größere Probleme, als verzögerte zusätzliche Ausschreibungen für Neubauten. Einerseits Probleme der verwendeten Technik, die überhaupt nicht zu beheben sind, zum anderen Probleme, die verdrängt oder krass unterschätzt werden.
Eine Zusammenstellung:
Die Witterung mit ihren typischen kurzfristigen Windstärke-Schwankungen, die für Windräder auf Grund physikalischer Gesetze zu noch weitaus stärkeren Schwankungen ihrer Stromerzeugung führen. Diese Eigenschaft bedeutet für die Netzbetreiber nur schwer ausgleichbare Stromeinspeisungs-Schwankungen, die mit steigender Zahl der angeschlossenen Windturbinen immer größer und gefährlicher werden. Dass sich die Stromproduktion vieler Windräder gegenseitig ausgleicht, ist ein Unsinn; das Gegenteil ist der Fall.   Die Großräumigkeit mitteleuropäischer Wetterlagen führt dazu, dass faktisch alle Windkraftanlagen in Europa ihre Stromspitzen und -Löcher fast gleichzeitig aufweisen. Denn auch der häufig gehörte Satz „Irgendwo ist immer Wind“ gehört daher gleichfalls zum Wunschdenken und zur Ökostrom-Märchenstunde.

Weiterhin führt die Witterungsabhängigkeit der Windstromerzeugung zu deutlich unterschiedlichen „guten“ und „schlechten Windjahren“, wie man an den Volllaststunden-Grafiken in den BDEW-Jahresberichten ablesen kann. Ein „schlechtes Windjahr“ kann daher zu drastischen Erlöseinbußen führen, was schon sehr viele Betreiber zu spüren bekamen.

Diese grundsätzlichen Nachteile sind auch mit modernen Windturbinen unvermeidbar und sie waren der Grund für die völlige Verdrängung dieser nicht bedarfsgerecht produzierenden Energiegewinnungstechnik durch die Dampfmaschinen, die jederzeit ihre Leistung freisetzen konnten. Auch diese wurden später durch Dampfturbinen ersetzt. Diesel- und Gasmotoren ergänzten diese Kraftmaschinenfamilie. Trotz ihrer katastrophalen Nachteile als Energieerzeuger, die zudem auch große Umweltschäden zur Folge haben – siehe das letzte Kapitel zum Thema „weitere Probleme“ – , haben in technischen Dingen inkompetente Politiker zusammen mit einer gehorsamen Beamtenschaft diese antike Technik zur wichtigsten Waffe gegen den angeblich vom Menschen verschuldeten Klimawandel ernannt – und immense Finanzmittel dafür eingesetzt. Nicht aus dem Haushalt des Finanzressorts, sondern durch die EEG-Umlage, die die Stromverbraucher bezahlen müssen. Dass damit mehrere Bundesregierungen, deren Koalitionsparteien die Worte „sozial“ und „christlich“ im Parteinamen führten, seit 18 Jahren eine milliardenschwere Umverteilung „von unten nach oben“ betreiben, ist zwar ein skandalöser Tatbestand, aber selbstverständlich keine zu der Technik der Windturbinen gehörende Besonderheit. Das gilt auch für Belastungen der Bewohner von Gebäuden in der Nähe von Windparks durch Lärm und Infraschall (Näheres s.u.), denn zu geringe Abstände sind gleichfalls nicht dieser Technik anzulasten.

– Beeinflussbar ist der Preis des Windstroms, allerdings nur in Grenzen. Denn wenn nur ein konventionelles Großkraftwerk (Kohle- oder Kernkraftwerk) mit 1.200 Megawatt Dauerleistung durch Windkraftanlagen ersetzt werden soll, steht man vor einem unlösbaren Dilemma: Selbst wenn man für diesen Zweck 2.800 riesige Windturbinen zu je 2 Megawatt Maximalleistung in die Landschaft und schlimmer noch auf neuen Kahlschlagsflächen in Waldgebiete setzt, sorgt das Wetter dafür, dass entweder in windarmen Wochen alle 2.800 Windräder still stehen, oder dass sie bei starkem Wind das Stromnetz gefährlich überlasten; bis eine weitere Zunahme der Windstärke die Windräder zur Sicherheitsabschaltung zwingt. Dieser Leistungsabsturz kann u.U. zu einem landesweiten Netzzusammenbruch führen.

(Die obige Rechnung, wie viele Windräder für die jährliche Erzeugung der gleichen elektrischen Energie erforderlich sind, die ein konventionelles Kraftwerk liefert, wird weiter unten zusammen mit dem Flächenverbrauch beider Techniken nochmals präsentiert. Zu beachten ist, dass es wegen des Mangels an Reservekraftwerken, an Pumpspeicherkraftwerken und ohne Stromimporte (s.u.) keine Möglichkeit mehr gibt, bei einem großen Anteil der Windräder an der Stromerzeugung, wie es die Regierung plant, im Falle von längeren Flautenperioden die Kunden überhaupt zu beliefern.)-
Wenn man alle diese Nachteile ignoriert und nur auf die Herstellungskosten der Windräder und auf die bislang erzielten Renditen blickt, dann sind Preissenkungen durchaus möglich. Daher hat die Regierung beschlossen, die Genehmigung zur Errichtung von Windkraftanlagen von einem Wettbewerb der Interessenten bei Ausschreibungen abhängig zu machen. Die bisherige feste Vergütung, die für 20 Jahre garantiert wurde, wurde durch den Zuschlag für den günstigsten Anbieter ersetzt.
Das ist immerhin der erste Versuch, den immer weiter gehenden Anstieg der Stromkosten zu bremsen – bei denen Deutschland in der EU jetzt einen unrühmlichen Spitzenplatz erobert hat. Damit wurde das Musterland der Windenergie Dänemark auf Platz 2 verdrängt. Dort wurde übrigens der Neubau von Windrädern an Land gestoppt – man wartet auf die Ergebnisse der großen Untersuchung der gesundheitlichen Auswirkungen (Näheres s.u.).

Das Konzept Ausschreibung hatte hier die beabsichtigte Wirkung: Den deutlichen Preisverfall für den Windstrom. Das bedeutete aber auch einen Dämpfer für Renditeaussichten und hatte daher auch eine Zurückhaltung bei den Investoren zur Folge….

Weiter geht’s im Teil 2 hier




Report: Klima­aktivisten kollabo­rieren heimlich mit [US-]Staatsre­gierungen

Für den neuen Report wurden Anfragen nach dem Informationsfreiheits-Gesetz ausgewertet, welche teilweise auf dem Klageweg veröffentlicht werden mussten. Daraus beschreibt der Report detailliert das Vorgehen der Aktivisten.

Der Report, veröffentlicht vom Competitive Enterprise Institute (CEI) und geschrieben vom Forschungsleiter Christopher C. Horner, zeigt auf, wie Nicht-Regierungs-Organisationen, die als Mittler fungieren, üppige Förderungen verwalten, während sie für Politiker arbeiten und diese unterstützen. Diese wiederum unterstützen die Klima-Agenda der Geldgeber, darunter auch Gerichtsverfahren gegen Unternehmen in der Branche fossile Treibstoffe.

Enorme Klima-Industrie

Unter den im Report genannten Beispielen findet sich die Zusammenarbeit von Umwelt-Aktivistengruppen mit der Regierung von Kalifornien, um den „Global Climate Action Summit“ zu organisieren, der dann vom 12. bis zum 14. September in San Francisco stattfand. Gesponsert und geleitet vom kalifornischen Gouverneur Jerry Brown als offizielle staatliche Veranstaltung hatte der Gipfel nichts Anderes zu tun als die Klimapolitik der Aktivisten voranzutreiben.

Das Treffen war mit einem Budget von 10 Millionen Dollar ausgestattet, wobei Brown unablässig die Unterstützung hinaus posaunte, die er von Individuen, Stiftungen, Regierungen und der Industrie erhalten habe.

„Die Ergebnisse enthüllen, dass dieser Gipfel Teil einer gewaltigen Klima-Industrie ist, welches gespendete Gelder über gemeinnützige Organisationen zu den Büros der Politiker kanalisiert“, stellt der CEI-Report fest. „Das fließt an den Büchern vorbei, und die nonprofits kassieren einen üppigen Prozentsatz davon für ihre Dienste als Vermittler“.

Der Report zeigt einen gewaltigen Schub des riesigen Netzwerkes von Geldgebern, Aktivisten und Regierungsbeamten auf dem Gipfel, um die Klima- und Energiepolitik der Trump-Regierung zu torpedieren, einschließlich des Rückzugs aus dem Pariser Klima-Abkommen.

Um das zu erreichen, führt der Report weiter aus, „nutzen die Politiker ihre Büros, um die Agenda der Geldgeber zu unterstützen, und die Geldgeber nutzen ihre Quellen, um Mitarbeiter, Autoren von Reporten, PR-Operationen und Berater auszustatten – alles im Namen der Politiker. Spender arrangieren auch private, nicht zum Mitarbeiterstab gehörende Berater in den Büros der Gouverneure und Bürgermeister“.

Unter den prominenten Geldgebern dieser Art finden sich der kalifornische Milliardär Tom Steyer und die Hewlett Foundation, weist der Report nach.

Mehr Geld, Trachten nach Einfluss

Staatsbeamte wollen sogar noch mehr Geld haben, um den Druck auf die Trump-Regierung und die Industrie fossiler Treibstoffe aufrecht zu erhalten.

Die Studie veröffentlicht auch einen Austausch von E-Mails zwischen den Büros der Gouverneure von Kalifornien (Jerry Brown), New York City (Andrew Cuomo) und Washington State (Jay Inslee). Darin beraten sich die Gouverneure, wie viel Geld sie locker machen würden für Bemühungen bzgl. Klima-Befürwortung einschließlich der Gelder, die über private Klima-Alarmistengruppen fließen sollten.

[Der folgende Absatz wird im Original beibehalten, gefolgt ausnahmsweise von der Übersetzung des Google-Translators. Es geht detailliert um die Summen, die in diesem schmutzigen Geschäft im Spiel sind. Außerdem soll damit gezeigt werden, warum ich für Übersetzungen sonst niemals diesen Translator einsetze. Anm. d. Übers.]

“[The governors’] staff budgeted ‘$15 million [which] ramps up work ($10 million passed through to consortium partners)’ in 2018, to ‘$30 million as we engage new governors, share deployment learnings, and drive a new national priorities debate ($25 million passed through to consortium partners)’ for 2019, then ‘$50 million to drive state leadership activity in a critical year and develop new federalism funding models to leverage investments in mid-term targets and carbon pricing moving forward,’ in 2020–2021,” Horner writes.

Die Mitarbeiter [der Gouverneure] stellten im Jahr 2018 Haushaltsmittel in Höhe von 15 Mio. USD bereit, was die Arbeit beschleunigt (10 Mio. USD an die Konsortialpartner weitergereicht), auf 30 Mio. USD, wenn wir neue Gouverneure engagieren, Einführungserfahrungen austauschen und eine neue Debatte über nationale Prioritäten anstoßen (25 Mio. US-Dollar wurden an Konsortialpartner weitergegeben) „2019, dann 50 Mio. US-Dollar, um die staatliche Führungstätigkeit in einem kritischen Jahr voranzutreiben und neue Modelle für die Finanzierung des Föderalismus zu entwickeln, um Investitionen in mittelfristige Ziele und die CO2-Preisgestaltung voranzutreiben“, 2021

Browns Klimagipfel wurde vor den Wahlen in den USA [midterm elections] Anfang November abgehalten. Damit hoffte man, die Wähler dazu zu bringen zu wählen und dabei Klima-Belange zu berücksichtigen.

„Aufzeichnungen im Rahmen des Informationsfreiheits-Gesetzes zeigen, dass Browns Gipfel auch als ein privat unterschriebener Zusatz agieren soll zum offiziellen Klimagipfel (COP) des UNFCCC“, schreibt Horner.

Obamas ,Flüchtlinge‘ sind zur Stelle

Der Report zeigt, dass Beamte der früheren Regierung von Präsident Obama, im E-Mail-Austausch als „Flüchtlinge“ bezeichnet, die Büros lokaler und staatlicher Beamten durchsetzen, um „die Haltung der USA zu Energie und Klimawandel wiederherzustellen“, wie es in einer der E-Mails heißt.

Einer der im Report genannten „Flüchtlinge“ ist Jonathan Pershing, ehemals Sonderbotschafter für Klimawandel im State Department und leitender US-Unterhändler beim UNFCCC. Die Hewlett Foundation engagierte Pershing und gab ihm ein Budget, mit welchem er Mitarbeiter bzgl. Klima- und Energiepolitik in den Büros der Gouverneure unterbringen sollte, wobei das Geld über das in Washington ansässige World Resources Institute floss.

Weitere Dokumente, die Horner in die Hände fielen, enthüllen, dass der ehemalige Bürgermeister von New York Michael Bloomberg und die U.S. Climate Alliance neben anderen Gruppen Klima-Aktivisten und ehemalige Obama-Beamte finanzieren als Mitarbeiter und Berater außerhalb des offiziellen Mitarbeiterstabes. Das gilt für alle Büros in den USA bis hinunter zur Gemeinde-Ebene.

,Missbrauch ins Gesicht geschrieben‘

Staatliche Gesetzgebung und Generalstaatsanwälte sollten diese im Geheimen ablaufenden Kungeleien einmal untersuchen, aber das tun sie nicht, sagt Horner.

„Das ist missbräuchlich von Anfang an und schreit nach gesetzlicher Untersuchung“, sagte Horner. „Unglücklicherweise haben Staatsanwälte ihre eigene Klima-Agenda und werden wahrscheinlich hier nicht die Interessen der Öffentlichkeit schützen“.

All jene, welche die anti-fossile Klimawandel-Agenda forcieren, ignorieren die hohen Kosten der von ihnen befürworteten Politik, sagt Paul Driessen, leitender Politik-Analyst beim CFACT.

Driessen weiter: „Der Klima-industriell-politisch-umweltliche Komplex ist jetzt ein Unterfangen im Wert von 2,4 Billionen Dollar jährlich. Er erhält Subventionen und Aufträge als Gegenleistung für Beiträge zur Kampagne.

Und jetzt, mit dem jüngsten IPCC-Klimareport im Rücken, will man weitere 2,4 Billionen Dollar pro Jahr für die nächsten 17 Jahre haben, um den vorgeschriebenen Übergang zu erneuerbarer Energie zu finanzieren, während man gleichzeitig die hohen Kosten hinsichtlich des Verbrauchs von Land und natürlicher Ressourcen ignoriert, welche erforderlich sind für all die Windturbinen, Solar-Installationen, ultralangen Überlandleitungen und Batterien als back up für die vom Wetter abhängige erneuerbare Energie“.

Bonner R. Cohen, Ph.D. is a senior fellow at the National Center for Public Policy Research and a senior policy analyst with the Committee for a Constructive Tomorrow.

Die ganze Geschichte steht hier.

Link: https://www.heartland.org/news-opinion/news/report-climate-activists-are-secretly-collaborating-with-state-governments

Übersetzt von Chris Frey EIKE




Verirrter Vorreiter

Die Arroganz der Ahnungslosen

Kaum ein anderer Teil der Wirtschaft wird in Deutschland politisch so reguliert wie die Energiewirtschaft. Technologiescharfe politische Entscheidungen wie der Ausstieg aus der Kernenergie und die auf das Zehntelcent genaue Festlegung von Fördersätzen sind planwirtschaftlich angelegt und verhindern Wettbewerb. Politiker maßen sich an, Energietechnologien in Unkenntnis kommender Entwicklungen für die nächsten Jahrzehnte festschreiben zu können. Eine Globaltemperatur am Ende des Jahrhunderts gilt als Beschluss, während die Inbetriebnahme eines Flughafens nur mit Vorsicht terminiert wird.

Ziele sind das Eine, ihre Erreichung das Andere. Fast alle bisher angestrebten Meilensteine des Energiewendevorhabens per 2020 werden mehr oder weniger deutlich verfehlt. Der Primärenergieverbrauch sollte um 20 Prozent zurückgehen. Dies ist außer Reichweite gelangt, denn die Konjunktur ist gut und die Bevölkerung wächst. Auch die Senkung des Bruttostromverbrauchs um 10 Prozent funktioniert nicht. Zwar ist das Wirtschaftswachstum vom Energieverbrauch weitgehend entkoppelt, die vorgesehene Steigerung der Energieproduktivität von 2,1 Prozent wird aber nicht gelingen, denn über den begonnenen Weg der „Sektorkopplung“ sollen künftig alle Energiesektoren strombasiert betrieben werden. Dies würde voraussetzen, dass Elektrizität in großen Mengen billig, sicher und umweltfreundlich verfügbar ist. Man kann alles vorhersagen – dieses bestimmt nicht. Die Sektorkopplung treibt den Bedarf der am höchsten veredelten und damit teuersten Energieform, der Elektrizität, um etwa das Dreifache in die Höhe.

Der Endenergieverbrauch im Verkehrssektor wie auch der Wärmebedarf des Gebäudebestands werden auch nicht um 10 beziehungsweise 20 Prozent sinken.

Die Emissions-Reduktionsziele (fälschlich „Klimaziele“ genannt) werden ebenfalls nicht erreicht. Zähneknirschend und vom Wolfsgeheul der Grünen und der Front der NGOs begleitet, entschloss man sich spät in den schwarz-roten Koalitionsverhandlungen, das Absehbare offiziell zu machen. Wenn man Ziele nicht erreicht, hat jemand versagt. Vielleicht waren die Ziele aber nicht realistisch oder die Bedingungen haben sich geändert?

Die 40-Prozent-Reduzierung wurde 2007 beschlossen, also lange vor dem Tsunami in Fukushima. Mit dem Atomausstiegsbeschluss 2011 war klar, dass ein Teil des wegfallenden Atomstroms durch fossilen Strom wird ersetzt werden müssen. Wer das damals laut sagte, wurde vom grünen Sozialenergiefachmann Trittin darauf hingewiesen, dass das nur „Propaganda der Atomlobby“ sei. Nun ist die Atomlobby im Grunde nicht mehr existent und der grüne „Abschalten“-Chor ruft in Richtung der Kohle weiter. Noch sind neun Gigawatt Kernkraftwerksleistung am Netz – zuverlässig und regelbar. Die Ziele für 2030 sollte man realistisch versuchen zu kalkulieren und auf „Fachleute“, die Kostensteigerungen in Maßeinheiten wie Eiskugeln vorhersagen, besser nicht hören.

Die Energiebranche hat ihre Hausaufgaben gemacht und Emissionen gesenkt, hier wirkt auch der europäische Emissionshandel, während Verkehrs- und Gebäudesektor kaum reduzierten. Das Gegenteil tritt bei der Mobilität ein. Die Verteufelung der Dieseltechnologie treibt Vielfahrer zum Benziner, keinesfalls zum Stromer, und erhöht die CO2-Emissionen. Politische Zwangsmaßnahmen gegen Autofahrer lassen sich bei uns schwerer umsetzen als in China. Die Chinesen, nicht wir, realisierten übrigens die bisher weltweit erfolgreichste „Klimaschutzmaßnahme“: Die Ein-Kind-Politik.

Dilettantischer Ausstieg

Niemand bezweifelt indes, dass der Kernenergieausstieg termingemäß kommen wird. Begleitend werden noch einige Milliarden an Steuergeld verbrannt auf Grund der rechtswidrigen Brennelementesteuer und zu entschädigender Reststrommengen. Dies wirft ein bezeichnendes Licht auf die Qualität unserer Regierungen im Gesetzgebungsverfahren. Gerichte müssen korrigieren, was hunderte Juristen in Bundestag und Regierung nicht rechtssicher auf die Reihe bekamen. Eingefangen haben sie sich indes alle Kosten für die Endlagerung, die der Steuerzahler nun schultern muss. Einige hundert Millionen oder sogar einige Milliarden werden wohl noch an Vattenfall als dem einzigen ausländischen Kernkraftbetreiber in Deutschland gehen. Das internationale Schiedsgericht ICISD, ursprünglich eingerichtet zum Investorenschutz in Drittweltländern, könnte die Stilllegungsverfügung der Vattenfall-Reaktoren in Krümmel und Brunsbüttel als Enteignung werten. Deutschland auf einer Anklagebank, auf der auch Länder wie Ecuador und die Philippinen in anderen Verfahren sitzen. Das ist keine Werbung für Investitionen in ein vorgeblich rechtssicheres Hochindustrieland Deutschland.

Der geplante Anteil regenerativ erzeugten Stroms am Strommix ist das einzige Ziel, das übererfüllt wird. Bereits heute haben wir den Wert für 2020 erreicht. Daran zeigt sich das erfolgreiche Wirken der Ökolobby, die den exzessiven Ausbau volatiler Anlagen gegenüber abgewogenen Entscheidungen zum Netzausbau durchgesetzt hat. Ein fehlender Masterplan und die unterlassene, zwingend nötige Kopplung an den Netzausbau und den Einstieg in Speichertechnologien haben die Entwicklung aus dem Ruder laufen lassen. Das wichtigere Ziel hingegen, den Anteil am Primärenergieverbrauch zu 18 Prozent aus den Regenerativen zu gewinnen, wird um mindestens drei Prozent verfehlt werden.

Halbjährlich untersucht McKinsey den Fortgang der deutschen Energiewende und bildet sie durch einen Index ab. Die Platzierungen im weltweiten Vergleich sind ernüchternd. Im Gesamtranking landet Deutschland auf Platz 16 unter 114 betrachteten Ländern. Die Kennziffer „Systemperformance“, die die Einhaltung des energiepolitischen Zieldreiecks aus Wirtschaftlichkeit, Versorgungssicherheit und Umweltschutz abbildet, führt uns auf Rang 44, hinter Länder wie Paraguay und Indonesien. Nennt man einen aus dem Mittelfeld tatsächlich „Vorreiter“?

Noch nie ist eine Energiestrategie irgendeiner Bundesregierung zielgerecht umgesetzt worden. Ob die jetzige erfolgreich sein wird, ist bei Betrachtung des handelnden Personals eher zweifelhaft.

Oberster Wirtschaftsbeamter ist mit Peter Altmaier ein Jurist, der schon optisch das Primat der Politik über den Markt verkörpert. Er diente der Kanzlerin als Allzweckwaffe, unter anderem als parlamentarischer Staatssekretär, Kanzleramtsminister, Flüchtlingskoordinator und Talkshow-Gast. „Er kann reden, ohne etwas zu sagen“, so der FOCUS. Jetzt soll er als Wirtschafts- und Energieminister die Kastanien aus dem verdammt heißen Feuer verbrennender Energiewende-Illusionen holen. Mildernd ist anzumerken, dass er kein gut bestelltes Feld übernahm. Vorgänger Gabriel ließ seinem grünen Staatssekretär Baake weitgehend freie Hand, so dass dieser die Bedingungen der Ökostromproduzenten ohne Rücksicht auf übergreifende Zusammenhänge profitoptimal gestalten konnte. Angesichts des neuen Koalitionsvertrages sah der seine Möglichkeiten eingeschränkt und stieg im März aus. Bisher gibt es keinen Nachfolger. Kaum zu vermuten, dass Altmaier nicht um die Bedeutung dieses Postens weiß, eher dürften die durchaus vorhandenen Kandidaten diesen heißen Stuhl meiden. Viel Feind und wenig Ehr` bei Gefahr des vollständigen Reputationsverlusts.

Altmaier setzt nun den Verlust einiger tausend Arbeitsplätze in Bergbau, Energie und Industrie über Zwangsstilllegungen von Kraftwerken und steigende Strompreise um. Wir sehen, Politik kann sehr wohl Arbeitsplätze vernichten, aber nur sehr begrenzt neue, marktfähige schaffen. Öffentlich äußert er, „Arbeitsplätze zu den Menschen“ bringen zu wollen. Wir sind gespannt.

Auf dem Gebiet der „Zukunftsenergien“ wird dies eher schwierig. Fest ist der Glaube daran, aber falsch die gebetsmühlenartige Wiederholung, bei den „Erneuerbaren“ würden stetig neue Arbeitsplätze entstehen. Der Faktencheck enthüllt, dass das Maximum der dort Beschäftigten im Jahr 2012 mit etwa 400.000 teils prekären Stellen sein Maximum erreicht hatte und es seit Platzen der Solarblase stetig abwärts geht. Derzeit sind es etwa 330.000, wobei die Abgrenzung schwierig ist. Werden in der konventionellen Energiewirtschaft nur die direkt Beschäftigten gezählt und Zulieferer und Service unter indirekte Beschäftigung fallen, zählt bei den Regenerativen auch der Dachdecker und Elektriker dazu, der hin und wieder Hand an ein Solarpanel legt. Nun zeichnet sich weiterer Jobabbau in der Windbranche ab. Die Erkenntnis, dass subventionierte Stellen immer temporär sind, ist in der Wirtschaft und besonders in der deutschen Steinkohle schon lange bekannt, bei den „Erneuerbaren“ noch nicht.

Ohne Moos nix los

113 Milliarden Euro flossen zwischen 1960 und 2016, also innerhalb von 56 Jahren, in die deutsche Steinkohle als Subvention. In nur 16 Jahren (2000 – 2016) gingen 149 Milliarden Euro an die Betreiber der „Erneuerbaren“, die indirekten Kosten nicht mitgerechnet. Perspektive: Unabsehbar. Der Bundesrechnungshof kritisierte schon im Vorjahr, dass Finanzfragen vom BMWi nicht beantwortet werden können. Abgesehen von Organisationsmängeln im Ministerium ist es allerdings in der Tat schwierig, alle direkten und indirekten Kosten zu erfassen. Welcher Netzausbau ist zusätzlich nötig zu dem, der ohnehin erforderlich gewesen wäre? Was kosten künftig die heute noch völlig imaginären Stromspeicher?

Immerhin erkennt Altmaier, dass der weitere Ausbau der Regenerativen ohne adäquaten Netzausbau kontraproduktiv ist. „Wir sind beim Netzausbau katastrophal in Verzug.“ Über 1,4 Milliarden Euro wurden 2017 verschwendet, um das Ungleichgewicht im Netz durch den vorauseilenden Ausbau volatiler Einspeiser gegenüber nachhängendem Netzausbau auszugleichen.

Um auch öffentlich deutlich zu machen, wie wichtig ihm dieses Problem ist, begab er sich im August auf eine „Netzreise“, auf der er den „Aktionsplan Stromnetz“ vorstellte. Wirklich Neues steht darin nicht und inwieweit sich die Genehmigungsverfahren in unserem Hochbürokratieland vereinfachen lassen, ist offen. Wenn betroffene Bürger erst erkannt haben werden, dass Erdkabel wieder unbewachsene Todesstreifen quer durch Deutschland mit sich bringen, wird der Unmut erneut wachsen. Ohnehin ist die Landbevölkerung in Zwietracht. Im Norden verdienen Landbesitzer an den Pachteinnahmen für Windkraftanlagen mehr, als sie je mit Feldbestellung hätten erreichen können. Weiter südlich müssen die Bauern Slalom fahren um die Masten der Hochspannungstrassen oder Mindererträge durch Erdkabel für diese spitzenvergüteten Strom hinnehmen.

Dann wird wieder von den Benachteiligten die Wunderwaffe „Dezentralisierung“ ins Spiel gebracht.

Typisch für die deutsche Energiepolitik ist es, die teuersten und marktfernsten Technologien am meisten zu fördern. Jahrelang war die Fotovoltaik das Lieblingskind (heute gibt man die Überförderung zu) und man nahm üppige CO2-Vermeidungskosten von 400 und mehr Euro pro Tonne hin. Heute ist es die Offshore-Windenergie, mit der Altmaier auf weitere Zentralisierung setzt. Er bezeichnet Offshore-Windkraftanlagen als „Kathedralen der Energiewende“ und vergisst dabei, dass dies die maximal zentralisierte Stromerzeugung darstellt. Nirgendwo sonst ist der Weg zum Stromverbraucher weiter als von See her. Gebündelter Windstrom kommt in dicken Kabeln hinter den Dünen hoch und muss über das ganze Land verteilt werden. Dazu kommt: Auch dieser Windstrom schwankt stark.

Bild 1

Diese Erkenntnis ist selbst Herrn Homann fremd, dem Chef der Bundesnetzagentur. Er formulierte anlässlich des nötigen Netzausbaus: „Der Strom aus den Windparks kommt nicht zuverlässig nach Süddeutschland.“ Die Begriffe „Windstrom“ und „zuverlässig“ in einem Satz zu verarbeiten, zeigt systemisches Unverständnis. Natürlich müssen die Leitungen Strom zuverlässig Strom transportieren, die wichtigste Frage ist doch aber: Wer sorgt dafür, dass der Strom zuverlässig in die Leitungen kommt? Wie ein Pawlowscher Reflex kommt auf entsprechende Fragen von den Wendebewegten die Antwort: Speicher.

Es gehört schon ein gediegenes Maß Arroganz dazu, stets die Notwendigkeit von Speichern zu betonen und gleichzeitig nichts zu unternehmen, die regulatorischen Bedingungen für Stromspeicher günstig zu gestalten. Noch immer zahlen Pumpspeicherwerke Netzgebühren, obwohl sie stabilisierend wirken. Die Politik fördert leicht gebremst die massenhafte volatile Einspeisung weiter und produziert damit steigende Systemkosten. Die Subventionierung von Massenproduktion verhindert zudem Innovation, wie schon die von der Bundesregierung eingesetzte Expertenkommission „Forschung und Innovation“ 2014 feststellte.

Es gibt nur ein Ereignis, dass die deutschen Emissionssenkungsziele nach heutiger Methode erreichbar machen könnte, nämlich eine fulminante, länger anhaltende Wirtschaftskrise. Eine „Versöhnung von Ökonomie und Ökologie“ ist auf dem eingeschlagenen deutschnationalen Weg nicht erreichbar.

Eine schon religiös zu nennende „Klimaschutzaufgabe“ macht den bisher hoch bewerteten Umweltschutz platt. Die Grünen, keine Friedenspartei mehr und noch nie eine soziale Partei gewesen, haben nun auch mit dem Klimaschutz ihren Gründungsmythos Umweltschutz verraten. Windkraftanlagen in Wäldern sind maximierter Umweltfrevel. Keine Tonne CO2 wird infolge des „Wasserbetteffekts“ über den europäischen Emissionshandel damit eingespart, im Gegenteil. Wald als CO2-Senke wird vernichtet. Während überall in Deutschland für die Windkraft losgeholzt wird, kämpfen scheinheilige Ökos gegen die lange geplante und genehmigte Rodung des Hambacher Forstes mit Gewalt und Gewaltsolidarität. Die Grünen sind die gewissenlose Speerspitze der hinter ihnen stehenden Lobby.

Bild 2

Viele Länder dieser Welt versuchen, ihren Energiemix zu verbreitern. Das schafft mehr Versorgungssicherheit und mindert die ökologischen Auswirkungen. Nur Deutschland will Menschen und Wirtschaft in ein mittelalterlich zu nennendes System, das von den Launen der Natur dominiert wird, zurück befördern. Der Optimismus ist so groß und der Wohlstand so üppig, dass Versorger wie die Technischen Werke Ludwigshafen jetzt veganen Strom anbieten. Der enthält nicht nur keinen Atom- und Kohlestrom, sondern auch keine Windkraft, keinen Wasser- oder Biomassestrom. Wer das „Vegawatt“-Angebot annimmt, erhält Strom fast ausschließlich aus Fotovoltaik mit der Einschränkung, dass die Module nicht auf den Dächern von Mastanlagen installiert sein dürfen. Auch auf dem Freiland dürfen sie wegen dem Flächenverbrauch und der Einschränkung des Lebensraums für Tiere nicht stehen. Als Versorger will man halt auch Kunden mit teils sektiererischer Veganerkultur an sich binden. Ob dieser Tarif Ausdruck eines besonders hohen Niveaus der Energieversorgung ist oder spätbürgerlicher Dekadenz, ist Ansichtssache.

Wir Deutschen sind die Besserwessis dieser Welt. Wir isolieren uns durch moralische Überhöhung gegenüber jenen, die zunächst ihre Grundbedürfnisse erfüllen wollen – 24 Stunden Strom am Tag und genug Wärme zum Kochen und Wohnen. Wir wollen Weltmeister der CO2-Vermeidung sein und Entwicklungsländern verbieten, billige Kohle zu nutzen. Wir wollen durch Haltung und Vorbild die Welt überzeugen von einem energiepolitischen Weg, der schon im eigenen Land nicht erfolgreich ist.

Indessen haben wir uns von dem verabschiedet, was den einst guten Ruf deutscher Technik und Ingenieurskunst begründete – dem Technologieexport. Fotovoltaik- und Windkraftanlagen kommen heute gleichwertig, aber billiger aus China, Kernkraft ebenso, die können wir nicht mehr. Für die Ertüchtigung alter Kohlekraftwerke in der dritten Welt gibt es keine KfW-Kredite und Hermes-Bürgschaften mehr. Sollen sie doch räuchern, das belastet unsere national betrachtete „Klimabilanz“ nicht. Bergbautechnik, gern von uns gekauft für Schächte und Tagebaue, werden wir künftig nicht mehr liefern können mangels eigener Verwendung. Auch die Technologie zur Abscheidung und Speicherung von CO2(CCS), die wir kurzzeitig vorantrieben, ist politisch abgewürgt. Nun erklärt das IPCC, dass die Klimaziele 2050 ohne diese Technologie, die negative Emissionen ermöglicht, nicht werden erreichen können.

Wenn wir also global außer einer selbst zugesprochenen Vorreiterrolle nichts zur Emissionsminderung beitragen können oder wollen, bleibt als einziges Trostpflaster, die eigenen Emissionen zu senken. Gelänge es, unseren zweiprozentigen globalen Anteil komplett wegzusparen (der übrigens im Bereich der chinesischen Meßungenauigkeit liegt), kann eine Reaktion der Atmosphäre in Form eines nicht mehr stattfindenden Klimawandels nur von Naivgläubigen erwartet werden. In spätestens zwei Jahren hätte der globale Emissionsanstieg unsere Senkung ausgeglichen. Wir würden trotz grünökologisch korrekter Dekarbonisierung weiter vom Klimawandel „bedroht“.

In der DDR gingen mit schöner Regelmäßigkeit erfüllte Planzahlen durch die Einheitsmedien: Tonnen an Roheisen, Walzstahl, beförderten Gütern oder gefangenem Fisch. Der Wohlstand war dennoch bescheiden und man nannte diese Form der Politik auch Ergebnis der „Tonnenideologie“. Fragt man heute nach dem Ziel der Energiewendebemühungen, werden Millionen Tonnen CO2-Einsparung genannt. CO2-Fußabdrücke werden errechnet für den Flug in den Urlaub oder die Autofahrt zum Bäcker, wo man doch das Fahrrad hätte nehmen können. Die CO2-Minderung ist zum Selbstzweck hochstilisiert und verkommen. Keiner der sich im Vollbesitz der Wahrheit wähnenden Klimawissenschaftler rechnet die Millionen Tonnen vermiedener Emissionen in vermiedene Temperaturerhöhung um.

Inzwischen wirken die Gesetze und Planungen zur Stilllegung konventioneller Kraftwerke:

Bild 3

Dies ist der verbindliche Rückgang der gesicherten Kapazitäten bis 2023. Spätestens dann wird es eng, die Spitzenlast im Land aus eigenen Kraftwerken abzudecken. Im Gegensatz zu dieser genauen Terminierung gibt es keinerlei konkreten Ansatz, wann und wo welcher Strom-Großspeicher mit welcher Technologie, von wem gebaut, betrieben und bezahlt in Betrieb geht.

Auch in unseren Nachbarländern gehen die gesicherten Kapazitäten zurück. Zusätzlich steigen ab 2021 etwa 3.500 Windkraftanlagen aus der EEG-Förderung aus und es kann damit gerechnet werden, dass ein Teil von ihnen mangels Rentabilität stillgelegt werden wird. Hinzu kommt eine besondere Netzsituation südlich der Main-Linie durch den Kernenergieausstieg und fehlende Leitungen.

Die Regierung ist ein Zauberlehrling, der die Eigendynamik des selbstverursachten Strom-Voodoo staunend beobachtet. Wer „Aussteigen“ ruft, muss auch sagen, wo er einsteigt. Stattdessen wird weiter der sinnlose Versuch unternommen, Kohle- und Kernkraft durch Manchmal-ist-Windstrom zu ersetzen. Regierungspolitik will mit EEG, Energiewirtschaftsgesetz und anderen das Induktionsgesetz, das Ohmsche Gesetz und das Kirchhoffsche Gesetz überlisten. Dass auf lange Sicht die Naturgesetze die menschengemachten Gesetze schlagen, diese Erkenntnis muss offenbar noch reifen.

Niemand überblickt mehr dieses Projekt „Energiewende“, das nicht mehr als eine angefangene Stromwende ist, in Gänze. Jede Lobbygruppe bearbeitet ihren Sektor ohne Rücksicht auf die fundamentalen Zusammenhänge. Politik reagiert, indem sie am Monstergesetz EEG mal hier und da eine Schraube dreht und es immer weiter verschlimmbessert. Professor Kobe von der TU Dresden brachte es so auf den Punkt:

„Die Energiewende hat nur einen einzigen Feind: Die Unwissenheit über die physikalischen Gesetze, die ihr zugrunde liegen.“

 

Arroganz, gepaart mit Ahnungslosigkeit, führen uns immer weiter in eine Sackgasse hinein. Über die so genannte „Sicherheitsbereitschaft“ geht zum Oktober ein Braunkohleblock in der Lausitz außer Betrieb. Dies bedeutet den Verlust von etwa 1.500 tariflich bezahlten direkten und indirekten Arbeitsplätzen. Die damit einhergehende Emissionsreduzierung ist global vernachlässigbar und nur durch grüne Homöopathen psychosomatisch festzustellen. Die vom Arbeitsplatzverlust Betroffenen werden sozial flankiert, aber sie wissen, dass ihr Job für Symbolpolitik und Zeichensetzung geopfert wird. Dafür, dass die deutsche Delegation beim Klimagipfel in Katowice ein paar Zahlen ins Schaufenster stellen kann. Arroganz am Rand zur Menschenverachtung und Ahnungslosigkeit über grundsätzliche naturgesetzliche Zusammenhänge zeigen eine Regierung, die ihre Aufgaben nicht erfüllt.

 

 

 

 

 

 

 

 

 

 

 




SPD auf neuem Tiefpunkt! Vielleicht auch, weil sich Generalsekretär Klingbeil bei Fragen, die ihm nicht gefallen, tot stellt?

Meine Erinnerungsmail vom 29.1.18 um 22:12 Uhr

Sehr geehrter Herr Klingbeil,

leider sind Sie mir immer noch eine Antwort auf meine Mail vom 25.10.17 schuldig, obwohl Sie mir diese persönlich im direkten Gespräch zugesagt hatten. Nun habe ich bestimmt Verständnis für Ihre Belastung durch die Geschehnisse nach der Wahl. Doch inzwischen sollten Sie sich genügend frei geschaufelt haben, um jetzt auch bisher Unerledigtes zu erledigen. Zumal Ihr Parteifreund der Ministerpräsident Brandenburgs Herr Woidke in einem Interview vom 1. Januar des Jahres mir vollumfänglich recht gegeben hat, dass das EEG die größte Umverteilung von unten nach oben seit dem Ende des 2. Weltkrieges bewirke. Leider hat er bisher nicht die entsprechenden Konsequenzen aus dieser richtigen Erkenntnis gezogen. Ihre Mitglieder und Wähler würden es hingegen bestimmt begrüßen, wenn Sie in den Koalitionsverhandlungen auf das sofortige Ende des EEG als Grundbedingung einer Regierungsbeteiligung dringen würden. Letztendlich werden Sie aber an Ihren Taten gemessen und nicht an Ihren Worten.
Ich danke für schnelle Erledigung und verbleibe

mit freundlichen Grüßen

Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-(0)33201-31132
http://www.eike-klima-energie.eu/

Die ursprüngliche Mail:

Am 25.10.2017 um 12:32 schrieb Michael Limburg IMAP <m.limburg@eike-klima-energie.eu>:

Sehr geehrter Herr Klingbeil,

ich nehme Bezug auf unser kurzes Gespräch gestern Abend anlässlich des Empfangs der Initiative Neue Soziale Marktwirtschaft im Hause von Thelen-Consult.
Dabei fragte ich Sie nach Ihrem „Klartext-Gespräch“ nach dem m.E.n. offenen Widerspruch zwischen dem Anspruch der SPD die Partei der Sozialen Gerechtigkeit sein zu wollen, besonders nochmals hervorgehoben, auch von Ihrem Kanzlerkandidaten und Parteivorsitzenden Martin Schulz, und der federführenden (als Kanzlerpartei im Jahre 2000) Beteiligung Ihrer Partei am Zustandekommen und Durchführen, des sog. Erneuerbaren Energien Gesetzes (EEG) und seiner allein durch dieses Gesetz bis heute stattfindenden und andauernden massivsten Umverteilung von Vermögen von unten nach oben, die diese Republik je gesehen hat.
Begründung: Seit Einführung im Jahre 2000 bis Ende 2016 – und das sind alles offizielle Zahlen, die ich gern belege- haben die Verbraucher, per EEG Umlage gezwungen, an die Betreiber von EEG Anlagen über 200 Mrd € bezahlt. Der Gegenwert ist negativ, weil diesen Strom niemand braucht (1) (2) und dazu noch zigtausende von mehrwertschöpfenden Jobs in der Kraftwerks- der Kohle- und der Grundstoffindustrie bereits verloren gingen, oder noch verloren gehen werden. Die bis dahin ständig gefüllte „Schatztruhe“ vieler Kommunen, nämlich die Beteiligung an den Versorgern, ist durch das EEG geplündert worden, und die kleinen Leute bezahlen den Villenbesitzern, die Arzthelferin ihrem Arzt, die Krankenschwester ihrem Chefarzt, die Solaranlage auf dem Dach oder die lukrative Beteiligung an einem Windpark.
Als wäre das nicht schon schlimm genug, sehen die nach EEG geschlossenen Verträge vor, dass diese eine Laufzeit von 20 Jahren haben (ja, ich weiß, das ist jetzt tlw. etwas vermindert worden, ändert aber an den gegenwärtigen Zahlen nichts), und damit müssen die Verbraucher per Ende 2016 (jetzt ist es bereits wieder deutlich mehr) mehr als 500 Mrd € abdrücken.
Ingesamt haben wir dann also für rd. 30.000 Windkraftanlagen, knapp 2 Mio Solaranlagen und noch einige Biomasseanlagen, die bereits installiert sind, dann insgesamt > 700 Mrd € aufgewendet. Für Anlagen, die in der Masse Zappelstrom (Strom ist nicht gleich Strom) erzeugen, den niemand freiwillig kaufen würde. Eine der Folgen ist, dass mehr als 6,6 Mio Haushalte bereits jetzt Schwierigkeiten haben ihre Stromrechnung regelmäßig zu bezahlen und mehr als 300.000 der Strom aus diesem Grunde abgestellt wird. Hauptgrund: Der teure Strom, dank EEG, und (jetzt zunehmend durch den Flatterstrom verteuerte) Netzentgelt. Details dazu hier. Das böse Wort von der Energiearmut macht die Runde und sie erfasst ständig weitere Kreise.
Soviel zunächst, bevor die Mail zu lang wird, über eine schnelle und informative Antwort würde ich mich freuen.
Diese Mail geht auch per Bcc an eine Reihe von Experten
Ich verbleibe mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-(0)33201-31132
http://www.eike-klima-energie.eu/

(1) Dass dieser Strom überflüssig ist veranschaulicht folgendes Gedankenexperiment: Wenn morgen alle EEG Erzeuger abgeschaltet würden, merkte es niemand. Die Stromversorgung bliebe (noch) intakt. Nur dass der Strom stabiler flösse und deutlich billiger sein würde. Wenn morgen aber alle fossilen wie Kernkraftwerke abgeschaltet würden, erlebte die Republik einen Blackout, der direkt in eine Zivilisationskatastophe führen würde. Jeder Experte wird Ihnen das bestätigen.

(2) Bevor Sie jetzt den Klimaschutz und die Verpflichtung aus dem Pariser Abkommen anführen, der deutsche Anteil an den weltweiten CO2 Emissionen liegt mit rd 900 Mio t bei gut 2 %. Auf die gesamte CO2 Konzentration von derzeit 0,0406 Vo % in der Atmosphäre bezogen, bedeutet das, dass bei völliger „Dekarbonisierung“ (Von der Regierung Merkel und SPD Beteiligung beschlossen, vom Parlament ohne Disskussion durchgewunken) der Anstieg um maximal 0,015 % vermindert würde. Ob dieser deutsche Anteil nun um 0%, 10%, 20% oder 40% oder gar 100 % abgesenkt werden würde, ist für das Weltklima völlig und in jeder denkbaren Variante, so oder so, völlig irrelevant, für Deutschland als Industrie- und Wirtschaftsstandort aber tödlich.Details dazu hier
Eine Antwort steht bis heute aus!
Ist das „sprachlos in Berlin“? Oder ahnungslos auf der ganzen Linie, ohne es zugeben zu wollen?



GEGENDAR­STELLUNG: Der IPCC-Klimawandel-Report beruht auf falschen Grund­lagen

Die Friends of Science-Gesellschaft hat einen neuen Report veröffentlicht mit dem Titel „Faulty Premises = Poor Public Policy on Climate“. Darin werden die Klimakatastrophen-Behauptungen ebenso widerlegt wie die fehlerhaften und ineffektiven Lösungen und Vorschläge zu einer Kohlenstoff-Steuer zurückgewiesen werden, wie sie im IPCC-Klimawandel-Report SR15 – veröffentlicht am 8.Oktober 2018 – zum Ausdruck kommen. Der Link: ipcc.ch/report/sr15/.

„Falsche Grundlagen…“ [hiernach FG-Report genannt, Anm. d. Übers.] zerlegt die IPCC-Behauptungen bzgl. Klima mittels Kommentaren von Experten, darunter auch einige ehemalige Begutachter der IPCC-Arbeiten. Dabei wird klar, dass die Klimawissenschaft voller Unsicherheiten steckt. Der Standpunkt lautet, dass es sinn- und nutzlos ist zu versuchen, eine Reduktion von Kohlendioxid als einen Thermostaten bzgl. Klimawandel zu nutzen. Anpassung wäre der viel bessere Weg.

Der ehemalige IPCC-Expertenbegutachter und WMO-Regionalexperte Dr. Madhav Khandekar bereitete im Jahre 2000 einen Report für die Regierung von Alberta vor, in welchem er „Unsicherheiten bzgl. des von Treibhausgasen induzierten Klimawandels“ (hier) unter die Lupe nahm. In einem Interview in diesem Jahr erklärte Dr. Khandekar bei Friends of Science auf deren jährlicher Versammlung: „…Diese Unsicherheiten bzgl. eines durch Treibhausgase induzierten Klimawandels bestehen nach wie vor, und es gibt sogar noch viele weitere…“.

Der FG-Report erwähnt auch eine Arbeit von Prof. Philip Lloyd aus Südafrika. Er war koordinierender Leitautor des IPCC-Sonderberichtes zu CCS (2004) sowie Begutachter der IPCC-Zustandsberichte 3 und 4. Seine Arbeit ist eine detaillierte Kritik der Quellen, Verfahren und Schlussfolgerungen des IPCC.

Friends of Science veröffentlichte eine ökonomische Übersicht der IPCC-Vorschläge bzgl. einer Kohlenstoff-Steuer im SR15. Die Reduktion von CO2-Emissionen, um das vom IPCC anvisierte Ziel einer Begrenzung der Erwärmung auf 1,5°C über das vorindustrielle Niveau zu erreichen, würde im Jahre 2030 880 Dollar pro Tonne CO2 kosten (der Mittelwert der geschätzten Kosten-Bandbreite). Die Reduktion von CO2-Emissionen würde weitere 8 Dollar pro Tonne CO2 kosten, und zwar infolge des Verlustes der Vorteile einer CO2-Pflanzendüngung sowie der Vorteile durch eine Erwärmung. Insgesamt ergibt sich ein Gesamtverlust von 888 Dollar pro Tonne CO2-Reduktion.

Der SR15 des IPCC ist unverantwortlich, wenn er eine rapide Dekarbonisierung verlangt und dafür ein unmögliches Ultimatum von 12 Jahren setzt. Die Gesellschaft würde an allen Tagen ohne fossile Treibstoffe in Anarchie versinken. Wind und Solar können nicht einmal grundlegende Bedürfnisse der Gesellschaft decken, was Prof. Michael Kelly von der Cambridge University bereits im Jahre 2010 schrieb.

Der FG-Report erkundet die vielen kommerziellen Interessenkonflikte, welche einen globalen Zertifikate-Handel antreiben, und welche Sonderinteressen bzgl. Erneuerbarer und ein globales Kohlenstoff-Gesetz mit sich bringen. Alle diese Dinge werden als eine Gefahr für die Demokratie zurückgewiesen. Außerdem ist so etwas keine „Lösung für alles“.

Im Report kommt Roger Pielke Jr. zu Wort, der sagt: „Man entferne das gesamte spekulative Verfahren, welches den Szenarien und Modellen sowie der gesamten Polit-Architektur im Paris-Abkommen und dessen Schöpfer, dem UNFCCC innewohnt … und das Abkommen zerfällt in Stücke … Entfernung von Kohlendioxid in großem Umfang ist Science Fiction“. Dies schrieb er in einem Hintergrund-Kommentar in der Ausgabe August 2018 von Issues in Science and Technology.

Der Link zum gesamten FG-Report steht hier.

Executive summary:

Klimawissenschaft ist ein Komplex eines chaotischen, dynamischen Systems. Der jüngste SR15-Report des IPCC versucht die Implikationen einer Erwärmung um 1,5°C über die Temperatur der vorindustriellen Ära zu prophezeien. Der Schwerpunkt des Reports liegt auf dem Einfluss industrieller Emissionen von Kohlendioxid als hypothetischem Treiber des Klimawandels und der jüngsten Erwärmung. Trotz der Anzahl involvierter Wissenschaftler kann die Wissenschaft lediglich aufgrund der singulären Konzentration auf einen einzigen Punkt vom Weg abkommen.

Die Friends of Science-Gesellschaft kritisiert den SR15-Report des IPCC aus vielfachen Gründen, darunter den Folgenden:

1. Wir leben in der Meghalayan-Epoche, nicht im Anthropozän. Im SR15-Report wird behauptet, dass man den Klimawandel durch „die Lupe des Anthropozän“ betrachtet. Mit diesem Terminus wird allgemein eine neuzeitliche geologische Periode bezeichnet, in welcher die Menschen vermeintlich die Welt stärker beeinflussen als die Natur. Am 13. Juli 2018 veröffentlichte die International Union of Geological Sciences (IUGS) ein Statement, wonach sich die Erde derzeit in der Meghalayan-Epoche befindet, einer Periode also, die vor 4200 Jahren begann. Als Antwort auf die Frage, warum der Terminus „Anthropozän“ in dem Statement nicht vorkam, zumindest für die letzte 50 Jahre eines vermuteten menschlichen Einflusses, erwiderte die IUGS, dass der Terminus „Anthropozän“ nicht einmal in Erwägung gezogen worden ist und dass er lediglich soziologische, aber keine wissenschaftliche Relevanz hat. Das IPCC sollte diese ,Lupe‘ nicht verwenden.

2. Alle vom IPCC herangezogenen Modell(-simulationen) laufen ,viel zu heiß‘ im Vergleich mit Messungen. Die Computer-Simulationen projizieren eine zukünftige Erwärmung (und bilden die Rationale für eine Klimapolitik bzgl. globaler Erwärmung). Sie zeigen signifikant höhere Temperaturwerte als die, welche gemessen werden. Nur das russische Klimamodell und die Daten von Satelliten und Wetterballonen passen gut zu den gegenwärtigen Temperaturen in der unteren Troposphäre. Dies zeigt, dass die meisten Klimamodelle von einem viel zu hohen Erwärmungseffekt durch Kohlendioxid ausgehen (Klima-Sensitivität). Dies bedeutet, dass man die Klimamodelle nicht als Grundlage für staatliche Politik heranziehen sollte.

3. Temperaturdaten können nicht mit einer Präzision von weniger als ±0.1°C gemessen werden. Globale Temperaturdaten sind ein Parameter gemittelter und adjustierter Daten aus vielen Quellen. Dies zeigt, dass eine Temperaturdifferenz von 0,5°C irrelevant und eine willkürliche Zahl ist. Sie ist keine tatsächliche Messung der Temperatur der Erde; die Öffentlichkeit wird damit in die Irre geführt.

4. Das IPC behauptet, seiner Satzung folgend politisch neutral zu sein. Allerdings erhebt das IPCC viele Forderungen hinsichtlich von Systemen zur Entfernung von Kohlendioxid (CDRS), von denen viele nicht getestet und ungeeignet und außerdem keiner Kosten-Nutzen-Analyse unterzogen worden sind. Derartige Forderungen stehen in direktem Widerspruch zum Anspruch des IPCC und sollten von den Politikern nicht beachtet werden. Das IPCC sollte einfach nur wissenschaftliche Ergebnisse bekannt machen.

5. Eine vom IPCC geforderte rapide Dekarbonisierung ist unmöglich und unrealistisch. Die Welt hängt zu über 80% von fossilen Treibstoffen ab. Alle anderen Verfahren zur Energieerzeugung, darunter Wasserkraft, Kernkraft, Wind und Solar hängen vollständig von fossilen Treibstoffen ab für deren Einrichtung. Millionen Menschen würden sterben, falls eine rapide Dekarbonisierung wirklich umgesetzt werden würde. Für eine moderne Gesellschaft gibt es keine passende und gleichberechtigte Alternative zu fossilen Treibstoffen. Jedes offizielle internationale Wissenschaftler-Gremium, welches Maßnahmen fordert, die zu einem Massensterben führen, sollte davon gejagt werden.

6. Es gibt keine Beweise dafür, dass Änderungen oder eine Erwärmung seit Mitte des 19. Jahrhunderts den Verbrauch fossiler Treibstoffe seitens der Menschheit zur Ursache haben – obwohl es tatsächlich eine gewisse Erwärmung sowie verschiedene erkennbare Änderungen einiger natürlicher Phänomene gegeben hat. Tatsächlich liegt die Bandbreite des zur Diskussion stehenden Klimawandels deutlich innerhalb der natürlichen Variation seit dem Jahr 1850. Ebenso sind globale Temperaturaufzeichnungen unvollständig und inkonsistent; Messverfahren und Platzierungen der Messpunkte wurden verändert, und die Temperatur wird nicht gleichzeitig an verschiedenen Standorten gemessen. Die Validität der globalen mittleren Temperatur ist unpräzise.

7. Die geforderten Abhilfen in Gestalt von Wind und Solar lassen Kohlendioxid weiter zunehmen und verursachen Erwärmung. Anstatt den Verbrauch fossiler Treibstoffe zur Reduktion von Kohlendioxid zu reduzieren, verbrauchen Wind und Solar in Wirklichkeit riesige Mengen fossiler Treibstoffe für deren Herstellung, Errichtung und Backup durch Erdgas – was zu einer Zunahme von Kohlendioxid führt. Wind und Solar sind ineffektiv, teuer und destabilisieren Stromnetze. Damit wird die Gesellschaft vermeidbaren Risiken ausgesetzt, die Industrie geschädigt; es werden Arbeitsplätze vernichtet und Verbraucher vor die Wahl zwischen Nahrung oder Heizung gestellt. Wind und Solar sind das genaue Gegenteil von Nachhaltigkeit und Umweltschutz.

8. Extremwetter-Ereignisse sind ein integraler Bestandteil des Klimas. Der IPCC-Zustandsbericht 5 und dessen Sonderbericht SREX zu Extremwetter machen beide klar, dass menschliche Einflüsse auf das Klima nicht Extremwetter zunehmen lassen; Gleiches gilt für eine Zunahme von Kohlendioxid. Das IPCC sollte dies in den Medien klarstellen anstatt es der Presse zu gestatten, sich in Schrecken erzeugenden Übertreibungen zu ergehen.

9. Ein Extremes Missverhältnis zwischen Kosten und Nutzen sollte Politiker und Bürger davon abhalten, den Forderungen des IPCC nach einer Besteuerung von Kohlenstoff nachzukommen. Die Kosten von Emissions-Reduktionen sind etwa 95 mal so hoch wie die Vorteile, falls man der CO2-Klimasensitivität der Klimamodelle glaubt. Zieht man die von Lewis und Curry aus Messungen errechnete Klimasensitivität heran, liegen die Kosten von Emissions-Reduktionen sogar um das 210-fache über den Vorteilen, jedoch ist bei dieser Schätzung der natürliche Klimawandel nicht berücksichtigt. Zieht man das beste ökonomische Modell heran, in welches auch die Vorteile einer Erwärmung und der CO2-Düngung von Ernteerträgen eingehen und in welchem außerdem die natürliche Erwärmung seit 1850 berücksichtigt wird, würde jedes Mal die Ausgabe von 888 Dollar pro Tonne Kohlenstoff einen Nutzen von 8 Dollar nach sich ziehen. Tatsächlich stellt Dr. Judith Curry fest, dass Bemühungen zur Kohlenstoff-Reduktion, um das ,Klima zu stabilisieren‘, angesichts des natürlichen Klimawandels völlig nutzlos sind.

10. Die Wissenschaft ist nicht settled. Anderegg et al. (2010) [1] haben gezeigt, dass 34% der Autoren der IPCC-Berichte nicht der Haltung des IPCC zum menschlichen Einfluss auf das Klima zustimmen. Hunderte anderer Wissenschaftler haben die Ergebnisse des IPCC in Zweifel gezogen – in begutachteten Studien, Büchern, der Blogosphäre und in Videos. Es gibt eine ungeeignete wissenschaftliche Begutachtung seitens des IPCC der Berichte des Nongovernmental International Panel Climate Change. Es gibt keine Berücksichtigung der natürlichen Kräfte von der Sonne und der planetarischen Dynamik, ebensowenig wie die natürliche interne Variabilität etwa in Gestalt von Meeresströmen, Vulkanausbrüchen und tektonischen Aktivitäten nebst deren Korrelation mit dem Erdmagnetismus (und damit des solaren Einflusses). Die Reduktion von Kohlendioxid aufgrund menschlicher industrieller Aktivitäten ist eine sinnlose Reaktion auf den fortgesetzten Klimawandel auf der Erde. Öffentliche Gelder wären wesentlich besser angelegt für Anpassung und Investitionen in eine widerstandsfähige Infrastruktur.


Im Video: Der Klimawissenschaftler Dr. Madhav Khandekar ist ein ehemaliger Forscher bei Environment Canada und war Experten-Begutachter des IPCC. Er ist seit vielen Jahren Mitglied in der Canadian Meteorological and Oceanographic Society CMOS. Im Jahre 2000 wurde Dr. Khandekar von der Regierung von Alberta beauftragt, die Wissenschaft zu evaluieren, welche dem Vernehmen nach die Kyoto-Bemühungen unterstützt. Sein Report „Uncertainties in Greenhouse Gas Induced Climate Change“ findet sich hier. Überraschenderweise haben sich jene Unsicherheiten über 18 Jahre hinweg kaum geändert, und er sagt, da „seien noch viel mehr“. Dr. Khandekar erklärt, dass der größte Teil der Klimawissenschaft auf Computermodellen beruht, welche rasch dabei sind, Erwärmung zu prophezeien, was jedoch durch Jahre lange Temperaturmessungen nicht reflektiert wird. Die Erwärmung war im Vergleich zu den Projektionen der Computermodelle minimal. Regierungen haben jedoch diese ,überhitzten‘ Modellsimulationen zur Grundlage ihrer Klimapolitik gemacht, obwohl sie in keiner Weise die Realität reflektiere.

————————-

About

Friends of Science Society is an independent group of earth, atmospheric and solar scientists, engineers, and citizens who are celebrating its 16th year of offering climate science insights. After a thorough review of a broad spectrum of literature on climate change, Friends of Science Society has concluded that the sun is the main driver of climate change, not carbon dioxide (CO2). 

Link: https://wattsupwiththat.com/2018/10/31/rebuttal-ipcc-sr15-climate-change-report-is-based-on-faulty-premises/

Übersetzt von Chris Frey EIKE




Das „Kohlenstoff-Abspeicher-Syndrom [Carbon Capture Syndrome] – Teil 2

Das CCS muss noch genauer unter die Lupe genommen werden, besonders im Hinblick auf eine soeben erschienene Studie mit dem Titel „Carbon capture and storage (CCS): the way forward“, veröffentlicht im Journal Energy & Environmental Science und als PDF hier einsehbar.

Dieser 114 Seiten starke Report, geschrieben von nicht weniger als 30 Autoren, Forschungsinstituten, Universitäts-Fachbereichen und Unternehmen, enthält u. A. auch Proklamationen zu Dingen wie „key negative emission technologies (NETs)“ [etwa: Schlüssel-Technologien für Nicht-Emissionen], „bioenergy with CCS (BECCS)“ und „direktes Einfangen von CO2 aus der Luft (DAC)“. Leitautor ist Dr. Mai Bui vom Imperial College London, UK.

Im Abstract der Studie heißt es inter alia: „Carbon Capture and Storage ist weithin anerkannt, das Potential zu haben, eine Schlüsselrolle zu spielen zum Erreichen von Klimawandel-Zielen, weniger Wärme und Energie durch Kohlenstoff, zur Dekarbonisierung der Industrie und jüngst bzgl. ihrer Fähigkeit, die Entfernung von CO2 aus der Atmosphäre zu bewerkstelligen“.

Ein zweiter Report mit dem Titel „ CO2 Pipeline Infrastructure“, veröffentlicht von der IEA Environmental Projects Ltd. (IEAGHG) im Jahre 2014 ist für diesen Beitrag eine weitere Referenz. Dieser 147 Seiten dicke Report kann auf der Website des Global CCS Institute hier eingesehen werden.

Zuallererst

Zunächst möchte ich hier eindeutig und zuallererst klarstellen, dass beide Artikel die Hypothese zur Grundlage haben, dass CO2-Emissionen beendet werden müssen, wenn nicht sogar „umgekehrt“ werden müssen (mittels Einfangens des gegenwärtig in der Atmosphäre vorhandenen CO2-Anteils von 0,04%), um „das Klima zu retten“.

Ich widerspreche dieser Vorstellung mit aller Schärfe! Daher verleiht dieser Beitrag über die CCS-Thematik den weit verbreiteten Behauptungen einer Relation CO2 ↔ Klima keinerlei Glaubwürdigkeit.

Darin ist der grundlegende Gedanke des Kommunismus‘ enthalten, wo „das gemeinsame Eigentum“ über allem anderen stehen muss. Natürlich hat der Terminus „gemeinsames Eigentum“ völlig verschiedene Bedeutungen für die Elite und jedermann sonst.

Da es jedoch so aussieht, als ob die westliche Welt wild entschlossen dem Weg zum Energie-Entzug folgen will, gemeinsam mit CCS-Programmen, ist es notwendig, diesen Gedanken etwas genauer unter die Lupe zu nehmen.

Beginnen wir mit dem Gebrauch von CO2, um eine verstärkte Öl-Erkundung [Enhanced Oil Recovery (EOR)] zu erreichen.

Enhanced Oil Recovery (EOR)

Der wesentliche industrielle Verbrauch von CO2 soll die Ölerzeugung bei der Erkundung neuer und der Ausbeutung älterer Ölfelder erhöhen. Zu diesem Zweck wird das CO2-Gas typischerweise komprimiert bei einer Temperatur über dem kritischen Punkt (31°C). Dies erfordert einen Druck über 73 Bar. Da industrielle Ressourcen wie Kohle, Öl oder Erdgas, die in Gaskraftwerken verbrannt werden, oftmals ziemlich weit entfernt liegen von den EOR-Ölfeldern, braucht man spezielle CO2-Pipelines, um dieses komprimierte Gas an den Zielort zu leiten. Die folgende Tabelle listet eine Auswahl betriebener EOR-Systemen in Nordamerika:

Tabelle: In Betrieb befindliche EOR-Einrichtungen mit CO2-Injektionen in Nordamerika. Die Daten stammen aus Tabelle 2 aus der IEAGHG-Abschätzung aus dem Jahr 2013 hier.

Tatsächlich stammt die Idee, komprimiertes CO2 zur Verstärkung der Ölförderung einzusetzen, bereits aus den fünfziger Jahren. Einem detaillierten Report des US Geological Service of 2015 zufolge handelt es sich dabei um ein sehr effektives Verfahren, die Förderrate um bis zu 50% zu steigern, verglichen mit herkömmlichen Verfahren. Dies gilt vor allem für Reservoire tiefer als ca. 600 m.

Die Gründe für das CO2-EOR-Verfahren und dessen Effektivität

Die durch CO2 verstärkte Ölförderung stützt sich primär auf eine wichtige Eigenschaft von CO2, nämlich dessen Löslichkeit in Rohöl (in superkritischem Zustand). Mit anderen Worten, es löst sich im Öl und reduziert dabei die Viskosität desselben. Dies wiederum lässt das Öl leichter durch die Risse im Gestein strömen und an die Oberfläche steigen. Der Effekt kann zu einer substantiellen Zunahme der Ölförderung in ansonsten schon erschöpften Felder führen. Unnötig zu betonen, dass dies ein großer Vorteil für die Erzeuger und die Welt als Ganzem ist.

Zusätzlich komprimiert das CO2-EOR das Reservoir in der Tiefe, um den Ölfluss zu verstärken.

Natürlich war dieses CO2-EOR niemals als ein permanentes „CO2-Speichesystem“ vorgesehen. Nichtsdestotrotz hat es nicht lange gedauert, bis das CO2-EOR-Verfahren als Aushängeschild für das (vermeintlich) erfolgreiche „CCS-Verfahren“ gepriesen worden ist. Kein Wunder, dass einige Anti-Kohlenstoff-Individuen glauben, dass der Grund für die Existenz von CO2-EOR von Anfang an war, als „Kohlenstoff-Fänger“ zu fungieren. In Wirklichkeit ist das eine falsche Behauptung.

—————————

Dr. Klaus L.E. Kaiser is a professional scientist with a Ph.D. in chemistry from the Technical University, Munich, Germany. He has worked as a research scientist and project chief at Environment Canada‘s Canada Centre for Inland Waters for over 30 years and is currently Director of Research at TerraBase Inc. He is author of nearly 300 publications in scientific journals, government and agency reports, books, computer programs, trade magazines, and newspaper articles.

Dr. Kaiser has been president of the International Association for Great Lakes Research, a peer reviewer of numerous scientific papers for several journals, Editor-in-Chief of the Water Quality Research Journal of Canada for nearly a decade, and an adjunct professor. He has contributed to a variety of scientific projects and reports and has made many presentations at national and international conferences.

Dr. Kaiser is author of CONVENIENT MYTHS, the green revolution – perceptions, politics, and facts
Link: https://www.iceagenow.info/the-carbon-capture-syndrome-ccs-part-2/




Herr Hofreiter ist sich sicher, dass es keine Dunkel­flauten geben kann. Doch das Wetter führt vor, dass es solche regelmäßig auch über ganz Europa erzeugt

Dunkelflaute“ ist nur eine Frage der Definition

Seit Deutschlands Politiker bewusst und konsequent darauf bestehen, dass der gemeine Bürger in Zukunft keinen Anspruch auf sichere Energie hat, geht die Diskussion nur noch darum, wie wenig für die Bürger als „angemessen“ zu definieren ist. Der DWD machte vor, wie eine solche Diskussion aussieht:
EIKE 20. März 2018: Der DWD ist überzeugt: 10 % Strom über zwei Tage, dabei nicht zuverlässiger als Wettervorhersagen, reicht

Fachleute dagegen zeigen, wie die Wirklichkeit aussieht:
EIKE 28.01.2016: [3] Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig
Vernunftkraft Detlef Ahlborn – März 2017: [5] Energiewende gescheitert Glättung von Windstrom
… Wie … eindringlich nahelegt, ist eine flächendeckende Windstille in ganz Europa ebenso Realität wie in Deutschland. Auch in Europa gibt es Situationen ohne Ausgleich. Diese Situationen sind zwar selten, aber nicht ausgeschlossen. Nicht einmal in ganz Europa weht der Wind immer irgendwo. Damit ist auch klar, dass selbst ein paneuropäisches Stromnetz ein hundertprozentiges (wie auch immer beschaffenes) Kraftwerks-Ersatzsystem bräuchte, um die Sicherheit der Stromversorgung in jedem Augenblick zu gewährleisten …

Bild 1 [5] Ganglinie des Windstromangebotes über 15 EU-Länder
Herr Dr. Ahlborn stellte dabei etwas fest, was den Autor ebenfalls umtreibt: [5] … Warum sich wissenschaftlich vorgebildete Mitteleuropäer angesichts eines Leistungsverlaufs wie in Abb. x (Anm.: hier Bild 1) dazu hinreißen lassen, hier von Glättung zu sprechen, soll hier nicht weiter bewertet werden …

Wie von Herrn Ahlborn angesprochen: Personen in Führungsetagen diskutieren solche Details nicht, sondern erzählen lieber „Passendes“, mit dem Wissen, dass es kaum einem Bürger auffällt. Wichtig ist nur, dass das Verkündete politikkonform ist und zusätzlich ihren Geschäftsinteressen dient. Anbei Beispiele:
Die Beraterin für Klima und Energie der Bonner Politikriege auf ihrer Homepage: klimaretter.Info: [4] Europa kann Windstrom glätten
Kölnische Rundschau 18.01.2016: dpa Rekordjahr für Windparks auf See – [2] Weil der Wind auf dem Meer stetiger und häufiger weht als an Land, liefern Windräder auf See mehr Strom und sind besser ausgelastet. Sie gelten wie Atom- und Kohlekraftwerke als „grundlastfähig“, können also den Versorgungssockel absichern.
Münchner Stadtwerke:
Christian Vogt, Leiter des Beteiligungsmanagements der Stadtwerke München: … Bis 2025 wollen wir so viel Ökostrom erzeugen, wie ganz München verbraucht. Eine ganz wesentliche Bedeutung bei der Umsetzung hat die Windkraft, insbesondere Offshore. Sie hat das größte Potenzial und ist sogar grundlastfähig.
Stern, Rubrik Energiewende, 05. April 2014: Rolf-Herbert Peters: Die sieben Märchen der Stromlobby
… Das funktioniert inzwischen gut: Es gibt Windmühlen mit langen Rotorblättern und kleinen Generatoren, die zwar geringere Gewinne abwerfen, aber selbst beim lauesten Lüftchen im Neckartal oder in Niederbayern noch Energie liefern. Zuverlässige Grundlast also …

Deshalb kann es Dunkelflaute nie geben

Da ist es kein Wunder, dass Personen in der hohen Politik es ebenfalls allenthalben nachplappern. Schlimm allerdings, wenn Personen, welche dazu politische Weichen stellen wollen, nicht nur nachplappern, sondern zusätzlich Behauptungen aufstellen, welche nur zeigen, dass sie noch nie wirklich darüber nachgedacht oder Fakten nachgelesen haben:
Achgut 12. Oktober 2018: Anton Hofreiter: Dunkelflaute gibt es nicht und ist längst gutachterlich widerlegt !

Bild 2 Eingebettetes Video von der Talkshow mit Herrn Hofreiters Aussage. YouTube. YouTube link: Hofreiter

Bei Herrn Hofreiter wundert sich der Autor nicht. Allerdings ist man auch bei Konzernlenkern inzwischen nicht mehr überrascht, wenn sie dem Zeitgeist ihre Firma – zumindest einen Teil ihrer Mitarbeiter – preisgeben. Das machte CEO Zetsche von Daimler [6], die Vorstände der großen Versorger und Herr Kaeser nimmt sich davon nicht aus::
SPON 01.11.2017: Siemens fordert raschen Kohleausstieg
„Ein beschleunigter Ausstieg aus der Kohleverstromung muss die klimapolitische Priorität der nächsten Bundesregierung werden“, heißt es in einem zweiseitigen Arbeitspapier, das die Berliner Lobbyabteilung des Konzerns an Vertreter von Grünen, CDU und FDP geschickt hat. „Die vorzeitige Stilllegung der CO2-intensivsten Kraftwerke sollte geprüft werden.“ Auf europäischer Ebene solle sich die neue Bundesregierung zudem für einen CO2-Mindestpreis und ein Ende der Subventionen und Kapazitätszahlungen für CO2-intensive Kraftwerke einsetzen, heißt es in dem Papier weiter.
Haben dagegen die im Konzernvorstand sitzenden Arbeitnehmervertreter protestiert? Die Entscheidung, die konventionellen Sparten über politische Beschlüsse „austrocknen“ zu lassen und auf die „windige“ EEG-Erzeugung zu fokussieren haben sie – mindestens durch Stillhalten – mitgetragen. Die zwingenden Folgen sollten auch Arbeitnehmervertretern in solch hohen – gut bezahlten – Positionen klar gewesen sein.
Man hatte wohl gehofft, die mit den Abschaltungen erforderlich werdenden Backup-Gaskra
ftwerke werden schneller bestellt. Daran glaubt die Konzernspitze aber wohl nicht mehr. Es wird zwar irgendwann kommen (müssen), aber der Konzern will es halt nicht alleine zwischenfinanzieren.

Leider wird die „Dunkelflaute“ von jeder seriösen Untersuchung immer neu bestätigt

Inzwischen liegt eine neue Studie zur Windverteilung über Europa vor:
[1] VGB PowerTech e.V. Thomas Linnemann, Guido S. Vallana, 10.2018: Windenergie in Deutschland und Europa Status quo, Potenziale und Herausforderungen in der Grundversorgung mit Elektrizität Teil 2: Europäische Situation im Jahr 2017
Und diese bestätigt alles, was Herr Dr. Ahlborn damals
[5] recherchierte: Auch über Gesamt-Europa weht der Wind nicht immer irgendwo.
Weil die neue Studie von VGB PowerTech e.V. zum Thema tiefer geht und auch Randeffekte – wie Kosten – anspricht, sei der wesentliche Inhalt anbei dargestellt.

Installationen Windenergie Deutschland und Europa

VGB PowerTech e.V., neue Windstudie: [1] … Die installierte Nennleistung sämtlicher Windenergieanlagen in Deutschland hat sich in den letzten 18 Jahren, von Anfang 2000 bis Ende 2017, auf rund 56.000 Megawatt (MW) mehr als verzwölffacht.
Die Jahreshöchstlast liegt im Vergleich dazu aktuell bei etwa 84.000 MW. Zusammen mit 17 weiteren europäischen Ländern erhöhte sich die kumulierte installierte Nennleistung sämtlicher Windenergieanlagen zeitgleich um etwa das 18-Fache auf nahezu 170.000 MW. Damit verfügt allein Deutschland über ein Drittel der europaweit installierten Windenergieanlagenleistung.

Bild 3 [1] Windparkinstallationen in der EU

Es erfolgt keine „Glättung“ der eingespeisten Windleistung

VGB PowerTech e.V.: [1] … Die intuitive Erwartung einer deutlichen Glättung der Gesamtleistung in einem Maße, das einen Verzicht auf Backup-Kraftwerksleistung ermöglichen würde, tritt allerdings nicht ein. Das Gegenteil ist der Fall, nicht nur für ein einzelnes Land, sondern auch für die große Leistungsspitzen und -minima zeigende Summenzeitreihen der Windstromproduktion 18 europäischer Länder.
Für die Jahre 2015 bis 2017 weisen diese Summenzeitreihen Jahresmittelwerte zwischen 22 und 24 % der Nennleistung auf.
Die Jahresminimalleistungen (Stundenwerte) erreichen trotz europaweit verteilter Windparkstandorte rechnerisch 4 bis 5 % der in den betrachteten 18 europäischen Ländern insgesamt installierten Nennleistung …
… Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert planbare Backup-Systeme nach heutigem Stand der Technik von fast 100 % der Nennleistung des „europäischen Windparks“, solange dessen Nennleistung die kumulierte Jahreshöchstlast der betreffenden Länder zuzüglich Reserven noch nicht
überschritten hat.

Weder über Deutschland mit bis zu 14-tägigen Dunkelflauten …

VGB PowerTech e.V.: [1] Von 2010 bis 2016 gab es in jedem Jahr mindestens eine Viertelstunde, in der mehr als 99 % der Nennleistung des deutschen Windparks nicht verfügbar waren und praktisch ein Bedarf an 100 % planbarer Backup-Leistung herrschte, obwohl sich dessen Nennleistung zeitgleich fast verdoppelte. Die intuitive Erwartung einer Glättung der Windstromproduktion in einem Maße, das einen Verzicht auf planbare Backup-Leistung ermöglichen würde, hat sich damit nicht erfüllt.
… Solarenergie (Photovoltaik) als weiterer skalierbarer, politisch auserkorener Eckpfeiler der Energiewende ist in den für die
Jahreshöchstlast relevanten Jahres- und Tageszeiten und ganzjährig nachts übrigens immer zu 100 % unverfügbar und
kann zur gesicherten Kraftwerksleistung daher per se nichts beitragen …
Erwähnenswert ist die zehntägige „kalte Dunkelflaute“ vom 16. bis 25. Januar 2017, bei der das Wetter hierzulande gleichzeitig von Kälte, Nebel und Windstille geprägt war. Die Wetterlage führte dazu, dass alle Windenergie- und Photovoltaikanlagen in Deutschland über diese zehn Tage bei einer Gesamtnennleistung von rund 90.000 MW
lediglich eine Durchschnittsleistung von knapp 4.600 MW ins Stromnetz einspeisten. Von dieser Durchschnittsleistung entfielen drei Viertel auf Windenergie.
Der deutsche Windpark lieferte an mehreren Tagen zeitweise über mehrere aufeinander folgende Stunden Leistungen von weniger als 1.800 MW bzw.
2 % seiner Nennleistung,

… Noch über Europa

VGB PowerTech e.V.: [1] Windstromproduktion 18 europäischer Länder

Bild 4 [1] Jahres-Ganglinienverlauf Wind Deutschland im Jahr 2017
Bild 5 [1] Auszug von Bild 5 der Studie: Summenzeitreihen der Windstromproduktion 2017 für Deutschland (Bild 4), sowie für Deutschland plus siebzehn Länder
Der europäische Windpark (DE+17 EU-Länder) erreichte eine Jahresmaximalleistung von 54 % der Nennleistung und eine Ausnutzung von 23 %.

Bild 6 [1] Wahrscheinlichkeiten normierter Nennleistung für Deutschland plus siebzehn Länder
Bild 7 [1] Angebotene Windstromproduktion und wirklicher Verbrauch über 18 Europäische Länder im Jahr 2017

Weitere Probleme eines europäischen Windparksystems

VGB PowerTech e.V.: [1] Somit bleibt ein Großteil der zeitlichen Schwankungen der Windstromproduktion auch bei weit entfernten Ländern erhalten … Eine Nutzung der in überschaubarem Maße erkennbaren Glättungseffekte setzt Stromtransporte über große Distanzen voraus.

Leitungsverluste
Für einen Stromferntransport über die hier betrachteten größten Einzeldistanzen zwischen Windparkschwerpunkten peripherer Länder wie Finnland oder Norwegen (Skandinavien), Portugal oder Spanien (Iberische Halbinsel) sowie Griechenland (Ägäis) und Rumänien (Balkanhalbinsel) von rund 3.000 km oder mehr würde eine HVAC-Übertragung vermutlich nicht in Erwägung gezogen, da hohe Netzverluste von 40 % der Übertragungsleistung oder mehr einzukalkulieren wären [26]. Auch im Falle einer HVDC-Übertragung wäre bei solchen Transportdistanzen mit Netzverlusten von einem Fünftel der Übertragungsleistung auszugehen.
Hinzuzurechnen wären in allen obigen Fällen weitere Netzverluste für das Einsammeln und Hochtransformieren der Leistungsabgabe der Windenergieanlagen im Produktionsland auf eine geeignete Spannungsebene und die Weiterverteilung der nach dem Ferntransport noch verbliebenen Übertragungsleistung im Zielland über dortige Höchst-, Hoch-, Mittel- und Niederspannungsnetze bis zum Endverbraucher

Dass Netzverluste sich bei einem hohen Anteil dezentraler Erzeugung deutlich erhöhen können, zeigt das Beispiel des spanischen Verteilnetzbetreibers Viesgo.
Dieser stellte fest, dass sich durch die Windstromproduktion in seinem Verteilnetz die Netzverluste auf der Hochspannungsebene (132 kV) deutlich erhöhten.
Je nach den Leistungsflüssen (Leistungsfluss bezeichnet die in einem elektrischen Netz zwischen zwei Knoten übertragene Leistung) in seinem Netzgebiet registrierte der Verteilnetzbetreiber einen Anstieg der Netzverluste von üblicherweise etwa 2 bis 4 % der Summe aus Last und Export-Import-Saldo auf höhere und extreme Werte von bis zu 20 % in Fällen, in denen Nettostromimporte in sein Netzgebiet erforderlich waren. Diese Erkenntnisse verdeutlichen, dass die Netzverluste beim weiteren Ausbau der Windenergienutzung mit europaweiter Vernetzung auch vor dem Hintergrund europäischer Anstrengungen zur Erhöhung der Effizienz nicht vernachlässigbar sind.

Diskussion
Auch wenn aus europäischer Perspektive statistisch signifikante Glättungseffekte zu verzeichnen sind, so helfen diese Effekte bei der gesicherten Leistung offensichtlich nur bedingt weiter, denn theoretische Werte von 4 bis 5 % der Nennleistung bedeuten mit Berücksichtigung der Netzverluste, dass auch auf der europäischen Ebene planbare Backup-Leistung von praktisch 100 % der Nennleistung des solange dessen Nennleistung die kumulierte Jahreshöchstlast der betreffenden Länder zuzüglich Reserven noch nicht überschritten hat.

Netzverluste können dramatisch werden …

VGB PowerTech e.V.: [1] Für die Netzverluste bei europaweiter Vernetzung gilt für ein Szenario nach dem Motto „Jeder hilft Jedem“:
Bei diesem Szenario könnten sich die Netzverluste über alle drei Schritte bei vereinfachender Ingenieurabschätzung auf
insgesamt etwa ein Fünftel bis ein Drittel der eingespeisten Summenleistung aufsummieren (Produktionsland: etwa 7 %,
Ferntransporte: etwa 10 bis 15 %, Zielland: etwa 7 %).

… Die Kosten ebenfalls

VGB PowerTech e.V.: [1] Ausbaukosten
Die Bruttostromproduktion der betrachteten 18 Länder lag im Vergleich dazu im Jahr 2017 bei knapp 3.300 TWh.
Bei spezifichen Investitionskosten von 1,5 M€ pro Megawatt Onshore-Nennleistung und 4,0 M€ pro Megawatt Offshore-Nennleistung wären unter der Annahme, dass unverändert 90 % der zuzubauenden Nennleistung auf Onshore-Windenergieanlagen entfallen und der Rest auf Offshore-Windenergieanlagen, für einen derartigen Ausbau der europäischen Windenergienutzung Gesamtinvestitionen von ungefähr 1.500 Milliarden € einzukalkulieren. Dies ist im Vergleich zum
Bruttoinlandsprodukt 2015 der 18 Länder von nahezu 11.500 Milliarden € ein beträchtlicher Betrag.
… Gleichzeitig wären weitere Milliardeninvestitionen für nach wie vor erforderliche planbare Backup-Systeme und zur Verstärkung der Netzinfrastruktur einzukalkulieren

… Ein weiterer Punkt: Bei einer unterstellten Einsatzfähigkeit heutiger Windenergieanlagen von durchschnittlich 25 Jahren wäre
bei einem Anlagenbestand von rund 1.000.000 MW Nennleistung eine Erneuerungsrate von 40.000 MW pro Jahr erforderlich …
(wobei) die Einsatzfähigkeit von Windenergieanlagen in der Realität auch deutlich geringer ausfallen kann,

Regelungstechnisch hat man schon Deutschlands Netze nicht mehr im Griff

VGB PowerTech e.V.: [1] technischer Geschäftsführer der Amprion GmbH … von Dezember 2016 bis Februar 2017 habe es immer wieder Stunden an diversen Abenden gegeben, an denen das Stromnetz am Limit gewesen sei und mehrmals am
Rande eines großflächigen Zusammenbruches gestanden habe. Hätte sich in diesen Zeiten nur eine große Leitung aufgrund Überlastung abgeschaltet, so wäre womöglich eine Kaskade von Abschaltungen und Stromausfällen unausweichlich gewesen.
Darüber hinaus habe sein Unternehmen am 18. Januar 2017, drei Tage nach dem Beginn der zehntägigen kalten Dunkelflute in Deutschland, das Bundeswirtschaftsministerium und die Bundesnetzagentur in einer Alarmnachricht schriftlich auf den temporären Verlust der (n-1)-sicheren Netzführung hingewiesen. Spätestens mit dem Wegfall der Kernkraftwerke im Süden Deutschlands werde der hohe Transportbedarf zur Regel werden.

Der Rat von Experten

VGB PowerTech e.V.: [1] Der Branchenverband BDEW stellte kürzlich die Verfügbarkeit ausländischer Kraftwerke für die Stromversorgung in Deutschland in Frage und meldete, alle Nachbarländer stünden wie Deutschland selbst vor der Herausforderung, ihre Versorgungssicherheit bei steigenden Anteilen intermittierender regenerativer Kraftwerksleistung zu gewährleisten. Deutschland werde sich daher in Knappheitssituationen künftig nur bedingt auf Lieferungen aus dem Ausland verlassen können.
… Dies lässt nur einen Schluss zu: Jedes Land sollte auch künftig weitgehend selbst für die Bereitstellung ausreichend gesicherter Kraftwerkskapazität in der Verantwortung stehen.

Sogar der Klimawandel soll dagegen arbeiten

topagrarONLINE 18.07.2018: Klimawandel beeinflusst Windkraft
Windenergie soll eigentlich dazu beitragen, die Auswirkungen des Klimawandels einzudämmen. Doch der Klimawandel stellt umgekehrt auch die Windkraft in Europa vor große Herausforderungen: Es wird in einigen Regionen häufiger Schwachwindphasen geben, was die Windstromproduktion stärker schwanken lässt. Das zeigen Forschungsergebnisse des Karlsruher Instituts für Technologie (KIT) anhand räumlich und zeitlich hochaufgelöster Klimamodelle.
Mehr Schwachwindphasen
Zwar werde sich die mittlere Windstromerzeugung für den gesamten europäischen Kontinent bis Ende des 21. Jahrhunderts nur geringfügig ändern. Dafür sind im Allgemeinen größere jahreszeitliche Schwankungen sowie eine Häufung von Schwachwindphasen zu erwarten ...

Die Ignoranz der Politik

Herr Dr. Hofreiter ist nur eine der GRÜNEN Speerspitzen mit vollkommener Ignoranz, wenn es um die generelle Ablehnung nicht ideologiekonformer (Er-)Kenntnisse geht.
Merkur.de 28.10.2018: ... Die Grünen-Spitzenkandidaten Priska Hinz und Tarek Al-Wazir haben ihr „historisches“ Ergebnis bei der Landtagswahl in Hessen gefeiert … Das Wahlergebnis sei ein Auftrag an die Grünen, bei der Energiewende und der Verkehrswende weiterzumachen, sagte Al-Wazir.
Wenn man die jüngsten Landtags-Wahlergebnisse betrachtet, finden diese Märchenerzähler zunehmende Akzeptanz. Vielen der Wähler dürfte allerdings (noch) gar nicht bewusst sein, was die Umsetzung dieser Märchen bedeutet.

Bild 8 Startbild eines Filmtrailers. Quelle: ScienceScepticalBlog 26.Oktober 2018: End of Landschaft. Die Perversion der Energiewende. Der Trailer.

Den Nacherzählern in anderen Parteien geht es allerdings erheblich schlechter. Dabei unterscheiden sich diese nur geringfügig in der Präsentation. Ein Beispiel lieferte jüngst Herr Altmaier und unsere Umweltministerin:
EIKE: Deutschland hat Ökostrom im Überfluss und kann damit Belgien zu jeder Zeit mit Energie aushelfen

Mit-schuldig an diesem technischen Desaster sind Berater*innen, welche hemmungslos wirklich jeden technischen Unsinn erzählen, sofern er zur Unterstützung der ideologisch geforderten Meinung dient, vorwiegend auch, um eine Reputation aufrecht zu erhalten, welche sie in einer normal agierenden Wissenschaft wohl viel schwerer erlangen oder halten könnten. Frau Professor C. Kemfert und ihr inzwischen beigezogener „Fachpartner“, Professor Quaschning gehören auf jeden Fall dazu:
EIKE 28. Mai 2018: Augen zu und vorwärts in die Vergangenheit!
Interview: C. Kemfert … Wir benötigen ein Energiesystem, das mit erneuerbaren Energien dezentral, lastnah und intelligent Energie herstellt und verbraucht. Eine kluge Energiewende hält nicht möglichst lang künstlich das konventionelle Energiesystem aufrecht. Alte Zöpfe müssen abgeschnitten werden. Je konsequenter wir uns vom alten System verabschieden und das neue und intelligente System aufbauen, desto klüger.
… besonders bei der Stromerzeugung durch Wind Offshore muss eine stärkere gesamtwirtschaftliche Betrachtung erfolgen und sich in der Art der Förderung niederschlagen. Wird diese Erzeugungsform, die nicht nur regional- und strukturpolitisch erhebliche Chancen bietet,
sondern durch ihre vergleichsweise stetige Stromproduktion auch einen hohen Beitrag zur Systemstabilität leisten kann,

Interview: C. Kemfert … Heute liegt der Anteil erneuerbarer Energien bei über 30 %, zudem haben wir aufgrund des fehlenden Kohleausstiegs große Stromangebotsüberkapazitäten. Schon heute könnten wir alle restlichen Atomkraftwerke abschalten, ohne dass in Deutschland die Lichter ausgehen würden …

Lichtblicke?

Leider nirgends in Sicht. Die GRÜNEN stellen fast überall wo sie mitregieren den Umweltminister*in. Damit ist das, was in Hessen nun Al-Wazir als politisches Ziel und angeblichen Bürgerauftrag vorhat: Das Wahlergebnis sei ein Auftrag an die Grünen, bei der Energiewende … weiterzumachen, kaum mehr aufzuhalten.

Wer allerdings meint, das Wählen einer anderen, etablierten Partei wäre eine Alternative, weiß: Ist es in Deutschland nicht: Denn die etablierten Parteien unterscheiden sich ja nicht mehr:
BAYERISCHER LANDTAG Pressemitteilung 05.02.2014: (Ulrike) Scharf (bis vor einiger Zeit noch bayerische CSU-Umweltministerin): Die Energiewende muss konsequent umgesetzt werden … „Die Energiewende in Bayern ist ein Erfolgsmodell und wird konsequent weiter entwickelt. Wir befinden uns auf einem sehr guten Weg zu einer verantwortlichen und nachhaltigen Energieversorgung der Zukunft …
Während Herr Seehofer – als er noch bei vollem Bewusstsein war – mit der 10H-Regelung Bayern vor der Landschaftszerstörung rettete, setze seine eigene Umweltministerin (als Sprechpuppe der damaligen Umweltministerin, Frau Hendricks) alles daran, dies zu unterlaufen:
(Ulrike) Scharf: … auch in Bezug auf die Windkraft müssen wir angemessene Regelungen für die Anlagen an Land finden. Hier muss der Ausbau im Konsens mit Gemeinden und Bevölkerung erfolgen und es müssen auch Ausnahmen, beispielsweise beim Mindestabstand, in Übereinstimmung mit den Betroffenen vor Ort, möglich sein.
Weitere Energie-Märchenerzählungen Verantwortlicher im Berliner Politikzirkus:
EIKE 3.10.2018: Deutschland hat Ökostrom im Überfluss und kann damit Belgien zu jeder Zeit mit Energie aushelfen
Nachrichten vom 01. Oktober 2018:
Deutschland: Regierung forciert Windkraftausbau
Bayern: Stromtrassengegner setzten auf Freie Wähler … (FW-Vertreter:) … geht es nach ihm, bringt die (bayerische) Koalition die 10 H Abstandsregelung zu Fall …

Und das Radio meldete es gerade: Herr Merz hält die Bekämpfung des Klimawandels für eine der wichtigsten Zukunftsausgaben.
Man benötigt wirklich Mut, zu sagen: durchgängig „Gehirngewaschen“ ist für Deutschlands „Intelligenz“ arg untertrieben. Wie konnte es nur so weit kommen, dass eine ganze Generation einem, ausschließlich auf von Menschen programmierten Computersimulationen basierenden Apokalypse-Szenario glaubt und über-introvertierten und narzisstisch veranlagten Heilsbringern wie Herrn Schellnhuber [8] bedenkenlos hinterherrennt? Und sich auch weigert, die grundlegenden Funktionen eines elektrischen Energienetzes als physikalisch gegeben akzeptieren zu wollen.

NGOs und Profiteure Hand in Hand

Dabei arbeiten NGOs und kommunale Versorger inzwischen Hand in Hand. Hatte man sich früher über die enge Verbindung zwischen Kirche, Staat und kommunaler Politik aufgeregt, entstand die gleiche Verfilzung blitzartig auch bei der Ökokirche.

Lokalausgabe der nordbayerischen Nachrichten, Printausgabe vom 31.10.2018: Die Politik wird die Klimaziele krachend verfehlen
„Die Energiewende muss aktiv vorangetrieben werden … sagte Hubert Weiger, Vorsitzender des Bundes für Umwelt und Naturschutz in Deutschland, und Josef Hasler, Vorstandsvorsitzender der N-Ergie-Aktiengesellschaft.
„Der Klimawandel ist keine Chimäre, er ist Realität“, sagt Weiger. Das habe man gerade in diesem heißen Jahr zu spüren bekommen. Es wird härter, als viele glauben …
(Hasler:) … N-ergie schon 2014 darauf hingewiesen, dass die derzeitige Politik nicht ausreiche … Der Verbandschef (H. Weiger) fordert, die Windenergie und Photovoltaik ohne Vorgaben und Deckelung konsequent auszubauen sowie zeitnah aus der Stromversorgung auszusteigen … Weigert sitzt in der Kohlekommission …
(Hasler:) … die Stadtwerke sind ein zentraler Partner bei der sozial-ökologischen Energiewende … es sei Aufgabe der bayerischen Staatsregierung, so Hasler und Weiger, den Ausbau der Erneuerbaren voranzutreiben …

Seit der Autor Herrn Weiger in einer Talkshow gesehen hat und seine vorbehaltlose – schon fast hysterische – Gläubigkeit an die von Herrn Schellnhuber propagierten Klimakipppunkte [9] erlebte, ist er nicht (mehr) überzeugt, dass solche Personen zu rationalen Zukunftsentscheidungen fähig oder befugt sind (rein persönliche Überzeugung des Autors, die niemand teilen muss). Bei Herrn CEO J. Hasler ist ein Kalkül zu vermuten. Er weiß, wie er Geschäfte zu seinem Vorteil machen kann. Wohl nicht umsonst ist er einer der bestbezahlte CEO eines Versorgers. Wenn es sein muss, macht er solche Geschäfte auch problemlos gegen seine Stammkunden.
EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle
EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
Führt dies doch mal zu Protest, wird dieser gerne unterstützt und in die „richtige“ Richtung weg vom lokalen Profiteur ins ferne Berlin gelenkt:
EIKE 22.11.2016: Energieversorger helfen ihren Kunden gegen teuren EEG-Strom! Aktion lokaler Versorger in Bayern: Energiewende bezahlbar

Quellen

[1] VGB PowerTech e.V. Thomas Linnemann, Guido S. Vallana, 10.2018: Windenergie in Deutschland und Europa Status quo, Potenziale und Herausforderungen in der Grundversorgung mit Elektrizität Teil 2: Europäische Situation im Jahr 2017

[2] VGG PowerTech e.V. Thomas Linnemann, Guido S. Vallana, Vortragsfoliensatz zur Studie 19. Juni 2018: Windenergie in Deutschland und Europa Status, Potenziale und Herausforderungen in der Grundversorgung mit Strom

http://www.vernunftkraft.de/energiewende-gescheitert/

[3] EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig

[4] klimaretter.Info: Europa kann Windstrom glätten

[5] Vernunftkraft Detlef Ahlborn – März 2017: Energiewende gescheitert Glättung von Windstrom

[6] EIKE 23.12.2016: Freunde, wollen wir trinken, auf die schöne kurze Zeit* … Ich bin für die Dekarbonisierung der Industriestaaten, und auch die Autobauer wollen die Transformation in die CO2-freie Zukunft

[7] ScienceScepticalBlog 26.Oktober 2018: End of Landschaft. Die Perversion der Energiewende. Der Trailer.

[8] EIKE 25.05.2018: Zu jedem Parteitag eine Freifahrt in der Klima-Geisterbahn

[9] kaltesonne 27. Oktober 2018: Mehr Luft nach oben: Kipppunkt erst bei 66°C globaler Durchschnittstemperatur




Der Mythos Stickstoffdioxid als Rechtfertigung für den Anti-Diesel-Terror der Grünen

Und zwar machten die Farbwerke Hoechst damals durch eine weithin sichtbar gelbe Fahne auf sich aufmerksam. Diese wurde im Volksmund quasi zum Wahrzeichen des Chemiekonzerns. Die Fahne bestand nicht aus festem Stoff, sondern aus den bräunlich-gelben Abgasen der riesigen Salpetersäure-Anlage des Chemiewerks. Das war eine Mischung verschiedener Stickoxide, die als Nitrosegas bezeichnet wird. Dessen Hauptkomponente ist Stickstoffdioxid (NO2). Dieses gilt nach dem maßgeblichen Klinischen Wörterbuch „Pschyrembel“ als typisches Reizgas. In höherer Dosierung führt es akut zu Hustenreiz, Schwindel und Kopfschmerzen. Das Einatmen sehr hoher NO2-Konzentrationen führt nach einem symptomfreien Intervall von etwa acht Stunden zum starken Anschwellen der Kehlkopfschleimhaut (Glottisödem) mit Todesfolge. Die chronische Exposition kann darüber hinaus zu Schlaflosigkeit, Schleimhautgeschwüren, Bindehautentzündung, Bronchitis, Abmagerung und Anämie führen.

Das alles war 1970 schon lange bekannt. Deshalb begannen sich die Anwohner des Chemiewerks über die „gelbe Fahne“ zu sorgen. In diesem Jahr wurde übrigens unter der Regentschaft des damaligen US-Präsidenten Richard Nixon das Schlagwort „Environment Protection“ in die Welt gesetzt. Um der damit verbundenen Sensibilisierung und Beunruhigung der Bevölkerung zu begegnen, lud Hoechst an einem schönen Sonntag zu einer Film- und Vortragsveranstaltung über die „gelbe Fahne“. Ich ließ mir die Gelegenheit nicht entgehen und schrieb darüber in dem von der kommunistischen Betriebsgruppe herausgegebenen Blättchen „Der Farbwerker“. Der vortragende Toxikologe konnte zumindest mich von der Harmlosigkeit der „gelben Fahne“ überzeugen. Denn es war mir klar, dass der hohe Schornstein ausreichte, um die Stickoxide auf eine ungefährliche Konzentration zu verdünnen. Inzwischen ist der Hoechst-Konzern mitsamt der „gelben Fahne“ längst verschwunden. Die Hauptquelle für die Stickoxide in der Frankfurter Luft war schon zu Beginn der 1970er Jahre nicht Hoechst, sondern mit großem Abstand der Kraftverkehr. Es war damals unmöglich, sich eine halbe Stunde an einer vielbefahrenen Straßenkreuzung aufzuhalten, ohne dass einem Hustenreiz überkam und die Augen zu brennen begannen. Dafür waren allerdings nicht allein die Stickoxide verantwortlich. Sehr bedenklich waren auch Schwefeldioxid sowie die Rückstände des damals mit dem Antiklopfmittel Bleitetraäthyl versetzten Benzins.

Eigenartigerweise waren es dann weniger die damit verbundenen Gesundheitsgefahren für die Menschen, sondern von den Grünen als Vorboten eines allgemeinen „Waldsterbens“ missdeutete Waldschäden, mit denen in den 1980er Jahren Milliarden-Investitionen in die Entschwefelung und Entstickung von Kraftwerks- und Kfz-Abgasen durch Filter und Katalysatoren begründet wurden. Mit Diesel betriebene Fahrzeuge, die wegen höherer Verbrennungstemperaturen als Hauptquelle innerstädtischer NO2-Emissionen gelten, wurden durch diese Maßnahmen aber zunächst nicht erfasst. Schwefeldioxid aus Kohlekraftwerken galt als Hauptquelle des „Sauren Regens“ und dieser wiederum als Hauptursache des „Waldsterbens“. Stickoxide hingegen sollten die Wälder durch Überdüngung mit Stickstoff in Form von Nitrat schädigen, d.h. durch zu viel des Guten. Außerdem galten und gelten Stickoxide noch heute als Vorläufer-Substanzen für die photochemische Bildung des gesundheitsschädlichen Ozons unter dem Einfluss des Sonnenlichts. Hinzu kommen Wechselwirkungen mit Feinstaub. Das als Los-Angeles-Smog bekannte Schadstoff-Gebräu war sicher auch für die Menschen alles andere als gesund. Aber die Bäume waren den Deutschen offenbar zunächst wichtiger.

Ich habe in den 1980er Jahren selbst ein durchaus erfolgreiches Buch und zahlreiche Artikel (auf Deutsch und französisch) über das „Waldsterben“ verbrochen. Um die Mitte der 80er Jahre machten mir dann Schweizer und französische Wissenschaftler, die wirklich etwas von Wald verstanden, aber klar, dass ich einem Fehlalarm aufgesessen war. Selbstverständlich trug ich dem in späteren Beiträgen Rechnung. Aber kaum jemand wollte das drucken, zumal das für Fragen der Waldforschung nicht kompetente, aber dennoch für zuständig erklärte Bundeslandwirtschaftsministerium bis weit ins 21. Jahrhundert Jahr für Jahr alarmistische „Waldschadensberichte“ veröffentlichte. In Wirklichkeit wuchs der deutsche Wald nachweislich besser als je zuvor. So lernte ich meine Lektion über das Aufkommen und die Verbreitung „wissenschaftlicher“ Mythen. Das half mir später, den Hype um eine drohende Klimakatastrophe von vornherein zu durchschauen.

Seit dem politischen Aufstieg der Grünen haben Stickstoffverbindungen aller Art (außer Proteine) bei uns eine schlechte Presse. Das gilt nicht nur für Stickoxide aus den Auspuffrohren von Automobilen, sondern auch für den Pflanzennährstoff Nitrat. Die alarmistische Kommunikation grüner Lobbygruppen beschränkt sich nicht selten auf den bloßen Nachweis „böser“ beziehungsweise politisch-unkorrekter Substanzen ohne Berücksichtigung der Dosis. Vergessen wird dabei, dass die Wirkung aller Stoffe ohne Ausnahme (einschließlich der radioaktiven) der Paracelsus-Regel unterliegt: Kleine Dosen sind harmlos und oft sogar nützlich. Erst Dosen oberhalb eines Schwellenwerts erweisen sich als schädlich. Die Bestimmung dieser Schwellenwerte mithilfe von Tierversuchen oder Tests an Zellkulturen ist Aufgabe der wissenschaftlichen Toxikologie.

Noch im Jahre 2011 warnte das Bundesinstitut für Risikobewertung (BfR) vor dem Genuss zu großer Mengen von Wintergemüse wie Rote Beete, Radicchio, Rucola, Sellerie oder Spinat. Begründet wurde diese Warnung mit dem hohen Nitratgehalt der Nahrungspflanzen in der dunklen Jahreszeit. Normalerweise dient das von den Pflanzen aus dem Boden aufgenommene Nitrat als Stickstoffquelle für den Aufbau von Proteinen. Im Dunkeln läuft die Proteinsynthese jedoch nur langsam ab, so dass sich Nitrat in den Pflanzen anreichern kann. Es empfiehlt sich nicht, Babys mit nitratreichem Gemüse und nitratreichem Trinkwasser zu füttern. Denn bei ihnen kann überschüssiges Nitrat zur „Blausucht“ führen. Nitrat kann sich nämlich wie Kohlenstoffmonoxid mit dem roten Blutfarbstoff Hämoglobin zu Methämoglobin verbinden, das keinen Sauerstoff mehr transportieren kann. Auch bei Erwachsenen wird ein Teil des mit der Nahrung aufgenommenen Nitrats schon beim Kontakt mit Speichel im Mund in giftiges Nitrit umgewandelt. Aus Nitrit können dann im Magen potenziell krebserregende Nitrosamine entstehen. Soweit die Theorie.

Tatsächlich wurde bei Menschen, die nachweislich viel Nitrat zu sich nehmen, nie ein erhöhtes Krebsrisiko nachgewiesen. Stattdessen konnten Gary Miller und Daniel Kim-Shapiro an der Wake Forest University von North Carolina in einer schon im Jahre 2011 veröffentlichten Studie zeigen, dass der Genuss von nitratreichem Gemüse wie Rote Beete, Fenchel oder Sellerie insbesondere bei älteren Personen die Durchblutung des Gehirns und die Verdauung fördert. Warum das so ist, können die Mediziner heute genau erklären: Nitrit kann im Blutkreislauf wie auch eingeatmetes NO2zu Stickstoffmonoxid (NO) umgewandelt werden. Das eigentlich giftige Gas spielt im Organismus in winzigen Mengen eine wichtige Rolle als Botenstoff für die Erweiterung der Blutgefäße. Es bewirkt über die Synthese von zyklischem Guanosinmonophosphat (cGMP) die rasche Senkung des Blutdrucks infolge der Erschlaffung glatter Muskelzellen. (Auch darauf weist der „Pschyrembel“ hin.) Stickstoffmonoxid wird mit großem Erfolg für die Bekämpfung von Lungenhochdruck eingsetzt. Wie Stickstoffmonoxid wirkt auch das Medikament Sildenafil, bekannt unter dem Markennamen Viagra®, indem es den Abbau von cGMP hemmt und somit die Weitung der Blutgefäße des Penis aufrechterhält. Nicht von ungefähr gilt Rote-Beete-Saft inzwischen bei Kennern als „Viagra des kleinen Mannes.“ Ich selbst nehme immer vor dem Gang ins Fitness-Studio Rote-Beete-Saft zu mir und stelle dann eine messbare Verstärkung meiner Muskelkraft fest. (Aber Achtung: Ein Zuviel davon kann zu Durchfall führen!)

Nitrat und Stickoxide erweisen sich somit als Paradebeispiele für die Paracelsus-Regel. Für den achtstündigen Aufenthalt in geschlossenen Räumen hat die unabhängige Senatskommission zur Prüfung gesundheitsschädlicher Arbeitsstoffeder Deutschen Forschungsgemeinschaft (DFG) einen Grenzwert von 950 Mikrogramm NO2je Kubikmeter Luft vorgeschlagen, der durch die Technischen Regeln für Gefahrstoffe (TRGS 900) gesetzlich vorgeschrieben ist. In der Schweiz liegt dieser Grenzwert bei 6.000 Mikrogramm. Der Unterschied erklärt sich durch unterschiedliche Sicherheitsabstände zwischen der experimentell ermittelten Schädlichkeits-Schwelle und dem gesetzlichen Grenzwert. Der bekannte Lungenspezialist und ehemalige Präsident der Deutschen Gesellschaft für Lungenheilkunde Professor Dieter Köhler wies kürzlich darauf hin, dass akute Atem-Beschwerden erst bei einer NO2-Konzentration von 800.000 bis 900.000 Mikrogramm je Kubikmeter beginnen, und zwar nicht bei Gesunden, sondern bei unbehandelten Asthmatikern. Die Reizung der Augenschleimhäute beginnt freilich bereits bei 20.000 µg/m3. Schon beim Anzünden von Kerzen oder beim Betreiben von Gasherden werden aber in geschlossenen Räumen leicht NO2-Konzentrationen von über 200.000 µg/m3erreicht.

Das wirft die Frage auf, warum die EU (auf Druck der deutschen Regierung!) 40 Mikrogramm NO2je Kubikmeter im Jahresmittel als Grenzwert für NO2eingeführt hat. Dieser muss seit 2010 eingehalten werden. Angeblich wurde dieser Wert von epidemiologischen Untersuchungen abgeleitet, wonach in Deutschland mit jährlich 6.000 Todesopfern durch NO2gerechnet werden müsse. Doch diese Zahl ist rein fiktiv, denn epidemiologische Untersuchungen liefern im Unterschied zu toxikologischen Experimenten allenfalls Anhaltspunkte für vermutete Zusammenhänge. In diesem Fall hat man aus der etwas höheren Sterblichkeit von Stadt- gegenüber Landbewohnern geschlossen, dass NO2dafür verantwortlich ist. Andere Faktoren blieben unbeachtet.

Offenbar steckt hinter der Einführung des extrem niedrigen NO2-Grenzwerts eine Strategie. Bei der Suche nach deren Urheber stößt man auf den Grünen Rainer Baake, der über lange Zeit als beamteter Staatssekretär im Umweltministerium oder als Geschäftsführer des Abmahnvereins Deutsche Umwelthilfe e.V. (DUH) die Rolle einer „Grauen Eminenz“ der deutschen Umweltpolitik spielte. Baake durchlief in Chicago Saul Alinskys Schule des „Community Organizing” (CO), wo man die systematische kommunistisch bzw. ökologistische Unterwanderung und machtpolitische Umfunktionierung bürgerlicher Institutionen lernt. Die vom Bunddsumweltministerium mit Millionenbeträgen geförderte DUH entwickelte sich als klageberechtigte Vereinigung zur privaten Umweltpolizei, die Städte, in denen der NO2-Grenzwert überschritten wird, mit Klagen überziehen, um Fahrverbote für Diesel-Fahrzeuge durchzusetzen.

Ich verstehe, wie gesagt, nicht viel von Dieselmotoren. Aber aufgrund meiner Chemie-Kenntnisse leuchtet es mir ein, dass man deren Treibstoffbedarf und Stickoxid-Ausstoß nicht gleichzeitig minimieren kann. Jahrelang haben die Ingenieure der Automobil-Industrie Diesel-Motoren auf eine Minimierung des CO2-Ausstoßes (der für mich nur ein Maß für den Treibstoffverbrauch darstellt) getrimmt. So wurden Diesel-Motoren durch Verbesserungen der Kraftstoff-Einspritz-Technik und eine sukzessive Erhöhung der Verbrennungs-Temperatur zum bei weitem öko-effizientesten Antrieb für Kraftfahrzeuge. Sie sind nach einer im Auftrag des Automobil-Clubs ADAC erstellten unvoreingenommenen Öko-Bilanz gerade auch dem von Politik und Massenmedien über den grünen Klee gelobten Elektro-Antrieb haushoch überlegen. Höhere Verbrennungs-Temperaturen ziehen aber einen höheren NO2-Ausstoß nach sich, da der normalerweise reaktionsträge Luftstickstoff nur bei hohen Temperaturen mit Sauerstoff reagiert. Vor die Herausforderung gestellt, auf einmal den strengen NO2-Grenzwerten genügen zu müssen, hatten die Kfz-Ingenieure zunächst keine andere Wahl, als die Motorsteuerungs-Software so zu modifizieren, dass ihre Motoren den amtlichen Prüfzyklus ohne Beanstandung durchlaufen konnten. Man darf ihnen dabei keine Betrugs-Absicht unterstellen, wie das in unseren machthörigen Medien leider geschah. Denn zum Betrug gehört in einem Rechtsstaat, dass dadurch jemand nachweislich geschädigt wird. Das aber ist ausgeschlossen, da die Deutschen in ihren Wohnungen gerade in der nun bald beginnenden Adventszeit ein Mehrtausendfaches an Stickoxiden akzeptieren, als ihnen Alinsky-Jünger auf den Straßen erlauben wollen. Ich kann (als Nicht-Jurist) jedem, der in den kommenden Monaten mit Diesel-Fahrverboten in Konflikt kommt, nur raten, auf dem Nachweis einer Schädigung zu bestehen.

 

 




Milder Oktober 2018 – Eine bloße Laune der Natur?

Die Trendlinie der letzten 30 Jahre sieht in Deutschland bei den über 1800 DWD-Wetterstationen dann so aus:

Abb. 1: Die Deutschlandtrendlinie des DWD der letzten 30 Jahre zeigt für den Herbstmonat nach oben. Bei den heutigen über 1800 DWD-Messstationen ist es also wärmer als bei denen vor 30 Jahren, die damals den Schnitt bildeten. Doch wurde der Oktober wirklich wärmer?

Die Entwicklung der Oktobertemperaturen in Deutschland

Zunächst lohnt ein Blick auf die langfristige Entwicklung der Oktobertemperaturen und deren Ursachen. Die vom Deutschen Wetterdienst (DWD) veröffentlichten Temperaturdaten reichen allerdings nur bis 1881 zurück. Es handelt sich um Durchschnittsdaten von vielen hundert Stationen über ganz Deutschland verteilt; die neuerdings in ein 1×1 Km²- Rastermittel umgerechnet werden. 1881 standen diese Stationen, welche dafür die Ausgangswerte liefern, natürlich an ganz anderen Orten und Plätzen als heute; Deutschland war zudem viel dünner besiedelt und viel weniger bebaut. Im Vergleich zu heute ein armes Land mit geringem Energie- und Wärmebedarf.

Wir können für einen noch längeren Zeitraum als bis 1881 jedoch auf Einzelstationen zurückblicken, dabei ist zu gewährleisten, dass sich deren Umgebung nicht wesentlich verändert hat, denn jede Ortsänderung oder eine umfangreiche Umgebungsbebauung würde auch die Vergleichbarkeit der Daten einschränken.

Die Station des DWD auf dem 988m hohen Hohenpeißenberg erfüllt nicht ganz die von uns aufgestellten Bedingungen. Natürlich hat sich der Berg in den letzten 200 Jahren auch verändert und die Station wurde von der Nordwand der unbeheizten Klosterkirche ab 1936 über Umwege in das heutige moderne DWD-Klimazentrum HPB mit mehreren Gebäuden verlegt. Die Messhütte ist heute ganztägig sonnenbeschienen –wenn die Sonne scheint. Zudem ist der neue Standort etwas tiefer gelegen. Hinzu kommen Wärmeinseleffekte durch Versiegelungen und Tourismus. Aber im Vergleich zu München oder vielen anderen bewohnten Orten ist das nur eine minimalere Umgebungsveränderung.

Oktobertemperaturen Hohenpeißenberg über die letzten 230 Jahre

Abb. 2: Die langzeitlichen Oktobertemperaturen auf dem HPB verhalten sich wie eine Schwingung mit zwei Wellenbergen und einem Wellental. Sie waren zu Beginn der Betrachtung auf einem ähnlichen hohen Niveau wie heute, obwohl die Station an einer kälteren Stelle stand. Die Kältedepression lag im Zeitraum 1860 bis1910.

Wir stellen fest: Das Startjahr 1881 des DWD für seine heutigen Deutschlandbetrachtungen lag inmitten eines Kältetales. (2,1 C auf dem HPB). Über die Ursachen dieser kälteren 50 Jahre in der 2. Hälfte des 19. Jahrhunderts liegen nur Vermutungen vor. Von der CO2-Treibhauskirche wird dieser Zeitraum gar nie thematisiert. Seit 1881 bis heute zeigt der Hohenpeißenberg eine stetige und deutliche Erwärmung. Mit einem früheren Betrachtungsbeginn 1787 bis heute wäre lediglich eine sehr moderate und keinesfalls beängstigende Erwärmung festzustellen, wobei 2001 der wärmste Oktober war. Und nicht vergessen: bis 1936 stand die Messstation zudem an einem kälteren Platz als heute.

Die CO2-Erwärmungsgläubigen führen die Erwärmung seit 1881, also aus dem Kältetal heraus bis heute, ausschließlich auf die steigende CO2-Konzentration zurück. Dabei können sie auf keinerlei Versuchsbeweise zurückgreifen, denn in wissenschaftlichen Versuchsreihen kann die behauptete CO2-Erwärmung nicht bewiesen werden. Es gibt auch keinerlei technische Anwendungen für einen CO2– Erwärmungseffekt. Für neutrale Beobachter wäre die Frage interessant, welche Klimafaktoren haben die hundertjährige Abkühlung vor 1881 bewirkt? Die Erwärmungsgläubigen ignorieren diesen Zeitraum schlichtweg. Immerhin begann die Industrialisierung in Deutschland ab etwa 1830, und die Oktobermonate wurden zunächst noch kälter. Aufgrund fehlenden Datenmaterials können wir diese Frage der Abkühlung nach 1850 nicht beantworten, sondern nur aufwerfen. Vielleicht wurde diese Kaltphase durch verschieden starke Vulkanausbrüche im 19 Jahrhundert verstärkt und verlängert. Außerdem war die Sonnenaktivität zwischen etwa 1860 und 1910 geringer; als zur Mitte des 19. und im späteren 20. Jahrhundert, was an den niedrigeren Maxima der SCHWABE- Zyklen sichtbar wird. Manche Klimaforscher rechnen diesen Abschnitt noch zur „Kleinen Eiszeit“, welche erst um 1900 endgültig vorbei war:

Abb. 3: Im letzten Drittel des 19. Jahrhunderts kam es vorerst letztmalig zu einer geringeren Sonnenaktivität; um 1900 endete die Kleine Eiszeit („End of Little Ice Age“). Mit dem schon merklich schwächeren 24. SCHWABE- Zyklus (Maximum 2014) hat möglicherweise der Übergang in eine neue Kleine Eiszeit bereits begonnen; sicher vorhersagen lässt sich die weitere, langfristige Temperaturentwicklung aber nicht, da viele Faktoren das Wetter und über einen längeren Zeitraum das Klima bestimmen.

Die Oktobermonate in Deutschland ab 1881

Von 1881 bis 2018 erwärmte sich der Oktober in Deutschland um fast 1,6 Kelvin (1 Kelvin = 1°C) und damit viel deutlicher, als der September. Zwei mögliche Erwärmungsursachen, eine leichte Häufigkeitszunahme der Großwetterlagen mit südlichem Strömungsanteil sowie die insgesamt gestiegenen AMO- Werte (ein Indexwert für die Wassertemperaturen im zentralen Nordatlantik), zeigt die folgende Grafik gleich mit. Eine dritte mögliche Ursache, die Verstädterung sowie die geänderte Landnutzung („Wärmeinseleffekte“ im weitesten Sinne) wurden hier bei EIKE schon oft erläutert und sollen an dieser Stelle bloß erwähnt werden. (Im 2. Teil des Artikels gehen wir näher auf den WI-Effekt ein.)

Abb. 4: Der Oktober war in Deutschland immer dann besonders mild, wenn es viel „Südwetter“ gab; das war auch 2018 der Fall (rot). Aber auch die gestiegenen AMO- Werte spielten eine Rolle (grün). Wegen der sehr unterschiedlichen Werte der drei Größen wurden Index- Werte berechnet, um sie übersichtlicher in einer Grafik darstellen zu können. Weil für den Oktober 2018 noch keine AMO-Werte vorliegen, endet diese Grafik mit dem Jahr 2017.

Doch seit dem Jahr 2000, in der Gegenwart stagniert die Oktober- Erwärmung in Deutschland- und das trotz stark gestiegener CO2– Konzentrationen. Damit verhält sich der Monat Oktober genauso wie die anderen Monate. Wir leben somit keineswegs in einer starken Erwärmungsphase, sondern in einer Temperatur-Stagnationsphase:

Abb. 5: Keine Oktobererwärmung bei den derzeitigen DWD-Stationen in Deutschland seit 19 Jahren, und das trotz stetig steigender CO2– Konzentrationen. Zwar ist der 19-jährige Betrachtungszeitraum – also die Gegenwart – für endgültige Schlüsse zu kurz; trotzdem scheint es auch in diesem Zeitraum keinen Zusammenhang zwischen den Entwicklungen der CO2-Konzentrationen und denen der Lufttemperatur zu geben.

Bei den in der Umgebung fast unverändert gebliebenen ländlichen Stationen mit geringen Wärmeinseleffekten stagnieren die Oktobertemperaturen natürlich schon länger. Wir greifen hier auf Wolfach im Schwarzwald zurück. Die Station steht etwas außerhalb der Stadt. Wir könnten genauso gut die Zugspitze, den Hohenpeißenberg, Amtsberg im Erzgebirge Alfhausen in Niedersachsen, Netzstall bei Nürnberg oder Lahr in der Oberrheinebene wählen.

Abb. 6: Bereits seit 1976 sinken (stagnieren) die Oktobertemperaturen bei der ländlich umgebenden WI-armen DWD-Wetterstation Wolfach im Schwarzwald. Die Wetterstation liegt im Osten vor der Ortschaft. Der wärmste Oktobermonat war 1995, deutlich wärmer als die letzten Jahre.

Die angenehme Oktobererwärmung seit 1881 ist auf dem Lande, das immerhin 85% der Fläche Deutschlands ausmacht, schon vor mehr vier Jahrzehnten zu einem Ende gekommen. Seit 20 Jahren haben wir bei vielen ländlichen Messstationen, deren Umgebungen weitgehend unverändert blieben, noch deutlicher sinkende Temperaturen. Dem Leser nur zur Erinnerung: Auf dem Lande und in der freien Natur ist die CO2-Konzentration in den letzten 40 Jahren natürlich genauso gestiegen wie in der Stadt. Gleicher CO2-Anstieg, aber stagnierende bzw. sinkende Temperaturen. Das passt nicht zusammen und zeigt einmal mehr, dass CO2 in diesen geringen Konzentrationen von 400 ppm gar keinen oder nur einen unbedeutenden Anteil am Temperaturgeschehen hat.

Gegenwart: In der Gegenwart kühlt der Oktober noch mehr ab. Das zeigt auch die DWD-Wetterstation Nürnberg-Netzstall. Die Wetterstation steht bei einem Aussiedlerhof umgeben von Naturflächen. Man beachte die Formel der fallenden Trendlinie. Im gleichen Zeitraum zeigt die Wetterstation in der Stadt eine geringe Erwärmung um fast 0,4 C.

Abb.7: Wie hier bei einem Aussiedlerhof außerhalb Nürnbergs sinken die Oktobertemperaturen deutlich seit 20 Jahren. Der angeblich warme Oktober 2018 fällt gar nicht auf.

Ein besonders schönes Beispiel findet sich in den USA, wo sich die Bundeshauptstadt Washington D.C. im Oktober seit 1981 erwärmte, das ländliche, auf gleicher geografischer Breite gut 100 Km weiter westlich gelegene Dale Enterprise aber abkühlte:

Abb. 8: Während sich das immer stärker urbanisierte Washington im Oktober erwärmte, kühlte sich das ländliche Dale Enterprise leicht ab. Die „Schere“ zwischen beiden ist im Oktober, der wegen zunehmender Bewölkung (weniger Sonnenscheindauer als im Frühling/Sommer), milder Temperaturen (noch keine wesentlichen Heizeffekte durch Industrie oder Hausbrand) und relativ hoher Windgeschwindigkeiten eher WI-arm verläuft, trotzdem gut sichtbar. Die 2018er Oktober-Werte der US-Stationen liegen noch nicht vor.

Wir kommen zum Ergebnis 1:

Der Herbstmonat Oktober zeigt in Deutschland außerhalb der Wärmeinseln in freier Natur seit 40 Jahren keinen Erwärmungstrend, trotz ständig gestiegener CO2-Konzentrationen. Seit 20 Jahren zeigen Stationen in unveränderter ländlicher Umgebung sogar eine deutliche Abkühlung.

Ironischerweise könnte man verlangen, der DWD muss lediglich seine Messstationen aus den Wärmeinseln raus in die Außenbezirke stellen und schon ist die Klimaerwärmung beendet. Ein schönes Beispiel hierfür ist die südbadische Landeshauptstadt Freiburg:

Abb. 9: Laut DWD-Wetterstation wird der Oktober seit über 40 Jahren in Freiburg kälter. Der Grund hierfür ist aber wohl eher der 3 km-Standortwechsel vor 10 Jahren von der Innenstadt in den grünen Außenbezirk Brühl.

Und die Reaktion der Klimaalarmisten auf unsere Grafiken? Antwort: Gar keine Reaktion, die Leute reden nur von einer ständigen Erwärmung und werden niemals von den Medien aufgefordert, eine bestätigende Grafik zu liefern. Und wenn Beispiele gebracht werden, dann sind dies stets Großstadtwetterstationen mit wachsender Bebauung und steigendem Flugverkehr: Frankfurt, Stuttgart, München, Berlin, Köln, Leipzig, usw. Schreiben unsererseits an die Medien bleiben ohne Antwort

Oktober- Trends in anderen Regionen

In Zentralengland (CET) erwärmte sich der Oktober sowohl kurz- als auch langfristig merklich; er unterscheidet sich damit deutlich vom Verhalten der meisten anderen Monate in England. Anders sieht die langfristige Entwicklung an der schon erwähnten Dale Enterprise- Station bei einer Farm in Virginia/USA aus; die Werte liegen ab 1881 vor:

Abb. 10: Auch langfristig betrachtet, kühlte sich die ländliche Station Dale Enterprise im Oktober ab. Die Temperatur von 2018 liegt bei 13,5 C (noch nicht eingezeichnet)

In Oimjakon (Ostsibirien) zeigt sich seit 1995 ein ähnliches Verhalten wie in Deutschland (fast Stagnation); freilich auf viel niedrigerem Niveau, denn im Indigirka-Hochtal herrscht im Oktober bereits strenger Dauerfrost:

Abb. 11: Fast keine Oktober- Erwärmung seit Mitte der 1990er Jahre in Ostsibirien.

Und in Mittelschweden, wo im Oktober ähnliche Temperaturverhältnisse herrschen wie im deutschen November, stagnieren die Oktoberwerte bereits seit gut 60 Jahren:

Abb. 12: In Östersund (westliches Mittelschweden am Ostfuß des Skandinavischen Gebirges) bleibt der Oktober ein empfindlich kühler Herbstmonat.

Ergebnis 2: Trotz eines starken Anstiegs des „Treibhausgases“ CO2 zeigt der Monat Oktober in den ländlichen Gebieten dieser Welt oft seit Jahrzehnten keine Erwärmung mehr.

Es gibt viele Ursachen und Gründe, die das Klima auf der Erde bestimmen, und der Mensch ist beteiligt durch die weltweite tägliche Vergrößerung der Wärmeinseln, was letztlich eine Naturzerstörung ist. Überall wo sich Wärmeinseln ausbreiten werden die Regionen wärmer und genau das zeigen die dortigen Messstationen. Eindeutig eine Erwärmung, für die nicht CO2 verantwortlich sein kann. Will man die Klimaerwärmung bekämpfen, dann müsste man die Ausbreitung und Vermehrung der Gattung Mensch eindämmen und den Lebensstandard deutlich senken. Wollen wir das?




Aus dem Rundbrief der GWPF vom 31. Oktober 2018: Bolsanaro, Merkel und das Paris-Abkommen

Bolsonaro in, Merkel out: Die Pariser Klima-Bande zerfällt
Während die Brasilianer einen neuen, klimaskeptischen Präsidenten gewählt haben, hat Deutschlands ,Klima-Kanzlerin‘ Angela Merkel angekündigt, sich nach und nach aus allen ihren politischen Ämtern zurückzuziehen. Grüne Propaganda-Medien äußern bereits Bedenken, dass diese und andere Entwicklungen in der westlichen Welt das Pariser Klima-Abkommen und die gesamte Klima-Agenda dem Risiko des Auseinanderbrechens aussetzen.

Die Allianz reicher, sich entwickelnder und armer Ökonomien, welche den Pariser Klima-Deal abgesegnet haben, zerbricht.

Im Jahre 2015 haben sich die beiden Spitzen-Emittenten zusammen mit Brasilien, einigen kleinen Inselnationen und die Europäische Union unter Führung von Deutschland, Frankreich und UK zusammengetan und das Abkommen erarbeitet.

Aber seitdem hat sich die Klimawandel-Politik erheblich verschoben, wobei es diese Woche zu zwei weiteren einschneidenden Ereignissen gekommen ist. Brasilien wählte einen überzeugten und radikalen Anti-Umwelt-Aktivisten zum Präsidenten, und Deutschlands Kanzlerin Angela Merkel bestätigte ihre Rückzugspläne, womit sie ihr bereits schwächelndes Image als „Klima-Kanzlerin“ und Europas Führerin in diesem Bereich weiter schwächte.

Es ist der jüngste Schwächeanfall der Klima-Bemühungen, seit Donald Trump 2016 in den USA zum Präsidenten gewählt worden ist.

Inzwischen greifen in vielen bedeutenden Ländern Klima-Skeptizismus und ökonomischer Nationalismus immer weiter um sich und usurpieren den grünen Enthusiasmus des Jahres 2015. Als Folge davon schwindet die politische Unterstützung zur Kappung von Treibhausgas-Emissionen, die Hilfe für die ärmsten und verwundbarsten Länder und die Bereitschaft zu Diskussionen zu diesem Thema auf multilateralen Gipfeltreffen immer mehr. Andere, die sich noch weiter Klima-Maßnahmen verpflichtet fühlen, werden von heimischen Problemen erfasst – wie dem Brexit in UK und politischer Instabilität in Deutschland.

Full story

——————————–

Werden Trump und Bolsonaro das Pariser Klima-Abkommen abwickeln?

Der Sieg des designierten Präsidenten Jair Bolsonaro in Brasilien hat international Bedenken ausgelöst,dass seine Geringschätzung des Pariser Klima-Abkommens das gesamte Abkommen zu Fall bringen könnte.

Präsident Trump verkündete seinen Rückzug aus dem Abkommen im Juni 2017, als er der Welt sagte, dass er „als Präsident der Bürger von Pittsburgh und nicht der von Paris“ gewählt worden ist.

Trotz des Status‘ als einzige Supermacht der Welt, die sich aus dem Abkommen zurückgezogen hatte, hat dessen Rückzug dieses nicht ultimativ zu Fall gebracht. Kein anderes Land folgte diesem Schritt, während zahlreiche Politiker auf [US-]staatlicher und lokaler Ebene darum bemüht waren, die [US-]Bundesregierung davon zu überzeugen, dem Abkommen treu zu bleiben.

Nun jedoch könnte diese Einzelrolle Amerikas zu ihrem Ende kommen. In Brasilien wurde mit lautem Nachhall ein konservativer Politiker gewählt, welcher eine genauso starke Ablehnung des internationalen Klima-Abkommens an den Tag gelegt hat wie Trump: Jair Bolsonaro.

Im Laufe seiner Kampagne hat der 63 Jahre alte Kongressmann versprochen, aus dem globalen Abkommen auszutreten, weil es die Souveränität Brasiliens beeinträchtigte.

Allerdings hat der konservative Politiker seine Haltung mit dem Näherkommen des Wahltermins abgeschwächt. Er sagte, dass er Brasilien in dem Abkommen belassen würde, solange es Garantien gibt, dass die Regierung ihre Souveränität über das Amazonas-Gebiet und die indigenen Ländereien in dem Gebiet behalten kann.

Können wir das Risiko eingehen, unseren Amazonas im Zuge des Paris-Abkommens zu verlieren? Ihr wisst die Antwort“, sagte Bolsonaro auf einer Pressekonferenz in Rio de Janeiro.

Sollte Bolsonaro zu der Überzeugung kommen, dass er diese Garantien nicht bekommt, könnte er dem Beispiel Trumps folgen und sich zurückziehen – womit er das einflussreichste Land Südamerikas und das Land mit der fünfthöchsten Bevölkerung weltweit mit sich nähme.

Der Austritt eines großen und einflussreichen Landes wäre nicht nur ein vernichtender Schlag gegen das Pariser Klima-Abkommen, sondern der Besitz des Amazonas-Gebietes macht das Land auch zu einem strategischen Mitglied des Paktes, weil das Land über die Hälfte der noch verbliebenen Regenwälder der Welt repräsentiert, ist doch das Amazonas-Becken eine wesentliche Senke für die globalen CO2-Emissionen. Millionen Dollar an Subventionen fließen an Brasilien, um die Entwaldung zu stoppen.

Allerdings wären große internationale Unterstützer des Paris-Deals sofort zur Stelle, um rasch gegen die brasilianische Regierung vorzugehen, sollte sich diese tatsächlich zurückziehen. Der französische Präsident Emanuel Macron verkündete auf einer Rede vor den UN, dass sein Land – und weiteren Sinne alle EU-Länder – kein Handelsabkommen mit einem Land schließen würden, welches sich nicht an das Abkommen gebunden fühlt. Brasilien würde damit nicht nur seine Subventionen aufs Spiel setzen, sondern der landwirtschaftliche Sektor würde auch einen großen Markt für seine Exporte verlieren.

Full story im Daily Caller vom 29. 10. 2018 (paywalled)

——————————–

Weitere Kurzmeldungen und Schlagzeilen aus dem Rundbrief zu anderen relevanten Themen:

Neue Studie: nur 16 Nationen erfüllen ihre Verpflichtungen aus dem Paris-Abkommen

Nur 16 von 197 Ländern, welche das Paris-Abkommen unterzeichnet hatten, haben einen nationalen Klima-Maßnahmenplan auf den Weg gebracht, um ihre Versprechungen zu halten. Diese Länder sind: Algerien, Kanada, Costa Rica, Äthiopien, Guatemala, Indonesien, Japan, FYR Mazedonien, Malaysia, Montenegro, Norwegen, Papua Neu-Guinea, Peru, Samoa, Singapore und Tonga. – EurActiv, 29 October 2018

——————————–

Neue asiatische Kohlekraftwerke bringen Klimaziele aus dem Takt – Financial Times, 31 October 2018

——————————–

Eine Windturbine in Fukushima, Symbol der Erholung des Landes nach dem Tsunami, wird wegen zu hoher Wartungskosten abgebaut. – Financial Times, 31 October 2018

Alles Übersetzt von Chris Frey EIKE




Verlegung der Torpfosten: Klamm­heimlich definiert das IPCC um, was ,Klima‘ ist

Für seine jüngste Angabe von 1,5 Grad hat das IPCC die Definition von ,Klima‘ verändert zu etwas, das man lose als „das Klima, in dem wir uns befinden“ bezeichnen könnte. Es zieht immer noch den 30-Jahre-Zeitraum für seine Abschätzung der globalen Erwärmung heran und nennt das folgerichtig Klima – aber jetzt sind es die 30 Jahre um den heutigen Tag.

Es gibt einige offensichtliche Probleme mit dieser heimlichen Verschiebung der Torpfosten. Wir haben gemessene Temperaturdaten aus den letzten 15 Jahren, aber natürlich keine einzige Messung aus den kommenden 15 Jahren. Allerdings kann man nun wirklich nicht sagen, dass fehlende Daten irgendein Problem für erfinderische Klimawissenschaftler sind.

Globale Erwärmung wird vom IPCC jetzt als eine spekulative globale Mitteltemperatur über 30 Jahre gehandelt, welche einerseits auf gemessenen globalen Temperaturdaten aus den letzten 15 Jahren beruht, und andererseits auf den vermuteten globalen Temperaturen der nächsten 15 Jahre. Dieser Vorschlag wurde vor dem jüngsten IPCC-Treffen in Incheon, Korea, auf den Tisch gelegt. Er wurde zustimmend als eine vernünftige Sache angesehen, um Klimatrends besser zu kommunizieren. Erstaunlicherweise vermengt diese neue IPCC-Definition reale und empirische Daten mit nicht existenten und spekulativen Daten – und geht dann einfach davon aus, dass sich ein kurzfristiger 15-Jahre-Trend auch während der kommenden 15 Jahre fortsetzen wird.

Allerdings ist diese neue Definition von Klima und globaler Erwärmung nicht nur philosophisch bedenklich, sondern sie ist auch offen für Spekulation und Manipulation. Es ist eine Sache zu spekulieren, wie das zukünftige Klima aussehen könnte; aber es ist eine ganz andere Sache, wenn das IPCC das Klima aufgrund von Daten definiert, die noch gar nicht existieren und nur Erwartungen darüber zur Grundlage hat, dass das Zukünftige einfach nur mit Gefahren befrachtet ist.

Diese Strategie betont die Temperatur der letzten 15 Jahre gleich doppelt, welche keine Extrapolation der Daten aus den 15 Jahren zuvor ist, und deren Verlauf war auch anders als prophezeit. Seit dem Jahr 2000 nämlich hat die Natur uns eine Lektion erteilt, welche das IPCC immer noch nicht gelernt hat.

Mit dieser neuen Definition von Klima sind sämtliche Daten aus der Zeit vor den letzten 15 Jahren irrelevant, sind sie doch Teil des Klimas zuvor. Schauen wir mal auf die vergangenen 15 Jahre nach HadCRUT4. Die erste Abbildung zeigt den Zeitraum 2003 bis 2017:

Es ist eine allgemein bekannte Graphik, die keinen Erwärmungstrend zeigt – außer man fügt am Ende den El Nino hinzu, welcher aber natürlich ein Wetterereignis ist und nichts mit Klima zu tun hat. Die Auswirkung des El Nino auf den Trend ist signifikant. Mit Hinzufügung desselben nämlich beträgt der Trend der letzten 15 Jahre etwa 0,15°C pro Jahrzehnt, das liegt nahe dem derzeit mit 0,2°C pro Jahrzehnt angegebenen dekadischen Trend. Vor dem El Nino-Ereignis hatte der Erwärmungstrend jedoch lediglich 0,02°C pro Jahrzehnt betragen, was statistisch völlig insignifikant ist.

Diese zweite Graphik zeigt den Verlauf über die 15 Jahre vor dem jüngsten El Nino, also von 2000 bis 2014. Der Trend über diesen Zeitraum wird beeinflusst durch den Startzeitpunkt, bei welchem es sich um ein starkes La Nina-Jahr handelt. Ohne diesen beträgt der Trend 0,03°C pro Jahrzehnt – statistisch ebenfalls völlig insignifikant. Man beachte, dass es schwächere El Ninos und La Ninas im Verlauf dieses Zeitraumes gegeben hat, aber insgesamt zeigt sich dabei nur ein geringer Gesamteffekt.

Was also soll man heranziehen? Die El Nino-Version, welcher eine Erwärmung von 0,6°C über die letzten 30 Jahre bis heute zeigt, oder die Nicht-El Nino-Version, die keine signifikante Erwärmung zeigt? Nun, die Letztere natürlich! Trends sollten frei sein von einer Kontamination durch kurrzzeitige Wetterereignisse – ebenso wie sie frei sein sollten von Abnahmen aufgrund von Aerosolen durch Vulkanausbrüche, welche durch Abschirmung des Sonnenlichts eine gewisse Zeit Abkühlung bewirken.

Das gleiche Problem erkennt man in dem 1,5°C-Report des IPCC, wenn dieses das Jahrzehnt 2006 bis 2015 analysiert, was es extensiv tut. In diesem spezifischen Jahrzehnt ist es signifikant wärmer als in den anderen Jahren, und zwar um etwa 0,2°C. Die NOAA sagt dazu: „Die globalen Temperaturen des Jahres 2015 waren stark beeinflusst durch starke El Nino-Bedingungen während jenes Jahres“. Der Temperaturtrend einschließlich des El Nino 2015 beträgt 0,2°C, wieder jene Zukunft. Ohne den El Nino ist der Trend statistisch nicht signifikant.

Um die zukünftige Temperatur und das Klima zu sehen, welche das IPCC in seinem Report ins Auge fasst, betrachte man die Abbildung 1 in ihrer Summary for Policymakers:

Der Versuch des IPCC, die Torpfosten zu verschieben, ist höchst fragwürdig. Nicht existierende Daten, extrapoliert über vermutete Temperaturtrends während der nächsten 15 Jahre sollten nicht formaler Bestandteil dessen sein, was Klima konstituiert.

——————————

Aktualisierung: Im befindet sich auf Seite 4 eine Fußnote, welche den falschen Denkansatz des IPCC darstellt:

Link: https://wattsupwiththat.com/2018/10/29/moving-the-goalposts-ipcc-secretly-redefines-what-climate-means/

Übersetzt von Chris Frey EIKE