1

10. IKEK Die Achilles-Ferse der Klima-Modelle: Wasserdampf-Verstärkung

Dieser Frage geht Klaus Puls anhand von Original IPCC Berichten nach. Dabei stellt er fest, dass – und diese Einschränkung muss erlaubt sein- wenn man überhaupt an einen realen Treibhauseffekt glaubt- dass die theoretische Größe der sog. Klimasensitivität ECS seitens des IPCC häufig mit 1,2 ° C (bei Verdopplung der CO2 Konzentration) benannt wird, während das MPI in Hamburg diese für die Realität noch kleiner annimmt, nämlich „nur wenige Zehntel Grade“.

Video des Vortrages anlässlich der 10.IKEK am 11. und 12. November in Berlin

Doch wie jüngste Forschungen zum ECS Wert zeigen, tendiert auch die Theorie für die Bestimmung dieses Wertes mit großen Sprüngen immer weiter nach unten. Um jedoch überhaupt einen merkbaren, gar gefährlich erscheinenden Erwärmungseffekt zu erzeugen, muss eine drastische Verstärkung seiner Wirkung über den Wasserdampf angenommen werden. Diese lässt sich jedoch in der Realität nirgends nachweisen. Man muss also davon ausgehen, dass Wasserdampf – vermutlich dank der Wolkenbildung- einen dämpfenden aber keinen einen verstärkenden Einfluss hat. CO2 jedenfalls kann aus sich keine „gefährliche“ Erwärmung auslösen. Noch dramatischer ist, dass die Menge an Wasserdampf in der Atmosphäre, gemäß den Messungen, in den letzten 40 Jahren deutlich erkennbar abgenommen hat. Das bedeutet, dass der bestimmende Einfluss des Wasserdampfes stetig abnimmt. Daraus resultiert letztendlich auch der Offenbarungseid des IPCC, den dieses mit der Fussnote zur Unbestimmtheit (real seiner rapider Reduktion) des ECS Wertes geleistet hat. Real bedeutet das, dass sämtliche Modelle allein aus diesem Grund falsch rechnen müssen! Viel schlimmer ist nur, dass das nirgends außerhalb dieser versteckten Fussnote, benannt wird. Sondern das genaue Gegenteil wird ständig weiter behauptet.




Impressionen aus Davos: Wasser predigen – Wein trinken

Welternährung:

World  Food Programme (Bild oben) – Sie genießen vor Ort Ihren 120 € Lunch, umso aufgeregter kann man reichliche und billige Nahrung für Arme fordern.

Politik, Klimawandel und „Erneuerbare Energien“

Tomas Friedman leitete ein Seminar über erneuerbare Energien

Friedman wies fälschlicherweise darauf hin, dass es ein wenig besorgniserregend ist, dass es Neo-Nazi-Parteien in Europa gibt, die nicht an den Klimawandel glauben, während eine der beiden großen politischen Parteien Amerikas dies tut.

Mein Kommentar – Hitler war der erste Politiker, der an die globale Erwärmung glaubte. Und baute eine ganze militärische Kampagne auf sie – Operation Barbarossa. Das Klima hatte sich von 1910 bis 1940 erwärmt, und Hitler dachte, er habe Zeit, in Russland einzufallen und Moskau zu erobern, bevor der russische Winter einsetzte. Aber 1941 war der Beginn einer Abkühlungstrend, die bis Mitte der 1970er Jahre andauerte Im Jahre 1941 kam ein paar Wochen früher als erwartet. So sicher war sich das Oberkommando, dass die deutsche Armee nur ihre Sommeruniformen mitgebracht hatten. Das Ende ist bekannt. Die ersten Opfer der Klimagläubigkeit

Russischer MG Trupp im Winterkrieg

Heute ist es die NPD (deutsche Neonazis) die stramme Gläubige der menschgemachten globalen Erwärmung ist. Nichts Neues wirklich.

 

Sicherheit der Elite

Diktator Xi, der berühmte Gläubige des Freihandels und der Menschenrechte, war abgereist. Die militärische und polizeiliche Macht wurde deshalb von 7000 gestern auf 5000 heute reduziert.

 

Ideen zur Wirtschaft für die Mittelschicht

Christine Lagarde, Joseph Steglitz und Credit Suisse veröffentlichten einen Bericht über Hilfe für die Mittelschicht – mit negativen Zinssätzen und Bargeldverbot

Nochmals Politik, Klimawandel und „Erneuerbare“

Eine andere diskutierte Idee:

China baut das weltweit längste 1000kV D / C-Netz, um Europa mit erneuerbarer Energie aus China zu versorgen.

Kommentar: Grundsätzlich vernünftig, weil die Chinesen viele Windparks im windigen Westen von China bauen, aber deren Strom weitgehend ungenutzt bleibt, weil es nicht genug Verbraucher in Westchina gibt. Sie könnten ihn an die ideologischen Europäer schicken, die viel mehr für erneuerbare Energien bezahlen, als für ihre eigene Atom- oder Kohleenergie. Die Chinesen wissen, dass das alles Sinn macht.

 

Während der WEF-Sitzung gibt es einen Defizit von schwarzen Audi A8, Mercedes S-Klasse, BMW 7 in der Schweiz. Limousinen mussten daher aus Hamburg, Dortmund, Frankfurt, sogar Büssel für die Davoser Gäste geliehen werden.

Am Morgen war die Temperatur -17 ° C und nachmittags -9 °. Alle Chauffeure der 1000 schwarzen Limousinen ließen diese den ganzen Tag mit ihren Dieselmotoren laufen, um warm zu bleiben.

Ein Beispiel für die globale Erwärmung, durch die globalistische Elite verursacht.

Die Luftqualität in Davos ist schlimmer als in Stockholm vor 30 Jahren.

 

 

 




Frag lieber nicht den Lesch

In regelmäßigen Abständen erläutert Lesch in TV und Online-Videos die Zusammenhänge und ermahnt seine Gefolgschaft zu einer nachhaltigen Lebensweise, ansonsten würde die Klimakatastrophe über die Welt hereinbrechen und alles zerstören. Rette sich wer kann.

Es ist in Ordnung, dass sich Lesch für das vermeintlich Gute so sehr einsetzt. Er glaubt an seine Sache, ist davon überzeugt, dass das CO2 den Planeten zerstören wird. Was nicht in Ordnung ist, ist dass Lesch im Zuge seiner Kampagne die wissenschaftlichen Fakten verbiegt. Wir hatten bereits mehrere Beispiele an dieser Stelle aufgeführt, sind bis zum ZDF-Fernsehrat gegangen, um Fehler korrigieren zu lassen:

Angesichts dieser Vielzahl von inhaltlichen Probleme stellt sich die Frage, ob es sich überhaupt noch lohnt, auf Lesch-Beiträge einzugehen. Der Mann ist offenbar beratungsresistent, wird von seiner Redaktion sowie dem Fernsehrat geschützt. Er kann sich im Prinzip alles erlauben. Trotzdem wollen wir auch zukünftig seine Thesen nicht ungeprüft lassen, versprochen.

Zunächst einmal wollen wir ein bisschen hinter die Kulissen schauen. Weshalb setzt sich “Harry” Lesch eigentlich so sehr für den Klimaalarm ein? Einen ersten Hinweis liefert sein Engagement bei einer Internationalen Agrarkonferenz, die von den B90/DIE GRÜNEN ausgerichtet wurde:

Harald Lesch fordert endlich Konsequenzen aus dem Wissen um den Klimawandel zu ziehen

In der Youtube-Beschreibung der Grünen heißt es:

Prof. Dr. Harald Lesch erklärt, wie wir unseren Planeten und sein Klima durch die Art und Weise, wie wir Landwirtschaft betreiben verändern. Dabei stehen die Gier nach abstrakten Dingen wie Geld und Reichtum einer konkreten Natur gegenüber, die sich beschreiben lässt, mit der wir aber nicht verhandeln können.

Die Verbandelung von Lesch mit den Grünen zeigt an, dass wir es vermutlich nicht mit einem neutral urteilenden Wissenschaftler zu tun haben, sondern einem grünen Aktivisten. Neben den Querverbindungen in die Politik gibt es aber auch noch Verknüpfungen mit dem klimaalarmistisch agierenden Potsdam Institut für Klimafolgenforschung (PIK). Schauen Sie einmal in das Buch “Climate Change, Justice and Sustainability – Linking Climate and Development Policy”, herausgegeben unter anderem vom PIK-Ökonomen Ottmar Edenhofer, unter Beteiligung zwei weiterer PIK-Leute. Und in der Danksagung auf Seite viii finden wir doch tatsächlich einen alten Bekannten:

The editors are very grateful for external support from a scientific advisory board: Hartmut Graßl, Joachim von Braun, Saleemul Huq, Stephan Klasen, Harald Lesch, Dirk Messner and Wilhelm Vossenkuhl

Der Astrophysiker und Naturphilosoph Harald Lesch saß also im wissenschaftlichen Beirat dieses PIK-Buches. Zwei Seiten vorher spinnt sich das Netzwerk weiter fort:

The commissioning parties and project partners are MISEREOR – the German Catholic Bishops’ Organisation for Development Cooperation, and the Munich Re Foundation – a non-profit organization founded by the global risk carrier Munich RE.

Beim gemeinschaftlichen Klimaalarm sind sie alle dabei: Medien (Lesch), Politik (Grüne), Wissenschaft (PIK), Industrie (Munich Re) und Kirche (Misereor). Kein Wunder, dass wissenschaftliche Argumente schon lange nichts mehr zählen. Die gut vernetzte Seilschaft hat einen wirksamen Schutzwall errichtet, den selbst berechtigte Kritik nicht bezwingen kann.

Kehren wir lieber zurück zu den Inhalten. Im November 2016 tauchte auf Youtube das 13-minütige Video “Frag den Lesch – Neues aus der Klima-Küche” auf (auch in der ZDF-Mediathek verfügbar):

Frag den Lesch – Neues aus der Klima-Küche [HD]

Video nicht mehr verfügbar

Zunächst verkauft Lesch den Albedo-Effekt der Gletscher als große Neuigkeit: Dunkles Material auf dem Eis lässt es schneller schmelzen. Alte Kamelle. Hatten wir auch schon hier im Blog. Siehe “Ruß wärmt stärker als gedacht und ließ Alpengletscher im 19. Jahrhundert tauen“. Spannender wäre gewesen, wenn Lesch das rasche Gletscherschmelzen während vorindustrieller Warmphasen einmal thematisiert hätte:

Dann wechselt Lesch das Thema und singt ein Loblied auf die Klimamodelle: Sie hätten die Temperaturen erfolgreich 30 Jahre im voraus prognostiziert. Fanfare, Glückwünsche, Staunen. Aber stimmt das eigentlich? In der unten stehenden Abbildung 1 werden die IPCC-Temperaturprognosen mit der realen Entwicklung verglichen. Überraschenderweise bewegten sich die Temperaturen am unteren Rand des Prognosebereichs. Die Modelle scheinen deutlich zu heiß zu laufen, die Natur hat sich deutlich langsamer erwärmt, als vom IPCC 1990 angenommen. Großartige geändert hat sich an den Modellen seither nichts, die CO2-Klimasensitivität liegt auch im neuesten IPCC-Bericht von 2013 immer noch im weiten Spektrum zwischen 1,5°-4,5°C Erwärmung pro CO2-Verdopplung. Offenbar liegt der wahre Wert der CO2-Klimasensitivität eher am unteren Rand dieses Bereichs. Es ist purer Hohn, wenn Lesch nun seinen Zusehern weismachen will, die Modelle hätten genau ins Schwarze getroffen. Schon fast ein Fall für die neue Fake News Stelle der Bundesregierung.

ippc-far.png

Abbildung 1: Globale Temperaturentwicklung (RSS, schwarze Kurve) im Vergleich zu Prognosen des 1. IPCC-Berichts von 1990 (FAR), die sich zwischen den eingezeichneten Extremfällen (grüne und rote Kurven) liegen.

Dann behauptet Lesch, die Wolken hätten sich genau an die Prognosen gehalten, sie wären aufgestiegen. Naja, in Wirklichkeit gibt es bei den Wolken wohl mehr ungelöste als gelöste Probleme. Man kanns ja mal versuchen, wird sich Lesch gedacht haben. Mehr dazu hier:

In wilder Fahrt geht es dann beim Meeresspiegel weiter. Lesch zitiert eine Studie, die angeblich zeigen soll, dass der Meeresspiegelanstieg in den letzten 100 Jahren alles Dagewesene der letzten 3 Jahrtausende übertroffen hat. Stimmt das? Nein. Siehe unseren Blogbeitrag: “Lange bevor der Mensch die Atmosphäre veränderte: Meeresspiegel stieg in den letzten 2000 Jahren zeitweise so schnell wie heute

Am Ende der Klimapredigt dann der Höhepunkt: Lesch erklärt mahnend, dass alle Klimawerte immer nur ansteigen “alle, alle, alle, alle”. Dabei verschweigt er, dass es in den letzten 10.000 Jahren mehrfach ähnliche “Anstiegsphasen” gegeben hat. Während des holozänen thermalen Maximums vor 8000-5000 Jahren war es global sogar wohl 1-2°C wärmer als heute. Lesch schweigt hierzu, was wissenschaftsethisch bedenklich ist. Denn das bewusste Auslassen von unbequemen Fakten ist unwissenschaftlich und lediglich Rechtsänwälten und Politikern erlaubt. Die große abschließende Frage ist, was Lesch in seiner orangen Tasse hatte, die er während der Videoclips durch das Studio trug und aus der er immer wieder mal einen großen Schluck nahm. Horchen Sie mal bei Minute 12:55 rein, da wird es richtig ulkig (-;

Übernommen vom Blog Die kalte Sonne 

 




10. IKEK -Die EU als klimapolitischer Gestalter

Oft werden dabei ordnungsrechtliche Grundsätze missachtet, um einem höheren Ziel, z.B. nämlich dem (vermeintlichen) Klimaschutz gerecht zu werden.
Dabei beleuchtet er aus eigenem Erleben, wie die ursprünglichen Grundsätze der Europäischen Union, nämlich den der beschränkten Einzelermächtigung und dem Grundsatz der Subsidiarität immer wieder und heutzutage von der Kommission fast automatisch und ohne dafür sanktioniert zu werden, unterlaufen werden.


Mit dem Grundsatz der beschränkten Einzelermächtigung ist gemeint, dass die Kommission nur im Auftrag der Einzelstaaten, repräsentiert durch den Europäischen Rat tätig werden darf. Der Grundsatz der Subsidiarität verlangt, dass alles was besser von den Einzelstaaten bearbeitet werden kann,, auch dort bearbeitet werden muss. Beispielhaft wird dazu die Geschichte des Emission Trading Systems (ETS) erzählt. Die Einpreisung der (vermeintlichen) Kosten der CO2 Emissionen durch die Festlegung eines Preises und eines Handelssytems für alle Aktionen innerhalb der EU. Dank des Initiativmonopols, dass sich die Kommission defacto angeeignet hat, versucht sie nun und immer mehr auf allen politisch für sie interessanten Felder beherrschend tätig zu werden. Beim ETS diskriminiert man die Energieversorger und Verbraucher durch künstlich erhobene Kosten -ohne jede weitere Begründung für den nur postulierten Zusammenhang zwischen CO2 Emissionen und einer Erwärmung des Klimas zu liefern oder auch nur zu versuchen. Dabei wird der Wettbewerb dem die Kommission verpflichtet ist auf diesem Feld reduziert.




10. IKEK – Die Klimaübereinkunft von Paris! Was bedeutet sie wirklich?

Das Pariser Abkommen wird 49 x im Klimaschutzplan 2050 der Bundesregierung erwähnt. 41 x wird das Wort Transformation benutzt. Beide werden damit zur den tragenden Säulen dieser Verordnung von oben, die zudem 100 % Zustimmung (keine Gegenstimme, allerdings waren nicht alle Parlamentarier anwesend) im Bundestag und im Bundesrat erhielt.
Schaut man sich das Pariser Abkommen näher an, dann stellt man fest, dass die fast 30 Seiten in Bezug auf Temperatur und CO2 nur Unverbindliches und Undefiniertes enthalten.

Video meines Vortrages auf der 10. IKEK in Berlin: Hinweis: Mich machte der akribische Rainer Hoffmann darauf aufmerksam, dass ich die Stocker Folie bei ca.Min. 39:50 über das Kohlenstoffbudget fälschlich als CO2 Budget bezeichnet habe. Das ist nicht korrekt – Stocker zeigte Zahlen für ein Kohlenstoffbudget, (allerdings ohne das Auditorium darauf hinzuweisen, dass plötzlich statt des Kohlendoxids vom Kohlenstoff die Rede war) das ist der Anteil (Äquivalent) des Kohlenstoffs C der im CO2 bzw. in den anderen Treibhausgasen enthalten ist. Auf die entsprechende  Kohlendioxidmenge kommt man, wenn man den C-Wert mit 3,677 multipliziert (offizieller IPCC Unrechnungsfaktor). Alle sonstigen Angaben bleiben korrekt.(korr.18.1.17 14:02) Wer sich über die völlig aus der Luft der „vorindustriellen Zeit“ gegriffenen Berechnungen des  C (CO2) Budgets näher informieren will möge sich diese Video ab Minute 49:30  genauer anschauen: https://youtu.be/GJ7pPq6Gb9Q?t=49m30s . So präzise die vielfältigen CO2 Budgetrechnungen für die Füllung der „Deponie“ Atmosphäre mit dem „Abfall“ CO2 auch allesamt daherkommen, sind sie, mangels Kenntnis der Daten, irgendwo in versteckten Fußnoten zugegeben oder vermuteten Wahrscheinlcihkeitsangaben enthalten, nichts weiter als heiße Luft. Diese aber ohne jeden C- oder CO2 Anteil!

Das trifft besonders auf das 2 ° (1,5 °) Ziel zu, welches – weil eine Temperaturdifferenz- als Bezugswert nur auf eine vage Zeitangabe (vorindustriell) und dort von auf anonyme „Temperaturwerte“ (Plural) bezogen ist, die nicht überschritten werden darf. Wie hoch die globale zulässige Mitteltemperatur also werden darf, verliert sich damit in der Beliebigkeit.
Schellnhuber spricht in diesem Zusammenhang von „Körpertemperatur“ der Erde und vergleicht die mit der Temperatur des Menschen von 37 °. Und wendet dann diese Metapher auf die Erde an. Danach würde die Erde bei + 2 ° C mehr – auf eine unbestimmte Temperatur zu einer unbestimmten Zeit bezogen- „Fieber“ bekommen.
Bei einer realen Temperaturdifferenz weltweit in der Spitze 160 °-170 °C und im Mittel von 65 °C eigentlich ein irrsinnige und vor allem dumme Vorstellung. Trotzdem nahmen es ihm die Delegierten ab. Warum?
Sicher deswegen weil 99,9 % von ihnen nicht verstanden, was ihnen da untergejubelt wurde. Ähnlich verhält es sich mit dem inhärenten Glauben, der im Abkommen verbreitet wird, dass die CO2 Emissionen zur Temperaturerhöhung beitrügen und dass diese „schädlich“ seien.
Doch auch die aus diesem Glauben abzuleitenden quantitativen Maßnahmen zur Emissionsminderung fehlen im Pariser Abkommen völlig. Sie werden nicht einmal erwähnt.
Daher kann man mit Fug und Recht annehmen, dass die Emissionen auch weiterhin weltweit völlig ungebremst steigen werden. Ebenso wie es nach dem Kyotoabkommen der Fall war.
Deshalb muss man feststellen, dass sie auch gar nicht das Ziel des Pariser Abkommens sind. Ziel ist vielmehr, und das haben die Delegierten sehr wohl begriffen, mit der ständig erneuerten Bedrohung durch den Klimawandel, eine weltweite Umverteilung riesiger Beträge von den reichen Nationen zu den ärmeren Nationen zu vereinbaren. Bei der Umverteilung spielen die UN eine maßgebliche Rolle, erschließen sich unabhängige reiche Finanzquellen und sichert sich damit Macht, Posten und Pfründe.

Deswegen nimmt auch die Fixierung der Mechanismen, die festlegen, wie man die veranschlagten riesigen Geldsummen am sichersten über den Umweg div. UN gesteuerter Gremien umverteilt, den weitaus größten Teil des Textes ein.
Und allein dieses Ziel haben die Delegierten sehr wohl gewollt und mit großem Aufwand auch erreicht. Und weil das – wie deren Urheber- beispielhaft genannt der Club of Rome, der Wissenschaftliche Beirat Globale Umwelt, (WBGU); NGO´s wie Greenpeace, WWF, BUND, Sierra Club, Friend of Earth und die sie unterstützenden politischen Kräfte sehr wohl wissen, nicht ohne Zwang erreicht werden kann, wird die „große Transformation“ vorangetrieben. Eine verniedlichende Metapher zur Verschleierung des gemeinten Begriffes „Ökodiktatur“ mit dem Werkzeug Ökoplanwirtschaft.
Umweltministerin Hendricks hat dies sofort umgesetzt und die entsprechende gesetzliche Voraussetzung mit der Verordnung „Klimaschutzplan 2050“ geschaffen. Deswegen enthält deren Text den Begriff „Transformation“ 41 mal. Diesen Plan gilt es mit allen legalen Mitteln zu verhindern. Ggf. muss auch das grundgesetzlich garantierte Recht auf Widerstand in Anspruch genommen werden.




Nüchterne Zahlen zur Lüge der Elektromobilität

CO2-Emission

Durchschnittlicher Verbrauch pro 100 km: 24 kWh
Mit Lade- und Entladeverlusten von ~20%: 28,8 kWh
CO2-Emission im deutschen Kraftwerksmix inklusive PV + WKA: derzeit etwa 510 g CO2/kWh *)
Ergibt CO2-Emission pro gefahrenem km von 0,288*510 = 147 g.

Hinweise: CO2-Emissionen, bedingt durch die Herstellung von PV, WKA und Kraftwerken – verteilt über die Lebensdauer auf die Stromerzeugung – wurden nicht berücksichtigt. Die CO2-Emission liegt über dem heutigen EU-Wert für den Flottenverbrauch von 130 g/km und deutlich über dem EU-Wert von 95 g/km der ab 2020 gelten soll. Siehe https://www.vcd.org/themen/auto-umwelt/co2-grenzwert/ sowie http://www.bmub.bund.de/fileadmin/bmu-import/files/pdfs/allgemein/application/pdf/eu_verordnung_co2_emissionen_pkw.pdf
https://de.wikipedia.org/wiki/Flottenverbrauch
Elektrofahrzeuge werden hier (z.B. im Gegensatz zu Singapur, wo der zusätzliche CO2-Ausstoß der Gaskraftwerke bei Zulassung statt zu einer Prämie zu einer hohen Strafzahlung führt) fälschlich als CO2-frei angenommen, also als ob die Stromversorgung ausschließlich über Solar-, Wind- und Kernenergie erfolgt – wobei sich der Kernenergieausstieg als ausgesprochen kontraproduktiv erweist.

Betriebskosten

Stromkosten pro 100 km: 0,30*28,8 = 8,64 €
Dazu kommen Batteriekosten die bei einem Preis für einen 60 kWh-Akku von z.B. 280*60 = 16.800 €, einer Lebensdauer von etwa 8 Jahren und einer Fahrleistung von 41 km/Tag oder 15000 km/Jahr auf 1200*100 km umzulegen sind und damit z.B. 14 € pro 100 km ergeben würden. Die Gesamtkosten wären dann 24,6 € pro 100 km, was beim derzeitigen Benzinpreis (Super) von ~1,34 € einem Verbrauch von 18,4 Litern entspräche. Da das E-Fahrzeug im Anschaffungspreis etwa 30% höher liegt als ein Benziner, ist es als ausgesprochen unwirtschaftlich anzusehen – selbst wenn es Steuervorteile gibt.

Weitere Aspekte sowie ein Doku-Video

Erhebliche Unannehmlichkeiten sind bisher durch die geringe Reichweite (besonders im Winter mit Heizung und alter Batterie) sowie lange Ladezeiten bedingt, wodurch kaum eine Nutzung für größere Strecken möglich war – die Batteriekapazität müsste dazu mindestens um den Faktor vier höher sein als bisher üblich. Allerdings steigt die Energiedichte bei Neuentwicklungen bereits um etwa 50%, und der Trend geht zu deutlich größerer Kapazität. Abgesehen davon dass die geringen Lithium-Vorräte bei Weitem nicht für eine allgemeine Elektromobilität ausreichen, sollte man bedenken dass Autobahn-Raststätten wohl kaum mit einigen hundert Schnellladesäulen mit z.B. 30-50 kW ausgestattet werden. Auch auf ein Brandrisiko sowie verringerte Batterie-Lebensdauer bei Schnellladung ist hinzuweisen. Nachteilig (auch im Hinblick auf den Reifenverschleiß) ist das deutlich erhöhte Fahrzeuggewicht. Allerdings kann im Stadtverkehr durch Vermeidung von Leerlauf sowie mit Nutzbremsung der Verbrauch z.B. um 10-15% reduziert werden.

Doku-Video: Die Elektroauto-Lüge

Prof. Alt hat zu diesem Thema einige Hilfsblätter produziert die wir hier als pdf anhängen

Hilfsb 263 Borgolte Stromerzeugung Leistungsganglinien Januar 2016 05.03.2016 Agora Kleiner Leistungsmittelwert 15.01.2017 und Agora Kleiner Leistungsmittelwert 15.01.2017

*) Basiert auf Angaben des Bundesumweltamts für den Strommix einschließlich Solar-, Wind- und Kernenergie.
Zur Kontrolle: Mit unseren gesamten CO2-Emissionen 2015 von 800 Mio t, beim Anteil der Stromerzeugung von ~39% sowie der Erzeugung von ~620 Mrd kWh würden sich etwa 500 g/kWh ergeben. Nach BDEW-Angaben waren es 2014 für den gesamten Energieträgermix 504 g/kWh




Die vegetarische Weltrettung

Den Kabarettisten und Komikern der Nation diente der grüne Ernährungsvorschriftenwahn als willkommene Vorlage, und nach der Wahlpleite bemühten sich die meisten Grünen diesen Bevormundungsversuch in eine aus versehen ins Wahlprogramm gerutschte, nicht ganz ernsthaft gemeinte Überlegung abzutun.

Aber Achtung: Einen Veggie-Day werden sie nicht wieder ins Programm nehmen, doch das Ziel, zumindest die Deutschen in ein Volk von Vegetariern, wenn nicht sogar Veganern, zu erziehen, haben sie nicht aufgegeben. Im Gegenteil: Nach dem Ausstieg aus der Nuklearindustrie stehen für die Grünen und die ihren zuarbeitenden Nichtregierungsorganisation jetzt zwei Kampagnen ganz oben auf der Agenda: Die Entcarbonisierung und die Veganarisierung. Denn der Veggie-Day war keine Entgleisung, sondern eine konsequente Ausscheidung aus den innersten grünen Verdauungsstrukturen. Er war der logische Output des ständigen Input, der da eine neue Welt mit Kohlendioxid-freien Ausscheidungen von neuen Menschen schaffen will.

Das Bundesumweltamt: Eine Behörde knallt durch

Ein Versuch, den Fleischkonsum zu verleiden, nach dem Motto: „Und bist Du nicht willig, so braucht es Gewalt“, startete gleich zu Beginn des Jahres das Bundesumweltamt. Die Chefin dieser Behörde mit 1.500 Aktivisten, Maria Krautzberger, schlug vor, den Mehrwertsteuersatz für Fleisch und Milchprodukte von 7 auf 19 Prozent zu erhöhen. Damit könne die Nachfrage nach tierischen Produkten gesenkt werden. Der Staat könne so mit 5,2 Milliarden Mehreinnahmen rechnen. Maria Krautzberger hat ihr ganzes Berufsleben auf Posten zugebracht, die die SPD zu vergeben hat. Alle weit über dem Durchschnittseinkommen eines Facharbeiters.

Die Reaktionen der beiden zuständigen Minister waren eindeutig ablehnend. Der Bundesminister für Ernährung und Landwirtschaft, Christian Schmidt (CSU), sagte: Künstliche Preiserhöhungen würden „weder Tierwelt, Umwelt noch den Verbrauchern helfen“. Und: „Ich will den Bürgern nicht durch Strafsteuern vorschreiben, was auf den Tisch kommt“. Umweltministerin Barbara Hendricks (SPD) wiegelte ab: „Das sind Vorschläge des Umweltbundesamtes, nicht des Bundesumweltministeriums“. Allerdings schränkte sie ihre ablehnende Haltung ein: Grundsätzlich sei es „eine wichtige Aufgabe, das deutsche Finanzsystem auf seine Klimaverträglichkeit zu überprüfen.“

Das erinnert mich an ein Gespräch mit dem angesehenen britischen Journalisten und Naturwissenschaftler Nigel Calder 1998 in London.

Er prophezeite: Alle Parteien von Rechts bis Links werden in der westlichen Welt den Treibhausgashype mitmachen. Das ist das erste Mal, dass sie die Steuern erhöhen können, um die Welt zu retten und um dafür auch noch gelobt zu werden. Er behielt Recht. Seither sehe ich in der Kohlendioxid-Debatte vor allem eine Steuerquelle, die mit der Rettung der Welt legitimiert wird.

Auch der Bauernverband warnte vor einer steuerlichen Verteuerung der Grundnahrungsmittel. Dies hätte einen Einbruch der Nachfrage zufolge, der viele bäuerliche Betriebe in Existenznot bringe. Gerade jetzt, wo die Preise und damit die Deckungssumme für die Kosten wieder etwas angezogen haben. Schließlich ist die deutsche Landwirtschaft auf knapp 10 Milliarden Euro Subventionen aufgebaut, die jetzt schon der Verbraucher mit seinen Steuern aufbringen muss.

Die Missachtung der mittleren und unteren Einkommensschichten

Typisch für den Vorschlag und die Reaktionen: Die Betroffenen, die Bürgerinnen und Bürger unseres Landes, kommen in der ganzen Diskussion nicht vor. Für die sehr gut bezahlte Frau Krautzberger gibt es offensichtlich die Millionen Menschen in unserem Lande nicht, die genau auf den Cent achten müssen, damit sie bis zum Monatsende noch genug haben, um sich und ihre Familien ernähren zu können. Da hat Frau Krautzberger recht: Wird das Fleisch teurer, wird es für viele unerschwinglich. Dann gibt es nur noch Nudel, Kartoffel und Brot, die dickmachenden Kohlehydrate. Die Vorstellung, der Fleischkonsum sei zu hoch, weil es so billig sei, kann nur jemand äußern, der nicht rechnen muss.

Vor allem geht es den „Klimarettern“ um unsere Kühe, die soviel Methan furzen. Aber der Anteil am Verzehr von Rindfleisch macht nur 8,3 Prozent am gesamten Fleischverbrauch aus. Das sind sicher nicht die unteren Einkommensschichten, die sich das teure Rindfleisch leisten. Und die gutverdienenden Steakesser werden auch durch eine höhere Mehrwertsteuer ihre Esskultur nicht ändern.

Noch übler ist der Vorschlag, auch Milch und Milchprodukte entsprechend zu verteuern. In der Biographie von Frau Krautzenberger steht nicht, wie viele Kinder sie mit Muttermilch solange aufgezogen hat, bis sie nahtlos auf den selbstgekochten Gemüsebrei umstellen konnte. Denn Kuhmilch ist ab sofort ein giftiges Lebensmittel, weil die Kühe giftiges Methangas furzen, was wiederum den klimabedingten Weltuntergang beschleunigt. Von vielen anderen grünen Klimaaktivisten wissen wir, dass sie den Konflikt Muttermilch und Kuhmilch nicht entscheiden mussten, weil sie nichts mit Säuglingen zu tun hatten: So wie Frau Roth, Frau Künast und Herr Hofreiter.

Die Überheblichkeit der Klimaretter

Der Verein für Unabhängige Gesundheitsberatung e.V. (UGB) meint es sicher gut mit seinen Beratungen, darunter gleich zum Anfang 2017 das Seminar über vegane Vollwertkost. Mag sein, dass sich die Ernährungskundler dieser Organisation auf besonders gesundes Essen spezialisiert haben. Aber so ganz trauen sie ihrer Überzeugungskraft doch nicht, denn einer ihrer Grundsätze heißt: Nachhaltige Ernährung – klimafreundliche Küche. Das ist ganz im Sinne des grünen Dreisatzes der Essenskultur, der da lautet: Klimaschutz – Tierschutz – Gesundheitsschutz. Und deshalb empfiehlt der UGB: „Frische Lebensmittel vom Wochenmarkt, die schnell verbraucht werden“. Und: „Der Preis sollte nicht vom Kauf abschrecken“.

Welch gnadenlose Überheblichkeit, welch arrogantes Milieu! Ob sich von dieser grünen Bevormundung jemand noch vorstellen kann, wie zum Beispiel eine fünfköpfige Familie sich bei den Preisen vom Wochenmarkt mit frischen Lebensmitteln versorgen will? Alles natürlich Bio! Die Tomaten zu 9,90 Euro pro 100 Gramm. Blumenkohl, Weißkraut, Steckrüben, Linsen und Bohnen – alles mindestens 30 Prozent teurer als im Supermarkt. Veganer sind dann noch auf Paranüsse, Avocados und Passionsfrüchte angewiesen, um ihren Mineralienhaushalt zu bedienen – alles Produkte, die, soweit ich sie kenne, nicht in Niedersachsen wachsen und schon gar nicht auf den Feldern um die Ecke.

Das sind dann Einkaufstipps für die Umweltbundesamt Chefin Maria Krautzberger und grüne Angeordnete, die natürlich nach ihrem Feierabend um 17 Uhr noch auf den Wochenmarkt oder in den Bioladen eilen, um sich mit frischen deutschen Produkten einzudecken, die sie dann natürlich zu Hause gleich artgerecht verarbeiten. Geld genug haben sie ja. Aber haben sie wirklich die Zeit? Sind diese Beschreibungen einer nachhaltigen, klimafreundlichen Küche nicht ideologisch geprägte Vorstellungen eines Wolkenkuckucksheim?

Die neue Angstkampagne: Fleisch ist tödlich

Die Attacken der vegetarischen Gesundheitsapostel auf den Fleischkonsum gehört genauso in die Umerziehungsstrategie wie die Tierschutzkampagnen und Hitzetod-Szenarien. Es gibt weltweit genügend Wissenschaftler, die jedes Ergebnis ihrer Studien präsentieren, solange die Kasse stimmt. Erinnern Sie sich noch: Da war es dem Multi Unilever gelungen, der Menschheit weiszumachen, dass Margarine gesünder sei als eines der ältesten und natürlichsten Lebensmittel der Welt, die Butter. Eine der umfangreichsten Untersuchung über die Auswirkungen vom Fleischkonsum auf die Krankheitshäufigkeit hat das National Cancer Institute in Rockville (Maryland) gemacht. Die Daten von 500.000 Personen wurden über Jahre gesammelt und gewichtet. Das Ergebnis: Männer, die jeden Tag 250 Gramm rotes Fleisch essen, haben zwischen ihrem 50 und 71 Lebensjahr ein 22 Prozent höheres Risiko, an Krebs und ein 27 Prozent höheres Risiko, an Herz-Kreislaufstörungen zu erkranken. Seither suche ich nach einem Mann, der jeden Tag 250 Gramm rotes Fleisch vertilgt und nicht zusätzlich an psychischen Störungen leidet.

Fünf Tage nach der absurden Mehrwertsteuernummer des Bundesumweltamtes legte dann Greenpeace seinen Umerziehungsvorschlag vor. Bis 2050 müssten sich drei Viertel der Bevölkerung relativ fleischarm ernähren. Rund ein Viertel müsste sich demnach sogar in Vegetarier und noch besser in Veganer verwandeln. So sieht Greenpeace im Fleischverzicht die Lösung der Umweltprobleme. Entworfen hat dieses Szenario im Auftrag von Greenpeace das Frankfurter Forschungsinstitut für biologischen Landbau. Die Studie soll auch als Grundlage für das Programm der Grünen im Bundestagswahlkampf mit Zahlen für die Agrar- und Ernährungswende dienen. Da ist er wieder, der Veggie-Day, nur dieses Mal raffinierter, aber umso massiver in seinem Umerziehungsanspruch.

Zurück ins Feudalzeitalter

Angenommen, unser Staat ist so verrückt und schlägt diese Richtung ein – unter Kanzlerin Merkel kann ich mir das sogar vorstellen –, dann sind wir fast wieder im Mittelalter angekommen. Damals war es nur dem Adel erlaubt, Waffen zu tragen und zu jagen, was gleichbedeutend mit dem Zugang zum hochwertigen Nahrungsmittel Fleisch bedeutete. Nutztiere waren viel zu wertvoll, um geschlachtet zu werden, damit es Fleisch zum Essen gab. Die Bauern waren auf Hirse und andere oft närstoffarme Getreide angewiesen, was zur Folge hatte, dass der Adel in der Regel deutlich größer gewachsen war, als die Masse ihrer Untertanen. Im Volksmund haben sich die Balladen der Wilderer gehalten, die als Helden gefeiert wurden, weil sie dem Adel das alleinige Recht auf Fleisch streitig machten.

Übrigens wirkt diese Diskriminierung des „gemeinen Volkes“ heute noch nach. Schon das zweite Amendment, der Zusatzerklärung zur amerikanischen Verfassung von 1791 postuliert, dass jeder Bürger der USA das Recht hat, eine Waffe zu tragen – also zu jagen und sich mit Fleisch zu versorgen. So wurde aus europäischer Unterdrückungstradition ein Freiheitsgebot in den USA, dessen Hintergrund bei der heutigen Waffengewalt kaum jemand wahrnimmt.

Wird diese Mischung aus Klimaschutz, Tierschutz und Gesundheitshype tatsächlich umgesetzt, so wird vor allem das hochwertige Rindfleisch den oberen Einkommensschichten vorbehalten. Niemand, der genug verdient, muss auf sein Steak verzichten und wer ein gesichertes  Beamten- und Pensionseinkommen erhält, muss auch nicht befürchten, dass er sich sein Schweineschnitzel nicht mehr leisten kann. Auch die Migranten aus islamischen Ländern werden Schafsfleisch weiterhin verzehren. Abgehängt aber werden die unteren Bevölkerungsschichten.

Lieber Herr Gabriel – da ich kein Genosse bin, muss ich beim „Sie“ als Anrede bleiben –, Sie suchen nach Wählern? Sie wollen einen Wahlkampf, in dem soziale Gerechtigkeit eine Rolle spielt? Es sind die grünen Sozialdemokraten, die den „kleinen Mann“ bevormunden, die das Klientel der Grünen und der Merkelanhänger bedienen, die Ihnen davonlaufen.

Gerne rechne ich Ihnen einmal vor, wie viel einem Rentner mit 1.000 Euro im Monat für die Energiewende und, wenn die Vorschläge des Bundesumweltamtes umgesetzt würden, für die Rettung der Welt bezahlen muss und wer die Nutznießer dieser grünen Umverteilungspolitik von unten nach oben sind.

All diese Umerziehungsversuche wären schon im Ansatz zum Scheitern verurteilt, wenn sie nicht mit dem alles in den Schatten stellenden Argument gerechtfertigt würden, dass es um nicht weniger geht als die Rettung der Welt vor dem Hitzetod. Wer wollte schon dafür die Verantwortung übernehmen. Der Kampf gegen die Treibhausgase wurde schließlich in internationalen Verträgen unter kräftiger Mithilfe Deutschlands festgeschrieben. Daraus hat unsere Regierung einen Plan entwickelt, wie das nationale Ziel der Treibhausverringerung erreicht werden soll – natürlich weit über die im sogenannten Pariser Abkommen festgelegten Vorgaben. Diese erlauben jeden Eingriff in unser tägliches Leben, zwingen uns praktisch in eine Planwirtschaft Orwellschen Ausmaßes. Wobei, ganz nebenbei bemerkt, sich am Weltklima nichts ändern würde, selbst wenn Deutschland samt seiner Treibhausgasmengen vom Erdball verschwinden würde.

Der Bundestag: Die große Ahnungslosigkeit

Video nicht mehr verfügbar

Ted Cruz, US-Senator aus Texas und missionarischer Christ, gehört sicher nicht zu meinen Politiker-Favoriten. Aber er hat in einer Anhörung im US-Senat den Präsidenten des Sierra-Clubs, Agram Mair, der mit knapp drei Millionen Mitglieder ältesten und größten Umweltschutzorganisation der Welt, gefragt, wie er erklären kann, dass die Satellitendaten keinerlei Anzeichen einer signifikanten Erderwärmung zeigen. Agram Mair beantwortete die ausführliche Befragung immer nur mit einem Satz: 97 Prozent aller Wissenschaftler auf der Welt sind sich einig, dass der Mensch an der Erderwärmung schuld ist. Es war eine peinliche Veranstaltung, die hier auf der Achse des Guten veröffentlicht wurde. Ted Cruz zeigte sich gut informiert, legte schonungslos die Phrasen von Agram Mair offen, und es wurde deutlich: Die Computersimulationen, auf denen die ganze Klimapolitik der Bundesregierung und des Konferenzzirkus des IPCC- des UN-Weltklimarates beruhen, sind mehr als fragwürdig.

Aber wir haben nicht einen Bundestagsabgeordneten, dem ich zutraue, eine solche Befragung mit solch profunden Sachkenntnissen wie sie Ted Cruz vorweisen konnte, zum Beispiel mit Greenpeace oder dem Bundesumweltamt machen zu können oder zu wollen. In unserem Parlament ist nicht eine Partei vertreten, die die Klimapolitik hinterfragt. Sie alle lassen sich in die unsoziale Planwirtschaft der Grünen, und der Kanzlerin Merkel treiben. Das Ergebnis ist dann, dass solch hanebüchene Vorschläge einer Bundesbehörde, wie die Erhöhung der Mehrwertsteuer auf Grundnahrungsmittel ohne personelle Konsequenzen für die Betroffenen hingenommen werden.

Der Beitrag erschien zuerst auf ACHGUT

 




10. IKEK- Auf dem Weg in die Ökoplanwirtschaft

Dabei steht das CO2 im Mittelpunkt aller Bestrebungen – mit dessen Beherrschung die Behörden national und international die Verfügbarkeit über unser Leben zu übertragen. Beispielhaft und als besonders treibende Kraft wird dazu Herr Prof. Schellnhuber erwähnt, aber – so Ederer anekdotisch- um seine Selbsteinschätzung zu beschreiben, von sich selber in seinem Lebenslauf schreibt, was er noch alles national wie international hätte werden können.

Das allein zeigt schon seine ihn treibende Hybris.

Schlimm nur – so Ederer – dass Schellnhuber Chefberater in Klimafragen unserer Kanzlerin ist. Die traurige Erkenntnis wie der Klimaalarm laufen würde, lieferte ihm schon vor vielen Jahren der damalige Herausgeber der „New Scientist“ Nigel Calder.

Der stellte zu Klimafrage trocken fest: „Dies ist das erste Mal, dass es gelingt dass man die Luft zum Atmen besteuern darf. Und diese Chance wird sich keine Regierung auf der Welt entgehen lassen. Und noch schlimmer, die die das tun, werden dafür noch von allen Seiten gelobt.“

Auch die Erhaltung und Erweiterung unserer Infrastruktur wird auf diese Weise von den Wünschen der „Klimaschützer“ also zur Weltrettung, bestimmt. Fahrradwege haben allemal Vorrang vor Straßen, doch werden die Einnahmen aus den KfZ Steuern hingegen nur zu einem Bruchteil für die Ausgaben von Straße oder Schiene verwandt und zum größten Teil zweckentfremdet….




10. IKEK – Brexit – Großbritanniens Abschied von der Klimapolitik? -Vortrag von Dr. Benny Peiser

Nun waren es sogar zwei und beide gänzlich zumindest von Politik und Mainstream Medien wie auch Demoskopen völlig unerwartet.

Peiser ist Direktor der UK Think Tanks „Global Warming Policy Foundation“ (GWPF) und berichtet über die kommenden Auswirkungen, die seiner Meinung nach, beide Ereignisse auf die UK-Klima- und Energiepolitik haben werden.




Energiebilanz 2016

Wo bleibt das Positive? Nicht immer nur das Schlechte, das Negative sehen, bringt nur Magenverstimmung, sondern frisch den Blick gewendet und Erfolgsmeldungen gesucht.

Zum Beispiel hier: Die FAZ berichtet über ein positives Ergebnis an der Energiewendenfront. »Der Strom in Deutschland kommt immer häufiger aus erneuerbaren Energieträgern und immer weniger aus Kohle. Fachleute in Berlin haben dafür im vergangenen Jahr vor allem einen Grund gefunden.«

Schreiben sie klickhaschend über eine Bilanz für das Jahr 2016, wie sie jetzt in der Schrift »Die Energiewende im Stromsektor: Stand der Dinge 2016« vorgelegt wurde. Die Fachleute sind die von der Berliner Denkfabrik Agora Energiewende. Wem bei den Begriffen »Denkfabrik«, »Energiewende« und Berlin ein lautes Lachen überkommt, sollte sich doch bitte sehr strikt an das positive Denken halten und die feinsinnigen Sätze des Chefs genießen: »Bleibt das System der Abgaben und Umlagen, wie es ist, so ist bis 2023 ein weiterer Anstieg der Strompreise absehbar“, sagte Agora-Direktor Patrick Graichen. Erst danach kommen die »Ernte-Jahre« der Energiewende.« Wie alle Heilsversprechen: Und siehe, nach sieben mageren Jahren kommen fette.

Zunächst aber wird es noch magerer. Die »Fachleute« berichten von Strompreisen, die in diesem Jahr schon über 30 Cent pro Kilowattstunde liegen dürften. Das treibt dann die letzten Unternehmen aus Deutschland. Für den Sieg müssen Opfer gebracht werden.

WIRD WEITER BLIND GEGLAUBT?
Das ABC von Energiewende und Grünsprech 26: Energiewende 6
Energiewelt im Umbruch – alles unter Kontrolle oder ökoreligiöser Blindflug? Täglich…

Die »Fachleute« dieser Lobby-Organisation entpuppen sich als rechte Energiefachleute: Der Agora-Chef hat in Volkswirtschaft und Politikwissenschaft gemacht. Die stellvertretende Direktorin: Volkswirtschaft und Politikwissenschaft. Ein weiterer stellvertretender Direktor Wirtschaftsgeschichte, Politikwissenschaft. Erinnert an jene unselige »Ethikkommission für eine sichere Energieversorgung«, die 2011 den von Merkel erwünschten gesellschaftlichen Konsens produzierte, dass alle Kernkraftwerke sofort auszuschalten seien. Mitglieder waren damals unter anderen ein Bischof, ein Chef der deutschen Katholiken, ein umstrittener Soziologieprofessor, eine »Philosophin«. Nur war niemand dabei, der etwas von Kraftwerken verstand, von Energieerzeugung und Stromtransport, von Netzfrequenz. Blindleistung muss was aus der Optik sein. Auch beim Denktank stören niemanden mehr solche komplizierten präfaktischen Begriffe wie Energie und Leistung. Man kann erzählen, dass jede dritte Kilowattstunde Solaranlagen und Windräder lieferten. 32,3 Prozent – die Jubelmeldung der Energiewenden-Propaganda-Kompanie – so viel Anteile am Stromverbrauch kämen aus »erneuerbaren Energien«.

Nur wann? Das zeigt der Verlauf des vergangenen Jahres. Den überwiegenden Anteil an der Stromversorgung lieferten die konventionellen Kohle- und Kernkraftwerke. Mit der Lupe muss man den Anteil von Wind- und Wasserkraft suchen. Auffallend die heftigen Spitzen, wenn ein kräftiger Wind weht. Wenn der nicht die Windräder umwirft oder zum automatischen Abschalten zwingt, bringt er die Netzbetreiber zur Verzweiflung. Die wissen nicht wohin, mit dem plötzlichen vielen Strom, müssen viel Geld in die Hand nehmen und den Strom mit ein paar Millionen Euro versüßt irgendjemanden aufs Auge drücken, der etwas damit anfangen kann.

energieerzeugung_2016

Unter den Augen grüner Naturschützer werden dafür riesige Waldgebiete zerstört und mit Windrädern zugepflastert. Zudem eine beispiellose Zerstörung der Landschaft, um einigen wenigen Windrad-Haien fürstliche Renditen zu garantieren. Und dennoch stieg der Anteil aus Windrädern und Sonnenanlagen nur um 0,8 Prozentpunkte, also im Verhältnis zum extrem starken Ausbau ein sehr schwacher Zuwachs an »grüner« Stromlieferung.

Denn 2016 war ein »schlechtes« Wind- und Sonnenjahr. Also Industrieproduktion runterfahren? Nein, Deutschland noch weiter zupflastern, die Antwort des Denktank-Chefs Patrick Graichen: »Daraus können wir für die weitere Energiewende lernen, dass sich der Ausbau der erneuerbaren Energien an den regelmäßig auftretenden schlechten Windjahren orientieren sollte. Denn nur dann ist der Klimaschutz im Energiesystem wirklich gesichert.«

Doch Flaute mal Millionen von Windrädern liefert immer noch Flaute, null Strom. Nichts. Niente. OK, das ist vielleicht noch alten Ingenieuren und Kraftwerksexperten klar, die noch was von Energie und ihrer Erzeugung verstehen. Die wissen, dass für jede Kilowattstunde aus irgendeinem Windrad, aus irgendeiner Solarzelle Kapazitäten aus konventionellen Kraftwerken vorgehalten werden müssen, die also zunächst in der Landschaft stehen und natürlich bezahlt werden müssen. Wenn dann Wind und Sonne versiegen, müssen diese konventionellen Kraftwerke wieder ran.

Mist, wir aber wollten das Positive sehen.

Die Strompreise haben sich gegenüber früher nur vervierfacht. Doch »nach der Bundestagswahl sollte die Energiepolitik daher das System der Steuern, Abgaben und Umlagen auf Energie komplett überarbeiten. Denkbar wäre es etwa, die Stromkosten zu senken, und die Abgaben und Umlagen auf klimaschädliche Energieträger wie Kohle, Heizöl, Diesel, Benzin und Gas zu verlagern.« Meint Graichen. Dann dürften die Grünen nichts mehr zu sagen haben, SPD- »Energieexperten« und CDU-Energiewendegewinnler hoffentlich verstummt sein. Man kann darüber reden, wie man die Energieversorgung Deutschlands wieder auf die Füße stellt und kalkulieren, wie lange es dauert und was es kostet und wer es bezahlt, bis die Windräder wieder abgebaut sind und die Wälder sich erholt haben.

Wir wollten ja das Positive sehen.

Also: Wo bleibt es? Die Grünen jubeln: In Baden-Württemberg kommen schon beachtliche 1,1 Prozent des gesamten Stromverbrauches aus Wind und bereits 6,5 Prozent aus Photozellen. 30 Prozent liefert der letzte Kraftwerksblock des Kernkraftwerkes Philippsburg. Der rettet bisher die Stromversorgung, ist noch nicht abgeschaltet, wird aber bald. »Planmäßig«, wie das so schön heißt, volle Durchdachtheit und Kontrolle suggerierend.




Bitte zahlen, Klimaschutz kostet

Immer undurchschaubarer: Deutsche Energiepolitik

Freuen Sie sich. Jetzt im neuen Jahr wird der Strom noch teurer als schon bisher. Warum freuen? Ist doch klar. Klimaschutz kostet, der Glaube daran auch. Oder wollen Sie das Klima auf der Erde etwa nicht schützen – mit Strom aus Wind, Sonne und „Biogas“? Na also, dann greifen sie jetzt gefälligst tiefer in die Tasche, ohne zu jammern und zu klagen. Das gilt natürlich nur für die Klimaschutz-Gläubigen, denn die meisten meiner Leser gehören nach meinem Eindruck nicht dazu. Sie nämlich wissen, was es mit dem „Klimaschutz“ und der „Energiewende“ wirklich auf sich hat. Immerhin mit 94 Beiträgen seit 2008 habe ich versucht, zu diesem Thema aufklären zu helfen. Wahre Klimaschutz-Gläubige lesen so etwas nicht, wenden sich ab, sind unbelehrbar. Motto: Verwirr mich nicht mit Tatsachen. Unbelehrbar bin auch ich. Darum mache ich mit dem Aufklären weiter. Für Klimaschutz-Gläubige ist das Folgende natürlich nichts; es wird sie im wahren Glauben nur stören, nicht beirren. Ihre politischen Seelsorger werden sich ob dieser Tumbheit behaglich zurücklehnen.

Der Staatseingriff läuft ab wie im Lehrbuch

Mit Jahresbeginn 2017 haben die Altparteien im Bundestag das „Erneuerbare-Energien-Gesetz“ (EEG) verändert. Vor allem soll die Subventionierung (Fördersätze) per Ausschreibung ermittelt werden. Das gaukelt innerhalb des massiven Staatseingriffs in den Markt für Strom durch die unsägliche „Energiewende“ etwas Wettbewerb vor. Immerhin etwas. Aber was bedeuten die Ausschreibung und die anderen Änderungen in der praktischen Auswirkung für die Bürger? Die allermeisten von ihnen werden den Ein- und Überblick jetzt erst recht verlieren. Denn alles, was bisher schon überaus kompliziert war, ist nun noch komplizierter geworden. Der Staatseingriff nämlich läuft ab wie in einem ordnungspolitischen Lehrbuch der Nationalökonomie, wie es einst Ludwig von Mises beschrieben hat, der große Lehrmeister der „Wiener Schule“ der liberalen Nationalökonomie, auch „Österreichische Schule“ genannt.

Dem ersten Eingriff folgen immer weitere

Der unweigerliche Ablauf staatlicher Eingriffe in den Markt ist kurzgefasst und allgemein formuliert dieser: Die erste Intervention löst bei Marktteilnehmern Widerstands- und Ausweichbewegungen aus. Damit die Intervention nicht ins Leere läuft, muss der Gesetzgeber ergänzende Regelungen beschließen, um diese Reaktionen zu unterbinden. Da die Wirklichkeit und das Geschehen an Märkten sehr komplex sind und Politiker den Einfallsreichtum der Marktteilnehmer für Gegenreaktionen meist unterschätzen, ist der Gesetzgeber zur Erkenntnis gezwungen, dass er abermals etwas nicht berücksichtigt hat, und er muss wiederum eingreifen. Es kommt zu übergreifenden Folgen auf vor- und nachgelagerten Märkten, auch auf dem Markt für Arbeit mit Folgen für die beschäftigten Menschen.

Ludwig von Mises darf sich bestätigt sehen – wieder einmal

Marktreaktionen und Politikreaktionen schaukeln sich hoch, die anfängliche Intervention macht weitere Eingriffe nötig, sie gewinnt zwangsläufig immer mehr an Dichte. Die Unternehmen werden mit einem bürokratischen Tüftelwerk überschüttet und in ihrer eigentlichen Arbeit behindert, für die Bürger wird das Geschehen mehr und mehr unüberschaubar, und die eigentlichen Ursachen verschwimmen im dunstigen Nirgendwo. Zum Zustand vor der ersten Intervention zurückzukehren, was das Beste wäre, scheitert schon an der Furcht vor den Folgen, die zunächst auch eine Rückkehr mit sich bringt. Schlimmer noch: Weitet sich der staatliche Interventionismus über immer mehr Bereiche aus, führt er letztlich nicht nur in eine ganz andere wirtschaftliche, sondern auch in eine ganz andere politische Gesellschaftsordnung: in den Sozialismus. Ludwig von Mises darf sich bestätigt sehen – wieder einmal, auch wenn es ihn in seinem Grab graust.

Was die EEG-Novelle in ihrem Kern bedeutet

Zurück zur EEG-Novelle vom 1. Januar 2017. In ihrem Kern bedeuten deren Änderungen kurzgefasst dies: Mit dem subventionierten Aufstellen von Windkraftanlagen (WKA) geht es munter weiter. Strom aus Windkraft ist für die Investoren nach wie vor hochattraktiv. Billiger wird der Strom durch die Ausschreibung nicht, er verteuert sich weiterhin. Das Regelwerk ufert noch mehr aus, die EEG-Bürokratie wird zum Moloch.

Für die Bürger noch undurchschaubarer

Im einzelnen: Die Energiewende-Politiker wollen sich von ihrer Verantwortung für die zu hohen, staatlich durch das EEG festgelegten Strompreise wegstehlen. Sie gaukeln innerhalb des massiven Staatseingriffs in den Markt etwas Wettbewerb vor, indem sie die Subventionierung („Fördersätze“) per Ausschreibung „durch den Markt“ ermitteln lassen: Wer sich mit der geringsten Subvention (Fördersatz, Einspeisevergütung) zufriedengibt, erhält für den Bau den Zuschlag, also die Baugenehmigung. Auch wird das ganze Regelwerk nun noch umfangreicher und für die Bürger noch undurchschaubarer. Letztlich läuft das darauf hinaus, dass in deren Visier (wegen der weiteren Stromverteuerung) mehr die Stromerzeuger geraten und weniger die wirklich verantwortlichen (und verantwortungslosen) Wendepolitiker.

Windkraftanlagen für die Betreiber nach wie vor sehr attraktiv

Aber mit dem subventionierten Aufstellen von Windkraftanlagen (WKA) geht es weiter, der Ausbau wird nur etwas abgebremst. Vorerst. Dagegen ist das Errichten zusätzlicher Photovoltaik- und Biogasanlagen, seit Gabriel die Vergütungen gekürzt hat, quasi tot. Bei den Windkraftanlagen gibt es zwar ebenfalls eine Deckelung, doch soll sie „flexibel“ gehandhabt werden, zum Beispiel in dem, was schönfärberisch „Bürgerwindparks“ genannt wird. Doch ist Strom aus Windkraft für die Investoren nach wie vor hochattraktiv, vor allem an küstennahen Standorten (vergleichsweise viel Wind). Die WKA-Bauer hier können also bei der Ausschreibung mit geringerem Subventionsbedarf (mit geringeren Fördersätzen) punkten.

Die Sonderregelung für Schwachwindgebiete

In Schwachwindgebieten dagegen ziehen Investoren den Kürzeren. An sich. Denn eben darum gibt es für sie eine Sonderregelung („Referenzertragsmodell“). Der Sinn: Je schwächer der Wind, desto höher die Subvention. Warum? Weil sonst im Binnenland keine WKA mehr gebaut würden. Das gilt vor allem für Baden-Württemberg, wo es die 10H-Regelung (noch) nicht gibt – anders als in Bayern und Sachsen, wo diese Regelung den Ausbau massiv beschränkt. Daher konzentrieren sich die WKA-Bauer jetzt besonders auf Baden-Württemberg, solange dort diese Regelung nicht ebenfalls eingeführt ist. Geplant und errichtet wird hier „auf Deubel komm’ raus“.

Was die 10H-Regelung besagt

Die 10H-Regelung besagt: WKA müssen zu Wohngebäuden einen Mindestabstand einhalten, der das Zehnfache ihrer (Flügel‑) Höhe ausmacht, eingeführt in Bayern 2014. Großer Protest der WKA-Profiteure mit ihren einschlägigen Politikern: Das mache WKA – oh Schreck lass nach – auf nur noch 0,05 Prozent der Landesfläche sinnvoll – rechtlich, technisch und wirtschaftlich; der Ausbau werde weitgehend gestoppt. Eben das aber war und ist der Sinn.

Mit jeder neuen Windkraftanlage steigt die Subventionssumme

Billiger wird der Strom durch die Ausschreibung nicht, denn: Je mehr WKA entstehen, desto größer wird die Subventionssumme, und die wird umgelegt auf die Stromverbraucher. Für sie also wird der Strom zwangsläufig immer teurer, und billigen Strom aus den herkömmlichen Kraftwerken gibt es dann (im Strom-Mix mit dem EE-Strom) immer weniger (wegen der Vorrangeinspeisung für EE-Strom). Und weil diese herkömmlichen Kraftwerke nur produzieren dürfen, wenn die EE-Anlagen den Strombedarf nicht voll zu decken vermögen (kein Wind, keine Sonne), wird ihr Strom ebenfalls teurer. Sie erhalten Ausgleichszahlungen dafür, dass sie ihre Werke in Dauerbereitschaft halten müssen, aber Strom nur gelegentlich liefern dürfen. Auch diese Ausgleichszahlungen werden den Stromverbrauchern im Strompreis aufgeladen.

Heute 25.000 Windkraftanlagen, 2050 weit über 60.000

Derzeit tragen EE-Anlagen rund 33 Prozent zur deutschen Stromerzeugung bei. Dieser Anteil soll bis 2050 auf 80 Prozent steigen. Derzeit stehen in Deutschland rund 25.000 WKA. Im Jahr 2050 wären es dann weit über 60.000. Doch gibt es Wettersituationen, wo alle WKA überhaupt keinen Strom erzeugen, unabhängig davon, wieviele Anlagen es sind. Denn 25.000 WKA liefern bei Windstille genauso wenig Strom wie 60.000, nämlich null. Das gleiche gilt für Photovoltaik-Anlagen mit ihrem Strom aus Sonnenschein. Es kommt auch vor, dass Wind und Sonne gleichzeitig nicht verfügbar sind. Daher muss die Erzeugungskapazität der herkömmlichen Kraftwerke stets so ausgelegt sein und beibehalten werden, dass sie ohne Wind und Sonne auch die zeitweise höchstbenötigte Strommenge liefern können.

Die Energiewende-Politik zwingt eine doppelte Stromerzeugungs-Infrastruktur auf

Das gilt besonders von 2022 an, wenn das letzte Kernkraftwerk stillgelegt wird und statt ihrer zusätzliche herkömmliche Kraftwerke benötigt werden. Diese Kapazität der mit fossilen Rohstoffen betriebenen Kraftwerke wird auch weiterhin bestehenbleiben müssen – gleichgültig, wieviel WKA und Solarstromanlagen auch immer sonst noch errichtet werden. Deutschland wird also ohne seine heutige fossile Kraftwerkskapazität nicht auskommen und sie im Stand-by-Betrieb weiterlaufen lassen müssen. Deshalb zwingt uns die Energiewende-Politik eine weiterhin doppelte Stromerzeugungs-Infrastruktur auf, als wenn wir uns die leisten könnten. Sonst wäre die Sicherheit unseres Stromnetzes dahin. Aber bei Starkwind und immer mehr WKA wird der Windstromüberschuss immer mehr zunehmen und damit auch dessen Kosten für die Verbraucher.

Woran die EEG-Novelle kein bisschen ändert

Erstens ist Strom aus „Erneuerbaren Energien“ (EE) – zutreffender: „alternative Energien“, denn Energie ist nicht erneuerbar, nur umwandelbar in andere Energieformen – technisch nicht sinnvoll (zu geringe Energie- und Leistungsdichte sowie nicht ständig nach Bedarf verfügbar), denn: Wind weht unregelmäßig oder auch gar nicht (in ganz Deutschland gibt es jeden Monat Tage, an denen tatsächlich kein Wind weht); nachts scheint üblicherweise überhaupt keine Sonne und tagsüber auch nicht immer; und Strom kann man in der nötigen Größenordnung ökonomisch sinnvoll nicht speichern. (Technisch zwar geht fast alles, es ist aber viel zu teuer und damit also wirtschaftlich Unsinn. Alle diesbezüglichen Versuche sind erfolglos geblieben.)

Zweitens ist EE-Strom wirtschaftlich unnötig teuer. Das ursprünglich einmal verkündete Ziel der Bezahlbarkeit hat sich ins Gegenteil verkehrt.

Drittens vermindert die Erzeugung von EE-Strom den Ausstoß von menschenverursachtem (anthropogenem) CO2 nicht.

Die Menschen werden an der Nase herumgeführt und lassen es mit sich geschehen

Lassen Sie sich also von den Energiewende-Politikern und den ihnen folgsamen, kritiklosen Medien nichts vormachen, nichts vorgaukeln. Deren Politik ist ein verantwortungsloses Abenteuer, das von der einst verlässlichen und preiswerten Stromerzeugung in eine überregulierte, unwirtschaftliche und für die privaten Stromverbraucher viel zu teure Stromerzeugung schon jetzt geführt hat. Dazu kommen die vielen Kollateralschäden, darunter die Zerstörung von Landschaften, von fliegendem Getier, von Küstengewässern, von Wohngebieten vieler Menschen, denen die Windkraftanlagen trotz Hunderter von Bürgerinitiativen vor die Nase gesetzt werden. Politiker, Medien und Profiteure führen die Menschen an der Nase herum, und die meisten der Getäuschten merken es noch immer nicht oder vermögen sich zur großen Auflehnung nicht aufzuraffen.

Dieser Artikel erschien zuerst auf dem Blog des Autors.




Schreckliche Gefahren durch geringe Strahlendosen?

Verfasser ist eine Frau Jacqueline Roussety. Sie hat eine Schauspiel- und Regieausbildung hinter sich gebracht und dann noch etwas Deutsche Literatur und ähnliches studiert. Jetzt bezeichnet sie sich als Journalistin.

Soll man sich überhaupt darum kümmern, was eine ganz unbekannte Journalistin in einer ziemlich unbekannten online-Zeitschrift (EPOCH TIMES) an Unzutreffendem über biologische Strahlenwirkungen schreibt, oder kommt es in seiner Bedeutung dem in China umgefallenen Sack Reis gleich?

Für sich betrachtet schon, aber leider ist solches Geschreibsel eine Massenerscheinung. Die inkompetentesten Menschen äußern sich zu diesem Thema, und das auch in bedeutenden Medien. Stets stützen sie sich auf angebliche oder auch wirkliche Wissenschaftler, wählen aber nur Anti-Atom-Leute aus. Tatsächlich gibt es ein weites Spektrum, nachfolgend einige Beispiele:

  1. In Taiwan wurden etwa 10.000 Personen in Wohnungen unabsichtlich einer Strahlendosis von je 400 Millisievert (mSv) ausgesetzt. Anstatt der normalerweise erwarteten 232 Krebsfälle gab es nur 7 (Chen, W.L. u.a. 2004).
  2. Amerikanische Werftarbeiter erhielten beim Bau von Atomschiffen jeweils Dosen um 100 mSv. Deren Krebsrate war um 15 % niedriger als bei Arbeitern in nicht-nuklearen Werften.
  3. Über Beschäftigte in kerntechnischen Anlagen gibt es eine Vielzahl von Studien, immer mit mehreren 100.000 Personen. Die Auswertungen, weitgehend bezogen auf dieselben Personengruppen, ergaben Krebsraten von 60 % bis 110 % gegenüber nicht strahlenexponierten Vergleichsgruppen.
  4. In Fukushima sind aufgrund der äußeren Strahlenbelastung zwischen 20.000 und 80.000 Krebsfälle zu erwarten (IPPNW, International Physicians for the Prevention of Nuclear War). Anmerkung: Höheren Strahlendosen als 30 mSv waren nur einige Arbeiter ausgesetzt.
  5. Es gibt keine Dosis-Wirkungs-Beziehung. Strahlung aus Kernkraftwerken wirkt auch dort, wo man nichts messen kann. Sie tötet vor allem weibliche Embryos und hat in Deutschland und der Schweiz die Geburt von 20.000 Mädchen verhindert (Dr. Hagen Scherb, Mitarbeiter des Helmholtz-Zentrums München. Man duldet ihn dort als eine Art Hofnarr, oder, weil man ihn aus arbeitsrechtlichen Gründen nicht loswerden kann.)

 

„Wer vieles bringt, wird manchem etwas bringen“, sagte schon Goethe. Jede und jeder kann sich aussuchen, was ihr oder ihm am besten gefällt. Wer aber vom Fach und außerdem ehrlich ist, sagt: Unter 100 Millisievert (mSv) findet man keine biologischen Wirkungen, und unter 250 mSv keine, welche die Gesundheit beeinträchtigen. Dies gilt für kurzzeitige Einwirkungen. Über längere Zeiten verteilt, dürfen die Dosen sogar höher sein, ohne Wirkungen zu erzielen.

Aber wie können sich da Fachfremde zurechtfinden?

Ein wenig Logik hilft da weiter. So schreibt Frau Roussety: „dass das Risiko an Dickdarmkrebs zu erkranken mehr als wahrscheinlich ist, und sich um fast fünf Prozent pro 100 mGy erhöht.“ Man beachte die Worte „wahrscheinlich, fast“ und die Angabe, dass die durchschnittliche Dosis „mindestens 21 mGy“ betrug. mGy kann man ungefähr mit mSv gleichsetzen. 100 mGy hat nur ein kleiner Teil der Beschäftigten erreicht.

Also ist das „wahrscheinliche“ Krebsrisiko sehr viel kleiner. Von Natur aus liegt es zwischen 20 und 30 %, eine Steigerung um 5 % würde es ungefähr von 25 % auf 26,25 % steigern. Da aber, wie gesagt, die Dosen der allermeisten Beschäftigten weit unter 100 mSv liegen, gibt es zu den 25 % nur noch ein paar Zahlen hinter dem Komma. Kann man daraus wirklich eindeutige Schlüsse ziehen?

Das wird sogar im Ökoinstitut Freiburg bezweifelt. Ein Mitarbeiter schrieb mir: „Das Stochern in Unsicherheitsbandbreiten, das epidemiologischen Studien immer so eigen ist, ist in der Tat etwas, da eher in Richtung Glauben geht.“

 

Die Sache ist noch viel zweifelhafter. Dank Herrn Dr. Lutz Niemann habe ich die Originalarbeit. Wir wollen es Frau Roussety nicht übelnehmen, dass sie mit Begriffen wie Median, Mittel, Perzentile nicht zurechtkommt. Sie schreibt, die Dosen der Arbeiter lägen bei mindestens 21 mGy (=mSv), das ist schlicht falsch abgeschrieben. Tatsächlich hatte die Hälfte der Beschäftigten weniger als 4,1 mSv abbekommen, und 21 mSv war der Mittelwert. Ich denke, Ihnen ist der Unterschied klar: Wer z.B. ein mittleres Einkommen hat, gehört zu den Besserverdienenden. Die allermeisten sind unter ihm, denn Einzelne wie Winterkorn ziehen den Durchschnitt nach oben. So gab es auch unter den Kernkraftarbeitern einige mit recht hohen Strahlendosen, aber das waren zu wenige für eine zuverlässige Statistik.

Wenden wir den Durchschnitt von 21 mSv an und rechnen mit der mittlerweile stark angezweifelten LNT-Hypothese, dann hätten wir einen Anstieg des Krebsrisikos von 25 auf 25,25 %. Kann das jemand ermitteln? Selbst wenn, wen würde es abschrecken, einen bestimmten Beruf oder Wohnort zu wählen, bei dem das rechnerische Krebsrisiko nicht 25, sondern 25,25 % ist?

Frau Roussety hat außerdem noch nicht verstanden, dass es keinen Unterschied zwischen natürlicher und künstlicher Strahlung gibt. Ihre Gesinnungsgenossen sind da im Allgemeinen weiter, schon um gegen den Uranbergbau demonstrieren zu können, bei dem ja nur Naturstoffe an die Oberfläche geschafft werden. Frau Roussety schreibt: „Heute zeigt sich, wie lange die negativen Auswirkungen anhalten. Denn nun beginnen die Strahlen auch die Westküste der USA zu beeinflussen. Obwohl die Strahlung durch das Meer verdünnt wurde, wird es für Jahrzehnte die Umwelt negativ beeinflussen und belasten. Und wie die Ergebnisse dieser Studien verdeutlichen und klar belegen, werden die kontinuierlichen Expositionen gegenüber selbst geringerer Mengen an Strahlungen weiterhin eine schädliche und gesundheitsgefährdende Wirkung auf Menschen, Tieren und Natur haben.“

Die armen Kalifornier, und vor allem die Seelöwen, welche fast ständig im Wasser sind! Aber jedem sollte doch klar sein: Die Radioaktivität des ganzen Pazifik kann durch Fukushima nicht merklich erhöht werden.

In Mexiko und den USA kommt nur das leicht lösliche und genügend langlebige radioaktive Caesium an. Freigesetzt wurden etwa 2∙1016Bq, nach der alten Einheit eine halbe Million Curie. Der Pazifik enthält von Natur aus an Radioaktivität 2,2∙1011 Curie, also 400.000mal mehr. Dabei ist Seewasser gar nicht besonders radioaktiv. Die Aktivität pro l beträgt etwa 13 Bq, wesentlich weniger als z.B. Milch, welche etwas über 50 Bq/l hat.

Nun hat sich das radioaktive Caesium, was übrigens nicht vollständig in den Pazifik gelangt ist, dort noch nicht gleichmäßig verteilt. Es gibt eine Strömung von Japan nach Amerika. Weit vor der kalifornischen Küste, 1.600 Meilen, wurde tatsächlich eine Konzentration von 0,011 Bq/l gefunden. Bis zur Küste wird sich das weiter verdünnt haben. Die Erhöhung der Radioaktivität im Meerwasser von 13 auf weniger als 13,011 Bq wird nun nach Frau Roussety „weiterhin eine schädliche und gesundheitsgefährdende Wirkung auf Menschen, Tiere und Natur haben.“ Da wäre es aber wesentlich wichtiger, die Bevölkerung der USA umzusiedeln. Wie das Bild zeigt, gibt es messbare Unterschiede. 21 mSv mehr wie die KKW-Arbeiter bekommt man in einigen Staaten innerhalb weniger Jahre.

Sie stellt die Frage: „Hat hier eigentlich irgendjemand aus dieser Sache gelernt?“ Ich nicht. Ihre Arbeit bestätigt nur den alten Spruch: „Schuster, bleib bei deinen Leisten.“ Frau Roussety hat doch eine Schauspielausbildung vorzuweisen. Sicherlich ist sie eine ganz passable Schauspielerin. Wie wäre es mit einer Neuverfilmung eines alten Klassikers, diesmal mit weiblichen Hauptrollen, von „Dick und Doof“?

 

Hannover, den 06.01.2017




Meeresspiegelexperten des IPCC erteilen Sintflutszenarien von Anders Levermann (PIK) klare Absage

Hamburg wird absaufen (EIKE berichtete hier). Und zwar noch in diesem Jahrhundert, wenn der Treibhausgas-Ausstoß nicht gestoppt wird. Davon ist Klimaforscher Anders Levermann (43) überzeugt. In einem Interview mit „Spiegel Online“ sagte er: „Mit jedem Grad Erderwärmung steigt der Meeresspiegel um mehr als zwei Meter.“ Wenn die Zwei-Grad-Grenze der globalen Erwärmung nicht eingehalten wird, „wird es irgendwann die Norddeutsche Tiefebene nicht mehr geben. Hamburg auch nicht“.

Das vollständige Originalinterview kann man bei SPON für 39 cent lesen, sozusagen Gruselsteuer. Auszug aus dem MOPO-Artikel:

“Levermann ist besorgt. Anfang Dezember lagen die Temperaturen am Nordpol 20 Grad über dem Normalwert. Auch am Südpol wird das Eis instabil. „Die Antarktis ist ein schlafender Riese, der gerade aufwacht“, sagt der Klimaforscher. „Ihr Schmelzwasser kann den Meeresspiegel langfristig um viele Meter erhöhen – nur das Tempo ist noch unklar.“ Zeit bleibe nicht mehr. “

So, so… die Antarktis. Wie gestaltet sich dieses “Aufwachen” bzw. angebliche allmähliche Auftauen? Eine Studie von Jay Zwally und Kollegen 2015 im Journal of Glaciology 2015 dokumentierte, dass das antarktische Inlandeis derzeit anwächst, nicht schmilzt. Das Wachstum soll sogar die nächsten 20 Jahre lang andauern. Danach ist die weitere Entwicklung unklar. Es ist nicht ausgeschlossen, dass zunehmender Schneefall den Eis-Wachstumstrend weiter unterstützen wird. Hier die Kurzfassung der Arbeit:

Mass gains of the Antarctic ice sheet exceed losses

Mass changes of the Antarctic ice sheet impact sea-level rise as climate changes, but recent rates have been uncertain. Ice, Cloud and land Elevation Satellite (ICESat) data (2003–08) show mass gains from snow accumulation exceeded discharge losses by 82 ± 25 Gt a–1, reducing global sea-level rise by 0.23 mm a–1. European Remote-sensing Satellite (ERS) data (1992–2001) give a similar gain of 112 ± 61 Gt a–1. Gains of 136 Gt a–1 in East Antarctica (EA) and 72 Gt a–1 in four drainage systems (WA2) in West Antarctic (WA) exceed losses of 97 Gt a–1 from three coastal drainage systems (WA1) and 29 Gt a–1 from the Antarctic Peninsula (AP). EA dynamic thickening of 147 Gt a–1 is a continuing response to increased accumulation (>50%) since the early Holocene. Recent accumulation loss of 11 Gt a–1 in EA indicates thickening is not from contemporaneous snowfall increases. Similarly, the WA2 gain is mainly (60 Gt a–1) dynamic thickening. In WA1 and the AP, increased losses of 66 ± 16 Gt a–1 from increased dynamic thinning from accelerating glaciers are 50% offset by greater WA snowfall. The decadal increase in dynamic thinning in WA1 and the AP is approximately one-third of the long-term dynamic thickening in EA and WA2, which should buffer additional dynamic thinning for decades.

Aus dem Text:

“If dynamic thinning continues to increase at the same rate of 4 Gt a–2 with no offset from further increases in snowfall, the positive balance of the AIS will decrease from the recent 82 Gt a–1 to zero in 20 years. However, compensating increases in snowfall with climate warming may also be expected (Gregory and Huybrechts, 2006;Winkelmann and others, 2012).”

Wie kommt Levermann auf seine abstrusen Thesen? Gelten in Potsdam vielleicht andere naturwissenschaftliche Gesetze, herrscht dort ein geistiges Sonderklima? Die neue Fakenews-Stelle der Bundesregierung wird den Potsdamern in Zukunft etwas genauer auf die Finger schauen müssen.

Konzentrieren wir uns lieber auf die harten Fakten, die Ole Humlum auf Climate4You zusammengetragen hat (siehe auch globale Meeresspiegelkurven auf der NASA-Webseite und AVISO). Laut Satellitenmessungen steigt der Meeresspiegel um 3,4 mm pro Jahr an.

Abbildung: Meeresspiegelanstieg seit 1992 laut Küstenpegelmessungen. Graphik: Climate4You.

Abbildung: Meeresspiegelanstieg seit 1992 laut Satellitenmessungen. Graphik: Climate4You. 

Die Auswertung der Küstenpegelmessungen hingegen ergibt lediglich einen Anstieg von 2,1 mm pro Jahr. Der Grund ist ein künstlicher Streckfaktor, mit dem die Satellitenwerte erhöht werden. Die NOAA ermittelt auf Basis von Küstenpegeldaten einen globalen Meeresspiegelanstoeg von 1,7-1,8 mm pro Jahr.

Abbildung: Meeresspiegelanstieg seit 1992 laut Küstenpegelmessungen. Graphik: Climate4You.

Eine spürbare Beschleunigung des Meeresspiegelanstiegs ist in den Daten nicht zu erkennen, wenn man von den kurzmaßstäblichen Zyklen einmal absieht. Zum gleichen Ergebnis kommen auch Auswertungen von Albert Parker und Jan Kjetil Andersen. Eine Studie von Ocana et al. 2016 hält es zudem für möglich, dass natürliche interne Klimavariabilität als extern gesteuerter Klimatrend fehlgedeutet wurde.

Ein Forscherteam um Hans Visser ging im Juni 2015 im Journal of Geophysical Research der Frage nach, ob sich der Meeresspiegel in den letzten 100 Jahren nun beschleunigt hat oder nicht. Das Resultat lässt aufhorchen: Die Sichtweise hängt stark von der verwendeten statistischen Methode, Datenunsicherheiten sowie der Behandlung natürlicher Schwankungen ab:

A review of trend models applied to sea level data with reference to the “acceleration-deceleration debate”

Global sea levels have been rising through the past century and are projected to rise at an accelerated rate throughout the 21st century. This has motivated a number of authors to search for already existing accelerations in observations, which would be, if present, vital for coastal protection planning purposes. No scientific consensus has been reached yet as to how a possible acceleration could be separated from intrinsic climate variability in sea level records. This has led to an intensive debate on its existence and, if absent, also on the general validity of current future projections. Here we shed light on the controversial discussion from a methodological point of view. To do so, we provide a comprehensive review of trend methods used in the community so far. This resulted in an overview of 30 methods, each having its individual mathematical formulation, flexibilities, and characteristics. We illustrate that varying trend approaches may lead to contradictory acceleration-deceleration inferences. As for statistics-oriented trend methods, we argue that checks on model assumptions and model selection techniques yield a way out. However, since these selection methods all have implicit assumptions, we show that good modeling practices are of importance too. We conclude at this point that (i) several differently characterized methods should be applied and discussed simultaneously, (ii) uncertainties should be taken into account to prevent biased or wrong conclusions, and (iii) removing internally generated climate variability by incorporating atmospheric or oceanographic information helps to uncover externally forced climate change signals.

Anerkannte Meeresspiegelexperten erteilen den Sintflutszenarien von Anders Levermann eine klare Absage. Eine Forschergruppe um Peter Clark überprüfte im Dezember 2015 die Aussagen des 5. IPCC-Berichts zum Meeresspiegelanstieg. Der Bericht hatte seinerzeit einen Anstieg von etwa einem halben Meter bis 2100 vorhergesagt, mit leichten Unterschieden je nach verwendetem Emissionsszenario. Haben zwei weitere Jahre Forschung die IPCC-Prognose grundlegend verändert? Clark und Kollegen kommen zu einem deutlichen Ergebnis: Nein, die IPCC-Prognose von 2013 gilt weiter unveränderlich. Pech für Levermann und andere klimaaktivistische Kollegen, die der Öffentlichkeit lieber Anstiegsbeträge im Bereich von einem Meter und mehr vorgaukeln. Hier ein Auszug aus der Kurzfassung des Artikels von Clark et al. 2015, der im Fachblatt Current Climate Change Reports erschien:

Recent Progress in Understanding and Projecting Regional and Global Mean Sea Level Change

[…] These new results increase confidence in the AR5 likely range, indicating that there is a greater probability that sea level rise by 2100 will lie in this range with a corresponding decrease in the likelihood of an additional contribution of several tens of centimeters above the likely range. In view of the comparatively limited state of knowledge and understanding of rapid ice sheet dynamics, we continue to think that it is not yet possible to make reliable quantitative estimates of future GMSL rise outside the likely range. Projections of twenty-first century GMSL rise published since the AR5 depend on results from expert elicitation, but we have low confidence in conclusions based on these approaches. New work on regional projections and emergence of the anthropogenic signal suggests that the two commonly predicted features of future regional sea level change (the increasing tilt across the Antarctic Circumpolar Current and the dipole in the North Atlantic) are related to regional changes in wind stress and surface heat flux. Moreover, it is expected that sea level change in response to anthropogenic forcing, particularly in regions of relatively low unforced variability such as the low-latitude Atlantic, will be detectable over most of the ocean by 2040. The east-west contrast of sea level trends in the Pacific observed since the early 1990s cannot be satisfactorily accounted for by climate models, nor yet definitively attributed either to unforced variability or forced climate change.

Eine klare Watsche in Richtung Potsdam und den Versuch, die IPCC-Ergebnisse zu ignorieren und mit eigenfabriziertem Meeresspiegelzauber zu ersetzen. Ein unglaublicher Vorgang, auf den die deutschen Journalisten hereingefallen sind, ja vielleicht hereinfallen wollten.

Übernommen von Die kalte Sonne




Ruhmloser Abgesang auf den Steinkohlebergbau

Gedacht ist an Projekte für „erneuerbare Energien“, an „Windkraftanlagen auf Halden“, „Solarparks auf Brachflächen“, die Wärmegewinnung aus Grubenwasser. Doch dies ist ein Wunschtraum, der gnadenlos an den natürlichen Randbedingungen scheitern wird. Musste der Bergbau sterben, damit die Illusion von „Klimaschutz“ leben kann? Die RAG begnügt sich mit dem Satz: „Ob dies aber auf lange Sicht klug ist, bleibt fraglich“.

Erdgeschichte, das Karbonzeitalter und die Kreidezeit

Die Steinkohle ist das „Kapital“, dass die Natur in ihrem ewigen Wandel im Ruhrgebiet deponiert hat. Zusätzlich konnte an tektonischen Störungen Magma aufsteigen, wodurch Eisenerzlagerstätten entstanden. Im „Karbonzeitalter“ vor 360 bis 300 Millionen Jahren wurden im Wechsel von Sumpflandschaften und Überflutungen des Meeres zahlreiche Schichten abgelagert. Unter Druck entstanden durch Inkohlung die Kohleflöze. Sieben Meter dicke Torfschichten wurden zu 0,60 Meter dicken Steinkohlenflözen verdichtet. In der Kreidezeit von 135 bis 65 Millionen Jahren überdeckte ein tropischer Ozean das Ruhrgebiet und überdeckte alles mit einer mächtigen Mergelschicht. Durch Absenkung neigten sich die Flöze um 6 Grad nach Norden hin. Auch die Wechsel von Eis- und Warmzeiten formten an der Topographie mit wobei die Ruhr das Schmelzwasser nach Westen abführte. Die Steinkohle entdeckte man im Mittelalter. Man dachte, es wären „brennende Steine“. Oblag das „freie Kohlegraben“ zunächst den Bauern, so wurde dies unter Karl dem Großen zu untersagen versucht. Die Kohle wurde als „Bodenschatz“ und „Naturalabgabe“ unter das Eigentum der Herrschenden gestellt.

Anfänge des Bergbaus und Frühphase der Industrialisierung

Die Vorphase der Industrialisierung ging von der Jülich-Clevischen Bergordnung vom 24. April 1542 aus. Am 13. Juli 1753 erhielt der Kölner Erzbischof die Erlaubnis, am Sterkrader Bach einen Hochofen mit Hammerwerk zu errichten. Damit beginnt die Geschichte der Eisen- und Stahlindustrie im Ruhrgebiet. Den staatlichen Dirigismus im Steinkohlenbergbau führte Friedrich II. am 29. April 1766 ein. 1784 wurde Karl Freiherr von und zum Stein Direktor des Bergamtes Wetter an der Ruhr. 1787 wurde ein Schiebeweg mit eisernen Schienen gebaut, wodurch die erste „Eisenbahnstrecke“ in Deutschland entstand, indem die Pferde durch Dampfzüge ausgetauscht wurden. 1802 wurde die erste Dampfmaschine importiert. Die Dynamik war ungeheuer. 1825 begann man mit dem Bau einer Eisenbahnlinie von Köln nach Minden und 1847 fuhr der erste Dampfzug durch das Ruhrgebiet. 1811 errichtete Friedrich Krupp in Essen eine „Krupp Gussstahlfabrik“. Ab 1819 werden Dampfmaschinen gebaut und die Stahlherstellung beginnt 1826. 1850 entsteht der erste Malakoff-Turm und 1854 wird der erste Kokshochofen errichtet. Die 1. Phase der Industrialisierung dauert von 1835 bis 1873. Die Ruhr war die Transportader. Der Kohleumschlag betrug 1830 etwa 275 000 Tonnen, 1849 circa 514 000 Tonnen und 1860 rund 868 000 Tonnen, um dann rapide abzufallen auf nur 10 000 Tonnen 1884 und 3 000 Tonnen 1889. Die Eisenbahn war bequemer!

Beschäftigungswunder und demographischer Wandel

Die Bevölkerung stieg in dieser Zeit gewaltig. Zahlreiche Dörfer erhielten Stadtrecht: Mülheim am 4. 9. 1846, Dortmund am 10. 4. 1874, Oberhausen am 10. 9. 1874. Um 1900 gab es 170 Zechen mit 228 000 Beschäftigten. Sie förderten 60,1 Millionen (Mio) Tonnen Steinkohle. Mit dem Ruhrstatut vom 28. 4. 1948 wurde die Kohle- und Stahlproduktion der Internationalen Ruhrbehörde unterstellt, bevor am 23. 7. 1952 die Europäische Gemeinschaft für Kohle und Stahl begründet wurde. 1950 arbeiteten in 143 Zechen 433 359 Beschäftigte und förderten 103 Mio Tonnen Steinkohle. Das Maximum wurde 1956 erreicht mit 494 000 „Kumpeln“ und 124,6 Mio Tonnen Steinkohle. Ab 1958 begann das „Zechensterben“ durch den Import billiger Kohle aus den USA wie die Überschwemmung durch billiges Heizöl. Am 31. Oktober 1964 wurden 31 Großzechen mit 64 000 Kumpeln und einer Jahresförderung von 26,5 Mio Tonnen zur Stilllegung angemeldet. Auf der Zeche Monopol wurde 1977 eine Teufe von 1415 Meter erreicht. Von 1974 bis 1977 ging die Rohstahlerzeugung von 32,2 auf 21,5 Mio Tonnen zurück. 200 000 Arbeitsplätze gingen verloren. 1990 gab es noch 19 Zechen mit 101 000 Arbeitern und einer Förderung von 54 Mio Tonnen Steinkohle. 2004 gab es noch 4 Bergwerke und Ende 2018 wird das letzte geschlossen. Das „Ruhrgebiet“ wird es in seiner klassischen Prägung nicht mehr geben, ohne dass auf Steinkohle verzichtet werden kann. 2005 wurden 42 % heimisch erzeugt, 2010 noch 23 % 2015 noch 11 % und ab 2019 werden es 0 % sein. Dafür steigt der Import von 58 über 77, dann 89 auf 100 %. Die Gesamtmenge an Steinkohle wird ziemlich konstant etwas unter 60 Mio t SKE liegen! Die Importkohle wird also die wichtige „Brückenfunktion der Ausgleichs- und Reservekapazität für den fluktuierenden Wind- und Solarstrom ausüben“. Glaubt die Politik, dieser Etikettenschwindel würde nicht auffallen?

Von der postindustriellen über die dekarbonisierte in eine postfaktische Ära?

Wie also wird die Zukunft aussehen? Um diese zu „meistern“ hat man 2010 das Projekt „Innovation City Ruhr“ ins Leben gerufen. Es wird wie folgt beschrieben: „Das Ziel dieses ehrgeizigen Projekts lautet, am Beispiel einer typischen Ruhrgebietskommune einen klimagerechten Stadtumbau mit Halbierung der CO2-Emissionen bis zum Jahr 2020 bei gleichzeitiger Sicherung des Industriestandorts und spürbarer Verbesserung der Lebensqualität zu demonstrieren.“ Modellkommune ist die Stadt Bottrop. Bottrop soll ein Musterbeispiel sein für eine „Energiewende von unten“. Um die CO2-Emissionen um 38 Prozent zu senken, hat man rund 290 Mio € investiert. Doch dies ist nur eine fiese Milchmädchenrechnung, indem man nur die Emissionen durch die „heimische Kohle“ reduziert, aber die Emissionen durch die importierte Kohle „untern Teppich“ kehrt. Wenn man dann noch die Gewinnung von Erdöl und Erdgas einstellt, ist Deutschland rechnerisch Null-Emittent an CO2 und damit „Vorreiter“ in Sachen „Klimaschutz“. Man mag sich nach außen brüsten, das „Pariser Abkommen“ zur Einhaltung des Zwei-Grad-Zieles erfüllt zu haben, aber auf wen macht dieser Selbstbetrug Eindruck? Auf das Wetter mit absoluter Sicherheit nicht und damit auch nicht auf dessen „Abfallprodukt“, das Klima. Mag auch der „Leitzielcharakter der Klimaziele“ zwecks Erreichung der globalen „Klimaneutralität“ in der zweiten Hälfte des 21. Jahrhunderts rechnerisch auf dem Papier erfüllt werden, die Wetterrealitäten werden sich davon nicht beeindrucken und beeinflussen lassen.

Mag auch das „Ruhrgebiet“ als „Industrieregion“ ob der weltweit freien Märkte mit ihren ökonomischen Regeln auch nicht zu retten gewesen sein, doch zur „Stabilisierung“ einer nicht existenten „Globaltemperatur“ als „Leitziel“ eines nicht existenten „Globalklimas“ die gesamte „Industrie“ dekarbonisieren zu wollen, ist an Wahnsinn nicht zu überbieten. Ohne Wasserstoff, Sauerstoff und Kohlenstoff ist organisches Leben nicht möglich. Dies gilt primär für die grünen Pflanzen als „Primärproduzenten“, die Nahrung für Tier und Mensch als Konsumenten produzieren.

Die Erde war nie ein Wetterparadies und wird auch nie eines sein! Ein „Klimaparadies“ mit der postfaktischen Wunschvorstellung von „globaler Klimagerechtigkeit“ ist ein unrealistischer Traum von Ideologen, die in ihrer theoretischen Modellbesessenheit die Realität völlig aus dem Blick verloren haben.

 




Die erschreckende Geister­fahrt der „Deutschen Energie­wende“ im Rahmen des „Klimaschutz­planes 2050

 Spätestens in 2030 gehen in Deutschland die Lichter aus, da die sichere Stromerzeugungkapazität zum Ausgleich der Schwankungen über die Stromerzeugung über Wind und Sonne nur in Ansätzen ausreicht, es sei denn, es werden Stromspeicher mit einer täglichen Kapazität von 22 Gigawatt (GW) als Jahresmittelwert zur Verfügung gestellt (entsprechend etwa 79 Pumpspeicherwerke der Goldisthalgröße).

Ebenso bleibt die Wunschvorstellung der „Dekarbonisierung“ in 2050 eine Fata Morgana ohne eine tägliche erforderliche Stromspeicherkapazität von 31 GW als Jahresmittelwert (bei diesem täglichen Speicherbedarf erübrigt sich eine Betrachtung zum Speicherbedarf bei einer z.B. 14-tägigen Windflaute im Winter).

Der CO2-Gehalt in der Atmosphäre liegt z.Z. bei 400 ppm bzw. 0,0400%.

Durch die Energiewende in Deutschland könnte – wenn sie denn funktioniert – theoretisch der CO2-Gehalt der Atmosphäre um 0,13 ppm abgebaut werden bei natürlichen jährlichen Schwankungsbreiten der gemessenen CO2-Gehalte durch die Photosynthese zwischen 3 (Äquator-fern) und 20 ppm (Äquator).

Der kostenmäßige Aufwand für die Absenkung des CO2-Gehaltes im Rahmen der Energiewende von 0,13 ppm (0,000 013%) liegt bis 2025 bei         520 Mrd.€.

„Postfaktisch“ ist das Wort des Jahres 2016. Für die CO2-Hysterie seit den 1980er Jahren sowie die daraus resultierende Energiewende in 2000 kommt das Wort zu spät. Beides ist seit Anbeginn ein „Postfaktisches“ Desaster.

……………………………………………………………………………………………………………………

Basierend auf der Angst vor einem Weltuntergang durch einen hohen CO2-Austoß hat es in Deutschland zu diversen „Energiewenden“ geführt, nicht zuletzt auch, weil Deutschland ein Vorbild in der Weltgemeinschaft darstellen möchte (Ausrufung der „Dekarbonisierung“ durch Frau Merkel auf dem G7-Gipfel in Elmau in 2015).

Nun hat die Bundesregierung unter dem Begriff „Klimaschutzplan 2050“ für die Weltklimakonferenz in Marrakesch eine neue Energiewende kreiert, wobei wie bei allen bisherigen Energiewenden die Frage von Machbarkeit und Bezahlbarkeit auch nicht im Ansatz geprüft wurde, was erstaunlicherweise in unserer Gesellschaft nicht wahrgenommen wird, ein Aufschrei der Wissenschaft findet nur vereinzelt statt.

Vielmehr wird das Thema beherrscht von staatlich dotierten Klimawissenschaftlern, Politikern, Soziologen etc.

Im Folgenden sollen nun zunächst noch einmal rückblickend die letzten Energiewenden für den Bereich „Energiesektor“ mit ihren Zielen aufgeführt werden, um dann schließlich den „Klimaschutzplan 2050“ näher zu diskutieren:

a) „Energiewende 2010/2011“

b) „Energiewende 2014“

 

Stromerzeugungskapazitäten

(keine Angaben zu Wind See in 2030-2050)

c) „Eckpunkte für die geplante Novelle des EEG“ (Beschluß am 08.06.2016) (1)

(Wind See 15 GW bis 2030)

(keine Begrenzung mehr für Solar mit 52 GW)

d) „Klimaschutzplan 2050“ (2)

Bild 1 zeigt in einer Graphik die Zielsetzungen des „Klimaschutzplanes 2050“ für die einzelnen Bereiche in CO2-Äquivalenten.

Die Entwicklung der Abnahme der CO2-Äquivalente seit 1990 in Deutschland ist in Bild 2 dargestellt.

Nach Frau Hendricks ist dies das erste Regierungsdokument, das den Weg in ein weitgehend treibhausneutrales Deutschland in 2050 aufzeigt.

Auf die CO2-Einsparungen in anderen Wirtschaftszweigen soll hier nicht näher eingegangen werden.

Die o.g. Absenkung des CO2-Ausstoßes für den Energiesektor kann naturgemäß nur über eine Stilllegung von Kohlekraftwerken führen (worüber es noch Einwendungen in der Bundesregierung gibt), wofür dann ein Leistungs-entsprechender Ausbau der Stromerzeugung über Wind und Sonne erfolgen muß, da ein Zuwachs der Stromerzeugung über Biomasse etc. vernachlässigbar gering ist. (1)

Berechnung der still zu legenden Stromerzeugung über Kohlekraftwerke, um bis 2030 175 Mio. t CO2/a einzusparen

Der Abbau von 175 Mio.t CO2, der bis 2030 erfolgen soll, ist ein Mindestwert.

Bei Kenntnis des CO2-Ausstoßes von Kohlekraftwerken je erzeugter kWh kann nun die mit dem CO2-Abbau verknüpfte Stromerzeugung über Braunkohle- und Steinkohlekraftwerke errechnet werden:

Der CO2-Ausstoß schwankt je nach Wirkungsgrad der Kraftwerke zwischen

Braunkohlekraftwerke (BKK)     850-1200 g CO2/kWh         Mittelwert: 1,1 kg/kWh

Steinkohlekraftwerke (SKK)     750-1100 g CO2/kWh         Mittelwert: 0,9 kg/kWh

Nach dem BDEW lag die Bruttostromerzeugung in 2015 wie folgt:

Die Stromerzeugung über BKK +SKK liegt somit bei 273 Mrd.kWh/a.

Aus diesen Angaben errechnet sich dann ein CO2-Ausstoß von

BKK       155 x 1,1 = 171 Mio.t CO2

SKK         118 x 0,9 = 106 Mio.t CO2

277 Mio.t CO2

Um nun bis 2030 175 Mio.t CO2 einzusparen, liegt der erlaubte CO2-Ausstoß über Kohlekraftwerke in 2030 bei

277 – 175 – = 102 Mio. t.CO2

entsprechend einer Stromerzeugung über Kohlekraftwerke von

273 x 102/ 277 = 101 Mrd.kWh/a bzw. 101 000 GWh/a ,

d.h. es müssen

273 – 101 = 172 Mrd.kWh/a

über alternative Energien erzeugt werden.

Berechnung der zu installierenden Stromerzeugungskapazitäten über Wind und Sonne, um 172 Mrd. kWh/a in 2030 darstellen zu können

Bekanntlich schwanken die Stromleistungen über Wind und Sonne in weiten Grenzen praktisch zwischen null und ihren Nennleistungen. (3)

So überrascht es nicht, dass in den Jahren 2010-Juli 2016 die kleinsten Jahresleistungen für Wind zwischen 0,07 und 0,43 % bezogen auf die jeweilige Nennleistung (Viertelstundenwerte) schwanken. (4) Die höchsten Einspeisungen liegen bei etwa 80 % der Nennleistung (Bild 3).

Erschreckend niedrig ist auch der mittlere Beitrag der Windanlagen von lediglich 15,2 – 21,3 % (Mittelwert 17,7 %) im gleichen Zeitraum bezogen auf ihre Nennleistung. (4)

Die Schwankungen der mittleren Jahresleistungen über die Sonne liegen in den Jahren 2011-November 2016 zwischen 9,9 und 11% bezogen auf die jährlichen Nennleistungen mit einem Mittelwert von 10,4%, die Maximalwerte zwischen 65 und 77% (Bild 4). (5

Damit kann eine definierte mittlere Erzeugung von Strom über Wind und Sonne nur erzielt werden, wenn der über der mittleren nutzbaren Leistung anfallende Strom gespeichert werden kann, um ihn bei Werten unterhalb der mittleren nutzbaren Leistung wieder einspeisen zu können. (6,7) (vgl. auch Bild 5; hier wurden die unterhalb der mittleren nutzbaren Leistung anfallenden Werte in Ermangelung von Stromspeichern über Erdgas ausgeglichen). (8)

Mit diesen fluktuierenden Stromerzeugungsanlagen Wind und Solar müssen nun

172 Mrd. kWh/a oder 172 000 GWh/a     erzeugt werden.

Im Klimaschutzplan 2050 sind keine Angaben zum Zuwachs an Biomasse etc. gemacht worden, der Zuwachs ist aber nach früheren Angaben gering. (1)

Um den zu erzeugenden Strom über Wind und Sonne abzuschätzen, wird von den Angaben nach (1) ausgegangen: 58 % Wind, 42 % Solar.

Somit müssen von 172 000 GWh/a

99 760 GWh/a über Wind,

72 240 GWh/a über Sonne

erzeugt werden, um den CO2-Ausstoß über Kohlekraftwerke um 175 Mio. t CO2/a bis 2030 abzubauen bzw. eine entsprechende Kapazität an Kohlekraftwerken stillzusetzen (31 GW eff.).

Die über Wind und Sonne herzustellenden Kapazitäten können nun bei mittleren Nutzungsgraden von Wind (17,7%) und Sonne (10,4%) wie folgt abgeschätzt werden:

Wind     64 GW inst.,

Solar     79 GW inst.

143 GW inst.

Das entspräche einem jährlichen Zuwachs bis 2030 von

Wind   4,6 GW/a

Solar   5,6 GW/a.

Daraus errechnet sich für 2030 ein Gesamtbestand von

Wind 47 (z.Z.) + 64 = 111 GW inst.

Solar 40 (z.Z.) + 79 = 119 GW inst.

230 GW inst.

Die mittlere nutzbare Kapazität für Wind+Solar errechnet sich dann zu   43,7 GW eff.

Derzeit sind etwa 26 800 Windanlagen mit einer Leistung von etwa 47 GW installiert, für eine Kapazität von 111 GW ergeben sich dann     63 290 Windanlagen.

In Bild 6 sind nun zunächst die für das Jahr 2015 bekannten Stromleistungen über „Sonstige“ (Biomasse etc.) von etwa 12 GW, die sicheren Stromerzeuger Erdgas, Kern und Kohle mit 48 GW sowie die Installation der fluktuierenden Stromerzeuger Wind und Solar mit einer Schwankungsbreite von 87 GW (9) mit dem mittleren nutzbaren Wert von 12 GW aufgetragen.

Der Strombedarf schwankt zwischen etwa 35 und 73 GW. Die Netzkapazität liegt z.Z. bei 80 GW.

Mit den Kapazitäten der „Sonstigen“ (12 GW), der Kohle-, Kern- und Erdgaskraftwerken (48 GW) sowie der mittleren Nutzung von Wind und Solar (12 GW) kann der höchste Strombedarf von 73 GW gerade abgedeckt werden.

Geht jedoch die Wind-+Solarkapazität gegen null (nachts bei Windstille oder an windstillen Tagen im Winter), reichen die Kapazitäten mit 60 GW nicht mehr aus, um die Strombedarfsspitzen abzudecken, d.h. es muß kräftig Strom importiert werden (nach dem „Statistischen Bundesamt“ mußten in 2015 37 Mrd.kWh (5,7 %) importiert werden, alleine über Frankreich 10,7 Mrd.kWh). (10)

Andererseits wurden 85 Mrd.kWh (13 %) in 2015 exportiert, da die Stromerzeugung über erneuerbare Energien am Bedarf vorbei ging oder die Netzkapazität nicht ausreichte, was in den letzten Jahren mit dem immer weiter steigenden Anteil des Stroms über alternative Energien weiter zunahm mit weiter steigenden „Negativen Strompreisen“. (3)

Hinzu kommt, dass von den 6100 Kilometern Leitungen, die sich aus dem Bundesbedarfsplan ergeben, gerade 350 km genehmigt und 69 km gebaut wurden. Von den geplanten Pilotstrecken für Erdkabel ist noch keine in Betrieb.(11)

Geradezu explodiert ist in 2015 die „Ausfallarbeit“, d.h. der Strom, der wegen Netzüberlastung nicht eingespeist werden konnte. Diese Menge hat sich in 2015 verdreifacht. Erstmals mußten Windkraftanlagen auf hoher See abgeregelt werden, um das Netz zu schonen.(11)

Nach Aussage der Netzbetreiber müssen seit dem 10.10.2016 fast jeden zweiten Tag Notfallkraftwerke zugeschaltet werden. Die Netzbetreiber haben auf Anweisung der Netzagentur als „Winterreserve“ die Kapazität der Notfallkraftwerke von 6,6 in 2016 auf 8,3 GW erhöht. (12)

Vor diesem Hintergrund soll nun der „Klimaschutzplan 2050“ gestartet werden, mit einem ersten Schritt bis 2030, nämlich dem Abbau von 175 Mio. t CO2/a.

Nach der Stilllegung der Kohlekraftwerke mit einer Kapazität von 172 Mrd.kWh und nach der Schließung des letzten Atommeilers in 2022,ergibt sich dann folgendes Bild:

Die Kapazität der „Sonstigen“ ist auf 13 GW leicht gestiegen (Bild 6), die der Kohlekraftwerke auf 11 GW abgeschmolzen (die Kapazität der Gaskraftwerke ist wie 2015 angesetzt worden (7 GW)), so dass in Summe nur etwa 18 GW (Kohle+Gas) verbleiben, um Schwankungen in der Stromerzeugung von Wind und Solar auszugleichen. Dazu gekommen ist eine Kapazität über den Zubau von Wind- und Solaranlagen von 143 GW, so dass in Summe eine Kapazität von 230 GW vorhanden ist mit einem mittleren Nutzungsgrad von rd. 44 GW eff. (Mittlere Nutzung Wind+Sonne; Bild 6)

Die mittlere Nutzung Wind+Sonne stellt gleichzeitig die Summe der Kapazitäten von „Sonstigen“, Kohle und Gas einschließlich der mittleren Nutzung von Wind + Sonne (der letzte Atommeiler soll 2022 geschlossen werden) dar und deckt sich praktisch mit dem oberen Strombedarf in 2030 (Bild 6).

Um das Auffangen derartiger Spannbreiten in der Erzeugung zu ermöglichen, ist naturgemäß zunächst eine kräftige Erweiterung der Netzkapazität von z.Z. 80 GW erforderlich.

Im Übrigen wird in 2030 von einer gleichen Verteilung des Strombedarfes wie in den Jahre 2011-2015 ausgegangen.

Nachts bei Windstille oder bei windlosen Tagen im Winter reicht die Summe der „Sonstigen“ mit 13 GW einschließlich der verbleibenden Kohle- und Gaskraftwerken mit 18 GW nicht einmal aus, den Mindeststrombedarf von 35 GW zu decken.

 

Um den höchsten Strombedarf (73 GW) bedienen zu können, müßten die Kapazitäten der Gaswerke von 7 GW um

73-13 („Sonstige“) – 11 (Kohle) = 49 GW auf 56 GW aufgestockt werden.

Herr Putin wird sich freuen, außerdem wird das Ziel des Abbaues von 175 Mio. t.CO2 wegen des CO2-Anfalles beim Verbrennen von Erdgas verfehlt.

Um die instabile Stromerzeugung über Wind- und Solaranlagen auszugleichen, müßten bis 2030 Stromspeicher in der Größenordnung von

44/2=22 GW

geschaffen werden, da nur durch das Auffangen der über dem nutzbaren Mittelwert liegenden Kapazitäten von Wind und Sonne und ihre Einspeisung bei Ergebnissen unterhalb des Mittelwertes der Mittelwert gehalten werden kann (vgl. Bild 5) .

Die zu speichernden Strommengen lägen dann von 22 GW und einer jährlichen Bruttostromerzeugung von 647 Mrd.kWh in 2015 ausgehend bei

192 720 GWh/a oder 528 GWh/Tag.

Das größte deutsche Pumpspeicherwerk Goldisthal hat eine Leistung von 1,05 GW und kann diese Leistung jeweils 8 Stunden halten entsprechend 8,4 GWh (Kosten 600 Mio.€).

Für eine tägliche Stromspeicherung wären dann bei einem Wirkungsgrad der Speicher von 80%

528/ 8,4 x o,8 = 79 Speicher

als Jahresmittelwert erforderlich, ohne eine Gesamtbetrachtung der zu bauenden Speicher zum Beispiel bei einem 14-tägigen Zeitraum ohne Wind im Winter anstellen zu wollen.

Die Topographie Deutschlands ließe eine solche Anzahl ohnehin nicht zu, andere Speicher wie „Power To-Gas“ oder Batterien sind für solche Strommengen weder geeignet noch bezahlbar.

Kann eine ausreichende Zahl an Speichern nicht zur Verfügung gestellt werden- wovon auszugehen ist- gehen in Deutschland in 2030 die Lichter aus.

Die Stromversorgung kann dann in 2030 nur aufrecht erhalten werden, wenn die fehlende Speicherkapazität von 22 GW über Kohle- und Gaskraftwerke ausgeglichen wird.

Das würde bedeuten, dass im Sinne von Bild 5 die unter dem Mittelwert liegenden Werte (im Bild über Gas ersetzt) über leicht steuerbare Kohle- und Gaskraftwerke ständig angepaßt werden müßten.

Das heißt, der Strombetrieb kann in 2030 nur funktionieren über eine Kohle-+ Gaskapazität von

18 GW (Kohle+Gas – wie bereits erwähnt)

+ 22 GW (Kohle+Gas als Ersatz für fehlende Speicher)

= 40 GW

Gleichzeitig müßte die Stromkapazität über der mittleren Nutzung von Wind+Sonne auch im Sinne einer gezielten Kapazitätseinstellung still gesetzt werden, d.h. hälftig, nämlich 22 GW. (vgl. Bild 6)

Das bedeutet, dass neben der Kapazität über Kohle und Gas von 40 GW, „Sonstige“ von 13 GW für Wind+Sonne nur noch 20 GW oder einschließlich der „Sonstigen“ ein Anteil über alternative Energien von 33 GW bzw. 45% verbleibt (vgl. (6,7))

Eine für ein Industrieland wie Deutschland beschämende Vorstellung eines Planes zur „Dekarbonisierung“, genannt „Klimaschutzplan 2050“.

 

Die Wunschvorstellung der Vollendung der „Dekarbonisierung“ im Jahre 2050

Wenn nun bis 2050 dieses Drama weiter gehen soll, müßten die 18 GW, die in 2030 noch über Kohle- und Gaskraftwerke abgedeckt werden, stillgesetzt und über eine entsprechende Kapazität über Wind+Sonne ersetzt werden.

Geschieht dies unter den o.g. Randbedingungen, so gilt:

18/ 0,19 ( %uale Nutzung von Wind (17,7%) und Sonne (10,4%) bezogen auf die

Nennleistung) = 95 GW inst.

Damit lägen dann die zu installierenden Kapazitäten über Wind+Sonne in 2050 insgesamt bei:

230 GW (bis 2030)

95 GW (2030-2050)

 = 325 GW

mit einer mittleren Nutzung von 44+18=62 GW.

Hinzu käme noch die nur leicht gestiegenen Kapazität über die „Sonstigen“ von etwa 17 GW (Bild 6) . (1)

Entsprechend den bereits oben gemachten Ausführungen müßte bis 2050 eine tägliche mittlere Speicherkapazität von 62/2 = 31 GW aufgebaut werden, um die Kapazität von 62 GW nutzen zu können (s.oben).

Da eine derartige Speicherkapazität auch bis 2050 nicht aufgebaut werden kann, bleibt der „Klimaschutzplan 2050“ eine Fata Morgana.

Denn es müßten nämlich dann analog zu 2030 nun 31 GW durch die fehlenden Speicher über Kohle- und Gaskraftwerke im Sinne von Bild 5 ausgeglichen werden, gleichzeitig dürften die Wind-+Solaranlagen keinen Strom mehr über der mittleren Nutzung erzeugen, d.h. die Anlagen müssen hälftig stillgesetzt werden, nämlich 31 GW.

Hier verbleiben dann neben der Stromkapazität über Kohle und Gas von 31 GW, den „Sonstigen“ von 17 GW nur noch 31 GW für Wind+Sonne.

Das bedeutet, dass zur Aufrechterhaltung der Stromerzeugung in 2050 die Stromkapazität über die alternativen Energien Wind+Sonne (31 GW) einschließlich der „Sonstigen“ (17 GW) nur noch bei 48 GW oder 61% liegen kann – anstelle der Wunschvorstellung von 100% (vgl. auch (6,7)).

Wenn dann das Programm der Grünen vorsieht, nach 2030 keine Verbrennungsmotoren mehr zuzulassen mit dem Ziel einer kompletten Umstellung aller PKW, LKW und Bussen auf Elektroantrieb, so zeugt dies von einer tief verwurzelter Abkehr von einem technischen Verständnis und eher von einer Hinwendung zu einem religiösen Sendungsbewußsein.

Der Strombedarf würde dann nämlich bis 2050 um etwa 200 Mrd. kWh/a höher liegen als heute (13), abgesehen von einer zusätzlichen kompletten Umstellung der Strominfrastruktur (Kraftwerke, Netzausbau etc.).

„Postfaktisch“ ist das Wort des Jahres 2016. Im Rahmen der Energiewende wird das  „Postfaktische“ jedoch seit ihrer Gründung im Jahre 2000 praktiziert. Mit einer Kugel Eis fing es an. (Trittin)

Wen wundert es da noch, wenn die größten CO2-Emittenten wie China, Indien, Rußland und Amerika die deutsche Klimapolitik über alle Maßen loben- aber vor ihrer Nachahmung warnen. (14)

Die postfaktische Energiewende, verborgen hinter einer vordergründigen Weltrettung über einen CO2-Abbau

Der in den Jahren 1977 bis 1998 gefundene Gleichlauf von CO2-Gehalten in der Atmosphäre und der globalen Temperatur wird 1986 von der Deutschen Physikalischen Gesellschaft (DPG) aufgegriffen und zur „Klimakatastrophe“ stilisiert.

Im Jahre 1988 wurde dann von den Vereinten Nationen die Unternehmung „Intergovernmental Panel on Climate Change“ (IPCC) als eine politische Institution gegründet, die die Aussagen der DPG gerne aufgriff.

Weltweit wurden in der Folgezeit im Auftrage des IPCC Klimainstitute gegründet und finanziell unterstützt mit dem Ziel, ausschließlich das Ausmaß von CO2 auf die Erderwärmung zu untersuchen, insbesondere den aus anthropogenen Quellen stammende CO2-Anteil.

Die staatlich dotierten Wissenschaftler folgten diesem einseitig definierten Auftrag, zahlreiche Klimamodelle zum Einfluß von CO2 auf das Klima wurden erstellt, obwohl vor 1977 und nach 1998 ein Zusammenhang zwischen dem CO2-Gehalt und der globalen Temperatur nicht existiert (Bild 7,8).) (15)

Wen wundert bei diesen staatlichen Eingriffen die Aussage einschlägiger Vertreter des Klimaalarmismus, wenn sie von einer Übereinstimmung aller Wissenschaftler hinsichtlich einer Klimaänderung durch CO2 von 97% sprechen.

Zwangsläufig scheiterten die Klimamodelle auch aus thermodynamischen Gründen mit ihren bedrohlichen Aussagen zum Temperaturanstieg an der Wirklichkeit (16), aber die Angst der Menschen vor dem Weltuntergang durch überhöhte Temperaturen (Kirche: Höllenfeuer) war im kollektiven Gedächnis der Menschen verankert, besonders in Deutschland („German Angst“).
Daß CO2 das Klima nicht beeinflussen kann, zeigt auch die Klimageschichte der Erde nach der letzten Eiszeit (Bild 9). Von den sechs wärmeren Phasen nach der letzten Eiszeit waren alle wärmer als die Jetzige, auch ohne den Einfluß von anthropogenem CO2.

Damit war auch die Klimawissenschaft flächendeckend politisiert, alle Medien und Nichtregierungsorganisationen griffen in dem 1980er Jahren dieses Angst-einflößende Thema zur Anhebung ihrer Auflagen/Einschaltquoten/Spenden dankbar auf, abenteuerliche Meeresspiegelanstiege wurden auch noch vorausgesagt und damit weitere Urängste geweckt, was für viele nach der Abwendung vom Christentum zu einer neuen Heilsbotschaft wurde.

Zudem gab es in der Klimageschichte der Erde Zeiträume, in denen der CO2-Gehalt in der Atmosphäre um mehr als eine Zehnerpotenz höher lag als heute, ohne dass die Temperatur in dieser Zeit höher lag.

Ein zufälliger nicht kausaler Zusammenhang zwischen CO2-Gehalt in der Atmosphäre und globaler Temperatur von etwa 21 Jahren (1977 bis 1998) wird von den politisierten Wissenschaftlern zu einem Dogma stilisiert, das die Welt- vor allem Deutschland- massiv verändern wird, wenn nicht Einhalt geboten wird.

Weiterhin kommt hinzu, dass das CO2 aus verschiedenen Quellen stammt: Ausgasung Meere, Atmung Pflanzen, Zersetzung Bodenorganismen, Entwaldung, Atmung Lebewesen etc., in Summe etwa 800 Gt C/a, wovon nur etwa 3% aus der Verbrennung fossiler Stoffe stammt.

Bei einem CO2-Gehalt in der Atmosphäre von 400 ppm oder 0,0400% errechnet sich dann ein Anteil über Verbrennung von 12 ppm oder 0,0012%.

Der Anteil von Deutschland liegt bei 2,7%, bezogen auf den insgesamt von Menschen verursachten CO2-Anteil, also 0,32 ppm bzw. 0,000 032%.

Der theoretisch abbaubare CO2-Anteil über die Energiewende läge bei einem CO2-Ausstoß von 42% über den Energiesektor (Bild 1) bei 0,13 ppm oder 0,000 013%.

Damit liegt der theoretisch mögliche CO2-Abbau durch die Energiewende – so sie denn gelingt -mit 0,13 ppm weit unterhalb der natürlichen jährlichen Schwankungsbreite durch die Photosynthese von 20 ppm (Äquator) und 3 ppm (Äquator-nah). (17)

Die mögliche Absenkung des CO2-Gehaltes über die Energiewende kostet Deutschland bis 2025

520 Mrd.€ (18)

Der weltweite geringe anthropogene CO2-Anteil von 12 ppm oder 0,0012% soll nun in der Lage sein, gegen thermodynamische Gesetzmäßigkeiten eine Wärmemenge von 324 W/m2 (IPCC) im Sinne eines Treibhauseffektes aus der Atmosphäre zurück zur Erde zu bewegen – das wäre dann ein Perpetuum Mobile ungeahnten Ausmaßes!

Dennoch hat das IPCC bereits 1992 die Forderung erhoben, durch Begrenzung des anthropogenen CO2-Ausstoßes den Anstieg der globalen Temperatur auf 2° Celsius zu begrenzen.

Deutschland zahlt neben den genannten 520 Mrd.€ für die Energiewende (bis 2025) auch noch in 2016     2,7 Mrd.€     für den internationalen Klimaschutz. (19) Die Entwicklungsländer mit ihren korrupten Regierungen werden sich freuen.

Wo bleibt der Aufschrei der nicht staatlich dotierten Wissenschaftler, der Gesellschaft? Ein Aufschrei der Medien ist nicht zu erwarten, zu tief ist die Verflechtung in einer „mediatisierten“ Gesellschaft und Politik.

Medien bevorzugen außerdem zur Anhebung ihrer Auflagen/Einschaltquoten eine dramatisierende, skandalisierende und emotionalisierende Berichterstattung nach dem Motto „Only bad news are good news“, wo dann leicht der Respekt vor der Wahrheit verloren geht.

War vor einigen Jahren die Angsteinflößung durch einen Anstieg der globalen Temperatur noch das Monopol der Grünen, so haben nun fast alle Parteien dieses Machtinstrument entdeckt.

Irgendwann wird diese CO2-Hysterie auf dem Müllhaufen der Wissenschaftsgeschichte landen, wie z.B. das Waldsterben etc.- Verantwortliche wird es nicht geben.

 

Quellen

1.FAZ, 09.06.2016

2.Klimaschutzplan 2050: Beschluß Bundeskabinett im Umlaufverfahren vom 14.11.2016

3.Beppler, E.: „Der unaufhaltsame, gestufte Fall der „Deutschen Energiewende“, ein quantitatives Desaster“, EIKE,11.07.2016

4.Schuster, R.: Mitteilung Juli 2016

5.Schuster, R.: Mitteilung 03.12.2016

6.Beppler, E.: „Energiewende – Zweite industrielle Revolution oder Fiasko“, 2013, ISBN 978- 3-7322-0034-4

7.Beppler, E.: „Energiewende 2014 – ein Debakel“, 2015, ISBN 978-3-7386-9418-5

8.Öllerer, K.: Windenergie in der Grund-, Mittel- und Spitzenlast: www.oellerer.net

9.Schuster, R.: Mitteilung Februar 2016

10.“Der Spiegel“ 41/2016

11.FAZ, 26.11.2016

12.FAZ, 08.12.2016

13.Mueller, F. F.: „Wenn der Wirt die Ökorechnung selbst nachprüft. Der neue Tesla, eine Dreckschleuder.

14.FAZ,28.11.2016

15.Puls,K.-E.: „CO2 am Pranger“, EIKE, Vortrag 2016

16.Spencer,R.: www.drroyspencer.com

17.Wikipedia: „CO2 in der Erdatmosphäre“

18.Limburg, M.: Mitteilung EIKE vom 10.10.2016 (Untersuchung des Düsseldorfer Instituts für Wettbewerbsökonomik)

19.FAZ, 11.11.2016

 

Bildunterschriften

Bild 1: CO2-Einsparungen in einzelnen Bereichen nach dem Klimaschutzplan 2050

Bild 2: Gasemissionen in Deutschland nach 1990 in CO2-Äquivalenten

Bild 3: Kleinste, mittlere und größte Jahreseinspeisungen Wind 2010 bis 2016

Bild 4: Kleinste, mittlere und größte Jahreseinspeisungen Sonne 2011 bis 2016

Bild 5: Gesamtwindleistung von März 2011 hochgerechnet auf eine Stromleistung von 40 GW

Bild 6: Stromerzeugungskapazität „Sonstige“, Kohle, Kern, Gas und Wind+Solar von 2015 über 2030 bis 2050

Bild 7: Temperaturverlauf 1850 bis 2015

Bild 8: Temperaturverlauf 1997 bis 2015

Bild 9: Temperaturverlauf nach der letzten Eiszeit