1

Neues Buch zerstört den AGW-Mythos und rückt die Klima­wissenschaft gerade

Die in diesem Buch gesammelten Studien analysieren wissenschaftliche Daten bzgl. Klimaänderungen in der Vergangenheit, Einflüsse der Änderung von Ozean-Temperaturen, die Auswirkung der solaren Variation und von Kohlendioxid auf das globale Klima. Das Buch präsentiert eine überwältigende Fülle von Beweisen, welche die Argumente widerlegen, die von den Befürwortern einer katastrophalen anthropogenen globalen Erwärmung CAGW angeführt werden.

Regierungen manipulieren Daten

Die 21 Kapitel des Buches enthalten 400 farbige Darstellungen, Bilder und Graphiken, welche jeweils ihre eigenen überzeugenden Geschichten erzählen.

In einem Kapitel weist der Meteorologe Joseph D’Aleo unzweifelhaft nach, dass AGW-Befürworter unbequeme Temperaturdaten aus den Aufzeichnungen eliminiert haben. Mitte der siebziger Jahre gab es über 6000 Temperaturstationen von der NOAA, aber heute werden nur noch weniger als 1500 Stationen herangezogen. Außerdem zeigt D’Aleo, dass nur solche Stationen aussortiert wurden, die unbequeme Daten zeigen, und dass verschiedene Institutionen Daten manipuliert haben, um es so aussehen zu lassen, als hätte eine dramatische Erwärmung bereits stattgefunden.

Lord Christopher Monckton, leitender Politikberater des Science and Public Policy Institute, stellt viele von den AGW-Propagandisten verbreiteten Mythen bloß und zeigt, dass viele ihrer Behauptungen nichts als absurd sind. Monckton weist nach, dass das Jahr 2014 im Gegensatz zu den Behauptungen der Alarmisten nicht das wärmste Jahr jemals war. Durch wunderbar illustrierte Graphiken zeigt Monckton, dass die von den UN und Anderen zum „Beweis“ für AGW verwendeten mathematischen Modelle voller Fehler stecken und regelmäßig Klimaprojektionen zeigen, die nicht den gemessenen Temperaturen oder Wetterphänomenen entsprechen.

Jennifer Marohasy und John Abbot vom Climate Modelling Laboratory in Australien untersuchen Daten multipler Wetterstationen in zahlreichen Städten. Ihre Ergebnisse enthüllen, dass die Wetter-Laboratorien der australischen Regierung absichtlich Daten verzerrt haben, um wärmere Temperaturen als tatsächlich von Instrumenten gemessen anzuzeigen.

Natürliche Klimafaktoren

D’Aleo und der Meteorologe Madhav Khandekar weisen nach, dass verschiedene Wetterphänomene – wie extreme Hitze und Kälte, Überschwemmungen, Dürren, Zyklone und Tornados – nicht in Beziehung zum globalen Klima stehen. Sie weisen auch darauf hin, dass weitaus mehr Menschen durch Kälte sterben als durch hohe Temperaturen.

Easterbrook legt hier einen prall mit Fakten gefüllten Beitrag vor und zeigt, dass sowohl Satellitenbeobachtungen als auch Temperaturaufzeichnungen an der Erdoberfläche sowie Wassertemperaturen eine Abkühlung des Westantarktischen Eisschildes belegen, was im Gegensatz steht zu zahlreiche Medien-Behauptungen. Zusätzlich zeigen die von Easterbrook präsentierten Aufzeichnungen, dass Temperaturfluktuationen in Grönland und der Arktis die vollständigsten Aufzeichnungen sind, als man anderswo heute finden kann.

Easterbrook merkt an, dass obwohl die Nachrichten fast täglich über das „beschleunigte Abschmelzen der arktischen Eiskappe“ berichten, dies in Wirklichkeit nicht der Fall ist. Lediglich eine Ausbreitung schwimmenden Eises im Arktischen Ozean ist zu verzeichnen, welches sich ausdehnt und verdickt oder schrumpft und verdünnt im Zuge jahreszeitlicher Variationen.

Easterbrooks Kapitel zu Treibhausgasen sollte Lehrmaterial für Studenten an Hochschulen ebenso wie für Oberschüler sein. Easterbrook zufolge ist Wasserdampf ursächlich für den größten Treibhauseffekt, weil es infrarote Strahlung absorbiert und emittiert, und zwar bei viel mehr Wellenlängen als jedes andere Gas und volumenmäßig weitaus stärker als alle anderen Treibhausgase. Kohlendioxid allein macht nur 0,04% der Atmosphäre aus und 3,6 Prozent des Treibhausgas-Effektes. Mittels verständlicher und informativer Graphiken zeigt Easterbrook, dass die vom Menschen der Atmosphäre zugesetzte Menge Kohlendioxid keinesfalls in der Lage ist, die Temperatur der Erde um etwa 5°C steigen zu lassen, wie es viele AGW-Alarmisten prophezeien.

Meeresströme und Temperatur

In einem anderen Kapitel erläutern D’Aleo und Easterbrook gestützt auf anschauliche Farbillustrationen die Verbindung zwischen multidekadischen Oszillationen und damit korrespondierende globale Temperaturtrends. Obwohl nur wenige am Klimawandel interessierte Menschen die Beziehung zwischen Änderungen der Meeresströme und Temperatur verstehen, spielen diese Phänomene immer eine zentrale Rolle, wie D’Aleo und Easterbrook zeigen.

Nils-Axel Mörner, ehemaliger Leiter des Fachbereiches Paläogeophysik und Geodynamik an der Stockholm University, weist nach, dass die Öffentlichkeit mit falschen Behauptungen bzgl. eines mit alarmierenden Raten steigenden Meeresspiegels überhäuft wurde. Mörner weist auch nach, dass der Meeresspiegel nicht mit ungewöhnlich starken Raten steigt, weder regional noch global.

Horrorszenarien, denen zufolge „ein Anstieg des Meeresspiegels um einen Meter oder mehr bis zum Jahr 2100 erfolgen soll, verletzen physikalische Gesetze, beobachtete Fakten und geoethische Prinzipien und müssen jetzt verworfen werden“ schrieb Mörner.

Hier kommt die Sonne

Drei Kapitel stellen die Auswirkungen der Sonne auf das Erdklima in den Mittelpunkt. Sonnenflecken, solare Einstrahlung, kosmische Strahlen sowie Entstehungsraten von Radiokarbon und Beryllium, welche abhängig sind von kosmischer Strahlung, beeinflussen allesamt die Temperatur der Erde. Trotzdem werden diese Faktoren fast vollständig in den mathematischen Modellen ignoriert, welche vermeintlich die Temperatur der Erde bis zu einem Jahrhundert im Voraus vorhersagen sollen.

Den Berichten des IPCC zufolge haben Änderungen der Sonnenaktivität nur eine extrem geringe Auswirkung auf das Klima der Erde. Die Kapitel in diesem Buch zeigen auf, wie offenkundig absurd diese Hypothese ist. Die Tatsache, dass sich andere Himmelskörper in unserem Sonnensystem gleichzeitig mit unserem eigenen Planeten erwärmen und abkühlen, zeigt den mächtigen, ja absolut dominanten Einfluss, die die Sonne auf Temperatur und Klima der Erde hat.

Auf Beweisen beruhende Klimawissenschaft bringen all die vermeintlich felsenfesten Argumente für die CAGW-Theorie zum Einsturz. Es wird wahrscheinlich viele Jahre dauern, bis erneut eine solche, den Klimawandel-Alarmismus widerlegende großartige Zusammenstellung erscheint, wie es mit diesem Buch der Fall ist.

Jay Lehr, Ph.D. (jlehr@heartland.org) is science director of The Heartland Institute.

Das Buch: Evidence-Based Climate Science: Data Opposing CO2 Emissions as the Primary Source of Global Warming, 2nd Edition, by Don Easterbrook [Contributing Editor] (Elsevier), October 13, 2016, 432 pages, ISBN-13: 978-0128045886; $131.63 on Amazon.com.

Link: https://www.heartland.org/news-opinion/news/new-book-destroys-agw-myth-gets-the-climate-science-right

Übersetzt von Chris Frey EIKE




Mehr Diabetes durch Klimawandel?

Heilpraxisnet.de, 23.03.2017: Studie: Klimaerwärmung bewirkte mehr Diabetes-Typ2-Patienten
ORF.at: [3]
Mehr Diabetes durch Klimawandel?
… Schon jetzt hat der Klimawandel konkrete gesundheitliche Folgen, sagen Forscher. Sie führen die weltweite Zunahme an Typ-2-Diabetes unter anderem auf die globale Erwärmung zurück. Denn die Außentemperatur verändert den Fettstoffwechsel.
In Mitteleuropa ist die Zahl der Diabetiker seit 1998 um rund 40 Prozent gestiegen.
… Dieser Zusammenhang mit der Außentemperatur veranlasste die niederländischen Wissenschaftler zu einer überraschenden Hypothese: Die in Folge der Klimaerwärmung steigenden Temperaturen könnten für die weltweite Diabetes-Epidemie mitverantwortlich sein.

Die Studie

Sich sowohl mit Statistik, als auch dem Klimawandel auskennende Forscher in den Niederlanden haben es in mühevoller –sicher auch aufwendiger und viele Forschungsmittel „verschlingenden“ Arbeit zum Wohle der Menschheit – herausgefunden, indem sie ganz genau die US-Daten von 1996 – 2009, also über zehn lange Jahre mit den riesigen, dazwischen gemessenen Temperaturveränderungen (es soll während dieser Zeit sogar so etwas wie einen Wärmestillstand gegeben haben) einer meta-Regressionsanalyse unterwarfen, wobei herauskam, dass die Diabetikerrate mit 0,17 % / Grad Temperaturerhöhung ansteigt.
Klar, wurde über diese Erkenntnis der klimamedizinischen Wissenschaft sofort berichtet:
[1] Lisanne L Blauw at al., Studie: Diabetes incidence and glucose intolerance prevalence increase with higher outdoor temperature

Abstract

Objective Rising global temperatures might contribute to the current worldwide diabetes epidemic, as higher ambient temperature can negatively impact glucose metabolism via a reduction in brown adipose tissue activity. Therefore, we examined the association between outdoor temperature and diabetes incidence in the USA as well as the prevalence of glucose intolerance worldwide.
Research design and methods Using meta-regression, we determined the association between mean annual temperature and diabetes incidence during 1996–2009 for each US state separately. Subsequently, results were pooled in a meta-analysis. On a global scale, we performed a meta-regression analysis to assess the association between mean annual temperature and the prevalence of glucose intolerance.
Results We demonstrated that, on average, per 1°C increase in temperature, age-adjusted diabetes incidence increased with 0.314 (95% CI 0.194 to 0.434) per 1000. Similarly, the worldwide prevalence of glucose intolerance increased by 0.170% (95% CI 0.107% to 0.234%) per 1°C rise in temperature. These associations persisted after adjustment for obesity.
We restricted our analysis to the 1996–2009 period as major changes in the survey methods were implemented between 2010 and 2011.

Studienergebnis: Schlimmer gehts eigentlich nimmer

Eine Grafik aus der Studie (Bild 1, mit Kennzeichung des Datensatzes USA durch den Autor) belegt das sich anbahnende Klima-Drama:
Von -5 bis ca. +20
°C steigt die Diabetesrate kontinuierlich an und ab so ca. 25°C bekommt ein (US-) Erdenbürger fast unweigerlich eine Glukose-Intolleranz.
Der ermittelte Vertrauensbereich ist überraschend eng, so dass den berechneten Angaben geglaubt werden kann. Der Computer hat richtig aus K/Wurzel der Probenanzahl „Vertrauen“ berechnet und da n groß war, sehr viel Vertrauen zu den Daten heraus bekommen. Angewandte, vertrauenswürdige (Computer-)Statistik eben, wie man es bei Wissenschaftlern erwarten kann.
Auf jeden Fall ist das Ergebnis eindeutig:
Schlimmer gehts eigentlich nimmer: Der Klimawandel erhöht die Krankenzahl und dann erscheint auch noch einer der berühmten Klimawandler-Kipppunkte, an dem jede Rettung verloren ist.

Bild 1 Verlauf der Aussentemperatur und Häufigkeit von Glukose-Intolleranz [1]. Original: Figure 3 The worldwide association between mean annual temperature and age-adjusted, sex-adjusted, income-adjusted and obesity-adjusted prevalence of raised fasting blood glucose for 190 countries in 2014. Colors indicate the six WHO regions. The size of each circle is inversely proportional to the SE of the estimate of the prevalence of raised FBG. FBG, fasting blood gl. Punktwolke USA vom Autor umrandet, rot hinterlegt und gekennzeichnet.

Was so sorgfältig berechnet wurde, gilt auch außerhalb der USA?

Fleissig, wie die Studienautoren waren, zeigen sie im gleichen Bild zusätzlich, wie die Daten in anderen Weltgegenden aussehen. Der Autor hat im Bild 2 dazu ganz grob die Daten-Punkthaufen aus Bild 1 mit Farbwolken markiert.
Ergebnis: Die für die USA so exakt berechneten Korrelationen und Regressionen – sind in keiner Gegend der Welt wieder zu finden. Wer zwischen Europa und Afrika lebt, kann von 5 … 30 °C die gleiche Diabetesrate haben. Eastern Mediterranean verhält sich ähnlich, nur als wärmere Gegend von ca. 20 … 30 °C. Western Pacific zeigt sich als Ausreisser, indem zuerst die Rate mit steigender Temperatur abnimmt und zum Schluss gar keinen Trend, sondern eine extrem große, regellose Bereichsspanne zeigt.

Bild 2 Bild 1 mit vom Autor gekennzeichneten Punktwolken der Regionsdaten

Anteil des „Klimawandel-Einflusses“ auf den Verlauf

Um nachzusehen, ob der in der Studie angegebene Temperaturbeiwert nicht doch irgendwie global stimmen könnte, hat der Autor Daten gegoogelt, in eine Tabelle übertragen und orientierend nachgerechnet. Dabei sind große Fehler enthalten, wie man am Beispiel Deutschland sieht. Grund sind die unterschiedlichen Definitionen und Datenbereinigungen. Für die vorgesehene, orientierende Betrachtung reichen aber selbst diese groben Daten aus.

Bild 3 Trendverlauf des von Diabetes betroffenen Bevölkerungsanteils auf Fiji. Quelle [4]
Bild 4 Trendverlauf des von Diabetes betroffenen Bevölkerungsanteils auf Tonga. Quelle [4]

Bild 5 Trendverlauf des von Diabetes betroffenen Bevölkerungsanteils Deutschlands. Quelle: statista

Bild 6 Daten zu Diabetes von verschiedenen Ländern, vom Autor zusammengestellt

Als Kennzahl ist der aus den Differenzjahren und gelisteten Erhöhungen berechnete Hilfswert “Äquivalente Temperaturerhöhung” aufschlussreich. Diese Temperatur-Differenzzahl gibt an, um welchen Wert die Temperatur innerhalb von 20 Jahren hätte ansteigen müssen, um die gelisteten Diabetesraten-Änderungen in den Ländern auf Basis des in der Studie angegebenen Temperatur-Beiwertes von 0,17 % / °C zu verursachen.

Wie man sieht, sind die Werte extrem zu hoch. Der allein mögliche Rückschluss daraus ist, dass die Temperatur – wenn überhaupt – einen wesentlich niedrigeren – und damit kaum signifikanten – direkten Anteil an der Krankenrate hat. Und dass der in der Studie ermittelte Regressionswert auch aufgrund dieser Betrachtung global nicht stimmen kann. Selbst für die USA als Einheit ist er nicht entfernt anwendbar.

Was nicht heißt, dass Diabetes kein weltweites Problem wäre

[2] Das „tödlich-süße“ Leben in der Südsee Pazifik-Völker durch Diabetes vom Aussterben bedroht
Wenn man die Landkarte der übergewichtigen Menschen auf unserem Planeten betrachtet, findet man auf der nördlichen Hälfte des amerikanischen Kontinents in den Ländern Mexiko und USA die Spitzenreiter bei den Festlandbewohnern. Die absolut meisten dicken Menschen – gemessen an der Bevölkerung – findet man aber auf den Inseln des Pazifik und Ozeaniens.
Die Auswirkungen des modernen Lebens hat viele Insulaner zuckerkrank gemacht. Jetzt droht ganzen Inselvölkern wegen Diabetes der Untergang.
Laut WHO-Statistik sind in Tonga 91 Prozent der Bevölkerung übergewichtig, so viele wie in kaum einem anderen Land der

Welt. Unter den ersten zehn dicksten Ländern der Erde befinden sich acht Pazifikstaaten. Erst auf den Plätzen neun und zehn kommen die Mexikaner und Amerikaner.
Auf Tonga, Guam, Kiribati und den Marshall Islands ist Typ-2-Diabetes die größte Bedrohung für die Gesundheit der Bevölkerung. Weil sich viele Menschen der Ursachen der Krankheit nicht bewusst sind, müssen immer häufiger Gliedmaßen amputiert werden. Die vielen Diabetes-Fälle drücken auch auf die durchschnittliche Lebenserwartung:
Frauen werden statistisch 66,1, Männer gerade einmal 58,8 Jahre alt.
Neben der kulturellen Bedeutung des Essens und der schnellen Verwestlichung dieser Länder spielt die genetische Vorbestimmung durch das „thrifty gen“ eine große Rolle. Dieses „knausrige Gen“ findet sich bei vielen traditionellen Völkern des Pazifikraums. Es bewirkt, dass jede noch so kleine Menge Fett im Körper gespeichert wird.
Zu Zeiten des oft tagelangen Fischfangs auf dem Meer war das Gen sicher hilfreich, aber heute entwickelt es sich zum Risikofaktor. Und nicht zuletzt gehen Wohlstand und hoher Status für viele Pazifikvölker von jeher mit einer gewissen Körperfülle einher. Daran hat sich bis heute nur wenig geändert. Ob Schönheitswettbewerbe mit dem Titel „Fat is beautiful“ oder Feste, bei denen sich die Tische biegen unter der Last der Speisen – es gilt die Regel: Je mehr, desto besser.

Das Gesundheitssystem in Saudi-Arabien: [6] Die Konsequenzen dieser Mangelbewegung, Fehlernährung und der sozialen Stigmatisierung von sportlicher Aktivität äußern sich neben Übergewicht vor allem in klassischen Zivilisations- oder Wohlstandskrankheiten. So hat sich der Anteil von Diabetikern in Saudi-Arabien exorbitant erhöht.
Immerhin sind 40% der übergewichtigen Bevölkerung vermehrt anfällig für Diabetes. Seit 2004 stieg die Zahl der Diabetiker von 23,7% auf etwa 28%, während sie Mitte der 1980er Jahre noch bei 8% lag.
76 Damit hat sich der Anteil im Vergleich zum
weltweiten Durchschnitt etwa vervierfacht.

Neben Bahrain, den Vereinigten Arabischen Emiraten, Oman und Kuwait gehört Saudi-Arabien zu den Golfländern, die zu den zehn Ländern mit der weltweit höchsten Diabetesrate zählen. Diabetes ist so in den letzten Jahrzehnten zur Volkskrankheit Nummer eins in Saudi-Arabien geworden und der Staat versucht mit diversen Aufklärungsmaßnahmen über die Konsequenzen der Krankheit aufzuklären; die Mehrheit der saudischen Bevölkerung verfügt kaum über Informationen über den Zusammenhang zwischen Übergewicht, Fehlernährung und Diabetes.

Welt N24, 9.2013: [10] China erlebt eine Diabetes-Katastrophe
In China hat sich die Zahl der erwachsenen Diabetiker innerhalb der letzten 30 Jahre verzehnfacht: Die Volksrepublik zählt heute 22 Millionen Menschen mit Diabetes – so viel wie die gesamte australische Bevölkerung. Das heißt: Fast jeder dritte Diabetiker weltweit lebt in China.
Während ihr Anteil an der erwachsenen Bevölkerung 1980 unter einem Prozent gelegen habe, sei er bis 2010 auf 11,6 Prozent angestiegen …

Soll man aufgrund dieses Studienergebnisses nun, anstelle Insulin (genmanipuliert!) und Prävention (wird nicht vom Klimafonds auf Politikerkonten überwiesen) zu produzieren, mit viel Geld CO2 vermeiden, um die Rate zu senken?

Der Vergleich ist nicht zufällig. Die Hockeystick-Kurve hat keine vertrauenswürdigere Geschichte als diese Studie. Wobei es einen schon entsetzt, dass sich sieben Autor*innen trauen, so eine Studie zu veröffentlichen (der Druck zum Publizieren ohne Rücksicht auf Inhalt und Seriosität muss enorm sein). Aber beim Klimawandel ist jedes Niveau ausreichend – sofern es zustimmende Daten liefert – und die Medien glauben es ja.
Für das, was sich aufgrund der künstlich erzeugten Klimahysterie unaufhaltsam – genährt durch die Gelder des Klimafonds – an weltweitem „Beleg“-Unsinn „anbraut“, ist die Studie jedenfalls (wieder) ein gutes Beispiel.

Auf dem Blog Ruhrkultour (dessen Artikel Anlass zu diesem EIKE-Beitrag war), sah man es gelassener und brachte neben weiteren Beispielen auch ein Abschlussstatement:
Ruhrkultour: [11]
Brexit, Dürre und Diabetes – der Klimawandel war’s!
Lasst uns Störche zählen
Die Hypothese vom menschengemachten Klimawandel ist aus einem wissenschaftlichen Labor entwichen. Sie wird nicht mehr diskutiert, wie Jörg Rehmann dies in seinem Artikel Kafkaeske im Fake-Staat am Beispiel eines Gerichtsurteils zu Gunsten der Umweltbehörde gegen den Journalisten Michael Miersch aufgezeigt hat. Einmal von Politikern wie Barack Obama wider besseren Wissens in die Welt gesetzt, wandelt sich die Klimawandel-Hypothese in eine absolute Wahrheit und wird zum Maßstab der Politik, der Gerichte und der wissenschaftlichen Forschung.
Die Auswirkungen des Klimawandels auf die Wissenschaft ist beachtlich. Der Klimawandel schafft ungeahnte Möglichkeiten für die Akquisition von Forschungs- und Fördergeldern. Es würde niemanden wundern, wenn lange nach dem Zeitalter der Aufklärung moderne Wissenschaftler Forschungsgelder dafür erhalten, dass sie – länderübergreifend – herausfinden sollen, ob die Anzahl der Störche mit der Geburtenrate korreliert. Daten können dies bestätigen, wenn man etwas von Datenkosmetik versteht. Dennoch dürfte jeder wissen, dass die Korrelation zwischen dem Verschwinden der Störche und der sinkenden Geburtenrate eine Scheinkorrelation ist.
Vielleicht wird ja bald eine Studie mit öffentlichen Mitteln finanziert werden, die den Zusammenhang zwischen der Anzahl der Windkraftanlagen, die den Klimawandel aufhalten sollen, der Anzahl geschredderter Störche und der Verringerung der Geburtenrate untersucht

Quellen

[1] Lisanne L Blauw at al., Studie: Diabetes incidence and glucose intolerance prevalence increase with higher outdoor temperature

[2] Publikation: Das „tödlich-süße“ Leben in der Südsee Pazifik-Völker durch Diabetes vom Aussterben bedroht

[3] ORF.at: Mehr Diabetes durch Klimawandel?

[4] UNSW Australia: NCD in Pacific Island States: evolution, control and surveillance

[5] WELT N24: Studie mit Grönländern will Diabetes-Ursache klären

[6] Studie des Deutschen Orient-Instituts, März 2011: Das Gesundheitssystem in Saudi-Arabien

[7] statista: Prävalenz von Diabetes mellitus in Deutschland nach Geschlecht in den Jahren 1998 und 2012
https://de.statista.com/statistik/daten/studie/233462/umfrage/praevalenz-von-diabetes-mellitus-in-deutschland-nach-geschlecht/

[8] aerzteblatt.de, 8. September 2015: USA: Jeder zweite Erwachsene hat Diabetes oder Prädiabetes

[9] Deutsche Diabeteshilfe: Diabetes in Zahlen
http://www.diabetesde.org/ueber_diabetes/was_ist_diabetes_/diabetes_in_zahlen

[10] Welt N24, 9.2013: China erlebt eine Diabetes-Katastrophe

[11] Ruhrkultour: Brexit, Dürre und Diabetes – der Klimawandel war’s!




Wie WIKIPEDIA unliebsame Klimainfos manipuliert: Wikipedia und der Hamburger Forsythien­strauch

Schauen wir zunächst auf die letzten 30 Jahre, ein Zeitraum der kimawissenschaftlich Relevanz besitzt (Abb. 1). Auf der X-Achse sind die Jahre seit 1988 aufgetragen, auf der Y-Achse der Blühtermin, gemessen in Tagen nach Jahresbeginn (1. Januar). Gut zu erkennen ist der deutliche Verspätungstrend beim Blühen. Der neue Datenpunkt aus diesem Jahr (2017) passt sich bestens in diesen Trend ein. Späteres Blühen ist in der Regel ein Anzeichen für einen kalten Winter (Abb. 2). Insofern will der unbestechliche Hamburger Forsythienstrauch so gar nicht in das Erzählmuster einer katastrophalen Klimaerwärmung passen.

Abbildung 1: Verschiebung des Blühtermins von Forsythiensträuchern auf der Hamburger Lombardsbrücke während der letzten 30 Jahre. Auf der X-Achse sind die Jahre seit 1988 aufgetragen, auf der Y-Achse der Blühtermin, gemessen in Tagen nach Jahresbeginn (1. Januar).

Abbildung 2: Entwicklung der Februar-Temperaturen in Deutschland während der vergangenen 30 Jahre. Daten DWD. Graphik: Kowatsch

Aufgrund seiner klimaologischen Relevanz besitzt der Hamburger Strauch sogar seine eigene Wikipedia-Seite. Bis zum Februar 2017 war die Seite relativ knapp gehalten und bestand eigentlich nur aus einem Unterkapitel mit dem Titel “Geschichte”. Dort hieß es damals (beim Link ganz nach unten scrollen um die Seitenversion zu begutachten):

Der Hamburger Forsythien-Kalender ist die phänometrische Aufzeichnung der Zeitpunkte des Blühbeginns der Forsythiensträucher an der Lombardsbrücke in Hamburg seit 1945.

Geschichte

Im zerstörten Hamburg, kurz vor Ende des Zweiten Weltkriegs, fielen Carl Wendorf am 27. März 1945 die blühenden Forsythiensträucher inmitten der Trümmer an der Lombardsbrücke auf. Er beschloss jedes Frühjahr den Blühbeginn zu notieren, was zu einer lückenlosen Aufzeichnung ab 1945 führte. Seit dem Tod von Carl Wendorf im Jahr 1984 führt Jens Iska-Holtz diese Liste weiter. Er meldet die Daten als phänologischer Beobachter an den Deutschen Wetterdienst.[1][2]

Die zunehmende Verspätung des Blühens während der letzten 30 Jahre blieb seltsamerweise im Wikipedia-Artikel unerwähnt. Kürzlich kontaktierte uns ein Naturfreund, dem diese Informationslücke auf der Wikipedia-Seite ebenfalls aufgefallen war. Der anonym bleiben wollende Naturfreund erklärte, dass er sich in der Mitte zwischen den Klimalagern verortet sehe, beide Seiten hätten zum Teil gute Argumente. Er hatte vom kruden Vorwurf von Seiten der Skeptiker gelesen, dass Wikipedia angeblich von Klimaktivisten unterwandert wäre. Dies sei schwer nachvollziehbar, dachte er sich.

Daher wagte er ein Experiment. Ganz oben auf der Wikipedia-Seite gibt es die Reiter “Bearbeiten” und “Versionsgeschichte“. Dort kann Jedermann/Jederfrau Ergänzungen oder Korrekturen von Wikipediaartikeln vornehmen. Am 8. Februar 2017 loggte sich der Naturfreund als “Greenway21″ bei Wikipedia ein und schlug eine wichtige Ergänzung auf der Seite des Hamburger Forsythienstrauches vor:

Während der letzten 50 Jahren ist ein generelles Vorrücken der Forsythienblüte im Jahresverlauf zu erkennen. Seit 1988 allerdings verspätet sich der Blüh-Termin der Hamburger Forsythien wieder zunehmend. [3]

Ein wissenschaftlich einwandfreies Statement, beschreibt es doch in fairer Weise zum einen den Langzeittrend und andererseits den hochrelevanten aktuellen Trend der letzten 30 Jahre. Die offizielle Langzeitreihe seit 1945 können Sie auf dieser Webseite des Deutschen Wetterdienstes anschauen (zweite Graphik auf der Seite, gelbe Kurve). Das Experiment hatte begonnen. Würden die Wikipedia-Redakteure die wichtige Ergänzung zulassen und freischalten? Es dauerte keine halbe Stunde, da war die Ergänzung wieder rückgängig gemacht. Ein Seiten-Editor mit dem Codenamen “DeWikiMan” verweigerte die Aufnahme. Grund: Der Trend zum verspäteten Blühen während der letzten 30 Jahre wäre statistisch nicht ausreichend belegt. Schauen Sie sich Abbildung 1 nocheinmal genau an. Ist der Trend wirklich nicht erkennbar?

Ganz offensichtlich wurde hier ein wichtiger Zusatz aus persönlichen Gründen blockiert. Daher lohnt sich ein Blick auf die Person “DeWikiMan”. Wer steckt dahinter? In seinem Wikipedia-Profil outet er sich als ökologisch Interessierter:

Mein Hauptinteresse hier gilt allem, was mit Umweltökonomik, Ökologischer Ökonomik und speziell Klimaökonomik (das Rot schmerzt!) zu tun hat.

Genau so stellt man sich einen Klimaaktivisten vor. Ein klassischer Torwächter, der auf Wikipedia nur Inhalte zulässst, die mit seiner Ideologie übereinstimmen. Auf keinen Fall ein guter Inhalts-Schiedsrichter für diese wichtige Online-Enzyklopädie. Aber DeWikiMan setzte noch einen oben drauf. Er grübelte 11 Tage und schrieb dann selber einen längeren Absatz, den niemand hinterfragte, ja hinterfragen konnte, denn DeWikiMan hatte ja die Änderungsmacht. Am 19. Februar 2017 erschien auf der Wikipedia-Seite ein ganz neues Unterkapitel mit dem kuriosen Titel “Früherer Blühbeginn“, also dem genauen Gegenteil des aktuellen Trends:

Im Jahr 1995 stellte der DWD fest, dass die Lombardsbrücke mit einer Verfrühung um 26 Tage in 50 Jahren von allen Standorten mit einer phänologischen Datenreihe den stärksten Trend aufwies.[3] Auch 2015 konstantierte der DWD für den Zeitraum zwischen 1945 und 2014 einen Trend zu einem immer früheren Blühbeginn.[4] Neben Änderungen des Klimas sind auch andere Änderungen der Umwelteinflüsse an diesem urbanen Standortes als Ursache in Betracht zu ziehen.[2][3] Hinzu kommt, dass die Forsythie, wenn kein ausreichender Kältereiz vorhanden ist, nicht unbedingt der Temperatur folgt. So gab es im Winter 2006/2007 ein Temperaturmaximum an der Lombardsbrücke, dennoch blühte die Forsythie relativ spät, deutlich nach ihrem Rekordwert 2001/2002, weil im warmen Winter 2006/2007 der Kältereiz gefehlt hatte.[4]

Der Wikipedia-Klimaaktivist nutzte seinen Hebel, um die Desinformation auf die Spitze zu treiben. Anstatt im Text in transparenter Weise auch Raum für den unbequemen Trend der letzten 30 Jahre zu schaffen, umtänzelt er ihn und betrachtet lediglich das für ihn passende Zeitfenster von 60 Jahren. Bitterböses Rosinenpicken. Wir danken Naturfreund “Greenway21″ für diesen wichtigen Test, der in eindrucksvoller Art und Weise bestätigt, dass Klimaaktivisten die Wikipedia-Seite gekapert und fest im Griff haben. DeWikiMan ist als Editor schwer haltbar geworden und Wikipedia sollte seine Aktivitäten einmal etwas genauer unter die Lupe nehmen. Schade, dass das ursprünglich ausgezeichnete Konzept einer von Freiwilligen geschriebenen Online-Enzyklopädie von politischen Aktivisten gekapert und in sensiblen Themenbereichen unbrauchbar gemacht wurde.

Link: http://kaltesonne.de/eine-unglaubliche-geschichte-wikipedia-und-der-hamburger-forsythienstrauch/




Philipp Lengsfeld (MdB, CDU) fordert mehr Offenheit in der Klimadebatte

Eine deutsche Text-Version des Vortrags kann jetzt hier als pdf heruntergeladen werden. Die englischen Vortragsfolien gibt es hier. Benny Peiser von der ausrichtenden GWPF führte zudem das folgende Interview mit Vahrenholt:

Eine Besprechung des Vortrags gibt es von Konstantin Kirsch.

 

———————————————

Ebensfalls höchst sehenswert ist ein Vortrag von Philipp Lengsfeld (MdB, CDU), den er anlässlich der EIKE-Klimatagung im November 2016 in Berlin hielt:

———————————————

Neues gibt es auch vom Institut für Hydrographie, Geoökologie und Klimawissenschaften (IFHGK). Band 5 der Schriftenreihe ist nun fertiggestellt und ist unter www.ifhgk.org bzw. http://www.ifhgk.org/schriftenreihe/ abrufbar. In den nächsten 10 Tagen wird er dann auch wieder im Buchhandel erhältlich sein.

 

———————————————

Judith Curry erläuterte kürzlich im britischen Radio, weshalb sie bei den Klimawissenschaften erheblichen Nachbesserungsbedarf sieht. Siehe auch Bericht hierzu auf WUWT.

Video nicht mehr verfügbar

Übernommen mit freundlicher Genehmigung von Kaltesonne.de

Erschienen am 17. Februar 2017




Vor 30 Jahren: „Klimasprung“ in Mittel- und Westeuropa- ein kleiner, kurzatmiger Hüpfer

Deutschland: Unterschiedlicher Temperaturverlauf im Winter und Sommer

Betrachtet man das Temperaturverhalten, beginnend mit dem am Anfang des „Klimasprungs“ stehenden Mildwinter 1987/88 im Vergleich zum Sommer 1987 bis 2016 und für das Jahr insgesamt, so zeigt sich folgendes Bild:

Abbildung 1: Seit 30 Jahren (eine volle Klima- Normalperiode!) stagnieren die Temperaturen in Deutschland bei großer Streuung der Einzelwerte fast. Der Sommer (obere Gerade) erwärmte sich dabei etwas stärker als das Jahr (Mitte), während sich der Winter etwas abkühlte. Diese unterschiedliche, insgesamt aber sehr moderate Temperaturentwicklung lässt sich mit der seit 1987/88 massiv angestiegenen CO2- Konzentration nicht erklären. Um alle drei Messreihen anschaulicher in einer Grafik darstellen zu können, wurden die Winterwerte per Addition angehoben, die Sommerwerte durch Subtraktion abgesenkt. Die Schwankungen werden dadurch nicht beeinflusst.

Der „Klimasprung“ und dessen Ursachen

Nicht nur in Deutschland, auch in Zentralengland lässt sich der „Klimasprung“ erkennen. Die folgende Grafik liefert eine mögliche Ursache, die AMO, eine Wassertemperaturschwankung im zentralen Nordatlantik, gleich mit. Nach der letzten AMO- Kaltphase (Höhepunkt 1970er Jahre) setzte ab 1981 der Übergang zu einer neuen AMO- Warmphase ein:

Abbildung 2: Tendenziell ist es in AMO- Warmphasen (1930er bis 1950er Jahre und etwa ab 1990) in West- und Mitteleuropa etwas wärmer. Man erkennt den markanten Anstieg der Jahresmitteltemperaturen in Zentralengland ab 1988; der AMO- Anstieg begann nur wenige Jahre früher und verlief in den 1990er und den frühen 2000er Jahren sehr steil; doch neuerdings deutet sich wieder eine geringe Abkühlung an. Für diese und alle folgenden Grafiken mussten Indexwerte berechnet werden, um die wertemäßig sehr unterschiedlichen Messgrößen in einer Grafik darstellen zu können. Die Trends und Schwankungen blieben dabei aber erhalten.

Die AMO- Werte sind seit 1856 verfügbar; verlässliche Temperaturwerte für Deutschland aber erst seit 1881. Insgesamt ähneln sich die Temperaturverläufe der CET und der Deutschlands; wobei die Deutschlandwerte langfristig; vermutlich wärmeinselbedingt, stärker gestiegen sind. Um den unruhigen Verlauf etwas stärker zu glätten, wurde ein 15- jähriges Gleitmittel verwendet:

Abbildung 3: Das längere, endbetonte Gleitmittel verlegt den „Klimasprung“ etwas nach hinten und wirkt dämpfend. Man erkennt aber den markanten Temperatursprung um 1,7 °C vom Jahr 1987 (nur 7,4°C) auf 1988 (9,1°C) dicht links des rotvioletten Pfeils. Die Jahre 1989 und 1990 waren dann mit je 9,5°C sogar um 2,1°C wärmer als 1987; ein Wert, der übrigens auch 2016 wieder erreicht wurde.

Die AMO beeinflusst aber auch die Häufigkeitsverteilung bestimmter Großwetterlagen. Am stärksten erwärmend wirken in Deutschland die Südwestlagen (Großwettertyp SW, gebildet aus der Summe der Großwetterlagen SWA und SWZ):

Abbildung 4: Ab der Mitte der 20. Jahrhunderts, besonders aber nach 1990, traten Südwestlagen viel häufiger auf, als im späten 19. und frühen 20. Jahrhundert. Sie lösten zwar nicht den „Klimasprung“ unmittelbar aus; ihre enorme Häufung nach 1990 bewirkte aber, dass das Temperaturniveau hoch blieb.

Eine weitere Erwärmungsursache – die längere Sonnenscheindauer

In West- und Mitteleuropa wurde es in den vergangenen Jahrzehnten deutlich sonniger (längere Sonnenscheindauer). Als Ursachen kommen Luftreinhaltemaßnahmen (weniger Aerosole, dadurch weniger Dunst, Nebel und tiefe Wolken), die Sonnenaktivität selbst (SVENSMARK- Effekt) und verschiedenste Wärmeinseleffekte, besonders eine verminderte Verdunstung mittels Melioration, Bodenversiegelung und geänderte Landnutzung, in Betracht. Leider gibt es für die Sonnenscheindauer keine so langfristigen Flächenmittel, wie für die Lufttemperaturen. Immerhin liegt sie aber für Großbritannien bis 1929 vor. Weil die Sonnenscheindauer besonders im Sommer stark erwärmend wirkt, wird im Folgenden nur der Sommer betrachtet. Wegen der einigermaßen langen Zeitreihe wurden die 31ig- jährigen, endbetonten Gleitmittel berechnet:

Abbildung 5: Nach 1990 war die sommerliche Sonnenscheindauer insgesamt höher und hielt die Sommertemperaturen, welche aber in Zentralengland seit Mitte der 2000er Jahre stagnieren, auf einem hohen Niveau.

Ein Deutschland- Mittel der Sonnenscheindauer liegt leider erst seit 1951 vor. Die folgenden 2 Grafiken zeigen den Verlauf der jährlichen und der sommerlichen Sonnenscheindauer, jeweils in Relation zu den Jahresmittel- und den Sommertemperaturen:

Abbildungen 6 a und 6b: Mit dem „Klimasprung“ stieg auch die Sonnenscheindauer, welche besonders zwischen den 1960er und den 1980er Jahren etwas geringer war, wieder an. Besonders im Sommer wirkt eine längere Sonnenscheindauer in Deutschland stark erwärmend; sie beeinflusste die Variabilität der Lufttemperaturen seit 1951 zu fast 60%.

Kurzfristigere Betrachtungen

Seit Mitte 1979 liegt für Deutschland die beim Deutschen Wetterdienst entwickelte „Objektive Wetterlagenklassifikation“ vor, welche im Folgenden in die Betrachtungen einbezogen werden soll. Im Jahresmittel (folgende Grafik) erkennt man eine vorübergehende Häufigkeitszunahme der am stärksten erwärmend wirkenden Wetterlagen von den späten 1980er bis zu den frühen 2000er Jahren:

Abbildung 7: Während die Häufigkeit der am stärksten erwärmend wirkenden Wetterlagen ab Mitte der 2000er Jahre wieder abnahm, blieb die Sonnenscheindauer hoch.

Bei den Wetterlagen lohnt ein genauerer Blick auf den Winter. In diesem bewirkt eine Häufung der Lagen mit Westanteil, besonders der mit WA- Anteil (antizyklonal in der Höhe der 500hPa- Fläche oder am Boden oder in beiden Niveaus), immer sehr milde Witterung:

Abbildung 8: Im Winter, in dem die Sonnenscheindauer wenig bedeutsam für die Lufttemperaturen ist, nahm ab 1987/88 die Häufigkeit der stark erwärmend wirkenden Lagen mit WA- Anteil stark zu, um mit Beginn der 2000er Jahre wieder etwas zu sinken. Dieses Verhalten erklärt auch, warum die Winter seit dem „Klimasprung“ (1987/88) wieder etwas kälter wurden.

Abschließend seien noch die Verhältnisse für den Sommer gezeigt:

Abbildung 9: Seit 1980 sind im Sommer fast 66% der Variabilität der Temperaturen in Deutschland auf die Sonnenscheindauer zurückzuführen. Der kleine Einbruch der Sommertemperaturen zwischen 1996 und 2001 ging mit einer deutlichen Abnahme der erwärmend wirkenden Wetterlagen und einer leichten Abnahme der Sonnenscheindauer einher.

Fazit: Dem „Klimasprung“ von 1988 bis 1990 folgte keine beschleunigte Erwärmung; die Temperaturen verharren seitdem in West- und Mitteleuropa auf einem hohen Niveau. Als Ursachen des „Klimasprungs“ und der danach konstant hohen Temperaturen kommen die gegenwärtige AMO- Warmphase, eine erhöhte Häufigkeit erwärmend wirkenden Großwetterlagen, speziell im Winter, und eine längere Sonnenscheindauer, speziell im Sommer, in Betracht. In den hier nicht gezeigten Übergangsjahreszeiten dominiert im Frühling, am markantesten im April, die längere Sonnenscheindauer, im Herbst eine beachtliche Häufigkeitszunahme von milden Süd- und Südwestlagen.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Trump unterzeichnete das Dekret zur „Energie Unabhängigkeit“

Der [neue] Leiter der Umweltbehörde EPA, Scott Pruitt sagte gegenüber George Stephanopoulos von ABC’s News, Präsident Trump würde das Dekret am nächsten Tag veröffentlichen, um ein Pro-Wachstum und pro-Umwelt-Ansatz sicherzustellen, so wie wir uns die Regulierung in diesem Land vorstellen. Dieses Dekret wird die Bemühungen der vergangenen Regierung ansprechen, Arbeitsplätze in diesem Land durch den Clean Power Plan zu töten“.

Trump versprach, „Arbeitsplatz-abbauende“ -Energieregulierungen zu beseitigen, sepeziell eine EPA-Regulierung zurückzusetzen, die die Treibhausgasemissionen von Kraftwerken begrenzt – den Clean Power Plan (CPP).

Die bevorstehende Anordnung geht noch weiter, als nur den CPP zu beseitigen, so Bloombergs Jennifer Dlouhy, die einen Blick auf die kommende Anordnung warf. Hier ist mehr dazu:

  • Die Anordnungen der EPA sind zu überprüfen und „gegebenenfalls“ zu überarbeiten, um den CPP aufzuheben oder zu revidieren.
  • Das Moratorium des Innenministeriums über neue Leasingverträge zum Kohlebergbau auf Ländern des Bundes ist zu erneuern.
  • Eine Anweisung der Obama-Ära, wie Bundesbehörden die globale Erwärmung zu berücksichtigen haben, wenn sie nach dem Nationale Umweltpolitikgesetz (NEPA) eine Bewertung genehmigen – ist aufzuheben.
  • Eine föderale Arbeitsgruppe wird entbunden, die “ Schätzung der sozialen Kosten von Kohlenstoff“ (SCC) zu verwenden, um Vorschriften bezüglich der globalen Erwärmung zu rechtfertigen. Auch die „Schätzung der sozialen Kosten von C02“ wird komplett gestrichen.

Dlouhy berichtet, dass Trumps Anordnung „sechs spezifische Richtlinien seines Vorgänger widerruft, einschließlich Obamas umfangreicher Strategie für die Beschneidung von Methanemissionen aus der Nutzung von Öl-und Gas. Auch wird Trump „Obamas Richtlinien in Bezug auf Klimawandel und nationale Sicherheit sowie ein paar weitere Anordnungen bezüglich Obamas Klimapläne ab Juni 2013 annullieren“.

Während die meisten Trump’s Anordnungen sofort wirksam werden können, muss die Aufhebung des CPP einen langwierigen Prozess durchlaufen, der Monate oder Jahre dauern kann.

Umweltschützer haben geschworen, die Trump-Regierung zu verklagen, um den CPP zu verteidigen. Sie werden wahrscheinlich von demokratischen General Staatsanwälten unterstützt werden.

Artikel wurde mit Genehmigung übernommen von  The Daily Caller

Erschienen am 28.03.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/03/28/trump-to-sign-energy-independence-executive-order-today-killing-obama-climate-regs/

 

***

Als Abonnent des Handelsblatts, bekomme ich wochentäglich ein „morning briefing“ (= Anweisung, Instruktion) des Herausgebers Herrn Steingart. Heute früh postete dieser:

Mittwoch, 29.03.2017

Guten Morgen liebe Leserinnen und Leser,

die Zeit, in der Sie friedlich geschlafen haben, nutzte Donald Trump, um die Uhr zurückzudrehen. Mit einer präsidialen Anordnung – ganz ohne die lästigen Abgeordneten auf Capitol Hill – schuf Trump neue Fakten in der Umweltpolitik. Künftig soll die Kohle wieder begünstigt und die Förderung der alternativen Energien eingeschränkt werden. Das Wort Zukunft kann dieser Präsident nicht buchstabieren.

Donald Trump hasst Washington – und Washington hasst erbarmungslos zurück. Pulitzerpreis-Trägerin Maureen Dowd, Hauptstadtkolumnistin der „New York Times schreibt: „Lieber Donald, Du hast im Wahlkampf immer wieder darum gebeten, dass man dich nicht als Politiker bezeichnet. Keine Angst. Niemand wird dich nach diesen ersten Wochen für einen Politiker halten. Du bist noch nicht mal ein guter Verhandlungsführer. Du bist ein armer Trottel (sucker), der sich über den Tisch ziehen lässt. Normalerweise braucht Washington Jahre, um einen Präsidenten kleinzukriegen. Du aber bist deiner Zeit weit voraus.“

Gabor Steingart
Herausgeber

[Hyperlink zur NYT durch den Übersetzer]




Die Achillesferse der Energiewende

 Der Ausbau dieses überregionalen Stromnetzes sollte nach ursprünglicher Planung um das Jahr 2020 komplett sein. Aber nach derzeitigen Abschätzungen wird es bis 2025, vielleicht sogar bis 2030 dauern, bis die vier großen Nord-Süd-Gleichstromtrassen in Betrieb genommen werden können. Diese Zeitverzögerung bringt horrende technische , wirtschaftliche und politische Probleme mit sich, welche in diesem Blog dargelegt werden sollen.

Unser instabiles Stromnetz

Das derzeitige (alte) Wechselstromnetz ist für die Einspeisung von Wind- und Solarstrom aus vielen Quellen und mit wechselnder Menge („Zappelstrom“) nicht ausgelegt. Die Ingenieure der Netzbetreiber müssen immer wieder per Hand eingreifen, um die Frequenz stabil bei 50 Hertz zu halten. Dazu ist es notwendig, die Kraftwerke ständig hoch- oder herunterzufahren. Diese „Redispatch“-Maßnahmen stellen ein „Engpassmanagement“ dar und kann als „Notbewirtschaftung“ der Stromnetze bezeichnet werden. Dabei nimmt das Redispatch-Volumen ständig zu: in den ersten beiden Monaten dieses Jahres umfasste es bereits 63 Prozent des gesamten Vorjahres.

Der wachsende Einsatz für den Redispatch sorgt dafür, dass sich die Kraftwerksbetreiber nicht mehr als Herren über ihre Anlagen fühlen können. Es gibt inzwischen Kraftwerke, die – übers Jahr gesehen – kaum mehr frei am Markt agieren können, da sie fast ausschließlich und zu nicht vorhersehbaren Zeiten für Redispatch-Leistungen angefordert werden. Die Kosten für diese Noteingriffe werden (per Gesetz) dem Stromkunden aufgebürdet. Sie sind Bestandteil der Netzentgelte und machen bereits jetzt ein Viertel des Endkundenpreises für Strom aus. Im Jahr 2015 beliefen sich die Kosten für dieses Engpassmanagement auf gut eine Milliarde Euro. Die Tendenz ist stark steigend. Für das Jahr 2020 rechnet die Deutsche Netzagentur mit Zusatzkosten von 5 Milliarden Euro allein aus dieser Position.

Gleichstromtrassen versus Erdkabel

Eine längst als obsolet abgelegte Technologie feiert bei der Energieübertragung im Bereich der regenerativen Energien wieder fröhliche Urständ: die Gleichstromtechnik. Zum Stromtransfer über weite Strecken nutzt man die sogenannte Hochspannungs-Gleichstrom-Übertragung (HGÜ) aus zwei Gründen: weil es bei HGÜ das Blindstromproblem nicht gibt und weil die Energieverluste dort nur halb so groß sind wie bei der Wechselstromtechnik. Ein Nachteil der HGÜ-Technik ist allerdings die aufwendige Umwandlung von Gleichstrom in Wechselstrom, wozu man Konverterstationen in der Größe von Fußballfeldern benötigt. Derzeit sind zwei dieser HGÜ-Stromautobahnen in der Endphase der Planung: das Südlink zwischen Brunsbüttel und Obrigheim, sowie das Südostlink zwischen Magdeburg und Landshut. Zwei bis drei weitere sind angedacht sowie zusätzliche Anbindungen an die Meereswindparks.

Bei den o. g. landgestützten Trassen gibt es erhebliche Widerstände aus der Bevölkerung. Die betroffenen Anwohner in der Rhön und im Fichtelgebirge sprechen von „Monstertrassen“, insbesondere wegen der riesigen Masten. Deshalb werden viele Trassenabschnitte als Erdkabel in den Boden verlegt. Das verursacht erhebliche Mehrkosten (Faktor 5 bis 8), außerdem erhöht sich bei Erdkabeln aus physikalischen Gründen der Bedarf an Blindleistung. Die Gesamtkosten für die genannten Stromtrassen werden von den vier Netzbetreibern Amprion, Tennet, 50Hertz und TransnetBW auf mindestens 50 Milliarden Euro geschätzt. Auch sie werden den Stromkunden in Rechnung gestellt. Die Inbetriebnahme dieser Stromleitungen wird, wie oben erwähnt, möglicherweise erst im Jahr 2030 stattfinden.

Die aufwendige Verlegung von Erdkabeln

Kernkraftwerke: Abschaltung oder Weiterbetrieb?

Die Generalplanung der Energiewende im Jahr 2011 sah eigentlich vor, die heimischen Kernkraftwerke (KKW) sukzessive bis zum Jahr 2022 abzuschalten und den Windstrom von der Küste zu den deutschen Südstaaten zu transportieren. Dies wird unmöglich, wenn -wie dargestellt – hierfür die Stromleitungen fehlen. Von den 17 deutschen KKW wurden im Gefolge zu Fukushima 8 sofort abgeschaltet; für die restlichen 9 sah das Ausstiegsgesetz vom Sommer 2011 eine gestaffelte Abschaltung vor. Inzwischen wurde im Jahr 2015 das KKW Grafenrheinfeld außer Betrieb genommen; es folgen das KKW Gundremmingen B (im Jahr 2017) und Philippsburg 2 (in 2019). Während der kurzen Zeitspanne 2021 bis 2022 jedoch sollen die restlichen 6 größten deutschen KKW abgeschaltet werden, nämlich Gundremmingen C, Grohnde, Brockdorf, Isar 2, Emsland und Neckarwestheim II. Fast auf einen Schlag werden dann nahezu 9.000 Megawatt Stromerzeugung fehlen – und zwar in der so wichtigen und wertvollen Grundlast!

Vor diesem Hintergrund ist es vorstellbar, dass der Weiterbetrieb der letztgenannten 6 KKW fünf bis zehn Jahre lang über den politisch markierten Abschaltzeitpunkt hinaus aus wirtschaftlichen Gründen in Erwägung gezogen wird. Der Strombedarf der hochindustrialisierten Länder Bayern, Baden-Württemberg und Hessen ist dafür ein gewichtiges Argument. Der Import von (Atom-) Strom aus den umliegenden Ländern Frankreich, Schweiz und Tschechien ist über eine solche Zeitdauer keineswegs gesichert. Sofern Politik und Wirtschaft sich auf den Weiterbetrieb einiger KKW einigen sollte, dann sind spätestens 2018/19 eine Reihe von Entscheidungen zu treffen: (1) Das parlamentarische Ausstiegsgesetz wäre für einen begrenzten Weiterbetrieb entsprechend zu novellieren; (2) Die atomrechtlichen Genehmigungen zur Erlangung des Weiterbetriebs wären rechtzeitig zu beantragen; (3) Die Aufträge zur Brennstoffanreicherung in Gronau und zur Brennelementfertigung in Lingen wären termingerecht zu erteilen. Für Letzteres müsste Bundesumweltministerin Barbara Hendricks ihre Bemühungen zur Stilllegung der Anlagen in Gronau und Lingen einstellen.

Gaskraftwerke am Horizont

Man kann sich gut vorstellen, welche Öffentlichkeitswirkung im „ökologisch“ ausgerichteten Deutschland ein solcher Antrag zum verlängerten Betrieb einiger Kernkraftwerke hätte. Insbesondere, wenn er (wie zu vermuten) in die Zeit des anstehenden Wahlkampfes fallen würde. Deshalb haben die vier Betreiber des deutschen Übertragungsnetzes vorsorglich die Idee zum Bau von zusätzlichen Gasturbinen lanciert. Demnach sollen mehrere Anlagen dieser Art mit einer Gesamtkapazität von 2.000 Megawatt weiträumig verteilt über Bayern, Baden-Württemberg und Hessen zur Netzstabilisierung errichtet werden. Bei Netzstörungen, hervorgerufen durch Überlastung oder menschliche Fehlhandlungen, sollen diese Turbinen schnell in Betrieb genommen werden und das Gesamtsystem in einen sicheren Zustand überführen.

Die Bundesnetzagentur prüft derzeit die technischen Unterlagen. Sollte sie zustimmen, so würden die Investitions- und Betriebskosten dieser „Notstromanlagen“ dem Stromverbraucher angelastet werden.

Wetten, dass…?

Übernommen vom Rentnerblog




Frühlings­erwachen und „Klima­wandel“: Die Forsythien­blüte verspätet sich seit 30 Jahren

Der immer frühere Beginn sei ein eindeutiger Beweis der Klimaerwärmung, die wiederum ausschließlich CO2 bedingt wäre, wird behauptet, aber ohne jedweden wissenschaftlichen Versuchsnachweis. Vor allem die deutschen Medien verschärfen die meist noch neutral gehaltenen Texte des Deutschen Wetterdienstes. Dem unbedarften Leser soll suggeriert werden, dass die Forsythien vor 40 Jahren erst im Mai geblüht hätten und jetzt rücke der Termin von Jahr zu Jahr weiter vor. Als Beweis wird dann oftmals nicht die Blühgrafik gezeigt, sondern die Grafik des CO2-Anstieges, den niemand bezweifelt.

Wir sind der Sache nachgegangen und fragen uns: Blühen die Forsythien wirklich früher? Hält der Lenz tatsächlich immer einen früheren Einzug in Deutschland? Zu 2017: Für dieses Jahr gibt der Phänologe Iska Holtz den Referenzbusch an der Hamburger Lombardsbrücke mit dem Blütenbeginn 24. März an. Das sind 83 Tage seit Jahresbeginn. Im Folgenden wollen wir den Termin mit den 29 Blühterminen davor vergleichen. Beginn also 1988, das sind bis 2017 insgesamt 30 Datenpunkte und 30 Jahre stellen die kleinste Klimavergleichseinheit dar.

Wie verhalten sich die Blühtermine der Forsythie über die letzten 30 Jahre?

Vor allem für die Laien und Medienvertreter, bitte beachten: In der folgenden Grafik sind auf der x-Achse die Blühtermine der Forsythie als Tage nach Neujahr aufgetragen, ein Ausschlag nach oben bedeutet somit einen späten Blühtermin.

Abbildung 1: Vorsicht, nicht verwechseln, die dunkelblaue Trendlinie steigt, das bedeutet aber nicht Erwärmung. Auf der linken senkrechten x-Achse sind nicht die Temperaturen aufgetragen, sondern die Kalendertage seit Jahresbeginn. Je mehr Kalendertage, desto später der Forsythien-Blütenbeginn. Vor 30 Jahren lag der Blühbeginn der Forsythien noch im Februar.

Die Überraschung ist groß. Vor 30 Jahren lag der Blühbeginn noch im Februar. Die Hamburger Daten zeigen eine Verspätung seit 1988 und nicht die stets in allen Medien behauptete Verfrühung. Können die meist nicht naturwissenschaftlich ausgebildeten Reporter der Medien die Diagramme nicht lesen, oder handelt es sich um ideologische Verblendung?

Wir stellen hier nur fest: Obwohl die Beobachtungsreihe mitten in der großen Wärmeinsel Hamburg aufgenommen wurde, und damit gar nicht die Bedingungen einer objektiven Beobachtung erfüllt, ist der Blütenbeginn des DWD Vergleichsbusches seit 30 Jahren eindeutig verspätet. Der Frühling erwacht in Deutschland innerhalb der letzten 30 Jahre später und nicht wie behauptet früher.

Halten wir fest: Die vom DWD beobachtete Forsythienblüte der Stadt Hamburg zeigt in den letzten 30 Jahren, also seit 1988 einen deutlich verspäteten Frühlingsbeginn. Alle Veröffentlichungen in den Medien, dass just dieser Strauch an der Lombardsbrücke immer früher blühen würde, sind falsch.

Doch wie sieht es mit anderen Pflanzenarten an geeigneteren Standorten aus? Einer der Autoren beobachtet, leider erst seit 1990, unter anderem den Laubaustrieb der Wilden Stachelbeere (Ribes uva- crispa) in dem unverändert gebliebenen, weil denkmalgeschützten Park an der Ilm in Weimar. Dieser erfolgt etwa 2 bis 3 Wochen vor der Forsythienblüte und wird von vielen Phänologen als Erstfrühlingszeiger genutzt:

Abbildung 2: In den letzten 28 Jahren hat sich der Laubaustrieb der Wildstachelbeere keinesfalls verfrüht, sondern, wenn auch nur unwesentlich, verspätet, und das, obwohl er 2016 schon am 6. Februar erfolgte; 2017 dann erst am 4. März; 62 Tage nach Jahresbeginn.

Wegen des in den letzten 30 Jahren zweifellos gestiegenen CO2- Gehaltes der Luft hätten die Forsythien eigentlich früher blühen und auch die Wildstachelbeeren eher austreiben müssen, denn Kohlendioxid ist für die Pflanzen ein anregendes Düngemittel. Es gibt andere Gründe: Die Temperaturen, denn die Winter wurden in Deutschland und in anderen Ländern in den letzten 30 Jahren etwas kälter. Die Hochwintertemperaturen beeinflussen die Pflanzenentwicklung nämlich signifikant. Das folgende Streudiagramm illustriert das anhand des Laubaustriebs der Wildstachelbeere; bei dem Blühbeginn der Forsythie ist mit ähnlichen Relationen zu rechnen:

Abbildung 3: Je wärmer die vorausgehenden Hochwintermonate (Mittel aus Januar und Februar) waren, desto weniger Tage vergingen bis zum Laubaustrieb (negative Korrelation). Leider lagen keine Temperatursummen, die man aus den positiven Tagesmitteln der Lufttemperatur errechnet, vor. Aber auch so ist der Zusammenhang hoch signifikant (wesentlich).

Abbildung 4: Das Diagramm zeigt die kälter werdenden Wintermonate in Deutschland in den letzten 30 Jahren. Für den Forsythien-Blühbeginn Ende März dürfte der Dezember und der Januar jedoch weniger Einfluss haben. Entscheidender ist wohl der Februar.

Für den Forsythien-Blühbeginn im März ist der Monat Februar ausschlaggebender. Das entsprechende Februardiagramm für Deutschland über die letzten 30 Jahre sieht so aus:

Abbildung 5: Auch der Februar wurde in Deutschland eindeutig kälter. Der Februar entspricht ziemlich der Wintergrafik 2. Wir haben die Originaldaten des Deutschen Wetterdienstes in Offenbach verwendet.

Ergebnis: Nicht die steigende CO2- Konzentration der letzten 30 Jahre bestimmt den Frühlingsbeginn, sondern die fallenden Temperaturen der letzten 30 Jahre führen zu einer Verspätung der Forsythienblüte und zu einer leichten Vegetationsverspätung im Erstfrühling insgesamt.

Ebenso mitbestimmend für die Erstblüte sind der Photoperiodismus (Tageslänge!) sowie die Sonnenscheindauer und der UV- Anteil im Sonnenlicht (wirkt blühhemmend!), Feuchtigkeit und Nachtfröste sowie trophische Faktoren (Nährstoff- Versorgung im weitesten Sinne). Die gestiegene CO2-Konzentration der Luft dürfte in den letzten 3 Jahrzehnten bei allen Gehölzen die Blühwilligkeit gefördert haben; was indirekt nach den Gesetzen der Wahrscheinlichkeit in Richtung einer leichten Verfrühung wirkt. Aber die im Frühling seit einigen Jahrzehnten deutlich zunehmende Sonnenscheindauer bewirkt, dass die leichte Vegetationsverspätung im April oft schon wieder aufgeholt wurde und im Mai sogar eine leichte, aber keinesfalls besorgniserregende Vegetationsverfrühung zu beobachten ist.

Eine von uns gewünschte Erwärmung der Wintermonate hätte viel mehr Vor- als Nachteile für Flora und Fauna. Und das würden wir uns vor allem in Deutschland schon aus heizungstechnischen, vor allem aus psychischen Gründen wünschen.

Liebe Medienvertreter, es wird endlich Zeit, dass den Deutschen die Wahrheit erzählt wird. Wir leben keinesfalls mittendrin in einer gefährlichen Erwärmung. Kohlendioxid ist ein sauberes Gas, das mit dem Klima wenig zu tun hat. Kohlendioxid ist neben Sauerstoff und Wasser die Grundbedingung des Lebens auf der Erde. Die Erde braucht mehr und nicht weniger Kohlendioxid. Das Klima wandelt sich immer, aber Kohlendioxid hat keine Wirkung.

Das Klima lässt sich nicht schützen; es ist als „chaotisches System“ viel zu komplex und in vielerlei Hinsicht bislang nur unzureichend erforscht. Notwendig wäre jedoch ein umfangreicher Natur- und Umweltschutz. Sauberes Wasser, saubere Luft und saubere Nahrungsmittel sind ein Grundgut, das allen Menschen zusteht.

Josef Kowatsch, Naturbeobachter, Naturschützer und Klimawissenschaftler

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




Strahlenaberglauben schlimmster Art

Da verbreitet ein „Internationaler Hintergrundinformationsdienst für Politik, Wirtschaft und Militär“ (inter info) in Linz/Österreich die Erkenntnisse eines „Kernphysikers“ Mehran Keshe. Ein Japaner? Nein, Perser, der die Keshe-Stiftung gegründet hat, Sitz in Belgien. Diese befasst sich mit den Weltproblemen: Globale Erwärmung, Knappe Energie, Wasserprobleme, Nahrungsprobleme und behauptet, für alles bereits Lösungen gefunden zu haben.

Also, schlimmer als unsere Politiker mit deren Ziel, eine carbon-, gen- und atomfreie Welt zu schaffen, ist dieser Verein auch nicht. Um diese Politik zu rechtfertigen, muss Angst erzeugt werden, ganz besonders vor Plutonium. Das sieht Herr Keshe ebenso. Seine Behauptung, der Fukushima-Reaktor hätte der Herstellung von waffenfähigem Plutonium gedient, ist völlig aus der Luft gegriffen. Einiges Plutonium entsteht allerdings in jedem Reaktor.

Der „gefährlichste Stoff der Welt“ ist Plutonium jedoch nicht. Außerhalb des menschlichen Körpers stellt es gar keine Gefahr dar. Wenn man es verschluckt, ist es ein Giftstoff, nicht harmloser, aber auch nicht schlimmer als andere Gifte oder radioaktive Elemente. Herausragend ist allerdings die Gefährlichkeit beim Einatmen von Plutoniumstaub. Hat dieser die „richtige“ Teilchengröße, dann sind wenige Milligramm tödlich. Nur kommt so ein Staub, falls er irgendwo entstehen sollte, nicht weit, denn Plutonium ist sehr schwer (1,75-mal schwerer als Blei).

Eine Kettenreaktion erfordert eine kompakte Plutoniummasse von über 10 kg. Die gibt es nicht, schon gar nicht nach einer Kernschmelze. Auch steigen die Strahlungswerte nicht an, sondern gehen beim Abschalten des Reaktors auf wenige Prozent zurück und nehmen weiter ab.

„Die entlegensten Orte des Pazifischen Ozeans werden mit größeren Mengen radioaktiver Stoffe verseucht sein“? Die Freisetzung radioaktiver Stoffe aus dem Reaktor ist bekannt, sie ist übrigens wesentlich geringer als die in Tschernobyl freigesetzte Menge.

Ebenso bekannt sind die Wassermenge des Pazifiks und dessen natürliche Radioaktivität, etwa 12 Bq pro l. Wer die Grundrechenarten beherrscht und auch noch einen Taschenrechner hat, kann ausrechnen, dass die zusätzliche Aktivität durch Fukushima kaum 0,00002 Bq/l beträgt. Der Pazifik enthält also zunächst 12,00002 Bq/l. Die natürliche Aktivität bleibt, die ganz überwiegend auf Caesium 137 beruhende künstliche nimmt aber mit einer Halbwertszeit von 30 Jahren ab.

Der menschliche Körper enthält etwa 100 Bq pro l, pro kg ist es ungefähr das gleiche. Lutz Niemann weist darauf hin, dass sich die Herren Gabriel und Altmaier aufgrund ihres Übergewichtes größeren zusätzlichen Strahlendosen aussetzen als für Menschen nach der neuen Endlagerplanung zugelassen sind. Schon deshalb sollte man sie aus der Öffentlichkeit entfernen.

(1) Aus WIKIPEDIA: Stefan Wenzel besuchte die Grundschule in Resse bei Hannover und machte sein Abitur am Gymnasium Mellendorf; zwei Jahre lang betätigte er sich als Waldarbeiter und in der Landwirtschaft. Dann studierte er Agrarökonomie an der Georg-August-Universität Göttingen; in seiner Diplomarbeit stellte er einen Vergleich der Pacht- und Bodenpreise in der Europäischen Gemeinschaft an. Ein Jahr lang arbeitete er in Südamerika, unter anderem in einem SOS-Kinderdorf und in einem genossenschaftlichen Existenzgründungsprojekt. Wenzel wurde anschließend Grünen-Fraktionsgeschäftsführer im Landkreis Göttingen und lebte nebenbei einige Jahre von Subsistenzwirtschaft. Daneben war Wenzel zehn Jahre lang bis 1998 als Gesellschafter an einem Groß- und Einzelhandelsgeschäft für Wein aus ökologischem Anbau beteiligt.[2]




Die Vorschriften betreffs sozialer Kosten von Kohlenstoff

Auch das UN-Entwicklungsprogramm listet Energie als „zentralen Bestandteil der Reduktion von Armut“. Und der Geschäftsführende Direktor der IEA Dr. Faith Birol sagt: „Kohle steigert den Lebensstandard und führt Hunderte Millionen Menschen aus der Armut“. Tatsächlich gilt dies für alle fossilen Treibstoffe.

Tatsächlich haben fossile Treibstoffe in die moderne Welt und zu dem Wohn-, Verkehrs- und Lebensstandard sowie anderen Technologien geführt, die so viele heute als selbstverständlich hinnehmen. Sie sind unabdingbar für Strom und Leben, und während der letzten 250 Jahre hat sich die mittlere Lebenserwartung in allen Ländern, die sich der Vorteile fossiler Treibstoffe bedienten, mehr als verdoppelt.

Aber die Obama-Regierung und radikale Umweltaktivisten verachten fossile Treibstoffe und bedienten sich sämtlicher, ihnen zur Verfügung stehender Taktiken, um diese zu eliminieren. Eine ihrer wichtigsten Programme waren die „sozialen Kosten von Kohlenstoff“ oder SCC.

Regierungsagenturen nutzten das SCC, um die „versteckten Kosten“ von Kohlendioxid-Emissionen in Verbindung mit fossilen Treibstoffen zu berechnen. Dabei wiesen sie jeder Tonne von Fabriken, Kraftwerken, Wohnungen, Fahrzeugen und anderen Quellen emittierten CO2 einen Geldwert zu. Allerdings war das ganze Verfahren kaum mehr als Junk Science und GIGO-Prophezeiung.

Erstens, jede Tonne vermiedener US-Emissionen hätte zu Kosteneinsparungen in Höhe von hypothetischen 25 Dollar pro Tonne an globalen sozialen Kosten geführt, die vermeintlich durch einen gefährlichen, vom Menschen verursachten Klimawandel entstanden wären: weniger Überschwemmungen küstennaher Gebiete, weniger tropische Krankheiten, Dürren und Extremwetter-Ereignisse, um nur einige Beispiele zu nennen. Aber innerhalb von nur drei Jahren haben die Vorschriftengeber des SCC diese Kosten willkürlich auf etwa 40 Dollar pro Tonne erhöht.

Das machte es einfacher, den Clean Power Plan zu rechtfertigen, ebenso wie das Pariser Klimaabkommen und zahlreiche Maßnahmen aus der Obama-Ära zur Stromerzeugung, zu Fracking, Methan, Pipelines, Fahrleistung von Fahrzeugen und Effizienz von Haushaltsgeräten, Viehzucht, Kohlenstoffsteuern sowie Vorschriften zu Wind, Solar und Biotreibstoff nebst allen Subventionen.

Zweitens, die vermeintliche Grundlage des Konzeptes sind die sich jetzt rasch verschiebenden, auf Sand gebauten Prämissen der Theorie vom Klimachaos. Fast täglich tauchen neue Fragen auf bzgl. Qualität der Daten und Manipulation derselben; über das Ausmaß, bis zu dem CO2 die globalen Temperaturen beeinflusst, über das komplexe Zusammenspiel von Solar- und kosmischen Strahlen, über ozeanische und andere Kräfte, und über die Unfähigkeit von Computermodellen, Temperaturen, den Anstieg des Meeresspiegels oder Hurrikane zu prophezeien.

Dem UKMO und anderen Experten zufolge sind die globalen Temperaturen inzwischen nach dem Ende des El Nino von 2015-16 rasch wieder auf das Niveau der Jahre 1998 bis 2014 gesunken. Dies bedeutet, dass es seit 18 Jahren keine messbare planetarische Erwärmung gegeben hat. Auch die prophezeiten Katastrophen sind in der realen Welt nie eingetreten.

Dies bedeutet, dass allein schon der Gedanke, dass US-Emissionen erhebliche Klimakosten verursachen, zunehmend unhaltbar ist. Mehr noch, Entwicklungsländer verbrennen fossile Treibstoffe und emittieren CO2 um ein Vielfaches mehr als die USA, was bedeutet, dass selbst eine völlige Eliminierung fossiler Treibstoffe in den USA keinerlei Einfluss auf das atmosphärische CO2-Niveau haben würde.

Drittens, das SCC-Programm macht amerikanische Emissionen für vermeintliche Kosten weltweit verantwortlich (obwohl die US-Emissionen von CO2 derzeit abnehmen). Es ist grundsätzlich nur von allen nur denkbaren Kosten von Öl, Gas und Kohle hinsichtlich Ernten, Wäldern, Küstenstädten, Schädigung von Eigentum, „erzwungener Auswanderung“, sowie menschlicher Gesundheit, Ernährung und Krankheiten die Rede. Dabei werden die massiven und offensichtlichen Vorteile von Kohlenstoff komplett unerwähnt gelassen, geschweige denn dass diese analysiert werden.

Das verletzt eine executive order von Bill Clinton aus dem Jahr 1993, welche vorschreibt, dass Regierungsagenturen sowohl die Vorteile als auch die Kosten der eingebrachten Vorschläge abschätzen müssen. Es ist auch völlig irrational und steht in vollkommenem Gegensatz zu menschlichen Erfahrungen.

Fossile Treibstoffe schufen die moderne Welt und brachten Milliarden aus Armut und Krankheit. Sie stellen 80% der Energie zur Verfügung, welche die USA und andere moderne Zivilisationen am Leben hält, und sie werden das auch noch viele Jahrzehnte lang in der Zukunft tun. Sie erzeugen bis zu 70 Billionen Dollar jährlich an globalem BIP.

Zieht man bereits verfügbare Daten zum globalen Lebensstandard, Ökonomien, Krankheiten, Ernährung, Lebensspannen und anderen Vorteilen – und die eigenen Zahlen und Verfahren der SCC-Kosten der Regierung – heran, schätzen wir, dass die Vorteile die Kosten um mehrere Größenordnungen überkompensieren (hier): mindestens 50:1 und bis zu 500:1!

Die U.S. Energy Information Administration prophezeit, dass fossile Treibstoffe noch bis zum Jahr 2040 75% bis 80% der weltweiten Energie erzeugen – wenn der Gesamt-Energieverbrauch mindestens 25% höher als heute sein wird. Das heißt, dieses bemerkenswerte Kosten-Nutzen-Verhältnis wird weitergehen. Das SCC aus der Obama-Ära ignoriert auch all dies.

Viertens, SCC-Programme unterstellen den CO2-Emissionen lediglich Kosten. Dabei haben tausende wissenschaftliche Studien inzwischen verifiziert, dass das zunehmende Niveau dieses Wunder-Moleküls die Erde „ergrünen“ lässt – Wüsten schrumpfen, Wälder und Grasländer gedeihen besser, Ernten werden widerstandsfähiger gegen Dürren und verbessern so das Angebot von Nahrungsmitteln für die Menschen. Egal welchen Regierungsreport oder welchen Diskontsatz man ansetzt, die vermuteten Kosten zusätzlichen CO2 in der Erdatmosphäre sind im Vergleich zu den geschätzten Vorteilen infinitesimal.

Fünftens, Regierungsfunktionäre behaupten, dass sie genau die Schäden für das Weltklima vorhersagen können, für Ökonomien, Zivilisationen, Bevölkerung und Ökosysteme, welche von den US-Emissionen während der nächsten drei Jahrhunderte ausgehen. Sie sagen, dass wir für die heutige Energiepolitik, Gesetze und Vorschriften jene Vorhersagen zur Grundlage machen müssen.

Dieser Gedanken ist Wahnsinn und hoch gefährlich. Die Rate der Änderungen von Technologien zur Energieerzeugung und Anderem ist während der letzten Jahrzehnte exponentiell gestiegen, wobei die Fähigkeit zu Vorhersagen in gleichem Maße abgenommen hat. Unsicherheiten bzgl. von der Natur und vom Menschen getriebenen Klimawandel während der nächsten 300 Jahre sind genauso kolossal. Kombiniert man alle SCC-Hypothesen, Verfahren, Manipulationen und Auslassungen; und steckt man diese absurden Prophezeiungen in Hochgeschwindigkeits-Computermodelle, bedeutet das nur, dass falsche Vorhersagen schneller erstellt werden.

Und schließlich, der fundamentalste Punkt sind nicht einmal die sozialen Kosten von Kohlenstoff. Der fundamentalste Punkt sind die Kosten, die der Gesellschaft durch Anti-Kohlenstoff-Vorschriften entstehen. Jene Vorschriften ersetzen die Gewinne aus fossilen Treibstoffen durch Subventionen für erneuerbare Energie; sie ersetzen zuverlässige, bezahlbare Stromversorgung durch unzuverlässige Energie, die zwei- bis drei mal so viel kostet; und sie ersetzen Minen, Bohrlöcher, Ackerland und Wildnis-Reservate durch Zehnermillionen Quadratkilometer von Windparks, Solar- und Biotreibstoff-„Farmen“.

Anti-Kohlenstoff-Vorschriften sollen die Dekarbonisierung der Energieerzeugung und die Deindustrialisierung moderner Nationen antreiben. Vielleicht am schlimmsten aber ist, dass die Auswirkungen dieser Vorschriften die Ärmsten, die Minderheiten und die Arbeiterfamilien am härtesten treffen. Jene Familien geben im Verhältnis drei bis zehn mal mehr ihres Einkommens für Energie aus als Familien mit einem Einkommen von 50.000 bis 250.000 Dollar pro Jahr. Sie haben kaum Nebeneinkünfte und sind am stärksten dem Risiko ausgesetzt, dass ihnen der Strom abgeschaltet wird – wie es im Jahre 2015 bei 330.000 Familien im ultragrünen Deutschland der Fall war. Weltweit haben Milliarden Menschen immer noch keinen Strom – und SCC würde ihnen dessen Vorteile weiterhin vorenthalten.

Bürokraten, Aktivisten, Wissenschaftler und corporate rent-seekers heißen das SCC-Mumbo-Jumbo mit Sicherheit willkommen. Sie haben am meisten profitiert von den zahllosen Milliarden, welche die Obama-Vorschriften ihnen jedes Jahr in die Taschen gespült hat, und von den Zehnermilliarden Dollar, welche Mr. Obama in Dutzenden Agenturen, Programmen und Löchern in der gesamten Regierung versteckt hatte (hier), so dass man sie nicht so leicht auffinden oder kürzen konnte.

Alles in allem würden diese Herrschaften massiv von den 93 Billionen Dollar [auch von Anthony Watts thematisiert, auf Deutsch beim EIKE hier] profitieren, welche auszugeben die Klima-Task Force des Financial Stability Board fordert für Low-Carbon-Infrastruktur-Programme während der nächsten 15 Jahre, als Teil der Pläne der Firma Climate Crisis Inc. [GmbH] von Obama-UN-FSB, den Planeten zu dekarbonisieren und zu deindustrialisieren.

Steuerzahler, Verbraucher und Familien würden zerschlagen, sollte die Climate Cabal sogar noch mehr Macht über Energiepolitik, ökonomisches Wachstum, Lebensweise und Lebensstandard erhalten. Zum Glück erfordert die Eliminierung der sozialen Kosten von Kohlenstoff sowie Programme dazu nur wenig mehr als die gleichen Vorschriften und Standards anzuwenden, welche der Gesetzgeber den Unternehmen Volkswagen, Fiat oder Wall Street auferlegt hat.

Das ist der Grund, warum die Trump-Regierung den Klima-Kataklysmus-Betrug des SCC zur Disposition stellt, ebenso wie das Budget der EPA, die hinter so Vielem daraus steht. Das ist der Grund, warum die entsprechenden Komitees des Weißen Hauses eine Anhörung zum Thema SCC durchführten, und warum wir und andere Experten diese während der 12. Internationalen Klimakonferenz des Heartland Institute zum Thema machen [welche inzwischen stattgefunden hat].

Es ist an der Zeit, das SCC aufzulösen und jegliche Finanzierung zu streichen – und es zu ersetzen durch ehrliche und objektive Kosten-Nutzen-Analysen.

NOTE:  Roger Bezdek is an internationally recognized energy analyst and president of Management Information Services, Inc.

Link: https://www.cfact.org/2017/03/21/the-social-cost-of-carbon-scc-regulations/

Übersetzt von Chris Frey EIKE




7 Umwelt-Prophe­zeiungen vom Earth Day 1970, die einfach nur grund­falsch waren

Allgemein, ist eine dieser düsteren Prophezeiungen jemals eingetroffen? Nein, aber das hat die Umweltaktivisten nicht davon abgehalten, sich weiterhin Sorgen zu machen.

Hier folgen sieben Prophezeiungen von Umweltaktivisten vom Ende der Zivilisation bis zu klassischen Sorgen wie Peak Oil, die einfach nur absolut und total falsch waren.

1: In 15 bis 30 Jahren wird die Zivilisation zu Ende gehen!

Der Harvard-Biologe Dr. George Wald warnte kurz vor dem ersten Earth Day im Jahre 1970, dass die Zivilisation bald enden würde, „wenn nicht augenblicklich Maßnahmen ergriffen werden würden gegen die vor der Menschheit stehenden Probleme“. Drei Jahre vor seiner Projektion wurde ihm der Nobelpreis für Physiologie oder Medizin verliehen.

Wald war offen gegen den Vietnamkrieg und das Kernwaffen-Wettrüsten eingetreten. Er flog sogar einmal nach Moskau, um die Führer der Sowjetunion bzgl. Umweltpolitik zu beraten.

Aber trotz seiner Assistenz bei einer kommunistischen Regierung existiert die Zivilisation immer noch. Die Prozentzahl der wegen Umweltbedrohungen besorgten Amerikaner ist gesunken, ist doch die Zivilisation eben nicht an einer Umweltkatastrophe zugrunde gegangen.

2: Während der nächsten 10 Jahre werden 100 bis 200 Millionen Menschen den Hungertod sterben

Der Stanford-Professor Dr. Paul Ehrlich erklärte im April 1970, dass eine Massenhungersnot unmittelbar bevorstünde. Seine düsteren Prophezeiungen weigerten sich jedoch einzutreten, ist doch die Anzahl der in Armut lebenden Menschen signifikant gesunken und die Menge der Nahrungsmittel pro Person stetig gestiegen – trotz des Bevölkerungswachstums. Das BIP der Welt pro Person ist trotz Zunahme der Bevölkerung unermesslich gestiegen.

Ehrlich ist großenteils für diesen Standpunkt verantwortlich, hat er doch als Ko-Autor an dem Buch „The Population Bomb” des Sierra Clubs mitgewirkt. In dem Buch wurde eine ganze Reihe von Behauptungen aufgestellt einschließlich der Behauptung, dass Millionen Menschen während der siebziger und achtziger Jahre den Hungertod sterben würden. Massenhungersnöte würden zum Untergang Englands führen, und diese ökologische Katastrophe würde wegen des Zusammenbruchs der Zivilisation den Planeten verheeren.

3: Die Bevölkerung wird unvermeidlich und vollständig so stark zunehmen, dass eine wie auch immer geartete geringe Zunahme von Nahrungsmitteln längst nicht ausreichen wird.

Auch diese Behauptung stellte Paul Ehrlich im Jahre 1970 auf, kurz vor einer Agrar-Revolution, welche zu einer rapiden Zunahme der Nahrungsmittelvorräte in der Welt führte.

Ehrlich hat seine Prophezeiungen niemals überarbeitet, auch dann nicht, als er mit der Tatsache konfrontiert wurde, dass diese niemals eingetreten sind. Er legte sogar noch nach und verkündete im Jahr 2009, dass „der vielleicht größte Fehler in dem Buch war, dass es hinsichtlich der Zukunft viel zu optimistisch war“.

4: Demographen stimmen fast alle überein … in dreißig Jahren wird die ganze Welt Hunger leiden

Umweltaktivisten glaubten im Jahre 1970 wahrhaftig an einen wissenschaftlichen Konsens, dem zufolge wegen des Bevölkerungswachstums in den Entwicklungsländern, vor allem in Indien, eine globale Hungersnot drohe.

„Die Demographen stimmen hinsichtlich des folgenden Zeitablaufes weitgehend überein: Bis zum Jahr 1975 werden in Indien verbreitete Hungersnöte einsetzen. Diese werden sich bis zum Jahr 1990 auf ganz Indien, Pakistan, China, den Nahen Osten und Afrika ausbreiten. Bis zum Jahr 2000 oder auch schon deutlich früher werden Süd- und Mittelamerika unter Hungerbedingungen stehen“, sagte Peter Gunter, ein Professor an der North Texas University in einer Ausgabe von The Living Wilderness aus dem Jahr 1970. „Bis zum Jahr 2000, also in 30 Jahren, wird die gesamte Welt mit Ausnahme von Westeuropa, Nordamerika und Australien Hunger leiden“.

Indien, wo die Hungersnöte vermeintlich ihren Anfang nehmen sollten, wurde jüngst zum weltgrößten Exporteur landwirtschaftlicher Produkte, und die Nahrungsmittelversorgung pro Person hat dort während der letzten Jahre drastisch zugenommen. Dabei hat tatsächlich die Bevölkerung in jedem von Gunter genannten Land seit 1970 dramatisch zugenommen.

5: In einem Jahrzehnt werden Stadtbewohner Gasmasken tragen müssen, um die Luftverschmutzung zu überleben

Das Magazin Life wartete im Januar 1970 mit der Meldung auf, dass ein Wissenschaftler „solide experimentelle und theoretische Beweise dafür habe“, dass „in einem Jahrzehnt Stadtbewohner Gasmasken werden tragen müssen, um die Luftverschmutzung zu überleben … bis zum Jahr 1985 wird die Luftverschmutzung dafür sorgen, dass die auf die Erde einfallende Sonnenstrahlung um die Hälfte abnimmt“.

Trotz der Prophezeiung hat sich die Luftqualität weltweit der World Health Organization zufolge verbessert. Auch ist die Luftverschmutzung in den industrialisierten Ländern stark zurückgegangen. Kohlendioxid (CO2), das Gas, um das sich die Umweltaktivisten heutzutage sorgen, ist geruchlos, unsichtbar und in normalen Mengen für die Menschen völlig harmlos.

6: Kinder kriegen wird ein strafbares Verbrechen gegen die Gesellschaft sein, es sei denn, die Eltern haben eine Lizenz der Regierung

David Brower, der erste Geschäftsführende Direktor des Sierra Clubs, stellte diese Behauptung auf und fuhr fort: „“Alle potentiellen Eltern sollten verpflichtet werden, Empfängnis verhütende Chemikalien einzunehmen, wobei die Regierung Gegenmittel bereitstellt für diejenigen Bürger, die von der Regierung ausgewählt wurden, Kinder zu bekommen“. Brower war auch maßgeblich an der Gründung von Friends of the Earth und der League of Conservation Voters beteiligt, ebenso wie zu großen Teilen an der modernen Umweltbewegung.

Brower glaubte, dass die meisten Umweltprobleme ultimativ neuen Technologien zur Ursache haben, welche es der Menschheit erlaubten, natürliche Grenzen der Bevölkerungszahl zu überschreiten. Vor seinem Tod im Jahre 2000 stellte er noch die berühmte Behauptung auf, dass „jedwede Technologie als schuldig betrachtet werden sollte, bis sich deren Unschuld erweist“. Wiederholt sprach er sich auch für Geburtenkontrolle aus.

Heutzutage ist die einzige Regierung, die dieser Vision am nächsten kam, die chinesische Regierung, welche seine Ein-Kind-Politik im Oktober letzten Jahres ad acta gelegt hatte.

7: Im Jahre 2000 … wird es keinerlei Rohöl mehr geben!

Am Earth Day 1970 stellte der Ökologe Kenneth Watt seine berühmte Prophezeiung auf, der zufolge der Welt das Öl ausgehen würde. Er sagte: „Man wird an die Zapfsäule fahren und ,bitte auffüllen!‘ sagen, und es wird heißen ,tut uns leid, es gibt kein Benzin mehr’“.

Zahlreiche Akademiker wie Watt prophezeiten, dass die Ölerzeugung in Amerika im Jahre 1970 ihren höchsten Wert erreichen und dann graduell abnehmen würde, was wahrscheinlich zu einem globalen ökonomischen Kollaps führen wird. Heute jedoch hat die erfolgreiche Anwendung von Fracking in großem Umfang zu einem dröhnenden Comeback der Ölproduktion in Amerika geführt, und gegenwärtig gibt es zu viel Öl auf dem Markt.

Die amerikanischen Öl- und Gasreserven befinden sich auf dem höchsten Niveau seit 1972, und dank Fracking lag die Ölerzeugung in Amerika im Jahre 2014 um 80% höher als im Jahre 2008.

Außerdem befindet sich im Gebiet der USA das weltweit größte, noch nicht erschlossene Ölfeld, nämlich die Green River Formation in Colorado. Diese Formation allein enthält bis zu 3 Billionen Barrel Schieferöl, von welchem etwa die Hälfte förderwürdig sein könnte. Das ist fünfeinhalb mal mehr als alle nachgewiesenen Reserven von Saudi-Arabien. Diese einzelne geologische Formation könnte mehr Öl enthalten als sämtliche Vorräte der Welt insgesamt.

(Dank an Ronald Bailey bei Reason und Mark Perry am American Enterprise Institute).
Link: http://dailycaller.com/2016/04/22/7-enviro-predictions-from-earth-day-1970-that-were-just-dead-wrong/

Übersetzt von Chris Frey EIKE




Nee, bei uns gibt´s keine Klimaleugner

Die Märchentante vom Umwelt-Ministerium
Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein
Paris COP21 Verpflichtung: Greenpeace und Hendricks wollen Deutschland über das 1,5 ° Ziel so arm wie Bhutan, Gambia oder Äthopien machen
Der Klimaschutzplan 2050 für Marrakesch Teil 2

Wer dazu einmal praktisch live erleben möchte, welches Wissen und welche Überzeugung unsere Umweltministerin zu ihrem Handeln (an)treibt, dem sei das folgende Interview empfohlen. Es ist mit Datum Ende 2014 zwar schon leicht angestaubt, dem Autor ist aber nicht bekannt, dass sich Inhalte zwischenzeitlich wesentlich verändert hätten.
Allerdings muss angemerkt werden, dass der Moderator Tilo Jung (solide, journalistische Ausbildung), beim Autor einen noch erheblich negativeren Eindruck hinterlässt. Er moderiert penetrant und ausschließlich mit der Prämisse, dass Frau Hendricks in seinen Augen viel „zu lasch“ ist und zum Klimawandel zu wenig tun würde.

Ob dies des Moderators wirkliche Überzeugung oder bewusste „Masche“ ist, mag jeder selbst entscheiden. Doch ergibt eine solche Konstellation vielleicht eine Reportage, aber nie eine wirkliche Information zum Thema. Allerdings muss man zugeben, einen Einblick in die sich outende Ministerin, der „normal“ sonst so wohl nicht gelungen wäre. EIKE berichtete darüber
Nehme man es positiv: Vielleicht war es deshalb so gewollt. Zudem scheint es Stil einer Generation „junger Reporter*in“ zu sein [1][2], nicht mehr Wissen zu vermitteln oder zu ermitteln, sondern nur ihre eigene Meinung.

Jung & Naiv: Folge 212 – Die Bundesumweltministerin

Für einen Überblick reicht es, die ersten fünf Minuten anzuhören. Danach kommen im Wesentlichen nur noch alle (fleissigen EIKE-Lesern bekannten) Mainstream-Argumentationen, wie die der kostenlosen Ökoenergie und ununterbrochen der Klimawandel als Weltuntergang mit CO2-Verhinderung als alleinige Rettung.

Nicht, dass auch lichte Momente im Video auftauchen. Zum Beispiel das Wissen um das Speicherproblem (von dem Frau Hendricks sich aber sicher ist, dass es gelöst wird). Allerdings ordnen sich solche „Einsichten“ vollkommen der latenten und abgrundtiefen Angst vor dem Klimawandel unter.

Zeit 4:38 Frau Hendricks:
Nee bei uns gibt es keine Klimaleugner. Die gibts also wirklich in manchen Teilen, die gibts in den Vereinigten Staaten, die gibts in Australien und auch in anderen, nicht demokratischen Ländern kommt das auch vor, durchaus, aber bei uns gibts das nicht.

Zeit 14:10 Moderator:
Warum überzeugt man die Bevölkerung nicht damit, dass man ihnen sagt: Hey .. wenn wir das jetzt, wenn wir einmal bei 100 % sein sollten, dann braucht man für Strom gar nichts mehr zu bezahlen, weil sich das dann irgendwie selbst ergibt durch die Erneuerbaren und das Einzige was dann irgendwie kostet sind die Instandsetzung. Warum wird das Argument nie gebracht. Eh Leute, irgendwann braucht man für Strom nie mehr bezahlen …

Zeit 20:19 Frau Hendricks:
es gibt zwei Menschheitsaufgaben zu lösen: Den Klimaschutz und den Atommüll.


Eingebettetes YouTube Video Jung & Naiv: Folge 212. Falls dieses nicht startet, der Link: https://www.youtube.com/watch?v=0h5I6br-5No

Anmerkung: Danke an einen EIKE-Blogleser für den Hinweis

Quellen

[1] EIKE: Er sieht ein bisschen aus wie ein Agent! – aber sie wissen nicht was sie tun !

[2] EIKE: Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?




Die erste, ausschließ­lich auf Beobach­tungen beruhende Zustands­beschreibung des Klimas

Allgemeine Übersicht 2016

Das Jahr 2016 war überschattet von dem El Nino-Phänomen im Pazifik. Wahrscheinlich war 2016 eines der wärmsten Jahre in den längsten Temperaturreihen (HadCRUT), welche bis zum Jahr 1850 zurückreicht. Allerdings waren die Temperaturen Ende 2016 wieder auf das Niveau der Jahre vor dem jüngsten El Nino-Ereignis gesunken. Dies zeigt, dass die Temperaturspitze der Jahre 2015-16 hauptsächlich diesem ozeanischen Phänomen geschuldet war. Viele Diagramme in diesem Report konzentrieren sich auf die Periode ab dem Jahr 1979. Jenes Jahr repräsentiert den Beginn der Satelliten-Ära, in der der Zugang zu einer großen Vielfalt von Beobachtungen möglich wurde mit nahezu globaler Erfassung, einschließlich der Temperatur. Diese Daten bieten eine detaillierte Übersicht über Temperaturänderungen mit der Zeit in verschiedenen Höhen der Atmosphäre. Neben Anderem zeigen diese Beobachtungen: während der gut belegte Temperatur-Stillstand in der unteren Troposphäre etwa um das Jahr 2002 einsetzte, begann ein ähnliches Temperatur-Plateau in der Stratosphäre bereits im Jahre 1995, also viele Jahre vor Erreichen dieses Plateaus an der Erdoberfläche. Bis jetzt wurde diesem Aspekt der globalen Klimaänderung kaum Beachtung zuteil.

Die Lufttemperaturen an der Erdoberfläche stehen naturgemäß im Zentrum der Klimadebatte, aber die Bedeutung irgendwelcher kurzfristigen Erwärmungen oder Abkühlungen sollte nicht überbewertet werden. Immer wenn es auf der Erde zu einem warmen El-Nino- oder einem kalten La Nina-Ereignis gekommen war, erfolgte in großem Umfang Wärmeaustausch zwischen dem Pazifik und der darüber liegenden Atmosphäre, was sich als Signal in den Schätzungen der globalen Lufttemperatur niederschlagen kann. Allerdings reflektiert dies nicht eine ähnliche Änderung des Gesamt-Wärmegehaltes im System Ozean-Atmosphäre. Tatsächlich können globale Gesamt-Änderungen gering sein, und ein derartiger Wärmeaustausch kann hauptsächlich eine Umverteilung der Energie zwischen Ozean und Atmosphäre spiegeln. Die Evaluierung der Dynamik der Ozeantemperaturen ist daher genauso wichtig wie die Evaluierung der Änderungen der Lufttemperatur.

Seit dem Jahr 2004 haben ARGO-Bojen einen einheitlichen Datensatz mit Wassertemperaturen bis in eine Tiefe von 1900 m geliefert. Obwohl die Ozeane viel tiefer sind als 1900 m und die ARGO-Reihe noch ziemlich kurz ist, kann man trotzdem schon verschiedene interessante Dinge daraus ersehen. Global seit 2004 haben sich die oberen 1900 m im Mittel erwärmt. Die maximale Erwärmung erfolgte in den obersten 100 m, vor allem nahe dem Äquator.

In einer Tiefe von etwa 200 m gab es dagegen im Mittel eine Abkühlung. In noch größeren Tiefen gab es seit 2004 insgesamt wieder eine gewisse Erwärmung. Diese globale mittlere ozeanische Änderung seit dem Jahr 2004 spiegelt sich in den äquatorialen Ozeanen zwischen 30°N und 30°S. Das ist eine riesige Fläche. Gleichzeitig gab es in den nördlichen Ozeanen (55 bis 65°N) eine markante Abkühlung bis in Tiefen von 1300 m und eine gewisse Erwärmung in noch tieferen Schichten. In den südlichen Ozeanen (55 bis 65°S) gab es dagegen seit 2004 in allen Tiefen eine leichte Erwärmung. Wie jedoch allgemein bekannt ist, können Mittelwerte irreführend sein, und sehr oft erhält man bei eingehender Betrachtung der Details eine viel bessere Einsicht.

Daten der Lufttemperatur zeigen, dass ein Teil der Wärme aus dem Pazifik im Zuge der jüngsten El Nino-Episode in die Polargebiete transportiert worden sein könnte, vor allem auf der Nordhemisphäre, hauptsächlich im atlantischen Sektor. In vielen arktischen Regionen lagen die Temperaturen im Herbst und zum Winterbeginn hoch, begleitet von damit in Beziehung stehenden Wetterphänomenen. Gleichzeitig war die langwellige Ausstrahlung nördlich von 70°N von der Obergrenze der Atmosphäre TOA stärker als normal. Mittels dieses Mechanismus‘ könnte ein großer Teil der im Pazifik freigesetzten Wärme aus der Arktis in den Weltraum abgestrahlt worden sein.

Ein faszinierender Unterschied entwickelt zwischen den von Temperaturstationen an der Erdoberfläche gemessenen Temperaturen (HadCRUT, NCDC und GISS) einerseits sowie den Satellitenbeobachtungen (UAH, RSS) andererseits.

Zu Beginn der Temperaturaufzeichnungen ab dem Jahr 1979 lagen die von Satelliten gemessenen Temperaturen oftmals – aber nicht immer – höher als die aus Bodenbeobachtungen abgeleiteten Temperaturen. Seit dem Jahr 2003 jedoch haben sich die Temperaturwerte von Bodenstationen fortlaufend von den Werten der Satellitenmessungen zum Warmen hin entfernt. Sie sind jetzt im Mittel um etwa 0,1°C höher. Ende 2016 erreichte die globale Ausdehnung des Meereises ein markantes Minimum. Zumindest teilweise war die Ursache hierfür durch das Wirken von zwei verschiedenen natürlichen Zyklen des Meereises in der nördlichen und der südlichen Hemisphäre zu finden. Im Jahre 2016 erreichten beide Zyklen gleichzeitig ihr Minimum mit unvermeidlichen Konsequenzen für die globale Meereis-Ausdehnung. Daher wird es wahrscheinlich während der kommenden Jahre zu entgegengesetzten Änderungen der globalen Eisausdehnung kommen.

Variationen der global mit Schnee bedeckten Gebiete sind hauptsächlich bestimmt durch Änderungen auf der Nordhemisphäre, wo sich die größten Landmassen konzentrieren. Die Schneebedeckung der Südhemisphäre wird im Wesentlichen durch den antarktischen Eisschild bestimmt und ist daher relativ stabil. Die Ausdehnung der Schneebedeckung auf der Nordhemisphäre war seit Beginn von Satellitenbeobachtungen ebenfalls ziemlich stabil, obwohl lokale und regionale Änderungen von Jahr zu Jahr sehr groß sein können. Betrachtet man jahreszeitliche Änderungen, nimmt herbstliche Schneebedeckung auf der Nordhemisphäre leicht zu, im Mittwinter ist sie ziemlich stabil, und die Frühjahrs-Ausdehnung nimmt ein wenig ab.

Der globale Meeresspiegel wird durch Satelliten-Altimeter-Messungen und durch direkte Messungen an Tidenmesspunkten überwacht. Während die aus Satelliten abgeleiteten Werte einen globalen Anstieg des Meeresspiegels um etwa 3 mm pro Jahr zeigen, zeigen die Werte von Tidenmesspunkten auf der ganzen Welt einen stabilen Anstieg um weniger als 1,5 mm pro Jahr. Eine Erklärung der markanten Differenz zwischen den beiden Datensätzen steht noch aus. Was aber bedeutsam bleibt, ist jedoch, dass für die Planung in küstennahen Gebieten die Tidenmessungen wichtiger sind, wie in den detaillierten Ausführungen erläutert wird.

Executive summary

1. Wahrscheinlich war das Jahr 2016 eines der wärmsten Jahre während der instrumentellen Ära (seit etwa 1850). Allerdings war die Temperatur zum Ende des Jahres 2016 auf das Niveau der Jahre vor dem El Nino 2015/16 zurückgegangen, obwohl es kleine Differenzen zwischen den unterschiedlichen Temperaturreihen gibt. Diese Tatsache bestätigt, dass die Temperaturspitze 2015/16 hauptsächlich dem El Nino geschuldet war. Sie zeigt außerdem, dass sich das, was man als ,Stillstand‘, ,Pause‘ oder ,Periode geringer Erwärmung‘ bezeichnet, nach der jüngsten El Nino-Episode wieder einstellen könnte.

2. Es scheint sich eine systematische Differenz zu entwickeln zwischen den von Stationen und von Satelliten gemessenen Temperaturen. Vor allem seit dem Jahr 2003 hat sich die aus Stationsmessungen ergebende Temperatur konsistent von den Satelliten-basierten Messungen entfernt und liegt jetzt um etwa 0,1°C höher.

3. Die in der unteren Troposphäre gemessenen Temperatur-Variationen spiegeln sich allgemein auch in größeren Höhen, und der seit 2002 beobachtete allgemeine ,Stillstand‘ tritt in allen Höhen zutage, einschließlich der Tropopause bis in die Stratosphäre hinauf. In der Stratosphäre jedoch begann der Temperatur-,Stillstand‘ bereits im Jahre 1995, das ist 5 bis 7 Jahre früher als ein ähnlicher ,Stillstand‘ in den oberflächennahen Schichten auftrat. Der stratosphärische Temperatur-,Stillstand‘ dauert nunmehr seit etwa 22 Jahren an ohne Unterbrechungen.

4. Das jüngste El Nino-Ereignis 2015-16 war eines der Stärksten seit Beginn der Aufzeichnungen im Jahre 1950. Betrachtet man jedoch die gesamte Reihe, scheinen jüngste Variationen von El Nino und La Nina nicht von der zuvor beobachteten Verteilung abweichen.

5. Ein großer Teil der durch den El Nino 2015-16 freigewordenen Wärme scheint in die Polargebiete transportiert worden zu sein, besonders in die Arktis, was zu Extremwetterereignissen und ungewöhnlich hohen Lufttemperaturen führte. In der Folge dürfte die Wärme in den Weltraum abgestrahlt worden sein, waren doch Breiten nördlich von 70°N charakterisiert durch eine über dem Normalen liegende langwellige Strahlung während des Herbstes und dem Beginn des Winters 2016 von der Nordhemisphäre.

6. Seit dem Jahr 2004, als die ARGO-Bojen ihren Betrieb aufnahmen, haben sich die globalen Ozeane in Schichten oberhalb einer Tiefe von 1900 m im Mittel in irgendeiner Form erwärmt. Die maximale Erwärmung (von der Oberfläche bis zu einer Tiefe von etwa 120 m) beeinflusst die Ozeane nahe dem Äquator. Eine Erwärmung der Oberfläche ist in höheren Breiten beider Hemisphären nur sehr gering oder fehlt ganz. Die maximale Erwärmung der Ozeanoberfläche erfolgte in den Breiten, wo die einfallende Solarstrahlung ihr jährliches Maximum erreicht. Eine insgesamte Abkühlung seit dem Jahr 2004 ist im Nordatlantik ausgeprägt.

7. Daten von Tidenmesspunkten auf der ganzen Welt zeigen einen mittleren globalen Anstieg des Meeresspiegels um 1 bis 1,5 mm pro Jahr, während aus Satelliten abgeleitete Beobachtungen einen solchen von über 3 mm pro Jahr zeigen. Eine allgemein akzeptierte Erklärung für die merkliche Differenz zwischen den beiden Datensätzen steht noch aus.

8. Die Meereis-Ausdehnung in Arktis und Antarktis verläuft gegensätzlich und nimmt jeweils ab bzw. zu. Diesen Gesamttrends sind kürzere Variationen überlagert, welche ebenfalls wichtig sind, um die Variationen von Jahr zu Jahr zu verstehen. In der Arktis ist eine 5,3-Jahre-Periode von Bedeutung, in der Antarktis ist es ein Zyklus von etwa 4,5 Jahren. Beide diese Variationen erreichten ihr Maximum gleichzeitig im Jahre 2016, was das jüngste Minimum der globalen Meereis-Ausdehnung erklärt.

9. Die Ausdehnung mit Schnee bedeckter Flächen auf der Nordhemisphäre zeigt bedeutende lokale und regionale Variationen von Jahr zu Jahr. Die Gesamt-Tendenz jedoch (seit dem Jahr 1972) ist eine stabile Gesamtausdehnung schneebedeckter Flächen.

Link: http://www.thegwpf.com/the-worlds-first-state-of-the-climate-survey-based-on-observations-only/

Übersetzt von Chris Frey EIKE

Hinweis: Beim Anklicken des Links zum Original findet sich auch der Link zum gesamten PDF (43 Seiten)




Energie und Gerechtigkeit

von Frank Hennig

Gerecht ist, wenn gleiche Chancen bestehen, sagen die einen. Gerecht ist, wenn die Reichen viel mehr zahlen, sagen die anderen. Sind ungleiche Strompreise gerecht?

Gibt es eine Energiegerechtigkeit und – wenn ja – was ist das?

Im Wortsinn gemeint ist eine insofern gerechte Energieversorgung, dass weltweit alle Menschen stets Zugang zu einer die Lebensbedürfnisse absichernden Energiemenge haben sollten. Damit ist zunächst jener Teil der Weltbevölkerung gemeint, der auch heute noch keinen oder völlig unzureichenden Zugang zu Energie hat, vor allem in Form der Modernisierungsenergie Elektrizität. Die Weltkarte des Energie-Pro-Kopf-Verbrauchs zeigt eindrucksvoll, was gemeint ist.

Unter den acht Milleniumszielen der UN ist zwar die Energieversorgung nicht als eigener Schwerpunkt aufgeführt, aber Energie ist der Schlüssel zur Erreichung aller Ziele wie der Bekämpfung von Armut, Voraussetzung für Bildung, für die Verbesserung der Gesundheitsversorgung und weiterer.

 

Die Versorgung mit elektrischem Strom ist die Schlüsselfrage

auf dem Weg zu Wohlfahrt und Wohlstand. In der Dritten Welt führt der Weg oftmals über Inselnetze, die derzeit meist mit stationären dieselgetriebenen Generatoren versorgt werden. Zunehmend gibt es technische Lösungen durch Fotovoltaik im Verbund mit Akkumulatoren und teilweise kleinen Windkraftanlagen. Das reicht, um die bescheidenen Haushaltsbedarfe hinsichtlich Beleuchtung, elektronischen Medien und Telekommunikation unterbrechungsfrei zu erfüllen – ein großer zivilisatorischer Fortschritt. Dies ermöglicht bescheidenen Komfort und planvolles kleinteiliges Wirtschaften ohne Zwangspausen.

Die völlig berechtigte Forderung nach Energiegerechtigkeit wird oft mit der nach Umweltgerechtigkeit verbunden bis hin zu einer konstruierten „Klimagerechtigkeit“. Dies führt dazu, dass ideologisch verbrämt die Elektrifizierung in der dritten Welt nur emissionsfrei und vorzugsweise dezentral erfolgen soll. Die Entwicklung größerer wirtschaftlicher Einheiten würde damit schon im Ansatz verhindert. In einer Studie der Rosa-Luxemburg-Stiftung gibt es dazu die ganze Breitseite von Energie-, Umwelt- und Klimagerechtigkeit bis hin zu Energiedemokratie und –justiz. Die Verknüpfung von Energiegerechtigkeit mit der Auflage „100-Prozent-Erneuerbar“ dürfte den Menschen in der dritten Welt wenig helfen. Die Nutzung von Biomasse und billiger Kohle stand bisher immer am Anfang erfolgreicher Entwicklung in Schwellenländern.

Die weltweiten Ressourcen würden es ermöglichen, dass alle Menschen Zugang zu ausreichend Energie haben. Gern wird ein Verteilungskampf konstruiert und unterstellt, wir Reichen würden den Armen dieser Welt die Energie vorenthalten. Abgesehen davon, dass wir in unserer westlichen Welt viel Energie nutzen und sie leider auch verschwenden, tun wir mit der Verbindung von Energiegerechtigkeit und der Auflage ökologisch reiner Versorgung der dritten Welt wirklich keinen Gefallen.

 

Natürlich wenden auch Länder der dritten Welt regenerative Technologien an.

Vorzeigeprojekt ist der solarthermische Kraftwerkskomplex im marokkanischen Ouarzazate. Allerdings liegen die Stromgestehungskosten mit 12 Cent pro Kilowattstunde höher als die konventioneller Kraftwerke, so dass der Strompreis staatlich gestützt werden muss. Der ursprüngliche Gedanke, dieser Standort würde das Zentrum einer raumgreifenden Wüstenstromentwicklung werden, ist inzwischen in harter Realität versandet. Für den Aufbau einer stabilen Infrastruktur stellen afrikanische Länder die Weichen zumeist anders. Südafrika setzt auf Steinkohle, in Ägypten entsteht das größte Gaskraftwerk der Welt und der Sudan vereinbarte mit China den Bau eines Kernkraftwerks. Natürlich wird man in Afrika vermehrt die Solarenergie nutzen. Für die Wärmegewinnung oder in Inselnetzen batteriegepuffert und sinnvoll in größere Netze integriert macht sie Sinn. Aber die Belastbarkeit der Stromkunden in Form einer wie in Deutschland ungedämpft auf die Verbraucher durchgereichten versteuerten Umlage funktioniert in Afrika nicht. Schon aus weniger bedeutenden Anlässen wurden hier Regierungen weggeputscht.

 

Und wie sieht die Energiegerechtigkeit bei uns aus?

Schauen wir zunächst nach den Bedürftigen. Hartz-4-Empfänger erhalten Heizkosten pauschal ersetzt, nicht aber die Stromkosten. Unter der Position „Energie und Wohninstandhaltung“ wird bei einem Regelsatz von 409 Euro (Einzelperson) ein Betrag von 34,50 Euro veranschlagt – mit Ausnahmen bei dezentraler Warmwasserversorgung (Elektroboiler). Diese Summe reicht nach Erhebungen verschiedener Wohlfahrtsorganisationen und Recherchen von Verbraucherorganisationen und Journalisten nicht aus. Für „Wohninstandhaltung“ bleibt ohnehin nichts übrig. 39,42 Euro müssen Single-Haushalte im Durchschnitt für ihren Strom aufwenden, ermittelte ein Vergleichsportal, Check24 kommt auf 42,74. In den östlichen Bundesländern ist die Schere noch größer, da hier die Stromkosten auf Grund der Netzentgelte höher sind, dazu später mehr. Dafür ist – wenn schon, denn schon – der Anteil an Hartz-4-Empfängern im Osten auch höher.

Auch bei den Heizkosten kann die Gerechtigkeitsfrage kompliziert sein. Wer noch mit Kohle seinen Kachelofen oder ein gusseisernes Gerät beheizt, ist dem Ermessen des Amtes ausgeliefert. Dieses legt die günstigste Heizungsart zu Grunde. Ein Bürger im Spree-Neisse-Kreis beantragte zwei Tonnen Briketts, genehmigt wurde eine. Für das Holz zum Anzünden gab es die Kontaktdaten zum Revierförster. Aber Vorsicht, das kann zur Falle werden. „Deckt jemand den Bedarf zusätzlich mit kostenlosem Heizmaterial, mindert dies den Bedarf“. Zuviel Holz sollte der Bürger also nicht sammeln, sonst werden die Briketts neu abgezählt.

Die Tendenz der Stromsperren in unserem reichen armen Land zeigt einen stabilen Aufwärtstrend, die Arbeitsplätze der Nach- und Sperrkassierer bei den Versorgern werden sicherer. 2011 schalteten sie 312.000 mal ab, 2015 waren es dann schon 360.000 Fälle. Die Anzahl der unwürdigen Vorgeschichten von Mahnverfahren und Einigungsversuchen ist weitaus höher.

Linke fordern verlässlich eine Erhöhung des Hartz-4-Satzes oder extra Stromgeld für Bedürftige. Alternativ auch einen Sozialtarif, zu dem die Versorger zu verpflichten wären. Ob der dann auch auf den Bäcker ausgeweitet werden soll, wurde noch nicht geäußert, denn auch bei diesem gehen die Preise auf Grund steigender Energiekosten nach oben. Aber wie der Bäcker wollen auch die Versorgungsunternehmen nicht auf einem Teil ihrer Kosten sitzen bleiben.

Von grüner Seite folgt mantramäßig der Ratschlag, den Stromanbieter zu wechseln. Das ist besonders nachhaltig und funktioniert etwa so gut wie beim Sprit, wo der ADAC seit Jahrzehnten empfiehlt, den Ölmultis ein Schnäppchen zu schlagen und zur Billigtanke um die Ecke zu fahren.

 

Über allem thront ein hartherziger Staat.

Trotz Rekordeinnahmen und einem Staatsanteil am Strom von inzwischen 55 Prozent denken die Regierung und am wenigsten Kassenwart Schäuble daran, den zwangsabgebenden Bürgern die Bürde zu erleichtern. Die mit Mehrwertsteuer belegte Stromsteuer mutierte schweigend zur unveränderlichen Säule staatlicher Bereicherung, auch wenn sie numerisch der Rentenkasse dient. Wie die Sektsteuer und der Soli ein Ausweis staatlicher Gier, in deren Folge zu den Rekordeinnahmen die Steuerverschwendung in Form vieler nutzloser Projekte proportional ansteigt, während auf der kommunalen Ebene Schmalhans der Küchenmeister ist.

Nicht nur den Hartz-4-Empfängern, auch dem großen Teil der anderen Bürger bleibt der Energiekostendruck alternativlos erhalten. Wer es sich leisten kann, steigt in den Ökokomplex und damit in die Gewinnerseite ein, belegt sich das Dach mit Fotovoltaik oder zeichnet Anteile an einem Windpark. Der schwankende Wind bringt zwar schwankenden Ertrag und auch Investitionsrisiken, aber wenn der Rubel rollt, bleibt die Gewissheit, dass der draufzahlende Teil der Bevölkerung dies zwar widerwillig aber völlig alternativlos tut.

Einen erheblichen Teil der Stromkosten, bis zu 30 Prozent, machen in Haushalten die Netzentgelte aus. Sie werden durch die Bundesnetzagentur staatlich reguliert und richten sich auch nach dem Aufwand der Netzbetreiber. Dieser ist in ländlichen, dünnbesiedelten Gegenden und solchen, in denen viel regenerativer Strom eingesammelt wird, logischerweise am höchsten. Durch geringere Auslastung der Höchstspannungsnetze, ansteigende volatile Einspeisung in untere Spannungsebenen, nötigen Netzausbau mit entsprechenden Kapital-Abschreibungen, höheren Redispatch-Aufwand der Kraftwerke und die so genannten „vermiedenen Netzentgelte“ ist dieser Preisbestandteil in den Ost-Flächenländern am höchsten. Die Differenz zu Ballungsgebieten und westdeutschen Flächenländern nimmt zu.

Ein Vierpersonenhaushalt zahlt in Bremen durchschnittlich 305 Euro für den Stromtransport, in Brandenburg macht das 614 Euro. Die sündhaft teuren Offshore-Netzanbindungen dagegen werden bundesweit umgelegt. Gerecht ist das nicht.

Brandenburg erhielt mehrfach so genannten „Leitstern für den Ausbau Erneuerbarer Energien“, zugleich sind dort wie auch in Mecklenburg-Vorpommern, Schleswig-Holstein und Niedersachsen die höchsten Netzgebühren fällig.

 

Es ist einigermaßen perfide, dem Land vorn einen Papporden anzuheften

und zum Dank für ausufernde Verspiegelung und Verspargelung der Landschaft den Menschen von hinten umso tiefer in die Tasche zu greifen.

Schon im „Grünbuch Strommarktdesign“ des BMWi von 2014 wird auf die Schieflage hingewiesen, die mit den Zielen der Energiewende nicht kompatibel sei. Die bundeseinheitliche Wälzung der Netzkosten schien abgemacht. Auch Agora als „Denkfabrik“ untermauerte die Forderung:

„Die Antwort darauf ist, dass man die Netzentgelte bundesweit vereinheitlicht. Dadurch würden die Netzentgelte auf dem Land und im Osten deutlich sinken, in der Stadt und im Westen aber nur leicht steigen. Alles andere ist nicht gerecht, denn es bedeutet, dass die Menschen dort,  wo die Erneuerbaren Energien zugebaut werden, die Netzausbaukosten zu tragen haben, aber diejenigen die den Erneuerbaren-Strom anderswo bekommen, nichts zu diesen Kosten beitragen“, so der Chef Dr. Graichen.

Trotz des Drängens selbst der Ministerpräsidenten der betroffenen Länder bewegte sich bis heute allerdings nichts.

Stattdessen bastelt man in einer Novelle des „Netzentgeltmodernisierungsgesetzes“ daran, die „vermiedenen Netzentgelte“ zu senken. Von diesen profitieren zum Beispiel Stadtwerke mit Eigenerzeugung, die regional auf den unteren Spannungsebenen versorgen und damit die Höchstspannungsnetze nicht belasten. Für die dadurch vermiedene Netznutzung im Höchstspannungsbereich erhalten sie sozusagen einen Bonus. Um die Verbraucherkosten zu dämpfen, soll damit nun Schluss sein. Die Erfurter Stadtwerke befürchten dadurch bis zu sieben Millionen Euro Verlust, in Halle an der Saale schätzt man einen zweistelligen Millionenbetrag. Die bisher schon geschrumpfte Quersubventionierung von ÖPNV oder Freibädern dürfte dann der Vergangenheit angehören. Der Bundesrat arbeitet inzwischen dagegen an, indem er die Unterscheidung „volatil“ und „dezentral“ in den Gesetzentwurf einbringt. Dies würde konstanten oder regelbaren Einspeisern wie zum Beispiel den KWK-Anlagen der Stadtwerke das Privileg „vermiedener Netzentgelte“ erhalten, nicht aber Solar- und Windanlagen. Diese fallen allerdings sehr weich: Bis 2027 soll diesen der Rabatt abgeschmolzen werden . . .

 

In Deutschland betrat unlängst eine Lichtgestalt in Form eines Kanzlerkandidaten der SPD die politische Bühne.

Niemand kann Herrn Schulz übelnehmen, dass er zu Beginn des Wahlkampfes wenig Konkretes zu seinen politischen Absichten sagt. Ein Thema stellt er aber schon deutlich heraus und trägt es wie eine Monstranz vor sich her: Die Gerechtigkeit.

Nun ist Gerechtigkeit kein Wert an sich und kann allein nicht existieren. Wenn viele Menschen gleich arm sind, ist das gerecht, aber nicht erstrebenswert. Der Gini-Index dürfte in Nordkorea deutlich geringer sein als in den Industriestaaten, aber Gerechtigkeit ohne Wohlstand kann wohl kein Ziel sein. Gerechtigkeit in Verbindung mit den Strompreisen in unserem Land zu nennen, ist ein Wagnis. Das EEG steht wie kein anderes Gesetz für staatlich verbriefte Umverteilung von unten nach oben.

Niemand kann sich ihm und den anderen Abgaben, Umlagen und Steuern entziehen, abgesehen von der EEG-Befreiung und Netzkostenermäßigungen für die Großindustrie, die sonst im internationalen Wettbewerb chancenlos wäre. Unstrittig belasten die Energiekosten die Haushalte der Geringverdiener am meisten.

Obwohl die soziale Schieflage der Energiewende immer deutlicher zu Tage tritt, sind die Entscheider untätig. Dass Schulz das EEG sozial und gerecht machen wird (was de facto nur durch seine Abschaffung zu erreichen sein dürfte), ist nicht zu vermuten.

Dass die Netzkosten künftig gerechter verteilt werden, hat sich nunmehr der Bundesrat auf die Fahne geschrieben und fordert die bundesweite Umlegung der Netzentgelte ab 2018. Die Länderkammer sieht im Gegensatz zur Regierung offenbar dringenden Handlungsbedarf und verweist offiziell auf „Fehlentwicklungen im Stromsektor“.

Was sagen Parteien zu ihren Vorhaben bezüglich der Energieversorgung nach der Bundestagswahl? Die meisten Wahlkampfprogramme sind noch nicht veröffentlicht, es kann aber davon ausgegangen werden, dass schon der Begriff „Energieversorgung“ nur sparsam auftreten, dafür aber umso mehr vom Klima gesprochen werden wird.

Zu befürchten ist ein versteinertes „Weiter so – wo wir sind ist vorn“. Ausnahmen bilden FDP und AfD, die den Mut haben, schon jetzt mehr oder weniger drastische Korrekturen am Kurs zu fordern. Der Wirtschaftsflügel der CDU zuckt noch, dass er nach der Wahl stärker wird ohne den alten Fuchs Fuchs, ist unwahrscheinlich. Parteidisziplin und bedingungslose Unterordnung unter die von energiepolitischen Realitäten unbeeinflussten machtpolitischen Erwägungen der Kanzlerin gehören zum Selbstverständnis einer von kritischen Geistern weitgehend befreiten CDU. Das Kalkül gibt vor, die schwarzgrüne Option offen zu lassen.

Es wird eine der Nagelproben des SPD-Wahlkampfes im Osten, ob Schulz das Gesicht auch der Energiegerechtigkeit wird oder ob er später als Kanzler oder Vizekanzler die Maske fallen lässt. Bis jetzt fasste die Regierung das Problem ungleicher Netzgebühren trotz Zusage nicht an. Sigmar Gabriel trat kurz vor dem Bäumchen-wechsel-dich an der SPD-Spitze in dieser Frage auf die Bremse. Nun ja, im Mai wird in NRW gewählt. Bundesweit gewälzte Netzentgelte würden dort zu höheren Strompreisen führen. Das wollte die SPD der Hannelore nicht antun. NRW hat etwa genau so viel Einwohner und Wähler wie ganz Ostdeutschland. Passiert dann etwas nach den dortigen Landtagswahlen und vor den Bundestagswahlen?

Um den Windstrom von der Nordsee nach Süddeutschland zu bringen, müssen noch viele Kabelrollen abgewickelt und die Stränge teils kostentreibend unter die Erde gelegt werden. Die Trassenführung, kürzlich von den Netzbetreibern vorgestellt, führt zu Länderkonflikten. Da „Suedlink“ auch teilweise Westthüringen anstelle Hessen durchschneiden soll, fordert Ministerpräsident Ramelow „föderale Gerechtigkeit“. „Thüringen sagt ja zur Energiewende, sagt aber nein zu den neuen Trassenplanungen“, so seine grüne Umweltministerin. Nach diesem konsequent rotrotgrünen „Wasch-mich-aber-mach-mich-nicht-nass“ entsteht der leise Verdacht, dass Suedlink vielleicht doch noch nicht 2025 zugeschalten werden könnte.

 

In jedem Fall kostet diese Verbindung viel Geld.

Die Kosten tragen zunächst TenneT und TransnetBW und legen das auf die Kunden in ihren Versorgungsgebieten um. Folge werden höhere Netzentgelte im Westen und Süden sein. Eine eigene, durch Engpässe bedingte teurere Südzone wird verschiedentlich auch diskutiert. Eine bundesweite Umlage könnte dann allerdings zum Bumerang für die heutigen Mehrzahler werden.

Denn dann zahlen alle mehr, was Ausdruck einer speziell deutschen Kategorie „Energiegerechtigkeit“ wäre.

 

 




Wie geil ist das denn, wir können Energie erzeugen, ohne die Landschaft kaputt zu machen

Wahlspot „Windkraft voraus“ der Grünen Kandidatin

Interviewer:
Wichtiges Thema für die Grünen ist ja auch regenerative Energien und viele Bürgerinitiativen und einige Parteien im Saarland sind ganz klar gegen Windkrafträder: Wie bringst du jemand in dessen Nähe zu Hause so ein Windkraftrad entstehen soll, bei dass das wichtig ist?
Barbara Meyer:
Ja wir müssen die Klimakatastrophe verhindern. Und das geht nur durch den Ausstieg aus den fossilen Energien. Und dazu brauchen wir die Energiewende. Und dazu brauchen wir ganz dringend die Windkraft und das dezentral. Und das müssen wir den Leuten sagen. Wir können nicht sagen: Atomausstieg ja, Klimakatastrophe verhindern ja, aber Windkraft, nein danke. Das funktioniert einfach nicht.
Interviewer:
Wenn so ein Ding vor deiner Haustüre gebaut werden sollte?
Barbara Meyer:
Dann freue ich mich. Weil wenn ich durch die Landschaft fahre und die Windräder sehe, dann freue ich mich jedes Mal, weil ich sag: Wie geil ist das denn, wir können Energie erzeugen, ohne die Landschaft kaputt zu machen

Link zum Video: Windkraft voraus

Quelle

Saarländischer Rundfunk Mediathek, 14.03.2017: Barbara Meyer-Gluche (Die Grünen) – Windkraft voraus